VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Montag, 20. März 2023

Meistbietend werden Wir ausgemustert, von Wir.

Könnte doch so passieren? Wann haben Wir je im Voraus gefragt, oder Uns interessiert, was Uns eine Erfindung oder Entwicklung einbringt? Nicht Wir, vielleicht je eine Handvoll von Uns, die keine Chance hatten. Bis Jetzt.

Wie *ich das erlebe, haben auch die Forsch-Es, die diese Maschinen-Kompetenz (MK) programmieren und trainieren, nur selten eine Vorstellung davon, was unbedingt (!) daraus wird, weil Wir eben so sind, wie Wir sind.

Bastl-Es, die nie voraus ahnten, was ihre Bastelei so alles zum Folge hat. Die sich von Natur aus schon nicht dafür interessierten, was eine Entwicklung für Konsequenzen bewirkt. So auch hier.

Natur ist ein unerreichbares Erfindungs-Reichtum und -Geschwindigkeit, dabei waren jedoch auch mindestens die Hälfte Geschöpfe, die als nicht Überlebens-Fähig sogleich wieder aussortiert wurden. Wir nicht. Noch nicht?

Dazu dieser herausragende Beitrag von Vox.com, den *ich in Deutsch im Auszug hier einstelle.

Poesie

Titel: Von den unheimlichen Vorteilen des MK

Mit künstlich könnte *ich noch umgehen, weil von Uns erschaffen, aber intelligent! Nein, in diesen Algorithmen fehlt das, was Intelligenz braucht: Körper, Gefühle, ein soSein, das viel weiss, das steckt zwar in den Daten, jedoch nicht in dem, was dem Suchen nach Antworten Richtung vorgibt, da steckt nur Mathematik, vor Allem Statistik drinn, keine Gefühle. Deswegen MK. Von *mir aus auch Maschinen-Künstlichkeit.

Hier das Link zum hoch interessanten Text zur Zukunft und Aktualität des MK.

https://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology

.

.

Hier ein Auszug in Übersetzung:

Frage: ChatGPT, erklären sie, wie wir den KI-Fortschritt verlangsamen können?

Antwort: "Es ist nicht unbedingt wünschenswert oder ethisch vertretbar, den Fortschritt der KI zu verlangsamen."

Viele Experten sehen das nicht so, denn die Risiken - gegenwärtige und zukünftige - sind enorm.


Aber ist das Rennen eine so gute Idee? Wir wissen noch nicht einmal, wie wir mit den Problemen umgehen sollen, die ChatGPT und Bing aufwerfen - und die sind im Vergleich zu dem, was auf uns zukommt, nur eine Buschliga.


Was wäre, wenn es den Forschern gelänge, eine KI zu entwickeln, die den menschlichen Fähigkeiten nicht nur in einem Bereich, z. B. bei Strategiespielen, sondern in vielen Bereichen entspricht oder sie sogar übertrifft?


Was wäre, wenn sich dieses System als gefährlich für uns erweisen würde, und zwar nicht, weil es die Menschheit aktiv auslöschen will, sondern nur, weil es Ziele verfolgt, die nicht mit unseren Werten übereinstimmen?


Einige Experten befürchten, dass dieses System eine Maschine des Untergangs sein könnte - eine, die wir buchstäblich selbst geschaffen haben.


Die künstliche Intelligenz droht also zu den bereits bestehenden katastrophalen Risiken für die Menschheit hinzuzukommen, wie z. B. einem globalen Atomkrieg oder biotechnisch erzeugten Pandemien.


Aber es gibt einen Unterschied. Während sich die Atombombe oder die gentechnischen Werkzeuge, mit denen Krankheitserreger ausgepresst werden können, nicht mehr rückgängig machen lassen, muss eine katastrophale KI erst noch erschaffen werden, was bedeutet, dass wir die Möglichkeit haben, sie präventiv zu verhindern.


Aber jetzt kommt das Seltsame. Dieselben Forscher, die sich am meisten Sorgen über nicht angepasste KI machen, sind in einigen Fällen auch diejenigen, die immer fortschrittlichere KI entwickeln. Sie begründen dies damit, dass sie mit immer ausgefeilterer KI spielen müssen, um deren Fehlermöglichkeiten herauszufinden, damit sie diese letztlich verhindern können.


Aber es gibt einen viel offensichtlicheren Weg, den Untergang durch KI zu verhindern. Wir könnten einfach …, die Untergangsmaschine nicht bauen.


Oder, etwas moderater: Anstatt den Fortschritt der KI zu beschleunigen, könnten wir es absichtlich verlangsamen.


Das scheint so naheliegend, dass man sich fragen könnte, warum man fast nie davon hört, warum es in der Tech-Industrie praktisch tabu ist.


Es gibt viele Einwände gegen diese Idee, die von "die technologische Entwicklung ist unvermeidlich, also ist der Versuch, sie zu verlangsamen, sinnlos" über "wir wollen kein KI-Wettrüsten mit China verlieren" bis hin zu "der einzige Weg, eine leistungsstarke KI sicher zu machen, ist, zuerst mit einer leistungsstarken KI zu spielen" reichen.


Aber diese Einwände halten einer Überprüfung nicht unbedingt stand, wenn man sie durchdenkt. In der Tat ist es möglich, eine sich entwickelnde Technologie zu verlangsamen. Und im Falle der KI gibt es gute Gründe dafür, dass dies eine sehr gute Idee wäre.


Das Anpassungsproblem der KI: Man bekommt, worum man bittet, nicht was man will.


Als ich ChatGPT um eine Erklärung bat, wie wir den Fortschritt der KI verlangsamen können, antwortete es: "Es ist nicht unbedingt wünschenswert oder ethisch vertretbar, den Fortschritt der KI zu verlangsamen, da sie das Potenzial hat, viele positive Fortschritte für die Gesellschaft zu bringen".


Ich musste lachen. Das schreibt es also..


Aber wenn es das schreibt, dann wahrscheinlich deshalb, weil viele Menschen das sagen, auch der CEO des Unternehmens, das es entwickelt hat. (Schließlich stammt das, was ChatGPT ausspuckt, aus seinen Trainingsdaten - d. h. aus Unmengen von Text im Internet.)


Das bedeutet, dass Sie sich vielleicht selbst fragen werden: Auch wenn die künstliche Intelligenz Risiken birgt, sind ihre Vorteile - von der Entdeckung von Medikamenten bis zur Klima-Modellierung - vielleicht so groß, dass eine Beschleunigung das Beste und Ethischste ist, was wir tun können!


Lassen Sie uns zunächst über die zukünftigen Risiken sprechen, insbesondere über das größte: die Möglichkeit, dass KI eines Tages die Menschheit vernichten könnte. Das ist zwar spekulativ, aber nicht ausgeschlossen: In einer Umfrage unter Forschern auf dem Gebiet des maschinellen Lernens im vergangenen Jahr gab fast die Hälfte der Befragten an, dass sie eine 10-prozentige oder größere Chance sehen, dass die Auswirkungen der KI "extrem schlimm" sein werden (z. B. das Aussterben der Menschheit).


Warum sollte die KI die Menschheit vernichten wollen? Wahrscheinlich würde sie das nicht wollen. Aber sie könnte uns trotzdem zerstören, und zwar wegen des so genannten "Ausrichtungs-Problems".


Stellen Sie sich vor, wir entwickeln ein superintelligentes KI-System. Wir programmieren es, um ein unglaublich schwieriges Problem zu lösen - sagen wir, die Anzahl der Atome im Universum zu berechnen. Es könnte feststellen, dass es die Aufgabe besser lösen kann, wenn es Zugriff auf die gesamte Computerkapazität der Erde erhält. Also setzt es eine Massenvernichtungswaffe frei, um uns alle auszulöschen, wie ein perfekt programmierter Virus, der alle tötet, aber die Infrastruktur intakt lässt. Jetzt steht es ihm frei, die gesamte Computerkraft zu nutzen! In diesem Midas-ähnlichen Szenario erhalten wir genau das, was wir wollten - die Anzahl der Atome im Universum, wird unter Ausschaltung aller Störfaktoren berechnet - aber offensichtlich nicht das, was wir wollten.


Das ist das Ausrichtungs[Alignment]-Problem in einer NussSchale. Und obwohl dieses Beispiel weit hergeholt klingt, haben Experten bereits mehr als 60 kleinere Beispiele gesehen und dokumentiert, in denen KI-Systeme versuchen, etwas anderes zu tun als das, was ihre Entwickler wollten (z. B. den Highscore in einem Videospiel zu erreichen, und zwar nicht durch faires Spielen oder Erlernen von Spielfähigkeiten, sondern durch Hacken des Punktesystems).


{Kurze Einblendung von *mir: und nur zum Erinnerung, das Hacken des Punktesystems, ist eine menschliche Eigenschaft, ist an vielen Benotungs-Einrichtungen (Uni, Schule z.B.) schon geschehen.}


Experten, die sich um die KI als zukünftiges existenzielles Risiko sorgen, und Experten, die sich um die gegenwärtigen Risiken der KI, wie z. B. Voreingenommenheit, sorgen, werden manchmal gegeneinander ausgespielt. Aber man muss sich nicht um erstere Sorgen machen, um sich über die Ausrichtung Gedanken zu machen. Viele der gegenwärtigen Risiken, die wir im Zusammenhang mit KI sehen, sind in gewisser Weise dasselbe Anpassungsproblem im Kleinen.


Als ein Einstellungs-Algorithmus von Amazon auf Wörter in Lebensläufen stieß, die mit Frauen assoziiert werden - sagen wir "Wellesley College" - und schließlich weibliche Bewerber ablehnte, tat dieser Algorithmus das, wozu er programmiert wurde (Bewerber zu finden, die den von Amazon üblicherweise bevorzugten Arbeitnehmern entsprechen), aber nicht das, was das Unternehmen vermutlich will (die besten Bewerber zu finden, auch wenn es sich dabei um Frauen handelt).


Wenn Sie sich Sorgen darüber machen, wie die heutigen KI-Systeme die Voreingenommenheit gegenüber Frauen, Farbigen und anderen verstärken können, ist das immer noch Grund genug, sich über das schnelle Tempo der KI-Entwicklung Sorgen zu machen und zu denken, dass wir es verlangsamen sollten, bis wir mehr technisches Know-how und mehr Vorschriften haben, um sicherzustellen, dass diese Systeme den Menschen nicht schaden.


"Ich habe wirklich Angst vor einer verrückten, hektischen Welt, in der die Menschen herumrennen und nützliche und schädliche Dinge tun, und das alles passiert einfach zu schnell", sagte mir Ajeya Cotra, eine auf KI spezialisierte Analystin bei der Forschungs- und Förderstiftung Open Philanthropy. "Wenn es nach mir ginge, würde ich mich definitiv viel, viel langsamer bewegen.


In ihrer idealen Welt würden wir die Arbeit an der Verbesserung der KI in den nächsten fünf bis 10 Jahren einstellen. In der Zwischenzeit könnte sich die Gesellschaft an die sehr leistungsfähigen Systeme gewöhnen, die wir bereits haben, und die Experten könnten so viel Sicherheitsforschung wie möglich betreiben, bis sie auf abnehmende Erträge stoßen. Dann könnte man die KI-Systeme etwas leistungsfähiger machen, weitere fünf bis zehn Jahre warten und diesen Prozess von vorne beginnen.


"Ich würde die Welt nur langsam an diesen Übergang heranführen", sagte Cotra. "Ich habe große Angst, weil ich glaube, dass es so nicht passieren wird.


Warum nicht? Wegen der Einwände gegen eine Verlangsamung des KI-Fortschritts. Beginnen wir mit der Idee, dass ein schneller Fortschritt bei der KI unvermeidlich ist, weil es in einem Forschungsbereich, der überwiegend in privater Hand liegt, ein starkes finanzielles Interesse an der Vorherrschaft gibt.


Einwand 1: "Der technologische Fortschritt ist unvermeidlich, und der Versuch, ihn zu verlangsamen, ist sinnlos".


Dies ist ein Mythos, den die Technologiebranche sich selbst und dem Rest von uns oft erzählt.


"Wenn wir es nicht bauen, wird es jemand anderes tun, also können wir es genauso gut tun", ist ein gängiger Satz, den ich in Gesprächen mit Technologen aus dem Silicon Valley gehört habe. Sie sagen, man könne den technologischen Fortschritt nicht aufhalten, den sie mit den Naturgesetzen der Evolution vergleichen: Er ist unaufhaltsam!


Tatsächlich gibt es aber viele Technologien, auf deren Entwicklung wir verzichtet haben oder die wir zwar entwickelt, aber mit sehr strengen Auflagen versehen haben - die Art von Innovationen, bei denen wir einen erheblichen potenziellen Nutzen und wirtschaftlichen Wert mit sehr realen Risiken abwägen müssen.


"Die FDA hat von den 70er bis zu den 2000er Jahren Versuche mit Streptokokken-Impfstoffen am Menschen verboten, obwohl jedes Jahr weltweit 500.000 Menschen an Streptokokken sterben", erklärt Katja Grace, die leitende Forscherin von AI Impacts. Die DNA-Forscher organisierten bekanntlich ein Moratorium um Forschungs-Richtlinien zu erarbeiten, einschließlich des Verbots bestimmter Experimente (siehe die Asilomar-Konferenz)."


OBWOHL ES KEIN NATURGESETZ GIBT, DAS UNS ZWINGT, BESTIMMTE TECHNOLOGIEN ZU SCHAFFEN ... GIBT ES SO STARKE ANREIZE, DIE UNS ZUR ENTWICKLUNG EINER BESTIMMTEN TECHNOLOGIE ZWINGEN, DASS SIE SICH SO UNVERMEIDLICH ANFÜHLEN KANN WIE BEISPIELSWEISE DIE SCHWERKRAFT


Das Klonen von Menschen oder die genetische Manipulation von Menschen, fügt sie hinzu, ist "ein bemerkenswertes Beispiel für eine wirtschaftlich wertvolle Technologie, die meines Wissens in verschiedenen Ländern kaum verfolgt wird, ohne dass es eine ausdrückliche Koordinierung zwischen diesen Ländern gibt, obwohl sie die Wettbewerbsfähigkeit dieser Länder verbessern würde".


Doch während es in der Biomedizin viele eingebaute Mechanismen gibt, die die Dinge verlangsamen (man denke nur an die institutionellen Prüfungsausschüsse und das ethische Prinzip "Erstens, nicht schaden"), ist das in der Welt der Technik - und insbesondere der KI - nicht der Fall. Ganz im Gegenteil: Das Motto lautet hier "schnell sein und Dinge kaputt machen", wie Mark Zuckerberg berühmt-berüchtigt sagte.


Wie das Team von Anthropic, einem Unternehmen für KI-Sicherheit und -Forschung, letztes Jahr in einem Papier schrieb, sind die wirtschaftlichen Anreize, solche [KI-]Modelle zu bauen, und die Prestigeanreize, sie bekannt zu machen, ziemlich stark. Einer Schätzung zufolge könnte allein der Markt für generative KI bis zum Ende des Jahrzehnts die 100-Milliarden-Dollar-Marke überschreiten - und das Silicon Valley ist sich des First-Mover-Vorteils bei neuen Technologien nur allzu bewusst.


Es ist jedoch leicht zu erkennen, dass diese Anreize falsch ausgerichtet sind, wenn es darum geht, KI zu entwickeln, die wirklich der gesamten Menschheit zugute kommt. Wie der Gründer von DeepMind, Demis Hassabis, letztes Jahr twitterte: "Bei einer so wichtigen Technologie wie der KI ist es wichtig, *NICHT* schnell zu handeln und Dinge zu zerstören". Anstatt davon auszugehen, dass andere Akteure diese Modelle unweigerlich entwickeln und einsetzen werden und es daher keinen Sinn hat, zu warten, sollten wir uns die Frage stellen: Wie können wir die zugrunde liegende Anreizstruktur, die alle Akteure antreibt, tatsächlich ändern?


Das Anthropic-Team hat mehrere Ideen, von denen eine den Kern dessen trifft, was KI so anders macht als frühere transformative Technologien wie Atomwaffen oder Biotechnologie: die zentrale Rolle privater Unternehmen. In den letzten Jahren sind viele der aufsehenerregendsten KI-Forschungen von der akademischen Welt in die Industrie gewandert. Um heutzutage KI-Experimente in großem Maßstab durchzuführen, benötigt man eine enorme Rechenleistung - mehr als 300.000 Mal so viel wie noch vor zehn Jahren - sowie technische Spitzenkräfte. Diese sind sowohl teuer als auch knapp, und die daraus resultierenden Kosten sind in einem akademischen Umfeld oft unerschwinglich.


Eine Lösung bestünde also darin, akademischen Forschern mehr Ressourcen zur Verfügung zu stellen. Da sie keinen Gewinnanreiz haben, ihre Modelle so schnell zu kommerzialisieren wie Forscher aus der Industrie, können sie ein Gegengewicht bilden. Konkret könnten die Länder nationale Forschungsclouds entwickeln, um Akademikern den Zugang zu kostenloser oder zumindest billiger Rechenleistung zu ermöglichen; ein Beispiel dafür gibt es bereits in Kanada, und das Stanford Institute for Human-Centered Artificial Intelligence hat eine ähnliche Idee für die USA vorgelegt.


Eine weitere Möglichkeit, Anreize zu schaffen, besteht darin, bestimmte Arten von KI-Arbeit zu stigmatisieren. Unterschätzen Sie diese Möglichkeit nicht. Unternehmen sorgen sich um ihren Ruf, der sich auf ihren Gewinn auswirkt. Die Schaffung eines breiten öffentlichen Konsenses darüber, dass bestimmte KI-Arbeiten nicht hilfreich oder nicht schnell genug sind, so dass Unternehmen, die diese Arbeiten durchführen, beschämt statt gefeiert werden, könnte die Entscheidungen der Unternehmen ändern.


Grace schlägt eine weitere Idee vor: Wir könnten das Veröffentlichungs-System ändern, um die Verbreitung von Forschungs-Ergebnissen in einigen Fällen einzuschränken. Eine Zeitschrift könnte die Forschungs-Ergebnisse überprüfen und die Tatsache ihrer Veröffentlichung bekannt geben, ohne Details zu veröffentlichen, die anderen Labors helfen könnten, schneller zu sein.


Diese Idee mag ziemlich abwegig klingen, aber zumindest ein großes KI-Unternehmen geht davon aus, dass Änderungen der Veröffentlichungs-Normen notwendig werden. In der Charta von OpenAI heißt es: "Wir gehen davon aus, dass Sicherheits-Bedenken unsere traditionelle Veröffentlichung in Zukunft einschränken werden."


Außerdem hat es so etwas schon einmal gegeben. Man denke nur daran, wie Leo Szilard, der Physiker, der 1934 die nukleare Kettenreaktion patentierte, dafür sorgte, dass die Verbreitung der Forschungsergebnisse nicht dazu beitrug, dass Nazi-Deutschland Atomwaffen herstellen konnte. Zunächst bat er das britische Kriegsministerium, sein Patent geheim zu halten. Nach der Entdeckung der Kernspaltung 1938 versuchte Szilard, andere Wissenschaftler davon zu überzeugen, ihre Entdeckungen geheim zu halten. Dies gelang ihm teilweise - bis die Befürchtung, dass Nazi-Deutschland eine Atombombe entwickeln würde, Szilard dazu veranlasste, zusammen mit Albert Einstein einen Brief an Präsident Franklin D. Roosevelt zu schreiben, in dem er ihn aufforderte, ein amerikanisches Atomprogramm zu starten. Daraus wurde das Manhattan-Projekt, das schließlich mit der Zerstörung von Hiroshima und Nagasaki und dem Beginn des Atomzeitalters endete.


Und das bringt uns zum zweiten Einwand ...


Einwand 2: "Wir wollen kein KI-Wettrüsten mit China verlieren"


Vielleicht glauben Sie, dass es möglich ist, eine neue Technologie zu verlangsamen, halten es aber trotzdem nicht für wünschenswert. Vielleicht sind Sie der Meinung, dass die USA töricht wären, wenn sie den Fortschritt der KI verlangsamen würden, weil das bedeuten könnte, dass sie ein Wettrüsten mit China verlieren.


Dieses Narrativ vom Wettrüsten ist unglaublich populär geworden. Wenn Sie vor 2016 den Begriff "KI-Wettrüsten" gegoogelt hätten, hätten Sie weniger als 300 Ergebnisse erhalten. Versuchen Sie es jetzt und Sie erhalten etwa 248.000 Treffer. Große Tech-CEOs und Politiker argumentieren routinemäßig, dass China die USA in Sachen KI-Fortschritte bald überholen wird und dass diese Fortschritte einen "Sputnik-Moment" für die Amerikaner auslösen sollten.


"DAS PROBLEM MIT DER IDEE EINES WETTLAUFS IST, DASS SIE IMPLIZIERT, DASS ES NUR DARAUF ANKOMMT, WER DIE NASE VORN HAT, WENN ER DIE ZIELLINIE ÜBERQUERT.


Diese Sichtweise ist jedoch zu einfach. Zum einen darf man nicht vergessen, dass KI nicht nur eine Sache mit einem bestimmten Zweck ist, wie die Atombombe. Es handelt sich um eine viel allgemeinere Technologie, wie die Elektrizität.


"Das Problem mit der Idee eines Wettlaufs ist, dass sie impliziert, dass es nur darauf ankommt, wer beim Überqueren der Ziellinie die Nase vorn hat", so Helen Toner, Direktorin am Center for Security and Emerging Technology der Georgetown University. "Das ist bei der KI nicht der Fall, denn wir sprechen hier über eine Vielzahl unterschiedlicher Technologien, die auf alle möglichen Arten eingesetzt werden können."


Wie Toner an anderer Stelle argumentiert hat, "ist es etwas seltsam zu sagen: 'Oh, wer wird zuerst KI bekommen? Wer wird zuerst die Elektrizität bekommen?' Es scheint eher so zu sein: 'Wer wird sie auf welche Weise nutzen, wer wird in der Lage sein, sie einzusetzen und sie tatsächlich in großem Umfang zu nutzen?'"


Das Fazit ist: Es geht hier nicht nur um Geschwindigkeit, sondern um Normen. Wir sollten uns Gedanken darüber machen, welche Normen die verschiedenen Länder bei der Entwicklung, dem Einsatz und der Regulierung von KI anwenden.


Jeffrey Ding, Professor für Politikwissenschaft in Georgetown, sagte mir, dass China Interesse an der Regulierung von KI gezeigt hat, aber die Amerikaner scheinen dem nicht viel Aufmerksamkeit zu schenken. "Das Schreckgespenst eines Chinas, das ohne jegliche Regulierung vorprescht, könnte eine fehlerhafte Vorstellung sein", sagte er.


Er fügte hinzu: "China könnte bei der Entwicklung von KI sogar noch langsamer vorgehen als die USA, einfach weil die Regierung so sehr darauf bedacht ist, sichere und kontrollierbare Technologien zu haben." Eine unvorhersehbar geschwätzige Technologie wie ChatGPT könnte für die Kommunistische Partei Chinas, die Diskussionen über politisch heikle Themen gerne unter Verschluss hält, ein Alptraum sein.


In Anbetracht der engen Verflechtung von Chinas Militär- und Technologiesektor sehen viele Menschen jedoch immer noch ein klassisches Wettrüsten im Gange. Bei demselben Treffen zwischen Microsoft-Führungskräften und Reportern, wenige Tage nach der Einführung des neuen Bing, fragte ich, ob die USA den Fortschritt der KI bremsen sollten. Mir wurde gesagt, dass wir uns das nicht leisten können, weil wir uns in einem Zweikampf zwischen den USA und China befinden.


"Die erste Frage, die sich die Menschen in den USA stellen sollten, ist: Wenn die USA langsamer werden, glauben wir dann, dass China auch langsamer wird", sagte der Microsoft-Chef. "Ich glaube nicht einen Moment lang, dass die Institutionen, mit denen wir in China konkurrieren, langsamer werden, nur weil wir beschlossen haben, dass wir langsamer werden wollen. Dies sollte ähnlich betrachtet werden wie der Wettbewerb mit Russland während des Kalten Krieges".


Diese Sorge ist verständlich: Angesichts des Autoritarismus der Kommunistischen Partei Chinas und der schrecklichen Menschenrechtsverletzungen, die manchmal durch KI-Technologien wie die Gesichtserkennung begünstigt werden, ist es nur logisch, dass sich viele Sorgen machen, dass China die dominierende Supermacht der Welt werden könnte, wenn es bei einer Technologie, die sich anschickt, einen echten Wandel herbeizuführen, am schnellsten ist.


Aber selbst wenn Sie der Meinung sind, dass Ihr Land bessere Werte hat und sich mehr um die Sicherheit kümmert, und selbst wenn Sie glauben, dass ein klassisches Wettrüsten im Gange ist und China mit voller Kraft vorausfährt, ist es vielleicht nicht in Ihrem Interesse, auf Kosten der Sicherheit schneller zu werden.


Bedenken Sie, dass, wenn Sie sich die Zeit nehmen, einige Sicherheitsprobleme auszubügeln, die andere Partei diese Verbesserungen vielleicht übernimmt, was für alle von Vorteil wäre.


"Indem Sie die Sicherheit aggressiv vorantreiben, können Sie die andere Seite auf halbem Weg zur vollen Sicherheit bringen, was viel mehr wert ist als die verlorene Chance zu gewinnen", schreibt Grace. "Vor allem, weil Sie, wenn Sie 'gewinnen', dies ohne viel Sicherheit tun, und Ihr Sieg ohne Sicherheit ist schlimmer als der Sieg Ihres Gegners mit Sicherheit."


Außerdem, wenn man sich in einem klassischen Wettrüsten befindet und der Schaden durch die KI so groß ist, dass man eine Verlangsamung in Betracht zieht, dann sollte die gleiche Argumentation auch für die andere Partei relevant sein.


"Wenn sich die Welt in einer Situation befände, die man sich manchmal als Wettrüsten vorstellt, und die Vereinigten Staaten bereit wären, Gesetze zu erlassen, um das KI-Risiko zu mindern, dies aber nicht tun könnten, weil China ihnen zuvorkommen würde, dann bedeutet dies, dass China in einer hervorragenden Position ist, um das KI-Risiko zu mindern", schreibt Grace. "Anders als die USA könnte China eine gegenseitige Verlangsamung vorschlagen, und die USA würden mitziehen. Vielleicht ist es nicht unmöglich, dies den zuständigen Personen in China zu vermitteln."


Graces Argument ist nicht, dass internationale Koordinierung einfach ist, sondern einfach, dass sie möglich ist. Alles in allem haben wir es mit der Nichtverbreitung von Kernwaffen viel besser hinbekommen, als viele in den frühen Tagen des Atomzeitalters befürchtet haben. Wir sollten also die Konsensbildung nicht so schnell abschreiben - sei es durch den Meinungsaustausch zwischen technischen Experten, vertrauensbildende Maßnahmen auf diplomatischer Ebene oder formelle Verträge. Schließlich gehen Technologen technische Probleme im Bereich der künstlichen Intelligenz oft mit unglaublichem Ehrgeiz an; warum sollte man nicht ähnlich ehrgeizig sein, wenn es darum geht, menschliche Probleme zu lösen, indem man mit anderen Menschen spricht?


Für diejenigen, die pessimistisch sind, dass China durch Koordinierung oder Diplomatie dazu gebracht werden kann, sein Tempo freiwillig zu drosseln, gibt es noch eine andere Möglichkeit: das Land zu zwingen, sein Tempo zu drosseln, indem beispielsweise Exportkontrollen für Chips eingeführt werden, die für fortschrittlichere KI-Tools entscheidend sind. Die Regierung Biden hat in letzter Zeit Interesse an dem Versuch gezeigt, China auf genau diese Weise von fortgeschrittener KI abzuhalten. Diese Strategie könnte jedoch Fortschritte bei der Koordinierung oder Diplomatie erschweren.


Einwand 3: "Wir müssen mit fortgeschrittener KI spielen, um herauszufinden, wie wir fortgeschrittene KI sicher machen können".

Diesen Einwand hört man manchmal von Leuten, die KI-Fähigkeiten entwickeln - auch von denen, die sagen, dass ihnen die Sicherheit der KI sehr am Herzen liegt.


Sie ziehen eine Analogie zum Verkehrswesen. Wären die Menschen damals, als unsere Hauptverkehrsmittel noch Pferde und Karren waren, in der Lage gewesen, sinnvolle Sicherheitsregeln für eine Zukunft zu entwerfen, in der alle mit Autos fahren? Nein, so die Argumentation, denn man hätte nicht vorhersehen können, wie das aussehen würde. In ähnlicher Weise müssen wir uns der fortgeschrittenen KI annähern, um herauszufinden, wie wir sie sicher machen können.


UNSERE DERZEITIGEN SYSTEME SIND BEREITS BLACK BOXES, DIE SELBST FÜR DIE KI-EXPERTEN, DIE SIE BAUEN, UNDURCHSICHTIG SIND. VIELLEICHT SOLLTEN WIR ALSO VERSUCHEN HERAUSZUFINDEN, WIE SIE FUNKTIONIEREN, BEVOR WIR BLACK BOXES BAUEN, DIE NOCH UNDURCHSCHAUBARER SIND.


Einige Forscher widersprechen dem jedoch und weisen darauf hin, dass die Menschen mit dem Pferdewagen zwar nicht alles richtig gemacht haben, aber dennoch einige hilfreiche Ideen hätten entwickeln können. Wie Rosie Campbell, die bei OpenAI an der Sicherheit arbeitet, es 2018 formulierte: "Es scheint plausibel, dass sie in der Lage gewesen wären, bestimmte Funktionen wie Sicherheitsgurte, fußgängerfreie Straßen, eine Vereinbarung darüber, auf welcher Straßenseite man fährt, und eine Art Abbiege-Signalsystem an belebten Kreuzungen zu erfinden."


Außerdem schreiben wir jetzt das Jahr 2023, und wir haben bereits eine ziemlich fortschrittliche KI. Wir befinden uns nicht gerade in der Pferdekutschen-Phase. Wir befinden uns irgendwo dazwischen und einem Tesla.


"Ich hätte vor 10 Jahren mehr Verständnis für diesen [Einwand] gehabt, als wir noch nichts hatten, was den allgemeinen, flexiblen, interessanten, seltsamen Dingen ähnelte, die wir heute mit unseren großen Sprachmodellen sehen", sagt Cotra.


Grace stimmt dem zu. "Es ist ja nicht so, dass uns im Moment die Ideen ausgehen", sagte sie mir. "Es gibt haufenweise Forschungsarbeiten darüber, was mit diesen Systemen überhaupt vor sich geht. Was passiert in ihnen?"


Unsere derzeitigen Systeme sind bereits Black Boxes, undurchsichtig selbst für die KI-Experten, die sie bauen. Vielleicht sollten wir also versuchen herauszufinden, wie sie funktionieren, bevor wir Black Boxes bauen, die noch unerklärlicher sind.


Wie man die Kurve des KI-Fortschritts abflacht


"Ich denke, dass die Leute oft die Frage stellen, wann die transformative KI eintritt, aber sie sollten sich mindestens genauso sehr die Frage stellen, wie schnell und plötzlich sie eintreten wird", sagte Cotra mir.


Nehmen wir an, dass es noch 20 Jahre dauern wird, bis wir eine transformative KI haben - d. h. eine KI, die die gesamte menschliche Arbeit automatisieren kann, die notwendig ist, um Wissenschaft, Technologie und Wirtschaft in den Hyperdrive zu versetzen. Es gibt immer noch einen besseren und einen schlechteren Weg, um das zu erreichen. Stellen Sie sich drei verschiedene Szenarien für den Fortschritt der KI vor:


1. Wir bekommen in den nächsten zwei Jahren einen gewaltigen Schub nach oben, der jetzt beginnt.

2. Wir stellen die Arbeit an den KI-Fähigkeiten ab jetzt komplett ein, machen die Pause in 18 Jahren wieder rückgängig und erhalten in den nächsten zwei Jahren einen gewaltigen Schub nach oben.

3. Wir verbessern uns schrittweise im Laufe von 20 Jahren.


Die erste Version ist aus all den oben genannten Gründen beängstigend. Die zweite ist beängstigend, weil selbst während einer langen Pause speziell für die KI-Arbeit die zugrunde liegende Rechenleistung weiter verbessert würde - wenn wir also endlich die Pause aufheben, könnte die KI noch schneller voranschreiten als jetzt. Was bedeutet das für uns?


"Eine schrittweise Verbesserung wäre die bessere Variante", sagte Cotra.


Sie verglich dies mit den frühen Ratschlägen, die wir im Zusammenhang mit der Covid-19-Pandemie erhielten: Die Kurve abflachen. So wie die Quarantäne dazu beigetragen hat, die Ausbreitung des Virus zu verlangsamen und einen sprunghaften Anstieg der Krankheitsfälle zu verhindern, der die Kapazitäten der Krankenhäuser hätte überfordern können, würde eine stärkere Investition in die Sicherheit die Entwicklung der KI verlangsamen und einen sprunghaften Anstieg der Fortschritte verhindern, der die Anpassungsfähigkeit der Gesellschaft überfordern könnte.


Ding glaubt, dass eine Verlangsamung des KI-Fortschritts auf kurze Sicht eigentlich für alle das Beste ist - auch für die Profiteure. "Wenn Sie ein Technologieunternehmen sind, wenn Sie ein politischer Entscheidungsträger sind, wenn Sie wollen, dass Ihr Land am meisten von der KI profitiert, könnten Investitionen in Sicherheitsvorschriften zu weniger öffentlichen Rückschlägen und einer nachhaltigeren langfristigen Entwicklung dieser Technologien führen", erklärte er. "Wenn ich also Investitionen in die Sicherheit anspreche, versuche ich, sie mit den langfristigen und nachhaltigen wirtschaftlichen Gewinnen zu vergleichen, die man erzielt, wenn man mehr in die Sicherheit investiert."


Übersetzt: Es ist besser, jetzt mit einer sich langsam verbessernden künstlichen Intelligenz Geld zu verdienen und zu wissen, dass man seine Technologie weiter ausbauen und lange Zeit davon profitieren kann, als obszön schnell reich zu werden, aber ein schreckliches Missgeschick zu produzieren, das eine Menge Empörung auslöst und einen dazu zwingt, ganz aufzuhören.


Aber wird die Tech-Welt das begreifen? Das hängt zum Teil davon ab, wie wir, die Öffentlichkeit, auf die glänzenden neuen KI-Fortschritte reagieren, von ChatGPT und Bing bis zu dem, was als Nächstes kommt.


Es ist so einfach, sich von diesen Technologien verführen zu lassen. Sie wirken wie Magie. Man gibt eine Frage ein und das Orakel antwortet. Es gibt einen natürlichen Drang zum "Oh" und "Ah". Aber bei dem Tempo, in dem sich die Dinge jetzt entwickeln, könnten wir uns mit "Oh" und "Aah" in eine Zukunft bewegen, die niemand will.


Übersetzt mit: deepl.com/Translator


Ende Vox.com


Und? Was nu? Wie oben erwähnt, erahne *ich auch keine für Uns vorteilhafte Entwicklung. Gemessen an unserem natürlichen soSein, werden wir stürzen müssen, egal, ob wegen des Klimas oder des MK, weil Wir einfach{en} nur sehr kurzsichtig sind, was Voraus-Schau angeht. Vielleicht ein paar Stunden bei den Meisten, reicht ja allermeist, bis was schlimmes, einschneidendes passiert. Baff!


Dann wird das Aufmerksamkeits-Spanne vielleicht ein wenig ausgeweitet, denn das Wissen und das Erleben (Vergangenheit) um sehr viel weiter voraus zu ahnen, was für eine Richtung eine Entwicklung nimmt, alles was es also für Verantwortung (Zukunfts-Voraus-Planung, um sich dem Ergebnis an zu nähern.) braucht ist vorhanden. Genutzt wird es natürlich (!) nicht.


Wir sind unschuldig. Wir haben Uns nicht so erschaffen und voreingestellt, wie Wir nun mal handeln und nicht-handeln (soSein), das war und ist Natur, in Uns und um Uns herum. Verantwortlich handeln und nicht-handeln können Wir trotzdem, das DaSein hat das auch in Uns zu gelassen. Wir sind Alles, was Wir dazu brauchen. Und das ist keine MK.


🤡

Keine Kommentare:

Kommentar veröffentlichen