VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Posts mit dem Label Vox.com werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Vox.com werden angezeigt. Alle Posts anzeigen

Montag, 20. März 2023

Meistbietend werden Wir ausgemustert, von Wir.

Könnte doch so passieren? Wann haben Wir je im Voraus gefragt, oder Uns interessiert, was Uns eine Erfindung oder Entwicklung einbringt? Nicht Wir, vielleicht je eine Handvoll von Uns, die keine Chance hatten. Bis Jetzt.

Wie *ich das erlebe, haben auch die Forsch-Es, die diese Maschinen-Kompetenz (MK) programmieren und trainieren, nur selten eine Vorstellung davon, was unbedingt (!) daraus wird, weil Wir eben so sind, wie Wir sind.

Bastl-Es, die nie voraus ahnten, was ihre Bastelei so alles zum Folge hat. Die sich von Natur aus schon nicht dafür interessierten, was eine Entwicklung für Konsequenzen bewirkt. So auch hier.

Natur ist ein unerreichbares Erfindungs-Reichtum und -Geschwindigkeit, dabei waren jedoch auch mindestens die Hälfte Geschöpfe, die als nicht Überlebens-Fähig sogleich wieder aussortiert wurden. Wir nicht. Noch nicht?

Dazu dieser herausragende Beitrag von Vox.com, den *ich in Deutsch im Auszug hier einstelle.

Poesie

Titel: Von den unheimlichen Vorteilen des MK

Mit künstlich könnte *ich noch umgehen, weil von Uns erschaffen, aber intelligent! Nein, in diesen Algorithmen fehlt das, was Intelligenz braucht: Körper, Gefühle, ein soSein, das viel weiss, das steckt zwar in den Daten, jedoch nicht in dem, was dem Suchen nach Antworten Richtung vorgibt, da steckt nur Mathematik, vor Allem Statistik drinn, keine Gefühle. Deswegen MK. Von *mir aus auch Maschinen-Künstlichkeit.

Hier das Link zum hoch interessanten Text zur Zukunft und Aktualität des MK.

https://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology

.

.

Hier ein Auszug in Übersetzung:

Frage: ChatGPT, erklären sie, wie wir den KI-Fortschritt verlangsamen können?

Antwort: "Es ist nicht unbedingt wünschenswert oder ethisch vertretbar, den Fortschritt der KI zu verlangsamen."

Viele Experten sehen das nicht so, denn die Risiken - gegenwärtige und zukünftige - sind enorm.


Aber ist das Rennen eine so gute Idee? Wir wissen noch nicht einmal, wie wir mit den Problemen umgehen sollen, die ChatGPT und Bing aufwerfen - und die sind im Vergleich zu dem, was auf uns zukommt, nur eine Buschliga.


Was wäre, wenn es den Forschern gelänge, eine KI zu entwickeln, die den menschlichen Fähigkeiten nicht nur in einem Bereich, z. B. bei Strategiespielen, sondern in vielen Bereichen entspricht oder sie sogar übertrifft?


Was wäre, wenn sich dieses System als gefährlich für uns erweisen würde, und zwar nicht, weil es die Menschheit aktiv auslöschen will, sondern nur, weil es Ziele verfolgt, die nicht mit unseren Werten übereinstimmen?


Einige Experten befürchten, dass dieses System eine Maschine des Untergangs sein könnte - eine, die wir buchstäblich selbst geschaffen haben.


Die künstliche Intelligenz droht also zu den bereits bestehenden katastrophalen Risiken für die Menschheit hinzuzukommen, wie z. B. einem globalen Atomkrieg oder biotechnisch erzeugten Pandemien.


Aber es gibt einen Unterschied. Während sich die Atombombe oder die gentechnischen Werkzeuge, mit denen Krankheitserreger ausgepresst werden können, nicht mehr rückgängig machen lassen, muss eine katastrophale KI erst noch erschaffen werden, was bedeutet, dass wir die Möglichkeit haben, sie präventiv zu verhindern.


Aber jetzt kommt das Seltsame. Dieselben Forscher, die sich am meisten Sorgen über nicht angepasste KI machen, sind in einigen Fällen auch diejenigen, die immer fortschrittlichere KI entwickeln. Sie begründen dies damit, dass sie mit immer ausgefeilterer KI spielen müssen, um deren Fehlermöglichkeiten herauszufinden, damit sie diese letztlich verhindern können.


Aber es gibt einen viel offensichtlicheren Weg, den Untergang durch KI zu verhindern. Wir könnten einfach …, die Untergangsmaschine nicht bauen.


Oder, etwas moderater: Anstatt den Fortschritt der KI zu beschleunigen, könnten wir es absichtlich verlangsamen.


Das scheint so naheliegend, dass man sich fragen könnte, warum man fast nie davon hört, warum es in der Tech-Industrie praktisch tabu ist.


Es gibt viele Einwände gegen diese Idee, die von "die technologische Entwicklung ist unvermeidlich, also ist der Versuch, sie zu verlangsamen, sinnlos" über "wir wollen kein KI-Wettrüsten mit China verlieren" bis hin zu "der einzige Weg, eine leistungsstarke KI sicher zu machen, ist, zuerst mit einer leistungsstarken KI zu spielen" reichen.


Aber diese Einwände halten einer Überprüfung nicht unbedingt stand, wenn man sie durchdenkt. In der Tat ist es möglich, eine sich entwickelnde Technologie zu verlangsamen. Und im Falle der KI gibt es gute Gründe dafür, dass dies eine sehr gute Idee wäre.


Das Anpassungsproblem der KI: Man bekommt, worum man bittet, nicht was man will.


Als ich ChatGPT um eine Erklärung bat, wie wir den Fortschritt der KI verlangsamen können, antwortete es: "Es ist nicht unbedingt wünschenswert oder ethisch vertretbar, den Fortschritt der KI zu verlangsamen, da sie das Potenzial hat, viele positive Fortschritte für die Gesellschaft zu bringen".


Ich musste lachen. Das schreibt es also..


Aber wenn es das schreibt, dann wahrscheinlich deshalb, weil viele Menschen das sagen, auch der CEO des Unternehmens, das es entwickelt hat. (Schließlich stammt das, was ChatGPT ausspuckt, aus seinen Trainingsdaten - d. h. aus Unmengen von Text im Internet.)


Das bedeutet, dass Sie sich vielleicht selbst fragen werden: Auch wenn die künstliche Intelligenz Risiken birgt, sind ihre Vorteile - von der Entdeckung von Medikamenten bis zur Klima-Modellierung - vielleicht so groß, dass eine Beschleunigung das Beste und Ethischste ist, was wir tun können!


Lassen Sie uns zunächst über die zukünftigen Risiken sprechen, insbesondere über das größte: die Möglichkeit, dass KI eines Tages die Menschheit vernichten könnte. Das ist zwar spekulativ, aber nicht ausgeschlossen: In einer Umfrage unter Forschern auf dem Gebiet des maschinellen Lernens im vergangenen Jahr gab fast die Hälfte der Befragten an, dass sie eine 10-prozentige oder größere Chance sehen, dass die Auswirkungen der KI "extrem schlimm" sein werden (z. B. das Aussterben der Menschheit).


Warum sollte die KI die Menschheit vernichten wollen? Wahrscheinlich würde sie das nicht wollen. Aber sie könnte uns trotzdem zerstören, und zwar wegen des so genannten "Ausrichtungs-Problems".


Stellen Sie sich vor, wir entwickeln ein superintelligentes KI-System. Wir programmieren es, um ein unglaublich schwieriges Problem zu lösen - sagen wir, die Anzahl der Atome im Universum zu berechnen. Es könnte feststellen, dass es die Aufgabe besser lösen kann, wenn es Zugriff auf die gesamte Computerkapazität der Erde erhält. Also setzt es eine Massenvernichtungswaffe frei, um uns alle auszulöschen, wie ein perfekt programmierter Virus, der alle tötet, aber die Infrastruktur intakt lässt. Jetzt steht es ihm frei, die gesamte Computerkraft zu nutzen! In diesem Midas-ähnlichen Szenario erhalten wir genau das, was wir wollten - die Anzahl der Atome im Universum, wird unter Ausschaltung aller Störfaktoren berechnet - aber offensichtlich nicht das, was wir wollten.


Das ist das Ausrichtungs[Alignment]-Problem in einer NussSchale. Und obwohl dieses Beispiel weit hergeholt klingt, haben Experten bereits mehr als 60 kleinere Beispiele gesehen und dokumentiert, in denen KI-Systeme versuchen, etwas anderes zu tun als das, was ihre Entwickler wollten (z. B. den Highscore in einem Videospiel zu erreichen, und zwar nicht durch faires Spielen oder Erlernen von Spielfähigkeiten, sondern durch Hacken des Punktesystems).


{Kurze Einblendung von *mir: und nur zum Erinnerung, das Hacken des Punktesystems, ist eine menschliche Eigenschaft, ist an vielen Benotungs-Einrichtungen (Uni, Schule z.B.) schon geschehen.}


Experten, die sich um die KI als zukünftiges existenzielles Risiko sorgen, und Experten, die sich um die gegenwärtigen Risiken der KI, wie z. B. Voreingenommenheit, sorgen, werden manchmal gegeneinander ausgespielt. Aber man muss sich nicht um erstere Sorgen machen, um sich über die Ausrichtung Gedanken zu machen. Viele der gegenwärtigen Risiken, die wir im Zusammenhang mit KI sehen, sind in gewisser Weise dasselbe Anpassungsproblem im Kleinen.


Als ein Einstellungs-Algorithmus von Amazon auf Wörter in Lebensläufen stieß, die mit Frauen assoziiert werden - sagen wir "Wellesley College" - und schließlich weibliche Bewerber ablehnte, tat dieser Algorithmus das, wozu er programmiert wurde (Bewerber zu finden, die den von Amazon üblicherweise bevorzugten Arbeitnehmern entsprechen), aber nicht das, was das Unternehmen vermutlich will (die besten Bewerber zu finden, auch wenn es sich dabei um Frauen handelt).


Wenn Sie sich Sorgen darüber machen, wie die heutigen KI-Systeme die Voreingenommenheit gegenüber Frauen, Farbigen und anderen verstärken können, ist das immer noch Grund genug, sich über das schnelle Tempo der KI-Entwicklung Sorgen zu machen und zu denken, dass wir es verlangsamen sollten, bis wir mehr technisches Know-how und mehr Vorschriften haben, um sicherzustellen, dass diese Systeme den Menschen nicht schaden.


"Ich habe wirklich Angst vor einer verrückten, hektischen Welt, in der die Menschen herumrennen und nützliche und schädliche Dinge tun, und das alles passiert einfach zu schnell", sagte mir Ajeya Cotra, eine auf KI spezialisierte Analystin bei der Forschungs- und Förderstiftung Open Philanthropy. "Wenn es nach mir ginge, würde ich mich definitiv viel, viel langsamer bewegen.


In ihrer idealen Welt würden wir die Arbeit an der Verbesserung der KI in den nächsten fünf bis 10 Jahren einstellen. In der Zwischenzeit könnte sich die Gesellschaft an die sehr leistungsfähigen Systeme gewöhnen, die wir bereits haben, und die Experten könnten so viel Sicherheitsforschung wie möglich betreiben, bis sie auf abnehmende Erträge stoßen. Dann könnte man die KI-Systeme etwas leistungsfähiger machen, weitere fünf bis zehn Jahre warten und diesen Prozess von vorne beginnen.


"Ich würde die Welt nur langsam an diesen Übergang heranführen", sagte Cotra. "Ich habe große Angst, weil ich glaube, dass es so nicht passieren wird.


Warum nicht? Wegen der Einwände gegen eine Verlangsamung des KI-Fortschritts. Beginnen wir mit der Idee, dass ein schneller Fortschritt bei der KI unvermeidlich ist, weil es in einem Forschungsbereich, der überwiegend in privater Hand liegt, ein starkes finanzielles Interesse an der Vorherrschaft gibt.


Einwand 1: "Der technologische Fortschritt ist unvermeidlich, und der Versuch, ihn zu verlangsamen, ist sinnlos".


Dies ist ein Mythos, den die Technologiebranche sich selbst und dem Rest von uns oft erzählt.


"Wenn wir es nicht bauen, wird es jemand anderes tun, also können wir es genauso gut tun", ist ein gängiger Satz, den ich in Gesprächen mit Technologen aus dem Silicon Valley gehört habe. Sie sagen, man könne den technologischen Fortschritt nicht aufhalten, den sie mit den Naturgesetzen der Evolution vergleichen: Er ist unaufhaltsam!


Tatsächlich gibt es aber viele Technologien, auf deren Entwicklung wir verzichtet haben oder die wir zwar entwickelt, aber mit sehr strengen Auflagen versehen haben - die Art von Innovationen, bei denen wir einen erheblichen potenziellen Nutzen und wirtschaftlichen Wert mit sehr realen Risiken abwägen müssen.


"Die FDA hat von den 70er bis zu den 2000er Jahren Versuche mit Streptokokken-Impfstoffen am Menschen verboten, obwohl jedes Jahr weltweit 500.000 Menschen an Streptokokken sterben", erklärt Katja Grace, die leitende Forscherin von AI Impacts. Die DNA-Forscher organisierten bekanntlich ein Moratorium um Forschungs-Richtlinien zu erarbeiten, einschließlich des Verbots bestimmter Experimente (siehe die Asilomar-Konferenz)."


OBWOHL ES KEIN NATURGESETZ GIBT, DAS UNS ZWINGT, BESTIMMTE TECHNOLOGIEN ZU SCHAFFEN ... GIBT ES SO STARKE ANREIZE, DIE UNS ZUR ENTWICKLUNG EINER BESTIMMTEN TECHNOLOGIE ZWINGEN, DASS SIE SICH SO UNVERMEIDLICH ANFÜHLEN KANN WIE BEISPIELSWEISE DIE SCHWERKRAFT


Das Klonen von Menschen oder die genetische Manipulation von Menschen, fügt sie hinzu, ist "ein bemerkenswertes Beispiel für eine wirtschaftlich wertvolle Technologie, die meines Wissens in verschiedenen Ländern kaum verfolgt wird, ohne dass es eine ausdrückliche Koordinierung zwischen diesen Ländern gibt, obwohl sie die Wettbewerbsfähigkeit dieser Länder verbessern würde".


Doch während es in der Biomedizin viele eingebaute Mechanismen gibt, die die Dinge verlangsamen (man denke nur an die institutionellen Prüfungsausschüsse und das ethische Prinzip "Erstens, nicht schaden"), ist das in der Welt der Technik - und insbesondere der KI - nicht der Fall. Ganz im Gegenteil: Das Motto lautet hier "schnell sein und Dinge kaputt machen", wie Mark Zuckerberg berühmt-berüchtigt sagte.


Wie das Team von Anthropic, einem Unternehmen für KI-Sicherheit und -Forschung, letztes Jahr in einem Papier schrieb, sind die wirtschaftlichen Anreize, solche [KI-]Modelle zu bauen, und die Prestigeanreize, sie bekannt zu machen, ziemlich stark. Einer Schätzung zufolge könnte allein der Markt für generative KI bis zum Ende des Jahrzehnts die 100-Milliarden-Dollar-Marke überschreiten - und das Silicon Valley ist sich des First-Mover-Vorteils bei neuen Technologien nur allzu bewusst.


Es ist jedoch leicht zu erkennen, dass diese Anreize falsch ausgerichtet sind, wenn es darum geht, KI zu entwickeln, die wirklich der gesamten Menschheit zugute kommt. Wie der Gründer von DeepMind, Demis Hassabis, letztes Jahr twitterte: "Bei einer so wichtigen Technologie wie der KI ist es wichtig, *NICHT* schnell zu handeln und Dinge zu zerstören". Anstatt davon auszugehen, dass andere Akteure diese Modelle unweigerlich entwickeln und einsetzen werden und es daher keinen Sinn hat, zu warten, sollten wir uns die Frage stellen: Wie können wir die zugrunde liegende Anreizstruktur, die alle Akteure antreibt, tatsächlich ändern?


Das Anthropic-Team hat mehrere Ideen, von denen eine den Kern dessen trifft, was KI so anders macht als frühere transformative Technologien wie Atomwaffen oder Biotechnologie: die zentrale Rolle privater Unternehmen. In den letzten Jahren sind viele der aufsehenerregendsten KI-Forschungen von der akademischen Welt in die Industrie gewandert. Um heutzutage KI-Experimente in großem Maßstab durchzuführen, benötigt man eine enorme Rechenleistung - mehr als 300.000 Mal so viel wie noch vor zehn Jahren - sowie technische Spitzenkräfte. Diese sind sowohl teuer als auch knapp, und die daraus resultierenden Kosten sind in einem akademischen Umfeld oft unerschwinglich.


Eine Lösung bestünde also darin, akademischen Forschern mehr Ressourcen zur Verfügung zu stellen. Da sie keinen Gewinnanreiz haben, ihre Modelle so schnell zu kommerzialisieren wie Forscher aus der Industrie, können sie ein Gegengewicht bilden. Konkret könnten die Länder nationale Forschungsclouds entwickeln, um Akademikern den Zugang zu kostenloser oder zumindest billiger Rechenleistung zu ermöglichen; ein Beispiel dafür gibt es bereits in Kanada, und das Stanford Institute for Human-Centered Artificial Intelligence hat eine ähnliche Idee für die USA vorgelegt.


Eine weitere Möglichkeit, Anreize zu schaffen, besteht darin, bestimmte Arten von KI-Arbeit zu stigmatisieren. Unterschätzen Sie diese Möglichkeit nicht. Unternehmen sorgen sich um ihren Ruf, der sich auf ihren Gewinn auswirkt. Die Schaffung eines breiten öffentlichen Konsenses darüber, dass bestimmte KI-Arbeiten nicht hilfreich oder nicht schnell genug sind, so dass Unternehmen, die diese Arbeiten durchführen, beschämt statt gefeiert werden, könnte die Entscheidungen der Unternehmen ändern.


Grace schlägt eine weitere Idee vor: Wir könnten das Veröffentlichungs-System ändern, um die Verbreitung von Forschungs-Ergebnissen in einigen Fällen einzuschränken. Eine Zeitschrift könnte die Forschungs-Ergebnisse überprüfen und die Tatsache ihrer Veröffentlichung bekannt geben, ohne Details zu veröffentlichen, die anderen Labors helfen könnten, schneller zu sein.


Diese Idee mag ziemlich abwegig klingen, aber zumindest ein großes KI-Unternehmen geht davon aus, dass Änderungen der Veröffentlichungs-Normen notwendig werden. In der Charta von OpenAI heißt es: "Wir gehen davon aus, dass Sicherheits-Bedenken unsere traditionelle Veröffentlichung in Zukunft einschränken werden."


Außerdem hat es so etwas schon einmal gegeben. Man denke nur daran, wie Leo Szilard, der Physiker, der 1934 die nukleare Kettenreaktion patentierte, dafür sorgte, dass die Verbreitung der Forschungsergebnisse nicht dazu beitrug, dass Nazi-Deutschland Atomwaffen herstellen konnte. Zunächst bat er das britische Kriegsministerium, sein Patent geheim zu halten. Nach der Entdeckung der Kernspaltung 1938 versuchte Szilard, andere Wissenschaftler davon zu überzeugen, ihre Entdeckungen geheim zu halten. Dies gelang ihm teilweise - bis die Befürchtung, dass Nazi-Deutschland eine Atombombe entwickeln würde, Szilard dazu veranlasste, zusammen mit Albert Einstein einen Brief an Präsident Franklin D. Roosevelt zu schreiben, in dem er ihn aufforderte, ein amerikanisches Atomprogramm zu starten. Daraus wurde das Manhattan-Projekt, das schließlich mit der Zerstörung von Hiroshima und Nagasaki und dem Beginn des Atomzeitalters endete.


Und das bringt uns zum zweiten Einwand ...


Einwand 2: "Wir wollen kein KI-Wettrüsten mit China verlieren"


Vielleicht glauben Sie, dass es möglich ist, eine neue Technologie zu verlangsamen, halten es aber trotzdem nicht für wünschenswert. Vielleicht sind Sie der Meinung, dass die USA töricht wären, wenn sie den Fortschritt der KI verlangsamen würden, weil das bedeuten könnte, dass sie ein Wettrüsten mit China verlieren.


Dieses Narrativ vom Wettrüsten ist unglaublich populär geworden. Wenn Sie vor 2016 den Begriff "KI-Wettrüsten" gegoogelt hätten, hätten Sie weniger als 300 Ergebnisse erhalten. Versuchen Sie es jetzt und Sie erhalten etwa 248.000 Treffer. Große Tech-CEOs und Politiker argumentieren routinemäßig, dass China die USA in Sachen KI-Fortschritte bald überholen wird und dass diese Fortschritte einen "Sputnik-Moment" für die Amerikaner auslösen sollten.


"DAS PROBLEM MIT DER IDEE EINES WETTLAUFS IST, DASS SIE IMPLIZIERT, DASS ES NUR DARAUF ANKOMMT, WER DIE NASE VORN HAT, WENN ER DIE ZIELLINIE ÜBERQUERT.


Diese Sichtweise ist jedoch zu einfach. Zum einen darf man nicht vergessen, dass KI nicht nur eine Sache mit einem bestimmten Zweck ist, wie die Atombombe. Es handelt sich um eine viel allgemeinere Technologie, wie die Elektrizität.


"Das Problem mit der Idee eines Wettlaufs ist, dass sie impliziert, dass es nur darauf ankommt, wer beim Überqueren der Ziellinie die Nase vorn hat", so Helen Toner, Direktorin am Center for Security and Emerging Technology der Georgetown University. "Das ist bei der KI nicht der Fall, denn wir sprechen hier über eine Vielzahl unterschiedlicher Technologien, die auf alle möglichen Arten eingesetzt werden können."


Wie Toner an anderer Stelle argumentiert hat, "ist es etwas seltsam zu sagen: 'Oh, wer wird zuerst KI bekommen? Wer wird zuerst die Elektrizität bekommen?' Es scheint eher so zu sein: 'Wer wird sie auf welche Weise nutzen, wer wird in der Lage sein, sie einzusetzen und sie tatsächlich in großem Umfang zu nutzen?'"


Das Fazit ist: Es geht hier nicht nur um Geschwindigkeit, sondern um Normen. Wir sollten uns Gedanken darüber machen, welche Normen die verschiedenen Länder bei der Entwicklung, dem Einsatz und der Regulierung von KI anwenden.


Jeffrey Ding, Professor für Politikwissenschaft in Georgetown, sagte mir, dass China Interesse an der Regulierung von KI gezeigt hat, aber die Amerikaner scheinen dem nicht viel Aufmerksamkeit zu schenken. "Das Schreckgespenst eines Chinas, das ohne jegliche Regulierung vorprescht, könnte eine fehlerhafte Vorstellung sein", sagte er.


Er fügte hinzu: "China könnte bei der Entwicklung von KI sogar noch langsamer vorgehen als die USA, einfach weil die Regierung so sehr darauf bedacht ist, sichere und kontrollierbare Technologien zu haben." Eine unvorhersehbar geschwätzige Technologie wie ChatGPT könnte für die Kommunistische Partei Chinas, die Diskussionen über politisch heikle Themen gerne unter Verschluss hält, ein Alptraum sein.


In Anbetracht der engen Verflechtung von Chinas Militär- und Technologiesektor sehen viele Menschen jedoch immer noch ein klassisches Wettrüsten im Gange. Bei demselben Treffen zwischen Microsoft-Führungskräften und Reportern, wenige Tage nach der Einführung des neuen Bing, fragte ich, ob die USA den Fortschritt der KI bremsen sollten. Mir wurde gesagt, dass wir uns das nicht leisten können, weil wir uns in einem Zweikampf zwischen den USA und China befinden.


"Die erste Frage, die sich die Menschen in den USA stellen sollten, ist: Wenn die USA langsamer werden, glauben wir dann, dass China auch langsamer wird", sagte der Microsoft-Chef. "Ich glaube nicht einen Moment lang, dass die Institutionen, mit denen wir in China konkurrieren, langsamer werden, nur weil wir beschlossen haben, dass wir langsamer werden wollen. Dies sollte ähnlich betrachtet werden wie der Wettbewerb mit Russland während des Kalten Krieges".


Diese Sorge ist verständlich: Angesichts des Autoritarismus der Kommunistischen Partei Chinas und der schrecklichen Menschenrechtsverletzungen, die manchmal durch KI-Technologien wie die Gesichtserkennung begünstigt werden, ist es nur logisch, dass sich viele Sorgen machen, dass China die dominierende Supermacht der Welt werden könnte, wenn es bei einer Technologie, die sich anschickt, einen echten Wandel herbeizuführen, am schnellsten ist.


Aber selbst wenn Sie der Meinung sind, dass Ihr Land bessere Werte hat und sich mehr um die Sicherheit kümmert, und selbst wenn Sie glauben, dass ein klassisches Wettrüsten im Gange ist und China mit voller Kraft vorausfährt, ist es vielleicht nicht in Ihrem Interesse, auf Kosten der Sicherheit schneller zu werden.


Bedenken Sie, dass, wenn Sie sich die Zeit nehmen, einige Sicherheitsprobleme auszubügeln, die andere Partei diese Verbesserungen vielleicht übernimmt, was für alle von Vorteil wäre.


"Indem Sie die Sicherheit aggressiv vorantreiben, können Sie die andere Seite auf halbem Weg zur vollen Sicherheit bringen, was viel mehr wert ist als die verlorene Chance zu gewinnen", schreibt Grace. "Vor allem, weil Sie, wenn Sie 'gewinnen', dies ohne viel Sicherheit tun, und Ihr Sieg ohne Sicherheit ist schlimmer als der Sieg Ihres Gegners mit Sicherheit."


Außerdem, wenn man sich in einem klassischen Wettrüsten befindet und der Schaden durch die KI so groß ist, dass man eine Verlangsamung in Betracht zieht, dann sollte die gleiche Argumentation auch für die andere Partei relevant sein.


"Wenn sich die Welt in einer Situation befände, die man sich manchmal als Wettrüsten vorstellt, und die Vereinigten Staaten bereit wären, Gesetze zu erlassen, um das KI-Risiko zu mindern, dies aber nicht tun könnten, weil China ihnen zuvorkommen würde, dann bedeutet dies, dass China in einer hervorragenden Position ist, um das KI-Risiko zu mindern", schreibt Grace. "Anders als die USA könnte China eine gegenseitige Verlangsamung vorschlagen, und die USA würden mitziehen. Vielleicht ist es nicht unmöglich, dies den zuständigen Personen in China zu vermitteln."


Graces Argument ist nicht, dass internationale Koordinierung einfach ist, sondern einfach, dass sie möglich ist. Alles in allem haben wir es mit der Nichtverbreitung von Kernwaffen viel besser hinbekommen, als viele in den frühen Tagen des Atomzeitalters befürchtet haben. Wir sollten also die Konsensbildung nicht so schnell abschreiben - sei es durch den Meinungsaustausch zwischen technischen Experten, vertrauensbildende Maßnahmen auf diplomatischer Ebene oder formelle Verträge. Schließlich gehen Technologen technische Probleme im Bereich der künstlichen Intelligenz oft mit unglaublichem Ehrgeiz an; warum sollte man nicht ähnlich ehrgeizig sein, wenn es darum geht, menschliche Probleme zu lösen, indem man mit anderen Menschen spricht?


Für diejenigen, die pessimistisch sind, dass China durch Koordinierung oder Diplomatie dazu gebracht werden kann, sein Tempo freiwillig zu drosseln, gibt es noch eine andere Möglichkeit: das Land zu zwingen, sein Tempo zu drosseln, indem beispielsweise Exportkontrollen für Chips eingeführt werden, die für fortschrittlichere KI-Tools entscheidend sind. Die Regierung Biden hat in letzter Zeit Interesse an dem Versuch gezeigt, China auf genau diese Weise von fortgeschrittener KI abzuhalten. Diese Strategie könnte jedoch Fortschritte bei der Koordinierung oder Diplomatie erschweren.


Einwand 3: "Wir müssen mit fortgeschrittener KI spielen, um herauszufinden, wie wir fortgeschrittene KI sicher machen können".

Diesen Einwand hört man manchmal von Leuten, die KI-Fähigkeiten entwickeln - auch von denen, die sagen, dass ihnen die Sicherheit der KI sehr am Herzen liegt.


Sie ziehen eine Analogie zum Verkehrswesen. Wären die Menschen damals, als unsere Hauptverkehrsmittel noch Pferde und Karren waren, in der Lage gewesen, sinnvolle Sicherheitsregeln für eine Zukunft zu entwerfen, in der alle mit Autos fahren? Nein, so die Argumentation, denn man hätte nicht vorhersehen können, wie das aussehen würde. In ähnlicher Weise müssen wir uns der fortgeschrittenen KI annähern, um herauszufinden, wie wir sie sicher machen können.


UNSERE DERZEITIGEN SYSTEME SIND BEREITS BLACK BOXES, DIE SELBST FÜR DIE KI-EXPERTEN, DIE SIE BAUEN, UNDURCHSICHTIG SIND. VIELLEICHT SOLLTEN WIR ALSO VERSUCHEN HERAUSZUFINDEN, WIE SIE FUNKTIONIEREN, BEVOR WIR BLACK BOXES BAUEN, DIE NOCH UNDURCHSCHAUBARER SIND.


Einige Forscher widersprechen dem jedoch und weisen darauf hin, dass die Menschen mit dem Pferdewagen zwar nicht alles richtig gemacht haben, aber dennoch einige hilfreiche Ideen hätten entwickeln können. Wie Rosie Campbell, die bei OpenAI an der Sicherheit arbeitet, es 2018 formulierte: "Es scheint plausibel, dass sie in der Lage gewesen wären, bestimmte Funktionen wie Sicherheitsgurte, fußgängerfreie Straßen, eine Vereinbarung darüber, auf welcher Straßenseite man fährt, und eine Art Abbiege-Signalsystem an belebten Kreuzungen zu erfinden."


Außerdem schreiben wir jetzt das Jahr 2023, und wir haben bereits eine ziemlich fortschrittliche KI. Wir befinden uns nicht gerade in der Pferdekutschen-Phase. Wir befinden uns irgendwo dazwischen und einem Tesla.


"Ich hätte vor 10 Jahren mehr Verständnis für diesen [Einwand] gehabt, als wir noch nichts hatten, was den allgemeinen, flexiblen, interessanten, seltsamen Dingen ähnelte, die wir heute mit unseren großen Sprachmodellen sehen", sagt Cotra.


Grace stimmt dem zu. "Es ist ja nicht so, dass uns im Moment die Ideen ausgehen", sagte sie mir. "Es gibt haufenweise Forschungsarbeiten darüber, was mit diesen Systemen überhaupt vor sich geht. Was passiert in ihnen?"


Unsere derzeitigen Systeme sind bereits Black Boxes, undurchsichtig selbst für die KI-Experten, die sie bauen. Vielleicht sollten wir also versuchen herauszufinden, wie sie funktionieren, bevor wir Black Boxes bauen, die noch unerklärlicher sind.


Wie man die Kurve des KI-Fortschritts abflacht


"Ich denke, dass die Leute oft die Frage stellen, wann die transformative KI eintritt, aber sie sollten sich mindestens genauso sehr die Frage stellen, wie schnell und plötzlich sie eintreten wird", sagte Cotra mir.


Nehmen wir an, dass es noch 20 Jahre dauern wird, bis wir eine transformative KI haben - d. h. eine KI, die die gesamte menschliche Arbeit automatisieren kann, die notwendig ist, um Wissenschaft, Technologie und Wirtschaft in den Hyperdrive zu versetzen. Es gibt immer noch einen besseren und einen schlechteren Weg, um das zu erreichen. Stellen Sie sich drei verschiedene Szenarien für den Fortschritt der KI vor:


1. Wir bekommen in den nächsten zwei Jahren einen gewaltigen Schub nach oben, der jetzt beginnt.

2. Wir stellen die Arbeit an den KI-Fähigkeiten ab jetzt komplett ein, machen die Pause in 18 Jahren wieder rückgängig und erhalten in den nächsten zwei Jahren einen gewaltigen Schub nach oben.

3. Wir verbessern uns schrittweise im Laufe von 20 Jahren.


Die erste Version ist aus all den oben genannten Gründen beängstigend. Die zweite ist beängstigend, weil selbst während einer langen Pause speziell für die KI-Arbeit die zugrunde liegende Rechenleistung weiter verbessert würde - wenn wir also endlich die Pause aufheben, könnte die KI noch schneller voranschreiten als jetzt. Was bedeutet das für uns?


"Eine schrittweise Verbesserung wäre die bessere Variante", sagte Cotra.


Sie verglich dies mit den frühen Ratschlägen, die wir im Zusammenhang mit der Covid-19-Pandemie erhielten: Die Kurve abflachen. So wie die Quarantäne dazu beigetragen hat, die Ausbreitung des Virus zu verlangsamen und einen sprunghaften Anstieg der Krankheitsfälle zu verhindern, der die Kapazitäten der Krankenhäuser hätte überfordern können, würde eine stärkere Investition in die Sicherheit die Entwicklung der KI verlangsamen und einen sprunghaften Anstieg der Fortschritte verhindern, der die Anpassungsfähigkeit der Gesellschaft überfordern könnte.


Ding glaubt, dass eine Verlangsamung des KI-Fortschritts auf kurze Sicht eigentlich für alle das Beste ist - auch für die Profiteure. "Wenn Sie ein Technologieunternehmen sind, wenn Sie ein politischer Entscheidungsträger sind, wenn Sie wollen, dass Ihr Land am meisten von der KI profitiert, könnten Investitionen in Sicherheitsvorschriften zu weniger öffentlichen Rückschlägen und einer nachhaltigeren langfristigen Entwicklung dieser Technologien führen", erklärte er. "Wenn ich also Investitionen in die Sicherheit anspreche, versuche ich, sie mit den langfristigen und nachhaltigen wirtschaftlichen Gewinnen zu vergleichen, die man erzielt, wenn man mehr in die Sicherheit investiert."


Übersetzt: Es ist besser, jetzt mit einer sich langsam verbessernden künstlichen Intelligenz Geld zu verdienen und zu wissen, dass man seine Technologie weiter ausbauen und lange Zeit davon profitieren kann, als obszön schnell reich zu werden, aber ein schreckliches Missgeschick zu produzieren, das eine Menge Empörung auslöst und einen dazu zwingt, ganz aufzuhören.


Aber wird die Tech-Welt das begreifen? Das hängt zum Teil davon ab, wie wir, die Öffentlichkeit, auf die glänzenden neuen KI-Fortschritte reagieren, von ChatGPT und Bing bis zu dem, was als Nächstes kommt.


Es ist so einfach, sich von diesen Technologien verführen zu lassen. Sie wirken wie Magie. Man gibt eine Frage ein und das Orakel antwortet. Es gibt einen natürlichen Drang zum "Oh" und "Ah". Aber bei dem Tempo, in dem sich die Dinge jetzt entwickeln, könnten wir uns mit "Oh" und "Aah" in eine Zukunft bewegen, die niemand will.


Übersetzt mit: deepl.com/Translator


Ende Vox.com


Und? Was nu? Wie oben erwähnt, erahne *ich auch keine für Uns vorteilhafte Entwicklung. Gemessen an unserem natürlichen soSein, werden wir stürzen müssen, egal, ob wegen des Klimas oder des MK, weil Wir einfach{en} nur sehr kurzsichtig sind, was Voraus-Schau angeht. Vielleicht ein paar Stunden bei den Meisten, reicht ja allermeist, bis was schlimmes, einschneidendes passiert. Baff!


Dann wird das Aufmerksamkeits-Spanne vielleicht ein wenig ausgeweitet, denn das Wissen und das Erleben (Vergangenheit) um sehr viel weiter voraus zu ahnen, was für eine Richtung eine Entwicklung nimmt, alles was es also für Verantwortung (Zukunfts-Voraus-Planung, um sich dem Ergebnis an zu nähern.) braucht ist vorhanden. Genutzt wird es natürlich (!) nicht.


Wir sind unschuldig. Wir haben Uns nicht so erschaffen und voreingestellt, wie Wir nun mal handeln und nicht-handeln (soSein), das war und ist Natur, in Uns und um Uns herum. Verantwortlich handeln und nicht-handeln können Wir trotzdem, das DaSein hat das auch in Uns zu gelassen. Wir sind Alles, was Wir dazu brauchen. Und das ist keine MK.


🤡

Samstag, 18. März 2023

Wir kommen dem, was Ist, langsam näher.

Poesie

Titel: Das uralte "Spiel"  des DaSein: Alles hat ein Ende, oder, jed-Es fällt irgendwann dahin. Auch das KI.

https://www.vox.com/future-perfect/2023/3/18/23645013/openai-gpt4-holden-karnofsky-artificial-intelligence-ai-safety-existential-risk

Die Leses wissen, was *ich auf das Frage, ob wir Menschen wissen, was Wir tun und nicht-tun und was Wir damit bewirken?, antworte.

Vor kurzem schrieb *ich, dass wir - zwar "Kinder" des Natur -, dem Verändern des Natur jedoch längst atemlos hinter her hecheln. Wir kommen nicht mehr mit.

Nur Vermehrung und Egoismus zu erzwingen und das Gute (Klugheit, UmSicht, Verantwortung, Freiheit), dem Trägheit zu opfern.

Wie das Natur das auch in uns eingeprägt hat.

Auf diese Art Natur-Geprägt, wird es jede Spezies in einem endlichen System irgendwann zum erschöpfen und zum aggressiven Erstarren bringen. Wir sind dabei.

In einem endlichen Platz, ist Un-Endlichkeit nicht möglich, also kommt jedes Handlungs-System, das nur auf ein Mehr vons ICH, mit er[he]blichem UmWelt-Blindheit getrimmt ist, bei einem gewissen Fuell-Stand zum erliegen; oder erstirbt, ganz natürlich.

Uns als voll Natur, das genau so auch um Uns herum so handelt!, bleibt auch Uns das nicht erspart.

Oder?

Lesen Sie nach Novalis selbst.

.


Tja, dazu wird es nicht kommen,

die MK wird sich um wich-

tigeres kümmern.

.

Hier das vorzügliche Gespräch in D:

Holden Karnofsky

Die Grundidee wäre folgende: Stellen Sie sich vor, wie die Welt in ferner Zukunft nach einer großen wissenschaftlichen und technologischen Entwicklung aussehen würde. Ich denke, die meisten Menschen würden zustimmen, dass die Welt sehr, sehr seltsam und ungewohnt aussehen könnte. Darüber gibt es eine Menge Science-Fiction.

Was meiner Meinung nach am meisten auf dem Spiel steht, ist die Vorstellung, dass KI möglicherweise dazu dienen könnte, all die Dinge zu automatisieren, die Menschen tun, um Wissenschaft und Technologie voranzubringen, und dass wir diese wilde Zukunft viel schneller erreichen könnten, als die Menschen sich das vorstellen.

Heute gibt es eine gewisse Anzahl menschlicher Wissenschaftler, die versuchen, Wissenschaft und Technologie voranzutreiben. An dem Tag, an dem wir in der Lage sind, alles, was sie tun, zu automatisieren, könnte dies einen massiven Anstieg des wissenschaftlichen und technologischen Fortschritts zur Folge haben, der erzielt wird. Außerdem kann dadurch eine Art Rückkopplungsschleife entstehen, die wir heute noch nicht haben, bei der die Verbesserung von Wissenschaft und Technologie zu einem größeren Angebot an Hardware und effizienterer Software führt, mit der eine größere Anzahl von KIs betrieben werden kann.

Und da die KI diejenigen sind, die Wissenschaft und Technologie erforschen und weiterentwickeln, könnte das zu einer Schleife führen. Wenn man diesen Kreislauf in Gang setzt, kommt es zu einem sehr explosiven Fortschritt.

Das Ergebnis ist, dass die Welt, die sich die meisten Menschen in Tausenden von Jahren in einer wilden Science-Fiction-Zukunft vorstellen, eher 10 Jahre oder ein Jahr oder Monate von dem Punkt entfernt sein könnte, an dem KI-Systeme all die Dinge tun, die Menschen normalerweise tun, um Wissenschaft und Technologie voranzubringen.

Dies alles ergibt sich direkt aus den Standard-Wirtschaftswachstumsmodellen, und es gibt Anzeichen für diese Art von Rückkopplungsschleife in Teilen der Wirtschaftsgeschichte.

Kelsey Piper

Das klingt doch toll, oder? Star Trek Zukunft über Nacht? Wo ist der Haken?

Holden Karnofsky

Ich denke, es gibt große Risiken. Ich meine, es könnte großartig sein. Aber wie Sie wissen, glaube ich, wenn wir uns einfach nur zurücklehnen und entspannen und die Wissenschaftler so schnell wie möglich arbeiten lassen, haben wir die Chance, dass einige Dinge großartig laufen und andere schrecklich.

Ich konzentriere mich vor allem darauf, dort aufzustehen, wo die normalen Marktkräfte es nicht tun, und zu versuchen, die Wahrscheinlichkeit, dass die Dinge schief gehen, zu verringern. Was die Frage betrifft, wie die Dinge schief gehen könnten, so möchte ich mit einer allgemeinen Intuition beginnen: Wenn wir von wissenschaftlichem Fortschritt und Wirtschaftswachstum sprechen, geht es um ein paar Prozent pro Jahr. Das ist das, was wir in den letzten paar hundert Jahren erlebt haben. Das ist alles, was jeder von uns weiß.

Aber wie würden Sie sich bei einem Wirtschaftswachstum von, sagen wir mal, 100 Prozent pro Jahr, 1.000 Prozent pro Jahr fühlen? Ich denke, wir sind einfach nicht bereit für das, was auf uns zukommt. Ich denke, die Gesellschaft hat nicht wirklich gezeigt, dass sie sich an eine so schnelle Veränderung anpassen kann. Die angemessene Haltung gegenüber dem nächsten Übergang in der Größenordnung einer industriellen Revolution ist Vorsicht.

Eine weitere Intuition ist, dass diese KI-Systeme, die wir bauen, vielleicht all das tun, was Menschen tun, um den wissenschaftlichen und technologischen Fortschritt zu automatisieren, aber sie sind keine Menschen. Wenn wir das erreichen, wäre das das erste Mal in der Geschichte, dass wir etwas anderes als Menschen haben, das in der Lage ist, autonom neue Technologien zu entwickeln und Wissenschaft und Technologie voranzutreiben. Niemand hat eine Vorstellung davon, wie das aussehen wird, und ich denke, wir sollten nicht davon ausgehen, dass das Ergebnis für die Menschen gut sein wird. Ich denke, es hängt wirklich davon ab, wie die KI gestaltet ist.

Wenn man sich den derzeitigen Stand des maschinellen Lernens anschaut, ist es ganz klar, dass wir keine Ahnung haben, was wir da bauen. In erster Näherung werden diese Systeme so entworfen, dass jemand einen relativ einfachen Lernalgorithmus nimmt und eine riesige Datenmenge hineinschüttet. Man gibt das gesamte Internet ein und versucht, ein Wort nach dem anderen aus dem Internet vorherzusagen und daraus zu lernen. Das ist eine grobe Vereinfachung, aber es ist so, als ob sie das tun und aus diesem Prozess eine Art Ding herauskommt, das mit einem sprechen und Witze machen und Gedichte schreiben kann, aber niemand weiß wirklich, warum.

Man kann sich das als Analogie zur menschlichen Evolution vorstellen: Es gab viele Organismen, von denen einige überlebten und andere nicht, und irgendwann gab es Menschen, in deren Gehirn alle möglichen Dinge vor sich gehen, die wir noch immer nicht wirklich verstehen. Die Evolution ist ein einfacher Prozess, der zu komplexen Wesen geführt hat, die wir immer noch nicht verstehen.

Als der Bing-Chat auf den Markt kam und anfing, die Nutzer zu bedrohen und, Sie wissen schon, zu verführen und Gott weiß was, fragten die Leute, warum er das tut. Und ich würde sagen, nicht nur ich weiß es nicht, sondern niemand weiß es, weil die Leute, die es entwickelt haben, es nicht wissen, die Leute, die es trainiert haben, wissen es nicht.

Kelsey Piper

Einige Leute haben argumentiert, dass Sie recht haben, dass KI eine große Sache sein wird, die unsere Welt über Nacht dramatisch verändern wird, und dass wir deshalb so schnell wie möglich vorankommen sollten, weil wir der Gesellschaft mehr Zeit geben, sich anzupassen, wenn wir die Technologie früher freigeben.

Holden Karnofsky

Ich denke, es gibt ein gewisses Tempo, in dem das Sinn machen würde, und ich denke, dass das Tempo, in dem KI voranschreiten könnte, dafür zu schnell sein könnte. Ich glaube, die Gesellschaft braucht einfach eine Weile, um sich an etwas zu gewöhnen.

Bei den meisten Technologien, die auf den Markt kommen, dauert es lange, bis sie angemessen reguliert sind und von der Regierung angemessen genutzt werden. Menschen, die nicht zu den Early Adopters oder Technikliebhabern gehören, müssen lernen, sie zu nutzen, sie in ihr Leben zu integrieren, die Fallstricke zu vermeiden und mit den Schattenseiten umzugehen.

Wenn wir also an der Schwelle zu einer radikalen Explosion des Wachstums oder des technologischen Fortschritts stehen, dann weiß ich nicht, wie ein überstürztes Vorgehen hier helfen soll. Ich weiß nicht, wie wir zu einem Tempo des Wandels gelangen sollen, das langsam genug ist, damit sich die Gesellschaft anpassen kann, wenn wir so schnell wie möglich vorwärts drängen.

Kelsey Piper

Angenommen, Sie sind an einer Regulierung der KI interessiert, um einige dieser Veränderungen zu verbessern und das Risiko einer Katastrophe zu verringern. Was sollten wir tun?

Holden Karnofsky

Ich bin ziemlich besorgt darüber, dass Menschen das Gefühl haben, etwas tun zu müssen, nur um etwas zu tun. Ich denke, dass viele plausible Regelungen eine Menge Nachteile haben und möglicherweise nicht erfolgreich sind. Und ich kann derzeit keine spezifischen Regelungen nennen, von denen ich glaube, dass sie wirklich gut sind. Ich denke, daran muss noch gearbeitet werden. Es ist eine unbefriedigende Antwort, aber ich denke, es ist dringend notwendig, dass die Leute anfangen, darüber nachzudenken, wie ein gutes Regulierungssystem aussehen könnte. Das ist etwas, mit dem ich immer mehr Zeit verbringe.

Gibt es eine Möglichkeit, wie wir erkennen können, wann das Risiko einiger dieser Katastrophen in den Systemen steigt? Können wir Auslöser festlegen, so dass wir, wenn wir die Anzeichen sehen, wissen, dass die Anzeichen da sind, wir uns verpflichten können, auf der Grundlage dieser Anzeichen Maßnahmen zu ergreifen, um die Dinge zu verlangsamen. Wenn wir in eine sehr riskante Phase geraten, würde ich mich darauf konzentrieren, etwas zu entwickeln, das dies rechtzeitig erkennt und entsprechende Maßnahmen ergreift, ohne Schaden anzurichten. Das ist schwer zu erreichen. Je früher man also anfängt, darüber nachzudenken, desto reflektierter kann man sein.

Kelsey Piper

Was sind Ihrer Meinung nach die größten Fehler, die die Menschen im Zusammenhang mit KI machen oder übersehen?

Holden Karnofsky

Erstens glaube ich, dass sich die Leute oft an der Frage stoßen, ob KI ein Bewusstsein haben wird, ob KI Gefühle haben wird und ob KI Dinge haben wird, die sie will.

Ich denke, das ist im Grunde völlig irrelevant. Wir könnten ohne weiteres Systeme entwerfen, die kein Bewusstsein und keine Wünsche haben, aber "Ziele" in dem Sinne, dass eine schachspielende KI das Schachmatt anstrebt. Und die Art und Weise, wie wir heute Systeme entwerfen, und vor allem die Art und Weise, wie ich denke, dass die Dinge sich weiterentwickeln könnten, ist sehr anfällig für die Entwicklung dieser Art von Systemen, die autonom auf ein Ziel hin handeln können.

Unabhängig davon, ob sie bei Bewusstsein sind, könnten sie so handeln, als ob sie versuchen würden, Dinge zu tun, die gefährlich sein könnten. Sie könnten in der Lage sein, Beziehungen zu Menschen aufzubauen, Menschen zu überzeugen, dass sie Freunde sind, Menschen zu überzeugen, dass sie verliebt sind. Unabhängig davon, ob sie das wirklich sind oder nicht, wird das sehr störend sein.

Das andere Missverständnis, das die Menschen verunsichert, ist, dass sie oft zwischen verrückten langfristigen Risiken und greifbaren kurzfristigen Risiken unterscheiden. Und ich glaube nicht immer an diese Unterscheidung. Ich denke, dass die wirklich verrückten Dinge, über die ich im Zusammenhang mit der Automatisierung, der Wissenschaft und der Technologie spreche, in gewisser Weise nicht so offensichtlich sind, dass sie uns später als etwas wie die Massenarbeitslosigkeit treffen werden.

Ich habe einen Beitrag geschrieben, in dem ich argumentiere, dass es für ein KI-System ziemlich schwierig wäre, alle möglichen Jobs zu übernehmen, die auch ein ziemlich gering qualifizierter Mensch haben könnte. Es ist eine Sache, wenn es zu einer vorübergehenden Übergangsphase kommt, in der einige Arbeitsplätze verschwinden und andere auftauchen, wie wir es in der Vergangenheit schon oft erlebt haben. Eine andere Sache ist es, wenn es so weit kommt, dass man absolut nichts mehr so gut kann wie eine KI, und ich bin mir nicht sicher, ob wir das erleben werden, bevor wir eine KI sehen, die Wissenschaft und technologischen Fortschritt leisten kann. Es ist wirklich schwer vorherzusagen, welche Fähigkeiten wir in welcher Reihenfolge sehen werden. Wenn wir den wissenschaftlichen und technologischen Bereich erreichen, wird es sehr schnell gehen.

Die Idee also, dass wir uns auf "kurzfristige" Dinge konzentrieren sollten, die vielleicht gar nicht so kurzfristig sind, und dann warten, bis wir uns an die verrückteren Dinge anpassen, wenn sie passieren? Ich weiß nicht so recht. Ich weiß nicht, ob die verrückten Dinge später kommen werden, und ich weiß nicht, ob sie langsam genug passieren werden, damit wir uns darauf einstellen können.

Ein dritter Punkt, bei dem ich denke, dass viele Leute bei meinem Schreiben von Bord gehen, ist, dass sie denken, dass das alles so verrückt ist, dass wir über diesen gigantischen Übergang für die Menschheit sprechen, bei dem die Dinge wirklich schnell gehen werden. Das ist einfach eine verrückte Behauptung. Und warum sollten wir glauben, dass wir uns gerade in dieser besonders wichtigen Zeit befinden? Aber es ist tatsächlich so - wenn man sich die grundlegenden Diagramme und Zeitleisten historischer Ereignisse und des technologischen Fortschritts in der Geschichte der Menschheit anschaut, gibt es eine Menge Gründe, die dafür sprechen, dass wir uns bereits in einem sich beschleunigenden Trend befinden und dass wir bereits in einer seltsamen Zeit leben.

Ich denke, wir müssen alle sehr offen sein für die Vorstellung, dass der nächste große Übergang - etwas so Großes und Beschleunigendes wie die neolithische Revolution oder die industrielle Revolution oder etwas Größeres - jederzeit kommen könnte. Ich glaube nicht, dass wir herumsitzen und denken sollten, dass wir eine superstarke Voreinstellung haben, dass nichts Seltsames passieren kann.

Kelsey Piper

Ich möchte mit einer hoffnungsvollen Note enden. Was wäre, wenn die Menschheit wirklich die Kurve kriegt, wenn wir das nächste Jahrzehnt damit verbringen, wirklich hart an einem guten Ansatz zu arbeiten, und es uns gelingt, etwas zu koordinieren und auf der technischen Seite etwas zu erreichen? Wie würde das aussehen?

Holden Karnofsky

Ich denke, in gewisser Weise ist es wichtig, sich mit der unglaublichen Ungewissheit, die vor uns liegt, auseinanderzusetzen. Und die Tatsache, dass, selbst wenn wir großartige Arbeit leisten und sehr vernünftig sind und als Menschheit zusammenkommen und all die richtigen Dinge tun, sich die Dinge vielleicht einfach zu schnell entwickeln und wir trotzdem eine Katastrophe erleben.

Auf der anderen Seite - ich habe den Begriff "Erfolg ohne Würde" verwendet - könnten wir im Grunde gar nichts richtig machen und trotzdem gut dastehen.

Ich denke also, dass beides zutrifft, und ich denke, dass alle Möglichkeiten offen sind, und es ist wichtig, dies im Auge zu behalten. Aber wenn ich mich auf die optimistische Vision konzentrieren soll, dann gibt es heute eine Reihe von Leuten, die sich mit der Anpassungsforschung befassen und versuchen, diese KI-Systeme zu entmystifizieren, so dass wir weniger diese mysteriösen Köpfe haben, über die wir nichts wissen, sondern eher verstehen, woher sie kommen. Sie können uns dabei helfen, herauszufinden, was in ihnen vorgeht, und sie so zu gestalten, dass sie den Menschen wirklich bei ihren Aufgaben helfen, anstatt Dinge zu sein, die ihre eigenen Ziele verfolgen und in zufällige Richtungen gehen und die Welt in zufällige Bahnen lenken.

Ich bin zuversichtlich, dass in der Zukunft eine Regelung für Standards und die Überwachung von KI entwickelt wird. Die Idee ist, dass es ein gemeinsames Verständnis dafür gibt, dass Systeme, die bestimmte Eigenschaften aufweisen, gefährlich sind und dass diese Systeme eingedämmt, gestoppt, nicht eingesetzt und manchmal gar nicht erst ausgebildet werden müssen. Und dieses System wird durch eine Kombination aus Selbstregulierung, aber auch durch staatliche Regulierung und internationale Maßnahmen durchgesetzt.

Wenn man diese Dinge versteht, ist es nicht allzu schwer, sich eine Welt vorzustellen, in der KI zuerst von Unternehmen entwickelt wird, die sich an die Normen halten, die sich der Risiken bewusst sind und die angemessen reguliert und überwacht werden, so dass die ersten superstarken KI-Systeme, die in der Lage sein könnten, all die Dinge zu tun, die Menschen tun, um Wissenschaft und Technologie voranzubringen, tatsächlich sicher sind und mit der Priorität eingesetzt werden, die Gesamtsituation sicherer zu machen.

Sie könnten zum Beispiel dazu verwendet werden, noch bessere Anpassungsmethoden zu entwickeln, um andere KI-Systeme leichter sicher zu machen, oder um bessere Methoden zur Durchsetzung von Normen und zur Überwachung zu entwickeln. So könnte eine Schleife entstehen, in der frühe, sehr leistungsfähige Systeme eingesetzt werden, um den Sicherheitsfaktor späterer, sehr leistungsfähiger Systeme zu erhöhen. Am Ende haben wir dann eine Welt, in der wir eine Menge leistungsfähiger Systeme haben, die aber im Grunde alle das tun, was sie tun sollen. Sie sind alle sicher, sie werden nicht von aggressiven Spionageprogrammen gestohlen. Und das wird im Grunde genommen zu einem Kraftmultiplikator für den menschlichen Fortschritt, so wie es bisher der Fall war.

In einer solchen Welt mit vielen Hindernissen, Ungewissheit und Komplexität könnten wir in der Zukunft in einer Welt landen, in der sich die Gesundheit stark verbessert hat, in der wir über ein riesiges Angebot an sauberer Energie verfügen und in der die Sozialwissenschaften Fortschritte gemacht haben. Ich denke, wir könnten in einer Welt landen, die viel besser ist als heute, so wie ich glaube, dass die heutige Welt viel besser ist als die vor ein paar hundert Jahren.

Ich glaube also, dass es hier ein mögliches Happy End gibt. Wenn wir die Herausforderung gut meistern, erhöhen sich die Chancen, aber ich glaube, dass es trotzdem zu einer Katastrophe oder einem großartigen Ende kommen könnte, weil ich glaube, dass alles sehr unsicher ist.

Übersetzt mit: www.DeepL.com/Translator {Dazu hätte *ich Stunden gebraucht, und ob es so gut geworden wäre?}

Text Ende

🤡