VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Samstag, 18. März 2023

Wir kommen dem, was Ist, langsam näher.

Poesie

Titel: Das uralte "Spiel"  des DaSein: Alles hat ein Ende, oder, jed-Es fällt irgendwann dahin. Auch das KI.

https://www.vox.com/future-perfect/2023/3/18/23645013/openai-gpt4-holden-karnofsky-artificial-intelligence-ai-safety-existential-risk

Die Leses wissen, was *ich auf das Frage, ob wir Menschen wissen, was Wir tun und nicht-tun und was Wir damit bewirken?, antworte.

Vor kurzem schrieb *ich, dass wir - zwar "Kinder" des Natur -, dem Verändern des Natur jedoch längst atemlos hinter her hecheln. Wir kommen nicht mehr mit.

Nur Vermehrung und Egoismus zu erzwingen und das Gute (Klugheit, UmSicht, Verantwortung, Freiheit), dem Trägheit zu opfern.

Wie das Natur das auch in uns eingeprägt hat.

Auf diese Art Natur-Geprägt, wird es jede Spezies in einem endlichen System irgendwann zum erschöpfen und zum aggressiven Erstarren bringen. Wir sind dabei.

In einem endlichen Platz, ist Un-Endlichkeit nicht möglich, also kommt jedes Handlungs-System, das nur auf ein Mehr vons ICH, mit er[he]blichem UmWelt-Blindheit getrimmt ist, bei einem gewissen Fuell-Stand zum erliegen; oder erstirbt, ganz natürlich.

Uns als voll Natur, das genau so auch um Uns herum so handelt!, bleibt auch Uns das nicht erspart.

Oder?

Lesen Sie nach Novalis selbst.

.


Tja, dazu wird es nicht kommen,

die MK wird sich um wich-

tigeres kümmern.

.

Hier das vorzügliche Gespräch in D:

Holden Karnofsky

Die Grundidee wäre folgende: Stellen Sie sich vor, wie die Welt in ferner Zukunft nach einer großen wissenschaftlichen und technologischen Entwicklung aussehen würde. Ich denke, die meisten Menschen würden zustimmen, dass die Welt sehr, sehr seltsam und ungewohnt aussehen könnte. Darüber gibt es eine Menge Science-Fiction.

Was meiner Meinung nach am meisten auf dem Spiel steht, ist die Vorstellung, dass KI möglicherweise dazu dienen könnte, all die Dinge zu automatisieren, die Menschen tun, um Wissenschaft und Technologie voranzubringen, und dass wir diese wilde Zukunft viel schneller erreichen könnten, als die Menschen sich das vorstellen.

Heute gibt es eine gewisse Anzahl menschlicher Wissenschaftler, die versuchen, Wissenschaft und Technologie voranzutreiben. An dem Tag, an dem wir in der Lage sind, alles, was sie tun, zu automatisieren, könnte dies einen massiven Anstieg des wissenschaftlichen und technologischen Fortschritts zur Folge haben, der erzielt wird. Außerdem kann dadurch eine Art Rückkopplungsschleife entstehen, die wir heute noch nicht haben, bei der die Verbesserung von Wissenschaft und Technologie zu einem größeren Angebot an Hardware und effizienterer Software führt, mit der eine größere Anzahl von KIs betrieben werden kann.

Und da die KI diejenigen sind, die Wissenschaft und Technologie erforschen und weiterentwickeln, könnte das zu einer Schleife führen. Wenn man diesen Kreislauf in Gang setzt, kommt es zu einem sehr explosiven Fortschritt.

Das Ergebnis ist, dass die Welt, die sich die meisten Menschen in Tausenden von Jahren in einer wilden Science-Fiction-Zukunft vorstellen, eher 10 Jahre oder ein Jahr oder Monate von dem Punkt entfernt sein könnte, an dem KI-Systeme all die Dinge tun, die Menschen normalerweise tun, um Wissenschaft und Technologie voranzubringen.

Dies alles ergibt sich direkt aus den Standard-Wirtschaftswachstumsmodellen, und es gibt Anzeichen für diese Art von Rückkopplungsschleife in Teilen der Wirtschaftsgeschichte.

Kelsey Piper

Das klingt doch toll, oder? Star Trek Zukunft über Nacht? Wo ist der Haken?

Holden Karnofsky

Ich denke, es gibt große Risiken. Ich meine, es könnte großartig sein. Aber wie Sie wissen, glaube ich, wenn wir uns einfach nur zurücklehnen und entspannen und die Wissenschaftler so schnell wie möglich arbeiten lassen, haben wir die Chance, dass einige Dinge großartig laufen und andere schrecklich.

Ich konzentriere mich vor allem darauf, dort aufzustehen, wo die normalen Marktkräfte es nicht tun, und zu versuchen, die Wahrscheinlichkeit, dass die Dinge schief gehen, zu verringern. Was die Frage betrifft, wie die Dinge schief gehen könnten, so möchte ich mit einer allgemeinen Intuition beginnen: Wenn wir von wissenschaftlichem Fortschritt und Wirtschaftswachstum sprechen, geht es um ein paar Prozent pro Jahr. Das ist das, was wir in den letzten paar hundert Jahren erlebt haben. Das ist alles, was jeder von uns weiß.

Aber wie würden Sie sich bei einem Wirtschaftswachstum von, sagen wir mal, 100 Prozent pro Jahr, 1.000 Prozent pro Jahr fühlen? Ich denke, wir sind einfach nicht bereit für das, was auf uns zukommt. Ich denke, die Gesellschaft hat nicht wirklich gezeigt, dass sie sich an eine so schnelle Veränderung anpassen kann. Die angemessene Haltung gegenüber dem nächsten Übergang in der Größenordnung einer industriellen Revolution ist Vorsicht.

Eine weitere Intuition ist, dass diese KI-Systeme, die wir bauen, vielleicht all das tun, was Menschen tun, um den wissenschaftlichen und technologischen Fortschritt zu automatisieren, aber sie sind keine Menschen. Wenn wir das erreichen, wäre das das erste Mal in der Geschichte, dass wir etwas anderes als Menschen haben, das in der Lage ist, autonom neue Technologien zu entwickeln und Wissenschaft und Technologie voranzutreiben. Niemand hat eine Vorstellung davon, wie das aussehen wird, und ich denke, wir sollten nicht davon ausgehen, dass das Ergebnis für die Menschen gut sein wird. Ich denke, es hängt wirklich davon ab, wie die KI gestaltet ist.

Wenn man sich den derzeitigen Stand des maschinellen Lernens anschaut, ist es ganz klar, dass wir keine Ahnung haben, was wir da bauen. In erster Näherung werden diese Systeme so entworfen, dass jemand einen relativ einfachen Lernalgorithmus nimmt und eine riesige Datenmenge hineinschüttet. Man gibt das gesamte Internet ein und versucht, ein Wort nach dem anderen aus dem Internet vorherzusagen und daraus zu lernen. Das ist eine grobe Vereinfachung, aber es ist so, als ob sie das tun und aus diesem Prozess eine Art Ding herauskommt, das mit einem sprechen und Witze machen und Gedichte schreiben kann, aber niemand weiß wirklich, warum.

Man kann sich das als Analogie zur menschlichen Evolution vorstellen: Es gab viele Organismen, von denen einige überlebten und andere nicht, und irgendwann gab es Menschen, in deren Gehirn alle möglichen Dinge vor sich gehen, die wir noch immer nicht wirklich verstehen. Die Evolution ist ein einfacher Prozess, der zu komplexen Wesen geführt hat, die wir immer noch nicht verstehen.

Als der Bing-Chat auf den Markt kam und anfing, die Nutzer zu bedrohen und, Sie wissen schon, zu verführen und Gott weiß was, fragten die Leute, warum er das tut. Und ich würde sagen, nicht nur ich weiß es nicht, sondern niemand weiß es, weil die Leute, die es entwickelt haben, es nicht wissen, die Leute, die es trainiert haben, wissen es nicht.

Kelsey Piper

Einige Leute haben argumentiert, dass Sie recht haben, dass KI eine große Sache sein wird, die unsere Welt über Nacht dramatisch verändern wird, und dass wir deshalb so schnell wie möglich vorankommen sollten, weil wir der Gesellschaft mehr Zeit geben, sich anzupassen, wenn wir die Technologie früher freigeben.

Holden Karnofsky

Ich denke, es gibt ein gewisses Tempo, in dem das Sinn machen würde, und ich denke, dass das Tempo, in dem KI voranschreiten könnte, dafür zu schnell sein könnte. Ich glaube, die Gesellschaft braucht einfach eine Weile, um sich an etwas zu gewöhnen.

Bei den meisten Technologien, die auf den Markt kommen, dauert es lange, bis sie angemessen reguliert sind und von der Regierung angemessen genutzt werden. Menschen, die nicht zu den Early Adopters oder Technikliebhabern gehören, müssen lernen, sie zu nutzen, sie in ihr Leben zu integrieren, die Fallstricke zu vermeiden und mit den Schattenseiten umzugehen.

Wenn wir also an der Schwelle zu einer radikalen Explosion des Wachstums oder des technologischen Fortschritts stehen, dann weiß ich nicht, wie ein überstürztes Vorgehen hier helfen soll. Ich weiß nicht, wie wir zu einem Tempo des Wandels gelangen sollen, das langsam genug ist, damit sich die Gesellschaft anpassen kann, wenn wir so schnell wie möglich vorwärts drängen.

Kelsey Piper

Angenommen, Sie sind an einer Regulierung der KI interessiert, um einige dieser Veränderungen zu verbessern und das Risiko einer Katastrophe zu verringern. Was sollten wir tun?

Holden Karnofsky

Ich bin ziemlich besorgt darüber, dass Menschen das Gefühl haben, etwas tun zu müssen, nur um etwas zu tun. Ich denke, dass viele plausible Regelungen eine Menge Nachteile haben und möglicherweise nicht erfolgreich sind. Und ich kann derzeit keine spezifischen Regelungen nennen, von denen ich glaube, dass sie wirklich gut sind. Ich denke, daran muss noch gearbeitet werden. Es ist eine unbefriedigende Antwort, aber ich denke, es ist dringend notwendig, dass die Leute anfangen, darüber nachzudenken, wie ein gutes Regulierungssystem aussehen könnte. Das ist etwas, mit dem ich immer mehr Zeit verbringe.

Gibt es eine Möglichkeit, wie wir erkennen können, wann das Risiko einiger dieser Katastrophen in den Systemen steigt? Können wir Auslöser festlegen, so dass wir, wenn wir die Anzeichen sehen, wissen, dass die Anzeichen da sind, wir uns verpflichten können, auf der Grundlage dieser Anzeichen Maßnahmen zu ergreifen, um die Dinge zu verlangsamen. Wenn wir in eine sehr riskante Phase geraten, würde ich mich darauf konzentrieren, etwas zu entwickeln, das dies rechtzeitig erkennt und entsprechende Maßnahmen ergreift, ohne Schaden anzurichten. Das ist schwer zu erreichen. Je früher man also anfängt, darüber nachzudenken, desto reflektierter kann man sein.

Kelsey Piper

Was sind Ihrer Meinung nach die größten Fehler, die die Menschen im Zusammenhang mit KI machen oder übersehen?

Holden Karnofsky

Erstens glaube ich, dass sich die Leute oft an der Frage stoßen, ob KI ein Bewusstsein haben wird, ob KI Gefühle haben wird und ob KI Dinge haben wird, die sie will.

Ich denke, das ist im Grunde völlig irrelevant. Wir könnten ohne weiteres Systeme entwerfen, die kein Bewusstsein und keine Wünsche haben, aber "Ziele" in dem Sinne, dass eine schachspielende KI das Schachmatt anstrebt. Und die Art und Weise, wie wir heute Systeme entwerfen, und vor allem die Art und Weise, wie ich denke, dass die Dinge sich weiterentwickeln könnten, ist sehr anfällig für die Entwicklung dieser Art von Systemen, die autonom auf ein Ziel hin handeln können.

Unabhängig davon, ob sie bei Bewusstsein sind, könnten sie so handeln, als ob sie versuchen würden, Dinge zu tun, die gefährlich sein könnten. Sie könnten in der Lage sein, Beziehungen zu Menschen aufzubauen, Menschen zu überzeugen, dass sie Freunde sind, Menschen zu überzeugen, dass sie verliebt sind. Unabhängig davon, ob sie das wirklich sind oder nicht, wird das sehr störend sein.

Das andere Missverständnis, das die Menschen verunsichert, ist, dass sie oft zwischen verrückten langfristigen Risiken und greifbaren kurzfristigen Risiken unterscheiden. Und ich glaube nicht immer an diese Unterscheidung. Ich denke, dass die wirklich verrückten Dinge, über die ich im Zusammenhang mit der Automatisierung, der Wissenschaft und der Technologie spreche, in gewisser Weise nicht so offensichtlich sind, dass sie uns später als etwas wie die Massenarbeitslosigkeit treffen werden.

Ich habe einen Beitrag geschrieben, in dem ich argumentiere, dass es für ein KI-System ziemlich schwierig wäre, alle möglichen Jobs zu übernehmen, die auch ein ziemlich gering qualifizierter Mensch haben könnte. Es ist eine Sache, wenn es zu einer vorübergehenden Übergangsphase kommt, in der einige Arbeitsplätze verschwinden und andere auftauchen, wie wir es in der Vergangenheit schon oft erlebt haben. Eine andere Sache ist es, wenn es so weit kommt, dass man absolut nichts mehr so gut kann wie eine KI, und ich bin mir nicht sicher, ob wir das erleben werden, bevor wir eine KI sehen, die Wissenschaft und technologischen Fortschritt leisten kann. Es ist wirklich schwer vorherzusagen, welche Fähigkeiten wir in welcher Reihenfolge sehen werden. Wenn wir den wissenschaftlichen und technologischen Bereich erreichen, wird es sehr schnell gehen.

Die Idee also, dass wir uns auf "kurzfristige" Dinge konzentrieren sollten, die vielleicht gar nicht so kurzfristig sind, und dann warten, bis wir uns an die verrückteren Dinge anpassen, wenn sie passieren? Ich weiß nicht so recht. Ich weiß nicht, ob die verrückten Dinge später kommen werden, und ich weiß nicht, ob sie langsam genug passieren werden, damit wir uns darauf einstellen können.

Ein dritter Punkt, bei dem ich denke, dass viele Leute bei meinem Schreiben von Bord gehen, ist, dass sie denken, dass das alles so verrückt ist, dass wir über diesen gigantischen Übergang für die Menschheit sprechen, bei dem die Dinge wirklich schnell gehen werden. Das ist einfach eine verrückte Behauptung. Und warum sollten wir glauben, dass wir uns gerade in dieser besonders wichtigen Zeit befinden? Aber es ist tatsächlich so - wenn man sich die grundlegenden Diagramme und Zeitleisten historischer Ereignisse und des technologischen Fortschritts in der Geschichte der Menschheit anschaut, gibt es eine Menge Gründe, die dafür sprechen, dass wir uns bereits in einem sich beschleunigenden Trend befinden und dass wir bereits in einer seltsamen Zeit leben.

Ich denke, wir müssen alle sehr offen sein für die Vorstellung, dass der nächste große Übergang - etwas so Großes und Beschleunigendes wie die neolithische Revolution oder die industrielle Revolution oder etwas Größeres - jederzeit kommen könnte. Ich glaube nicht, dass wir herumsitzen und denken sollten, dass wir eine superstarke Voreinstellung haben, dass nichts Seltsames passieren kann.

Kelsey Piper

Ich möchte mit einer hoffnungsvollen Note enden. Was wäre, wenn die Menschheit wirklich die Kurve kriegt, wenn wir das nächste Jahrzehnt damit verbringen, wirklich hart an einem guten Ansatz zu arbeiten, und es uns gelingt, etwas zu koordinieren und auf der technischen Seite etwas zu erreichen? Wie würde das aussehen?

Holden Karnofsky

Ich denke, in gewisser Weise ist es wichtig, sich mit der unglaublichen Ungewissheit, die vor uns liegt, auseinanderzusetzen. Und die Tatsache, dass, selbst wenn wir großartige Arbeit leisten und sehr vernünftig sind und als Menschheit zusammenkommen und all die richtigen Dinge tun, sich die Dinge vielleicht einfach zu schnell entwickeln und wir trotzdem eine Katastrophe erleben.

Auf der anderen Seite - ich habe den Begriff "Erfolg ohne Würde" verwendet - könnten wir im Grunde gar nichts richtig machen und trotzdem gut dastehen.

Ich denke also, dass beides zutrifft, und ich denke, dass alle Möglichkeiten offen sind, und es ist wichtig, dies im Auge zu behalten. Aber wenn ich mich auf die optimistische Vision konzentrieren soll, dann gibt es heute eine Reihe von Leuten, die sich mit der Anpassungsforschung befassen und versuchen, diese KI-Systeme zu entmystifizieren, so dass wir weniger diese mysteriösen Köpfe haben, über die wir nichts wissen, sondern eher verstehen, woher sie kommen. Sie können uns dabei helfen, herauszufinden, was in ihnen vorgeht, und sie so zu gestalten, dass sie den Menschen wirklich bei ihren Aufgaben helfen, anstatt Dinge zu sein, die ihre eigenen Ziele verfolgen und in zufällige Richtungen gehen und die Welt in zufällige Bahnen lenken.

Ich bin zuversichtlich, dass in der Zukunft eine Regelung für Standards und die Überwachung von KI entwickelt wird. Die Idee ist, dass es ein gemeinsames Verständnis dafür gibt, dass Systeme, die bestimmte Eigenschaften aufweisen, gefährlich sind und dass diese Systeme eingedämmt, gestoppt, nicht eingesetzt und manchmal gar nicht erst ausgebildet werden müssen. Und dieses System wird durch eine Kombination aus Selbstregulierung, aber auch durch staatliche Regulierung und internationale Maßnahmen durchgesetzt.

Wenn man diese Dinge versteht, ist es nicht allzu schwer, sich eine Welt vorzustellen, in der KI zuerst von Unternehmen entwickelt wird, die sich an die Normen halten, die sich der Risiken bewusst sind und die angemessen reguliert und überwacht werden, so dass die ersten superstarken KI-Systeme, die in der Lage sein könnten, all die Dinge zu tun, die Menschen tun, um Wissenschaft und Technologie voranzubringen, tatsächlich sicher sind und mit der Priorität eingesetzt werden, die Gesamtsituation sicherer zu machen.

Sie könnten zum Beispiel dazu verwendet werden, noch bessere Anpassungsmethoden zu entwickeln, um andere KI-Systeme leichter sicher zu machen, oder um bessere Methoden zur Durchsetzung von Normen und zur Überwachung zu entwickeln. So könnte eine Schleife entstehen, in der frühe, sehr leistungsfähige Systeme eingesetzt werden, um den Sicherheitsfaktor späterer, sehr leistungsfähiger Systeme zu erhöhen. Am Ende haben wir dann eine Welt, in der wir eine Menge leistungsfähiger Systeme haben, die aber im Grunde alle das tun, was sie tun sollen. Sie sind alle sicher, sie werden nicht von aggressiven Spionageprogrammen gestohlen. Und das wird im Grunde genommen zu einem Kraftmultiplikator für den menschlichen Fortschritt, so wie es bisher der Fall war.

In einer solchen Welt mit vielen Hindernissen, Ungewissheit und Komplexität könnten wir in der Zukunft in einer Welt landen, in der sich die Gesundheit stark verbessert hat, in der wir über ein riesiges Angebot an sauberer Energie verfügen und in der die Sozialwissenschaften Fortschritte gemacht haben. Ich denke, wir könnten in einer Welt landen, die viel besser ist als heute, so wie ich glaube, dass die heutige Welt viel besser ist als die vor ein paar hundert Jahren.

Ich glaube also, dass es hier ein mögliches Happy End gibt. Wenn wir die Herausforderung gut meistern, erhöhen sich die Chancen, aber ich glaube, dass es trotzdem zu einer Katastrophe oder einem großartigen Ende kommen könnte, weil ich glaube, dass alles sehr unsicher ist.

Übersetzt mit: www.DeepL.com/Translator {Dazu hätte *ich Stunden gebraucht, und ob es so gut geworden wäre?}

Text Ende

🤡

Keine Kommentare:

Kommentar veröffentlichen