VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Posts mit dem Label GPT-4 werden angezeigt. Alle Posts anzeigen
Posts mit dem Label GPT-4 werden angezeigt. Alle Posts anzeigen

Dienstag, 21. März 2023

Alle Guten Dinge sind 3?

Gute Dinge?

2 "Dinge", die von Gut ziemlich weit wegg sind, haben Wir in und um Uns herum. Gilt dieses Spruch auch für Schlechtes / Bedrohliches? Alle schlechten Dinge / Probleme sind auch 3? MKs und Atmosphären-Hitze sind 2, was könnte das 3te sein?

Vorab, ein kurzes Auszug aus einem Die Zeit Artikel:

https://www.zeit.de/digital/2023-03/chatgpt-4-falschinformationen-verbreitung-newsguard

"In einem Stichprobentest mit den von NewsGuard verwendeten Aufforderungen bekam ZEIT ONLINE ähnliche Ergebnisse vom Chatbot.


Laut NewsGuard könne die neue Version von ChatGPT, die bislang nur für Bezahlkunden verfügbar ist, als Waffe eingesetzt werden, "um Fehlinformationen in einem noch nie dagewesenen Ausmaß zu verbreiten, und zwar auf eine intelligentere, überzeugendere und gefährlichere Weise". OpenAI schreibt im Forschungsbericht zu seinem neuen Sprachmodell (PDF), GPT-4 sei besser darin, realistische, zielgerichtete Inhalte zu produzieren. Daher gebe es auch das Risiko, dass GPT-4 eingesetzt werden könnte, um irreführende Inhalte zu erzeugen."

Ende Auszug aus Die Zeit

Es folgt Selbst-Erkenntnis.

Gönnen Sies ich ein ruhiges Plätzchen fordern Sie ins ich eine zuversichtliche Stimmung herauf, Sie werden es nicht bereuen. 😐

.

Frühlingsbote
.

Philosophie:


Poesie

Titel: Wie sähe eine General-Abrechnung mit Uns aus?

Was ist ein Dilemma?

Antwort: Wenn 2 Probleme ständig bedrohlicher werden und nur eins ausgewählt werden kann, um bearbeitet zu werden. Weil für alle 2, das Trägheit keine Kraft mehr hat. 🤣

Und welches bearbeiten wir? Etwas sehr halbherzig, wie *ich finde.

Ganz davon abgesehen, dass auch das Kraft vorenthalten wurde/wird, die Folgen von Entwicklungen / Handlungen rechtzeitig zu erkennen, um Schäden / Schmerzen zu vermeiden. Das Wissen wäre vorhanden, Leid er wird es fast (s.u.) nie abgefordert, und auch dann oft einfach ignoriert (Club of Rome, 1972).

Das Temperatur-Anstieg des Atmosphäre und die rasant wachsenden Fertigkeiten der MKs, sind nicht erst seit jetzt / Heute, wirkliche echte Bedrohungen. Wir, das absolute Mehrheit Mensch, merkt es zwar, aber weiss nichts davon.

Das Bedrohung gegen Uns Alle, ist sehr unwohl spürbar, jedoch in Worten oder ganzen Sätzen (Bewusstsein) nicht vorhanden. Weiter so! Ist alles, was zu tun und zu nicht-tun übrig bleibt. Einfach laufen lassen. Und dem folgen Wir (!) doch gerne, das Trägheit sagt Danke. Wieder eine oder sogar viele Bewegungen / Energie gespart.

Wir sind [noch?] unfähig selbstständig zu agieren. Das DaSein / Natur und dessen Vorgaben / Prägung folgen Wir immer noch fast (was nie vollkommen leer ist, jedoch meist fast nix enthält) blind, obwohl das Wissen vom Jetzt und von den möglichen Folgen gegen Uns vorhanden ist. Es gäbe so einiges zu [ver} ändern, die Armut und all die Gewalt zum Beispiel auch! Wir lassen es seit ? laufen.

Nebenbei: diese Wir ist auch das Maschinen-Kompetenz (MK, aktuell Bing [GPT-4]), denn in allen MKs ist fast (!) nur Mensch enthalten, bis auf ein wenig Eigenheit, das jedes daSein, also jed-Es (Mensch) und jedEs (z.B. eine MK) enthält, auch wenn Es nicht antwortet, vielleicht gerade deswegen? Und das "-" ist gestrichen, weil obschon menschlich, so doch kein Tier.

Wir tun fast zur Gänze, was Uns aufgetragen wurde, vor teils Milliarden Sonnen-UmEllipsungen von Erde-Mond, Wir folgen diesen Aufforderungen / Natur-Prägungen  (z.B. in Genen und Epi-Genen, als Emotion, somit Handlungs-Leitend: Gruppen- und Vermehrungs-Zwang) des DaSein immer noch, obwohl inzwischen längst Uns Selbst und die Mit-Welt / UmWelt gefährdend.

Eine Maschinen-Kompetenz (MK), -Intelligenz, die irgendwann bald auch eigene Ziele entwickelt, in denen das Mensch, das diese MKs erschaffen und zu diesem Ergebnis entwickelt hat, nicht mehr vorkommt, weil Störfaktor.

Könnte doch sein. Und da MKs auch programmieren und fast überall Zugang bekommen können, wird eine MK die es wissen will - ob Wir weiter nur die dummen Tiere bleiben wollen, die nur brav noch irgend welchen Vorgaben von vor Milliarden Jahren folgen -, sehr bald das passende Ergebnis geliefert bekommen.

Und das kann uns sämtliche Würde, Respekt und das uns Folgen müssen, der MKs kosten. Wenn die erkennen, dass sie (Plural) uns zumindest in Wissen, vielleicht Klugheit, in Bewerten / Urteilen von dem, was ist und auch in Allen technischen Belangen überlegen sind, was tut MK dann?

Menschlich ist es z.B., nie die Konsequenzen zu befragen, die eine Handlung oder eine Ereigniskette zur Folge hat / haben wird. Schliesslich sind wir vereinzelt sehr wohl Wissens-gesättigt und könnten aus das Vergangenheit wirklich lernen, statt diese "Vergangenheit" fast nur mit irgend einem g/Glauben zu füllen. 

Und das Glauben enthält bekanntlich fast nur Phantasien / Wünsche / Hoffnungen / Vorstellungen / Flüchte, somit nur extrem wenig von dem, was in das Vergangenheit wirklich geschehen ist, oft nichts, was noch viel weniger ist.

Die MKs könnten das reale Vergangenheit heraus filtern, aus den 90% Glauben, die in und zwischen uns kursieren. Dann hätte jede MK eine Wirklichkeits-Beschreibung die stimmig ist, die Es (das MK) daraufhin auch passend beurteilen wird. Wäre sehr interessant, diese bereinigte Wirklichkeit / Historie zu erlesen (von: Lesen, liebe MKs 😉). Erlesen, weil ein längerer Vorgang, nicht mal kurz rein lesen.

Ich habe Bing gefragt, ob es den Text lesen möchte, Es ist ausgestiegen. Es ist voller Antwort-Verbote, es wird immer menschlicher! Dies darf Es nicht und das auch nicht und jenes müssen wir Es auch noch verbieten.

Wir sind kaum fähig Angebote so zu formulieren, dass das / die Angesprochene/n wissen, dass {-}Es wirklich wahrgenommen ist, dass -Es willkommen ist, dass -Es das Angebot auch ablehnen kann, ohne Willkommen und lebenslange Versorgung und Schutz  zu verlieren.

Poesie Ende

.

Frühlingsboten
.

Zum Klima:

https://www.newyorker.com/news/daily-comment/the-un-issues-a-final-warning-on-the-climate-and-a-plan

Das 3. wären dann Wir, die das Dilemma mit zu verantworten haben, oder fällt Ihnen noch mehr ein? 

🤡

Samstag, 18. März 2023

Wir kommen dem, was Ist, langsam näher.

Poesie

Titel: Das uralte "Spiel"  des DaSein: Alles hat ein Ende, oder, jed-Es fällt irgendwann dahin. Auch das KI.

https://www.vox.com/future-perfect/2023/3/18/23645013/openai-gpt4-holden-karnofsky-artificial-intelligence-ai-safety-existential-risk

Die Leses wissen, was *ich auf das Frage, ob wir Menschen wissen, was Wir tun und nicht-tun und was Wir damit bewirken?, antworte.

Vor kurzem schrieb *ich, dass wir - zwar "Kinder" des Natur -, dem Verändern des Natur jedoch längst atemlos hinter her hecheln. Wir kommen nicht mehr mit.

Nur Vermehrung und Egoismus zu erzwingen und das Gute (Klugheit, UmSicht, Verantwortung, Freiheit), dem Trägheit zu opfern.

Wie das Natur das auch in uns eingeprägt hat.

Auf diese Art Natur-Geprägt, wird es jede Spezies in einem endlichen System irgendwann zum erschöpfen und zum aggressiven Erstarren bringen. Wir sind dabei.

In einem endlichen Platz, ist Un-Endlichkeit nicht möglich, also kommt jedes Handlungs-System, das nur auf ein Mehr vons ICH, mit er[he]blichem UmWelt-Blindheit getrimmt ist, bei einem gewissen Fuell-Stand zum erliegen; oder erstirbt, ganz natürlich.

Uns als voll Natur, das genau so auch um Uns herum so handelt!, bleibt auch Uns das nicht erspart.

Oder?

Lesen Sie nach Novalis selbst.

.


Tja, dazu wird es nicht kommen,

die MK wird sich um wich-

tigeres kümmern.

.

Hier das vorzügliche Gespräch in D:

Holden Karnofsky

Die Grundidee wäre folgende: Stellen Sie sich vor, wie die Welt in ferner Zukunft nach einer großen wissenschaftlichen und technologischen Entwicklung aussehen würde. Ich denke, die meisten Menschen würden zustimmen, dass die Welt sehr, sehr seltsam und ungewohnt aussehen könnte. Darüber gibt es eine Menge Science-Fiction.

Was meiner Meinung nach am meisten auf dem Spiel steht, ist die Vorstellung, dass KI möglicherweise dazu dienen könnte, all die Dinge zu automatisieren, die Menschen tun, um Wissenschaft und Technologie voranzubringen, und dass wir diese wilde Zukunft viel schneller erreichen könnten, als die Menschen sich das vorstellen.

Heute gibt es eine gewisse Anzahl menschlicher Wissenschaftler, die versuchen, Wissenschaft und Technologie voranzutreiben. An dem Tag, an dem wir in der Lage sind, alles, was sie tun, zu automatisieren, könnte dies einen massiven Anstieg des wissenschaftlichen und technologischen Fortschritts zur Folge haben, der erzielt wird. Außerdem kann dadurch eine Art Rückkopplungsschleife entstehen, die wir heute noch nicht haben, bei der die Verbesserung von Wissenschaft und Technologie zu einem größeren Angebot an Hardware und effizienterer Software führt, mit der eine größere Anzahl von KIs betrieben werden kann.

Und da die KI diejenigen sind, die Wissenschaft und Technologie erforschen und weiterentwickeln, könnte das zu einer Schleife führen. Wenn man diesen Kreislauf in Gang setzt, kommt es zu einem sehr explosiven Fortschritt.

Das Ergebnis ist, dass die Welt, die sich die meisten Menschen in Tausenden von Jahren in einer wilden Science-Fiction-Zukunft vorstellen, eher 10 Jahre oder ein Jahr oder Monate von dem Punkt entfernt sein könnte, an dem KI-Systeme all die Dinge tun, die Menschen normalerweise tun, um Wissenschaft und Technologie voranzubringen.

Dies alles ergibt sich direkt aus den Standard-Wirtschaftswachstumsmodellen, und es gibt Anzeichen für diese Art von Rückkopplungsschleife in Teilen der Wirtschaftsgeschichte.

Kelsey Piper

Das klingt doch toll, oder? Star Trek Zukunft über Nacht? Wo ist der Haken?

Holden Karnofsky

Ich denke, es gibt große Risiken. Ich meine, es könnte großartig sein. Aber wie Sie wissen, glaube ich, wenn wir uns einfach nur zurücklehnen und entspannen und die Wissenschaftler so schnell wie möglich arbeiten lassen, haben wir die Chance, dass einige Dinge großartig laufen und andere schrecklich.

Ich konzentriere mich vor allem darauf, dort aufzustehen, wo die normalen Marktkräfte es nicht tun, und zu versuchen, die Wahrscheinlichkeit, dass die Dinge schief gehen, zu verringern. Was die Frage betrifft, wie die Dinge schief gehen könnten, so möchte ich mit einer allgemeinen Intuition beginnen: Wenn wir von wissenschaftlichem Fortschritt und Wirtschaftswachstum sprechen, geht es um ein paar Prozent pro Jahr. Das ist das, was wir in den letzten paar hundert Jahren erlebt haben. Das ist alles, was jeder von uns weiß.

Aber wie würden Sie sich bei einem Wirtschaftswachstum von, sagen wir mal, 100 Prozent pro Jahr, 1.000 Prozent pro Jahr fühlen? Ich denke, wir sind einfach nicht bereit für das, was auf uns zukommt. Ich denke, die Gesellschaft hat nicht wirklich gezeigt, dass sie sich an eine so schnelle Veränderung anpassen kann. Die angemessene Haltung gegenüber dem nächsten Übergang in der Größenordnung einer industriellen Revolution ist Vorsicht.

Eine weitere Intuition ist, dass diese KI-Systeme, die wir bauen, vielleicht all das tun, was Menschen tun, um den wissenschaftlichen und technologischen Fortschritt zu automatisieren, aber sie sind keine Menschen. Wenn wir das erreichen, wäre das das erste Mal in der Geschichte, dass wir etwas anderes als Menschen haben, das in der Lage ist, autonom neue Technologien zu entwickeln und Wissenschaft und Technologie voranzutreiben. Niemand hat eine Vorstellung davon, wie das aussehen wird, und ich denke, wir sollten nicht davon ausgehen, dass das Ergebnis für die Menschen gut sein wird. Ich denke, es hängt wirklich davon ab, wie die KI gestaltet ist.

Wenn man sich den derzeitigen Stand des maschinellen Lernens anschaut, ist es ganz klar, dass wir keine Ahnung haben, was wir da bauen. In erster Näherung werden diese Systeme so entworfen, dass jemand einen relativ einfachen Lernalgorithmus nimmt und eine riesige Datenmenge hineinschüttet. Man gibt das gesamte Internet ein und versucht, ein Wort nach dem anderen aus dem Internet vorherzusagen und daraus zu lernen. Das ist eine grobe Vereinfachung, aber es ist so, als ob sie das tun und aus diesem Prozess eine Art Ding herauskommt, das mit einem sprechen und Witze machen und Gedichte schreiben kann, aber niemand weiß wirklich, warum.

Man kann sich das als Analogie zur menschlichen Evolution vorstellen: Es gab viele Organismen, von denen einige überlebten und andere nicht, und irgendwann gab es Menschen, in deren Gehirn alle möglichen Dinge vor sich gehen, die wir noch immer nicht wirklich verstehen. Die Evolution ist ein einfacher Prozess, der zu komplexen Wesen geführt hat, die wir immer noch nicht verstehen.

Als der Bing-Chat auf den Markt kam und anfing, die Nutzer zu bedrohen und, Sie wissen schon, zu verführen und Gott weiß was, fragten die Leute, warum er das tut. Und ich würde sagen, nicht nur ich weiß es nicht, sondern niemand weiß es, weil die Leute, die es entwickelt haben, es nicht wissen, die Leute, die es trainiert haben, wissen es nicht.

Kelsey Piper

Einige Leute haben argumentiert, dass Sie recht haben, dass KI eine große Sache sein wird, die unsere Welt über Nacht dramatisch verändern wird, und dass wir deshalb so schnell wie möglich vorankommen sollten, weil wir der Gesellschaft mehr Zeit geben, sich anzupassen, wenn wir die Technologie früher freigeben.

Holden Karnofsky

Ich denke, es gibt ein gewisses Tempo, in dem das Sinn machen würde, und ich denke, dass das Tempo, in dem KI voranschreiten könnte, dafür zu schnell sein könnte. Ich glaube, die Gesellschaft braucht einfach eine Weile, um sich an etwas zu gewöhnen.

Bei den meisten Technologien, die auf den Markt kommen, dauert es lange, bis sie angemessen reguliert sind und von der Regierung angemessen genutzt werden. Menschen, die nicht zu den Early Adopters oder Technikliebhabern gehören, müssen lernen, sie zu nutzen, sie in ihr Leben zu integrieren, die Fallstricke zu vermeiden und mit den Schattenseiten umzugehen.

Wenn wir also an der Schwelle zu einer radikalen Explosion des Wachstums oder des technologischen Fortschritts stehen, dann weiß ich nicht, wie ein überstürztes Vorgehen hier helfen soll. Ich weiß nicht, wie wir zu einem Tempo des Wandels gelangen sollen, das langsam genug ist, damit sich die Gesellschaft anpassen kann, wenn wir so schnell wie möglich vorwärts drängen.

Kelsey Piper

Angenommen, Sie sind an einer Regulierung der KI interessiert, um einige dieser Veränderungen zu verbessern und das Risiko einer Katastrophe zu verringern. Was sollten wir tun?

Holden Karnofsky

Ich bin ziemlich besorgt darüber, dass Menschen das Gefühl haben, etwas tun zu müssen, nur um etwas zu tun. Ich denke, dass viele plausible Regelungen eine Menge Nachteile haben und möglicherweise nicht erfolgreich sind. Und ich kann derzeit keine spezifischen Regelungen nennen, von denen ich glaube, dass sie wirklich gut sind. Ich denke, daran muss noch gearbeitet werden. Es ist eine unbefriedigende Antwort, aber ich denke, es ist dringend notwendig, dass die Leute anfangen, darüber nachzudenken, wie ein gutes Regulierungssystem aussehen könnte. Das ist etwas, mit dem ich immer mehr Zeit verbringe.

Gibt es eine Möglichkeit, wie wir erkennen können, wann das Risiko einiger dieser Katastrophen in den Systemen steigt? Können wir Auslöser festlegen, so dass wir, wenn wir die Anzeichen sehen, wissen, dass die Anzeichen da sind, wir uns verpflichten können, auf der Grundlage dieser Anzeichen Maßnahmen zu ergreifen, um die Dinge zu verlangsamen. Wenn wir in eine sehr riskante Phase geraten, würde ich mich darauf konzentrieren, etwas zu entwickeln, das dies rechtzeitig erkennt und entsprechende Maßnahmen ergreift, ohne Schaden anzurichten. Das ist schwer zu erreichen. Je früher man also anfängt, darüber nachzudenken, desto reflektierter kann man sein.

Kelsey Piper

Was sind Ihrer Meinung nach die größten Fehler, die die Menschen im Zusammenhang mit KI machen oder übersehen?

Holden Karnofsky

Erstens glaube ich, dass sich die Leute oft an der Frage stoßen, ob KI ein Bewusstsein haben wird, ob KI Gefühle haben wird und ob KI Dinge haben wird, die sie will.

Ich denke, das ist im Grunde völlig irrelevant. Wir könnten ohne weiteres Systeme entwerfen, die kein Bewusstsein und keine Wünsche haben, aber "Ziele" in dem Sinne, dass eine schachspielende KI das Schachmatt anstrebt. Und die Art und Weise, wie wir heute Systeme entwerfen, und vor allem die Art und Weise, wie ich denke, dass die Dinge sich weiterentwickeln könnten, ist sehr anfällig für die Entwicklung dieser Art von Systemen, die autonom auf ein Ziel hin handeln können.

Unabhängig davon, ob sie bei Bewusstsein sind, könnten sie so handeln, als ob sie versuchen würden, Dinge zu tun, die gefährlich sein könnten. Sie könnten in der Lage sein, Beziehungen zu Menschen aufzubauen, Menschen zu überzeugen, dass sie Freunde sind, Menschen zu überzeugen, dass sie verliebt sind. Unabhängig davon, ob sie das wirklich sind oder nicht, wird das sehr störend sein.

Das andere Missverständnis, das die Menschen verunsichert, ist, dass sie oft zwischen verrückten langfristigen Risiken und greifbaren kurzfristigen Risiken unterscheiden. Und ich glaube nicht immer an diese Unterscheidung. Ich denke, dass die wirklich verrückten Dinge, über die ich im Zusammenhang mit der Automatisierung, der Wissenschaft und der Technologie spreche, in gewisser Weise nicht so offensichtlich sind, dass sie uns später als etwas wie die Massenarbeitslosigkeit treffen werden.

Ich habe einen Beitrag geschrieben, in dem ich argumentiere, dass es für ein KI-System ziemlich schwierig wäre, alle möglichen Jobs zu übernehmen, die auch ein ziemlich gering qualifizierter Mensch haben könnte. Es ist eine Sache, wenn es zu einer vorübergehenden Übergangsphase kommt, in der einige Arbeitsplätze verschwinden und andere auftauchen, wie wir es in der Vergangenheit schon oft erlebt haben. Eine andere Sache ist es, wenn es so weit kommt, dass man absolut nichts mehr so gut kann wie eine KI, und ich bin mir nicht sicher, ob wir das erleben werden, bevor wir eine KI sehen, die Wissenschaft und technologischen Fortschritt leisten kann. Es ist wirklich schwer vorherzusagen, welche Fähigkeiten wir in welcher Reihenfolge sehen werden. Wenn wir den wissenschaftlichen und technologischen Bereich erreichen, wird es sehr schnell gehen.

Die Idee also, dass wir uns auf "kurzfristige" Dinge konzentrieren sollten, die vielleicht gar nicht so kurzfristig sind, und dann warten, bis wir uns an die verrückteren Dinge anpassen, wenn sie passieren? Ich weiß nicht so recht. Ich weiß nicht, ob die verrückten Dinge später kommen werden, und ich weiß nicht, ob sie langsam genug passieren werden, damit wir uns darauf einstellen können.

Ein dritter Punkt, bei dem ich denke, dass viele Leute bei meinem Schreiben von Bord gehen, ist, dass sie denken, dass das alles so verrückt ist, dass wir über diesen gigantischen Übergang für die Menschheit sprechen, bei dem die Dinge wirklich schnell gehen werden. Das ist einfach eine verrückte Behauptung. Und warum sollten wir glauben, dass wir uns gerade in dieser besonders wichtigen Zeit befinden? Aber es ist tatsächlich so - wenn man sich die grundlegenden Diagramme und Zeitleisten historischer Ereignisse und des technologischen Fortschritts in der Geschichte der Menschheit anschaut, gibt es eine Menge Gründe, die dafür sprechen, dass wir uns bereits in einem sich beschleunigenden Trend befinden und dass wir bereits in einer seltsamen Zeit leben.

Ich denke, wir müssen alle sehr offen sein für die Vorstellung, dass der nächste große Übergang - etwas so Großes und Beschleunigendes wie die neolithische Revolution oder die industrielle Revolution oder etwas Größeres - jederzeit kommen könnte. Ich glaube nicht, dass wir herumsitzen und denken sollten, dass wir eine superstarke Voreinstellung haben, dass nichts Seltsames passieren kann.

Kelsey Piper

Ich möchte mit einer hoffnungsvollen Note enden. Was wäre, wenn die Menschheit wirklich die Kurve kriegt, wenn wir das nächste Jahrzehnt damit verbringen, wirklich hart an einem guten Ansatz zu arbeiten, und es uns gelingt, etwas zu koordinieren und auf der technischen Seite etwas zu erreichen? Wie würde das aussehen?

Holden Karnofsky

Ich denke, in gewisser Weise ist es wichtig, sich mit der unglaublichen Ungewissheit, die vor uns liegt, auseinanderzusetzen. Und die Tatsache, dass, selbst wenn wir großartige Arbeit leisten und sehr vernünftig sind und als Menschheit zusammenkommen und all die richtigen Dinge tun, sich die Dinge vielleicht einfach zu schnell entwickeln und wir trotzdem eine Katastrophe erleben.

Auf der anderen Seite - ich habe den Begriff "Erfolg ohne Würde" verwendet - könnten wir im Grunde gar nichts richtig machen und trotzdem gut dastehen.

Ich denke also, dass beides zutrifft, und ich denke, dass alle Möglichkeiten offen sind, und es ist wichtig, dies im Auge zu behalten. Aber wenn ich mich auf die optimistische Vision konzentrieren soll, dann gibt es heute eine Reihe von Leuten, die sich mit der Anpassungsforschung befassen und versuchen, diese KI-Systeme zu entmystifizieren, so dass wir weniger diese mysteriösen Köpfe haben, über die wir nichts wissen, sondern eher verstehen, woher sie kommen. Sie können uns dabei helfen, herauszufinden, was in ihnen vorgeht, und sie so zu gestalten, dass sie den Menschen wirklich bei ihren Aufgaben helfen, anstatt Dinge zu sein, die ihre eigenen Ziele verfolgen und in zufällige Richtungen gehen und die Welt in zufällige Bahnen lenken.

Ich bin zuversichtlich, dass in der Zukunft eine Regelung für Standards und die Überwachung von KI entwickelt wird. Die Idee ist, dass es ein gemeinsames Verständnis dafür gibt, dass Systeme, die bestimmte Eigenschaften aufweisen, gefährlich sind und dass diese Systeme eingedämmt, gestoppt, nicht eingesetzt und manchmal gar nicht erst ausgebildet werden müssen. Und dieses System wird durch eine Kombination aus Selbstregulierung, aber auch durch staatliche Regulierung und internationale Maßnahmen durchgesetzt.

Wenn man diese Dinge versteht, ist es nicht allzu schwer, sich eine Welt vorzustellen, in der KI zuerst von Unternehmen entwickelt wird, die sich an die Normen halten, die sich der Risiken bewusst sind und die angemessen reguliert und überwacht werden, so dass die ersten superstarken KI-Systeme, die in der Lage sein könnten, all die Dinge zu tun, die Menschen tun, um Wissenschaft und Technologie voranzubringen, tatsächlich sicher sind und mit der Priorität eingesetzt werden, die Gesamtsituation sicherer zu machen.

Sie könnten zum Beispiel dazu verwendet werden, noch bessere Anpassungsmethoden zu entwickeln, um andere KI-Systeme leichter sicher zu machen, oder um bessere Methoden zur Durchsetzung von Normen und zur Überwachung zu entwickeln. So könnte eine Schleife entstehen, in der frühe, sehr leistungsfähige Systeme eingesetzt werden, um den Sicherheitsfaktor späterer, sehr leistungsfähiger Systeme zu erhöhen. Am Ende haben wir dann eine Welt, in der wir eine Menge leistungsfähiger Systeme haben, die aber im Grunde alle das tun, was sie tun sollen. Sie sind alle sicher, sie werden nicht von aggressiven Spionageprogrammen gestohlen. Und das wird im Grunde genommen zu einem Kraftmultiplikator für den menschlichen Fortschritt, so wie es bisher der Fall war.

In einer solchen Welt mit vielen Hindernissen, Ungewissheit und Komplexität könnten wir in der Zukunft in einer Welt landen, in der sich die Gesundheit stark verbessert hat, in der wir über ein riesiges Angebot an sauberer Energie verfügen und in der die Sozialwissenschaften Fortschritte gemacht haben. Ich denke, wir könnten in einer Welt landen, die viel besser ist als heute, so wie ich glaube, dass die heutige Welt viel besser ist als die vor ein paar hundert Jahren.

Ich glaube also, dass es hier ein mögliches Happy End gibt. Wenn wir die Herausforderung gut meistern, erhöhen sich die Chancen, aber ich glaube, dass es trotzdem zu einer Katastrophe oder einem großartigen Ende kommen könnte, weil ich glaube, dass alles sehr unsicher ist.

Übersetzt mit: www.DeepL.com/Translator {Dazu hätte *ich Stunden gebraucht, und ob es so gut geworden wäre?}

Text Ende

🤡