VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Donnerstag, 25. Mai 2023

Schattenboxen ist keine Methode zum Gefahr-Abwehr

Inzwischen dürfte den Leses klar sein, dass *ich ein baldiges Maschinen-Selbst (MS) für wesentlich gefährlicher erachte, als das Aufheizen des Atmosphäre und dessen Folgen.

Jedoch, das eigentliche Gefahr erkenne *ich in etwas viel einfacheren. 

Aber bevor es eventuell Erkenntnisreich wird ein schönes Bild zum Beruhigung.

.


Mein Schmusebär

Hat doch jed-Es einen, oder?

.

Poesie

Titel: Warum ist eine Gefahr eine Gefahr!

https://www.faz.net/aktuell/feuilleton/debatten/ist-die-ki-von-openai-gefaehrlich-wie-die-atombombe-18916500.html

Gefährlicher. Insbesondere, wenn es wie aktuell, bloss ein paar sehr Reichen und ein paar sehr Mächtigen überlassen bleibt zu entscheiden, in welche Richtung diese Maschinen-Kompetenz oder sogar ein Maschinen-Selbst entwickelt wird. 

Und, nicht nur *ich weiss, dass all diese wenigsten Menschen nicht an einen Vorteil, eine Besserung und mehr Freiheit für uns Alle denken; und erst Recht (!) nicht demgemäss handeln.

Da geht es weiter bloss um Kontrolle, Einschüchterung, Ausbeutung, Macht und Unterwerfung. Und Wir in Masse, glotzen dabei nur zu und tun nichts, um das für Uns und die Nachfolgenden zu verhindern.

Wir wählen morgen wieder die selbe (!) Politik.

Poesie Ende

DaZwischen noch ein schönes Foto, auch wieder zum Beruhigung. 😉

.


Blick von Alt-Tegel auf den Tegeler See

.

Poesie

Titel: Was ist in all dem das wirkliche Bedrohung?

https://www.nytimes.com/2023/05/25/technology/reid-hoffman-artificial-intelligence.html?

Hier sind all die genannt, die Uns den Maschinen unterwerfen wollen, mit dem Argument, dass das doch nur gut für Uns ist, weil Wir doch ... Und da hört die Argumentation schon auf.

All die Genannten haben mit IT und Start-Ups Milliarden Geld angehäuft, da ist das Frage doch erlaubt, warum gerade sie Uns diese "Intelligenz" (aufgepasst) verkaufen wollen, als superduperklasse nurfüreuch!

Schliesslich wollen Sie Ihre Milliarden Geld noch zu Billionen Geld vermehren.

Und woher nehmen diese Superreichen, diese Billionen? 

Zum Thema Menschlichkeit:

Was von unser Aller Menschlichkeit (Humanity) zu halten ist, zeigt das Zustand des Planeten, oder?

Zeigen diese oben genannte Menschen und zeigt unser UmGang im gemeinsamen Gegeneinander von Menschen und unseren Gesellschaften.

Frage: Für wie blöd halten wir Uns im gemeinsamen gegeneinander eigentlich?

Was ist also das wirkliche Bedrohung gegen uns Menschen?

Poesie Ende

😀

Mittwoch, 24. Mai 2023

Was hat denn Musik mit Wirklichkeits-Erkentnis zu tun!?

Poesie

Titel: Was bewirkt ein schlechtes Film-Geschmack?

Keine Ahnung, und davon jede Menge? Ist *mir auch egal.

.


oder etwa nicht

.


.


.

.

Ich liebe diesen Film, gerade auch weil es ein Liebes-Film ist, aber etwas anders. Deswegen.

Poesie Ende

Aber nun zu etwas ganz anderem. 

Poesie

Titel: Welches Musik-Genre ist besser als Selbst-Erkenntnis?

Handelt menschliche Politik vorausschauend, oder zurück blickend, oder besser gar nicht, weil ...

.

.

Klar ist, um Ausreden sind wir und unsere Politik nie verlegen. Und das wählen Wir alle Jahre wieder, ohne Ende. Wahnsinn.

Es fehlen inzwischen auch 700.000 Wohnungen, auch das erzeugt nur Angst und kommt lediglich sehr sehr sehr wenigen zugute, wie auch der Lehrermangel.

Und jetzt zum Selbst-Erkenntnis, dazu vorher ein Bild:

.

.

Selbst-Erkenntnis ist eher wie Heavy Metal, Schlager und Pop dienen bloss einem Trieb. Was das Selbst-Erkenntnis vom Heavy Metal unterscheidet ist das Wirkung, irgendwie wirkt HM noch wesentlich stärker, als SE. Was uns nicht bloss wegen dem Liebe zu fast bloss Schlager und Pop - auch das meiste "Klassik-Gedudel" ist nur Schlager und Pop -, leider langsam immer mehr zum Verhängnis wird.

Selbst-Erkenntnis besagt, dass unser Aller, *mich inbegriffen!, Wahl-Verhalten - auch das des "nicht-wählens" - genau das bewirkt hat, was Heute ist; und das was auf uns zukommt. Wir haben alle Krisen und Kriege und Zerstörungen mit gewählt, und wählten die nächsten bereits vor, weil menschliche Politik und Macht eben ist, wie wir Alle sind, bis auf eine Handvoll etwas abseitige, die jedoch *mir nicht folgen, weder in fb noch in meinen Blogs. Schade.

Selbst-Erkenntnis ist ja nun auch, dass Wir Alle, bis auf s.o., wesentlich Selbst-Gerecht, Selbst-Zentriert, bloss Trieb-gesteuert und Zukunfts-los sind. Was kümmert einen Menschen die MitWelt, die steht nur im Weg oder ist gar überflüssig, und was "morgen" ist, ist eben "morgen", wo wir Menschen doch nicht mal wissen, was Jetzt und Heute ist. Und unsere Politik und Mächtige sind genauso, von ganz Links bis ganz Rechts. So tun als ob und Nepotismus, mehr nicht,

Irgend etwas vorteilhaftes und gesundes, oder gar wirkliche Freiheit, Freude und Frieden - FFF -, sind damit nicht zu erreichen. Das bewiesen und beweisen Wir beständig. Kleinste Verbesserungen sind nicht uns direkt zu verdanken, das sind so kleine Geschenke des Natur, 2 Schritte vor, 1 1/2 zurück. That's life. Aktuell ist wieder zurück angesagt; und das Huldigen des Trägheit, was jede Verbesserung des Gegebenen verhindert. Aber wie Selbst-Erkenntnis besagt, Wir wählen es.

Also Macht (!) Euch auf Flucht-Bewegungen gefasst, Millionenfachen Ausmasses, Wir wollen es heimlich so und wählen es also auch. Eine Politik, die nichts tut, um etwas in Richtung FFF zu erreichen, eine Macht die ganz natürlich nichts tut. Ausser sich und ein paar mit-Mächtige zu bereichern. Das Wirklichkeit und das Ganze überfordern nicht nur, es blockiert jedes wirkliche Tun, was bleibt ist ganz natürliches so tun als ob. Was auch sonst? Die paar Menschen die anders sind, haben eben Pech.

Poesie Ende

Dienstag, 23. Mai 2023

Das Töten ist das Voraussetzung für Kuschelsex

Dieses Beitrag ist erstellt Anfang November 2014. Weil es heute aufgerufen wurde, habe *ich es nochmal gelesen und gelacht, hauptsächlich wegen des Titels und dem damit korrespondierenden Inhalt. Ich stellte dann das Frage, wie komme *ich nur auf sowas? Wenn *ich nachdenke ob, und ob nicht, *ich etwas humorvolles und tiefer gründiges zustande bringe, lautet das Antwort: Nein. Und dann lese *ich solche Beiträge.


EingangsFrage:


Was macht es (in und um) Uns aus, dass wirklich Alles [üb}erLeben / daSein auf dem Tod / töten beruht?
.
Gestern (2014!) in Berlin, im
Haus der Kulturen der Welt
.
Poesie

Titel: Das Mär vom KuschelSex

Manchmal bin *ich das Verdacht, dass das Lebendigkeit ernstlich nur in einem Art von Traum - aber einem sehr eingeschränkten und spürbehinderten (darin auch das Denken mit aller Phantasie) - zu existieren imstande ist. Dass uns das Wirklichkeit, also das vollkommen ungefilterte und blosse Wirklichkeit auflösen würde?

Ein erschrecken, das zum Verschwinden zwingt. Puff!

Denn, all unsere Nahrung ist getötetes LebeWesen, egal ob Pflanzen oder MitTiere.

Das Töten ist das Grundlage jedes Lebendigkeit.

Und dieses Töten ist auch in jedes einzelnes Selbst von uns Alltag, denn, um das körperliche Lebendigkeit aufrecht zu erhalten, müssen täglich Millionen Zellen in jedes von Uns sterben und / oder getötet werden..

Das Lebendigkeit beruht auf dem absoluten / zwingenden Notwendigkeit zu töten und zu sterben.

Ich muss also täglich töten und innerlich etwas sterben, um dieses *ich zu erhalten.

Das Töten und Sterben sind elementare Notwendigkeiten des DaSein.

Wahrscheinlich bin *ich naiv, oder einfach im Moment nur ziemlich überwältigt.

Aber *mir bereitet diese Erkenntnis Angst, vielleich auch nur Sorgen?

Wieviel Wirklichkeit erträgt das dahinLebende daSein ohne Schmerzen? 
.
Tausende sind gekommen.
Es war völlig überlaufen und überbesetzt.
Das Buch von Thomas Piketty ist mehr
als lesenswert, nachdenkenswert.
.
Poesie

Titel: Vom Ende des Phantasie

Das Frage, das *ich nach dem Erkenntnis des natürlichen Notwendigkeit des Tötens für den Erhalt jedes daSein im DaSein stelle, ist: Gibt es auch ein dahinLeben / daSein nach dem Töten (müssen)?

Ein sehr alte Frage. Bisher lautete sie: Gibt es ein Leben nach dem Tod?

Also ohne mitzudenken, dass das DaSein und darin jedes daSein, ganz elementar den Tod, das Töten zur Aufrecht Erhaltung und Veränderung braucht.

Das erneuerte Frage, inklusive des Erkenntnisse ist: Ist eine Existenz ohne Zerstörung möglich?

Ist es nicht so, dass all unserer Forschung danach sucht, eine Existenz zu erfinden, dessen Entstehung und Erhalt, ohne das Aufbrechen von Verbindungen und das Auflösen von Strukturen und das Zerdrücken oder Sprengen von Formen daSein kann?

Das Töten ist uns mehr und mehr unangenehm, obwohl unsere Existenz darauf beruht.

Aber genau aus diesem Grund - des Töten müssens - reicht unsere Phantasie nicht so weit, das mit zu denken.

Es gibt kein Phantasie für ein fühlendes und denkendes Existenz, das dazu keine vorherige oder begleitende Zerstörung benötigt. Keine annähernd erLebbare, oder auch nur vorstellbare.

Muss das so bleiben?

Ich vermute, nein. Auch das ist änderbar.

Freitag, 5. Mai 2023

Maschinen lernen schneller als Menschen. Warum?

 Poesie

Titel; Wie lernt ein Maschinen-Programm

All NewslettersRead Online
New York Times logo
Technology
FOR SUBSCRIBERSMAY 5, 2023

How generative A.I. really works

Hello! We’re back with a bonus edition of On Tech: A.I., adding to our five-part series. Over the next few weeks and months, we’ll be bringing you highlights of New York Times A.I. coverage, especially pieces that help you understand the underlying technology, and how to use it yourself.

My colleague Aatish Bhatia wrote a fascinating article that reveals the inner workings of generative artificial intelligence software like ChatGPT.

If you remember what Cade Metz and Kevin Roose showed you earlier, these large language models are notoriously opaque, but the basic idea behind them is surprisingly simple: They are trained by going through mountains of text, repeatedly guessing the next few letters and then grading themselves against the real thing.

To show you what this process looks like, Aatish trained six tiny language models on some bodies of text: the complete works of Jane Austen and Shakespeare, plus the Federalist Papers, transcripts of the TV show “Star Trek: The Next Generation,” “Moby Dick,” and the Harry Potter novels.

State-of-the-art models like GPT-4 from OpenAI are trained on hundreds of billions of words, for weeks and months. BabyGPT — the model created by Aatish for his article — is ant-size in comparison.

It was trained for about an hour on a consumer-grade laptop on text sources of up to a million words. But that stripped-down approach makes it easier to peek under the hood and see how large language models really operate.

Let’s walk through the process, starting with the Jane Austen bot, which we’ll prompt with the text, “‘You must decide for yourself,’ said Elizabeth.” (For the full interactive experience, click here.)

Before training: Gibberish

Initially, BabyGPT’s guesses are completely random and include lots of special characters. BabyGPT hasn’t yet learned which letters are typically used in English, or that words even exist.

This is how language models usually start off: They guess randomly and produce gibberish. But they learn from their mistakes, and over time, their guesses get better. Over many, many rounds of training, language models can learn to write by figuring out statistical patterns that piece words together into sentences and paragraphs.

250 rounds: English letters

After about 250 iterations, or 30 seconds of processing on a modern laptop, BabyGPT has learned its ABC’s and is starting to babble:

In particular, our model has learned which letters, like “E” are most frequently used in the text. It has also learned some small words: I, to, the, you, and so on, and is also inventing its own words, like “athok,” “trnglad,” and “hastamt.”

Obviously, these guesses aren’t great. But BabyGPT keeps a score of exactly how bad its guesses are.

Every round of training, it goes through the original text and compares its guesses with what actually comes next. It then calculates a score, known as the “loss,” which measures the difference between its predictions and the actual text. BabyGPT’s goal is to try to reduce this loss and improve its guesses.

500 rounds: Small words

After a minute on a laptop, it can spell a few small words:

It’s also starting to learn some basic grammar, like where to place periods and commas. But it makes plenty of mistakes.

5,000 rounds: Bigger words

Ten minutes in, BabyGPT’s vocabulary has grown:

BabyGPT now makes fewer spelling mistakes. It still invents some longer words, but not as often. It’s also starting to learn some names that occur frequently in the text. Its grammar is improving, too.

Every round of training, an algorithm adjusts these numbers to try to improve its guesses, using a mathematical technique known as backpropagation. Tuning these internal numbers to improve predictions is how a neural network “learns.”

30,000 rounds: Full sentences

An hour into its training, BabyGPT is learning to write in full sentences. Just an hour ago, it didn’t even know that words existed!

The words still don’t make sense, but they definitely look more like English.

BabyGPT doesn’t copy and paste sentences verbatim; it stitches new ones together, letter by letter, based on statistical patterns that it has learned from the data. The neural network generates probabilities, rather than actual letters or words, which is why you can get a different answer every time you generate a new response.

Diminishing returns

Because the training data is relatively small, and we used a laptop rather than a huge array of computers, we quickly hit a point at which BabyGPT isn’t going to get much smarter.

BabyGPT still has a long way to go before its sentences become coherent or useful. It can’t answer a question or debug your code. It’s mostly just fun to watch its guesses improve.

But it’s also instructive. In just an hour of training on a laptop, a language model can go from generating random characters to a very crude approximation of language. Larger language models use more data and computing power to mimic language more convincingly.

The week in A.I. news

BabyGPT used an algorithm developed by Andrej Karpathy, a prominent A.I. researcher who recently joined OpenAI, the company behind ChatGPT. Karpathy was first exposed to artificial intelligence as a student at the University of Toronto, where he took a class by Geoffrey Hinton, known as “the Godfather of A.I.”

Earlier this week, Cade scored an exclusive scoop: Hinton quit his job at Google, where he had worked for more than a decade, so he can freely speak out about the risks of A.I.

“It is hard to see how you can prevent the bad actors from using it for bad things,” Hinton said.

Other news:

Need help? Review our newsletter help page or contact us for assistance.

You received this email because you signed up for On Tech: A.I. from The New York Times.

To stop receiving On Tech: A.I., unsubscribe. To opt out of other promotional emails from The Times, manage your email preferences.

Explore more subscriber-only newsletters.

Connect with us on:

facebooktwitterinstagram

Change Your EmailPrivacy PolicyContact UsCalifornia Notices

The New York Times Company. 620 Eighth Avenue New York, NY 10018