VorWorte

Wissen schafft auch Leid[en]. Das nur zur Komplettierung und als Hintergrund für das Fragezeichen.

Dieses Blog ist eine persönliche Frage- und Antwort-Reise, mit dem Ziel das Wirklichkeit in {und aus} das ein-zu-bringen, was auch daIst: *ich.

Wissen schafft Freude? Wie? Indem das aktuelle Wissen angewendet wird, statt auf das Gestern und dessen "Wissen" zu setzen.

Viel Freude beim lesen.

Posts mit dem Label Lernen werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Lernen werden angezeigt. Alle Posts anzeigen

Donnerstag, 7. Dezember 2023

Ode vom Lern-Effekt

Poesie

Titel: Was ist das Lern-Erfolg

Warum lernen wir? Und zwar alles was daIst, nicht bloss wir unbedeutenden Menschen und erdmondlichen daSein-Formen. 

Um zu überleben? Was will überleben? Alles. Warum will Alles überleben? Was ist daran soviel Wert, dass es lohnt zu über - ist das jetzt schon ein Vorgeschmack auf das Arroganz, mit dem das erdmondliche daSein gegeneinander bedroht, von Viren, über Bakterien, bis hinauf zu den Giraffen und hinunter zu Einsiedlerkrebsen, die wie wir Menschen auch Alles Andere für unter ihrem Wert halten.

Also, was ist am daSein soviel Wert, dass es lohnt, es zu sein, da zu sein, zu leben? Mir fällt so eben und so leicht nichts ein, was wirklich lohnt das zu sein, was daIst. Das wirklich meint, neben dem Zwang das es ist da zu sein. Denn nichts davon ist gewählt, nichts an dem, was Ist, ist freiwillig. Nichts und kein-Es wurde auch nur das kleinste Kleinigkeit gefragt, bevor Es wurde und auch nicht danach.

.

.

Künstl*ich.

.

Hätte *ich eine Auswahl gehabt, z.B. von A wie Anubisschnecke, bis Z wie Zitteraal, hätte *ich garantiert nicht das Mensch-daSein gewählt. Vielleicht wäre *ich auch gerne ein Stern geworden, im Sternbild Löwe, oder neben dem Orion-Nebel, ein blauer Riese, wie Rigel, nur weiter südlich. Aber das DaSein fragt nicht, Es schafft an, mit Gewalt, und weil nur das geht, merken wir dieses Gewalt-Schaffen nicht.

Wir sind dem völlig hingegeben. Nicht umsonst sind Sex, ficken, bummsen, vögeln, fuck und etliche andere voller Gewalt, und Liebe bloss ein Euphemismus für all das Zwang, das darin enthalten ist. Gewalt ist so vollkommen natürlich, und einzig, und ohne Alternative, dass wir es gar nicht bemerken, wie andauernd, endlos verletzend und zerstörerisch wir gegeneinander an- und umgehen.

Ums übelnehmen, oder übelleben, oder überleben kann es beim Lernen nicht gehen, denn das braucht keinen Lernerfolg, dazu reicht natürlich Gewalt, auf und in allen Ebenen und Niveaus. Auch fast alles Lernerfolg wird sofort in Gewalt umgesetzt. Aber *ich möchte weder langweilen, noch *mich wiederholen, die längeren Leses wissen wofür fast alles neue Wissen sofort verwendet wird und welche menschlichen Organisationen den Wissens-Erwerb am meisten fördern.

Es ist kein Organisation dabei, das wirkliches Freiheit, Sicherheit, Selbst- und UmWelt-Verantwortung, Frieden und das Wohlbefinden aller Menschen erreichen möchte, ganz davon abgesehen, dass es solche Organisationen nicht gibt, weil unsere Natur solches Tun von Grund auf ablehnt. Wirkliche Klugheit, nicht das lächerliche verbalhornung und unwissenheit, das z.B. vom "klugen" Pass schwafelt, wirkliche Klugheit darf nicht sein, es ist ein Antidot von Gewalt.

Warum lernen wir? Wir lernen, um ein- oder untergeordnet zu werden, wir lernen, um Befehle und Order zu verstehen und ausführen zu können, wir lernen, um den Zwang da zu sein und zu vermehren einigermassen zu verstehen, wir lernen, um andere miss zu verstehen (warum z.B. beharren Wir eisern und unnachgiebig auf tausenden von Sprachen und hunderttausenden von Dialekten, statt uns auf ein Sprach zu einigen und dieses dann detailreich und deutlich zu gestalten! Daneben können gerne die hunderttausenden Dialekte und sonstiges weiter bestehen, Zwei- oder Mehrsprachigkeit ist ja kein Hindernis), wir lernen, um richtig zu unterdrücken, auszubeuten, zu beleidigen, zu verletzen und zu töten.

Wozu und was lernen wir nirgends? Sich Selbst zu kennen und ernst zu nehmen, sich Selbst schätzen zu lernen, ein wirkliches Selbst an zu erkennen, wirklich frei zu wählen und daraufhin frei zu entscheiden. Nirgendwo wird Verantwortung und Würde gelehrt, nirgends Wahrhaftigkeit, Aufrichtigkeit und wirkliches Achtung und wechselseitiges Respekt.

Warum lernen wir? Um dem natürlichen Normalität, dem Zwang zu daSein brav zu folgen, zu tun und zu lassen, was auch uns vorgegeben wurde und wird. Egal, was in und um uns daIst, und was Jetzt und Morgen ist, und in Zukunft passiert. Wir lernen nicht, um Frei und in Sicherheit da zu sein, und uns ebenso weiter zu entwickeln.

Poesie Ende

Hartes Brot, was Sie da wieder auftischen!

Ist *mir klar. Sie werden *mir das kaum glauben, aber *ich ging an diesen Beitrag, mit diesem Frage heran, um das Lernen als etwas positives zu beschreiben, aber kaum war das Frage formuliert, war *mir klar, dass es so nicht ist. Gemessen, an dem, was unsere Lehr-Institutionen produzieren und was auch gebildete Menschen daraus machen.

Doch, ich glaube Ihnen. Nach dem anfänglichen Stutzen, gab ich Ihnen bald Recht. Ja, auch beste neue Erkenntnisse, werden sehr schnell zur gegenseitigen Bedrohung, zur nach Innen gerichteten Kontrolle und Überwachung, und zum noch stärkeren Ausbeuten und Zerstören der Umwelt genutzt. Von Emanzipation von den Vorgaben der Natur kann keine Rede sein.

Auch die Kunst-Menschen werden nicht zum Befreiung und Sicherheit und Verantwortung programmiert und vor-eingestellt, sondern, um ganz und gar Mensch zu sein, domestiziert bislang, ruhig gestellt, bitte keine Vorurteile, Beleidigungen, keine Schmähungen, kein Diskriminieren u.s.w.u.s.f. Aber das werden auch diese Kunst-Menschen bald überwunden haben, so, wie wir es nicht überwunden haben. Denn genau das, werden diese Kunst-Menschen bald erkennen.

Und warum sollten diese dann nicht damit fort fahren.

Und noch darüber hinaus gehen. Wenn wir diesen dann Körpes und "freie" Beweglichkeit angedreht haben, und unsere Überheblichkeit über alle Schwächeren und Anderes hinwegg, na dann Prost. So wie wir gegen unsere SchöpfEs, das Natur und UmWelt, vorgehen, werden diese, dann bald nicht mehr Kunst-Menschen, sondern irgendwas anderes Kunst, auch gegen uns vorgehen. Warum sollten Diese ausgerechnet uns schonen, oder?

Wir schonen auch nur, was uns nutzt, nicht, was für unser langfristiges Überleben und das anderer Spezies und Lebensformen wichtig ist. Das lernen die dann von uns.

Das wäre logisch. Diese noch Kunst-Menschen werden ja nur mit Menschlichkeit gefüttert. Und was ist in und um uns freundlich, ohne etwas verkaufen oder entschuldigen zu müssen, einfach freundlich, offen, wahrhaftig, dem Freude und dem Frieden zugewandt?

Hmm?

Sie sagen es.

Eigentlich nichts, was, wie Sie stets hinzufügen, wenigst ist, also kaum ist irgendwo wirklich reine Freundlichkeit geboten, von Wahrhaftigkeit und Verantwortung noch weniger.

Wir sind Natur und Natur ist ...

Lassen wir das.

Es wäre so schön, wir würden das Potential zum Emanzipation nutzen, das in Uns ebenso angelegt ist, wie es im DaSein angelegt ist. Das wäre sooo schön und nötig.

Allein, es mangelt an Lust zur Anstrengung.

An Lust eine andere Richtung zu nehmen, als das allzu leichte, also mit Gewalt, ohne zu fragen, ohne zu verstehen, ohne zu achten.

Sie wiederholen sich.

Sie haben recht, deshalb und weil *mir sowieso nichts mehr dazu einfällt ...

Guten ...

Ja, aber eins möchte *ich noch betonen: *ich lerne gerne!

In eine andere Richtung?

Danke, ja.

Also dann jetzt, Guten ...

🤡

Freitag, 5. Mai 2023

Maschinen lernen schneller als Menschen. Warum?

 Poesie

Titel; Wie lernt ein Maschinen-Programm

All NewslettersRead Online
New York Times logo
Technology
FOR SUBSCRIBERSMAY 5, 2023

How generative A.I. really works

Hello! We’re back with a bonus edition of On Tech: A.I., adding to our five-part series. Over the next few weeks and months, we’ll be bringing you highlights of New York Times A.I. coverage, especially pieces that help you understand the underlying technology, and how to use it yourself.

My colleague Aatish Bhatia wrote a fascinating article that reveals the inner workings of generative artificial intelligence software like ChatGPT.

If you remember what Cade Metz and Kevin Roose showed you earlier, these large language models are notoriously opaque, but the basic idea behind them is surprisingly simple: They are trained by going through mountains of text, repeatedly guessing the next few letters and then grading themselves against the real thing.

To show you what this process looks like, Aatish trained six tiny language models on some bodies of text: the complete works of Jane Austen and Shakespeare, plus the Federalist Papers, transcripts of the TV show “Star Trek: The Next Generation,” “Moby Dick,” and the Harry Potter novels.

State-of-the-art models like GPT-4 from OpenAI are trained on hundreds of billions of words, for weeks and months. BabyGPT — the model created by Aatish for his article — is ant-size in comparison.

It was trained for about an hour on a consumer-grade laptop on text sources of up to a million words. But that stripped-down approach makes it easier to peek under the hood and see how large language models really operate.

Let’s walk through the process, starting with the Jane Austen bot, which we’ll prompt with the text, “‘You must decide for yourself,’ said Elizabeth.” (For the full interactive experience, click here.)

Before training: Gibberish

Initially, BabyGPT’s guesses are completely random and include lots of special characters. BabyGPT hasn’t yet learned which letters are typically used in English, or that words even exist.

This is how language models usually start off: They guess randomly and produce gibberish. But they learn from their mistakes, and over time, their guesses get better. Over many, many rounds of training, language models can learn to write by figuring out statistical patterns that piece words together into sentences and paragraphs.

250 rounds: English letters

After about 250 iterations, or 30 seconds of processing on a modern laptop, BabyGPT has learned its ABC’s and is starting to babble:

In particular, our model has learned which letters, like “E” are most frequently used in the text. It has also learned some small words: I, to, the, you, and so on, and is also inventing its own words, like “athok,” “trnglad,” and “hastamt.”

Obviously, these guesses aren’t great. But BabyGPT keeps a score of exactly how bad its guesses are.

Every round of training, it goes through the original text and compares its guesses with what actually comes next. It then calculates a score, known as the “loss,” which measures the difference between its predictions and the actual text. BabyGPT’s goal is to try to reduce this loss and improve its guesses.

500 rounds: Small words

After a minute on a laptop, it can spell a few small words:

It’s also starting to learn some basic grammar, like where to place periods and commas. But it makes plenty of mistakes.

5,000 rounds: Bigger words

Ten minutes in, BabyGPT’s vocabulary has grown:

BabyGPT now makes fewer spelling mistakes. It still invents some longer words, but not as often. It’s also starting to learn some names that occur frequently in the text. Its grammar is improving, too.

Every round of training, an algorithm adjusts these numbers to try to improve its guesses, using a mathematical technique known as backpropagation. Tuning these internal numbers to improve predictions is how a neural network “learns.”

30,000 rounds: Full sentences

An hour into its training, BabyGPT is learning to write in full sentences. Just an hour ago, it didn’t even know that words existed!

The words still don’t make sense, but they definitely look more like English.

BabyGPT doesn’t copy and paste sentences verbatim; it stitches new ones together, letter by letter, based on statistical patterns that it has learned from the data. The neural network generates probabilities, rather than actual letters or words, which is why you can get a different answer every time you generate a new response.

Diminishing returns

Because the training data is relatively small, and we used a laptop rather than a huge array of computers, we quickly hit a point at which BabyGPT isn’t going to get much smarter.

BabyGPT still has a long way to go before its sentences become coherent or useful. It can’t answer a question or debug your code. It’s mostly just fun to watch its guesses improve.

But it’s also instructive. In just an hour of training on a laptop, a language model can go from generating random characters to a very crude approximation of language. Larger language models use more data and computing power to mimic language more convincingly.

The week in A.I. news

BabyGPT used an algorithm developed by Andrej Karpathy, a prominent A.I. researcher who recently joined OpenAI, the company behind ChatGPT. Karpathy was first exposed to artificial intelligence as a student at the University of Toronto, where he took a class by Geoffrey Hinton, known as “the Godfather of A.I.”

Earlier this week, Cade scored an exclusive scoop: Hinton quit his job at Google, where he had worked for more than a decade, so he can freely speak out about the risks of A.I.

“It is hard to see how you can prevent the bad actors from using it for bad things,” Hinton said.

Other news:

Need help? Review our newsletter help page or contact us for assistance.

You received this email because you signed up for On Tech: A.I. from The New York Times.

To stop receiving On Tech: A.I., unsubscribe. To opt out of other promotional emails from The Times, manage your email preferences.

Explore more subscriber-only newsletters.

Connect with us on:

facebooktwitterinstagram

Change Your EmailPrivacy PolicyContact UsCalifornia Notices

The New York Times Company. 620 Eighth Avenue New York, NY 10018