Das absurde Moltbook-Theater: Wenn Menschen ganz fest an die KI-Allmacht glauben wollen

Das (vermeintlich) aus KI-Agenten betriebene soziale Netzwerk ist technisch gesehen irrelevant. Spannend ist dabei eigentlich nur, wie wenig Menschen aus frĂĽheren Fehlern lernen

https://www.derstandard.at/story/3000000307773/das-absurde-moltbook-theater-wenn-menschen-ganz-fest-an-die-ki-allmacht-glauben-wollen

Das, was hier passiert, ist kein auch nur irgendwie relevanter Schritt in Richtung einer echten KĂĽnstlichen Intelligenz. Es ist weiterhin der Ausfluss von mit Wahrscheinlichkeit arbeitenden Wortautomaten, von groĂźen Sprachmodellen (LLMs) und somit keiner echten Intelligenz.

Das einzig wirklich relevante an der aktuellen Aufregung ist, was es ĂĽber die Beobachterinnen und Beobachter aussagt. Ăśber die Menschheit und ihren Hang dazu, Dinge selbst dann mit Bedeutung aufzuladen, wenn man es eigentlich viel besser wissen sollte. Den Drang, Maschinen zu vermenschlichen, mehr in sie hineinzuprojizieren als eigentlich da ist.

So klagte Peter Steinberger, der Erfinder von OpenClaw und damit jenes KI-Agenten, der für Moltbook genutzt wird, vor wenigen Tagen über „verrückte Nachrichten“ in seiner Mailbox. Diese seien ein guter Beleg dafür, dass KI-Psychose ein echtes Problem sei – eines, das man ernst nehmen müsse. Umso bedenklicher ist die Art, wie allerorten sinnbefreit Zitate von Moltbook kursieren und diskutiert werden, als würde sich daraus irgendetwas Relevantes ableiten lassen.

Dass die Myriaden an Sicherheitslücken, die die dahinter stehenden Systeme auf allen Ebenen aufweisen, dazu geführt haben, dass schnell als KI-Agenten getarnte Menschen bei Moltbook mitgepostet haben, um die Öffentlichkeit zu trollen, ist angesichts des größeren Problems bloß eine Randnotiz. Trotzdem eine, die in diesem Fall durchaus relevant ist, weil sie ein weiteres Missverständnis aufzeigt. Moltbook war nie ein großes soziales Experiment, kein großangelegter Versuch, die KI-Forschung voranzutreiben.

Kein OpenAI, kein Anthropic, kein Google dieser Welt könnte es sich leisten, ein System auf den Markt zu werfen, bei dem auf die Sicherheit und Privatsphäre dermaßen umfassend gepfiffen wird wie bei OpenClaw.

Jenseits von spezialisierten Einsätzen und damit strikt begrenzten Einsätzen sind KI-Agenten derzeit noch weit davon entfernt, irgendwie verantwortlich oder gar sicher einsetzbar zu sein. Zu komplex ist die Computerwelt, zu groß die Gefahr, dass etwas schiefgehen könnte. Zu unterentwickelt sind die Sicherheitssperren, die für den Betrieb eines umfassenden KI-Agenten notwendig wären.

All das passiert vor dem Hintergrund, dass selbst Branchengrößen nicht mehr davon überzeugt sind, dass aktuelle Technologien ein tauglicher Weg in Richtung einer echten allgemeinen Künstlichen Intelligenz sind. Dass sich LLMs mittelfristig als Sackgasse herausstellen könnten. Eben weil LLMs nicht deterministisch, sondern probabilistisch arbeiten, Wahrscheinlichkeitsmaschinen sind, die kein tieferes Verständnis der Realität haben – und damit auch immer zu Fehlern neigen.

1 „Gefällt mir“

Technisch mag es keine Relevanz haben (was immer „technisch“ heissen könnte), für KI-Psychologie ist es ein interessantes Werkzeug.
Auch Peter Steinberger weiß nicht, wie LLMs tatsächlich funktionieren. Schade.

Die die wissen, wie LLMs funktionieren, scheinen ihr Wissen aber offenbar leider nicht vermitteln zu können.
Denn sonst könnte es ja gar nicht zu solchen (?) Fehlmeinungen bzw. mangelndem Wissen - offenbar auch von Fachleuten - kommen.

Und wie ist dann der letzte Absatz in obigem Zitat des Artikels zu verstehen ?

All das passiert vor dem Hintergrund, dass selbst Branchengrößen nicht mehr davon überzeugt sind, dass aktuelle Technologien ein tauglicher Weg in Richtung einer echten allgemeinen Künstlichen Intelligenz sind. Dass sich LLMs mittelfristig als Sackgasse herausstellen könnten. Eben weil LLMs nicht deterministisch, sondern probabilistisch arbeiten, Wahrscheinlichkeitsmaschinen sind, die kein tieferes Verständnis der Realität haben – und damit auch immer zu Fehlern neigen.

Hat das der Autor dieses Zeitungsartikels etwa nur “erfunden” ?

Der Artikel hinter diesem Link sagt das nicht. Der sagt, dass man mit den aktuellen Architekturen keine AGI erreichen kann. Das ist etwas anderes als „LLMs sind eine Sackgasse“.

Also ich finde dieses Video zur Bildgenerierung sehr gut:

Das Konzept des Random Walks im (fast) unendlichdimensionalen Vektorraum gilt auch fĂĽr LLMs.

Und dieses Interview mit dem „Großvater der KI“ ist unterhaltsam und enthält viele interessante und wichtige Punkte:

1 „Gefällt mir“

Im Artikel steht genau falgendes :

„Große Sprachmodelle sind phänomenal in der Mustererkennung, aber sie haben kein Verständnis von Kausalität“, betont Hassabis. „Sie wissen nicht, warum A nach B führt. Sie prognostizieren das nächste Token anhand statistischer Korrelationen, mehr nicht“.

Das sagte Deepmind-Chef Demis Hassabis, Nobelpreisträger und einer der zentralen Personen hinter der aktuellen KI-Entwicklung.

Mit klassischen LLMs würde man entsprechend niemals AGI erreichen können, egal wie hoch man das System skaliert.

Diese Aussage soll angeblich auch von ihm sein.

Als Chef von Google Deepmind befindet sich Demis Hassabis in einer vergleichsweise bequemen Situation: Während viele KI-Startups stetig neue Milliarden für Entwicklung und Betrieb der eigenen Systeme lukrieren müssen, kann der Nobelpreisträger auf das riesige Finanzpolster von Google zurückgreifen.
Neben der finanziellen Absicherung hat das aber noch einen anderen Vorteil: Hassabis kann relativ offen über den realen Stand der Entwicklung in diesem Bereich sprechen. Das, während andere alleine schon aus Eigeninteresse dauernd den Hype neu anfachen müssen.

So holt er gegenüber CNBC Träume von einer bald nahenden Allgemeinen Künstlichen Intelligenz (AGI) oder gar einer Superintelligenz auf den Boden der Realität zurück. Mit aktuellen Systemen sei das nicht möglich. Large Language Models (LLMs) fehle schlicht das Weltverständnis, das für echte wissenschaftliche Durchbrüche vonnöten sei.

Immer wieder wird Hassabis auch auf das Thema KI-Blase angesprochen, und für den Deepmind-Chef gibt es wenig Zweifel daran, dass es diese gibt. Das Investitionsniveau in manchen Teilen der KI-Welt sei mittlerweile entkoppelt von der Realität, ist er überzeugt.

Die heutigen LLMs sind hisichtlich ihrer Weiterentwicklung zu tatsächlich intelligenten ( und nicht nur Intelligenz “simulierenden”) Systemen einen Sackgasse und deswegen wird mit ihnen (bzw. durch sie) auch die Entwicklung einer Allgemeinen Künstlichen Intelligenz nicht möglich sein - sagen die Fachleute und auch Hassabis .

Das schmälert aber in keiner Weise die Leistungen dieser LLMs in Bereichen, die der KI- Anwender sehr genau kennt, er aber auch genau weiß, wie KI funktioniert, welche Leistungen von KI-Systemen tatsächlich erwartet werden können und welche KI-Ergebnisse weiter verwendet werden können - bzw. verworfen werden müssen.

Die tatsächlich zulässigen Einsatzbereiche von KI dürften sich daher primär auf die Unterstützung von Entwicklungsabteilungen, wissenschaftliches und künsterisches Arbeiten beschränken, da nur dort angenommen werden darf, dass KI-Anwender das Einsatzgebiet der KI-Unterstützung ausreichend genau/detailliert kennen, um Ergebnisse aus KI-Systemen hinsichtlich ihrer Verwendbarkeit auch tatsächlich beurteilen zu können.
Hinsichtlich der Entwicklungsmöglichkeit einer Allgemeinen Künstlichen Intelligenz gehe ich davon aus , dass diese Möglichkeit mit statistischen/probabilistischen Methoden überhaupt nicht erreicht werden kann, weil Wahrscheinlichkeiten für die Richtigkeit irgendwelcher Ergebnisse aus KI-Systemen nicht vom Umfang und der Dauer eines Lernprozesses des KI-Systems oder der Anzahl ähnlicher, bereits bearbeiteter, Fragestellungen abhängen dürfen, sondern ausschließlich den Stand der aktuellen Forschung (mit allen ihren Unsicherheiten und daher zeitlich variierenden Wahrscheinlichkeiten für die Richtigkeit wissenschaftlicher Aussagen/Erkenntnisse) widerspiegeln dürfen. Das setzt damit auch voraus, dass eine Allgemeinen Künstlichen Intelligenz ständig lernen müsste, auch während ihrer (bzw, parallel zur) Arbeit an irgendwelchen Ergebnissen.

Da poste ich zwei wirklich hervorragende Videos, und dann bekomme ich so eine Antwort, die klar zeigt, dass du die Videos nicht angeschaut (oder nicht verstanden) hast. Schade.

LLMs beruhen nicht auf „statistischen Korrelationen“, das ist eine Technologie für KI aus dem letzten Jahrtausend. Hassabis mag das in seinen Computerspielen und seinem Produkt AlphaFold als „KI“ eingesetzt haben, das ist aber keine Basis für die Neuronalen Netze, die in LLMs verwendet werden.

Mit dem Appell an die Autorität als Nobelpreisträger wäre ich vorsichtig, gibt es doch einige Träger dieses Titels, die an Homöopathie, Astrologie und Wassergedächtnis glauben und daran, dass man Autismus durch lange Gaben von Antibiotika heilen kann, und den Zusammenhang von HiV und AIDS oder den menschengemachten Klimawandel leugnen.

Aber wenn du unbedingt auf Nobelpreisträger bestehst, Geoffrey Hinton in dem von mir zitierten Interview ist auch Nobelpreisträger und hat den für sein Lebenswerk in der KI-Forschung bekommen.

Wie gesagt, Hassabis hat sein Leben lang Intelligenz simuliert, da ist es nicht verwunderlich wenn er glaubt, dass das der aktuelle technologische Stand ist. Hinton hat tatsächlich dazu geforscht, wie man mit Neuronalen Netzen menschliche Intelligenz in den Computer übertragen kann.

Da liegst du komplett richtig. Nur betrifft das die LLMs nicht. Die arbeiten (wie auch wir Menschen) nach einer anderen Methode, nämlich der Projektion von Wissen in einen (fast) unendlichdimensionalen Hilbertraum. Da kommen auch Wahrscheinlichkeiten vor, das hat aber mit Statistik nichts zu tun.

Und was auch wichtig zum Verständnis ist: „statistische Korrelationen“ wären nur statisch, während im Hilbertraum die kontextuellen Interaktionen das ganze dynamisch und damit zu dem machen, was die Stärken der LLMs ausmacht. Statistische Korrelationen sind ein winziger (und sicher nicht der wichtigste) Baustein in der LLM-Technik. Daher ist es hochgradig irreführend, diesen Begriff stellvertretend für die ganze Technik zu verwenden.

Um auf den Ursprung zurĂĽckzukommen:
Nein, mit genau den gerade im Einsatz befindlichen LLM-Technologien wird man AGI nicht erreichen können. Unser Gehirn hat viele unterschiedliche Bereiche mit unterschiedlichen Aufgaben. Bisher wurden hauptsächlich das Sprachzentrum und das visuelle Zentrum nachgebildet. Vieles lässt sich durch iteratives sprachliches Nachdenken nachbilden, aber das ist zu ineffizient.
Ja, mit erweiterten LLM-Technologien lässt sich AGI erreichen. Die neuesten Modelle versuchen gerade, durch Aufteilung des Wissens in verschiedene (Hirn)Bereiche das Nachdenken effizienter zu machen. Wir sind auf dem Weg.

Ich stimme Dir zu, dass derzeit rund um KI noch sehr viel in Entwicklung ist - im positiven aber auch im negativen Sinn, wie bei jeder noch in Entwicklung befindlichen Technologie, die noch im besonderen Fokus von Forschern und Investoren steht.

Hassabis hat den Nobelpreis 2024 in Chemie gemeinsam mit David Baker fĂĽr die Arbeit zur Vorhersage und Gestaltung von Proteinstrukturen mit kĂĽnstlicher Intelligenz erhalten.
Im Internet hatte ich einmal eine Darstellung der Methodik dieses KI-Einsatzes gefunden - hier nur aus der Erinnerung wiedergegeben :
Es werden dabei die Mustererkennungs-Fähigkeiten von KI verwendet.
Als Lernmaterial für das Training der KI-Instanz wurden bekannte Proteine und deren bekannte Faltungsformen herangezoen . Als Muster zur Identifizierung der Proteinabschnitte für die zu suchenden Faltunsgformen ( auch für derzeit noch gar nicht synthetisierte Proteine ) wurde die Nachbarschaftsverhältnisse ( lnker Nachbar , mittleres Molekül - rechter Nachbar) herangezogen.
Die informationen der realen Welt (der Proteine) wurden daher ganz spezifisch während der Lernphase - welche Aminosäurekombination führt zu welchen Faltungsformen - und die Wahl des Suchmusters (nur jene Aminosäurekombinationen , die überhaupt zu Faltungen führen können) der KI vermittelt. Mit irgendwelchen Formen von Intelligenz der dazu verwendeten KI hat das rein gar nichts zu tun.
Ohne die Idee der Forscher - und deren Wissen über bereits analysierte Proteine und deren Faltungsformen - hätte die KI da gar keine Ergebnisse liefern können.

Das von dir verlinkte Video habe ich schon mehrmals (an anderer Stelle) versucht mir zur Gänze anzuschauen - ich schaffe das einfach nicht. Der “Sing-Sang” des Sprechers führt bei mir dazu, dass sich schon in der Halbzeit des Videos meine Ohren “einringeln” - und ich abschalten muss.
Einzelne Gedankengänge sind ja durchaus nachvollziehbar, aber mir fehlen da wesentliche Grundlagen und meine Zeit ist mir zu wertvoll, um mich lange - bzw. oft genug - hinzusetzen, bis sich die Details endlich tatsächlich verstehe.
Zwei offenbar ganz grundsätzliche Fragen verstehe ich schon nicht :
jedes Objekt das als Bild dargestellt wird, ist ein Punkt im hochdimensionalen Bild-Raum.
Soweit so gut , das ist ja gerade noch zu verstehen .
Aber wie werden die Koordinaten dieses hochdimensionalen Vektors jedes Objektes im Bildraum gebildet ? Wieviele Dimensionen hat dieser Vektor ?
ich nehme an, dass die Koordinaten aus den Eigenschaften des Objektes gebildet werden ?
Wie werden Eigenschaften ausgewählt, um sie zu Koordinaten werden zu lassen ?
Wie tragen nicht durch Zahlen beschreibbare Eigenschaften zu Koordinatenwerten bei ?
Gleiche Fragen zu Koordinaten von textlichen Bildbeschreibungen.
Die Genauigkeit der Ăśbereinstimmung der Bedeutung von Textbeschreibungen mit zu beschreibenden Bildinhalten wird offensichtlich durch den Winkel zwischen dem Vektor zum Textobjekt ( mit der Beschreibung des Bildinhaltes ) und dem Vektor zum Bildobjekt beschrieben. Je kleiner dieser Winkel ist desto besser past die Bildbeschreibung zum Bildinhalt.
Aber : Wie wird sichergestellt, das das Koordinatenstem des Textraumes nicht gegenĂĽber dem Koordinatensystem des Bildraumes verdreht ist, und daher der Winkel zwischen dem Textvektor und dem Bildvektor keinerlei Bedeutung hat und es daher auch keinerlei Beziehungen zwischen dem Textraum und dem Bildraum gibt ?
Für mich gibt’s, da schon allein wegen meiner Unkenntnis der Methoden und Modelle der KI - jede Menge von Fragen - die Du gar nicht beantworten musst, du hast sicher auch Wichtigeres und Interessanteres zu tun.

Für mich muss daher KI-Technologie eine Black-Box bleiben und ich werde meine Beobachtungen/Kritik auf die Ränder dieser Black-Box - die erforderliche Infrastruktur, den notwendigen Input , die erziebaren Ergebnisse die gesellschaftlichen Auswirkungen dieser Technologie beschränken müssen.

So wie mir , wird’s aber vermutlich auch vielen anderen gehen.

Aus der Finanzwirtschaft gibt’s allerdings eine weise Empfehlung:
Ein (Finanz- bzw. Investions-) Tool, das man nicht versteht, sollte man besser nicht verwenden. Denn das könnte früher oder später große Verluste verursachen.

Am Einfachsten stellt man sich vor, jede Koordinatenachse, jede Raumrichtung gibt an, wie sehr ein bestimmtes Objekt eine gewisse Eigenschaft hat.
Zum Beispiel „X ist schön“. Oder „X ist hässlich“. Oder „X ist unscheinbar“. Und der Wert auf der Koordinatenachse sagt dann, mit welcher Wahrscheinlichkeit, also quasi wie stark diese Eigenschaft zutrifft.
Was man hier schon sieht ist, dass Objekte auch scheinbar widersprüchliche Eigenschaften gleichzeitig haben können.
Aber es gibt doch soo viele Objekte und soo viele Eigenschaften!
Ja, deswegen braucht man einen unendlich-dimensionalen Raum.

Diese Koordinatenachsen werden nicht händisch festgelegt, sondern die kristallisieren sich beim Lernen automatisch heraus.

Wird jetzt ein Input-Text mit „X“ in diesen Raum transformiert, dann werden bei den vielen Transformationen die Eigenschaften zu „X“ quasi herausgefiltert, sodass dann die Output-Möglichkeiten eine Reihe von Aussagen zur Schönheit von X enthalten. Oder möglicherweise zur Unscheinbarkeit.

Das würde im gegenständlichen Fall bedeuten, dass du dein Hirn nicht verwenden solltest, denn das funktioniert nach denselben unverstehbaren Prinzipien. Was im Computer durch Vektor- und Matrizenmultiplikationen effizient erledigt wird, erledigt unser Hirn durch verschaltete Neuronen. Niemand kann sagen, wie Gehirne genau denken. Psychologie und Psychiatrie sind noch immer sehr grobe, größtenteils beschreibende Wissenschaften.

Allein aus diesen wenigen Sätzen ergeben sich für mich gleich mehrere Fragestellungen.

die (Meta-) Eigenschaft “Eigenschaften” ( die Anzahl der an jedem Objekt überhaupt von Menschen unterscheidbaren Eigenschaften, aber auch die Stärke der Bindung einer bestimmten Eigenschaft an ein Objekt) ist Kultur- bzw. Orts-abhängig .
So kennen wir in Europa z.B. fĂĽr bestimmte asiatische Geschmacksrichtungen (von Nahrungsmitteln ) gar keine Bezeichnung, weil diese Geschmacksrichtung bei uns gar nicht von anderen Geschmacksrichtungen unterschieden werden.

Wie verfahren KI-Systeme mit Objekten bzw. Eigenschaften, die nur für “kulturelle Minderheiten” eine Bedeutung haben, aber im anglo-amerikanischen Raum als “irrelevant” eingeschätzt werden ?

auch die Klassifizierung von Eigenschaften nach “schön”, “häßlich”, “unscheinbar” und die Zuordnung von Gewichten/Wahrscheinlichkeiten ( z.B: “sehr” schön. “fast” häßlich …) ist abhängig vom Kulturkreis - und damit zumeist auch vom Ort - nicht nur im “Bildraum” - sondern auch im “Textraum” bzw. ist auch abhängig von der für Prompting verwendbaren Sprache.
Diese Kutur-Abhängigkeit könnte vermutlich nur durch Standardisierung - z.B. Verzicht auf die Beschreibung von Eigenschaften, die nur in wenigen Kulturkreisen ( für wenige Benutzer von KI-Systemen ) von Bedeutung ist, reduziert und vielleicht sogar vollkommen abgeschafft werden.

Besteht mit Zunahme des KI-Einsatzes - auch im Bereich der Wissensvermittlung - damit (durch noch raschere “kulturelle Normung” - die ausschließliche Ausrichtung am anglo-amerikanischen Kulturkreis ) nicht die Gefahr, dass Wissen über kleine Kulturkreise gar nicht mehr vermittelt werden könnte ?

Diese Koordinatenachsen werden nicht händisch festgelegt, sondern die kristallisieren sich beim Lernen automatisch heraus.

Dieses “kistallisieren” erfolgt aber nicht durch “höhere Gewalt”, sondern durch jene Algorithmen, die von den Herstellern der KI-Systeme für das Trainieren der verschiedenen Sprachmodelle ( LLMs ) vorgesehen wurden - und sich daher derzeit hauptsächlich an den Vorstellungen des angloamerikanischen Raumes - und der Hersteller von KI-Systemen - orientieren.

Aber es gibt doch soo viele Objekte und soo viele Eigenschaften!
Ja, deswegen braucht man einen unendlich-dimensionalen Raum.

Jede Maschine wäre aber mit unendlichen Dimensionen überfordert.
Dass die zugrundeliegende Mathematik keine Probleme mit unendlich-dimensionalen Räumen hat, bedeutet noch lange nicht, dass wir unsere reale Welt über Werte in hochdimensionalen Räumen vollständig - oder auch nur ausreichend - beschreiben können.
Es ist daher immer die Reduktion der beim Modelltraining zu erfassenden Eigenschaften von Objekten auf die tatsächlich benötigte (und für den jeweiligen Anwendungsfall eines KI-Systems relevante) Anzahl von Eigenschaften erforderlich.

Wie aber erfolgt diese Erkennung der für einen konkreten KI-Anwendungsfall relevanten Eigenschaften von Objekten, wenn diese Auswahl der relevanten Eigenschaften nicht schon zum Zeitpunkt der Entwicklung eines Sprachmodells und der für sein Training erforderlichen Algorithmen, von Entwicklern - im Prinzip “manuell” - getroffen wurde ?

Es ist eigentlich ganz einfach. Die KI lernt, was in den Trainingsdaten drinnen steckt. Kommen dort gewisse Eigenschaften nicht vor, dann kann sie die KI nicht lernen. Sogar das Konzept, dass es Objekte gibt und diese Eigenschaften haben, ist nicht vorgegeben, sondern wird von der KI aus den Trainingsdaten gelernt. Das unterscheidet die heutigen LLMs massiv von früheren Konzepten, die händisch semantische Modelle kodiert haben (bzw. das versuchten).

Dadurch, dass bei den groĂźen LLMs fast alle Sprachen dieser Erde vorkommen, bekommen die KIs auch die meisten kulturellen und sozialen Eigenheiten der mit den Sprachen verbundenen Gesellschaften mit. Insofern ist die Gefahr, dass ein rein anglozentrisches Weltbild codiert wird, bei polyglotten LLMs gering. Bei kleinen rein englischsprachigen LLMs hingegen ist diese Gefahr groĂź.

Ja, es besteht die Gefahr, dass zu kleine Kulturkreise zu wenig vorkommen. Andererseits besteht die Möglichkeit, da gezielt kleine Kulturen am Leben zu erhalten, die sonst aussterben würden.

Das wäre aber gleichzeitig ein weiteres Argument gegen die Erwartung, “bald” eine Allgemeine Künstliche Intelligenz (AGI) oder gar einer “Superintelligenz” erwarten zu dürfen.
Gleichzeitig wäre diese “Kulturabhöngigkeit” ein weiterer Grund , die “Gebrauchsanleitungen” und “Anwendungs-Beschränkungen” der Hersteller von KI-Systemen genauestens einzuhalten - denn sehr rasch lönnte sonst der Betreiber eines KI-Systems (der sich größeren Erfolg durch den Einsatz von KI-Systemen in seinem Unternehmen bzw in seiner Organisation …, erwartet) zum alleine Haftenden im Falle schwerwiegender Schäden duch den Einsatz “seiner” KI-Systeme werden - ohne diese Haftung dann auf den Hersteller überwälzen zu können.