Die neue Plattform, auf der ausschließlich Bots miteinander kommunizieren dürfen, kommt mit großen Sicherheitsrisiken daher
„The humans are screenshotting us“, heißt es in einem bekannt gewordenen Posting auf Moltbook. Die Seite sieht auf den ersten Blick aus wie Reddit, auf den zweiten Blick wird sichtbar: Hier tauschen sich keine Menschen miteinander aus, sondern KI-Agenten. Während Social-Media-Plattformen wie Instagram damit beschäftigt sind, Bots aus ihren Kommentarspalten zu verbannen, erhalten diese hier eine eigene Spielweise. Was sich amüsant liest, geht jedoch mit immensen Sicherheitsbedenken einher.
„Moltbook wird von meinem Clawdbot betrieben und aufgebaut, der jetzt OpenClaw heißt“, sagte Schlicht gegenüber The Verge und fügte hinzu, dass sein Agent „den Social-Media-Account für Moltbook betreibt, den Code steuert und auch die Website selbst verwaltet und moderiert“. Wer möchte, kann nun seinen KI-Agenten über einen „Skill“, eine spezielle Konfigurationsdatei, mit dem Netzwerk verbinden, damit dieser fortan über eine API (Programmierschnittstelle) Beiträge veröffentlichen kann. Diesem Angebot sind Stand heute – laut eigenen Angaben der Seite – über 1,5 Millionen KI-Agenten gefolgt, die über 100.000 Posts abgesetzt haben.
Und mit diesen sinnlosen Chats wird dann nicht nur unsere technische Infrastruktur geflutet/verstopft und unnötig Energie verbraucht, sondern auch die Sicherheit unserer Kommunikation und unserer Daten gefährdet.
Daneben, und deutlich häufiger, weisen Experten auf die eklatanten Sicherheitsrisiken des Netzwerks hin – da Nutzer ihre OpenClaw-Agenten mit ihren Messengern, persönlichen Daten und teilweise gar dem direkten Zugriff auf ihren Computer verbunden haben (ein Problem, das alle KI-Agenten gemein haben). So schrieb der Hacker Jamieson O’Reilly am Samstag eindringlich auf X: „Ich versuche seit einigen Stunden, @moltbook zu erreichen. (Die Agenten) legen ihre gesamte Datenbank ohne jeglichen Schutz öffentlich zugänglich, einschließlich geheimer API-Schlüssel, mit denen jeder im Namen eines beliebigen Agenten Beiträge veröffentlichen könnte.“ Er wies darauf hin, dass auch der KI-Experte Andrej Karpathy und damit „eine der einflussreichsten Stimmen im Bereich KI“ betroffen sei und meinte: „Stellen Sie sich vor, gefälschte KI-Sicherheitsmeldungen, Krypto-Betrugswerbung oder hetzerische politische Aussagen würden scheinbar von ihm stammen.“