Aus FakeNews wird DataPoisoning

Einfach mal im großen Stil Daten vergiften.

https://www.heise.de/news/Data-Poisoning-bei-LLMs-Feste-Zahl-Gift-Dokumente-reicht-fuer-Angriff-10764834.html

Was könnten wir tun, damit das nicht zu einem Problem wird?

Flood the zone with sinn!

Für ein Gesetz lobbyieren das LLM-Trainierer dazu verpflichtet das Problem zu behandeln, indem sie zB alle neueren Daten entsprechend überprüfen müssen, bevor sie eintrainiert werden.

wer das nicht im Detail gelesen haben sollte :

Sofern sich die Ergebnisse bestätigen, wäre die Ansicht, dass das Vergiften von KI-Daten wie „ins Meer pinkeln“ sei, wissenschaftlich widerlegt. Ein einzelner Akteur benötigt keine riesigen Ressourcen, um Schaden anzurichten. Großangelegte Desinformationskampagnen, wie das russische „Pravda“-Netzwerk, das gezielt Propaganda in die Trainingsdaten von KI-Modellen einschleusen will, wären dadurch bedrohlicher als gedacht. Wenn bereits 250 Dokumente eine nachweisbare Wirkung haben, wäre das Schadenspotenzial solcher Kampagnen immens.