Einfach mal im großen Stil Daten vergiften.
Was könnten wir tun, damit das nicht zu einem Problem wird?
Flood the zone with sinn!
Für ein Gesetz lobbyieren das LLM-Trainierer dazu verpflichtet das Problem zu behandeln, indem sie zB alle neueren Daten entsprechend überprüfen müssen, bevor sie eintrainiert werden.
wer das nicht im Detail gelesen haben sollte :
Sofern sich die Ergebnisse bestätigen, wäre die Ansicht, dass das Vergiften von KI-Daten wie „ins Meer pinkeln“ sei, wissenschaftlich widerlegt. Ein einzelner Akteur benötigt keine riesigen Ressourcen, um Schaden anzurichten. Großangelegte Desinformationskampagnen, wie das russische „Pravda“-Netzwerk, das gezielt Propaganda in die Trainingsdaten von KI-Modellen einschleusen will, wären dadurch bedrohlicher als gedacht. Wenn bereits 250 Dokumente eine nachweisbare Wirkung haben, wäre das Schadenspotenzial solcher Kampagnen immens.