Werden KI-Modelle zu „immer intelligenteren Soziopathen“?

Die WirtschaftsWoche berichtet interessant über die Weiterentwicklung von KI - und ob wir uns bereits vor ihren „dunklen“ Fähigkeiten fürchten müssen. Wenn nicht schon jetzt, wann dann? Bald?!!!

Lesenswert!

2 „Gefällt mir“

Wie bei jeder Klickbait-Überschrift lautet die Antwort auch hier “nein”, wie im Artikel beschrieben. :slight_smile:

2 „Gefällt mir“

Das „nein“ (wir müssen uns nicht vor den „dunklen“ Fähigkeiten vom KI fürchten) gilt aber nur solange,
solange Ergebnisse aus KI Systemen nur als Vorschläge für Entscheidungen und Handlungen ausreichend gut ausgebildeter menschlicher Fachkräfte verwendet werden und diese Fachkräfte über ausreichend Zeit, Unterstützung durch andere Systeme (als KI) und eigene Übung/Erfahrung verfügen um mit der gebotenen Sorgfalt den geignetsten Vorschlag auszuwählen - oder auch gar keinen der Vorschläge aus einem KI-System anzunehmen und weiterzuverwenden.
und solange weiterhin Menschen über den Einsatz von KI-Systemen entscheiden und Menschen diese Systeme in Betrieb nehmen - und auch wieder abschalten können.

Ab dem Zeitpunkt, an dem Menschen entscheiden werden (oder schon entschieden haben) KI durch Ki weiterentwickeln, vollautonom entscheiden und auch weitere Systeme vollautonom bauen und einschalten zu lassen , dann müssen wir uns wirklich fürchten.

Ja, das gibt es schon. AutoML (Automated Machine Learning) und Neural Architecture Search lassen Algorithmen selbstständig neue Modellarchitekturen entwickeln. Menschliche Vorgaben beschränken sich auf Rahmenbedingungen.

Generative Modelle erzeugen heute schon synthetische Trainingsdaten, um andere Modelle zu trainieren oder zu testen. Beispiel: KI erzeugt seltene Fehlerszenarien für autonome Fahrzeuge.

Softwareentwicklung: LLMs schreiben Trainingsskripte, Datenaufbereitungspipelines oder Testcases für andere Modelle. Dadurch beschleunigen sie Entwicklung und Deployment.

Aktuelle Beispiele: Google AutoML, OpenAI RLAIF, Meta LLaMA-Optimierungen.

Auch wenn das derzeit nur isolierte (patentierte?) Technologien sind ist es nur eine Frage bis das oben zitierte worst case Szenario eintreten wird.

Nicht umsonst wird AI vom Risikopotential mit der Atombombe verglichen.

1 „Gefällt mir“