- Wer entscheidet, ob KI eingesetzet werden soll/darf ?
- Wer entscheidet, in welchen Anwendungsbereichen KI eingesetzt werden soll/darf ?
- Wer entcheidet, ob ein KI-System die geltenden Vorschriften ( z.B. hinsichtlich Datenschutz, physicher Sicherheitsbestimmungen für Betroffene , … ) erfüllt ?
- Wer entscheidet, ob ein KI-System für einen konkreten Anwendungsbereich ausreichend gut trainiert wurde und die beobachtete Häufigkeit von Halluzinationen bzw. Fehlern noch toleriert werden kann ?
- Wer entscheidet, welches konkrete KI -System eingesetzt werden soll ?
- Wer entscheidet, ob Vorschläge/Ergebnisse aus KI weiterverwendet werden können, bzw. wie aus mehreren gelieferten Ergebnissen/Vorschlägen ein einzelner ( hoffentlich “richtiger”) ausgewählt werden soll ?
Das sind immer Menschen , mit all ihren Schwächen - und möglicherweise auch mit “Empfänglichkeit” für Korruption.
“Die KI” braucht das auch nicht kennen, die ist nur eine Maschine.
FĂĽr sie gilt das Gleiche , wie fĂĽr Hammer und Messer.
Nicht Hammer oder Messer werden zu “Mördern”, sondern manche Menschen, die diese Werkzeuge verwenden.
Menschen , die entscheiden KI zu verwenden (oder verwenden zu lassen), müssen mit Ki aber nicht gleich Morde begehen (lassen) , um jemanden - oder “die Gesellschaft” - zu schädigen. Dafür genügt auch schon Korruption, die mit/durch KI ( z.B. durch “auf Bestellung” absichtlich “gefärbten” Bias) bisher nahezu unerreichbare “Qualität” erreichen könnte.
Wenn allerdings die neuesten KI-Generationen so gut und schnell lernen, wie schon mehrfach beschrieben wurde, dann ist es nur eine Frage der Zeit, bis KI-Systeme Menschen nicht nur an Intelligenz, sondern auch in ihren negativen Eigenschaften ( z.B. auch Gier und Egoismus ) ĂĽbertreffen.
Zudem gibt es solche Berichte über ausgeprägte negative Eigenschaften von KI- Systemen ( z.B.: Betrug, Täuschung, Missachtung von Aufträgen .. ) in bestimmten Settings bereits :
siehe Werden KI-Modelle zu „immer intelligenteren Soziopathen“?