Die KI-Industrie soll den âsozialistischen Wertenâ entsprechend gegen die emotionale AbhĂ€ngigkeit von Userinnen und Usern vorgehen
Die chinesische Regulierungsbehörde Cybercraft Administration (CAC) hat einen Gesetzesentwurf vorgelegt, der KI-Chatbots davon abhalten soll, manipulativ auf ihre User einzuwirken. China reagiert damit auf Berichte ĂŒber gehĂ€ufte FĂ€lle von psychischen Problemen bis hin zum Suizid, die in unmittelbarem Zusammenhang mit der emotionalen Bindung an KI-Chatbots stehen.
In dem Gesetzesentwurf spricht die CAC von âKI-basierten, anthropomorphen interaktiven Dienstleistungenâ. Dabei gehe es um Programme, die menschliche PersönlichkeitszĂŒge, Denkmuster und Kommunikationsstile in Text, Bild und Ton simulieren und auf emotionaler Ebene in Interaktion mit Menschen treten. Angestrebt werden soll eine âgesunde Entwicklungâ der entsprechenden KI-Tools.
Anbieter sollen die Anwendungen entsprechend âsozialistischer Werteâ aufbauen. Die KI habe moralischen Wertvorstellungen zu entsprechen und dĂŒrfe keinen Inhalt produzieren, der die nationale Sicherheit sowie die wirtschaftliche oder soziale Ordnung gefĂ€hrdet.
Ob wir dann bald Produkte mit KI-UnterstĂŒtzung âmade in Chinaâ - und daher entsprechend den âsozialistischen Wertenâ Chinas - auch in Europa erhalten werden ?
Nachrichten ĂŒber FĂ€lle von KI-unterstĂŒtzten Suiziden waren in den letzten Monaten vor allem in den USA und im Zusammenhang mit ChatGPT gemeldet worden. Entwickler OpenAI sah sich VorwĂŒrfen ausgesetzt, GPT-4o zu ĂŒbereilt und ohne ausreichende SicherheitsĂŒberprĂŒfung veröffentlicht zu haben, um im Rennen mit Googles Gemini nicht in RĂŒckstand zu geraten