Die Neuroforscherin Jie Mei erklärt, warum Chatbots gern vertraut wird und wieso Medien bei der Interpretation von Forschungsarbeiten vorsichtiger sein sollten
Sie antwortet damit auch auf in derstandard.at ( https://forum.4future.commiunity/t/wie-ki-unsere-denkfaehigkeit-untergraebt/246?u=erich_pekar ) zitierten Studienergebnisse zur Beinträchtigung des Denkvermögens durch die unkritische Anwendung von KI-Systemen.
Kritisch äußert sich die Neurowissenschafterin auch zur Medienberichterstattung.
Allerdings ortet sie auch Verantwortung bei den Forschenden selbst, transparenter und verständlicher zu ihrer Arbeit zu kommunizieren. Im vorliegenden Fall wurden etwa Implikationen behauptet, die sich aus der Arbeit nicht ableiten lassen.Generell ortet Mei auch Nachholbedarf in der Wissenschaftskommunikation.
Dass KI-Tools zum Verfall des Denkvermögens beitragen können, schließt Mei nicht aus. Allerdings hänge dies stark davon ab, wie man ChatGPT, Gemini und Co einsetze.
Doch warum werden die Antworten von Chatbots von Nutzern oft nicht hinterfragt? Woher kommt dieses Vertrauen in diese Werkzeuge? Mei sieht hier zwei naheliegende Gründe. Erstens wissen einige Nutzerinnen und Nutzer nicht, wie diese LLMs funktionieren, und trauen ihnen damit womöglich mehr zu, als sie können. Zweitens wirken Chatbots sehr „menschlich“. Denn ihre Antworten sind oft lang, klingen glaubwürdig und erwecken dank des Zugriffs der Bots auf Onlinequellen auch den Eindruck von Kompetenz. Außerdem simulieren sie Mitgefühl. Das bestärkt Userinnen und User in dem Gefühl, sich auf „jemanden“ verlassen zu können, und der KI-Output wird dann weniger hinterfragt oder nachgeprüft.
Geht es um Wissen, sollte man aber stets wachsam bleiben. Dabei gilt es, stets nach Quellen zu fragen und diese dann darauf zu prüfen, ob sie überhaupt existieren und die Angaben der KI bestätigen. Dabei kann man auch um die Angabe konkreter Textstellen bitten, um sich die Kontrolle zu erleichtern und schnell herauszufinden, ob die Auskunft des Chatbots korrekt ist.
Allerdings genügt es im Zeitalter rasant zunehmender Informations-Manipulation (z.B. zur “Korrektur” der Geschichtsschreibung, zur “Richtigstellung” von Informationen über politische/wirtschaftliche Gegner) nicht mehr, nur die Existenz zitierter Informationsquellen zu überprüfen; Es ist in jedem Fall auch die Prüfung der Inhalte dieser Informationsquellen - aber ohne Verwendung von vielleicht manipulierten (oder selbst manipulierenden) KI-Systemem erforderlich. Das wird ohne eigenes Wissen bzw. qualifizierte Bildung nur schwer bis gar nicht möglich sein.
Lieber Erich,
Ist nicht das Denkvermögen schon vorher eingeschränkt, wenn man allem und jedem vertraut?
Ich ziehe Ursache und Wirkung in Zweifel. Ich glaube wir haben aktuell schon eine große Menge an Menschen, denen auch schon in der Schule kritisches Denken abgewöhnt wurde. Die vertrauen natürlich auch der KI und sie vertrauen auch Weltverschwörern.
LG Werner
Hallo Werner,
auch wenn es “unkritischen Denken” und “blindes” bzw. leichtfertiges Vertrauen schon lange vor dem Beginn des Digitalen Zeitalters gegeben hat , so haben wir mitllerweile gerade auch durch die Errungenschaften der Digitalen Welt kostengünstige und wirksame Methoden zur Verfügung, um nicht nur das Verhalten, sondern auch das Denken jedes Einzelnen - und seine Akzeptanz oder Ablehnung von politischen Entscheidungen und Funktionsträgern - buchstäblich fernzusteuern und damit die Grundlage für Vertrauen ( als Erwartung grundsätzlich “guter Absichten” ) zu untergraben .
Mittlerweile bedarf es schon großer Anstrengungen und eines mit erheblichen Unbequemlichkeiten verbundenenen Aufwandes , sich solcher “Fernsteuerung” zu entziehen.
Durch die ständige Weiterentwicklung generativer KI kann mittlerweile bereits jedes Foto, jedes Video und jede Tonaufnahme fast unerkennbar gefälscht werden. Damit reduziert sich die selbst “vertrauenswürdig” wahrnehmbare Realität nur mehr auf die physikalische Reichweite der eigenen Sinnesorgane - und selbst diese könnten durch konsumierte Drogen beienflusst sein.
Allerdings ist für (nicht nur wirtschaftlich) erfolgreiche Gesellschaften aller Kulturkreise verlässliches Vertrauen für deren Bestand und gedeihliche Weiterentwicklung erforderlich.
Dieses Vertrauen - z.B. auf die Möglichkeit jedes Einzelnen, ein Leben in Würde führen zu können - muss sowohl zwischen Gesellschaften unterschiedlicher Kulturkreise aber auch zwischen jedem Mitglied jeder Gesellschaft - und vor allem auch zwischen “Schwachen” und “Starken” - verlässlich möglich sein.
Wenn Vertrauen in technische Syteme erst durch Wissen über die Funktionsweise dieser technischen Syteme begründet wäre, dann könnte heute noch niemand in ein Flugzeug einsteigen, das ja bekanntlich erheblich schwerer als Luft ist, oder könnte heute noch niemand einen Lichtschalter betätigen, da er befürchten müsste dann tot umzufallen, weil ja Blitze jedes Jahr zu Todesopfern führen.
Kommentar im derstandard.at:
Die KI ist nicht dein Freund
Big Tech hat unsere Gesellschaften mit „sozialen Medien“ gespalten. Jetzt soll „künstliche Intelligenz“ auch noch menschliche Beziehungen ersetzen. Und was ist mit den ethischen Risiken?
https://www.derstandard.at/story/3000000283254/die-ki-ist-nicht-dein-freund