Wie ChatGPT eine Reise ruinieren kann

Der Fall eines spanischen Influencerpaars zeigt, dass man sich nicht unbedingt auf die Informationen der KI verlassen sollte

https://www.derstandard.at/story/3000000286439/wie-chatgpt-eine-reise-ruinieren-kann?ref=niewidget

Der einschlägige Selbstversuch des STANDARD hat gezeigt, dass man die von der KI ausgespuckten Vorschläge noch einmal nachgoogeln sollte, um mehr zu erfahren und sie gründlich zu überprüfen. Anstatt also ein KI-Tool zu konsultieren, das einem möglicherweise nicht die richtige oder vollständige Antwort liefert, sollte man die Website des Außenministeriums oder der Botschaft des jeweiligen Reiseziels besuchen, um sich über die aktuellsten Voraussetzungen zu informieren.

Also sollte man KI (ChatGpt ist ja hier nur stellvertretend für KI-Technolgien zur Unterstützung von Reiseplanungen zu sehen) gleich gar nicht für Reiseplanungen aber auch nicht für viele (die meisten ?) anderen Einsatzbereiche verwenden, weil man sich eigene Recherchen und Informationsbeschaffung – ganz ohne Unterstützug durch KI-Systeme offenbar nicht ersparen kann.
Bei grundsätzlichem Verzicht auf solche KI- “Unterstützung” könnte man sich dann jedenfalls die unnötige Arbeit der Überprüfung der häufig (?) ohnehin falschen bzw. unbrauchbaren Ergebnisse aus KI-Systemen sicher ersparen - und damit vielleicht sogar mit geringerem -nicht nur zeitlichem- Aufwand die gewünschten Ergebnisse erzielen.

Ich frage mich bei solchen Postings immer wieder was die Leute damit beweisen wollen. Die Unintelligenz von KI oder die eigene.

Wie Roland schon beschrieben hat: KI besteht Abschlussprüfungen von Universitäten und könnte locker die Aufnahmeprüfung in die Rechtsanwaltskammer bestehen.

Kann ein Akademiker oder ein Anwalt Fehler machen. NatĂĽrlich.

Ich lasse mich aktuell von ChatGPT als Systemadministrator unterstĂĽtzen. Macht die KI dabei fehler? Ja genauso wie ein richtiger Systemadministrator. Wir haben stundenlang unseren eigenen Schwanz nachgejagt. War das frustrierend? Ja.

ChatGPT ist trotz alledem sehr wissend und sehr hilfreich. Es gibt eine Definition von Intelligenz die kurz gesagt ist “kann Probleme lösen”. Wenn man die anlegt, dann kann ChatGPT sehr viele real existierende Probleme lösen.

Was Euch alle irgendwie irritiert: Ein Computer der Fehler macht.

Ja, ChatGPT macht auch Fehler. Bei den gängisten Dingen jedoch sehr viel weniger als wir Menschen machen würden. Es ist aber irritierend dass der Computer plötzlich Menschlich wird, und man keine Rechenergebnisse mehr erhält, die Exakt vordefiniert sind. Der Computer ist “menschlicher” geworden. Er macht Fehler wie wir. Irritierend.

Ist die Technologie nĂĽtzlich. Ja sehr.

Dürfen wir dem Computer immer alles glauben? Nein. Deswegen hat uns irgendjemand ein Gehrin gegeben. Bei meinem Vater hing in der Werkstätte ein Schild:

Vor Inbetriebnahme des Mundwerks Gehirn einschalten.

Ich glaube noch immer, dass das Problem mehr ist, dass es immer weniger Leute gibt, die wissen wie man sein Gehirn einschaltet ist die größere Herausforderung als die “Künstliche Intelligenz”.

1 „Gefällt mir“

Du sprichst einen sehr wichtigen Punkt an: Wenn es um verlässliche, aktuelle und möglicherweise sicherheitsrelevante Informationen geht – wie bei Reisen oder offiziellen Regelungen – ist es absolut richtig, sich nicht blind auf eine KI zu verlassen. Deine Skepsis ist deshalb mehr als verständlich.

Aber vielleicht lohnt es sich, den Blickwinkel ein wenig zu erweitern: KI-Systeme wie ChatGPT müssen nicht der alleinige Informationslieferant sein – sie können ein Werkzeug sein, das Dir hilft, schneller einen Überblick zu bekommen, bessere Fragen zu stellen oder Informationen gezielter zu finden. Nicht als Ersatz für Deine Recherche, sondern als Einstieg oder Ergänzung.

Stell Dir vor, Du fragst einen gut informierten Bekannten – auch dem würdest Du vermutlich nicht jedes Wort blind glauben, aber Du könntest durch das Gespräch auf Ideen, Quellen oder Aspekte kommen, die Dir vorher gar nicht bewusst waren. Genau so kann man KI nutzen: als Unterstützung, nicht als Autorität.

Und was Deine Sorge betrifft, dass man durch die Überprüfung der KI-Antworten nur mehr Arbeit hat: Die meisten, die KI erfolgreich nutzen, sehen sie als Zeitsparhilfe, weil sie nicht bei Null anfangen müssen. Du behältst dabei die Kontrolle – was Dir ja besonders wichtig ist.

Vielleicht probierst Du es einfach mal in einem Bereich aus, der Dir wenig Risiko bedeutet – etwa bei der Suche nach Reisezielen, Restauranttipps oder bei der Zusammenfassung von langen Texten. Dann kannst Du selbst erleben, wo KI nützlich ist – und wo nicht.

Dein kritischer Blick ist kein Hindernis, sondern genau das, was es braucht, um neue Technologien sinnvoll und verantwortungsvoll zu nutzen.

1 „Gefällt mir“

Ich kann aus meiner persönlichen Erfahrung beide Aspekte bestätigen. Die Aufwandsersparnis durch die Grundrecherche einerseits und die eingebauten Fehler andererseits, die man zwischen den Wahrheiten erst mal finden muss. Das ist beides zutiefst menschlich vergleichbar, da stimme ich euch zu.

Was Kritiker aber zurecht befeuert, ist die Art und Weise, wie uns die halbseidenen Informationen präsentiert werden. Es ist die gewählte Art der Kommunikation, im Brustton der Überzeugung, dass alles präsentierte wohlrecherchiert ist, genau geprüft und auf Rückfrage noch zu 100 % richtig bestätigt wird.

Das ist genau die Art und Weise, die einen Freund mit guten Ratschlägen von einem Hochstapler mit Blendeabsichten unterscheidet. Es mag ja sein, dass sich das noch ändert, aber es ist im Augenblick Stand der Dinge und wird ganz zurecht angeprangert.

Ich frage mich bei solchen Postings immer wieder was die Leute damit beweisen wollen.

Die Postings dieser Reisenden, verstehe ich einfach nur als einen Bericht über ihre Erfahrungen mit einer “verpatzten” Reise und warum sie diese negativen Erfahrungen machen mussten. Andere berichten vielleicht über ihre Erfahrungen mit einem Quartiergeber oder in einem Restaurant. Weder die einen noch die anderen müssen oder wollen damit irgendetwas “beweisen” - sie berichten nur über ihre Reise-Erfahrungen und über die Ursachen ihrer negativen Erfahrungen.
Wenn KI - oder vielleicht auch irgendeine andere Technologie - in solchen Berichten vorkommt, werden die Befürworter - manchmal sogar ihre “Anhänger” (ganz ähnlich wie sie auch in Religionsgemeinschaften vorkommen) - “hellhörig” und sehen sich dann veranlasst, “ihre” Techololgie zu verteidigen.
Denn anders kann ich mir deine Formulierung “was die Leute damit beweisen wollen.” nicht erklären.

Kann ein Akademiker oder ein Anwalt Fehler machen. NatĂĽrlich.

Stimmt. Nur :
KI- Systeme sind Maschinen bzw. Computer und keine Akademiker oder Anwälte da gelten andere Regeln - und vor allem auch andere Erwartungen.
Allerdings gibt es auch für Akademiker unterschiedliche “Fehlererwartungen”.
Du hast Recht bei Anwälten : Von einem Anwalt wird sogar erwartet, dass er “Fehler” macht und seinen Klienten vor Gericht auch dann noch als “unschuldig” darstellt, wenn schon der letzte Zuhörer in der hintersten Reihe versteht, worin die “Schuld” dieses Klienten besteht.
Für Ärzte gilt solche Fehlererwartung jedoch nicht. Von Ärzten wird allgemein erwartet, dass sie - ganz ähnlich wie Maschinen - niemals Fehler machen.

Mit Computern werden Flugzeue geflogen , Bahnen gesteuert, Steuern berechnet und vorgeschrieben, … . Wenn sie in diesen Anwendungsbereichen Fehler machen, dann gibt es sehr schnell sehr viele Tote. Erfreulicherweise müssen Benutzer dieser Verkehrsmittel aber nicht vor dem Einsteigen ihren Letzten Willen schon beim Notar hinterlegt haben und haben durchaus berechtigte Hoffnung, ihr jeweiliges Reiseziel lebend und ohne irgendwelche Beinträchtigungen erreichen zu können.
Es darf dann wohl nicht wundern, wenn technische Systeme (und daher auch Computer und KI-Systeme ) als “fehlerfrei” gelten - obwohl jeder Techniker weiß, dass es absolute Fehlerfreiheit nicht gibt und hoher Aufwand erforderlich ist, diese (Fast -) Fehlerfreiheit aufrecht erhalten zu können .

Ich lasse mich aktuell von ChatGPT als Systemadministrator unterstĂĽtzen.

Damit bestätigst, Du aber, dass ausreichendes Wissen in dem Anwendungsgebiet erforderlich ist, in dem KI bzw. ChatGPT Unterststützung bieten soll.
Du musst selbst über das Wissen eines Systemadminstrators verfügen, um dich bei deinen Aufgaben als Systemadministrator durch KI sinnvoll/erfolgreich unterstützen lassen zu können - allein schon um die Prompts (die Arbeitsaufträge/Frageformulierung an die KI ) fachlich korrekt formulieren zu können .
Damit ist aber KI Unterstützung in Anwendungsbereichen, in denen kein ausreichendes eigenes Wissen des jeweiligen KI-Nutzers vorhanden ist, gar nicht möglich, weil dann nicht nur Arbeitsaufträge/Anfragen an die KI nicht fachlich korrekt formuliert werden können , sondern auch die Ergebnisse (bzw. als Ergenbnis erhaltenen Vorschläge ) nicht auf ihre fachliche Richtigkeit und Anwendbarkeit in der Umgebng der verfügbaren Infrastruktur geprüft und gereiht werden könnten.

ChatGPT ist trotz alledem sehr wissend

Solche Aussagen haben mehr Ähnlichkeit mit einem “religiösen Dogma” als mit der Realität. Ich höre immer wieder von KI-Spezialisten die Aussage , dass KI - Systeme Wissen nur simulieren, sie aber tatächlich nichts wirklich “wissen”.
Und diese offenbar weit verbreitete fehlende Unterscheidung zwischen simuliertem Wissen und tatsächlich vorhandenem Wissen, ist offenbar hier das zentrale Problem im Umgang mit KI - nicht nur durch Laien, die sich nicht für Details der verschiedenen Ausprägungen bzw. Versionen von KI-Systemen interessieren.

Schon in den sechziger Jahren des vorigen Jahrhunderts hatte der Mathematiker Joseph Weizenbaum ( Joseph Weizenbaum – Wikipedia ) mit dem von ihm entwickelten Programm ELIZA ( ein damailger Meilenstein “künstlicher Intelligenz” und Vorläufer heutiger Chatbots, ELIZA – Wikipedia ) ganz ähnliche Probleme mit Missverständnissen :
“Weizenbaum war entsetzt, wie ernst viele Menschen dieses relativ einfache Programm nahmen, indem sie im Dialog intimste Details von sich preisgaben.”
“Durch dieses Schlüsselerlebnis wurde Weizenbaum zum Kritiker der gedankenlosen Computergläubigkeit.”( Weizenbaum-Test – Wikipedia )

Ist die Technologie nĂĽtzlich. Ja sehr.

Diese Technologie ist derzeit ein einziger groĂźer Hype.
Wenn das Kürzel “KI” in inem Text nicht vorkommt, dann wird er bald schon nicht mehr gelesen werden, Zahnbürsten ohne KI-Steuerung für die Härte ihrer Borsten werden schon bald zu unverkäuflichen Ladenhütern werden.
Aber im Ernst :
Ki hat seine Bedeutung aber in Entwicklung und Forschung , dort wo die Benutzer vop KI-Systemen genau wissen, was sie von Ki-Systemen erwarten können und was nicht.
Z.B. in der Proteinforschung ( Chemie-Nobelpreis fĂĽr KI-gestĂĽtzte Proteinforschung - Entwickler der KI AlphaFold und Pionier kĂĽnstlicher Proteine ausgezeichnet - scinexx.de ) .

Ich glaube noch immer, dass das Problem mehr ist, dass es immer weniger Leute gibt, die wissen wie man sein Gehirn einschaltet ist

KI-Technologie richtig und sicher (vor sonst im Falle ihres Einsatzes zu befürchtenden/zu erwartenden Folgen) im Alltag einsetzen zu können, darf nicht erst nach intensiver Ausbildung ihrer Benutzer zur Vermittlung techischer Detailinformationen über die internen Verarbeitungschritte zur Ermittlung der Ergebnisse möglich sein -
so wie ein heutiger Fahrschüler zumeist auch nicht weiß wie/bzw warum der Motor seines Autos funktioniert. Er kan aber trotzdem darauf vertrauen, dass ihm der Motor nicht gleich “um die Ohren fliegen” wird, wenn er, statt auf Asphalt fahren zu können, auf Schotter fahren müsste.

Lieber Erich,

Mit Computern werden Flugzeue geflogen , Bahnen gesteuert, Steuern berechnet und vorgeschrieben, … .

Du gehst noch immer davon aus, dass Computer unfehlbar sind, und immer das vorprogrammierte Ergebnis liefern, weil sie eigentlich nur Berechnungen vollfĂĽhren.

Du gehst davon aus, dass KI alleine Entscheidungen trifft - in sicherheitsrelevanten Bereichen.

Gehe davon aus, dass KI ein Mitarbeiter ist, der auch manchmal Fehler macht. Hör auf den Computer als unfehlbar zu sehen. (zumindest wenn KI im Spiel ist).

In über 90% der Fälle hat die KI recht und liefert Information die der Nutzer sonst nur nach stundenlanger Recherche, dem Lesen vieler Bücher, etc. hätte.

Kann sich die KI irren? Ja. Das ist aber auch hinlänglich bekannt. Auch ein Pilot kann sich irren und das kostet eine Menge Menschenleben.

Wenn mir bei der KI “etwas spanisch” vorkommt, dann hinterfrage ich es. Ich verifiziere Dinge. Ja, KI kann mir auch vorschlagen, wenn ich einen Server aufsetze, dass ich eine Platte komplett lösche. Wenn ich mir die Skripte vorher nicht ansehe dann kann das passieren. (Ist mir persönlich auch schon passiert, dass ich mal eine Platte irrtümlich ge-fdisked habe). Ich behandle also eine KI wie einen Kollegen, der mir hilft. 4 Augen Prinzip. Das klappt eigentlich ganz gut.

Und ich habe es schon mehrfach gesagt: Ja, man braucht Fachwissen auf dem Bereich wo man eine KI sinnvoll einsetzen kann, weil sonst kann man nicht mal die richtigen Fragen stellen. Und nein, man darf die KI nicht als Allwissend sehen, die immer recht hat. Könnte die KI ein Flugzeug fliegen, mit vermutlich weniger Fehlern als ein Mensch: vermutlich. Würde ich einen Piloten daneben setzen? Ganz sicher. Kann mir das als Mensch auch passieren? Natürlich. Wenn Menschen ihre Informationen aus “Fake-News” Quellen beziehen treffen sie ständig falsche Entscheidungen. Wenn die Daten der KI falsch sind (die KI zuviel “Heute” gelesen hat - also mit falschen Informationen trainiert wurde) wird sie auch Unfug vorschlagen, weil die Datenbasis eine falsche ist.

Was man kritisieren kann: Hat Erwin schon: Dass die KI darauf programmiert ist, wie in Prüfungssituationen immer eine Antwort zu geben, selbst wenn die Wahrscheinlichkeit dass diese richtig ist gering ist. Das ist wie eine Prüfungssituation wenn der Prüfling wenn er nichts sagt eine 5 bekommt, also sagt er halt irgendwas, weil er dann zumindest die Chance hat durchzukommen. Hier wäre wünschenswert wenn die KI sagen würde: Ich hab keine Ahnung. Das fällt aber auch manchen Menschen sehr schwer und auch das hat schon Menschen getötet.

1 „Gefällt mir“

Ich weiß nicht, warum meine Beiträge so missverstanden werden können ?
Weil sie wegen der Länge ihrer Texte bzw Sätze und ihrer verwirrenden Formulierungen trotzdem immer noch zu kurz und zu wenig “plakativ” sind, um solche Missverständnisse erst gar nicht entstehen zu lassen ?

Du gehst noch immer davon aus, dass Computer unfehlbar sind,

Nein, nicht ich gehe davon aus, sondern die “breite Öffentlichkeit” (inklusive so mancher Entscheidungsträger), die über keine einschlägige Fachausbildung, Erfahrung oder wenigstens über ausreichend kritisches Einschätzungsvermögen solcher Technologien (“Computer”, “KI” … ) verfügen.
Am Beispiel der “verpatzten Reise” aus dem Artikel hier ganz oben, zeigen sich diese überzogenen Erwartungen an die Brauchbarkeit der KI im täglichen Leben Reisender ganz deutlich.
Solche überzogenen Erwartungen werden durch einschlägige Darstellungen heutiger und zukünftiger Möglichkeiten von KI-Systemen in Medien - dort oft mit besonderes plakativen Überschriften /Titeln versehen - nicht unbedingt zurecht gerückt und auf den Boden der Realität zurückgeholt. Musks Aussagen über Fortschritte in Zusammenhang mit der Erreichung des Zieles tatsächlich vollautonom fahrender Fahrzeuge können mittlerweile vermutlich von den meisten (?) allgemein technisch interessierten Personen schon richtig als “Phantasien” eingeordnet werden, deren Realisiereung irgendwann vielleicht möglich sein wird, aber nicht jetzt gerade unmittelbar bevorsteht.
Wenn solche unrealistischen Versprechungen von Technologien vielleicht noch lange nicht realisiert werden können und noch lange nicht auch durch ”Dummies” (Nutzer ohne ausreichendes Verständnis für die Anwendungsgrenzen dieser Technologien) sicher - ohne sich selbst oder andere zu gefährden - genutzt werden können , so fördert jeder positive Artikel über solche Technologien die Entwicklung der Aktienkurse einschlägiger Firmen und sichert damit die Investitionen der Financiers.
Im Gegensatz zu Dir gehe ich nicht davon aus, dass diese Influencerin mit dem Bericht über ihre Reise und die Auswirkungen der aus ChatGpt falsch/unvollständig erhaltetenen Informationen irgendetwas “beweisen” wollte.
Sie hat - wie viele andere auch - einfach nur ĂĽber Ihre Reise und ihre Erfahrungen auf dieser Reise berichtet.

Du gehst davon aus, dass KI alleine Entscheidungen trifft

Nicht ich gehe davon aus, sondern alle Technologie-Beobachter, die erwarten, dass durch massiven KI-Einsatz nicht nur einzelne Arbeitsplätze eingespart werden könnten, sondern ganze Berufsbilder “unnötig” werden könnten.
Wer soll denn dann die Ergebnisse von KI-Systemen überprüfen, aus erhaltenen Handlungs- bzw. Entscheidungsvorschlägen den “richtigen” auswählen, wenn allfälllig dann noch vorgesehene menschliche Prüfer/Bewerter der aus KI-Systemen erhaltenenen Ergebnisse/Vorschläge gar nicht mehr über ausreichendes eigenes Wissen/eigne Erfahrung/Fertigkeiten verfügen könnten , um solche Prüfungen auch sorgfältig genug durchführen zu können ?
Ncht nur in “sicherheitsrelevanten” Bereichen - wo das Leben und die Gesundheit von Personen umittelbar durch “falsche” KI-Entscheidungen gefährdet werden könnte, sondern auch dort, wo durch “falsche” KI-Ergebnisse schwerer wirtschaftlicher Schaden in Unternehmen oder bei Investoren verursacht werden könnte und in Folge dann in solchen Unternehmen auch die Existenz der Arbeitsplätze der dort Beschäftigten (und damit deren wirtschaftliche Lebensgrundlage) gefährdet wäre , wären solche Prüfungen der Ergebnisse der für die Unterstützung wirtschaftlicher Entscheidungen herangezogenen KI-Systeme erforderlich.

Selbst bei Einsatz generativer KI im künstlerischen Bereich gibts diese Prüfungen, weil ja der Auftraggeber (der menschliche Künstler) die “künsterische Tiefe” bzw. die “Einmaligkeit” eines von KI-Systemen “verfassten” Werkes erkennen - bzw. akzeptieren - muss, um solche Werke als “seine” Werke präentieren und ausreichend glaubwürdig interpretieren zu können.

KI-Ergebnisse sollten nicht nur hinsichtlich ihrer unmittelbaren Fehlerfreiheit, sondern auch hinsichtlich ihrer Auswirkungen auf spätere Arbeitschritte in Produktions- oder Dienstleistungs-Prozessen (und daher z.B. vielleicht auch hinsichtlich ihrer Auswirkung auf betroffene Klienten ) geprüft werden.

Da KI jedenfalls Fehler macht - obwohl KI-Systeme nicht müde oder krank werden - muss jederzeit mit - vielleicht auch ”schwerwiegenden” - Fehlern und nicht nur mit “Flüchtigkeits-Fehlern “( z.B., größere Variationen innerhalb zulässiger Fertigunsgtoleranzen) gerechnet werden.
Wie dann Technolgiebeobachter zur Meinung kommen können, dass komplette Berufsbilder in Zukunft unnötig werden könnten , weil deren Aufgaben angeblich vollständig durch KI-Systeme übernommen werden könnten , erschließt sich mir nicht.

In über 90% der Fälle hat die KI recht und liefert Informationen ..

Das Problem sind aber die 10%, die falsch sind und möglicherweise auch zu schwerwiegenden Folgen führen könnten.
Es ist ohne sorfgältige Prüfung jedes KI-Ergebnisses nicht bekannt, wo bzw wann solche Fehler tatsächlich auftreten, bevor ihre ungeprüfte Verwendung zu negativen Folgen führen könnte.
Mit dem gleichen Argument (wie die hier oben gemeinte geringe Anzahl von falschen informationen bzw. Ergebnissen aus KI-Systemen) könnte man auf alle Abeitnehmerschutzvorschriften und Einrichtungen - oder vielleicht sogar auf die Feuerwehr - verzichten, weil es “so wenig” Vorfällle gibt , die den Schutz durch diese Einrichtungen tatsächlich notwendig erscheinen lassen würden.

Vorteile durch Ergebnisse der KI erwarten zu dürfen, ist wohl eher eine nur sehr schwache Begründung dafür, auf die Prüfung tatsächlich jeden Ergebnisses aus KI-Systemen vielleicht ohnehin verzichten zu können.
Wenn es nicht Vorteile aus dem Einsatz von KI -Systemen geben würde, dann bräuchten wir hier nicht seitenlang diskutieren, denn dann gäbe es diese Technologie und die mit ihr verknüpften Visionen über unserer Zukunft gar nicht.

Bleibt nur noch die Frage zu beantworten, wer denn in Zukunft tatsächlich Vorteile aus der Anwendung von KI-Systemen lukrieren wird können, wenn tatsächlich sehr viele ( bzw. die meisten heute bekannten ? ) Berufsbilder eines Tages nicht mehr “benötigt” werden sollten ?

Wenn mir bei der KI “etwas spanisch” vorkommt, dann hinterfrage ich es.

Wir wiederholen uns :
Das kannst Du nur dann, wenn Du ĂĽber ausreichend eigenes Wissen verfĂĽgst und imstande bist dieses Wissen auch anzuwenden.
Ăśber das kannst Du nur dann verfĂĽgen, wenn Du dafĂĽr auch ausreichende Bildung, Ausbildung und Erfahrung erwerben konntest.
In Zukunft werden leider noch viel weniger Personen vorgegebene Behauptungen und auch Ergebnisse aus KI-Systemen (und aus deren Nachfolgern) ausreichend hinterfragen können. Ein Kriterium dafür scheint mir auch die geradzu regelmäßige ( absichtliche ?) Verwechslung von “Ausbildung” mit “Bildung” zu sein.

Dass die KI darauf programmiert ist, wie in PrĂĽfungssituationen immer eine Antwort zu geben, selbst wenn die Wahrscheinlichkeit dass diese richtig ist gering ist.

Das soll hier nur hier für eine Randbemerkung zum Thema “Innovatiosmöglicheiten durch KI” dienen :
Wenn ein KI- Ergebnis immer nur Ergebnisse mit der höchsten Wahrscheinlichkeit, “richtig” zu sein, liefert, dann können solche Antworten nur wenig bis keine neuen Erkenntnisse - z.B. zur Unterstützung der Entwicklung innovativer Ideen/Verfahren/Produkte - liefern. Die meiste “Innovation” kann aus Ergebnissen abgeleitet werden, die vielleicht nur mit geringer Wahrscheinlichkeit als “richtig” eingestuft wurden, bei erster Überprüfung daher als “falsch” erscheinen und erst nach langwierigen Untersuchungen (und daher primär in Zusammenhang mit Forschungsvorhaben, nicht aber in der täglichen Anwendung in Betrieben ) sich dann - vielleicht sogar tatsächlich “überraschend” - als “richtig” erweisen.

Ja, Menschen brauchen ausreichend Bildung.
Das habe ich ja schon bestätigt.

Und ja, KI wird selten zu Innovation fĂĽhren.
Sie gibt nur bekanntes Wissen (vorhandenes Trainingsmaterial) wieder.

1 „Gefällt mir“