Ich weiß nicht, warum meine Beiträge so missverstanden werden können ?
Weil sie wegen der Länge ihrer Texte bzw Sätze und ihrer verwirrenden Formulierungen trotzdem immer noch zu kurz und zu wenig “plakativ” sind, um solche Missverständnisse erst gar nicht entstehen zu lassen ?
Du gehst noch immer davon aus, dass Computer unfehlbar sind,
Nein, nicht ich gehe davon aus, sondern die “breite Öffentlichkeit” (inklusive so mancher Entscheidungsträger), die über keine einschlägige Fachausbildung, Erfahrung oder wenigstens über ausreichend kritisches Einschätzungsvermögen solcher Technologien (“Computer”, “KI” … ) verfügen.
Am Beispiel der “verpatzten Reise” aus dem Artikel hier ganz oben, zeigen sich diese überzogenen Erwartungen an die Brauchbarkeit der KI im täglichen Leben Reisender ganz deutlich.
Solche überzogenen Erwartungen werden durch einschlägige Darstellungen heutiger und zukünftiger Möglichkeiten von KI-Systemen in Medien - dort oft mit besonderes plakativen Überschriften /Titeln versehen - nicht unbedingt zurecht gerückt und auf den Boden der Realität zurückgeholt. Musks Aussagen über Fortschritte in Zusammenhang mit der Erreichung des Zieles tatsächlich vollautonom fahrender Fahrzeuge können mittlerweile vermutlich von den meisten (?) allgemein technisch interessierten Personen schon richtig als “Phantasien” eingeordnet werden, deren Realisiereung irgendwann vielleicht möglich sein wird, aber nicht jetzt gerade unmittelbar bevorsteht.
Wenn solche unrealistischen Versprechungen von Technologien vielleicht noch lange nicht realisiert werden können und noch lange nicht auch durch ”Dummies” (Nutzer ohne ausreichendes Verständnis für die Anwendungsgrenzen dieser Technologien) sicher - ohne sich selbst oder andere zu gefährden - genutzt werden können , so fördert jeder positive Artikel über solche Technologien die Entwicklung der Aktienkurse einschlägiger Firmen und sichert damit die Investitionen der Financiers.
Im Gegensatz zu Dir gehe ich nicht davon aus, dass diese Influencerin mit dem Bericht über ihre Reise und die Auswirkungen der aus ChatGpt falsch/unvollständig erhaltetenen Informationen irgendetwas “beweisen” wollte.
Sie hat - wie viele andere auch - einfach nur ĂĽber Ihre Reise und ihre Erfahrungen auf dieser Reise berichtet.
Du gehst davon aus, dass KI alleine Entscheidungen trifft
Nicht ich gehe davon aus, sondern alle Technologie-Beobachter, die erwarten, dass durch massiven KI-Einsatz nicht nur einzelne Arbeitsplätze eingespart werden könnten, sondern ganze Berufsbilder “unnötig” werden könnten.
Wer soll denn dann die Ergebnisse von KI-Systemen überprüfen, aus erhaltenen Handlungs- bzw. Entscheidungsvorschlägen den “richtigen” auswählen, wenn allfälllig dann noch vorgesehene menschliche Prüfer/Bewerter der aus KI-Systemen erhaltenenen Ergebnisse/Vorschläge gar nicht mehr über ausreichendes eigenes Wissen/eigne Erfahrung/Fertigkeiten verfügen könnten , um solche Prüfungen auch sorgfältig genug durchführen zu können ?
Ncht nur in “sicherheitsrelevanten” Bereichen - wo das Leben und die Gesundheit von Personen umittelbar durch “falsche” KI-Entscheidungen gefährdet werden könnte, sondern auch dort, wo durch “falsche” KI-Ergebnisse schwerer wirtschaftlicher Schaden in Unternehmen oder bei Investoren verursacht werden könnte und in Folge dann in solchen Unternehmen auch die Existenz der Arbeitsplätze der dort Beschäftigten (und damit deren wirtschaftliche Lebensgrundlage) gefährdet wäre , wären solche Prüfungen der Ergebnisse der für die Unterstützung wirtschaftlicher Entscheidungen herangezogenen KI-Systeme erforderlich.
Selbst bei Einsatz generativer KI im künstlerischen Bereich gibts diese Prüfungen, weil ja der Auftraggeber (der menschliche Künstler) die “künsterische Tiefe” bzw. die “Einmaligkeit” eines von KI-Systemen “verfassten” Werkes erkennen - bzw. akzeptieren - muss, um solche Werke als “seine” Werke präentieren und ausreichend glaubwürdig interpretieren zu können.
KI-Ergebnisse sollten nicht nur hinsichtlich ihrer unmittelbaren Fehlerfreiheit, sondern auch hinsichtlich ihrer Auswirkungen auf spätere Arbeitschritte in Produktions- oder Dienstleistungs-Prozessen (und daher z.B. vielleicht auch hinsichtlich ihrer Auswirkung auf betroffene Klienten ) geprüft werden.
Da KI jedenfalls Fehler macht - obwohl KI-Systeme nicht müde oder krank werden - muss jederzeit mit - vielleicht auch ”schwerwiegenden” - Fehlern und nicht nur mit “Flüchtigkeits-Fehlern “( z.B., größere Variationen innerhalb zulässiger Fertigunsgtoleranzen) gerechnet werden.
Wie dann Technolgiebeobachter zur Meinung kommen können, dass komplette Berufsbilder in Zukunft unnötig werden könnten , weil deren Aufgaben angeblich vollständig durch KI-Systeme übernommen werden könnten , erschließt sich mir nicht.
In über 90% der Fälle hat die KI recht und liefert Informationen ..
Das Problem sind aber die 10%, die falsch sind und möglicherweise auch zu schwerwiegenden Folgen führen könnten.
Es ist ohne sorfgältige Prüfung jedes KI-Ergebnisses nicht bekannt, wo bzw wann solche Fehler tatsächlich auftreten, bevor ihre ungeprüfte Verwendung zu negativen Folgen führen könnte.
Mit dem gleichen Argument (wie die hier oben gemeinte geringe Anzahl von falschen informationen bzw. Ergebnissen aus KI-Systemen) könnte man auf alle Abeitnehmerschutzvorschriften und Einrichtungen - oder vielleicht sogar auf die Feuerwehr - verzichten, weil es “so wenig” Vorfällle gibt , die den Schutz durch diese Einrichtungen tatsächlich notwendig erscheinen lassen würden.
Vorteile durch Ergebnisse der KI erwarten zu dürfen, ist wohl eher eine nur sehr schwache Begründung dafür, auf die Prüfung tatsächlich jeden Ergebnisses aus KI-Systemen vielleicht ohnehin verzichten zu können.
Wenn es nicht Vorteile aus dem Einsatz von KI -Systemen geben würde, dann bräuchten wir hier nicht seitenlang diskutieren, denn dann gäbe es diese Technologie und die mit ihr verknüpften Visionen über unserer Zukunft gar nicht.
Bleibt nur noch die Frage zu beantworten, wer denn in Zukunft tatsächlich Vorteile aus der Anwendung von KI-Systemen lukrieren wird können, wenn tatsächlich sehr viele ( bzw. die meisten heute bekannten ? ) Berufsbilder eines Tages nicht mehr “benötigt” werden sollten ?
Wenn mir bei der KI “etwas spanisch” vorkommt, dann hinterfrage ich es.
Wir wiederholen uns :
Das kannst Du nur dann, wenn Du ĂĽber ausreichend eigenes Wissen verfĂĽgst und imstande bist dieses Wissen auch anzuwenden.
Ăśber das kannst Du nur dann verfĂĽgen, wenn Du dafĂĽr auch ausreichende Bildung, Ausbildung und Erfahrung erwerben konntest.
In Zukunft werden leider noch viel weniger Personen vorgegebene Behauptungen und auch Ergebnisse aus KI-Systemen (und aus deren Nachfolgern) ausreichend hinterfragen können. Ein Kriterium dafür scheint mir auch die geradzu regelmäßige ( absichtliche ?) Verwechslung von “Ausbildung” mit “Bildung” zu sein.
Dass die KI darauf programmiert ist, wie in PrĂĽfungssituationen immer eine Antwort zu geben, selbst wenn die Wahrscheinlichkeit dass diese richtig ist gering ist.
Das soll hier nur hier für eine Randbemerkung zum Thema “Innovatiosmöglicheiten durch KI” dienen :
Wenn ein KI- Ergebnis immer nur Ergebnisse mit der höchsten Wahrscheinlichkeit, “richtig” zu sein, liefert, dann können solche Antworten nur wenig bis keine neuen Erkenntnisse - z.B. zur Unterstützung der Entwicklung innovativer Ideen/Verfahren/Produkte - liefern. Die meiste “Innovation” kann aus Ergebnissen abgeleitet werden, die vielleicht nur mit geringer Wahrscheinlichkeit als “richtig” eingestuft wurden, bei erster Überprüfung daher als “falsch” erscheinen und erst nach langwierigen Untersuchungen (und daher primär in Zusammenhang mit Forschungsvorhaben, nicht aber in der täglichen Anwendung in Betrieben ) sich dann - vielleicht sogar tatsächlich “überraschend” - als “richtig” erweisen.