KI kann also Fakten ( hier : selbst in großer Zahl existierende Bilder von vormaligen Personen des öffentlichen Leben, oder auch nur eine korrekte Liste politischer Funktiontsträger ) nicht fehlerfrei wiedergeben.
Sie soll aber in Zukunft Mitarbeiter in vielen Unternehmen - möglicherweise auch Lehrer in Schulen/Universitäten - ersetzen ?!
Selbst für so uberschaubare Aufgaben - wie Übersetzungen oder Transkriptionen - dürften KI-Systeme daher nicht geeignet sein, wenn sie Fakten - den auch im jeweiligen Kontext richtig zu verstehenden und zu übersetzenden bzw. zu transskribierenden Text - nicht richtig wiedergeben kann und daher diese KI-Ergebnisse nicht ohne manuelle Kontrolle/Korrekur weitergegeben werden können.
Für diese Kontrolle werden aber alle Sprachkenntnisse eines Übersetzers und ausreichende Fachkenntnisse zur Erkenneung des zutreffenden Kontextes und die Wahl der korrekten Fachvokabel dieses Kontextes benötigt. Möglicherwese wäre der Verzicht auf KI-Systeme dann sogar wirtschaftlicher, als - offenbar stets - fehlerhafte KI-Systeme allein einzusetzen und dann vielleicht erhebliche Kosten für unerkannt fehlerhafte Übersetzungen bzw Transkriptionen erwarten zu müssen.
Die hie oben im Artikel dargestellten Fehler sind vielleicht darauf zurückzuführen, dass die für diese Tests verwendete KI-Version für solche Aufgaben gar nicht geeignet ist , oder dafür gar nicht trainiert wurde.
Die “universelle” Ki , die “alles” kann, wird es noch sehr lange, vielleicht auch nie, geben.
Für jedes Anwendungsgebiet braucht es offensichtlich (nur derzeit ?) eine spezielle KI-Version , die auch mit den spezifisch richtigen Daten (möglichgst ohne unabsichtlichem oder auch absichtlichem/manipulativem Bias) trainiert worden sein muss.
Wer wird dann in Zukunft noch wissen, ob ein bestimmtes KI-Tool noch für den Einsatz für zusätzliche weitere Aufgaben in seinem ursprünglichen Einsatzbereich - bzw. bei sich ändernden Umgebungsbedingungen dieses Einsatzbereiches - geeignet ist ?
Wird solche abnehmende Eignung dann erst durch die zunehmende Anzahl von Fehlern - z.B. steigende Unfallzahlen bei autonom gesteuerten Fahrzeugen/Maschinen - sichtbar ?
Das Problem hier ist dass die Leute nicht verstehen, wie die Bildgenerierung funktioniert. ChatGPT hat da nämlich davor die Liste der BundeskanzlerInnen korrekt ausgegeben.
Die verwendete Diffusion-Bildgenerierung funktioniert über Pareidolie, es werden mehrere zufällig generierte Bilder danach bewertet, wie gut die Bilderkennung in ihnen das gewünschte Endergebnis erkennen kann. Dann wird das passendste Bild genommen, mit Bildrauschen daraus mehrere neue Bilder generiert und wieder bewertet und das mehrere tausend Male, bis das Endergebnis sich nicht mehr verändert.
Damit ist hoffentlich klar, warum die Bilder nicht die gewünschten Personen zeigen oder warum Fotos vertauscht sein können.
Wenn man übrigens den Agenten-Modus verwendet, dann sucht ChatGPT die korrekten Fotos raus und macht eine echte Fotokollage, siehe unten So wie ein Mensch es machen würde.
Es ist also wieder man ein Fall von “warum kann ich mit meinem Hammer die Schrauben so schlecht einschlagen”…
Die meisten Benutzer von technischen Einrichtungen/Maschinen/Fahrzeugen benützen diese sicher und erfolgreich, ohne zu wissen, wie und warum diese Geräte ihre Funktionen erbringen.
Um Schaden für potentielle Benutzer zu vermeiden gibt es einerseits (behördliche) Vorschriften bzw. von den Herstellern einzuhaltende Normen und den zu berücksichtigenden “Stand der Technik”.
Auch für KI-Systeme sind solche Regelwerke erforderlich und einzuhalten.
Daher sollte auch End-Benutzern von KI-Systemen nicht abverlangt werden, sich erst mit internen technischen Details beschäftigen zu müssen, bevor mit KI-Systemen gearbeitet werden kann - oder sie auch nur halbwegs sinnvoll getestet werden können.
Wenn heute nur jene Personen mit einem Handy arbeiten dürften, die die internen technischen Abläufe und die Signalwege in den Geräten tatsächlich verstehen, dann gäbe es bis heute wohl immer noch nur Prototypen von Smart-Phones in manchen Entwicklungsabteilungen großer Unternehmen.
Dass ausnahmslos alle von KI-Systemen gelieferten Ergebnisse “nur” als Vorschläge zu werten sind und diese Vorschläge vor ihrer Verwendung immer erst der Annahme/Akzeptanz (oder auch Ablehnung) durch den Menschen bedürfen, wird - meinem Eindruck zufolge - von nahezu keinem Hersteller von KI-Software bzw. von mit KI ausgestatteten Systemen - deutlich genug dargestellt.
Stimmt. Manchmal komplett daneben. Manchmal fast getroffen, aber dennoch vorbei. Manchmal aber auch direkt ins Schwarze.
Wie der Mensch. Der macht auch Fehler. Die KI kopiert halt nur die starken Muster, die sie beim Menschen durch die Daten, mit der sie trainiert wird, „beobachtet“.
Ich beobachte immer wieder, dass an der von Menschen gemachten Technologie weitaus höhere Anforderungen als an den Menschen selbst gestellt werden. Der Mensch darf Fehler machen, aber die Technologie muss fehlerfrei sein.
Wenn ein Mensch bei der Herstellung beim Rosenschneiden einen Fehler macht, wird das verziehen. Wenn die Rosenschneidemaschine eine Blüte kappt, ist die Empörung groß.
In einer Diskussionsrunde über selbstfahrende Autos kam man wieder das obligatorische Trolley-Problem zur Sprache. Das Auto kommt in eine Dilemma-Situation und muss sich nun entscheiden, in die alten Omas oder das Baby überfahren werden sollen. Wie entscheidet sich die KI „korrekt“ und wer ich für die folgende Katastrophe „hinzurichten“?
(Ich erwähne nur kurz, dass man sich vielleicht eher darauf fokussieren sollte, die ursächliche Dilemma-Situation zu vermeiden, statt Symptome zu bekämpfen).
Wenn so ein Auto in einen Unfall verwickelt ist, ist die Empörung groß. Verständlich. Aber die daraus folgende Generalisierung, dass die System damit „bewiesen“ hätten, nicht gut genug zu sein und aus dem Verkehr gezogen werden müssten, ist auch nicht gerade das Gelbe vom Ei.
Mein Hinweis in der oben erwähnten Diskussionsrunde war, Technologie verantwortungsbewusst einzusetzen, was aber auch bedeutet, sie einzusetzen, wenn sie dem Menschen in Teildisziplinen ebenbürtig oder vielleicht sogar besser ist.
Analog nun zu dem Beispiel mit dem Bundeskanzler. Genauer hinschauen. In 80% der Fälle Richtung und in 20% der Fälle „total daneben“ erlaubt schon, das Zeug zu verwenden. Nur entbindet es uns als anwendende Menschen nicht, uns unserer eigenen Zuständigkeit zu bedienen, unser Hirn einzuschalten und nicht gutgläubig zu sein.
Denn das sind wir bei den Dingen, die andere Menschen tun und sagen ja auch nicht. Eine gesunde Portion Skeptik ist immer angesagt, um verantwortungsbewusst zu handeln.
Es aber durch Generalisierungen oder die Fokussierung auf Fehler und Risiken zu übertreiben und nicht abzuwägen, was an Korrektem und Chancen sich ergeben können, ist genauso verantwortungslos und geht Richtung „unterlassene Hilfeleistung“.
Ergo: KI macht Fehler. KI wird aber besser werden. Dennoch sollten wir nicht zu Leichtsinnung und Gutgläubig sein. Es aber auch nicht übertreiben.
ich möchte hier ausdrücklich festhalten, dass meine Kritik nicht die Technologie der KI betrifft , sondern viel mehr unseren gesellschaftlichen Umgang mit der KI . - bzw. mit ihren Ergebnissen - betrifft.
Ich behaupte nicht das KI-Syteme unnnütz oder unbrauchbar wären.
Ich habe aber den Eindruck, dass viele Personen nicht zwischenScience-Fiction und real zur Förderung des Gemeinwohls wünschenswerten - und auch möglichen - zukünftigen Entwicklungen unterscheiden können.
Für mache ist der Glaube an die Lösung von akuten Problemen durch irgenwelche zukünftige Technologien - und aktuell gerade durch KI - geradezu ein Relgionsersatz.
Auf die weitere Punkte in ihrem obigen Beitrag kann ich aus zeilichen Gründen leider erst später eingehen - ich sitze schon viel zu lange wieder hier vor meinem Bildschirm.
Bis bald !
Dem Hinweis auf den Religionsersatz kann ich nur voll zustimmen. Ich wünsche mir, dass wir uns gemeinsam mehr um und mit den Menschen beschäftigen, als zu glauben, dass uns Systeme, Strukturen, Regeln oder Technologien erlösen werden.
Das Problem ist “lediglich” , dass diese Vorgaben / Hinweise der KI -Anbieter offenbar nicht zur Kenntnis genommen werden und - vor allem auch innerhalb von Unternehmen - nicht durchsetzbar sein dürften.
Denn sonst wäre Studien über den Wegfall von bestehenden Arbeitssplätzen durch den Einsatz von KI, statt der dort bisher beschäftigten Menschen, schon längst als Märchenerzählung im Auftrag von Unternehmen der KI-Branche entlarvt worden -
und hätte die Aussicht auf schon “bald” tatsächlich vollautonom (und nicht primär nur ferngesteuert) massenhaft auf öffentlichen Straßen fahrende Fahrzeuge schon lange auf den “Boden der Wahrheit” zurückgeholt werden müssen.
Zum Thema “fehlerhafte Fakten” :
Wenn angefragte Fakten erst auf ihre Richtigkeit geprüft werden müssen, dann liefern einfache Suchmaschinen - ganz ohne Unterstützung durch KI - vielleicht (leider nur derzeit noch !) sogar zuverlässigere Informationen.
Allerdings müssen auch solche Suchergebnisse erst durch den Benutzer hinsichtlich des korrekten Kontextes zur Fragestellung und hinsichtlich der Vertrauenswürdigkeit der Quelle geprüft werden.
Leider werden in naher Zukunft Informationen im Internet immer öfter von KI-Systemen direkt - ohne voherige Prüfung der generierten Inhalte durch Menschen - erstellt und wird dadurch das Internet geradezu geflutet werden.
Damit werden manuelle Suchen im Internet (ohne “KI - Unterstützung” ) schon bald die gleichen falschen/erfundenen Inhalte liefern, wie sie auch ein unmittelbarer direkter Suchauftrag an ein KI-System liefern würde.
Probleme mit bewusst durch beauftragte Trolle bzw. dafür betriebene BOT-Farmen generierte Fake-Meldungen (bzw -Informationen - z.B. auch in Wikipedia) müssen dann noch zusätzlich beachtet werden.
Die Aussage “das Internet ist kaputt” scheint unter diesen Aspekten keine Übertreibung mehr zu sein.
Inhalte aus dem Internet oder Ergebnisse von KI-Systemen ungeprüft und ungefiltert zur Wissensvermittlung in “Selbstbedienung” durch Schüler einzusetzen - um vielleicht einige Lehrer einsparen zu können, halte ich daher für extrem gefährlich.
Ich beobachte immer wieder, dass an der von Menschen gemachten Technologie weitaus höhere Anforderungen als an den Menschen selbst gestellt werden. Der Mensch darf Fehler machen, aber die Technologie muss fehlerfrei sein.
Es ist nur im Bereich der Programmierung und der digitalen Übertragungstechnik üblich “Fehler” machen zu dürfen, denn erwartete Fehler können dort in bestimmtem Umfang noch ohne Folgen abgefangen bzw. sogar korrigiert werden.
Im Bereich der Statik (Festigkeit und Tragfähigkeit von Gebäuden bzw Bauteilen und von mechanischen Komponenten in Maschinen und Fahrzeugen) sind Fehler jedenfalls nicht erlaubt, weil jeder Fehler (z.B, Bruch eines Bauteiles bzw. einer mechanischen Komponente ) jedenfalls zu hohen Kosten und unter Umständen auch tödlichen Folgen für Personen in ihrer Umgebung führen kann.
Mittlerweile ist der erreichbare Sicherheitslevel im Bereich der mechanishen Bauteile so groß , das Unfälle mit Personenschaden zufolge überlasteter und deswegen zerstörter mechanischer Bauteile nur mehr sehr selten auftreten und daher mit Recht angenommen werden kann, das mechanische Technologien praktisch (aus Sicht des Endbenutzers) fehlerfrei benutzbar sind. Gleiches gilt auch für die Elektrotechnik (die Anwendung elektrischer Energie - z.B. für Beleuchtung, Heizung und Antriebe) .
Es ist daher gar nicht verwunderlich, wenn Endbenutzer solche Sicherheitslevel auch von Produkten und Dienstleistungen der IKT erwarten. Es gibt jedoch weder Sicherheit vor Daten- oder Identitäts- Diebstahl, noch vor falschen bzw. manipulierenden Informationen in den Ergebnissen aus KI-Systemen oder aus Suchvorgängen im Internet. Zusätzlich bewerben aber noch immer viele IT-Firmen ihre Produkte als besonders sicher oder als “absolut sicheres” Mittel, um IKT-Geräte/Systeme der Endbenutzer vor Angriffen und/oder Datenverlust zu schützen - obwohl sie genau wissen, dass es solche “absolute Sicherheit” gar nicht gibt - sondern dass es nur sichere und weniger sichere IT- Geräte (z.B. Datenspeicher) geben kann.
Wenn so ein Auto in einen Unfall verwickelt ist, ist die Empörung groß. Verständlich. Aber die daraus folgende Generalisierung, dass die System damit „bewiesen“ hätten, nicht gut genug zu sein und aus dem Verkehr gezogen werden müssten, ist auch nicht gerade das Gelbe vom Ei.
Dieses Beispiel wurde im Verein schon mehrmals diskutiert und hat jedesmal zu heftigem Widerspruch von meiner Seite geführt.
Das Problem des angeblich unvermeidlichen Unfalles eines vollautonom fahrenden Fahrzeuges berührt im Prinzip drei Bereiche :
die allgemeine Erklärung der Menschenrechte - besonders
Artikel 2 :
Jeder hat Anspruch auf alle in dieser Erklärung verkündeten Rechte und Freiheiten, ohne irgendeinen Unterschied, etwa nach Rasse, Hautfarbe, Geschlecht, Sprache, Religion, politischer oder sonstiger Anschauung, nationaler oder sozialer Herkunft, Vermögen, Geburt oder sonstigem Stand.
…
Artikel 3:
Jeder hat das Recht auf Leben, Freiheit und Sicherheit der Person.
…
Artikel 7:
Alle Menschen sind vor dem Gesetz gleich und haben ohne Unterschied Anspruch auf gleichen Schutz durch das Gesetz.
…
die Einteilung von Menschen nach “wertvollen“ und “minderwertigen” Menschen, deren Tod im Falle eines angeblich unvermeidbaren Unfalles wegen ihres geringen Wertes für die Gesellschaft (oder genauer : nur für “die Wirtschaft” ? ) in Kauf genommen werden kann/muss.
Solche Spaltung der Gesellschaft war und ist Ausdruck politisch rechter Ideologie, führt zur Missachtung des Rechtes auf Unversehrtheit und Leben in Gesundheit für immer größere Teile der Bevölkerung und darf daher nicht Voraussetzung für die Einführung bzw. Verbreitung von Technologien (hier : von vollautonom fahrenden Fahrzeugen) werden.
die Notwendigkeit, Gesetze (z.B. die Straßenverkehrsordnung) ändern zu müssen, und den bisher gewährten Schutz von Schwachen ( z.B. Kindern , Alten, Behinderten und Kranken ) im Straßenverkerr aufheben zu müssen, um vollautonome Fahrzeuge im öffentlichen Straßenraum zulassen zu können :
Gesamte Rechtsvorschrift für Straßenverkehrsordnung 1960, Fassung vom 18.07.2024
§ 3. Vertrauensgrundsatz.
(1) Die Teilnahme am Straßenverkehr erfordert ständige Vorsicht und gegenseitige Rücksichtnahme; dessen ungeachtet darf jeder Straßenbenützer vertrauen, dass andere Personen die für die Benützung der Straße maßgeblichen Rechtsvorschriften befolgen, außer er müsste annehmen, dass es sich um Kinder, Menschen mit Sehbehinderung mit weißem Stock oder gelber Armbinde, Menschen mit offensichtlicher körperlicher Beeinträchtigung oder um Personen handelt, aus deren augenfälligem Gehaben geschlossen werden muss, dass sie unfähig sind, die Gefahren des Straßenverkehrs einzusehen oder sich dieser Einsicht gemäß zu verhalten.
Ein vollautonom fahrendes Auto müsste also die hier oben aufgezählten Personengruppen rechtzeitig erkennen, um ihr Verhalten beurteilen zu können.
Dazu müsste die KI dieser Fahrzeuge aber immer alle Personen am Straßenrand oder auf der Straße beobachten und analysieren, ob für diese Personen der Vertrauensgrundsatz gelten kann.
Das ist meiner Meinung nach innerhalb der erforderlichen Antwortzeit, um auf allfällig plötzlich gefährlich werdendes Verhalten dieser Personen bei höheren Geschwindigkeiten des Fahrzeuges rechtzeitig reagieren zu können, um einen Unfall noch verhindern zu können, mit heute verfügbaren Technologien einfach nicht möglich.
(2)Der Lenker eines Fahrzeuges hat sich gegenüber Personen, gegenüber denen der Vertrauensgrundsatz gemäß Abs. 1 nicht gilt, insbesondere durch Verminderung der Fahrgeschwindigkeit und durch Bremsbereitschaft so zu verhalten, daß eine Gefährdung dieser Personen ausgeschlossen ist.
§ 20. Fahrgeschwindigkeit.
(1)Der Lenker eines Fahrzeuges hat die Fahrgeschwindigkeit den gegebenen oder durch Straßenverkehrszeichen angekündigten Umständen, insbesondere den Straßen-, Verkehrs- und Sichtverhältnissen, sowie den Eigenschaften von Fahrzeug und Ladung anzupassen.
Wenn diese, der jeweiligen Gefahrensitutation bzw. Sichtweite ( z.B. im Falle von wetterbedingten Sichtbehinderungen oder fehlender Sicht auf Straßenabschnitte unmittelbar hinter engen Kurven ) angepassten, Fahrgeschwindigkeiten tatsächlich eingehalten werden würden, könnte ein Fahrzeug jedenfalls auch in - bzw. nach - engen Kurven noch rechtzeitig vor irgendwelchen Hindernissen (höchstwahscheinlich auch vor eben erst auf die Fahrbahn gestürzten Bäumen oder Felsen) anhalten, ohne deshalb die Bodenhaftung verlieren - und die Fahrbahn unkontrolliert verlassen - zu müssen; Es würde aber gleichzeitig auch wegen dieser geringen Fahrgeschwindigkeit stets zu einem gefährlichen Hindernis für andere , an solchen Stellen schneller fahrenden, Fahrzeuge werden.
§ 29a. Kinder
(1)Vermag der Lenker eines Fahrzeuges zu erkennen, daß Kinder die Fahrbahn einzeln oder in Gruppen, sei es beaufsichtigt oder unbeaufsichtigt, überqueren oder überqueren wollen, so hat er ihnen das unbehinderte und ungefährdete Überqueren der Fahrbahn zu ermöglichen und hat zu diesem Zweck, falls erforderlich, anzuhalten.
Von Personen, für die der Vertrauensgrundsatz nicht gilt, muß die Überqerung von Straßen an jeder Stelle - nicht nur an Kreuzungen oder Fußgängerübergängen - erwartet werden.
Wenn ein autonomes Fahrzeug die österreichische Straßenverkehrsordnung nicht “kennt” bzw nicht einhalten kann, dann könnte es - bzw seine Bord-KI als virtueller Fahrer - auch nie eine Fahrerlaubnis erhalten, wie sie erfolgreiche Absolventen eines Fahrschulkurses nach Ablegung der Führerscheinprüfung erhalten.
Soche Fahrzeuge - ohne verantwortliche menschliche Fahrer am Steuer - dürften daher in Österreich auch keine Zulassung für den Verkehr auf öffentlichen Straßen erhalten.
Übersehen wird in der Diskussion über die Alltagstauglichkeit von KI-Systemen auch der Umstand, dass viele ( vielleicht sogar alle ?) Anbieter von KI- Systemen bzw .- Services in ihren “Gebrauchsanleitungen” für den Einsatz von KI (bzw. den entsprechenden Abschnitten ihrer Serviceverträge ) für die von ihnen angebotenene KI-Dienstleistungen bzw. - Systeme die Weiter-Verwendung von KI-Ergebnissen ohne vorherige sorgfältige Prüfung/Kontrolle jedes Ergebnisses, aber auch von Ergebnissen mit möglichen negativen/nachteiligen Auswirkungen für betroffene Personen, ausdrücklich untersagen.
Somit wären Anwendungen von
KI im Unterricht als Quellle von “Fakten” bzw. Lieferant von “Wissen”, das Schüler/Studenten zu lernen hätten,
KI als virtuelle Fahrer in autonomen Fahrzeugen, ohne physisch im Fahrzeug am Steuer sitzende menschliche Fahrer,
KI als nie ermüdende Arbeitskraft, die Menschen auf fast allen Arbeitsplätzen vollständig ersetzen soll
KI im Sozial-Wesen ( z.B. für automatiserte Zuerkennung oder Ablehnung von Förderungen/Unterstützungen )
KI im Bereich der Justiz als Ersatz von Richter-Sprüchen in bestimmten Strafverfahren
KI zur automatischen Identifizierung von Personen bzw. deren Verhaltens
keine von den KI-Anbietern zugelassenen Einsatzbereiche.
KI-Anbieter würden in weiterer Folge (hier nur als meine persönliche Vermutung) für solche, von ihnen nicht zugelassenen, Anwendungsgebiete wahrscheinlich auch keine technische Unterstützung/Beratung bereitstellen - um allfällige Haftungsansprüche aus Folgeschäden von ungeprüft verwendeten KI-Ergebnissen zu vermeiden.