Deutschsprachige Wikipedia lässt über KI-Verbot abstimmen

Eine Änderung der Richtlinie soll das Erstellen von Artikeln über Large Language Models untersagen. Bei Bilderstellung, Textkorrektur oder Übersetzungen soll es vereinzelte Ausnahmen geben

https://www.derstandard.at/story/3000000308444/deutschsprachige-wikipedia-laesst-ueber-ki-verbot-abstimmen

1 „Gefällt mir“

Jep. Wir laufen jetzt auch alle nur zu Fuß noch herum.

  1. Jahrhundert der Maschinenstürmer.
1 „Gefällt mir“

Ich bin ja der Meinung man sollte Schreibmaschinen verbieten.
Federkiel und Tinte und sonst nichts. :upside_down_face:

1 „Gefällt mir“

Ob du das glaubst , oder auch nicht : Das - “zu Fuß herumlaufen” - wäre jedenfalls eine der wirksamsten Maßnahmen zur Erreichung von Klimaschutzielen im Bereich Verkehr.

Fast konnte man meinen, dass du den Unterschied - die Problematik - zwischen Texten , die auf einer Schreibmaschine (oder auch mit “Federkiel” handschriftlich) geschrieben wurden/werden und Texten (bzw deren Inhalte), die von KI-Systemen verfasst wurden/werden , nicht kennen würdest.

Wenn ich einen Text schreibe, egal ob mit Füllfeder (verwende ich noch) oder mit KI - es ist am Ende ein Text den ich geschrieben habe und mit dem ich mich voll inhaltlich identifiziere. Insofern: Kein Unterschied.

Das ist aber eine schwere Fehleinschätzung.
Richtig ist lediglich , dass ein von KI geschriebener Text rechtlich immer so behandelt werden wird müssen, wie wenn er von der Person selbst (“handschriftlich” ) verfasst worden wäre, die für die Erstellung solcher Texte verantwortlich ist.

Dies würde aber voraussetzen, dass der von KI geschriebene Text mit gleicher Sorgfalt und Aufmerksamkeit durch menschliche Intelligenz (und menschliches Wissen) kontrolliert werden kann, wie wenn diese menschliche Intelligenz den Text selbst geschrieben hätte, damit ich mich - bzw. die menschliche intelligenz - tatsächlich voll inhaltlich mit diesem Text identifizieren kann.

Diese Kontrolle könnte aber sehr anstrengend und aufwändig werden, wenn KI vollkommen andere Formulierungen verwenden würde, als ein menschlicher Autor der einen Text gleichen Inhaltes verfassen würde.

Dass diese Kontrolle künstlicher Intelligenz durch menschiche Intelligenz in der Praxis nicht funktioniert, haben ja schon die verschiedenen Feldversuche mit vollautonom unter Aufsicht eines menschlichen Fahrers fahrenden öffentlichen Verkehrsmittel (Busse) in Österreich gezeigt. Ausnahmslos wurde von diesen Fahrern die jederzeitige Eingriffsbereitschaft - und daher die ständige erforderliche genau beobachtende passive Konzentration, als viel anstrengender und ermüdender beschrieben, als wenn diese Fahrer selbst die jeweligen Strecken ohne steuerndes KI-System an Bord befahren hätten.

Zudem stellt sich auch die Fragem warum überhaupt KI-Systeme zum (autonomen) Schreiben von Texten herangezogen werden sollten, und ob nicht manche/viele dieser angeblichen KI-Anwendungen nichts anderes als Text-Templates sind, die variable Textinhalte für grammatikalisch und inhaltlich korrekte Massenaussendungen ( z.,B. an alle Kunden ) verfassen bzw zusammenstellen.

Wenn KI-Systeme zur Zusammenfassung längerer Texte/Berichte herangezogen werden, liefern sie höchstwahscheinlich stets sauber formulierte Texte, könnten aber inhaltlich “brisante” Textstellen im Bericht “übersehen” - weil sie z.B. keine Kenntnis des inhaltlichen Kontextes des Berichtes , keine Kenntnis der Interessen (bzw. Absichten) der Leser des Berichtes und auch keine Kenntnis des Grundes (des Auslösers) dieses Berichtes haben.
Verantwortlich bleibt aber jedenfalls immer der Mensch, der solche KI-Systeme verwendet (bzw. verwenden muss ) - und das bedeutet jedenfalls eine deutliche Verschlechterung der Arbeitsbedingungen dieser Menschen.

Das ist eine Diffamierung aller Personen, die sich ernstlich um unsere Zukunft sorgen.

Wenn solche Sorgen tatsächlich unbegründet sein sollten, dann könnte sie ja - möglicherweise sogar ganz einfach und plausibel - hier entkräftet werden.

Auch der Mensch ist fehlbar. Deshalb sollten wir unsere Erwartungen an Technologie realistisch halten. Sie muss nicht perfekt sein. Entscheidend ist, dass sie mindestens so gut oder besser handelt als ein Mensch.

Es gibt viele Anwendungsfälle, in denen Fehler keine Katastrophe sind. Fehler gehören dazu. Relevant sind Eintrittswahrscheinlichkeit, Schadenshöhe und konkrete Auswirkungen.

Es ist ein klarer Unterschied, ob ein selbstfahrendes Auto beim Einparken einen Begrenzungspfosten streift oder einen Fußgänger auf dem Zebrastreifen erfasst. Solche Unfälle passieren auch Menschen. Wenn ein autonomes System nachweislich seltener schwere Unfälle verursacht als ein menschlicher Fahrer, ist es die bessere Option.

Wir sollten uns bei jedem Fehler nicht reflexartig verunsichern lassen oder in Angst verfallen. Nüchtern betrachtet zählt die Abwägung: Welchen konkreten Nutzen bringt die Technologie, und wie hoch sind Wahrscheinlichkeit und Ausmaß möglicher Schäden?

Fortschritt entsteht durch Anwendung und Korrektur. Wenn wir Technologien erst dann einsetzen wollten, wenn sie absolut sicher und unfehlbar sind, würden sie nie zum Einsatz kommen.

Dann gäbe es keine Autos, keine Computer, keine Insulinsensoren, keine Backöfen, keine Gasheizungen und keine Stromleitungen. Ohne die Bereitschaft, mit kalkulierbaren Risiken zu leben und aus Fehlern zu lernen, wären wir technologisch stehen geblieben – mit entsprechend niedriger Lebenserwartung und Lebensqualität.

4future ist eine progressive Institution. Wir sind überzeugt, dass technologische Entwicklungen notwendig sind, um unser aller Leben weiter zu verbessern. Deshalb unterstützen wir Innovation, Fortschritt und auch ambitionierte Vorstöße in unbekanntes Terrain.

Wir wissen, dass damit Risiken verbunden sind. Diese blenden wir nicht aus – wir nehmen sie bewusst in Kauf. Fortschritt entsteht nicht durch Zögern, sondern durch verantwortungsbewusstes Handeln trotz Unsicherheit.

Go West!

Der Unterschied von KI zu anderen Technologien besteht aber darin, das KI nicht nur fehlerhaft - wie jede andere Technologie - ist ,
sondern solche Fehler auch aktiv ( z.B, zur überzeugenden Generierung von Fake-Informationen, zur gezielten Meinungsbeinflussung, zur Steuerung des Wählerverhaltens, für Hetze gegen Minderheiten und gegem “unliebsame” Personen aber auch für Zwecke der Spionage , für Cyberangriffe zur Destabilisierung von Staaten und Bündnissen .. ) absichtlich und massiv destruktiv eingesetzt wird - bzw. werden kann - allerdings zunächst ohne plötzlich “explosive” Wirkung und daher lange Zeit nahezu unbemerkt , aber mit dafür umso nachhaltiger und länger anhaltender Wirkung.
Und das sogar mit aktiver Unterstützung durch weitestgehend kritiklose Benutzung auch in Anwendungsbereichen, für die KI-Systeme von ihren Herstellern gar nicht zugelassen - bzw. vorgesehen - wurden.
Verstärkt wird diese Problem der destruktiven Wirkung noch durch mangelhaftes Wissens über die Funktionsweise solcher Systeme aber das gleichzeitig unbegründet grenzenlose Vertrauen in die zweifellose “Richtigkeit” der Ergebnisse aus solchen KI-Systemen , die meiner Meinung nach darin gipfelt zu behaupten, dass durch KI-Syteme geschriebene Texte von selbst (“manuell”) geschriebenen Texten ( z.B. inhaltliche Zusammenfassung von langen Berichten) nicht zu unterscheiden wären - und von verantwortlichen Herausgebern solcher Texte daher inhaltlich gar nicht mehr (?) geprüft werden müssten- obwohl solche Prüfungen (bzw. “Genehmigungen”) bisher selbst dann erforderlich waren, wenn menschliche Mitarbeiter eines Verantwortlichen Bereichsleiters solche Kurzfassungen von Berichten erstellt hatten.

In vielen Bereichen des Technologieinsatzes ist eine Begründung des Technologie-Einsatzes auch das Ziel, die hohe Fehlerrate des Menschen ( durch Müdigkeit, mangelnde Konzentration, leichte Ablenkbarkeit, “Schlampigkeit”, .. .) deutlich senken zu wollen -z.B. auch durch den Einsatz von vollautonom fahrende Fahrzeugen auf öffentlichen Straßen.
Dann sollen durch den Technologieiensatz weiterhin - bzw. sogar neu - aufretende Fehler durch die hohe Fehlerrate von Menschen “entschuldigt” werden ?
Das kann wohl nur so verstanden werden , dass mit solchen Argumenten die Öffentlichkeit auf das Verfehlen des Zieles einer niedrigeren Fehlerrate, als bei Durchführung von Arbeiten ohne KI-Unterstützung, “vorbereitet” werden soll ?

Deshalb sollten wir unsere Erwartungen an Technologie realistisch halten. Sie muss nicht perfekt sein

Dann darf sie aber in vielen “Fehler-kritischen” Bereichen gar nicht eingesetzt werden, genauso, wie auch Menschen unter besonderen Anforderungen ( z.B, hinsichtlich Konzentration und Genauigkeit ) nur dann eingesetzt werden dürfen, wenn sie diese Anforderungen auch erfüllen können und für solche Arbeiten auch ausreichend ausgebildet und geübt sind.

Relevant sind Eintrittswahrscheinlichkeit, Schadenshöhe und konkrete Auswirkungen.

Eintrittswahrscheinlichkeiten wurden und werden immer missbraucht .
Denn Eintrittswahrscheinlichkeiten erlauben weder eine Aussage über den Zeitpunkt des Eintretens eines einzelnen Ereignisses, noch über den Umfang der nach diesem Zeitpunkt möglicherweise zu befürchtenden Schäden und sind daher für die Beurteilung zukünftig möglicher Gefährdungslagen vollkommen irrelevant.

Lediglich die maximal mögliche Schadenshöhe ( bzw. die maximal möglichen Auswirkungen ) könnte einen Hinweis auf die tatsächliche Gefährdung geben.

Wenn ein autonomes System nachweislich seltener schwere Unfälle verursacht als ein menschlicher Fahrer, ist es die bessere Option.

Ein (voll) autonomes System kann das aber bisher noch gar nicht nachweisen, weil es solche Systeme abseits von Prototypen, Teststrecken, Simulationen und besonderer Beaufsichtigung noch gar nicht gibt.
Die überwiegend in Simulationen bisher “erfolgreich” zurückgelegten Straßenkilometer von vollautonom fahrenden Fahrzeugen sind zum Nachweis ausreichender Unfallsicherheit im realen Straßenverlehr auf öffentlichen Straßen nur wenig geeignet, weil in Simulationen nur vorhergesehene (bzw,. vorhersehbare ) Verkehrs- bzw. Gefahren-Situationen simuliert bzw. trainiert werden können. Unfälle ereignen sich aber zumeist aus unerwarteten ( und daher “unerwartet” gar nicht simulierbaren ) Ereignissen.
Selbst über korrektes Verhalten bei erwartbaren ( z.B. Wetter-) Ereignissen -. wie z.B. plötzlich schwerer Regenfall, Schneefall, Nebel oder plötzlichem Totalausfall der Kommunikationsverbindungen zu benötigter technischer Infrastruktur (z,B, Rechenznentren ) außerhalb der Fahrzeuge, habe ich noch kein einziges Mal irgendwo Informationen gesehen, owohl der Totalausfall aller Umgbungsensoren bei Höchstgeschwindigkeit auf Autobahnen sicher zu erheblichen Problemen für das sichere Verhalten vollautonomer Fahrzeuge auf Autobahnen führen dürfte.

wenn sie absolut sicher und unfehlbar sind, würden sie nie zum Einsatz kommen.

Wenn damit schwerer Schaden von unserer Gesellschaft abgewendet werden könnte und vielleicht schwere Unfälle und Tote verhindert werden könnten , dann ist es halt so, dass wir solche (unreife !) Technologien gar nicht - oder noch nicht - einsetzen dürfen.

Würdest Du zu befürchtende katastrophale Folgen auch dann so leicht “weg-argumentieren”, wenn Du als Opfer solcher Kollateralschäden des Fortschrittes nicht nur die “Anderen” erwarten würdest , sondern auch dich selbst, deine nächsten Verwandten , deine besten Freunde als mögliche Opfer erwarten müsstest ?

Dann gäbe es keine Autos, keine Computer, keine Insulinsensoren, keine Backöfen, keine Gasheizungen und keine Stromleitungen.

Hier kommt schon wieder deine Polemik (in Abwandlung der schon zu oft verwendeten Unterstellung “Zurück auf die Bäume , ihr Affen” ) zum tragen.
Denn alle diese Technologien haben rein gar nichts mit künstliche Intelligenz, und den geradezu Religions-artigen Ewartungen an KI zu tun.
Und allle Unfälle/Fehler dieser Technologien sind unmittelbar - und zumeist auch von nicht umittelbar selbst betroffenen Personen - leicht und sofort erkennbar.
Ja , auch diese Technologien haben zu Toten und Verletzten während ihrer Entwicklung und während ihres frühzeitgen Einsatzes bzw. der Verwendung durch nicht ausreichend geschulte/unterwiesene Benutzer dieser Technologien geführt.
Müssen wir aber all diese Fehler anlässlich der Einführung bzw Verwendung von KI-Systemen tatsächlich wiederholen , sind wir tatsächlich so lern-resistent - oder ist selbst diese Lern-Resistenz schon eine Folge des Fortschrittes ?

Wir wissen, dass damit Risiken verbunden sind. Diese blenden wir nicht aus – wir nehmen sie bewusst in Kauf.

Wir (als Verein) können diese Risiken leicht in Kauf nehmen , weil wir offenbar zu wissen glauben, dass diese Risiken überwiegend die Anderen treffen werden.
Und ich dachte, wir wären eher eine NGO, als ein Lobby-Verein .
Da habe ich mich möglicherweise geirrt.