Interview ZIB2 mit Peter Steinberger über OpenClaw

1 „Gefällt mir“

Endlich hat auch der ORF einen guten Interviewer bereitgestellt. Das erste Interview vom ORF mit dem Peter Steinberger war ein Fiasko.

Was mir im Interview etwas gefehlt hat, ist dass die „Intelligenz“ def Agenten nicht gratis ist. Fleissige Agenten können 100e bzw. 1000e Euros an KI-API Kosten pro Woche verursachen. Der youtube Theo zahlt beispielsweise pro Monat 10.000e $s. Wennst eben gute Modelle nimmst, damit die Agenten auch etwas können. Oder Du kaufst Dir einen vergleichsweise billigen Cluster aus 4x Ultra Mac Studios um das neueste GLM5 Open Source Modell - das 2 TB RAM und gute GPU braucht - um wohlfeile 50.000 €. Und die halten dann aber ca. 2 Jahre, brauchen insgesamt 600W (OK, weniger als ein Gamer-PC). Intelligenzleistung ist eben nicht gratis!

1 „Gefällt mir“

Dieses Interview habe ich zufällig auch gesehen - und war über weite Strecken “erschüttert” bis überrascht, wie wenig Herr Steinberger sich über die Folgen/Auswirkungen seines Ki-Agenten Gedanken gemacht hat - und ihn daher selbst einfache Fragen im Interview scheinbar zum ersten Mal dazu gebracht haben, vielleicht doch etwas weiter über seinen - offenbar bisher rein technischen Tellerrand hinaus - nachzudenken.
Er hat zweifelos sehr gute techische Kenntnisse und Fähigkeiten, seine Ideen auch realisieren zu können. Über diese Fähigkeiten verfügen aber andere Spezialisten - gerade auch bei den großen Herstellern von Ki-Systemen bzw. KI-Agenten - auch.

Er sagt selbst, dass er schon erwartet hätte, dass die großen Hersteller ähnliche Ideen , wie er sie hatte , haben könnten. Er ist aber scheinbar nicht auf die Idee gekommen, dass deren Zögern vielleicht andere Gründe - die Vorabklärung vielleicht rechtlicher Konsequenzen und Fragen der Haftung - als ausschließlich technische Probleme rund um die Realisierung solcher Ideen haben könnte.

Eigentlich ist das Steuern eines Computers und dessen Apps gar nicht so schwer. Auf dem Mac gibt es schon seit Ewigkeiten den „Automator“.

Mit diesem lassen sich Skripte verfassen, welche Aufgaben automatisieren lassen. Lese um 06:00 all meine Emails, lösche Werbemails, sortiere sie in verschiedene Order; bei Rechnungen prüfe, ob diese berechtigt sind, wenn ja, weise eine Zahlung an und lege diese in die Abzeichnungsmappe.

Früher mußte man coden. Heute läßt Du halt eine KI die Anweisung schreiben. Oder sagst „Siri“, was es tun soll.

Also wahrlich keine Hexerei.

Super war Peter zur Frage des Risikos und der Haftung: Wenn Du es nutzt, ist es Dein Problem! Davon brauchen wir mehr!!!

Zur verantwortlichen Übernahme des Risikos bzw. der allfälligen Haftung für verursachte Schäden gehört aber auch ausreichend tiefes Wissen über die verwendeten Technolgien und deren mögliche Folgen und vielleicht zu erwartenden Schäden.
Dieses Wissen kann selbst bei manchen Entwicklern aber nicht vorausgesetzt werden, da auch diese die Details (z.B. Sicherheitsprobleme/Schwachstellen) der von ihnen verwendeten virtuellen Maschinen zur Interpretation irgendeiner von ihnen verwendeten Scriptsprache vielleicht gar nicht kennen.
Soweit mir bekannt, wurden die Haftungsfrage in Zusammenhang mit der Verwendung von Ki-Systemen bereits EU-weit geregelt : Die Haftung trifft den Hersteller und den Betreiber (der ein Ki-System in “seiner” Umgebung in Betrieb genommen hat ) nicht aber den einfachen Benutzer - solange der sich an die Vorgaben des Betreibers - bzw des Herstellers - hält.

Genau das ist der Punkt. Mit solchen Fragen darf ich mich seit 40 Jahren auseinander setzten, denn wir haben uns in unserem Unternehmen durch die EU-Maschinensicherheitsrichtliche damit sehr intensiv auseinander gesetzt.

Für den ordnungsgemässen Verwendungszweck bin ich als Inverkehrbringer (Hersteller oder Importeur) dazu angehalten, alles technisch mögliche und wirtschaftliche vertretbare zu unternehmen, was dem Stand der Technik betrifft, um eine Gefährdung oder einen Schaden für Leib, Leben, Sachgegenstände oder Umwelt zu reduzieren. Dafür erstelle ich eine Risiko-Analyse, z.B. auf Basis der Methode FMEA.

Ich beschreibe dann, den normalen Anwendungsfall und weise zudem auf Restrisiken hin, wenn eine technische Maßnahme nicht möglich ist.

Beispiel Messer: Brot damit scheiden. Vorsicht, die Klinge ist scharf, du kannst dich daran verletzen, also sei vorsichtig.

Wenn du mir dem Produkt etwas anstellst, was davon abweicht, für den Inverkehrbringer sogar recht unwahrscheinlich ist, dass du das machen könntest, oder du nicht acht gibt, obwohl dir das Risiko bewusst sein sollte, sind die Auswirkungen schlussendlich drein problem. Entweder warst du dann zu dumm oder hast einfach Pech gehabt.

Wenn du also auf die Idee kommst, deine Katze in der Mikrowelle zu trocknen oder dir die Finger an einem Kochtopf auf der herdplatte verbrennst, ist das dein Problem.

Und gleiches gilt für den Einsatz der ki: jeder weiß, dass ein System wie chatGPT „Fehler machen“ oder „sich irren kann“. Das steht sogar direkt und gut lesbar auf dem Bildschirm. Du könntest dir des Risikos bewusst sein. Also ist es schlussendlich dein Problem, wenn du ein Ergebnis der KI verwendest und das nicht hinterfragst. Dafür ist dann nicht der Hersteller haftbar.

Und genau das hat Peter Steinberger im Interview auf die Frage von armin Wolf geantwortet, als dieser sich danach erkundigt hat, wer haften würde, wenn die ki bei der Reisebuchung einen Fehler machen würde. Der Anwender kann sich dieses Risikos bewusst sein - insbesondere, wenn man sich entschließt seit git-Hub-Hobby-Projekt zu nutzen -und es ist dann sein Problem, wenn er keinen Plausibilitätscheck gemacht hat.

Sein wir mal ehrlich: es geht uns doch mich Menschen genau so: wenn ich als Chef einen Mitarbeiter einen Arbeitsauftrag gebe und mich nicht vergewissere, ob der Mitarbeiter die notwendigen Fähigkeiten hat und keine Abnahme des Arbeitsergebnisse nach dem 4 Augen Prinzip veranlasse, ist es meine Verantwortung und mein Problem, wenn das Arbeitsergebnisse vom Kunden moniert wird, und nicht die des Mitarbeiters.

Es ist allerdings Aufgabe des Betreibers, es könnten dann auch gegen ihn Haftungansprüche geltend gemacht werden, wenn er selbst, bzw. die Managmentebene im Unternehmen, sowohl für die Entscheidung KI-Systeme einsetzen zu wollen, als auch für die Arbeitsbedingungen unter denen mit diesen KI-Systemen gearbeitet werden soll (z.B. nicht zu großer Zeitdruck, ausreichende Schulungs- bzw. Ausildungs-Maßnahmen, regelmößige Prüfung der Einhaltung der Vorgaben/Abläufe für die Anwendung von KI-Systemen, regelmößige Weiterbildung und Training im Umgang mit KI-Systemen, die Auswahl geeigneter Mitarbeiter und die möglichst störungsfreie Gestaltung der Arbeitsumgebung ) zuständig ist, aber den zahlreichen Aufgaben in diesem Zuständigkeitsbereich nicht im erforderlichem Umfang nachkommen kann .
Schließlich trägt in jedem Unternehmen der Geschäftsführer die Letztverantwortung für alle Bereiche seines Unternehmens, auch dann, wenn er einzelne Aufgaben an Mitarbeiter delegieren kann.
Wenn ein Mitarbeiter eines Unternehmes “zu dumm” gewesen sein sollte oder “einfach Pech gehabt” haben sollte, dann haften jedenfalls die Unternehmensverantwortlichen für die Auswirkungen solchen “Pechs”.
Im Privatbereich haften dann die Dienstleister, die zur Erbringen dieser Dienste KI einsetzen bzw die Hersteller dann, wenn der Private ein KI-System zwar entsprechend den Vorgaben der Hersteller angewendet und benützt hat , aber trotz sachgemäßer Verwendung Schaden eingetreten ist.

All das hier oben ist lediglich meine private Meinung als Laie, ohne jegliche rechtskundige Ausbildung, um irgendwelche Missverständnisse gleich gar nicht erst entstehen zu lassen.

Nein, das weiß sicher nicht “jeder”, weil sich nur wenige für solche Fehler interessieren und daher auch überhaupt keine Ahnung haben, welche Bedeutung/Auswirkungen “fehler” von KI-Systemen haben könnten.
Zudem geben sich KI-Systeme immer öfter nicht als KI-Systeme zu erkennen und kann KI auch dann “drinnen sein” wenn außen kein Pickerl mit dem Warnhinweis “Achtung ! Kann KI enthalten.” angebracht ist. Obwohl das derzeit vielleicht aus Gründen des Marketings noch “andersherum” gehandhabt werden dürfte und nicht alles was als “KI“ bezeichnet wird, tatsächlich auch ein KI-System - bzw. ein mittels KI erhaltenes Ergebnis - sein dürfte.