Justizministerium (DE) will KI haftbar machen

Fehlerhafte Software und kĂŒnstliche Intelligenz könnten massive SchĂ€den erzeugen. Darum will das deutsche Justizministerium die Regeln der Produkthaftung ausweiten.

1 „GefĂ€llt mir“

Softwarefehler fallen schon lange unter die Produkthaftung. Ebenso wie die Pflicht zur RisikofolgenabschĂ€tzung. Daher vermute ich, dass im Gesetz nun eher eine explizite Formulierung eingefĂŒgt werden soll, die auch KI erwĂ€hnen wird.

„KĂŒnftig sollen diese Regeln generell auch fĂŒr SchĂ€den gelten, die durch fehlerhafte Software verursacht wurden, einschließlich KI-Software.“

FĂŒr eingetretene SchĂ€den ist es aber irrelevant, ob diese SchĂ€den

  1. durch fehlerhafte Hardware,
  2. durch fehlerhafte Software,
  3. durch fehlerhafte Eingangsdaten (die durch Software verarbeitet werden sollen),
  4. durch fehlerhafte (nicht vom Hersteller vorgesehene/zugelassene) Anwendung von Software oder
  5. die Fehlinterpretation der von Software gelieferten Ergebnisse

zustande gekommen sind.

zu 2. :

Im Falle von nichtreproduzierbarer (nur unter bestimmten “UmstĂ€nden”) aufretenden Fehlern ist die UnterstĂŒtzung durch die beteiligten Softwarehersteller und/oder Hardwarehersteller jedenfalls erforderlich. Aber welcher Hersteller wird schon ohne “zwingenden Grund” zugeben, dass seine Software den Schaden verursacht hat ?

zu 4. :
Manche Hersteller von KI-Systemen schließen fast alle heute kontrovers diskutuierten Anwendunszenarien ihrer KI-Systeme explizit aus :
In den neuen ServicevertrĂ€gen von Microsoft dĂŒrfen alle Ergebnisse ihrer KI-Syteme nur als VorschlĂ€ge verstanden werden, die stets erst von einer sachkundigen menschlichen Fachkraft hinsichtlich ihrer Richtigleit und Anwendbarkeit ĂŒberprĂŒft bzw. vor Verwendung sorgfĂ€ltig ausgewĂ€hlt werden mĂŒssen. Es dĂŒrfen somit keine KI-Systeme von Microsoft in vollautomatisierten Prozessen oder in vollautonom mittels KI-Systemen gesteuerten Fahrzeugen oder Maschinen eingesetzt werden.

zu 5.
Viele (die meisten ? ) Hersteller verstehen die Ergebnisse ihrer KI-Systeme nur als VorschlĂ€ge mit einer bestimmten Wahrscheinlichkeit fĂŒr ihre Richtigkeit bzw. Verwendbarkeit.
Die Annahme von Anwendern, dass diese Ergebnisse zu hundert Prozent richtig wĂ€ren und diese Ergebnisse daher ohne PrĂŒfung durch sachkundige menschliche FachkrĂ€fte sofort weiterverwendet werden könnte, ist daher eine Missinterpretation der Ergebnisse aus KI-Systemen.

SchĂ€den durch fehlerhafte Software ist nur einen von fĂŒnf hier oben aufgezĂ€hlten Möglichkeiten fĂŒr FolgeschĂ€den und vermutlich nur schwer bis gar nicht ohne Mitwirkung des Softwareherstellers nachweisbar.

Es sind daher keinerlei Änderungen im Falle von Schadenersatzklagen gegen Software- Hersteller zu erwarten.
Bei KI-Anwendungen werden aber FĂ€lle von nicht zugelassenen Einsatzbereichen und nicht korrekt interpretierten (bzw. geprĂŒften) Ergebnissen aus KI-Systemen zunehmen.
Beide Schadensursachen können aber nicht als “Softwarefehler” den KI-Herstellern angelastet werden.

1 „GefĂ€llt mir“