Beim Byzantinischen Fehler (engl. Byzantine Fault) geht es ursprünglich um ein Problem aus der Informatik und Systemtheorie: Wie kann eine Gruppe von Rechnern, die teilweise fehlerhaft oder sogar böswillig agieren, dennoch zu einer gemeinsamen, verlässlichen Entscheidung kommen?
Das Bild stammt aus einem Gedankenexperiment, den sogenannten Byzantinischen Generälen. Mehrere Generäle belagern eine Stadt. Sie müssen sich auf einen gemeinsamen Plan – Angriff oder Rückzug – einigen. Einige von ihnen könnten jedoch Verräter sein und falsche Informationen verbreiten. Das Ziel ist, trotz dieser Störquellen einen Konsens zu finden, der der Wahrheit oder der richtigen Entscheidung möglichst nahekommt.
Dieses Prinzip ist uns im Alltag nicht fremd. Wenn mehrere Zeugen dasselbe berichten, halten wir die übereinstimmende Aussage der Mehrheit für die wahrscheinlich zutreffende.
Auch im Journalismus gilt die Regel, Informationen erst dann als bestätigt anzusehen, wenn sie aus mindestens drei voneinander unabhängigen Quellen stammen.
Ein ähnliches Konzept findet sich in der Blockchain-Technologie. Dort müssen zahlreiche Knotenpunkte (Nodes) im Netzwerk denselben Datensatz bestätigen, bevor er als gültig anerkannt wird. Das schützt das System vor Manipulation und sorgt dafür, dass einzelne fehlerhafte oder böswillige Akteure keine falschen Informationen in die Kette einschleusen können.
Überträgt man dieses Prinzip auf den Einsatz von KI-Systemen, ergibt sich eine interessante Idee:
Man könnte dieselbe Frage an verschiedene KI-Modelle richten – etwa ChatGPT, Mistral, DeepSeek oder Claude – und zusätzlich dieselbe Frage in leicht veränderter Form wiederholen. Anschließend ließe sich analysieren, wo sich die Antworten überschneiden. Diese Schnittmenge könnte als die wahrscheinlich zutreffendste Information interpretiert werden.
Das Verfahren ließe sich weiter verfeinern, indem man die Antworten nach Vertrauenswürdigkeit gewichtet. Nicht jedes Modell hat denselben Trainingsstand, dieselbe Datenbasis oder dieselbe methodische Qualität. So wie ein erfahrener Ermittler vor Gericht mehr Gewicht hat als ein Kind, könnte man auch hier Wahrscheinlichkeiten und Reputationsfaktoren berücksichtigen.
Allerdings bleibt Vorsicht geboten. Das Mehrheitsprinzip schützt nicht vor kollektiven Irrtümern. Geschichte und Wissenschaft zeigen, dass die Wahrheit nicht immer in der Mitte liegt. Viele bahnbrechende Erkenntnisse – von Galileo bis Einstein – entstanden im Widerspruch zum damaligen Konsens.
Ein System, das sich ausschließlich an Übereinstimmung orientiert, kann also stabil, aber nicht unbedingt wahrheitsfähig sein.
Trotzdem: Ein Ansatz, der die Idee des Byzantinischen Fehlers auf KI-Kommunikation überträgt, könnte helfen, die Robustheit und Zuverlässigkeit von Antworten deutlich zu erhöhen – vor allem dort, wo es nicht um absolute Wahrheit, sondern um Wahrscheinlichkeiten, Evidenz und Plausibilität geht.