Der Job der EU-Agentur ENISA ist es, Behörden zu helfen, sich besser vor Gefahren aus dem Netz zu schützen. Doch in ihrem Jahresbericht verlässt sich die Agentur offenbar auf KI.
Künstliche Intelligenz ist ein Problem, ein großes sogar. So jedenfalls warnte die europäische Behörde für Cybersicherheit, kurz ENISA, im Oktober in ihrem „Gefahren-Lagebericht“. KI, so war in dem 87-seitigen Report zu lesen, würde in knapp 80 Prozent aller Fälle Hackern helfen, Menschen etwa ihre Passwörter zu entlocken. Die Angriffe werden durch KI besser, so die Warnung. KI, so die Botschaft, kann gefährlich sein.
IT-Sicherheitsforscher vom Institut für Internet-Sicherheit an der Westfälischen Hochschule haben festgestellt, dass der ENISA-Bericht vom Oktober und ein weiterer Report, der im November erschienen ist, mithilfe von KI geschrieben wurden.
Dass KI im Spiel war, sei an den Fußnoten zu sehen, in denen die Aussagen aus dem Haupttext belegt werden. Denn von den insgesamt 492 Links führen knapp 26 zur Fehlermeldung 404: Die Seiten hat es in dieser Form nie gegeben.
Er sei stutzig geworden, weil manche Textpassagen für ihn unschlüssig klangen: "Also wollten wir die Primärquelle prüfen und das ist bei diesem ENISA-Bericht fehlgeschlagen”.
Dennoch findet Linus Neumann vom Chaos Computer Club den Vorgang „blamabel“: „Die ENISA soll die zentrale Anlaufstelle für unabhängige Expertise, Richtlinien und Standards in Europa sein. Wenn dann schon in den sehr oberflächlichen Bedrohungsberichten derart unsauber gearbeitet wird, wirft das ein sehr schlechtes Licht auf die Institution“.