Laut CERT hat sich die Lage bei der Schwachstellensuche durch KI-Modelle in den letzten Monaten rasant geändert. „Large Language Models (LLM, Anm.) für die Suche nach Sicherheitslücken sind nichts Neues, die Qualität war aber bisher durchwachsen. Im Jahr 2026 haben wir nun den Punkt erreicht, an dem die Funde wirklich gut werden – und das auch ohne erhebliche manuelle Nacharbeit“, so CERT-Experte Otmar Lendl.
Es ist wie bei den White-Hackern und Whilstle-Blowern: wenn diese Leute in der Lage sind, Schwachstellen herauszufinden und bekannt zu machen, werden diese verteufelt.
Anstatt sich zu freuen, dass es ein Tool gibt, mit dem man schneller seine eigenen Schwachstellen auffinden und beheben kann (wobei es ja nicht nur um Angriffsvektoren geht, sondern auch Fehler, die die Funktion und Zuverlässigkeit des Produktes beeinträchtigen können), will man lieber den Mantel des Schweigens und der Unwissenheit ausbreiten und solche Tools verbieten, um die bösen Buben nicht auch den Plan zu rufen.
Als ob diese Kriminellen nicht selbst an Tools arbeiten würde, schneller Angriffsvektoren zu finden.
Da müssen nun halt einige Unternehmen sich ordentlich nach der Decke strecken und ihre Tools selbst erneut überprüfen, nicht nass zu werden. Prävention.
Ja. Es ist eigentlich unverantwortlich von jeder Software-Firma, nicht schon längst einen KI-Agenten dauerhaft laufen zu haben, der den eigenen Sourcecode nach Schwachstellen durchsucht.
Natürlich. Aber es ist heutzutage kein Problem mehr, ein entsprechend großes LLM lokal laufen zu lassen. OK, aktuell wird es vielleicht etwas teurer, weil die Hardwarepreise in die Höhe schnellen. Aber so etwas hat ja Zeit.