KI als Tarnkappe
KI im Duell mit KI – Microsoft warnt vor neuer Phishing-Welle
Ein Wettrüsten zwischen Angreifern und Verteidigern
Von Dr. Martin Krämer, Security Awareness Advocate bei KnowBe4
Eine neuartige Phishing-Kampagne, bei der Angreifer Künstliche Intelligenz nutzen, um Schadcode zu verschleiern und Sicherheitsfilter zu umgehen, ist auf dem Vormarsch. Der Bericht von Microsoft zeigt, wie Cyberkriminelle inzwischen dieselben Technologien einsetzen wie Verteidiger – nur mit umgekehrter Zielsetzung.
Die Angriffe gingen von einem kompromittierten E-Mail-Konto eines kleinen Unternehmens aus. Darüber verschickten die Täter täuschend echt gestaltete Nachrichten, die angeblich von einem Filesharing-Dienst stammten. Der enthaltene Anhang – eine vermeintliche Dokumentdatei – leitete Empfänger jedoch auf eine gefälschte Webseite weiter, die zur Abfrage von Anmeldedaten diente. Besonders trickreich: Die Angreifer setzten eine sogenannte "self-addressed"-Taktik ein, bei der Absender und Empfängeradresse identisch waren, während die tatsächlichen Ziele im BCC-Feld versteckt blieben. Dadurch sollten einfache Erkennungsmechanismen ausgehebelt werden.
Das Besondere an dieser Kampagne war laut Microsoft die Art der Verschleierung: Der Schadcode war in einer SVG-Datei verborgen, die mithilfe von KI erstellt oder verändert worden sein dürfte. Die Analyse ergab, dass der Code eine "synthetische Struktur" aufwies – also ungewöhnlich umfangreich, kompliziert und inhaltlich sinnlos war, mit Begriffen aus der Geschäftswelt, die nur den Zweck hatten, legitim zu wirken.
Microsofts Sicherheitsforscher nutzten den eigenen "Security Copilot", um die Datei zu untersuchen. Das Ergebnis: Der Code sei "nichts, was ein Mensch typischerweise von Grund auf schreiben würde" – zu komplex, zu ausschweifend, ohne praktischen Nutzen. Damit zeigt sich, dass große Sprachmodelle (LLMs) wie ChatGPT nicht nur zur Textproduktion, sondern auch zur Tarnung von Schadsoftware missbraucht werden können.
Microsoft ordnet den Vorfall als Teil einer größeren Entwicklung ein: Sowohl Sicherheitsforscher als auch Cyberkriminelle nutzen KI zunehmend für ihre Zwecke. Während Unternehmen maschinelles Lernen einsetzen, um Bedrohungen schneller zu erkennen und zu bekämpfen, experimentieren Angreifer mit denselben Werkzeugen – um glaubwürdigere Köder zu erstellen, Schadcode automatisch zu verschleiern und legitime Inhalte zu imitieren. Die entdeckte Kampagne steht exemplarisch für eine neue Ära der Cyberkriminalität: KI erhöht die Effektivität, Reichweite und Tarnung solcher Angriffe erheblich.
Wie sich Unternehmen vorbereiten können
Der Fall macht deutlich, dass Künstliche Intelligenz längst zu einem zentralen Faktor der Cybersicherheit geworden ist – auf beiden Seiten. Während Angreifer KI nutzen, um ihre Täuschungen zu perfektionieren, hilft sie Verteidigern, komplexe Bedrohungen schneller zu erkennen und zu stoppen. Umso wichtiger ist es, technische Schutzsysteme kontinuierlich zu modernisieren und zugleich die Wachsamkeit der Mitarbeitenden zu fördern. Nur die Verbindung aus moderner Technologie und geschulter Aufmerksamkeit bietet langfristig wirksamen Schutz vor KI-gestützten Angriffen. (KnowBe4: ra)
eingetragen: 04.11.25
KnowBe4: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.