Sicherheit in die Entwicklung integrieren


KI-generierter Code: Armis Labs deckt versteckte Sicherheitsrisiken auf
Zentrale Erkenntnis: KI-gestützte Code-Assistenten sind nur so verlässlich wie ihre Trainingsdaten und ihr Design


Michael Freeman, Head of Threat Intelligence bei Armis

Der zunehmende Einsatz von KI-gestützten Tools in der Softwareentwicklung verspricht schnelleres Programmieren, weniger Routineaufgaben und eine gesteigerte Produktivität. Eine aktuelle Analyse von Armis Labs zeigt jedoch, welche Sicherheitsrisiken entstehen, wenn sich Entwickler zu stark auf KI-generierten Code verlassen – insbesondere dann, wenn manuelle Prüfungen entfallen und automatisierte Vorschläge ungeprüft übernommen werden.

Ein interessantes Beispiel aus dem jüngsten Bericht ist DeepSeek Coder, ein KI-basierter Codeassistent, der Entwicklungsprozesse beschleunigen soll. In einem simulierten Szenario nutzte ein Entwicklerteam DeepSeek, um Code und externe Bibliotheken automatisch auszuwählen – mit Fokus auf Geschwindigkeit statt Sorgfalt. Das Ergebnis: schwerwiegende Sicherheitslücken. Die KI empfahl Drittanbieter-Bibliotheken mit bekannten, ausnutzbaren Schwachstellen und erzeugte Quellcode mit zahlreichen gängigen Sicherheitsfehlern. Insgesamt wies die resultierende Anwendung 18 verschiedene Probleme aus der CWE-Top-25-Liste der kritischsten Software-Schwachstellen auf.

Dazu gehörten veraltete PDF- und Logging-Bibliotheken mit Anfälligkeit für die Ausführung beliebigen Codes (CWE-94), unsichere Deserialisierung (CWE-502) und fehlerhafte kryptografische Implementierungen (CWE-321). Noch besorgniserregender waren Schwachstellen direkt im generierten Code, darunter Cross-Site-Scripting (CWE-79), SQL-Injection (CWE-89), Buffer Overflows (CWE-119) sowie unzureichende Authentifizierung und Zugriffskontrolle (CWE-287, CWE-306). All diese Sicherheitsprobleme sind bekannt und potenziell gravierend – doch die KI erkannte oder verhinderte sie nicht.

Zentrale Erkenntnis: KI-gestützte Code-Assistenten sind nur so verlässlich wie ihre Trainingsdaten und ihr Design. Sie können unbewusst unsichere Bibliotheken empfehlen oder schlechte Programmierpraktiken aus öffentlich zugänglichem Code übernehmen. Ohne manuelle Prüfungen oder automatisierte Sicherheitsscans verbreiten sich diese Schwachstellen schnell über ganze Projekte – und erhöhen das Risiko, statt es zu senken.

Die Forscher empfehlen daher, Sicherheitsprüfungen fest in den Entwicklungsprozess zu integrieren. Dazu zählen verpflichtende Code-Reviews, insbesondere für KI-generierte Vorschläge, sowie automatisierte Scans, um riskante Abhängigkeiten oder unsichere Muster zu erkennen. Entwickler sollten zudem geschult werden, KI-Ergebnisse kritisch zu hinterfragen, statt sie als automatisch korrekt anzusehen. Ebenso sollten KI-Tools ausschließlich auf sicheren, aktuellen Quellen basieren, um bekannte Fehler nicht zu reproduzieren.

Wie KI die Sicherheitsrisiken in der Software-Lieferkette verschärft
Für Softwareteams in Deutschland – vor allem in kritischen Sektoren wie Industrie, Gesundheitswesen oder Finanzwesen – sind diese Erkenntnisse besonders relevant. Mit der zunehmenden Verbreitung von KI steigt auch das Risiko, unsichtbare Schwachstellen in kritische Infrastrukturen einzuschleusen. Der Komfort KI-generierten Codes darf nicht auf Kosten grundlegender Sicherheitsstandards gehen.

Künstliche Intelligenz wird zweifellos zu den prägenden Kräften der künftigen Softwareentwicklung gehören. Die Ergebnisse des Berichts machen jedoch deutlich: Produktivitätsgewinne erfordern zugleich erhöhte Wachsamkeit. Automatisierung allein ersetzt keine Sicherheitsstrategie – und ohne belastbare Schutzmechanismen können Werkzeuge, die Entwicklern die Arbeit erleichtern, ebenso schnell zu einem erheblichen Risiko werden. (Armis: ra)

eingetragen: 28.08.25

Armis: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Security-Tipps und Background-Wissen

  • Cloud- & Container-Umgebungen absichern

    Container und Kubernetes haben die Entwicklung und Bereitstellung moderner Anwendungen grundlegend verändert. Ihre Vorteile liegen auf der Hand: Skalierbarkeit, Flexibilität und Geschwindigkeit. Doch diese Vorteile bringen auch neue Risiken mit sich. Mit der steigenden Zahl von Containern wächst auch die Angriffsfläche - und damit wiederum die Anforderungen an Sicherheitskonzepte, die über klassische Ansätze hinausgehen müssen.

  • Mit CREM-Verfahren tatsächliche Risiko einschätzen

    Gerade müssen Unternehmen entscheiden, ob sie auf Windows 11 updaten, da der Support für Windows 10 ausläuft. Anlass genug, um über notwendige Möglichkeiten zu sprechen, wenn Systeme aus unterschiedlichen Gründen nicht aktualisiert werden können.

  • Koordinierte Mobilisierung pro-russischer Akteure

    Die Google Threat Intelligence Group (GTIG) hat eine schnelle und koordinierte Mobilisierung pro-russischer Akteure, die Informationsoperationen (IO) durchführen, unmittelbar nach dem gemeldeten russischen Drohneneinflug in den polnischen Luftraum am 9./10. September 2025 beobachtet. Die Recherche zeigt, wie etablierte pro-russische Einflussnetzwerke flexibel genutzt wurden, um schnell eine Reihe abgestimmter Narrative zu verbreiten, die Russlands strategischen Zielen dienen sollten.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen