Rolle von KI bei Sicherheitsoperationen
Studie: Fast die Hälfte der Unternehmen schließt Teams für Cyber-Sicherheit von Entwicklung, Schulung und Implementierung von KI-Lösungen aus
Automatisierung von Gefahrenerkennung und -reaktion sowie Endgerätesicherheit sind die beliebtesten KI-Anwendungen im Sicherheitsbereich
Nur 35 Prozent der Experten oder Teams für Cyber-Sicherheit sind an der Entwicklung von Richtlinien für den Einsatz von KI-Technologie in ihrem Unternehmen beteiligt. Fast die Hälfte (45 Prozent) gibt an, nicht bei der Entwicklung, Einführung oder Implementierung von KI-Lösungen mitzuwirken. Dies geht aus dem jüngst veröffentlichten Bericht "State of Cybersecurity 2024" von Isaca hervor, globaler Berufsverband zur Förderung des Vertrauens in die Technologie.
Bei der Beantwortung neuer Fragen im Rahmen der jährlich durchgeführten und von Adobe unterstützten Studie wurde das Feedback von mehr als 1.800 Cybersicherheitsexperten zu Themen im Zusammenhang mit Cyber-Sicherheitspersonal und der Bedrohungslandschaft erfasst. Die befragten Sicherheits-Teams gaben an, dass sie KI hauptsächlich für folgende Zwecke einsetzen:
>> Automatisierte Gefahrenerkennung/-reaktion (28 Prozent)
>> Endgerätesicherheit (27 Prozent)
>> Automatisierung routinemäßiger Sicherheitsaufgaben (24 Prozent)
>> Betrugserkennung (13 Prozent)
"Angesichts des Personalmangels im Bereich der Cyber-Sicherheit und der zunehmenden Belastung der Fachkräfte durch eine komplexe Gefahrenlandschaft lohnt es sich, das Potenzial von KI zur Automatisierung und Rationalisierung bestimmter Aufgaben sowie zur Verringerung der Arbeitsbelastung auszuloten", so Jon Brandt, Isaca Director, Professional Practices and Innovation. "Verantwortliche für Cyber-Sicherheit dürfen sich jedoch nicht nur auf die Rolle von KI bei Sicherheitsoperationen konzentrieren. Es ist unerlässlich, dass die Sicherheitsfunktion in die Entwicklung, das Onboarding und die Implementierung jeder KI-Lösung in ihrem Unternehmen einbezogen wird – auch bei bestehenden Produkten, die später mit KI-Funktionen ausgestattet werden."
Die neuesten KI-Entwicklungen erkunden
Zusätzlich zu den Ergebnissen des Berichts "State of Cybersecurity 2024" zum Thema KI hat Isaca Ressourcen zum Thema KI entwickelt, um Fachleute für Cyber-Sicherheit und andere Experten im Bereich Digital Trust beim Umgang mit dieser transformativen Technologie zu unterstützen:
>> White Paper zum KI-Gesetz der EU: Unternehmen müssen den Zeitplan und die Maßnahmen im Zusammenhang mit dem KI-Gesetz der EU kennen, das Anforderungen an bestimmte in der Europäischen Union eingesetzte KI-Systeme festlegt und bestimmte Verwendungen von KI verbietet – die meisten davon ab dem 2. August 2026. Das neue Isaca White Paper Understanding the EU AI Act: Requirements and Next Steps empfiehlt einige wichtige Schritte, darunter die Einführung von Audits und Rückverfolgbarkeit, die Anpassung bestehender Cyber-Sicherheits- und Datenschutzrichtlinien und -programme. Ebenso angeraten wird die Ernennung eines KI-Beauftragten, der für die Überwachung der eingesetzten KI-Tools und des breiteren KI-Ansatzes des Unternehmens verantwortlich ist.
>> Authentifizierung in der Deepfake-Ära: Experten für Cyber-Sicherheit sollten sich sowohl der Vorteile als auch der Risiken von KI-gesteuerter adaptiver Authentifizierung bewusst sein, so das neue Isaca White Paper Examining Authentication in the Deepfake Era. Während KI die Sicherheit erhöhen kann, indem sie in adaptiven Authentifizierungssystemen eingesetzt wird, die sich an das Verhalten jedes Benutzers anpassen und Angreifern den Zugriff erschweren, können KI-Systeme auch durch feindliche Angriffe manipuliert werden. Zudem sind sie anfällig für Verzerrungen in KI-Algorithmen und können ethische und datenschutzrechtliche Bedenken aufwerfen. Andere Entwicklungen, einschließlich der Forschung zur Integration von KI mit Quantencomputern, die sich auf die Authentifizierung im Bereich der Cybersicherheit auswirken könnten, sollten laut dem White Paper beobachtet werden.
>> Überlegungen zur KI-Richtlinie: Organisationen, die eine Richtlinie für generative KI einführen, können sich gemäß den Considerations for Implementing a Generative Artificial Intelligence Policy berlegungen der Isaca eine Reihe wichtiger Fragen stellen, um sicherzustellen, dass sie alle wichtigen Aspekte abdecken. Dazu gehören: "Wer ist vom Geltungsbereich der Richtlinie betroffen?", "Wie verhält man sich richtig und was sind akzeptable Nutzungsbedingungen?" und "Wie stellt Ihre Organisation sicher, dass die rechtlichen und Compliance-Anforderungen erfüllt werden?" (Isaca: ra)
eingetragen: 10.12.24
Newsletterlauf: 13.02.25
Isaca: Kontakt und Steckbrief
Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Ihr PMK-Verlags-Newsletter hier >>>>>>