Unternehmen verstärken Sicherheitsmaßnahmen für generative KI-Apps

Eine aktuelle Studie von Netskope Threat Labs zeigt, dass generative KI-Apps ein erhebliches Risiko für Datenschutzverletzungen darstellen. Über ein Drittel der sensiblen Daten, die in diesen Anwendungen verarbeitet werden, sind regulierte Informationen, die gesetzlich geschützt werden müssen. Dies führt zu einer erhöhten Besorgnis bei Unternehmen hinsichtlich potenzieller Datenschutzverletzungen.

Die Studie ergab, dass 75 % der befragten Unternehmen mindestens eine generative KI-Anwendung (GenAI) blockieren, um das Risiko der Verbreitung sensibler Daten zu minimieren. Dennoch setzen weniger als die Hälfte dieser Unternehmen datenbezogene Kontrollen ein, um die Weitergabe von sensiblen Informationen zu verhindern. Dies deutet darauf hin, dass viele Unternehmen bei der Implementierung fortschrittlicher Data-Loss-Prevention (DLP)-Lösungen, die für die sichere Nutzung von GenAI erforderlich sind, hinterherhinken.

Die Untersuchung zeigt, dass 96 % der Unternehmen mittlerweile GenAI nutzen, was eine Verdreifachung der Zahl in den letzten zwölf Monaten darstellt. Im Durchschnitt verwenden Unternehmen jetzt fast zehn GenAI-Apps, im Vergleich zu drei im vergangenen Jahr. Besonders auffällig ist, dass die Top 1 % der GenAI-Nutzer nun durchschnittlich 80 Apps einsetzen, was einen erheblichen Anstieg gegenüber zuvor 14 darstellt. Mit der zunehmenden Nutzung dieser Anwendungen haben Unternehmen einen Anstieg bei der Freigabe von firmeneigenem Quellcode innerhalb von GenAI-Apps erlebt, der 46 % aller dokumentierten Verstöße gegen die Datenrichtlinie ausmacht.

Positiv zu vermerken ist, dass 65 % der Unternehmen mittlerweile Echtzeit-Coaching für Nutzer implementieren, um deren Interaktionen mit GenAI-Apps zu steuern. Dies ist ein wichtiger Schritt zur Risikominderung, da 57 % der Nutzer ihr Verhalten nach dem Erhalt von Warnungen ändern, was die Effektivität dieser Maßnahmen unterstreicht.

Die Sicherung von GenAI erfordert jedoch weitere Investitionen und größere Aufmerksamkeit, da die Nutzung dieser Tools in Unternehmen weiter zunimmt und keine Anzeichen für eine Verlangsamung erkennbar sind. Unternehmen müssen sich darüber im Klaren sein, dass GenAI-Outputs ungewollt sensible Informationen preisgeben, Fehlinformationen verbreiten oder sogar bösartige Inhalte einschleusen können. Dies macht einen starken Risikomanagement-Ansatz erforderlich, um Daten, Ruf und Geschäftskontinuität zu schützen.

Der Netskope Cloud- und Threat Report „AI Apps in the Enterprise“ liefert zusätzliche Einblicke:

  • ChatGPT bleibt die beliebteste App und wird von mehr als 80 % der Unternehmen genutzt.

  • Microsoft Copilot verzeichnete seit seiner Einführung im Januar 2024 mit 57 % den stärksten Anstieg der Nutzung.

  • 19 % der Unternehmen haben ein generelles Verbot von GitHub CoPilot verhängt.

Um Risiken durch GenAI zu bewältigen, empfiehlt Netskope Unternehmen, ihre Risiko-Frameworks zu überprüfen und speziell auf AI oder GenAI zuzuschneiden. Hierbei kann das NIST AI Risk Management Framework eine hilfreiche Grundlage bieten.

Taktische Schritte zur Bewältigung von Risiken durch GenAI:

  1. Aktuellen Stand bewerten: Analysieren Sie die aktuelle Nutzung von KI und maschinellem Lernen, Datenpipelines und GenAI-Anwendungen in Ihrem Unternehmen, um Schwachstellen und Sicherheitslücken zu identifizieren.

  2. Kernkontrollen implementieren: Etablieren Sie grundlegende Sicherheitsmaßnahmen wie Zugriffskontrollen, Authentifizierungsmechanismen und Verschlüsselungen.

  3. Erweiterte Kontrollmaßnahmen planen: Entwickeln Sie eine Roadmap für erweiterte Sicherheitskontrollen, einschließlich Bedrohungsmodellierung, Anomalieerkennung und kontinuierlicher Überwachung, um verdächtige Datenbewegungen in Cloud-Umgebungen und GenAI-Apps zu identifizieren.

  4. Regelmäßige Überprüfung und Anpassung: Evaluieren Sie regelmäßig die Wirksamkeit Ihrer Sicherheitsmaßnahmen und passen Sie diese basierend auf praktischen Erfahrungen und neuen Bedrohungen an.

Diese Schritte sind entscheidend, um die Risiken bei der Nutzung von Generativen KI-Apps effektiv zu managen und die Sicherheit in Unternehmen zu gewährleisten.

Zurück
Zurück

DeepL präsentiert verbessertes KI-Modell für Übersetzungen

Weiter
Weiter

KI im Studium: Chancen und Grenzen im Überblick