Generative KI: CISOs droht eine neue Schatten-IT : Sicherheitsrisiken durch generative KI im Unternehmen frühzeitig erkennen und kontrollieren
Die Nutzung generativer KI boomt – und damit wächst auch die Zahl der Tools, die Mitarbeitende ohne offizielle Freigabe im Arbeitsalltag einsetzen. Was als Innovationsmotor gilt, birgt erhebliche Sicherheits- und Compliance-Risiken. Neue Zahlen von Cloudflare liefern Einblicke in das Ausmaß dieser Entwicklung.
Cloudflare hat für den Zeitraum Januar 2024 bis Januar 2025 die Zugriffszahlen auf KI-Dienste weltweit analysiert. Die Daten basieren auf DNS-Anfragen, Traffic-Mustern und Sicherheitsprotokollen, die der Anbieter über seine globale Infrastruktur erfasst. Der zentrale Befund: Der Traffic zu generativen KI-Webseiten ist im Vergleich zum Vorjahr um 251 Prozent gestiegen. Das betrifft nicht nur die bekannten Plattformen wie ChatGPT, sondern auch eine Vielzahl neuer Dienste, etwa für das Schreiben, Programmieren, Musizieren oder Generieren von Bildern.
„Diese rapide Zunahme zeigt, dass generative KI längst in den Arbeitsalltag von Millionen Nutzerinnen und Nutzern vorgedrungen ist“, heißt es im aktuellen Blogbeitrag von Cloudflare.
ChatGPT bleibt dominant – aber die Konkurrenz wächst
Laut Cloudflare bleibt ChatGPT von OpenAI weiterhin die mit Abstand am häufigsten genutzte Plattform. Sie zählt mittlerweile zu den 50 meistbesuchten Domains weltweit. Doch es gibt Bewegung im Markt: Neue Anbieter wie DeepSeek aus China oder Grok von xAI (dem KI-Unternehmen von Elon Musk) gewinnen schnell an Popularität. Auch spezialisierte Tools wie Codierungsassistenten, Textoptimierer oder Musikgeneratoren legen zu.
Für CISOs bedeutet das eine zunehmende Fragmentierung der Tool-Landschaft – bei gleichzeitig abnehmender Kontrolle. Viele dieser Dienste werden über das Internet angesteuert, erfordern keine Installation und lassen sich in wenigen Sekunden nutzen. Die Folge: Klassische Mechanismen zur Schatten-IT-Erkennung greifen häufig zu kurz.
Chancen und Risiken im Gleichgewicht betrachten
Neben den Herausforderungen eröffnen generative KI-Tools auch erhebliche Potenziale für Unternehmen – etwa in Form von Produktivitätssteigerungen, Automatisierung repetitiver Aufgaben oder kreativer Unterstützung in der Content-Erstellung. Studien von Gartner und dem Digitalverband Bitkom zeigen, dass viele Organisationen bereits gezielt in KI-Projekte investieren, um Wettbewerbsvorteile zu erzielen. Umso wichtiger ist ein sicherer und verantwortungsvoller Umgang mit diesen Technologien.
Risiken für Sicherheit und Compliance
Mit dem Siegeszug generativer KI wächst jedoch auch das Risiko für Unternehmen. Mitarbeitende könnten sensible Informationen in externe Tools eingeben, ohne zu wissen, wie diese Daten verarbeitet oder gespeichert werden. Besonders problematisch: Viele neue Anbieter haben unklare Datenschutzrichtlinien oder stammen aus Ländern mit geringeren regulatorischen Standards.
Cloudflare verweist zudem auf eine wachsende Bedrohungslage: Generative KI-Webseiten seien zunehmend Ziel von Cyberangriffen. Im Analysezeitraum blockierte der Anbieter 197 Milliarden potenziell schädliche Anfragen, darunter 39 Milliarden Angriffe im Rahmen von DDoS-Kampagnen. Betroffen waren insbesondere Chatbots und Bildgeneratoren.
Handlungsempfehlung: Sichtbarkeit schaffen
Die Analyse zeigt: Die Nutzung generativer KI ist keine Ausnahme mehr – sie ist Realität. Unternehmen stehen daher vor der Aufgabe, Transparenz zu schaffen. Wer nutzt welche Tools? Welche Daten fließen wohin? Welche Plattformen sind aus regulatorischer Sicht unbedenklich?
Ein generelles Verbot solcher Anwendungen gilt unter Sicherheitsexperten und Branchenanalysten als kaum praktikabel. Stattdessen empfehlen Fachleute Richtlinien, Risikobewertungen und technische Schutzmaßnahmen, etwa durch Cloud Access Security Broker (CASB) oder Zero-Trust-Ansätze. Nur so lässt sich verhindern, dass generative KI zur neuen Schatten-IT wird – mit allen bekannten Folgen für Sicherheit, Datenschutz und Governance.