Microsoft KI-Forscher geben versehentlich 38 Terabyte vertraulicher Daten preis
Microsoft hat versprochen Schritte zu unternehmen, um einen Sicherheitsfehler zu korrigieren, der zur Offenlegung von 38 Terabyte privater Daten führte. Das Leck wurde im KI-Repository des Unternehmens auf GitHub entdeckt. Dieses soll versehentlich öffentlich zugänglich gemacht worden sein, als ein Paket mit Open-Source-Trainingsdaten veröffentlicht wurde, berichtet das US-Security-Unternehmen Wiz. Zum Repository gehörte auch ein Disk-Backup der Workstations zweier ehemaliger Mitarbeiter, das Geheimnisse, Schlüssel, Passwörter und über 30.000 interne Teams-Nachrichten enthielt.
Das Repository mit dem Namen „robust-models-transfer“ ist inzwischen nicht mehr zugänglich. Bevor es entfernt wurde, enthielt es Quellcode und Modelle für maschinelles Lernen, die zu einer Forschungsarbeit aus dem Jahr 2020 mit dem Titel „Do Adversarially Robust ImageNet Models Transfer Better?“ gehörten. „Die Entdeckung war auf ein zu freizügiges SAS-Token zurückzuführen – einer Azure-Funktion, die es Nutzern ermöglicht, Daten auf eine Art und Weise zu teilen, die sowohl schwer zu verfolgen als auch schwer zu widerrufen ist“, so Wiz in einem Bericht. Das Problem wurde am 22. Juni 2023 an Microsoft gemeldet.
Die README.md-Datei des Repositorys wies Entwickler an, die Modelle von einer Azure Storage-URL herunterzuladen, die versehentlich auch Zugriff auf das gesamte Speicherkonto gewährte, wodurch weitere private Daten offengelegt wurden. „Zusätzlich zu dem übermäßig großzügigen Zugriffsumfang war das Token auch fehlerhaft konfiguriert, um ´vollständige Kontrolle´ anstelle von nur ´Leseberechtigungen´ zu erlauben“, so die Wiz-Forscher Hillai Ben-Sasson und Ronny Greenberg. „Das bedeutet, dass ein Angreifer nicht nur alle Dateien im Speicherkonto einsehen, sondern auch bestehende Dateien löschen und überschreiben konnte.“
Als Reaktion auf die Ergebnisse ließ Microsoft verlauten, dass eigene Untersuchungen keine Beweise für eine unbefugte Offenlegung von Kundendaten ergeben haben und dass „keine anderen internen Dienste aufgrund dieses Problems gefährdet waren.“ Microsoft betonte außerdem, dass die Kunden keine Maßnahmen ergreifen müssen. Der Windows-Hersteller wies ferner darauf hin, dass er das SAS-Token widerrufen und alle externen Zugriffe auf das Speicherkonto blockiert habe. Das Problem wurde zwei Tage nach der Bekanntgabe der Verantwortlichen behoben.
Um solche Risiken in Zukunft zu minimieren, hat das Unternehmen seinen geheimen Scandienst erweitert, um alle SAS-Token einzuschließen, die möglicherweise zu freizügige Ablaufzeiten oder Privilegien haben. Es hieß, dass auch einen Fehler in seinem Scansystem identifiziert wurdet, der die spezifische SAS-URL im Repository als falsch positiv markiert hat.
„Aufgrund des Mangels an Sicherheit und Kontrolle über Account-SAS-Tokens sollten diese als genauso sensibel angesehen werden wie der Account-Schlüssel selbst“, so die Forscher. „Es wird daher dringend empfohlen, Account SAS nicht für die externe Freigabe zu verwenden. Fehler bei der Token-Erstellung können leicht unbemerkt bleiben und sensible Daten preisgeben.“
Dies ist nicht das erste Mal, dass falsch konfigurierte Azure-Speicherkonten ans Licht kommen. Im Juli 2022 wies JUMPSEC Labs auf ein Szenario hin, in dem ein Bedrohungsakteur solche Konten ausnutzen konnte, um sich Zugang zu einer Unternehmensumgebung vor Ort zu verschaffen.
Die Entwicklung ist der jüngste Sicherheitsfehler bei Microsoft und kommt fast zwei Wochen, nachdem das Unternehmen bekannt machte, dass Hacker aus China in der Lage waren, in die Systeme des Unternehmens einzudringen und einen hochsensiblen Signierschlüssel zu stehlen, indem sie das Unternehmenskonto eines Ingenieurs kompromittierten und wahrscheinlich auf einen Crash Dump des Signiersystems für Verbraucher zugriffen.
„KI birgt ein enormes Potenzial für Technologieunternehmen. Da Datenwissenschaftler und Ingenieure jedoch darum ringen, neue KI-Lösungen in die Produktion zu bringen, erfordern die riesigen Datenmengen, mit denen sie umgehen, zusätzliche Sicherheitsprüfungen und Schutzmaßnahmen“, so Ami Luttwak, CTO und Mitbegründer von Wiz, in einer Erklärung. „Diese aufstrebende Technologie erfordert große Datenmengen zum Trainieren. Da viele Entwicklungsteams riesige Datenmengen bearbeiten, sie mit anderen teilen oder an öffentlichen Open-Source-Projekten mitarbeiten müssen, sind Fälle wie der von Microsoft immer schwerer zu überwachen und zu vermeiden.“