Free

Google macht Magika frei verfügbar

Google hat angekündigt, Magika als Open Source zu veröffentlichen. Dabei handelt es sich um ein von künstlicher Intelligenz (KI) gestütztes Werkzeug zur Identifizierung von Dateitypen. Es soll Verteidigern künftig im großen Stil dabei helfen, binäre und textuelle Dateitypen genau zu erkennen.

Lesezeit 2 Min.

Laut Google übertrifft Magika herkömmliche Methoden zur Identifizierung von Dateien bei weitem. Es bietet eine Gesamtgenauigkeit, die grundsätzlich um 30 Prozent höher ist, als bei anderen Erkennungsprogrammen. Bei Dateitypen wie VBA, JavaScript und Powershell, die traditionell schwer zu identifizieren, aber potenziell problematisch sind, soll es eine bis zu 95 Prozent höhere Präzision bieten.

Die Software nutzt ein benutzerdefiniertes, hoch optimiertes Deep-Learning-Modell, das Dateitypen präzise innerhalb von Millisekunden erkennen kann. Magika verwendet Inferenzfunktionen, die auf dem Open Neural Network Exchange (ONNX) basieren.

Google betont, dass es Magika intern weitreichend einsetzt, um die Sicherheit der Nutzer zu erhöhen. Das Tool leitet Gmail-, Drive- und Safe-Browsing-Dateien an die entsprechenden Sicherheits- und Inhaltsrichtlinien-Scanner weiter.

Bereits im November 2023 stellte Google RETVec vor, ein mehrsprachiges Textverarbeitungsmodell, das entwickelt wurde, um potenziell schädliche Inhalte wie Spam und bösartige E-Mails in Google Mail zu erkennen.

Angesichts der anhaltenden Debatte über die Risiken der rasch fortschreitenden Technologie und ihrem Missbrauch durch staatliche Akteure aus Ländern wie Russland, China, Iran und Nordkorea zur Verstärkung ihrer Hacking-Bemühungen, erklärt Google, dass der großflächige Einsatz von KI die digitale Sicherheit stärken und das Gleichgewicht der Cybersicherheit zugunsten der Verteidiger verschieben kann.

Das Unternehmen hob auch die Notwendigkeit eines ausgewogenen regulatorischen Ansatzes für die Nutzung und Einführung von KI hervor, um eine Zukunft zu vermeiden, in der Angreifer innovativ sein können, während Verteidiger durch KI-Governance-Entscheidungen gehemmt werden.

Sicherheitsforscher von Google beschwören: „KI ermöglicht es Sicherheitsexperten und Verteidigern, ihre Fähigkeiten bei der Erkennung von Bedrohungen, der Analyse von Malware, der Identifizierung von Schwachstellen, der Behebung von Schwachstellen und der Reaktion auf Vorfälle zu erweitern. KI bietet die beste Möglichkeit, das Dilemma der Verteidigung zu überwinden und die Waage im Cyberspace zugunsten der Verteidiger zu verschieben, damit sie einen entscheidenden Vorteil gegenüber den Angreifern haben.“

Es gibt jedoch Bedenken, dass generative KI-Modelle, die für das Training verwendet werden, Daten aus dem Internet nutzen, die auch personenbezogene Informationen enthalten können. Das britische Information Commissioner’s Office (ICO) etwa warnte im letzten Monat: „Wenn Sie nicht wissen, wie Ihr Modell verwendet wird, wie können Sie dann sicherstellen, dass bei der anschließenden Verwendung die Datenschutz- und Freiheitsrechte der Menschen gewahrt bleiben?“

Außerdem haben neue Forschungsergebnisse gezeigt, dass große Sprachmodelle als „Schläfer“ fungieren könnten. Sie wirken zunächst harmlos, können aber so programmiert werden, dass sie betrügerisches oder bösartiges Verhalten zeigen, wenn bestimmte Kriterien erfüllt sind oder spezielle Anweisungen gegeben werden.

Forscher des KI-Start-ups Anthropic berichten in einer Studie, dass solche Hintertürchen persistent sein können und nicht durch gängige Sicherheitstrainingsmethoden wie überwachtes Feintuning, Verstärkungslernen und gegnerisches Training entfernt werden können. Bei letzterem wird unsicheres Verhalten hervorgerufen und dann trainiert, um es zu eliminieren.

Diesen Beitrag teilen: