Vertraulich, intelligent, sicher: WhatsApp führt KI mit Datenschutz-Versprechen ein
Die beliebte Messaging-App WhatsApp hat eine neue Technologie mit dem Namen „Private Processing“ vorgestellt. Sie ermöglicht den Einsatz künstlicher Intelligenz – und das auf eine Weise, die Privatsphäre und Datenschutz der Nutzer in den Mittelpunkt stellt.
Laut einer Mitteilung des Meta-Unternehmens WhatsApp soll „Private Processing“ es Nutzern ermöglichen, optionale, KI-gestützte Funktionen wie das Zusammenfassen ungelesener Nachrichten oder das Erstellen von Textvorschlägen zu nutzen – ohne dabei das zentrale Datenschutzversprechen von WhatsApp zu gefährden.
Mit dieser neuen Funktion möchte WhatsApp den Zugang zu KI-Funktionen vereinfachen, ohne dabei Kompromisse bei der Privatsphäre einzugehen. Die Einführung ist für die kommenden Wochen geplant.
Im Zentrum steht eine sogenannte vertrauliche virtuelle Maschine (CVM), in der die Verarbeitung der Daten stattfindet. Nutzer können über diese abgesicherte Umgebung Anfragen an die KI stellen – beispielsweise, um Nachrichten zusammenfassen zu lassen. Weder Meta noch WhatsApp oder andere Dritte erhalten dabei Zugriff auf die Inhalte.
Grundlegende Maßgaben der Vertraulichkeit
Private Processing basiert auf drei zentralen Prinzipien:
- Vertrauliche Verarbeitung: Daten werden ausschließlich in einer geschützten Umgebung verarbeitet.
- Durchsetzbare Garantien: Sollte jemand versuchen, diese Schutzmechanismen zu manipulieren, wird das System so gestaltet, dass es entweder fehlschlägt oder der Verstoß öffentlich erkennbar wird.
- Überprüfbare Transparenz: Externe Forscher und Nutzer sollen das Verhalten des Systems nachvollziehen und überprüfen können.
Ein weiterer zentraler Schutzmechanismus ist die Nicht-Zielbarkeit: Das System ist so aufgebaut, dass kein einzelner Nutzer gezielt angegriffen werden kann, ohne die gesamte Sicherheitsarchitektur zu kompromittieren. Ergänzt wird dies durch eine zustandslose Verarbeitung mit Schutz vor nachgelagerten Recherchen. Das bedeutet, dass Nachrichten nach der Verarbeitung nicht gespeichert werden. Selbst bei einem Angriff wäre es dadurch nicht möglich, auf frühere Anfragen oder Antworten zuzugreifen.
Technische Umsetzung
Das System funktioniert wie folgt: Private Processing erhält anonyme Zugangsdaten, um sicherzustellen, dass künftige Anfragen tatsächlich von einem legitimen WhatsApp-Client stammen. Anschließend wird über ein Relay eines Drittanbieters, das auch die Quell-IP-Adresse vor Meta und WhatsApp verbirgt, eine Oblivious HTTP (OHTTP)-Verbindung zwischen dem Gerät des Nutzers und einem Meta-Gateway aufgebaut.
Daraufhin wird eine sichere Anwendungssitzung zwischen dem Nutzergerät und der Trusted Execution Environment (TEE) eingerichtet. In diesem geschützten Rahmen wird dann eine verschlüsselte Anfrage an das Private-Processing-System gesendet – unter Verwendung eines ephemeren Schlüssels, der nur kurzfristig gültig ist.
Das bedeutet auch: Die Anfrage kann ausschließlich vom TEE oder vom Gerät des Nutzers entschlüsselt werden – niemand sonst hat Zugriff auf deren Inhalt, auch nicht Meta oder WhatsApp.
Die Verarbeitung der Anfragen erfolgt innerhalb der CVM. Die Ergebnisse werden verschlüsselt zurückgesendet – nur das Gerät des Nutzers und der Private-Processing-Server haben Zugriff auf den entsprechenden Schlüssel.
Meta hat eingeräumt, dass das System potenziellen Bedrohungen ausgesetzt sein könnte – etwa durch kompromittierte Insider, Schwachstellen in der Lieferkette oder böswillige Endnutzer. Gleichzeitig betont das Unternehmen, dass es einen mehrschichtigen Sicherheitsansatz verfolgt, um die Angriffsfläche so gering wie möglich zu halten.
Darüber hinaus hat Meta angekündigt, Protokolle von CVM-Binärprüfsummen sowie die entsprechenden Binärdateien öffentlich zugänglich zu machen. Damit sollen externe Sicherheitsforscher in die Lage versetzt werden, potenzielle Datenschutzprobleme zu analysieren, nachzuvollziehen und zu melden.
Die neue Technologie im Kontext
Diese Entwicklung fällt mit der Einführung einer eigenen Meta-AI-App zusammen, die auf dem Llama-4-Modell basiert. Sie bietet einen neuen, „sozialen“ Discover-Feed zum Teilen, Erkunden und neu Zusammenstellen von KI-Eingaben.
Mit Private Processing verfolgt Meta einen ähnlichen Weg wie Apple mit seinem Ansatz „Private Cloud Compute“ (PCC). Auch Apple nutzt OHTTP-Relays und eine geschützte Umgebung zur Verarbeitung von KI-Anfragen. Bereits Ende letzten Jahres hatte Apple seine PCC-Testumgebung der Forschungsgemeinschaft zur Analyse freigegeben.