Goodbye PETs – all hail PPDSA! : Wie sich Forderung und Förderung datenschutzfreundlicher Technologie in den USA und Deutschland unterscheiden – in überraschender Weise
Deutschland steht für Datenschutz, die USA für ungezügelte Macht von Big Tech – ist es wirklich so einfach? Vergleicht man das Regierungshandeln dies- und jenseits des „großen Teichs“ gibt es durchaus auch mal unerwartete Erkenntnisse zu entdecken – und auch einiges, was zur Nachahmung zu empfehlen wäre.
Im Mai 2025 war es soweit: Aus dem Koalitionsvertrag zwischen CDU, CSU und SPD mit dem Titel „Verantwortung für Deutschland“ [1] verschwand beinahe unbemerkt die Forderung nach einem Recht auf Ende-zu-Ende-Verschlüsselung für alle Bürger*. In den Wahlprogrammen einiger Parteien und dem vorausgegangenen Koalitionsvertrag der „Ampel-Regierung“ von 2021 [2] stand dieses Recht nahezu symbolisch als letzte Bastion für den Schutz der Privatsphäre im Internet und für die individuelle Sicherheit: „Wir stärken digitale Bürgerrechte und IT-Sicherheit. Sie zu gewährleisten ist staatliche Pflicht. Wir führen ein Recht auf Verschlüsselung, ein wirksames Schwachstellenmanagement, mit dem Ziel, Sicherheitslücken zu schließen, und die Vorgaben securityby-design/default ein“, hieß es darin (S. 31 in [2]). Diese letzte Verteidigungslinie der Anonymität und des (unumkehrbaren) Kommunikationsgeheimnisses ist mit der neuen Regierung nun passé.
Immerhin findet man aber im neuen Koalitionsvertrag einen neuen Eintrag, der den Verlust etwas abmildern dürfte: Im Abschnitt zur „Kultur der Datennutzung und des Datenteilens“ werden Privacy Enhancing Technologies (PETs) ausdrücklich hervorgehoben: „Wir fördern die breite Anwendung von Privacy Enhancing Technologies.“ (S. 69 in [1]) Ein Satz – nicht mehr, aber immerhin auch nicht weniger.
PETs sind kein Kleinvieh!
Das Akronym PETs steht entweder für „Privacy Enhancing Technologies“ oder „Techniques“, im Deutschen also „datenschutzfördernde Technik(en)“. Der Begriff bezeichnet ganz allgemein Sicherheitskontrollen und technische sowie organisatorische Maßnahmen (TOMs), die unter anderem mit den folgenden Zielen entwickelt und eingesetzt werden:
- personenbezogene Daten und Privatheit schützen
- Risiken bei der Verarbeitung personenbezogener und/oder sensibler Daten minimieren
- Anforderungen aus der EU Datenschutz-Grundverordnung (DSGVO) erfüllen
Die auf PETs spezialisierte Fachgruppe der Gesellschaft für Informatik e.V. versteht unter PETs Techniken, die den Datenschutz in Informations- und Kommunikationssystemen (IKT/ICT) fördern, durchsetzen oder zumindest unterstützen (https://fg-pet.gi.de). Die Fachgruppe orientiert sich an der Definition von John J. Borking und Charles D. Raab aus ihrem 2001 veröffentlichten Artikel „Laws, PETs and Other Technologies for Privacy Protection“ [3]:
„Privacy Enhancing Technologies are a coherent system of ICT measures that protects privacy […] by eliminating or reducing personal data or by preventing unnecessary and/ or undesired processing of personal data; all without losing the functionality of the data system.“
Zu den Kriterien und Grundsätzen von PETs gehören:
- Datenvermeidung und -sparsamkeit, also die Reduktion personenbezogener Daten in ICT-Systemen
- Systemdatenschutz, das heißt technisch implementierte und organisatorisch verankerte Datenschutzmaßnahmen
- Selbstdatenschutz, also ein Maximum an Steuerungsmöglichkeiten für Anwender
- Transparenz und andere vertrauensbildende Maßnahmen
Die Erforschung von PETs erfordert einen interdisziplinären Ansatz, da ihre Methoden und Maßnahmen – etwa für Verschlüsselung, Anonymisierung und Pseudonymisierung – von technischen und mathematischen über juristische bis hin zu organisatorischen Verfahren reichen. Das zeigt sich auch an den Inhalten der „PET Talks“, die von der GI-Fachgruppe veranstaltet werden, um Wissen über PETs zu popularisieren und den Diskurs zu fördern. In dieser Reihe virtueller Veranstaltungen referieren Experten aus Wissenschaft, Wirtschaft und Verwaltung zu aktuellen, teils kontroversen Fragestellungen (vgl. https://fg-pet.gi.de/aktivitaeten/veranstaltungen/archiv).
Die Themen reichen von PETs im Kontext intelligenter Mobilität und vernetzter Fahrzeuge über gesetzliche Meldepflichten bei Datenpannen bis hin zu Datenschutzstrategien in softwaregesteuerten Systemen (z.B. beim autonomen Fahren). Weitere Schwerpunkte sind unter anderem das Phänomen des Doxing (vgl. 2025# 4, S. 6) und seine Auswirkungen auf Individuen, Organisationen und gesellschaftliches Vertrauen – sowie die paradoxe Situation rund um die praktische Verbreitung von PETs.
Globale Spezies
Während PETs in Deutschland noch Erklärungsbedarf haben, sind sie andernorts – und gerade in den USA – seit Jahren ein etablierter Begriff. So sind sie etwa Teil von Rahmenwerken und Strategien der US-Regierung und anderer Organisationen, was zu einer Vielzahl mehr oder weniger detaillierter Definitionen geführt hat, von denen hier einige aufgeführt werden sollen:
PETs sind „[…] methodologies and approaches to mitigating privacy risks when using sensitive or confidential data“ (UN PET Guide, [4]). „PETs are technologies that will allow researchers, physicians, and others permitted access to gain insights from sensitive data without ever having access to the data itself. The true power of PETs is in keeping data ‚hidden‘ from researchers while at the same time enabling analysis of that data. PETs could unlock new forms of collaboration and new norms in the responsible use of personal data“ erklärt hingegen das Weiße Haus 2022 [5]. Inzwischen hat die US-Regierung sowohl eine Strategie als auch konkrete Maßnahmen zur Förderung und Erforschung von PETs etabliert.
Auch das britische Information Commissioner’s Office (ICO) betonte die zunehmende Verbreitung von PETs – etwa bei Geldwäscheuntersuchungen – und ihre Rolle, bessere Services für Bürger bereitzustellen: „PETs are technologies that can help organisations share and use people’s data responsibly, lawfully, and securely, including by minimising the amount of data used and by encrypting or anonymising personal information. They are already used by financial organisations when investigating money laundering, for example, and by the healthcare sector to provide better health outcomes and services to the public.“ [6]
PPDSA – Evolution oder Mutation?
2023 hat das Executive Office des US-Präsidenten die nationale Strategie zu Privacy-Preserving Data Sharing and Analytics (PPDSA, [7]), veröffentlicht. Eine wichtige Unterscheidung: PETs bezeichnen eine breite Gruppe von Verfahren, die Privatsphäre gewährleisten, indem sie personenbezogene Daten aus Datensätzen entfernen, diese minimieren oder unerwünschte Datenverarbeitung verhindern – ohne die Funktionalität der Systeme einzuschränken. PPDSA-Technologie kann hingegen als eine Untergruppe von PETs aufgefasst werden, die speziell darauf abzielt, Datenaustausch und -analyse in einer datenschutzwahrenden Weise zu ermöglichen. Dazu gehören unter anderem Secure-Multiparty-Computation (SMC), Homomorphic Encryption, Differential Privacy, ZeroKnowledge-Proofs, Synthetic Data, Federated Learning und Trusted Execution-Environments (TEE).
Die Motivation für diese Unterteilung: Datengetriebene Analysen sollen genutzt werden können, ohne dabei auf Datenschutz oder Sicherheit verzichten zu müssen. PPDSA-Lösungen kombinieren dazu methodische, technische und soziotechnische Ansätze, die auf PETs basieren [7].
Früher lag der Einsatzschwerpunkt von PETs häufig bei Big-Data-Analysen, Massendatenauswertungen oder internen Ermittlungen (z.B. zur Betrugs- oder Geldwäscheprävention). Ein neuer Fokus – gesetzt durch die National Privacy Research Strategy vom Januar 2025 [8] – liegt nun auf der vermehrten Nutzung von Daten durch künstliche Intelligenz (KI) und der daraus resultierenden Notwendigkeit einer datenschutzfreundlichen Auswertung großer Datenmengen durch KI-Systeme.
Status quo in Deutschland
In Deutschland gelten für die Verarbeitung personenbezogener Daten – auch in KI-Systemen – bekanntlich die Vorgaben der DSGVO. Dort heißt es im Erwägungsgrund 4: „Die Verarbeitung personenbezogener Daten sollte im Dienste der Menschheit stehen“ (vgl. etwa https://dsgvo-gesetz.de/erwaegungsgruende/nr-4/).
Für Hersteller von KI-Systemen – wie zuvor bereits für IT-Hersteller – gilt als Anforderung aus Art. 25 DSGVO zu „Privacy by Design“. Im Deutschen spricht man von „Datenschutz durch Technikgestaltung“, wobei der Begriff in der DSGVO weiter gefasst ist: Gemeint ist die datenschutzfreundliche Gestaltung von Systemen und Diensten über den gesamten Lebenszyklus eines IT- oder KI-Systems hinweg – von Anfang an, anwenderzentriert, dem effektivem Schutz der Grundrechte und Freiheiten geschuldet, mit datensparsamem Konzept und möglichst datenschutzfreundlichen Voreinstellungen.
Bislang fehlen jedoch konkrete Standards und verbindliche Vorgaben zur Operationalisierung – sowohl für Privacy by Design aus der DSGVO als auch für Security by Design aus der Cybersicherheitsstrategie der Bundesregierung (siehe etwa https://dserver.bundestag.de/btd/19/325/1932590.pdf).
Dies gilt auch für die Koalitionszusage, die breite Anwendung von PETs zu fördern. Was fehlt, sind: Operationalisierung und Standardisierung, eine Bewertung und Tests der Technologien oder wirksame Verfahren, um Eignung und Effektivität von Lösungen zur Wahrung der Privatsphäre zu überprüfen. Die Entwicklung von Standards darf jedoch nicht allein den Marktakteuren überlassen bleiben. Vielmehr muss sie in einem wissenschaftlich fundierten und systematischen Prozess unter Beteiligung aller relevanten Stakeholder erfolgen.
Vom Gesetz zur Kultur
Auch in den USA betont die nationale PPDSAStrategie, dass bestehende Gesetze und Richtlinien zwar notwendige Mechanismen zum Schutz von Vertraulichkeit und Privatsphäre für die Bürger bieten, aber nicht hinreichend sind, um das Potenzial von Privacy-Preserving-Technologie voll auszuschöpfen. Es sei erforderlich, Schutzmaßnahmen auch bei der Nutzung von PPDSATechnologie zu wahren und zugleich den Prinzipien von Fairness, Transparenz und Verantwortung (Accountability) gerecht zu werden. Darüber hinaus sollte berücksichtigt werden, wie Anwender die Erhebung, Verknüpfung und Nutzung ihrer Daten kontrollieren können – bereits „by Design“ sowie auch später in der Anwendung.
Unabhängig davon, ob es sich um Open-Sourceoder Black-Box-Architekturen handelt: Privacy by Design umfasst auch die Transparenz in Bezug auf Prozesse und Maßnahmen, die dem Schutz personenbezogener Daten dienen. Zu diesen TOMs zählen unter anderem, aber nicht ausschließlich, Verfahren wie Pseudonymisierung oder Kryptografie. Eine Umsetzung mittels Privacy-Enhancing Technologies (PETs) wäre naheliegend: „The use of PETs can help to design information and communication systems and services in a way that minimises the collection and use of personal data and facilitate compliance with data protection rules. The use of PETs should result in making breaches of certain data protection rules more difficult and/or helping to detect them“, heißt es beispielsweise in einem Memo der Europäischen Kommission [9].
Zur Verbesserung der Umsetzung von Betroffenenrechten wären sowohl die Operationalisierung der Privacy-by-Design-Vorgaben der DSGVO in Form eines verbindlichen Standards als auch verstärkte Forschung und Entwicklung im Bereich PETs beziehungsweise PPDSAs nach dem Vorbild der US-Strategie überlegenswert – vermutlich auch zielführend.
PET/PPDSA-Strategien in den USA
Während in den USA – noch auf Bestreben der Biden-Harris-Administration – vom White House Executive Office ein ressortübergreifender Fast-Track-Ausschuss mit dem Ziel eingerichtet wurde, eine Vision für die Rolle von PETs in zukünftigen Datenökosystemen (bes. auch in KI-Systemen) zu entwickeln und konkrete Handlungsempfehlungen – von Investitionen in Forschung und Entwicklung bis hin zu politischen Maßnahmen – zu formulieren, fehlen solche Initiativen in Deutschland noch weitgehend.
Mit der Neuauflage der National Privacy Research Strategy (NPRS) aus dem Jahr 2016 im Januar 2025 [8] verfolgt das US-amerikanische National Science and Technology Council das Ziel, die strategischen Prioritäten für Datenschutzforschung (Privacy R&D) festzulegen. Diese gelten für Forscher und Praktiker sowohl ausdem öffentlichen als auch aus dem privaten Sektor. Die Strategie definiert Ziele für staatlich finanzierte Forschung (außerhalb und innerhalb von Behörden) sowie für industriegeförderte Privacy-Forschung, bietet eine gemeinsame Ausrichtung für die Koordination von Forschung zu sogenannten Privacy-Preserving Technologies und fördert – und das ist neu! – multidisziplinäre Ansätze, die sowohl die Interessen der Anbieter als auch die Bedürfnisse (und Rechte) der Bürger berücksichtigen.
Die Motivation hinter der Neuauflage der National Privacy Research Strategy, die eine Ergänzung der National Strategy to Advance Privacy-Preserving Data Sharing and Analytics darstellt, liegt nicht zuletzt im rasanten Fortschritt der KI sowie der Data Analytics beziehungsweise (Massen-)Datenauswertungen. Diese und andere Informations- und Kommunikations-(IuK)-Technologien beeinflussen die Art und Weise, wie Menschen, Unternehmen und Regierungen interagieren. Sie schaffen neue Möglichkeiten: Sie können durchaus das soziale Wohlergehen der Menschen fördern, die Gesundheitsversorgung verbessern, Barrieren in Bildung und Beschäftigung abbauen und die Effizienz in vielen Branchen steigern. Da allerdings der Nutzen dieser IT- und KI-Systeme oft darauf beruht, wachsende Mengen an personenbezogenen Daten zu speichern, zu verarbeiten, zu analysieren und mit anderen Datenquellen zu verknüpfen, führt dies zugleich zu berechtigten Sorgen über Datenschutzrisiken und die Fähigkeit, diese immensen Datenmengen verantwortungsvoll handzuhaben. An dieser Stelle möchte die NPRS ansetzen.
Messbarkeit als Prinzip
Wie so oft in US-Standards und -Strategien spielen Messbarkeit, Metriken und Kennzahlen zur Bewertung der Effektivität und Wirksamkeit der Techniken, Lösungen oder Modelle eine wesentliche Rolle. Dieser Tradition schließt sich die NPRS an, indem sie Privacy-Präferenzen verstehen und messen möchte. Zu den Fragen, welche die Forschung adressieren soll, gehören unter anderem:
- Welche Methoden können Organisationen nutzen, um die Effektivität ihrer Datenschutz-Policies und -Praktiken nachzuvollziehen und zu messen?
- Welche Forschungsmethoden eignen sich am besten, um die Datenschutzpräferenzen, Erwartungen, Einstellungen, Überzeugungen und Interessen von Individuen zuverlässig und valide zu erfassen, zu messen und abzubilden?
- Welche messbaren Auswirkungen haben Datenschutzanreize (Privacy-Incentives) auf verschiedene gesellschaftliche Werte wie soziale Gerechtigkeit, Wirtschaftswachstum, Sicherheit und Innovation?
- Welche Kriterien könnten Datenschutzziele und deren Auswirkungen abbilden und welche Techniken und Metriken ließen sich nutzen, um zu messen, inwieweit Informationsverarbeitungssysteme diese Ziele erfüllen?
Die beiden Strategien zu PPDSA und NPRS dienen dabei als Rahmenwerke für die Umsetzung gleich mehrerer Executive Orders (siehe ggf. www.federalregister. gov/presidential-documents/executive-orders). Die „Executive Order on Safe, Secure and Trustworthy Development of AI“ (EO 14110) betont: „Americans’ privacy and civil liberties must be protected as AI continues advancing“ und fordert die Behörden auf, „available policy and technical tools, including privacy-enhancing technologies (PETs) where appropriate to protect privacy“ einzusetzen. Auch die „Executive Order on Ensuring Responsible Development of Digital Assets“ (EO 14067) hebt hervor, wie wichtig es ist, Verbraucher sowie andere Stakeholder zu schützen – gerade auch durch den Schutz der Privatsphäre und durch Mechanismen gegen „unlawful surveillance“. In ähnlicher Weise unterstreicht der „Blueprint for an AI Bill of Rights“ [10] die Bedeutung des Datenschutzes und richtet sich mit folgender Botschaft an die Bürger: „You should be protected from abusive data practices via builtin protection and you should have agency over how data about you is used.“
Die Motivation des Weißen Hauses hinter den Strategien: Die Entwicklung von PETs kann einen Weg in eine Zukunft eröffnen, in der datengestützte Technologien wie KI genutzt werden – ohne dabei die Privatsphäre zu gefährden.
Fazit und Ausblick
Eine Operationalisierung von Vorgaben durch Strategien und Rahmenwerke, die Förderung von Grundlagenforschung und Betonung klarer Zielsetzungen sowie Messbarkeit sind die wesentlichen Unterschiede zwischen der Herangehensweise an PETs in den USA und in Deutschland.
Dass irgendwo „Wir machen Privacy“ und „Privacy ist wichtig“ steht, dann aber keine umsetzbaren Richtlinien oder Best Practices dafür entwickelt werden, passiert hierzulande leider oft. Die Haltbarkeit von Wahlversprechen wurde schon mal mit der Lebensdauer eines Schneeballs in der Sonne verglichen. Dabei könnten die Stärkung und Verfügbarkeit von anwenderfreundlichen PETs Bürger dazu befähigen, ihre individuelle digitale Souveränität (ein weiterer, häufig im Koalitionsvertrag vorkommender Begriff) zu stärken und so die wachsende Kontrolle durch Tech-Konzerne oder Bürokratismus ein Stück weit ausbalancieren.
Die US-Regierung setzt beim Thema PETs auf Forschung und Entwicklung, Test-Labore und Grundlagenforschung – anders als offenbar einige Vergabeverfahren für Polizei-Software im Bayerischen Landeskriminalamt oder Bundesinnenministerium, die jeweils zugunsten von Lösungen der US-Firma Palantir ausgefallen sind, da „markterprobte“ Software gefordert gewesen sei: „Man habe keine Zeit für ein Entwicklungsprojekt gehabt“ [11]. Das erklärte Ziel der US-Strategien ist jedenfalls gerade nicht die „Marktfähigkeit“, sondern der Nutzen der PETs für die Bürger – dem die Nachfrage dann voraussichtlich folgen wird.
Digitale Souveränität und internationale Zusammenarbeit
Dabei ist es mitnichten so, dass Europa oder Deutschland, was Forschung und Entwicklung betrifft, nicht mit den USA mithalten könnten. Ganz im Gegenteil: Was die Expertise betrifft, muss man sich keinesfalls verstecken! Gerade auf dem Gebiet der Kryptografie ist europäische Forschung international führend – und das seit Jahren. Man bedenke etwa, dass nicht zuletzt der vom US-amerikanischen National Institute of Standards and Technology (NIST) als offizieller Verschlüsselungsstandard eingesetzte AES-Algorithmus von den zwei belgischen Kryptologen Joan Daemen und Vincent Rijmen entwickelt wurde.
An der Georg-August-Universität Göttingen entstand beispielsweise am Lehrstuhl von Prof. Dr. Delphine Reinhardt eine Dissertation zum Th ema Privacy-Decision Assisting Techniques, in der der Autor Lindrit Kqiku [12] gezeigt hat, wie Nutzer mithilfe von Methoden des maschinellen Lernens (ML) die Sensitivität ihrer über soziale Medien geteilten Inhalte (Bilder und Texte) bewerten und einschätzen können und welche Auswirkungen diese auf ihre Privatsphäre haben könnten. Dass Menschen ihre Datenschutzpräferenzen besser verstehen, gehört ebenfalls zu den erklärten Forschungsschwerpunkten der NPRS.
könnte man sich noch immer der US-Strategie anschließen, die vorsieht, dass die Förderung der internationalen Zusammenarbeit im Bereich Privacy-Preserving Data Sharing and Analytics (PPDSA) durch den Ausbau von Partnerschaften und die Schaff ung eines internationalen politischen Umfelds geschieht, das die Entwicklung und Einführung von PPDSA-Technologie vorantreibt, gemeinsame Werte unterstützt und gleichzeitig die nationale sowie wirtschaftliche Sicherheit schützt. Es bliebe dann nur zu klären, wessen wirtschaftliche Sicherheit gemeint ist.
Dr. Aleksandra Sowa ist zertifi zierte Datenschutzbeauftragte, Datenschutzauditorin und IT-Compliance-Manager, Sachverständige für IT-Sicherheit sowie Mitglied im Leitungskreis der FG „Datenschutzfördernde Technik (Privacy-Enhancing Technologies)“ der GI e. V
Literatur
[1] CDU, CSU, SPD, Verantwortung für Deutschland, Koalitionsvertrag, 21. Legislaturperiode, Mai 2025, www.koalitionsvertrag2025.de/sites/www.koalitionsvertrag2025.de/files/koav_2025.pdf
[2] SPD, Bündnis 90 / Die Grünen, FDP, Mehr Fortschritt wagen – Bündnis für Freiheit, Gerechtigkeit und Nachhaltigkeit, Koalitionsvertrag, 20. Legislaturperiode 2021–2025, Dezember 2021, www.spd.de/fileadmin/Dokumente/Koalitionsvertrag/Koalitionsvertrag_2021-2025.pdf
[3] John J. Borking, Charles D. Raab, Laws, PETs and Other Technologies for Privacy Protection, Journal of Information, Law and Technology (JILT) 1/2001, Februar 2001, www.researchgate.net/publication/220667925_Laws_PETs_and_Other_Technologies_for_Privacy_Protection
[4] UN Committee of Experts on Big Data and Data Science for Offi cial Statistics, Th e Pet Guide, United Nations Guide on Privacy-Enhancing Technologies for Offi cial Statistics, Februar 2023, https://unstats.un.org/bigdata/task-teams/privacy/guide/index.cshtml
[5] Alexander Macgillivray, Tess deBlanc-Knowles, Advancing a Vision for Privacy-Enhancing Technologies, Juni 2022, Th e Biden Presidency White House Archive, https://bidenwhitehouse.archives.gov/ostp/newsupdates/2022/06/28/advancing-a-vision-for-privacyenhancing-technologies/
[6] UK Information Commissioner Offi ce (ICO), Chapter 5: Privacy-enhancing technologies (PETs), anonymisation, pseudonymisation and privacy enhancing technologies guidance, Draft Version, September 2022, https://ico.org.uk/media2/migrated/4021464/chapter5-anonymisation-pets.pdf, siehe auch https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/data-sharing/privacy-enhancing-technologies/
[7] U. S. National Science and Technology Council, National Strategy to Advance Privacy-Preserving Data Sharing and Analytics (PPDSA), Report, März 2023, www.nitrd.gov/pubs/National-Strategy-to-Advance-Privacy-Preserving-Data-Sharing-and-Analytics.pdf
[8] U. S. National Science and Technology Council, National Privacy Research Strategy (NPRS), Report, Januar 2025, Th e Biden Presidency White House Archive, https://bidenwhitehouse.archives.gov/wp-content/uploads/2025/01/NATIONAL-PRIVACY-RESEARCHSTRATEGY.pdf
[9] European Commission, Technologien zum Schutz der Privatsphäre, Factsheet – MEMO/07/159, Mai 2007, https://ec.europa.eu/commission/presscorner/detail/de/memo_07_159
[10] Th e White House Offi ce of Science and Technology Policy (OSTP), Blueprint for an AI Bill of Rights Making Automated Systems Work for the American People, Oktober 2022, Th e Biden Presidency White House Archive, https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/ [11] Lorenz Jeric, Lisa Maria Hagen, Könnte Palantirs Software ersetzt werden?, tagesschau online, August 2025, www.tagesschau.de/investigativ/ndr/palantir-polizei-daten-software-100.html
[12] Lindrit Kqiku, Privacy-Decision Assisting Techniques, Leveraging Deep Learning Approaches for Predicting Social Ties, Sharing Audience, and Content Sensitivity in Online Social Media Networks, Dissertation, August 2024, http://dx.doi.org/10.53846/goediss-10852
