Mit <kes>+ lesen

Von Amtsdeutsch bis Fachchinesisch : Verständlichkeit von Fachtexten am Beispiel des Standard-Datenschutzmodells

Datenschutz und -sicherheit sind keine leichte Kost. Doch Fachtexte können aufgrund von Formulierungen und Sprachstil auch unnötig schwer verdaulich sein. Unsere Autorenerläutern, welche Formulierungen das Lesen von Texten erschweren und wie sich komplexe Sachverhalte sogar so verfassen lassen, dass auch Menschen mit geringer Lesekompetenz sie verstehen können. Dazu betrachtet und bewertet der vorliegende Beitrag exemplarisch die Verständlichkeit des Standard-Datenschutzmodells sowie einiger Vergleichstexte aus dem Fachgebiet und dem normalen Leben.

Lesezeit 16 Min.

Von Erik Buchmann, Leipzig, und Susanne Eichhorn, Bonn

Die Umsetzung von Vorschriften, EU-Verordnungen, Binding Corporate Rules oder innerbetrieblichen Vereinbarungen aus dem Bereich Datenschutz und IT-Sicherheit ist eine Herausforderung. Dabei müssen Mitarbeiter mit unterschiedlicher Ausbildung und unterschiedlichem beruflichen Werdegang eng zusammenarbeiten. Fachtexte, welche die Umsetzung der genannten Normen im Unternehmen erleichtern, müssen deshalb für alle Nutzer gleichermaßen verständlich verfasst sein. Der vorliegende Beitrag erläutert am Beispiel des Standard-Datenschutzmodells, welche Formulierungen einen Fachtext schwer lesbar machen, und wie sich diese bei der Erstellung eigener Texte vermeiden lassen.

Das im März 2020 in der Version 2.0b veröffentlichte Standard-Datenschutzmodell (SDM, [1]) liefert eine Methodik zur Einführung von Datenschutzmaßnahmen anhand von Gewährleistungszielen, die aus der Datenschutz-Regulierung abgeleitet wurden. Auf diese Weise macht das SDM Datenschutz mit denselben Management-Methoden steuerbar wie gut verstandene Compliance-Themen, zum Beispiel die Qualitätssicherung (EN ISO 9000ff) oder die IT-Sicherheit (BSI IT-Grundschutz oder ISO/IEC 27001). Die SDM-Methodik orientiert sich am IT-Grundschutz und bietet wie dieser Bausteine von Standardmaßnahmen an. Abbildung 1 zeigt einen Ausschnitt aus dem SDM-Baustein 60 „Löschen und Vernichten“, den dieser Artikel als laufendes Beispiel nutzt. Der Baustein adressiert die Gewährleistungsziele Datensparsamkeit, Vertraulichkeit, Intervenierbarkeit und „Nichtverkettung“.

Die Autoren haben Metriken zur Textverständlichkeit für die SDM-Methodik, den Baustein 60 „Löschen und Vernichten“ sowie zum Vergleich für einige bekannte Publikums- und Fachtexte berechnet – darunter Abschnitte zur Datenlöschung im IT-Grundschutz-Kompendium und der EU Datenschutzgrundverordnung (DSGVO). Der Vergleich zeigt, dass die SDM-Methodik und der Baustein 60 zwar als „schwer“ bis „sehr schwer“ lesbar einzustufen sind, aber immer noch erheblich verständlicher bleiben als die zugrunde liegenden Artikel der DSGVO. Eine alternative Version dieses Artikels mit einer detaillierten Aufstellung des Stands der Forschung ist als Forschungsbericht [2] veröffentlicht und unter Creative-Commons-Lizenz frei verfügbar.

Textverständlichkeit

Wie gut ein Text im Einzelfall verstanden wird, hängt einerseits von Sprachbeherrschung, Lesekompetenz, Abstraktionsvermögen und Bildung des Lesers ab. Zudem ist zu berücksichtigen, ob der Leser ausgeruht oder in Eile ist und auf welche Weise der Text präsentiert wird. Es existieren aber andererseits auch Indikatoren, die mit der Textverständlichkeit korrelieren und zugleich objektiv messbar sind.

Ein offensichtlicher Indikator ist die Satz- und Wortlänge: Ein Text aus kurzen Sätzen ist verständlicher als ein langer Schachtelsatz, ebenso ein Satz aus kurzen Wörtern im Vergleich zu einem aus langen. Weniger offensichtlich ist, dass auch Passivkonstruktionen und unpersönliche Rede schwerer verständlich sind als Sätze im Aktiv: Hier muss der Leser die nicht genannten Subjekte oder handelnden Personen aus dem Kontext erschließen. Füllwörter und unnötige Adjektive verstellen den Blick auf die Aussage. Bei Sätzen im Perfekt müssen ein Hilfsverb und sein oft nicht unmittelbar folgendes Vollverb (Partizip) in Beziehung gebracht werden. Bei Sätzen im Nominalstil ersetzt eine Substantivierung das Vollverb. Floskeln, Füllwörter und Metaphern machen Sätze länger, ohne inhaltlich etwas beizusteuern.

Tabelle 1 gibt einen Überblick über Formulierungen, die vom Inhalt der Aussage ablenken können. An der Häufigkeit solcher Formulierungen lässt sich ableiten, wie lesbar ein Text geschrieben ist.

Abbildung 1

Abbildung 1: Fragment des Bausteins 60 „Löschen und Vernichten“ aus dem Standard-Datenschutzmodell (SDM, [1])

Tabelle 1

Tabelle 1: Formulierungen und Stilmittel, die Texte schwerer lesbar machen

Verständlichkeitsmetriken

Um die Verständlichkeit eines Textes zu messen, ist es nicht nötig, alle Arten schwieriger Formulierungen im Text zu zählen. Die Beispiele in Tabelle 1 zeigen, dass die Verwendung solcher Formulierungen einen Satz meist automatisch länger macht: Substantivierungen bestehen aus mehr Silben als das entsprechende Vollverb, führen also zu längeren Wörtern – dasselbe gilt für zusammengesetzte Substantive. Aktuelle Verständlichkeitsmetriken kommen deshalb mit überraschend wenigen Indikatoren aus, beispielsweise der durchschnittlichen Satzlänge, Silbenzahl oder Wortlänge. Eine Übersicht über Formeln für die Verständlichkeit englischer Texte liefert [3] – für deutsche Texte sind Anpassungen erforderlich, da das Deutsche längere Wörter und Sätze verwendet [4].

Der Flesch-Reading-Ease (FRE) bildet die durchschnittliche Satzlänge in Wörtern ASL (Average Sentence Length) und die durchschnittliche Silbenzahl pro Wort ASW (Average Number of Syllables per Word) auf einer Skala von 0 bis 100 ab. Mit den für die deutsche Sprache angepassten Gewichten gilt: FRE = 180 – ASL – (ASW · 58,5). Kleine Werte bezeichnen schwerer lesbare Texte.

Der Lesbarkeitsindex (LIX) wird aus der durchschnittlichen Satzlänge ASL und dem prozentualen Anteil von Wörtern mit mehr als sechs Buchstaben am Text FLW (Fraction of Long Words) berechnet. Die Formel LIX = ASL + FLW liefert für „normale“ deutsche Texte Werte zwischen 20 und 60. Kleine Werte bezeichnen leichter lesbare Texte.

Die vierte Version der Wiener Sachtextformel (WSF) wird aus dem Anteil von Wörtern mit drei und mehr Silben MS (mehrsilbig) am Text sowie aus der durchschnittlichen Satzlänge ASL berechnet. Die verwendeten Konstanten sind auf das typische Leseverständnis vom 4. bis 12. Schuljahr geeicht. Die Berechnung dieser Metrik erfolgt als WSF = 0,2744 · MS + 0,2656 · ASL – 1,693. Auch hier bezeichnen kleine Werte leichter lesbare Texte.

Tabelle 2 gibt einen Überblick über die Zuordnung der mit diesen Formeln ermittelbaren Werte zu Schwierigkeitsstufen und Lesekompetenzen. Alle drei Maße sind linear skaliert: Ein doppelt so hoher LIX beschreibt einen doppelt so schweren Text, und ein um –10 FRE schwererer Text erfordert eine um etwa zwei Schuljahre höhere Lesekompetenz.

Tabelle 2

Tabelle 2: Gegenüberstellung verschiedener Verständlichkeitsmetriken (vgl. [4])

Einfache Sprache und „Leichte Sprache“

Komplexe Texte stellen Menschen mit durchschnittlichen Sprachkompetenzen (z. B. mittlerer Schulabschluss, Nicht-Muttersprachler) oder funktionalen Einschränkungen (z. B. Legasthenie, ADHS) vor Herausforderungen. Daher fordert beispielsweise die DSGVO in Artikel 12 Absatz 1, Informationen in einer „klaren und einfachen Sprache“ zugänglich zu machen. Auch die Bundeszentrale für politische Bildung stellt Artikel in einer einfachen Sprache zur Verfügung (www.bpb.de/politik/grundfragen/politik-einfach-fuer-alle/).

Linguistisch lässt sich „einfache Sprache“ und „Leichte Sprache“ unterscheiden (siehe etwa [5]):
Einfache Sprache gibt Empfehlungen dafür, Sachverhalte in einer barrierearmen Sprache darzustellen, die an die gesprochene Alltagssprache angelehnt ist. Zu diesem Zweck werden kurze Sätze, aktive Formulierungen, einfache Begriffe und nur ein Gedanke pro Satz vorgegeben. Besonderen Wert legt die einfache Sprache darauf, Abstraktionen, Fremdwörter, Synonyme, Schachtelsätze und Metaphern zu vermeiden.

Die „Leichte Sprache“ verwendet hingegen ein striktes Regelwerk [6], um einen Text barrierefrei zu formulieren. Dabei nimmt die „Leichte Sprache“ durch die strikte Vorgabe der Satzstellung Subjekt + Prädikat + Objekt und dem Verbot von Passivsätzen, Konjunktiv und Genitiv Abweichungen zur Alltagssprache in Kauf. Bei der „Leichten Sprache“ sollen auch Zahlen in intuitive Begriffe übertragen werden: So wird beispielsweise aus „1813“ ein „vor langer Zeit“. Daher besteht die Gefahr einer übermäßigen Vereinfachung komplexer Sachverhalte.

Analyse des SDM

Zur Untersuchung der Verständlichkeit des SDM haben die Autoren exemplarisch den Baustein 60 „Löschen und Vernichten“ ausgewählt. Dafür gibt es drei Gründe:

  • Der Baustein ist typisch für das SDM.
  • Es gibt mit dem Baustein CON.6 „Löschen und Vernichten“ des IT-Grundschutz-Kompendiums eine Vergleichsmöglichkeit aus der IT-Sicherheit.
  • Der Baustein lässt sich kompakt auf Artikel 17 DSGVO „Recht auf Löschung“ und Artikel 19 DSGVO „Mitteilungspflicht“ zurückführen (inkl. Erwägungsgründe 65 und 66).

Um die genannten Verständlichkeitsmetriken zu bestimmen, wurde zunächst der Textkorpus des Bausteins auf den Fließtext reduziert: Verzeichnisse, Änderungshistorien und Urheberrechtshinweise sowie Überschriften, Fußnoten, Querverweise, Tabellen und Listen wurden entfernt. Um Fehler bei der Satzerkennung auszuschließen, wurden alle Abkürzungen mit einem Punkt („z. B.“, „bzw.“ etc.) durch ihre ausgeschriebene Form ersetzt und Sätze mit Datumsangaben entfernt.

Um die Verständlichkeit des SDM-Bausteins vergleichen und bewerten zu können, wurden die SDM-Methodik sowie die auf die Datenlöschung bezogenen Texte des IT-Grundschutz-Kompendiums und der DSGVO in gleicher Form aufbereitet. Zusätzlich wurden zwei öffentlich bekannte Referenztexte vorbereitet:

  • Ein schwerer Text ist die Einleitung von Einsteins spezieller Relativitätstheorie [7]. Sie enthält viele lange Sätze mit Fachvokabular und richtet sich an ein Publikum mit technischer Ausbildung und hoher Lesekompetenz (Auszug siehe Abb. 2 oben).
  • Ein leichter Text ist das 1. Buch Mose aus der revidierten Luther-Bibel von 1912 [8]. Es besteht aus kurzen Sätzen mit einfachen Worten aus der Alltagssprache. Die Luther-Bibel richtet sich an die gesamte Bevölkerung, einschließlich Personen mit unterdurchschnittlicher Lesekompetenz (Auszug siehe Abb. 2 unten).

Verwendete Werkzeuge

Zur Messung der Textverständlichkeit kamen drei frei verfügbare Online-Werkzeuge zum Einsatz:

  • Das kostenfreie Textanalyse-Tool [9] bietet über ein Feld zum Hineinkopieren des zu analysierenden Texts die Hervorhebung der häufigsten Wörter, langer Wörter und langer Sätze an. Es berechnet neben den in diesem Artikel verwendeten Indizes FRE und WSF weitere Metriken sowie Fundamentaldaten wie die Zahl der unterschiedlichen Wörter oder die durchschnittliche Satzlänge.
  • Das Portal „Psychometrica“ richtet sich primär an Forscher aus dem Fachbereich der Psychometrie. Es enthält einen kostenfreien LIX-Rechner [10], der etwas einfacher gehalten ist als das Textanalyse-Tool. Auch hier werden neben dem LIX weitere Parameter wie der Anteil langer Wörter oder die durchschnittliche Satzlänge ausgegeben.
  • Die Wortliga Textanalyse [11] ist das aufwendigste verwendete Werkzeug. Es bietet einen grafischen Online-Editor, der den FRE-Index als Lesbarkeitsindikator anzeigt sowie Sätze, Füllwörter, Passivkonstrukte, Nominalstil etc. zählt und grafisch hervorhebt. Die Wortliga Textanalyse richtet sich an professionelle Autoren. Eine kostenfreie Version ist jedoch – von kurzen Wartepausen abgesehen – ohne größere Einschränkungen nutzbar.

Die von den Werkzeugen berechneten Werte überschneiden sich: Beispielsweise geben sämtliche Werkzeuge die Anzahl der Wörter und Sätze aus. Sowohl [9] als auch [11] berechnen den FRE. Durch Quervergleiche ließ sich daher sicherstellen, dass die Verständlichkeitsmetriken für die analysierten Texte richtig bestimmt wurden.

Abbildung 2

Abbildung 2: Auszüge aus den Vergleichstexten

Verständlichkeit der Referenztexte

Tabelle 3 fasst die ermittelten Werte und Indizes für die betrachteten Texte zusammen. Die ersten zwei Zeilen dokumentieren die Textlänge, die nächsten drei Zeilen die durchschnittliche Anzahl der Wörter pro Satz, den prozentualen Anteil von Wörtern mit mehr als 20 Buchstaben sowie den Anteil von Sätzen mit mehr als 20 Wörtern.

Die nachfolgenden vier Zeilen enthalten den Anteil von Sätzen mit Passiv-Konstrukten, Perfekt-Zeitformen, Nominal-Formen sowie unpersönlicher Rede – durch Schachtelsätze sind hier Werte über 100 % möglich: Die Angabe von 192,3 % Nominalformen bedeutet etwa, dass Einstein in jedem Satz durchschnittlich fast zwei substantivierte Verben untergebracht hat. Auch Kombinationen lassen sich formulieren: etwa Passiv-Konstrukte in Perfekt und Nominalstil wie „die Datenlöschung ist durchgeführt worden“.

Die letzten drei Zeilen der Tabelle zeigen die ermittelten Index-Werte für FRE, LIX und WSF. Wie erwartet, wurde das 1. Buch Mose von allen Metriken als „sehr leicht“ klassifiziert und Einsteins Text als „sehr schwer“ (Einstufung aus Tab. 2).

Die ersten zwei Spalten von Tabelle 3 enthalten die ermittelten Kennzahlen für das 1. Buch Mose (Genesis, [9]) und die Einleitung von Einsteins „Zur Elektrodynamik bewegter Körper“ [8]. Hier fällt auf, dass Einstein im Durchschnitt fast dreimal so viele Wörter in einem Satz unterbringt wie das 1. Buch Mose – die DSGVO liegt sogar noch wesentlich darüber.

Tabelle 3

Tabelle 3: Messwerte zur Verständlichkeit der betrachteten Texte

Verständlichkeit des Standard-Datenschutzmodells

Die Spalte „Baust. 60“ enthält die Kennzahlen für die Textverständlichkeit des SDM-Bausteins 60 „Löschen und Vernichten“. Es fällt auf, dass der Baustein viele lange Wörter mit mehr als 20 Buchstaben und viele lange Sätze mit mehr als 20 Wörtern enthält. Außerdem haben die Autoren häufig Passiv, Perfekt und Nominalstil verwendet. Der FRE des Bausteins 60 wird mit 26 bestimmt, ist also auch für Akademiker anspruchsvoll. LIX und WSF bewerten den Baustein ebenfalls mit „sehr schwer“. Im Vergleich ordnen die drei Metriken den Baustein als ebenso schwer oder geringfügig leichter zu lesen ein als Einsteins Text.

Die Spalte „SDM“ zeigt die Kennzahlen für die SDM-Methodik. Diese ist vergleichbar geschrieben wie der Baustein, mit zwei Ausnahmen: Die Autoren der Methodik verwenden mehr als doppelt so viele lange Wörter mit über 20 Buchstaben und fast doppelt so viele Formulierungen im Nominalstil (Verben sind deutlich kürzer als ihre Substantivierung). Die Methodik wird daher als etwas schwerer zu lesen bewertet als der Baustein.

SDM versus DSGVO

Und die Gesetzesgrundlage? Die Spalte „DSGVO“ enthält die Kennzahlen der DSGVO-Artikel und Erwägungsgründe, auf die sich Baustein 60 bezieht. Außer bei der Verwendung sehr langer Wörter deuten alle Kennzahlen darauf hin, dass die Verordnung um Größenordnungen schwerer zu lesen ist als das SDM und der Baustein. Die drei Verständlichkeitsmetriken lassen sogar darauf schließen, dass die DSGVO noch erheblich anspruchsvoller zu lesen ist als Einsteins Text. Das liegt vor allem an der Verwendung zahlreicher überlanger Schachtelsätze mit vielen langen Wörtern.

Bei einer kritischen Analyse fällt auf, dass die DSGVO zahlreiche mehrsilbige Wörter wie „personenbezogen“, „Verantwortliche“, „Rechtsansprüche“ oder „Geltendmachung“ nutzt. Dabei handelt es sich jedoch oft um präzise definierte, häufig verwendete Begriffe, die dadurch gut verständlich sind. Die Verständlichkeitsmetriken differenzieren aber nicht zwischen einem Text, der immer neue komplexe Wörter einführt, und einem, der am Anfang lange Begriffe einführt und diese dann immer wieder aufgreift. Subjektiv liest sich die DSGVO tatsächlich sehr schwer – aber nicht ganz so schwer wie die Metriken vermuten lassen.

SDM versus IT-Grundschutz

Der Baustein CON.6 „Löschen und Vernichten“ des IT-Grundschutz-Kompendiums definiert ebenfalls Anforderungen an das Löschen von Daten – er ist damit das Gegenstück der IT-Sicherheit zu Baustein 60 des SDM. Wie Tabelle 3 zeigt, haben die Autoren des BSI kürzere Sätze, mehr Passiv-Formulierungen, aber erheblich weniger Nominalformen verwendet. Der Baustein des BSI wird von den Metriken FRE, LIX und WSF ebenfalls als sehr schwer lesbar eingeordnet, ist aber geringfügig leichter verständlich als der SDM-Baustein. Alle Metriken sortieren ihn im Vergleich zu Einstein als etwas leichter lesbar ein.

Abbildung 3

Abbildung 3: Exemplarische „Übersetzung“ von zwei Absätzen des SDM-Bausteins 60 in einfache Sprache (Urtext siehe Abb. 1)

SDM in einfach?

Datenschutz ist ein komplexes Thema. Lässt sich diese Komplexität überhaupt mit einfacheren sprachlichen Mitteln abbilden? Abbildung 3 zeigt eine exemplarische „Übersetzung“ des in Abbildung 1 aufgeführten Fragments aus Baustein 60 in einfache Sprache. Dabei wurde darauf geachtet, jede Aussage Wort für Wort aus dem Originaltext in eine einfache Form zu übertragen, ohne dabei ihren Inhalt zu verändern.

Der originale Abschnitt des Bausteins 60 besteht aus 6 Sätzen mit einer Durchschnittslänge von 21,5 Wörtern. Der längste Satz besteht aus 30 Wörtern. Das längste Wort ist „datenschutzrechtlichen“ mit 22 Buchstaben. 4 von 6 Sätzen transportieren zwei oder mehr unterschiedliche Aussagen.

Der vereinfachte Text besteht aus 28 Sätzen mit einer durchschnittlichen Satzlänge von 5,4 Wörtern und einem längsten Satz mit 14 Wörtern. Das längste Wort ist „zurückgeholt“ mit 12 Buchstaben.

Die ermittelten Kennzahlen (Spalte „einf. Text“ in Tab. 3) führen einige wenige Nominalformen wie „das Zurückholen“, Passivsätze („… Teil der Daten kann zurückgeholt werden.“) und Formulierungen im Perfekt („…, wem du die Kopien gegeben hast.“) auf. Damit erzielt der vereinfachte Anweisungstext zum datenschutzgerechten Löschen einen WSF von „sehr leicht“ und einen FRE und LIX von „leicht“ – er bleibt sogar unter den Anforderungen an die Lesekompetenz des 1. Buchs Mose.

Es ließ sich somit exemplarisch zeigen, dass sich auch komplexe Fachtexte durchaus auf eine geringe Lesekompetenz zuschneiden lassen. Die für Fachtexte allgemein empfohlene Lesekompetenz „mittel“ (Niveau 10. Schuljahr) konnten die Autoren hier noch deutlich unterbieten.

Diskussion

Verständlichkeitsmetriken und die zugehörigen Werkzeuge eignen sich zwar dazu, schnell und unkompliziert die allgemeine Verständlichkeit von Texten zu bewerten und übermäßig komplexe Formulierungen zu finden. Sie sind aber nicht als primäres Optimierungskriterium geeignet: Beispielsweise können die Metriken Synonyme oder dem Leser unbekannte Fremdwörter nicht berücksichtigen. Sie bewerten daher einen längeren Satz mit einer umgangssprachlichen Umschreibung eines Sachverhalts schlechter als einen kurzen Satz mit einem Fremdwort.

Ein anderes Beispiel ist ein Absatz, in dem Subjekt und Objekt einer komplexen Aussage in unterschiedlichen Sätzen untergebracht sind. Gesetzestexte müssen den Geltungsbereich einer Norm definieren. Oft geschieht das in einem eigenen Satz am Anfang eines Artikels. In den nachfolgenden Sätzen können dann kurze Passiv-Formulierungen folgen, ohne dass die Verständlichkeit leidet.

Darüber hinaus müssen sich Texte nicht nur an der formalen Verständlichkeit, sondern auch an den Erwartungen des Lesers orientieren: Würde etwa der Leser eines Fachjournals den in einfacher Sprache formulierten Beispieltext aus Abbildung 3 ernst nehmen?

Es ist darum nicht sinnvoll, einen komplizierten Text zu verfassen und danach so lange mit Textanalysewerkzeugen zu spielen, bis man den gewünschten Verständlichkeitsgrad angezeigt bekommt. Stattdessen sollte sich der Autor eines Fachartikels daran orientieren, Satzlängen, Wörter und Formulierungen zu wählen, die seine Zielgruppe gut versteht – Adjektive, Passiv-Formulierungen, Füllwörter oder unspezifische Relativierungen sollten nur sparsam als Stilmittel eingesetzt werden.

Tabelle 1 enthält einen Überblick zu Formulierungen, die man vermeiden sollte, wenn sie keine Aussage transportieren. Darüber hinaus sollte jeder Satz nur einen einzelnen Sachverhalt ausdrücken. Erst danach sollte man den so erstellten Text einem Analysewerkzeug übergeben. Dieses kann dann die wenigen komplexen Formulierungen identifizieren, die nicht als Stilmittel, sondern versehentlich eingebracht wurden.

Ist Ihnen aufgefallen, wie oft im letzten Absatz die Relativierung „sollte“ verwendet wurde, ohne dass definiert wurde, unter welchen Bedingungen von diesem „Soll“ abgewichen werden darf? Beim Lesen mussten Sie sich deshalb nicht nur mit den genannten Punkten inhaltlich auseinandersetzen – Sie mussten für das Textverständnis zusätzlich auch bewerten, unter welchen Umständen man von den Punkten abweichen kann.

Das „sollte“ gibt auch keinen Hinweis, ob beispielsweise das Vermeiden von Adjektiven wichtiger oder unwichtiger ist als das Vermeiden von Passiv-Konstrukten. Mit hoher Wahrscheinlichkeit kommt dabei jeder Leser zu einem anderen Schluss. Um Aufmerksamkeit auf diese Problematik zu richten, wurde die Formulierung hier absichtlich als Stilmittel gewählt, ebenso die in der <kes> eher ungebräuchliche direkte Ansprache des Lesers.

Fazit

Gerade Fachtexte im Bereich Datenschutz und IT-Sicherheit müssen gut verständlich verfasst sein. Schließlich handelt es sich dabei um ein Querschnittsthema, das im Unternehmen von Mitarbeitern mit unterschiedlichen Ausbildungen und beruflichen Werdegängen bearbeitet werden muss.

Der vorliegende Beitrag hat am Beispiel des Standard-Datenschutzmodells gezeigt, wie sich die Textverständlichkeit von Fachtexten messen lässt. Dabei zeigte sich, dass zwar die SDM-Methodik und der SDM-Baustein60 erheblich verständlicher sind als die zugrunde liegenden Artikel der DSGVO. Allerdings erfordert das SDM ebenso wie der ITGrundschutz eine Lesekompetenz, die nicht wesentlich geringer ist als die zum Verständnis von Einsteins Schriften benötigte.

Aus den so gewonnenen Erkenntnissen wurde abgeleitet, welche Formulierungen und Konstrukte man möglichst vermeiden sollte. Schließlich soll sich der Leser auf die inhaltlichen Aussagen eines Textes konzentrieren können und nicht auf die Schreibweise fokussieren müssen. Nicht zuletzt ließ sich demonstrieren, wie sich sogar komplexe Sachverhalte barrierearm ausdrücken lassen, wobei man aber nie die Zielgruppe außer Acht lassen darf.

Prof. Dr.-Ing. Erik Buchmann (buchmann@hft-leipzig.de) vertritt das Fachgebiet „Datenschutz und Sicherheit in Informationssystemen“ an der Hochschule für Telekommunikation Leipzig (HfTL). RA Susanne Eichhorn (susanne.eichhorn@telekom.de) leitet die Abteilung Consumers, Products & Partnering bei der Deutschen Telekom und ist Lehrbeauftragte für Datenschutzrecht an der HfTL.

Literatur

[1] AK Technik der Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (Hrsg.), Das Standard-Datenschutzmodell, Eine Methode zur Datenschutzberatung und -prüfung auf der Basis einheitlicher Gewährleistungsziele, Version 2.0b, April 2020, online u. a. verfügbar via www. datenschutz-mv.de/datenschutz/datenschutzmodell
[2] Erik Buchmann, Sabine Eichhorn, Wie verständlich ist das Standard-Datenschutzmodell?, Forschungsbericht, Hochschule für Telekommunikation Leipzig, Juni 2020, https://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa2-710285
[3] My Byline Media, Readability Formulas, Free readability tools to check for Reading Levels, Reading Assessment, and Reading Grade Levels, Website, www.readabilityformulas.com
[4] Maximilian Fries, Orvil Keimig, Umfassende Lesbarkeitsanalyse von Datenschutzerklärungen für Apps, Preprint-Version, April 2019, www.researchgate.net/publication/332290953_Umfassende_Lesbarkeitsanalyse_von_Datenschutzerklarungen_fur_Apps
[5] Alexander Lasch, Leichte oder einfache Sprache? Eine empirische Grundlegung, Vortragsfolien, März 2017, https://alexanderlasch.wordpress.com/2017/11/09/leichteroder-einfache-sprache-eine-empirische-grundlegung/
[6] Netzwerk Leichte Sprache, Die Regeln für Leichte Sprache, November 2017, www.leichte-sprache.org/wp-content/uploads/2017/11/Regeln_Leichte_Sprache.pdf
[7] Albert Einstein, Zur Elektrodynamik bewegter Körper, Annalen der Physik 322/10, Juni 1905, S. 891, online verfügbar via https://onlinelibrary.wiley.com/doi/abs/10.1002/andp.19053221004
[8] Das 1. Buch Mose – Genesis, in: Die Bibel, revidierte Luther-Übersetzung, 1912/1913, online verfügbar via https://www.bibel-online.net/buch/luther_1912/1_mose/1/#1
[9] Reinhard Nägler, Textanalyse Tool, https://gratis-ecke.de/webtools/text-analyse-tool-online.html
[10] Dr. Alexandra Lenhard, Dr. Wolfgang Lenhard, Berechnung des Lesbarkeitsindex LIX nach Björnson, 2017, www.psychometrica.de/lix.html
[11] Wortliga Tools GmbH, Wortliga Textanalyse, https://wortliga.de/textanalyse/

Diesen Beitrag teilen: