2.7 Datenschutz zwischen Befindlichkeiten und gesellschaftlichen Machtverhältnissen
Es ist deutlich geworden, dass es weder in der wissenschaftlichen noch in der politischen Debatte eine Einigung zu den unzähligen Aspekten gibt, die im begrifflichen Feld von privacy, Datenschutz und surveillance liegen. Im Gegenteil: Die Unterschiede zwischen den Beschreibungen, Einordnungen und Erklärungen, die von verschiedenen Seiten geliefert werden, sind so groß und teilweise so grundlegend, dass es geraten scheint, grundsätzlich davon auszugehen, dass in der Debatte schlicht verschiedene Phänomene, Praxen und Probleme von verschiedenen Schulen adressiert werden.
Schon auf der Ebene des Gegenstandsbereichs gibt es fundamentale Unterschiede, wenn etwa eine Schule ausschließlich interpersonale Beziehungen betrachten will, eine zweite hingegen die Beziehung zwischen Individuen und Organisationen und eine dritte gar die gesellschaftliche Machtverteilung in der Informationsgesellschaft insgesamt. Daraus folgt aber auch, dass die jeweils betrachteten sowie die von der Betrachtung ausgeschlossenen Akteurinnen und deren Verhältnisse zueinander sowie die ihnen zugeschriebenen oder ausgeblendeten Interessen und Eigenschaften, Kenntnisse und Fähigkeiten nicht gleich sind. Nicht überraschend ist es daher, dass es auch keine Einigung darüber gibt, welche Rolle in diesem Bereich informationstechnische Systeme spielen – Automaten, Werkzeuge oder Medien –, von wem sie kontrolliert und wie sie eingesetzt werden, und welche Auswirkungen sie damit jeweils auf die Informationsverarbeitung und Entscheidungsfindung der einzelnen Akteurinnen haben. Weil zugleich die Theorien, die als Raster für die Wahrnehmung der gesellschaftlichen Wirklichkeit dienen, und die disziplinären Hintergründe ihrer Anwenderinnen extrem unterschiedlich sind, ist leider sogar stark zu bezweifeln, dass es auch nur zu einer Einigung auf die Feststellung kommt, welche Unterschiede es denn genau gebe und in welchem Verhältnis die einzelnen Abbilder der Wirklichkeit zueinander stehen.
Vergleichbar groß sind die Unterschiede hinsichtlich der Zielvorstellungen, an denen sich das Informationsgebaren von Individuen, Gruppen und Organisationen, von Privaten und vom Staat oder von der Gesellschaft insgesamt messen lassen muss. Als Schutzgüter werden dabei von den einzelnen Schulen ganz unterschiedliche „Dinge“ identifiziert, von individuellen Zuständen, Bedürfnissen, Interessen oder Werten über soziale Konstruktionen, gesellschaftliche Werte oder Normen bis hin zu Struktureigenschaften von gesellschaftlichen Verhältnissen, aber auch beliebige Kombinationen davon. Und so vielfältig wie die Schutzgüter sind auch die verwendeten Bezeichner. Hinzu kommt, dass weder von der Gleichheit noch von der Ungleichheit der Bezeichner darauf geschlossen werden kann, dass gerade die gleichen oder gerade unterschiedliche Schutzgüter adressiert werden.
Und damit überrascht es nicht, dass sich auch die Problembeschreibungen fundamental unterscheiden. Ob Artefakte wie Daten, Informationen oder gar der Computer selbst, Praxen wie Überwachung oder Veröffentlichung, Verdatung oder Missbrauch, Informationsverarbeitung oder -nutzung, besondere Akteurskonstellationen oder deren Eigenschaften wie Machtimbalancen oder Phänomene auf der gesellschaftlichen Ebene wie die Digitalisierung aller Lebensbereiche, die globale Vernetzung oder die Industrialisierung der gesellschaftlichen Informationsverarbeitung – alles ist schon einmal als Problem oder Problemverstärker identifiziert worden.
Genauso umstritten sind die Beziehungen zwischen den Akteurinnen, Artefakten und Praxen und die jeweils daraus gezogenen Schlussfolgerungen für die Bestimmung, was Auslöser und was Folge ist, und was davon – Auslöser oder Folge – gerade das Problem bezeichnen soll – von den Einordnungen und Erklärungen ganz zu schweigen. Allein bei der Anknüpfung an personenbezogene Informationen scheint sich eine große Mehrheit einig zu sein – bei gleichzeitiger Uneinigkeit über den Bezeichner – personenbezogene Informationen oder Daten, private oder persönliche Daten, personally identifiable information, personal data oder private data –, das Konzept oder die dahinterstehende Theorie.
Und so unterschiedlich die Problembeschreibungen und -erklärungen sind, so verschieden sind auch die vorgeschlagenen Lösungen. Von sozialen Normen über rechtliche Regelungen oder Marktlösungen bis hin zu technischen Schutz- oder Selbstschutzsystemen wird alles – auch in Kombination – vertreten. Und deren jeweilige konkrete Form wird wesentlich dadurch bestimmt, wer oder was als Problem identifiziert wurde, und welcher Charakter dem Problem zugeschrieben wurde – eine Gefahr, eine Bedrohung oder nur ein Risiko, ausgelöst nur durch Vorsatz oder auch durch Fahrlässigkeit, mit oder ohne Rückgriff auf moralische Wertungen, lösbar oder nur beschränkbar. Und gerade im Zusammenhang mit den Gestaltungsvorschlägen für informationstechnische Systeme ist besonders deutlich geworden, wie sehr es an einem gemeinsamen Ordnungssystem mangelt, denn die Unterscheidung der Technik danach, ob sie Lösung ist oder nur Schlangenöl, kann nur auf der Basis von Angreifer- und Bedrohungsmodell vorgenommen werden.
Offensichtlich ist, wie prekär der allgemeine Stand der Debatte ist. Nicht nur, dass sie sich selbst viel zu wenig reflektiert und die wenigen Einordnungs- und Systematisierungsversuche oft zu oberflächlich sind und in ihrer Abdeckung zu kurz greifen, sie dreht sich auch im Kreis. Immer wieder kehrt sie zurück zu überholten oder längst widerlegten Anknüpfungspunkten, Unterscheidungen und Konzepten. Während die Debatte durchaus stark geprägt ist von Flügelkämpfen und von oft ostentativen Abgrenzungsversuchen, „lebt“ sie gleichzeitig von recht freizügigen Übernahmen – von Rosinenpickerei bis zu ausgemachten Plagiaten. Und die Tatsache, dass wir trotz einer seit 50 Jahren währenden Diskussion über privacy und Datenschutz durch Technik – davon zwanzig Jahre unter dem Label „Privacy-Enhancing Technologies“ – von einem breiten Einsatz solcher Systeme weit entfernt sind, ist nicht nur peinlich, sie ist zugleich ein blinder Fleck der Debatte.
In der vorliegenden Analyse ist deutlich geworden, dass viele Konzepte, mit denen in der Debatte operiert wird, aus informatischer Sicht schlicht falsch, nicht, nicht mehr oder nicht vollumfänglich haltbar oder unzulässig verkürzt sind. Dazu gehören etwa die Fixierung auf personenbezogene Informationen sowohl hinsichtlich der Beschränkung des Gegenstandsbereichs als auch als Anknüpfungspunkt für Rechtssetzung und Technikgestaltung und der daraus folgende Glaube an Anonymität als allgemeingültiger Lösung, die offenkundig falsche und doch weitverbreitete Behauptung, Sensitivität sei eine Eigenschaft von Informationen, die naive Trennung von „öffentlich“ und „privat“, das Konstrukt der informierten Einwilligung, bei der sowohl die Informiertheit wie auch die zur Einwilligung notwendige Freiwilligkeit allzu oft nicht vorhanden ist, oder das sogenannte „Privacy Paradox“.
Darüber hinaus ist festzustellen, dass die Datenschutztheorie zumindest als Theorieschule gescheitert ist. Es ist dieser Schule nie gelungen, eine zugleich umfassende und dennoch lesbare Darstellung ihres Verständnisses vom Menschen und von der Welt, von Organisationen und von der Informationstechnik, von der Informationsverarbeitung und der Informationsgesellschaft vorzulegen, die die eigenen theoretischen Fundamente, Annahmen und Prämissen aufdeckt, das Datenschutzproblem auf dieser Basis fundiert erklärt und die vorgeschlagene Lösung – den Datenschutz – sauber begründet. Als Theorieschule hat sie sich im Grunde nach der Implementation des Datenschutzes im Datenschutzrecht aufgelöst, ihre Mitglieder haben sich vorwiegend dem Datenschutzrecht zugewandt. Sie hat nicht eingegriffen – oder sich sogar daran beteiligt –, als das Problem individualisiert wurde – zurückgestutzt auf die Frage der individuellen Entscheidung über die Preisgabe oder Nichtpreisgabe von personenbezogenen Informationen. Zugleich haben die Diskussion um das Datenschutzrecht, die Gerichtsurteile, vor allem des Bundesverfassungsgerichts, und die Rechtspraxis es geschafft, die theoretische Auseinandersetzung zu dominieren und zu überformen: Die Datenschutzdiskussion ist seit Ende der 1970er Jahre im Grunde nur noch eine Datenschutzrechtsdiskussion, die Mittel stehen im Vordergrund, und um sie dreht sich aller Streit – mit der Folge, dass über Datenschutz nur noch zu den Bedingungen und gemäß den diskursiven Regeln der Rechtswissenschaft diskutiert werden kann. Vor diesem Hintergrund wird es schwer, eine Bindung des Rechts an die Wissenschaft, die das Datenschutzproblem nur erklären kann, und das Politische, wo Datenschutz nur legitim gesellschaftlich ausgehandelt werden kann, zu erzwingen.
Viele Probleme, die die Datenschutzdiskussion bereits in den 1970er Jahren aufgegriffen hat, sind erst in den letzten Jahren wieder breiter diskutiert worden – nur eben nicht mehr als Teil des Datenschutzproblems. Dazu gehören etwa die Probleme gesellschaftlicher Machtverschiebungen, die sich aus den unterschiedlichen Zugangsmöglichkeiten zu und Nutzungsmöglichkeiten von den als „Machtverstärkern“ identifizierten Informatiksystemen für verschiedene gesellschaftliche Akteurinnen ergeben, ob zwischen Staatsverwaltung und Parlament, zwischen dezentralen und zentralen staatlichen oder überstaatlichen Organisationseinheiten, zwischen großen und kleinen Organisationen, für die öffentliche Debatte, für Wahlen und Abstimmungen oder für den Zugang zu Information und Wissen. Die historische Datenschutzdebatte hat früh die Vermessung und Verdatung der Welt problematisiert, die Nutzung von Informationssystemen zur Überwachung von Bevölkerungen, zur Entdeckung von normabweichendem und zur Vorhersage von zukünftigem Verhalten, die Monopolisierungstendenzen von Gatekeepern, die grundsätzliche Beobachtbarkeit jeder technisch vermittelten Kommunikation und die grundsätzliche Zweckfreiheit von Informationssystemen.
Viele ihrer Vorhersagen basierten nicht auf dem damaligen Stand der Technik, sondern auf einer Auseinandersetzung mit den Potentialen, die informationstechnische Systeme besitzen, den Möglichkeiten, die sie ihren Betreiberinnen verschaffen, und einem teilweise naiven Glauben an die damaligen Versprechungen der Herstellerinnen wie auch der Informatik als Wissenschaft, die Systeme mit Eigenschaften für die nahe Zukunft versprach, die sie teilweise erst viele Jahr zehnte später zu liefern in der Lage waren. Zugleich hat aber diese Mischung aus einer sich an den Potentialen der Technik, den Möglichkeiten ihres Gebrauchs und den Folgen dieses Gebrauchs vor allem durch Organisationen für Menschen, Gruppen, Organisationen und Gesellschaft orientierten Analyse und einer übertriebenen Naivität hinsichtlich der Geschwindigkeit, mit der die Informationstechnik die Gesellschaft durchdringen und ihre „radikale Umgestaltung gesellschaftlicher Verhältnisse“ vollbringen würde, dem Datenschutz – und in der Folge dem Datenschutzrecht – einen deutlichen Vorsprung vor der technischen und gesellschaftlichen Entwicklung verschafft. Und sie hat mit ihrer Bezugnahme auf die Potentiale der Technik – und eben nicht auf den jeweils schnell veraltenden Stand der Technik – dafür gesorgt, dass sie den stärksten Treiber für die technische Entwicklung und den größten Einflussfaktor auf Gestaltung, Auswahl und Einsatz von informationstechnischen Systemen adressieren kann: die Interessen der Datenverarbeiterinnen – und das Datenschutzproblem damit als originär gesellschaftliches.
Vielleicht lässt sich das nirgends deutlicher sehen als beim Umgang mit der Frage nach der Speicherung von Daten „auf Vorrat“, also der Speicherung für unbestimmte Zeit und vor allem für unbestimmte Zwecke: Noch vor wenigen Jahren haben selbst Autorinnen, die sich selbst sehr deutlich als Maßstab der Fortschrittlichkeit angesehen haben, Wirtschaft und Verwaltung jedes Interesse an unbegrenzter Speicherung und Verarbeitung von Daten – im Widerspruch zu ihren eigenen Äußerungen – abgesprochen und derartige „Befürchtungen“ von Datenschützerinnen als übertrieben abgelehnt, nur um bald darauf unter Verweis auf genau dieses Interesse – und eine quasi objektive Notwendigkeit in Zeiten von Big Data, Daten unbegrenzt und zweckfrei zu speichern – ein Schleifen des Zweckbindungsgebotes zu fordern.
Jörg Pohle; Humboldt-Universität zu Berlin; 2019
Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu
https://edoc.hu-berlin.de/handle/18452/19886
Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.