Zwischen Kontinuitäten und Umbrüchen
Schwächephase nach den ersten Datenschutzgesetzen
Während die Datenschutzdiskussion in der Bundesrepublik – von Ausnahmen abgesehen – verflachte und verstärkt zur Rechtsdiskussion, und dort vor allem zur Auslegungsdiskussion, mutierte, behielt sie insbesondere in den USA ihre vorherige Breite bei, wahrscheinlich bedingt durch das Fehlen eines allgemeinen Datenschutzgesetzes.
Auf der einen Seite standen dabei sehr eingeschränkte Konzeptionen wie die von Richard A. Posner und George J. Stigler. Posner definiert „privacy“ einfach als instrumentelles Interesse an Geheimhaltung von Informationen, vor allem „discreditable informationen, often information concerning past or present criminal activity or moral conduct at variance with a person’s confessed moral standards“ mit dem vorherrschenden Ziel „to mislead others“. Unter Verweis das Problem falscher Angaben über Waren im Kaufvertragsrecht schlussfolgert Posner, dass es „generally no protection for facts about people“ geben sollte. Gleichwohl – und das ist vor dem Hintergrund von Posners Argumentation zu Ablehnung von privacy für Individuen scheinbar überraschend – fordert er „the protection of trade and business secrets by which businessmen exploit their superior knowledge or skills“. Es ist jedoch nur scheinbar überraschend: Zwar will er mit seinen Arbeiten eine ökonomische Analyse vorlegen, beschränkt sich jedoch zugleich auf „personal rather than business contexts“, um dann eine rein ökonomisierte Form des instrumentellen privacy-Interesses zu unterstellen – „not to desire or value privacy [. . . in itself] but to use these goods as input in the production of income or some other broad measure of utility or welfare“–, um dann doch vor allem auf die große Bedeutung zu verweisen, die Informationsverarbeitung im Wirtschaftsbereich habe. Kurz: Posners „Analyse“ ist verkürzt, geprägt von seiner Ergebnisorientierung, Folge seiner unbegründeten Annahmen und zugleich in sich widersprüchlich – das einzig verwunderliche ist, dass Posner bis heute als einer der Ahnen der wirtschaftswissenschaftlichen Beschäftigung mit privacy gilt. Wie Posner imaginiert auch Stigler jeden Datenverarbeiter als Person, vor allem wenn es darum geht, die negativen „Folgen“ von privacy zu beschreiben, während er sonst ganz selbstverständlich davon spricht, dass es sich in erster Linie um Organisationen wie den Staat oder Unternehmen handelt. Und auch Stigler kann nur in Kategorien von property rights und ownership denken.
Auf der anderen Seite stehen die – wenn auch nicht unbedingt besseren, so doch nicht nur beschränkt ökonomistisch argumentierenden – allgemeineren privacy-Theorien und -Konzepte. Ein großer Teil davon betrachtet auch nur interpersonale Verhältnisse oder basiert auf zugrunde gelegten Theorien, deren Gegenstandsbereich nur interpersonale Verhältnisse umfasst. William H. Foddy und William R. J. Finighan versuchen, privacy aus der soziologischen Theorie des symbolischen Interaktionismus heraus zu konzeptionalisieren. Sie bauen dabei sowohl Versatzstücke von Goffman wie von Altman ein, ohne sich gleichzeitig explizit zu Goffmans Rollentheorie zu bekennen – die selbst aus dem symbolischen Interaktionismus abgeleitet wurde –, oder Altmans Konzept einer „boundary“ des Selbst übernehmen zu wollen. Während Müller mit Parsons und Merton das Agieren in einer durch Rollenspiel geprägten Welt als Bezugspunkt nimmt, fokussieren die Autoren auf die Identitätskonstruktion und -aufrechterhaltung „within a specific role relationship“, zitieren zugleich jedoch Müller und Kuhlmann zum Problem des rollengrenzenübergreifenden Informationsflusses.
Mit dem Ziel, Forderungen nach privacy sinnvoll zu kategorisieren und zu gruppieren sowie ihren rechtlichen Schutz zu begründen, versucht Ruth Gavison, zwischen einem neutralen Konzept von privacy und dem Wert von privacy zu unterscheiden. Sie unterscheidet zwischen dem Status – ob es sich bei privacy um eine Situation, ein Recht, einen Anspruch, eine Form von Kontrolle oder einen Wert handelt – und den Eigenschaften – ob privacy sich auf Informationen, Autonomy, Identität, physischem Zugang bezieht – und entscheidet sich dann, privacy als „a situation of an individual vis-à-vis others, or as a condition of life“ zu definieren und zu charakterisieren als „our accessibility to others“ – physisch, informationell und als Objekt fremder Aufmerksamkeit. Die Funktionen von privacy seien „the promotion of liberty, autonomy, selfhood, and human relations, and furthering the existence of a free society.“ Perfekte privacy habe, wer „completely inaccessible to others“ sei: „no one has any information about X, no one pays attention to X, and no one has physical access to X.“ Auf dieser Basis definiert sie dann das Konzept des Verlusts von privacy: „as others obtain information about an individual, pay attention to him, or gain access to him.“ Indem sie „accountability“ und „interference“ explizit aus dem Gegenstandsbereich ihrer Betrachtung ausschließt, kann sie privacy als Komplex aus den an sich distinkten und unabhängigen, jedoch verbundenen Konzepten „secrecy“, „anonymity“ und „solitude“ konstruieren. Ihre weiteren Ausführungen folgen dann dieser Selbstbeschränkung, die dabei an einigen Stellen noch verstärkt wird, und sind zugleich deren Ergebnis: So schließt sie etwa kategorisch aus, dass es zu einem privacy-Verlust kommen könne, wenn die Informationen nicht geheim seien. Anschließend folgen seitenlange Ausführungen über die Funktionen von privacy, die Gavison aus allen möglichen Quellen zusammenträgt, vor allem aus anderen privacy-Theorien. Aus der Tatsache, dass sie so viele Konzepte und Theorien aufzählen kann, schlussfolgert sie dann – ohne jede Begründung, warum dafür die Aufzählung der Theorien und Konzepte ausreichen soll –, dass „some privacy is necessary“ für Menschen, „may [. . . ] contribute to a more pluralistic society“und sogar „privacy is also essential to democratic government because it fosters and encourages the moral autonomy of the citizen“. Abschließend kommt Gavison – nachdem sie noch einmal darauf verwiesen hat, woher privacy-Verletzungen nur kommen können: von „journalists, doctors, detectives, policemen, and therapists“, also Personen – zum Ergebnis, dass das Recht zwar eigentlich das falsche Mittel sei, um privacy zu schützen, aber „a commitment to privacy as a legal value may help to raise awareness of its importance and thus deter reckless invasions.“
Als reines Geheimhaltungsinteresse definiert auch W. A. Parent privacy, jedoch noch eingeschränkt auf „undocumented“ personenbezogene Informationen. Dazu grenzt sie ihr Konzept von anderen, wohl eher zufällig ausgewählten Konzepten ab – vom „right to be let alone“, von „autonomy or control over significant personal matters“ sowie von der „limitation on access to the self“ –, indem sie alle diese Konzepte erst sehr eng versteht, d. h. sie nimmt die Kurzfassung einfach wörtlich, und dann „widerlegt“. Sie geht diesen Weg offensichtlich, weil sie das Ziel verfolgt, „the mistaking of privacy for a part of liberty“ zu verhindern und privacy von solitude, „the condition of being physically alone“, abzugrenzen. Wo sie dann über die Funktionen von privacy „reflektiert“, vermischt sie dann die Konzepte doch wieder: Privacy verhindere die Ausübung von Macht über Personen auf der Basis von „sensitive personal knowledge about us“ – ein klarer und von der Autorin unreflektierter Freiheitsbezug –, privacy schütze Scham in „a society where individuals are generally intolerant of life styles, habits, and ways of thinking that differ significantly from their own“ und privacy – Geheimhaltung von „certain facts about us“ – sei ein Selbstzweck in der „liberal ideology“. Sie schlussfolgert, privacy schütze „the distinctively liberal, moral principle of respect for persons“ und sei „a moral value for persons who also prize freedom and individuality.“ Parent versucht dann, Kriterien zu entwickeln, um gerechtfertigte von ungerechtfertigten privacy invasions unterscheiden zu können und wiederholt dabei die damals schon allgemein anerkannten, wenn auch auf niedrigem Niveau: legitimer Zweck, Relevanz der Informationen für den Zweck, mit den am wenigsten eingreifenden Mitteln, mit prozeduralen Schutzmaßnahmen und Datensicherheit.
Alle diese Konzeptionen gehen davon aus, dass nur Menschen mögliche Angreiferinnen sein können – Organisationen werden schlicht ignoriert. Im Grunde handelt es sich um nichts anderes als Befindlichkeiten, was hier jeweils geschützt werden soll – oder wie bei Posner, abgeschafft werden soll.
Auf einer dritten Seite stehen Arbeiten, die das Problem der modernen Informationsverarbeitung aus strukturalistischer – oder zumindest aus gesamtgesellschaftlicher – Sicht untersuchen. Sie stellen jedoch eine Minderheit dar, können damit jedoch zugleich Aspekte in den Blick nehmen, die den individualistischen und interpersonalen Theorien verschlossen bleiben müssen, wie etwa die Verstetigung spezifischer gesellschaftlicher Machtstrukturen im Zuge der weltweiten Vernetzung von informationstechnischen Systemen oder das Problem von Verantwortungs-zuweisung und Verantwortlichkeit, Aufsicht und Kontrolle bei komplexen Informationssystemen, die selbst wieder in komplexe soziale und politische Umgebungen eingebettet sind.
Die zweite große Untersuchung zur Frühphase der privacy– und Datenschutzdiskussion und deren Verwirklichung im Recht stammt von James Rule, Douglas McAdam, Linda Stearns und David Uglow. Im Gegensatz zu Liedtke analysieren sie allerdings weniger die Aushandlungsprozesse, die zur Verrechtlichung geführt haben, als vielmehr die Problemanalysen und die „Lösungen“ für die Probleme im Recht. Sie gehen dabei von einer sehr breiten privacy-Definition – „the restriction of others’ access to information about oneself“ – und einer ebenso breiten surveillance-Definition – „the systematic monitoring of personal data“ – aus. Der Zweck von „surveillance“ sei „social control“, „any means of influence by which a person or an organization seeks to render other people’s behavior or circumstances more predictable and more acceptable.“ Aus dieser Konstruktion der Begriffe ergibt sich offenkundig, dass es keine „surveillance“ geben kann, die nicht zugleich eine privacy-verletzung darstellt. Die Beschreibung der gesellschaftlichen Realität erinnert – trotz der gegenteiligen Behauptung der Autorinnen, alle anderen in der Welt würden nur durch die amerikanische Diskussion beeinflusst sein und dabei „heavily“ Alan Westin folgen – stark an die deutsche Datenschutzdebatte der 1970er: Moderne (S. 25), spezialisierte (S. 26) und rationale (S. 27) Bürokratien (S. 28) – formale Organisationen (S. 27), Maschinen, „whose overall output is made predictable through the predictable interrelations of each part within them“ (S. 28) – in hochgradig arbeitsteiligen (S. 26) Gesellschaften – „an »organized« world“ (S. 29) –, deren Folge die zunehmende gegenseitige Abhängigkeit der sozialen Teilsysteme sei (S. 26), die mit Individuen nur noch in deren hochgradig beschränkten Rollen interagieren (S. 27), die die Organisationen den Menschen zusammen mit den zugehörigen Rollenerwartungen aufnötigen (S. 28), benötigten Informationen über diese Menschen, um unter Unsicherheitsbedingungen (S. 44) Entscheidungen über sie zu treffen (S. 49):
“It is no exaggeration to describe modern organizations as engaged in the »production« of authoritative decisions about people, or to characterize personal information as the »raw material« for this production.„
Auch für die Rolle der Technik im Gebrauch durch Organisationen und die Beschreibung der Folgen sind die Parallelen unübersehbar:
„[P]ersonal-data systems [. . . ] confer unprecedented power upon bureaucracies to pursue their ends efficiently; but the existence of these powers poses risks which must at some point be counted unacceptable.“
Allein in der Selbstbeschränkung auf personenbezogene Informationen – die Autorinnen unter-scheiden nicht zwischen „data“ und „information“ – findet sich ein Unterschied zu den Ergebnissen der deutschen Debatte im Jahrzehnt zuvor.
Im Rahmen der Arbeit werden anschließend die „Antworten“ auf das privacy-Problem, also sowohl die Problembeschreibungen wie die „Lösungen“ und deren Umsetzung im (US-amerikanischen) Recht, analysiert – „Privacy and Freedom“ (1967), „The Assault on Privacy“ (1971), der Fair Credit Reporting Act (1970), „Records, Computers, and the Rights of Citizens“ (1973), der Privacy Act of 1974, der „Personal Privacy in an Information Society“ (1977) sowie „Databanks in a Free Society: Computers, Record-Keeping and Privacy“ (1972). Die Autorinnen kritisieren, dass alle Studien sich vor allem auf die vielzähligen „abuses“ und „abusive practices“ konzentrieren würden und dabei und damit die großen Fragen ausklammerten:
„How much surveillance do we really want? How far into previously private areas of life ought these systems to extend? At what point does even just, efficient monitoring of private affairs become excessive?“
Entsprechend würden dann auch die „Lösungen“ aussehen: Surveillance sei akzeptabel, wenn die Informationen korrekt, vollständig und aktuell seien, wenn surveillance und Entscheidungen auf der Basis von „openly promulgated rules of »due process«“ getroffen würden, wenn Organisationen nur die für legitime Zwecke erforderlichen Informationen erheben und nutzen würden und wenn es umfassende Betroffenenrechte gebe. Organisationen, die sich an diese Regeln hielten, könnten dann „claim to protect the privacy“ der Betroffenen: „From the standpoint of surveillance organizations, this is a most opportune interpretation of »privacy protection.«“
Als Gegenmodell schlagen die Autorinnen Datensparsamkeit vor, müssen aber zugleich eingestehen, dass diese Alternative bislang ignoriert worden sei. Stattdessen würden alle Beteiligten dem Effizienzkriterium huldigen und damit auch die privacy-Verteidigerinnen in eine Falle laufen:
„The beguiling thing about the emergent reform consensus is that it seems to offer something for everybody. For the general public, beset by demands for personal data, it offers assurance that »privacy« is being »protected,« even as organizations amass more and more personal information. Yet such protection is to be achieved without disturbing any of the conveniences associated in the public mind with organizational surveillance. From the institutional point of view, the picture is even brighter. In exchange for acceptance of procedural reforms, surveillance organizations achieve legitimacy and public support for their activities.
Perhaps most important of all, acceptance of the »efficiency criterion« undercuts potential public opposition to more and more sweeping surveillance: It becomes im-possible to object to any surveillance practice, provided that data are used efficiently for the ends of some established organization — and provided this use occurs with fairness, accuracy, thoroughness, due process, and provision for participation by the individual concerned. Having agreed to play the game, those speaking for the interests of the public can hardly complain as the stakes are raised. And these stakes, in terms of the shifting balance of power between mass publics and centralized organizations, may well rise without limit. Thus the official interpretation of privacy protection actually encourages the growth of surveillance and the erosion of personal privacy.“
Damit aber – und das darf nicht übersehen werden – laufen die Autorinnen in ihre eigene Falle: Das, was sie hier als privacy-Verletzungen beschreiben und aus fundamentalen Gründen – „keeping private spheres private“ – rundheraus ablehnen, ist das Ergebnis ihrer eigenen – und nur ihrer eigenen – privacy-Definition. Hier liegt dann auch der entscheidende Unterschied zur Datenschutzdebatte: Die Datenschutzdebatte setzt auf dem Rechtsstaat und den dort historisch erkämpften Freiheits- und Beteiligungsrechten sowie seinen freiheits- und beteiligungssichernden Organisationsprinzipien auf und entwickelt sie weiter, damit sie auch unter den Bedingungen moderner Informationsverarbeitung gesichert werden können, während Rule und Kolleginnen – etwas überraschend vor dem Hintergrund, dass Rule ein Anhänger Parsons’ ist – schlicht einen alten überkommenen Zustand – den Zustand der Vormoderne – aufrechterhalten wollen und nicht nur die Möglichkeit der gesellschaftlichen Aushandlung des gesellschaftlichen erwünschten Zustands der gesellschaftlichen Machtverteilung. Das räumen sie selbst ein und formulieren dementsprechend als Kritik an der Forderung nach rechtsstaatlicher Einhegung der Informationsmacht von Organisationen:
„Certainly such guarantees, when they work, may establish limits to organizations’ power. But such procedural limitations can scarcely recreate the distribution of power that existed before these centralized data systems grew up.“
Dabei böte ihre Analyse eine sinnvolle Basis für die Frage nach der gesellschaftlichen Aushandelbarkeit gesellschaftlicher Machtverhältnisse und den Bedingungen ihrer Möglichkeiten in von Organisationen geprägten modernen Gesellschaften. Ihr Vorschlag für eine Operationalisierung ihrer Forderung nach Zurückdrehung der gesellschaftlichen Machtverschiebungen zugunsten von Organisationen setzt jedenfalls an der richtigen Stelle an, obwohl die Verbindung zur Frage der Unsicherheitsabsorption nicht gezogen wird:
„Organizations collect personal information to make decisions about people. Better data means more accurate discriminations among the people with whom organizations must deal — hence better decisions, from the viewpoint of the organization. [. . . ]
If organizations were not expected to make such highly refined distinctions between people, the need for rigorous data collection would be greatly eased. The alternative to endless erosion of personal privacy through increased surveillance is for organizations to relax the discriminations which they seek to make in their treatment of people. [. . . ] We propose a reallocation of resources toward less discriminatory, less »information-intensive« ways of dealing with people.“
Zwei damit zusammenhängende Aspekte verdienen noch Aufmerksamkeit: Während Rule et al. einem Argument, das relational mit dem Begriff „besser“ operiert, entgegenhalten, die Frage sei, „what range of alternatives have been taken into account in making the implied comparison?“, stellen sie sich nicht die gleiche Frage, wenn es darum geht, ob die von ihnen beschriebene Realität organisierter Informationsverarbeitung nicht die gleichen Konsequenzen in Fällen hat, in denen keine personenbezogenen Informationen verarbeitet werden. Und zweitens: Sie werfen am Ende ihrer Arbeit das Problem der Zentralisierung mit seiner Folge der Schaffung großer – im Sinne Brunnsteins Werkstattgespräche – Informationssysteme auf, wenn auch im Vergleich zur restlichen Diskussion eher oberflächlich, und schlagen dazu vor, besser auf kleine, „weiche“ und verteilte Systeme zu setzen, die im Schadensfall zumindest den Bereich des Schadens begrenzen könnten.
Die Auseinandersetzung darüber, welchen (individuellen und gesellschaftlichen) Zielen Vorrang vor welchen anderen eingeräumt werden soll und welchen Anforderungen moderne Informationsverarbeitung und -nutzung genügen muss, wurde auch über Landesgrenzen hinweg geführt. Ein von Simon Nora und Alain Minc erstellter Bericht an den französischen Staatspräsidenten zur „L’informatisation de la Société“ von 1978, der im gleichen Jahr in großer Auflage als Buchausgabe erschien und in Frankreich auf große Resonanz gestoßen war, wurde im darauffolgenden Jahr von der Gesellschaft für Mathematik und Datenverarbeitung in der Bundesrepublik publiziert, wenn auch ohne die Anlagen, die im Original in vier Anlagenbänden erschienen und die in der deutschen Ausgabe nur in einer Kurzfassung abgedruckt wurden. Der Bericht adressiert die gesamte Breite der als „Informatisierung“ bezeichneten „zunehmende[n] Durchdringung der Gesellschaft und ihrer Teilsysteme und der Organisationen mit Informationstechnologien“: vom Verhältnis zwischen zentralen und dezentralen Organisationseinheiten des Staates, über das Verhältnis Staat–Bürgerin und Fragen der Bürgerinnenbeteiligung, Freiheitsrechte, die Arbeitswelt, die öffentliche Verwaltung bis hin zur Wirtschaftspolitik. Die zwei größten Mängel, die dem Bericht in der öffentlichen Debatte vorgeworfen wurden, seien nach Kalbhen die Ignoranz gegenüber dem allgemeinen Problem der zunehmenden Verdatung sowie die Fixierung von Nora und Minc auf „große, kanalisierte und staatlich geregelte »Telematik«“. Ein wesentlicher Teil der Veränderungen, die von der Informatisierung ausgelöst würden, betreffe die gesellschaftlichen Kräfteverhältnisse. Dabei sei die Informationsverarbeitung ein „beinahe vollkommen flexibles Werkzeug“, das „sich ohne große Mühe jeder Art von Machtverhältnissen anpassen“ könne. Dieses „neutrale“ Werkzeug könne wie in der traditionellen Datenverarbeitung „hierarchisch organisiert, isoliert und zentralistisch“ sein oder „»entflochten« und verteilt, dezentralisiert oder autonom“ werden: „dies ist eine Frage von Entscheidungen.“ Als die Gefahren für die Freiheitsrechte, die nach Meinung der Autoren „oft sogar überschätzt“ würden, „weil Computer und Dateien einen Symbolcharakter angenommen haben, der alle allergischen Reaktionen gegenüber der Modernität auf sich vereinigt“, werden die „eventuellen Indiskretionsmöglichkeiten“ identifiziert, denen „die Vorteile der Informatik, ihre Effizienz und ihre Vereinfachungsmöglichkeiten“ gegenübergestellt werden, die einfach „akzeptiert“ werden müssten, auch weil „höhere soziale Transparenz und eine bessere Kenntnis der kollektiven und individuellen Lagen nicht immer von Übel sind.“ Stattdessen liege die Gefahr „anderswo, nämlich in der Labilität der ganzen Gesellschaft“, die vor allem aus den in zentralisierten Systemen zunehmend geschaffenen „neuralgische[n] Stellen“ (Single Points of Failure) resultiere. Den Abschluss des Berichts bilden zwei Hypothesen; eine kreist um die Konflikte, die alle Elemente des sozialen Lebens erfassen würden – Sprache und Herrschaft, Wissen und Macht –, während die andere um die Sozialisierung von Informationen im Sinne einer partizipativen Informationsgesellschaft. Ins-besondere die Ausführungen zur zweiten Hypothese sind geprägt von einer – auch sonst im Bericht oft durchscheinenden – Ideologie eines gesellschaftlichen Gleichgewichts, die durch eine durchgängig absolut unkritische Bezugnahme auf Effizienz ergänzt wird.
In einer von Frits Hondius und Paul Sieghart herausgegebenen Sonderausgabe der Zeitschrift „Computer Networks“ wurde der Brückenschlag zwischen den Disziplinen versucht, um den „computer people“ das Problem von „data protection“ nahezubringen, das sich, so die Herausgeber im Editorial etwas beschränkt, insbesondere auf „the handling of personal information“ beziehe: „When someone handles information about someone else, that other person will often be affected in some way as a result – frequently to his advantage, but sometimes to his detriment.“ Die Beiträge in der Sonderausgabe, die sich nicht nur auf eine Wiedergabe der Rechtslage beschränken oder gleich ganz über IT-Sicherheit schreiben, lassen sich klar in zwei Gruppen trennen: Die eine Seite will unter allen Umständen einen „free flow of information“ oder auch einen „free international flow of information“ aufrechterhalten und dafür den Schutz der Betroffenen möglichst weit einschränken. Dabei gehen sie offensichtlich davon aus, dass sie die Interessen der (gerade auch privaten) Datenverarbeiter mit den Interessen der Gesellschaft gleichsetzen können, mit denen dann die Interessen der Individuen ausbalanciert werden müssen. Auf der anderen Seite steht Wilhelm Steinmüller: Er beginnt damit, dass er aufzeigt, dass eine juristische Beschäftigung mit den durch die Computerisierung der Gesellschaft erzeugten „Probleme“ erst beginnen kann, wenn der Charakter von Informationsverarbeitung und „computer networks“ sowie die davon erzeugten sozialen Probleme klar seien, denn die durch das Recht zu lösenden Probleme in diesem Bereich seien nur eine Teilmenge der sozialen Probleme insgesamt, und gleichzeitig würde die rechtliche „Lösung“ selbst wieder neue Probleme erzeugen, die dann wiederum gelöst werden müssten. Zur Überbrückung der disziplinären Grenzen schlägt er dann die Nutzung einer gemeinsamen Sprache vor – der Sprache der Systemtheorie – und die Prognostizierung künftiger Entwicklungen im Bereich der Computernetze. Zwei Entwicklungslinien seien absehbar: Einerseits würden die Netzwerke immer allgemeiner – „the immense capability of computer technology to assimilate other information technologies is a historically unique phenomenon“ –, andererseits gebe es jedoch auch eine Entwicklung hin zu immer spezialisierteren Systemen, und in beiden Fällen eine Tendenz zur umfassenden Vernetzung der Systeme. In der Folge werden „comprehensive possibilities of the capture, storage, and transfer of all data about all socially relevant facts and systems [. . . ] technically feasible through computer networks“, die von drei Tendenzen gekennzeichnet seien: der Bevorzugung einfacher Lösungen gegenüber der Nichtverdatung „with the result that important contextual issues are excluded – to the disadvantage of the data subject“, die Verwendung unterkomplexer Modelle, die mit höheren gesellschaftlichen Risiken verbunden seien, und eine einseitig auf wirtschaftlichen Nutzen ausgerichtete Netzgestaltung. Aus der modelltheoretischen Interpretation der Information folge letztendlich, dass Informationen, Informationssysteme und -netzwerke Machtmittel seien, „ideal means for the planning, guidance and control of social processes“, mit Auswirkungen auf mindestens drei Ebenen: Auf der Ebene des individuellen Arbeitsprozesses führe die Informationsautomation zu einer erhöhten Kontrolle der abhängig Beschäftigten in der Informationsverarbeitung selbst, auf der Ebene der Organisationen führe sie zu zunehmender Rationalisierung und Zentralisierung mit der Ausschaltung von Zwischeninstanzen und den damit verbundenen Mitbestimmungsrechten und auf der gesellschaftlichen Ebene erzeuge sie die Unterwerfung der Bürgerinnen mit ihren Rechten unter die öffentlichen und privaten Organisationen sowie Verwerfungen im gesellschaftlichen Machtgefüge. Diese Probleme würden dann in vernetzten Systemen weiter verstärkt bis hin zum Fehlen jeder Möglichkeit zur Einflussnahme auf Entscheidungen und deren Kontrolle durch Betroffene, Mitbestimmungsinstitutionen oder Aufsichtsorgane und bei Möglichkeiten zur Flucht der Informationssysteme aus Hochschutz- in Niedrigschutzländer bis zum Ausschluss jeder Aussicht auf eine erfolgversprechende Gegenstrategie aller Betroffenen. Und auf internationaler Ebene gebe es sogar Folgen im Verhältnis zwischen Staaten, wenn die Informationsverteilung durch die Machtbedingungen diktiert werde. Da ab einer bestimmten Größenordnung alle sozialen Probleme immer auch rechtliche werden würden, müsse das Recht alle vorbeschriebenen Probleme adressieren: Neben Arbeitnehmerinnenschutz und Mitbestimmungsfragen stünde dabei aus rechtlicher Sicht ein weitgefasster Datenschutz im Vordergrund „to counter the threats to the public and private freedom of action of the citizen“ sowie von Gruppen und gesellschaftlichen Institutionen wie Parteien oder Gewerkschaften, zu dem auch ein Recht auf Informationszugang für Bürgerinnen gegen den Staat gehöre. Abschließend fordert Steinmüller, dass Systeme grundsätzlich „human-sized“ sein sollen.
Einen solchen breiten Ansatz bei der Analyse von Netzwerken verfolgte auch die „Interdisziplinäre Arbeitsgruppe Kabelkommunikation Berlin“, die zusammen mit dem Institut für Zukunftsforschung Berlin im September 1978 ein Kolloquium zu „Zweiweg-Kabelfernsehen und Datenschutz“ durchführte und die Ergebnisse in einem Tagungsband publizierte. Der Leiter der Arbeitsgruppe, Klaus Dette, gab nicht nur eine Einführung in das Kolloquium, sondern auch einen Überblick über die wesentlichen Ergebnisse der Diskussion: 1) Das Netz sollte Anonymität garantieren, jedenfalls gegenüber Diensteanbietern. 2) Empirische Nutzungsforschung sollte beschränkt werden auf eine repräsentative Auswahl freiwilliger Teilnehmerinnen.
Zwei Datenschutzdefinitionen stünden unvereinbar nebeneinander – eine enge („Verhinderung des Mißbrauchs personenbezogener Daten“) und eine weite („Gesamtheit der Maßnahmen zur Ermöglichung und Erhaltung sozialer Verhaltensräume für Individuen und Gruppen unter den Bedingungen moderner Informations- und Kommunikationssysteme“). 4) „Unwidersprochen blieb allerdings der kritische Einwand, daß weder private noch öffentliche Träger künftiger Kommunikationssysteme in der Lage sein werden, einmal gespeicherte Persönlichkeitsprofile gegen Unbefugte hinreichend abzusichern.“ 5) In absehbarer Zeit werde es technisch möglich sein, „Art, Zeitpunkt und Inhalt jeder technisch vermittelten Kommunikation zu archivieren“, daher bedürfe es „im Interesse der Benutzer eine[r] allgemeine[n] Reduzierung der Speicherung personenbezogener Informationen“, und es müssten nicht nur explizite Persönlichkeitsprofile verhindert werden, sondern auch implizite – „Teilnehmer- und Interaktionsdaten, die im Gesamtsystem verteilt sind“. 6) Der Schutz des Fernmeldegeheimnisses allein reiche nicht aus, vor allem vor dem Hintergrund der „sogenannten Abhörgesetze“, und bedürfe daher flankierender spezialgesetzlicher Regelungen. 7) Sowohl Betroffene wie Vertreterinnen „wirtschaftlich und politisch schwacher Gruppen“ seien stärker zu beteiligen, sowohl bei der Gestaltung wie bei der Kontrolle, etwa im Rundfunkrat. 8) Nutzerinnen würden zugleich zu Produzentinnen. Das datenschutzrechtliche Medienprivileg dürfe nicht auf „Interaktionsdaten“ ausgedehnt werden. 9) Es bedürfe einer intensiveren Zusammenarbeit zwischen Datenschützerinnen, Technikerinnen und Politikerinnen für den Entwurf „wirksamer Datenschutzmaßnahmen und die ständige Gewährleistung des Datenschutzes“. 10) Es bedürfe spezialgesetzlicher Regelungen für zukünftige technische Kommunikationsmedien. Und Datenschutz müsse „integraler Bestandteil des Systementwurfs hochkomplexer Kommunikations- und Informationssysteme“ sein. 11) Die Planung von Datenschutzmaßnahmen müssten auf den vorgesehenen Endausbau abgestimmt werden. Ziel sei eine „kontrollfreundliche und bürgernahe Gestaltung technischer Kommunikations- und Informationssysteme“.
In den Diskussionen zu den Kolloquiumsbeiträgen wurden auch bereits Themen angesprochen, für die teilweise erst sehr viel später die passenden technischen Bedingungen zur Verfügung standen. Dazu gehörte etwa das „Fernwirken und Fernmessen“, das später als TEMEX von der Deutschen Bundespost wenig erfolgreich umgesetzt wurde und im Grunde ein Vorläufer heutiger Vernetzungen im Smart Grid ist. Auch Rolf Kreibichs Ausführungen zur „grundlegende[n] Ungleichheit der Datenempfänger, die es praktisch unmöglich macht, daß Datenmißbrauch durch eine totale Öffentlichkeit aller Daten verhindert werden könnte“, sind in diesem Zusammenhang zu sehen, denn sie setzen voraus, dass tatsächlich, d. h. eben auch technisch, alle Daten öffentlich gemacht werden könnten, und das zeigt zugleich die strukturellen Grenzen der Open-Data-Ideologie auf. Auch die derzeit geführte Diskussion um „Metadaten“ wird dort bereits vorweggenommen, wo etwa Steinmüller in seinem Vortrag darauf hinweist, dass diese Metadaten, die er als „Prozeßdaten“ bezeichnet und die „durch die Interaktion von Menschen mit dem System entstehen“, und „ihr scheinbar zwangsläufiges Entstehen und weiteres Schicksal von dem Abgebildeten häufig nicht bemerkt sowie kaum je mitgestaltet und mitverantwortet werden kann.“ Und nicht zuletzt lehnt Steinmüller auch die Behauptung ab, dezentrale Strukturen seien immer datenschutzfreundlicher als zentrale – stattdessen hänge dies von den jeweiligen Umweltbedingungen ab, denn dezentrale Systeme könnten „so vertrackt organisiert sein, daß sie kein Mensch mehr politisch angreifen kann.“
In der öffentlichen und publizistisch geführten Diskussion lag der Schwerpunkt am Ende des Jahrzehnts jedoch weniger auf der neuen Technik und ihren Möglichkeiten, sondern klar auf dem sich vertiefenden Überwachungsstaat, dessen Gebaren gerade 1978 in einer langen Reihe von Skandalen ans Licht der Öffentlichkeit gezerrt worden war. Während Horst Herold, damaliger Präsident des Bundeskriminalamtes, jedenfalls in seinen Veröffentlichungen einem Primat von Effizienz gegenüber den Grundrechten eine Absage erteilt, wirft Hans Magnus Enzensberger ihm – und „den Seinen“ – genau das vor. Mehr noch: Es gehe ihnen mehr um die Zukunft als die Vergangenheit, nicht nur um Repression, sondern um „die präventive Planung einer kybernetisch gesteuerten, störungsfreien Gesellschaft.“ Die Polizei solle zu einem „Early Warning System“ entwickelt werden, das „Fehlentwicklungen und Risiken entdeckt und politische Strategien entwirft“, „Gefährdungen der »Sicherheit« aufspürt und eliminiert, bevor sie massenhaft auftreten können“ – heute diskutiert als „predictive policing“ und dabei oft genug als „neue Entwicklung“ verkauft. Die Realität überwachungsstaatlicher Maßnahmen, die Einführung und Vergrößerung staatlicher Überwachungssysteme, die nachträgliche Legalisierung bestehender sowie die Schaffung gesetzlicher Grundlagen für neue Überwachungspraktiken – sie alle sprechen weniger von der staatlichen Selbstbeschränkung, deren Existenz Herold behauptet, als vom Weg „vom Verfassungs- zum Sicherheitsstaat“. Und alle Versuche, diesen Vorwurf als unbegründet zu enttarnen, scheinen dann scheitern zu müssen, wie das Beispiel von Hans Peter Bull, dem ersten Bundesdatenschutzbeauftragten, zeigt: Um nachzuweisen, „daß [. . . ] »keineswegs« ein großer Teil der Bevölkerung von den Sicherheitsorganen »in irgendeiner Weise überwacht wird«“, versuchte er, die Dienste zur Offenlegung der Zahl der „Bürger-Dossiers“ zu bewegen – erfolglos.
Zu den wenigen, die weiterhin auf einer grundlegenden Analyse des Datenschutzproblems bestanden, gehörte Steinmüller, der dabei seine vorher getätigten Ausführungen erweiterte, vertiefte und in eine veritable Theorie der Industrialisierung der Informationsverarbeitung münden ließ, Datenschutz – bei Steinmüller mal mehr, mal weniger deutlich in „Datenschutz im engeren Sinne“ und „Datenschutz im weiteren Sinne“ unterteilt – diene dabei dazu, „angesichts der rapide fortschreitenden Datenerfassung aller Lebensbereiche [. . . ] noch diejenigen politischen, sozialen und individuellen Handlungsspielräume zu erhalten (oder gar zu verbessern), die für eine funktionierende Demokratie mit mündigen Bürgern (über)lebensnotwendig sind.“ Einen eingeschränkteren Blick auf das Problem hat Herbert Meister, der als „Schutzgut des Datenrechts“ das „Recht am eigenen Datum“ als „Selbstdarstellung des Menschen“ auf der Basis einer „Rollenanalyse“, die sich einer Bindung an einen bestimmten Diskussions- und Theoriestrang in der sich auf das Konzept der „Rolle“ beziehenden Soziologie verweigert, identifizieren will. Zwar solle diese Kontrolle über die Selbstdarstellung „Autonomie für individuelles Handeln“ schaffen, es gibt jedoch keine – vor dem Hintergrund der Behauptung einer Bezugnahme auf die „Datenverarbeitung im weitesten Sinn“ eigentlich notwendige – Diskussion über die Suffizienz dieser Kontrolle für die Autonomie.
Gleichzeitig zeigen die Veröffentlichungen Ende der 70er und Anfang der 80er Jahre aber auch, dass selbst nach dem Inkrafttreten des Bundesdatenschutzgesetzes die erreichten Erkenntnisse und Positionen keineswegs als gesichert gelten können – alles bleibt fundamental umstritten. So fällt etwa Podlech in seiner Darstellung von Art. 2 Abs. 1 GG hinter den Stand der Diskussion zurück, indem er seinen Kern als Schutz von „Privatheit“ fasst, diese „Privatheit“ erst von der „freien Entfaltung der Persönlichkeit“ abgrenzt, anschließend allerdings die „freie Entfaltung der Persönlichkeit“ neben der „informationellen Selbstbestimmung“ und der „Achtung des privaten Bereichs“ als dritten Teil der „sachlichen Dimension“ dieser „Privatheit“ zu identifizieren meint. Das ganze krönt er dann, indem er die „Privatheit“ in der „Privatsphäre“ verortet und diese von der „Öffentlichkeit“ – dem „Politischen“ – abgrenzt, in der Diskussion zur „sachlichen Dimension des Rechts der Privatheit“ allerdings – insbesondere für die „informationelle Selbstbestimmung“ – ganz selbstverständlich wieder davon ausgeht, dass die Handlungen in der „Öffentlichkeit“ damit geschützt würden, sowohl vor dem Staat wie vor Privaten, um zuletzt aber wieder den „Heraustritt aus der Privatheit“ als eigenständiges Problem aufzuwerfen. Auch Bull sieht auf der grundsätzlichen Ebene eine solche Trennung zwischen dem allgemeinen Persönlichkeitsrecht, das einen „starken Bezug zum Recht der persönlichen Ehre“ besitze, und der „Privatsphäre“, die er als Übersetzung von „privacy“ betrachtet, auf „Selbstbestimmung und Entfaltungsfreiheit“ abbildet und sie zugleich als sowohl räumlich wie nicht-räumlich bezogen bezeichnet. Auf diese „Privatsphäre“ beziehe sich das Datenschutzrecht, mit dem erstmalig – jedenfalls in dieser Breite – „die Verteilung von Informationen zum Gegenstand von Rechtsnormen“ werde, ähnlich der Regelung der „Güter- oder Macht-(Kompetenz-)Verteilung“, mit der „zumindest teilweise beabsichtigt[en]“ Folge einer „Informationsrationierung“ als einem „Mittel der Machteinschränkung“. Mit dieser Vorverlagerung zeige sich das Datenschutzrecht zugleich als „Recht der Gefahrenabwehr“ mit einer Ähnlichkeit zur Gefährdungshaftung – eine Tatsache, die Bull jedoch kritisiert, da es auch reichen könne, „mit den Gefahren zu leben, ihre Realisierung abzuwehren und dennoch eintretende Schäden auszugleichen“. Einen solchen Ansatz sieht Bull nur aufgrund der nur geringen „praktischen Möglichkeiten, einen Fehlgebrauch [sic!] von Informationen rechtzeitig abzuwehren“ – hier fehlt ihm offensichtlich die Sachkenntnis, die vorhergegangene Diskussion zum Problem von Modellannahmen zu reflektieren. Auch die von ihm identifizierten vier Gruppen Bedrohungen, von denen aus sich die „schutzwürdigen Belange der Betroffenen“ erst richtig erfassen ließen, – „Neugierde“, „daß Daten »kommerzialisiert« werden“, „Gefahren für die persönliche Entfaltung des einzelnen“ und „daß illegitime Herrschaft über Menschen ausgeübt wird“ – lassen Fragen offen, nicht nur weil Bull keinerlei Erklärung für seine Klassifizierung gibt. Die ersten beiden Klassen scheinen sich auf Befindlichkeiten zu beziehen, denn er beginnt die Beschreibung der ersten Gruppe mit einem Verweis darauf, dass es „[v]ielen [. . . ] unangenehm“ sei, und bezeichnet in seinen Ausführungen zur zweiten Gruppe die Kommerzialisierung als „Ärgernis“. Auch ist die Trennung zwischen der dritten und der vierten Gruppe unklar: Die dritte verweise auf „Bedrohungen durch berufliche, wirtschaftliche oder sonstige soziale Nachteile von Gewicht“, während die vierte „die laufende Überwachung und Kontrolle des einzelnen“ beschreibe – als seien diese keine „sozialen Nachteile von Gewicht“. Noch extremer liegt der Fall bei Michael Kloepfer, der an einer dichotomen Trennung von Staat und Gesellschaft festhält, Datenschutz im wesentlichen nur als Geheimnisschutz – „Personengeheimnis“ nennt er diesen Kern seines Konzepts von „Privatsphäre“ – sehen und dafür selbst auf die Sphärentheorie nicht gänzlich verzichten will, obwohl ihm deren Untauglichkeit bekannt ist. Um zu diesem Ergebnis zu gelangen, operiert er vorwiegend über falsche Zuschreibungen, Strohmann-Argumente und der Auslassung von Gegenargumenten. Das gilt ebenso für Rudolf Schomerus, der etwa zum Verbot mit Erlaubnisvorbehalt meint, es behafte Datenverarbeiter „mit dem Image des Gefährlichen, Bedrohlichen“, und unterstelle ihnen, „prinzipiell Unrechtes zu tun“, und stattdessen vom „Sensibilitätsgrad der Daten“ fabuliert. Datenverarbeitung sei gerade nicht „generell als gefährlich und damit regelungsbedürftig“ zu betrachten, weil es „eine Ausdrucksform der Kommunikation“ und „Kommunikation [. . . ] grundsätzlich positiv zu bewerten“ sei: „Kommunikation muß prinzipiell frei sein.“ Etwas reflektierter, wenn auch immer noch mit dem Strohmann der „Privat(daten)sphäre“ hantierend, sind immerhin die soziologischen Ausführungen von Volker Ronge – von einzelnen absurden Behauptungen abgesehen, wie der, dass es im Bereich der öffentlichen Verwaltung nur darum gehen könne zu sichern, dass gespeicherte Daten „nicht »vagabundieren« und von Unbefugten in eigenem Interesse verwendet werden können.“ Seine Kritik an dem Gesellschaftsbild, das er „hinter dem restriktiven rechtlichen Schutz personenbezogener Daten“ sieht, – anzunehmen, das Individuums sei „die entscheidende »soziale« Einheit“, dass „die Individuen in einem Verhältnis (der Konkurrenz) zueinander stehen, das sie nötigt, sich gegeneinander zu schützen“ und dass „die Individuen als Gesamtheit in einem Verhältnis zu »ihren« sozialen Institutionen, insbesondere dem Staat, das von Mißtrauen geprägt ist“, d. h ein „frühbürgerliche[s] bzw. frühkapitalistische[s] Gesellschaftsmodell“ – trifft auf einen wesentlichen Teil der Privatheits- und Datenschutzdebatte zu, allerdings nicht auf alle: Es geht nicht bei allen diesen Ansätzen um „den Schutz von Daten“, sondern um den Schutz vor Datenverarbeitern; nicht bei allen geht es um den Schutz der Individuen „gegeneinander“, sondern um den Schutz vor Organisationen; und das Misstrauen gegenüber sozialen Institutionen wie dem Staat ist auch nicht allein „frühbürgerlich[] bzw. frühkapitalistisch[]“, sondern ganz allgemein „bürgerlich“ im Sinne des Schutzes vor sozial, ökonomisch und politisch mächtigen Akteuren. Damit werden auch die beiden Alternativen, die Ronge dann anspricht, als fehlerhaft enttarnt: die „informierte“ Gesellschaft mit der „Flucht in die Öffentlichkeit“ und dem „Leben im Glashaus“ und die „nachmoderne“, postindustrielle Gesellschaft, die dann wieder eine segmentäre sein soll. Der erste Alternativentwurf ignoriert das von Organisationen ausgehende Machtproblem, der zweite ist eine Flucht in romantische Vorstellungen von einer nicht-entfremdeten Welt, zugleich jedoch ein gesellschaftlicher Rückschritt.
Ronge ist aber nicht der einzige, der die wissenschaftliche Forschung als im Konflikt mit dem Datenschutz stehend sieht, auch wenn sein Ziel wohl in erster Linie darin besteht, den Datenschutz zurückzustutzen. In einer Kolloquienreihe wurden diese Fragen ausgiebig diskutiert, im Ergebnis wird allerdings weniger eine Überreaktion des Datenschutzes kritisiert als vielmehr das Scheitern des Datenschutzrechts, die „die Datenflüsse innerhalb von Behörden zu kontrollieren und transparent zu machen“, und zugleich die „weitgehende Abschottung des amtlichen Datensystems gegenüber Wissenschaft und Öffentlichkeit“ mit der Folge der Unmöglichkeit, „die mit Daten vorgenommenen Begründungen von Politik kritisch zu überprüfen.“ Einen Schwerpunkt in den Vorträgen und Diskussionen nimmt der Topos der Anonymität ein, einerseits grundsätzliche Fragen danach, was Anonymität ist und wie anonym anonyme oder anonymisierte Informationen tatsächlich sind, andererseits technische und organisatorische Verfahren zur vollständigen oder faktischen Anonymisierung. Daneben bringt Müller einen Vorschlag wieder auf, den schon Miller Anfang der 1970er diskutierte: die Einrichtung von „Datentreuhändern“. Diese Treuhänder würden dabei nicht nur im Rahmen der Anonymisierung von Forschungsdaten eine wichtige Rolle spielen können, sie wäre zugleich eine praktische Umsetzung einer datenschutzfreundlichen Organisationsgestaltung durch informationelle Gewaltenteilung.
Die internationale Debatte über den Schutz und die Regulierung von privacy und Datenschutz kulminierte Ende der 70er und Anfang der 80er in zwei richtungsweisenden Entscheidungen. Nachdem die OECD schon seit Ende der 60er Jahre erste Diskussionen zum Umgang mit dem privacy-Problem führte, beschloss sie im September 1980 die „Guidelines on the Protection of Privacy and Transborder Flow of Personal Data“. Eines der wesentlichen Ziele der OECD bestand darin zu verhindern, dass die nationalstaatlichen Regulierungen von privacy und Datenschutz zu einer Beschränkung des „freien Informationsflusses“ führten, der dazu als Prinzip konstruiert wurde, das als gleichberechtigt neben die privacy– und Datenschutzinteressen von Betroffenen gestellt mit diesen abgewogen werden müsse. Kurz darauf hat der Europarat mit der Konvention 108 zum „Schutz des Menschen bei der automatischen Verarbeitung personenbezogener Daten“ den ersten völkerrechtlich verbindlichen Vertrag zum Datenschutz abgeschlossen. Auch der Konvention wird – schon in der Präambel – die Auffassung zugrunde gelegt, dass der freie Informationsfluss an sich schützenswert sein soll und daher „die grundlegenden Werte der Achtung des Persönlichkeitsbereichs und des freien Informationsaustausches zwischen den Völkern in Einklang zu bringen“ seien. Dieses Prinzip ist dabei – insbesondere in der vorliegenden Formulierung – jedoch offensichtlich nur vorgeschoben, denn in der Konvention geht es an keiner Stelle um den „freien Informationsaustausch zwischen den Völkern“, sondern – trotz der Einbeziehung natürlicher Personen in die Liste der „Verantwortlichen“ nach Artikel 2 Nr. d – sehr deutlich um Organisationen, wie die Anforderungen in Artikel 5 der Konvention zeigen.
Wenn – wie von den meisten Beobachterinnen, insbesondere den Juristinnen und insbesondere in der Bundesrepublik vertreten – die Entscheidung des Bundesverfassungsgerichts im Verfahren um die Verfassungsmäßigkeit des Volkszählungsgesetzes als historische Zäsur betrachtet wird, dann erlangen leicht die Arbeiten, die vor der Entscheidung abgeschlossen und zumindest in großer zeitlicher Nähe dazu veröffentlicht wurden, den Nimbus des Veralteten, die – quasi überrollt von der Geschichte – ein letzter Abklatsch der überwundenen Vorstellungen und Paradigmen der alten Zeit sind. Vielleicht lässt sich jedenfalls so erklären, warum Podlechs Arbeit „Individualdatenschutz – Systemdatenschutz“ so wenig Aufmerksamkeit erregte und so wenig rezipiert wurde, obwohl Podlech hier – jedenfalls im Rückblick – zum ersten Mal Anforderungen des Datenschutzes in Form von Schutzzielen formulierte – eine Form der abstrakten Operationalisierung zur Herstellung interdisziplinärer Anschlussfähigkeit bei gleichzeitiger Aufrechterhaltung der jeweiligen Eigenlogiken der Disziplinen und der Vermittlung zwischen Sein und Sollen, wie sie für den Datenschutz erst wieder von Martin Rost und Andreas Pfitzmann fast 30 Jahre später vorgelegt wurde. Für Podlech dient „Individualdatenschutz“ „der Wahrung von Interessen der Betroffenen“, während „Systemdatenschutz“ – der „strukturelle“ oder „systemanalytische Aspekt“ von Datenschutz – von vornherein die Gesellschaft insgesamt in den Blick nimmt und „Vorgänge der Informationserhebung und Informationsverarbeitung unabhängig davon, ob im Einzelfall Interessen der Betroffen berührt sind oder nicht, rechtlich so ordne[t], daß die Gesamtheit der rechtlich geregelten Informationsvorgänge keine sozialschädlichen Folgen herbeiführen.“ Die von Podlech formulierten Prinzipien des Systemdatenschutzes umfassen dabei die „Transparenz des Informationsverhaltens“, die „Beschreibbarkeit der Erforderlichkeitsrelation“, das „Verbot hyperkomplexer Verwaltungstätigkeit“, das „Gebot der Validität und Verbot der Kontextveränderung“ sowie das Gebot der „Sicherung der Rechtspositionen von Betroffenen“. Diesen Topos greift Podlech auch in seinem informationsrechtlichen Gutachten zum Datenschutz im Vertrauensärztlichen Dienst auf, wo er Datenschutz als Antwort auf das Problem bezeichnet, „daß die Machtstrukturen moderner Gesellschaften und die gesellschaftlich verwirklichten technischen Möglichkeiten ein Informationsverhalten staatlicher und gesellschaftlicher Systeme (z. B. von Behörden oder Unternehmen) provozieren, das für die einzelnen Glieder der Gesellschaft nicht mehr akzeptabel zu sein braucht und das damit die Konsensgrundlage der Rechtsordnung zu erschüttern in der Lage ist“, ihn jedoch zugleich wiederum nur auf jenen Teil des vorher angesprochenen Problems beschränken, der „es mit personenbezogenen Informationen und also mit einzelnen Betroffenen zu tun hat“. Diese Beschränkung bleibt allerdings erstens unbegründet, und zweitens erklärt Podlech nicht, warum das Informationsverhalten nur dann mit einzelnen Betroffenen zu tun hat, wenn es auf personenbezogenen Informationen basiert. Darüber hinaus präsentiert er geänderte und anders eingeordnete Prinzipien von Individual- und Systemdatenschutz: Zum Individualdatenschutz zählt er hier das „Prinzip der Bindung durch rechtliche Kompetenzzuweisung“, das „Prinzip der adäquaten Kompetenzzuweisung“, das „Prinzip der aufgabenadäquaten Form einer Informationsspeicherung“ sowie das vorher dem Systemdatenschutz zugeordnete „Prinzip der Wahrung individueller Rechtspositionen“, während er die „Transparenz des Informationsverhaltens“, die „Beschreibbarkeit der Erforderlichkeitsrelation“, die „Modelladäquanz“, das „Gebot der hinreichenden Validität“ sowie das „Verbot der Kontextänderung“. Anschließend zeigt Podlech einen ersten Versuch einer ordentlichen datenschutzrechtlichen Analyse der Interessen aller mit dem Informationssystem verbundenen Akteurinnen.
Das Gegenbeispiel zu Podlechs Arbeiten ist die Dissertation von Hans-Georg Woertge, der im Vorwort seiner vor dem Urteil abgeschlossen und nach dem Urteil veröffentlichten Arbeit darauf verweisen kann, dass das von ihm besprochene Recht auf informationelle Selbstbestimmung vom Bundesverfassungsgericht in den Rang eines Grundrechts gehoben wurde, wenn auch nicht nur gestützt auf Art. 2 Abs. 1 wie in der Darstellung bei Woertge, sondern auf das allgemeine Persönlichkeitsrecht aus Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG. In seiner Arbeit versucht Woertge, das Datenschutzrecht in seiner Systematik darzustellen. Er ist dabei einer der ganz wenigen, die überhaupt versuchen zu explizieren – und das nicht nur als gegeben hinnehmen –, warum das Datenschutzrecht um den Begriff „Datum“ – im Sinne eines Informationsbegriffs – und die Informationskontrolle herum gestaltet ist: „Dieses Erfordernis beruht auf der Feststellung, daß menschliches Handeln interessen-, zweck- und zielorientiert ist und hierbei Informationen die Grundlage der Entscheidung für ein bestimmtes Verhalten bilden.“ Der Datenschutz, so Woertge, betreffe „die Informationen, die geeignet sind, das in der Rechtsgemeinschaft relevante menschliche Handeln zu beeinflussen“, aber gleichwohl nicht alle – Datenschutz sei kein „Mittel zur Erreichung einer angemessenen Informationsverteilung“, denn das sei mit dem Prinzip der Privatautonomie nicht vereinbar –, sondern diene dazu, „bestimmte Gefahren für rechtlich geschützte Positionen abzuwehren“ – sowohl die Grundrechte wie alle subjektiven privaten Rechte. Die Darstellung der Gefahren ist vor dem Hintergrund der zu diesem Zeitpunkt bereits seit Jahrzehnten geführten Diskussion reichlich oberflächlich und ein Sammelsurium aus Technikeigenschaften – Maschinen könnten „ein Vielfaches an Daten [. . . ] speichern“ –, Technikfolgenzuschreibungen – „der einzelne sich resignierend auf die Allmacht des Computers verläßt“ –, interpersonalen Rollenbeziehungen – „gegenüber Nachbarn“ –, der Strukturierungsmacht von Organisationen und der Degradierung des Menschen zum Objekt oder zur Nummer. Woertge nimmt seine Systematisierung des Datenschutzrechts nach Normzwecken, d. h. den Schutzgütern der oben angesprochenen Normen, vor, die er in vier große thematische Gruppen – Schutz der Menschenwürde, Schutz der Privatsphäre, Schutz der Betätigungsfreiheit und Sicherung des Informationsgleichgewichts – und eine Sammelgruppe für alles, was er sonst nicht unterbringen konnte, einteilt. Abgesehen vom Verbot einer Registrierung des Menschen „in seiner gesamten Persönlichkeit“ und der Verhinderung von „Verängstigung“ mit der Folge von chilling effects für die Grundrechtsausübung bleiben die Ausführungen zur Menschenwürde für Woertges weitere Ausführungen folgenlos. Die Ausführungen zur „Privatsphäre“ sind nicht hilfreicher. Woertge behauptet, es bestehe „Einigkeit darüber, daß zumindest ein Ziel die Verteidigung der Privatsphäre ist“, muss aber zugleich zugeben, dass unklar sei, was deren Schutzbereich sei, um dann Privatsphäre als Verfügungsrecht über „seine eigenen Daten“ und als Schutz „gegen-über der ihn betreffenden Datenverarbeitung anderer“ zu beschreiben, Privatsphäre mit einem „Recht auf Freiheit“ gleichzusetzen und schlussendlich als Schutzbereich „die Verarbeitung personenbezogener Daten“ zu „finden“. Anschließend versucht Woertge, „objektive Kriterien zu finden, die bei einer bestimmten Form der Datenverarbeitung für oder gegen eine Schutzbedürftigkeit des Betroffenen sprechen können“, einmal die eigenen Vor- und Nachteile für die Betroffene, zum anderen den „Gefährdungsgrad“ – die Art der datenverarbeitenden Stelle, die Art der Datenverarbeitung, die Art der Daten und die Intensität des Eingriffs. Der Schutz der Betätigungsfreiheit wird von Woertge ausschließlich unter dem Gesichtspunkt der Betätigungsfreiheit der Datenverarbeiter – und zwar sowohl der privaten wie der öffentlichen – behandelt. Insgesamt bleibt die Arbeit weit hinter ihren Möglichkeiten zurück, auch weil weder die Systematisierung der Prinzipien noch die anschließende Untersuchung ihrer Realisierung im Datenschutzrecht wesentliche neue Erkenntnisse zeitigt.
Anfang der 80er Jahre begann auch die erste Reihe von Versuchen, das Bundesdatenschutzgesetz zu überarbeiten und zu ergänzen oder die Grenzen des bestehenden Datenschutzrechts gleich ganz zu überwinden. Zu den geforderten Ergänzungen gehört die Aufnahme der Phase der Erhebung in das BDSG ebenso wie eine stärkere Ausgestaltung des Zweckbindungsgrund-satzes im Gesetz oder die Einführung einer bereichspezifischen Regelung für den Datenschutz im Medienbereich, vor allem aber eine Klarstellung des Gesetzeszwecks. In Abgrenzung zu Forderungen nach einer besseren Ausgestaltung des Datenschutzes im weiteren Sinne – etwa die Informationsmachtverteilung zwischen den Verfassungsorganen – in den Datenschutzgesetzen fordert Bull deren Beschränkung, im gleichen Atemzug jedoch auch die Einführung eines allgemeinen Informationsfreiheitsgesetzes. Rihaczek hingegen will das Datenschutz in Richtung eines allgemeinen Informationsrechts ausdehnen, etwa indem er „personenbezogene (auf die natürliche Person des Bürgers bezogene) Interessen an Daten“, und „nicht nur [. . . ] Interessen an »personenbezogenen Daten«“ zum Anknüpfungspunkt des Rechts machen will. Fiedler will einen Schritt weiter gehen zu einer „umfassenderen, expliziten gesellschaftlichen Kontrolle und Regelung von Informationszusammenhängen als solchen“, will diesen Bereich dann allerdings auch nicht mehr als Datenschutzrecht, sondern als Informationsrecht bezeichnet wissen. Brinckmann hingegen hält das bestehende Datenschutzrecht für strukturell untauglich: Nicht nur fehle es an einer „Institutionalisierung der Beteiligung von relevanten Interessen“, sondern vor allem auch an einer „Institutionalisierung der systematischen Weiterentwicklung von Risiko- und Sicherheitsvorschriften“. Überhaupt sei das Datenschutzrecht gemessen an den Erfahrungen aus anderen Technikrechtsgebieten überaus defizitär, vor allem hinsichtlich der internen wie externen Transparenzerzeugung, d. h. einer sinnvollen „Sicherheitsanalyse“ und deren Offenlegung.
Dabei verlief die Auseinandersetzung um die Zukunft des Datenschutzes und des Datenschutz-rechts keineswegs linear, sie war vielmehr geprägt von Gleichzeitigkeiten und (vielleicht) über-raschenden Koalitionen, wie etwa die Dokumentation der Jahrestagung 1982 der Deutschen Vereinigung für Datenschutz zeigt. So wurde einerseits der Vorwurf erhoben, es werde mit dem Datenschutz übertrieben, vor allem durch seine zunehmende Bürokratisierung, die das Problem des exzessiven Gebrauchs von Generalklauseln im Datenschutzrecht noch verstärke. Andererseits sei die „Staatsbürokratie“ dabei, die Datenschutzgesetze auszuhöhlen, sodass nur noch eine Fassade bleibe. Die Intensität der Auseinandersetzung erkläre sich, so Klaus Hümmerich, daraus, „daß es bei der Verarbeitung von Informationen wie bei den Rechtsregeln zu ihrer Begrenzung um die Ausübung von Macht geht.“
Jörg Pohle; Humboldt-Universität zu Berlin; 2019
Open-Access-Erklärung: https://edoc-info.hu-berlin.de/de/nutzung/oa_hu
https://edoc.hu-berlin.de/handle/18452/19886
Zur leichteren Lesbarkeit wurden die Quellenverweise entfernt. Bei Interesse finden Sie sie im obigen Link.
Gerne beantworten wir Ihre Fragen und unterstützen Sie bei der Einhaltung von Schweizer Datenschutz und DSGVO.
Swiss Infosec AG; 23.06.2021
Kompetenzzentrum Datenschutz, +41 41 984 12 12, infosec@infosec.ch