07/2023
Debatten der Suchmaschinenforschung
Es gilt heute als nahezu selbstverständlich, dass Individuen über leicht zu transportierende Endgeräte auf das ›Weltwissen‹ zugreifen können. Schnittstellen wie Laptops, Tablets oder Smartphones ermöglichen einen Zugriff auf riesige Mengen digitalisierter Informationen, die auf einer Festplatte, in einem lokalen Netzwerk oder auch auf Servern am anderen Ende der Welt gespeichert sein können. Die Vielfalt der Dateien und Dokumente erscheint nahezu grenzenlos. Archivbestände sind digitalisiert, Dienstleistungen werden in den virtuellen Raum verlegt und nicht nur Unternehmen, sondern auch Privatpersonen sind dauerhaft in die Lage versetzt, die Festplatten dieser Welt mit neuen Inhalten zu füttern; mit Texten, Bildern, Musik, Videos, Programmen, Spielen, Kartenmaterial, Kunstwerken – die Liste ließe sich lange fortsetzen und weiter ausdifferenzieren, ohne die Mannigfaltigkeit der Daten auch nur im Ansatz zu erfassen.
Aber es ist längst nicht alles Wissen digitalisiert und es sind längst nicht alle Daten auffindbar. Viele Informationen werden dem Zugriff entzogen: Sie sind verschlüsselt, fristen in den rechtlichen Grauzonen des sog. ›Deep Web‹ ein Schattendasein, werden aus rechtlichen, ethischen oder ästhetischen Gründen entfernt. So gibt es Unternehmen, die sich darauf spezialisiert haben, unerwünschtes Text- und Bildmaterial von Plattformen zu entfernen. Unter höchst prekären Bedingungen sind z.B. in Manila zahlreiche Arbeiter_innen damit beschäftigt, die Seiten führender Web-Unternehmen von denunzierendem, pornografischem oder gewaltvollem Material zu reinigen.
Auch jene digitalen Dokumente, die explizit der Öffentlichkeit zugänglich sein sollen, wären ohne andauernde technische und menschliche Arbeitsleitungen nur vergessene Codierungen. Denn alle Dateien müssen mitsamt ihren spezifischen Adressen indexiert, verknüpft und – den jeweiligen Endgeräten entsprechend – grafisch dargestellt werden. Damit die Reise durch das weltweite Netz für die Nut zer_innen nicht zur frustrierenden Angelegenheit wird, erweist es sich zudem als notwendig, die Menschen über individuelle Text- und Spracheingaben Anfragen stellen zu lassen – und diese mit möglichst passenden Ergebnissen zu beantworten. Solche Anfragen werden bevorzugt an Web-Suchmaschinen delegiert, die veranlassen, dass die indizierten Datenmassen zahlreicher Webseiten gefiltert, klassifiziert und in Form eines hierarchischen Rankings, das nicht selten viele Millionen oder Milliarden Ergebnisse umfasst, dargestellt werden. Web-Suchmaschinen, so eine Definition von Theo Röhle, erscheinen dabei als »die zentralen Instanzen der technisch unterstützten Komplexitätsreduktion im Netz«. Sie seien »Dreh- und Angelpunkt der digitalen Welt«, hätten sich als »technische Standardlösung für den Umgang mit den anwachsenden Informationsmengen etabliert«, seien »unmittelbar am Umbau von Institutionen der gesellschaftlichen Wissensvermittlung beteiligt« und würden nicht zuletzt den Trend zur kommerziellen Nutzung des Webs maßgeblich vorantreiben.
Wenngleich es nach wie vor auch andere Mittel und Wege gibt, um an Wissen zu gelangen, und die damit verbundenen Praktiken des Suchens und Findens überaus vielfältig sein können, ziehen Web-Suchmaschinen derzeit nicht nur in öffentlichen, sondern auch in wissenschaftlichen Debatten die wahrscheinlich größte Aufmerksamkeit auf sich. Eine Reihe an Sammelbänden legte zu Beginn des Jahrtausends die Grundsteine einer interdisziplinären Suchmaschinenforschung, so z.B.: Die Macht der Suchmaschinen (Machill/Beiler 2007), Web Search: Multidisciplinary Perspectives (Spink/Zimmer 2008), Deep Search (Becker/Stalder 2009) oder das mehrbändige Handbuch Internet-Suchmaschinen (Lewandowski, 2008, 2012, 2013). Die dort entfalteten und die daran anknüpfenden Diskurse stehen am Ausgangspunkt meiner Beobachtungen.
Die quasi-monopolistische Web-Suchmaschine Google, die 1997 von den beiden Informatikern Sergey Brin und Larry Page online gestellt wurde, genießt eine enorme Präsenz in den gegenwärtigen Debatten. Internationale Konkurrenten sind Bing von Microsoft aus den USA, die in Russland führende Suchmaschine Yandex sowie die chinesische Suchmaschine Baidu. Kleinere Alternativen stellen z.B. die Suchmaschinen DuckDuckGo oder Ecosia dar. Erstere wirbt damit, die Daten ihrer Nutzenden nicht zu speichern und letztere investiert ihre Gewinne in die ökologische Aufforstung. Es gibt auch Suchmaschinen, die gar nicht wirtschaftlich orientiert sind, wie z.B. MetaGer, ein an der Leibniz Universität Hannover entwickeltes Projekt mit offenem Quellcode, das die Ergebnisse verschiedener anderer Suchmaschinen zusammenführt.
Google gilt jedoch, insbesondere in Europa und in den USA, als unbestrittener Marktführer. Das Geschäftsmodell von Alphabet, dem Mutterkonzern von Google, basiert dabei nicht nur auf der Online-Suche. Zahlreiche weitere, jeweils verknüpfte Anwendungen, wie das Videoportal YouTube, die Navigationssoftware Google- Maps und insbesondere Android, das führende Betriebssystem für mobile Geräte, gelten als Knotenpunkte zahlreicher Web-Aktivitäten. Der Einfluss des Unternehmens erstreckt sich auf diese Weise über das gesamte World Wide Web und äußert sich nicht zuletzt im Verb ›googeln‹, das als Synonym für die Online-Suche verwendet wird.
Es verwundert also kaum, dass auch im wissenschaftlichen Diskurs Google immer wieder paradigmatisch angeführt wird, wenn es darum geht, die Chancen und Risiken der digitalen Wissensorganisation zu diskutieren. Dies schlägt sich nicht zuletzt in den Titeln verschiedener Publikationen nieder, die von einer Google-Gesellschaft, einer Googleisierung der Informationssuche oder einem Google- Komplex sprechen. Obwohl die folgenden Darstellungen nicht das Anliegen verfolgen, diese Prominenz weiter zu fördern, erweist es sich als unmöglich, auf die gegenwärtigen Debatten zu verweisen, ohne das Unternehmen aus dem kalifornischen Silicon Valley implizit oder explizit immer wieder zu nennen.
Eine Beschäftigung mit den wissenschaftlichen Diskursen rund um die Web-Suche offenbart ferner, dass es sich nicht nur um ein interdisziplinäres und diverses Feld handelt, sondern zugleich um eines, in dem eine starke Beunruhigung zu beobachten ist. Die rasanten Entwicklungen, die beispiellosen Veränderungen sowie die komplexen technischen Prozesse erschweren die Auseinandersetzung mit der Web-Suche und führen geschlossene Theorien an ihre Grenzen. Die vorliegende Untersuchung will sich diese Beunruhigung zunutze machen und möchte ausgehend von den gegenwärtigen Diskursen, Topoi und Theorien nach den Problemen fragen, die womöglich schon lange mit den Operationen des Suchens und Findens verbunden sind und die nun im Kontext der digitalen Vernetzungen auf besondere Weise zum Vorschein kommen.
Im Folgenden werden daher einige herausragende Probleme und Konflikte der digitalen Suche exemplarisch nachvollzogen, um diese im Verlauf der Arbeit mit den historischen Analysen verknüpfen zu können. Hierbei werden nicht nur wissenschaftliche, sondern auch journalistische und aktivistische Perspektiven berücksichtigt, sofern diese einen Einblick in die gegenwärtige Lage ermöglichen. Im zweiten Abschnitt dieses Kapitels wird der Vorwurf erörtert, Suchmaschinen würden mit ihren automatisierten und personalisierten Ergebnissen zu einer Fragmentierung der Gesellschaft beitragen. Im dritten Abschnitt steht die kritische Position von Safiya Umoja Noble exemplarisch im Mittelpunkt, die davon zeugt, dass Web-Suchmaschinen unterdrückende Strukturen wie z.B. Rassismus reproduzieren. Danach werden die Aspekte der Überwachung und Kontrolle verhandelt. Im letzten Abschnitt steht schließlich das Spannungsverhältnis zwischen Transparenz und Opazität im Zentrum, das, so soll gezeigt werden, dann entsteht, wenn die Suchmaschine als Black Box bezeichnet wird.
Automatisierung und Personalisierung
David Gugerli nennt vier Leistungen, die ein System vollbringen müsse, um gegenwärtig als ›Suchmaschine‹ gelesen zu werden. Hierbei beschränkt er sich nicht auf digitale Suchmaschinen, sondern überträgt den Begriff auf alle möglichen Zusammenhänge, in denen Wissen organisiert wird. Zunächst müssten die Ziele einer Suche durch eine ›Objektivierung‹ als Gegenstände definiert werden. Daraufhin könne eine ›Adressierung‹ der Gegenstände erfolgen, also eine Zuordnung von konkreten Anschriften. Damit ein Suchverfahren durchgeführt werden kann, bedürfe es ferner einer ›Programmierung‹. Ein effizientes Suchprogramm müsse dabei einerseits festen Regeln folgen, andererseits jedoch eine gewisse Ergebnisoffenheit erlauben. Daher sei abschließend noch die Fähigkeit zur ›Simulation‹ notwendig, d.h. das Vermögen, modellhaft Gegenstände prüfen und mit der jeweiligen Suchanfrage abgleichen zu können.
Alle Suchmaschinen müssen diese vier basalen Leistungen erbringen, müssen also eine Lösung bieten für das Problem der Objektivierung, der Adressierbarkeit, der Programmierbarkeit und der Simulation.
Gugerli geht davon aus, dass Suchverfahren, die diese Anforderungen erfüllen, in der Lage sind, eine Übersicht der Norm und eine Überwachung ihrer Ausnahmen zu gewährleisten.
Auch Web-Suchmaschinen können auf diese vier Operationen reduziert werden. Ihre technische Funktionsweise erschöpft sich jedoch nicht darin. Als grundlegende Bedingung sei zunächst daran erinnert, dass es sich bei Web-Suchmaschinen um Computerprogramme handelt, die auf der Basis elektronischer Prozessoren mathematische Algorithmen ausführen, um bestimmte Dateien im Internet auffindbar zu machen.
Matteo Pasquinelli beschreibt jeden Algorithmus (1.) als ein abstraktes Diagramm, das sich aus der beständigen Wiederholung eines Prozesses ergibt, (2.) als die Zergliederung dieses Prozesses in einzelne Schritte, (3.) als die damit zu erzielende Lösung eines gegebenen Problems und (4.) als ökonomisches Verfahren, das möglichst effizient mit den verfügbaren Ressourcen umgeht. Diese weitgefasste Definition erlaubt es, Algorithmen eine Geschichte von mehreren tausend Jahren zuzuschreiben. Der gegenwärtige öffentliche und wissenschaftliche Fokus liegt jedoch zumeist auf Computer-Algorithmen, denen eine beispiellose Handlungsmacht zugeschrieben wird. Denn diese operieren automatisiert und nahezu unbemerkt im Hintergrund eines Systems. Sie bleiben den meisten Menschen in ihrer Funktionsweise verborgen, treten jedoch beständig in Erscheinung, indem sie Programme ausführen und Entscheidungen übernehmen.
Im Hinblick auf Web-Suchmaschinen erfolgt das automatisierte, algorithmische Finden von Informationen im Wesentlichen auf diese Weise: Ein spezifisches Programm, das als ›Crawler‹ bezeichnet wird, durchsucht über Verlinkungen das wachsende weltweite Netz und speichert die gefundenen Dateien samt Adressen in einem ›Local-Store‹. Ein ›Indexer‹ erstellt dann aus diesen Dateien ein ›Register‹, also eine umfangreiche Datenbank. Dieses ›Register‹ wird schließlich von einem ›Searcher‹, also einem weiteren Programm, ausgelesen und mit den Anfragen abgeglichen, die die Suchenden an das System stellen. Es wird hierbei also nie aktuell das Internet durchsucht, sondern immer nur ein zuvor angelegtes Register.
Die spezielle Leistung der Web-Suche besteht jedoch nicht nur in dieser Informationsakquise, sondern vor allem in der Art und Weise, wie die Informationen zur Verfügung gestellt werden. Die Suchenden erhalten hierbei eine (zumeist ziemlich lange) Liste mit hierarchisch geordneten Ergebnissen. Die Algorithmen, die mit Hunderten von Variablen das Ranking bestimmen, gelten zwar als Firmen- geheimnisse, jedoch lassen sich, Dirk Lewandowski folgend, sechs basale Ranking- Faktoren unterscheiden: (1.) die Übereinstimmung des Textmaterials, (2.) die Popularität der Dokumente, (3.) die Aktualität der Informationen, (4.) die Lokalität der Anfrage, (5.) die ggf. ermittelten Informationen über die Suchenden und (6.) die technischen Eigenschaften der gefundenen Websites.
Der Umstand, dass automatisierte, algorithmische Prozesse definieren, welche Informationen im Internet gefunden werden und welche nicht, ist ein zentraler Ausgangspunkt der zeitgenössischen Kritik. In dieser wird z.B. davon ausgegangen, dass die Algorithmen der Suchmaschinen »für eine Neuordnung des Wissens sorgen«, indem sie »klassifizieren, gewichten und bewerten«. Die Sorge vor einer tendenziösen Informationsselektion wird durch zwei Umstände verstärkt: Einerseits wird befürchtet, dass es unter den Suchenden kein ausreichendes Bewusstsein für die Funktionsweise der Web-Suche und deren Manipulationsgefahren gibt. Andererseits wird mit Besorgnis verfolgt, wie die Algorithmen dahingehend optimiert werden, die Relevanzkriterien flexibel auf die einzelnen Nutzer_innen zuzuschneiden. Jedem Individuum soll auf diese Weise automatisch eine personalisierte Zusammenstellung präsentiert werden. Die Konsequenzen dieser beiden Aspekte werden im Folgenden diskutiert.
Um eine Web-Suche zu starten, genügt ein einzelnes Zeichen und der Druck auf die Enter-Taste. Zwei Fingerbewegungen auf einer Tastatur bilden den minimalen Ausgangspunkt für Suchanfragen im weltweiten Netz – mit Hilfe der Sprachsteuerung kann alternativ sogar ein Laut als Anfrage dienen. Dies wird erwähnt, weil kurze Anfragen im Netz nicht etwa die Ausnahme, sondern die Regel sind. Studien bestätigen, dass Anfragen häufig aus nicht viel mehr als einem Wort bestehen – nicht selten falsch geschrieben. Dieses geringe Bemühen seitens der Suchenden erklären die Kommunikationswissenschaftler_innen Birgit Stark, Melanie Magin und Pascal Jürgens damit, dass die Web-Suche eine ›Niedrigkostensituation‹ für Suchende darstelle, die ohne viel Aufwand passende Ergebnisse liefere. Die Bedienungs- und Gestaltungselemente der Web-Suche seien übersichtlich, was die meisten Suchenden schätzen würden, da sie daran interessiert seien, »die gefühlte Komplexität im Suchprozess zu reduzieren und möglichst rasch die passenden Informationen zu finden«. Vielen sei dabei nicht bewusst, dass Werbetreibende und andere Parteien Einfluss auf das Ranking nehmen können.
Die Bandbreite einer solchen Einflussnahme wird durch personalisierte Ergebnislisten immens erweitert. Das technische Ziel einer Personalisierung besteht darin, sowohl die Auswahl als auch die Rangfolge der angezeigten Informationen an die Bedürfnisse der einzelnen Suchenden – und dabei nicht selten zugleich an die Geschäftsmodelle der jeweiligen Betreiberfirmen – anzupassen. Hierzu werden Informationen über die Suchenden – wie z.B. der Standort, die bisherigen Anfragen oder die gespeicherten Interessensprofile – automatisch ausgewertet und als Kriterien für die Ergebnislisten berücksichtigt. Da sich derartige Personalisierungen nicht an Kriterien orientieren, die als objektiv gelten und auch nicht an dem humanistischen Ideal, das verfügbare Wissen in seiner Gesamtheit abzubilden, um es jedem Menschen gleichermaßen zur Verfügung zu stellen, stehen Suchmaschinen in der Kritik, die Informations- und Meinungsvielfalt nicht zu erweitern, sondern vielmehr einzuschränken. Ferner wird befürchtet, dass der gemeinsame Wissenskanon der Gesellschaft verloren gehen könnte und die Individuen in ganz unterschiedliche Informationsblasen abdriften.
Jürgens, Stark und Magin untersuchten 2014 empirisch, welche Folgen die zunehmende Personalisierung auf die Suchergebnisse von Google hat. Ihre weitreichendste Hypothese formulierten sie wie folgt:
Wenn die Suchmaschine Nutzern unterschiedliche Ergebnisse zu denselben Suchbegriffen liefert, löst das die ehemals geteilte Wahrnehmung von Themen möglicherweise auf und könnte im Extremfall zu einer Fragmentierung des Publikums führen […].
In ihrer durchgeführten Studie konnten Jürgens, Stark und Magin diese Hypothese zwar nicht im erwarteten Maße bestätigen, doch bleibt die Sorge vor einer Fragmentierung der Gesellschaft aufgrund von Web-Suchmaschinen höchst virulent. Der amerikanische Aktivist Eli Pariser griff diese Befürchtung bereits einige Jahre zuvor mit seinem Konzept der ›Filter Bubble‹ auf. Hierbei nimmt er an, dass die Suchenden mitunter unbemerkt in individuelle Informationsblasen geraten könnten, die den gesellschaftlichen Konsens darüber verzerren, »was wichtig, wahr und wirklich ist«. Pariser geht davon aus, dass nicht nur Web-Suchmaschinen, sondern alle möglichen Anbieter im Netz verstärkt auf Algorithmen setzen, deren Ziel es sei, individuelle Interessen zu prognostizieren:
Zusammen erschaffen diese Maschinen ein ganz eigenes Informationsuniversum für jeden von uns – das, was ich die Filter Bubble nenne – und verändern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen.
Derartige Informationsblasen werden nicht zuletzt als Konkurrenz für den Journalismus und als Gefahr für die Demokratie begriffen. Denn was passiert, »wenn nicht mehr der Journalismus« die Relevanz von Nachrichten bewertet, sondern »diese Aufgabe einem Algorithmus zuteil wird«? In den letzten Jahren schlug sich diese Befürchtung in Debatten um sog. ›Fake News‹ nieder, d.h. um Falschmeldungen, die zum Teil gezielt über Online-Plattformen verbreitet werden. Große internationale Aufmerksamkeit bekamen diese im Kontext des Wahlkampfs des ehemaligen US-Präsidenten Donald Trump, dem unterstellt wurde, dass er und sein Team, insbesondere über soziale Medien, mit falschen und übertriebenen Behauptungen die Wähler_innenschaft manipuliert habe – ein Vorwurf, den Trump stets konterte, indem er die kritische Presse ihrerseits als ›Fake News‹ bezeichnete. Ausgehend von dieser zugespitzten Lage fragt Astrid Deuber-Mankowsky, ob es »unter den Bedingungen der Neoliberalisierung, Ökonomisierung und Überwachung mit den gewaltsamen Folgen sogenannter Fake News, des Rassismus, der Homophobie und Misogynie« überhaupt noch möglich ist, im Internet einen Ort für ein kritisches Denken zu etablieren.
Auch Eli Pariser stellt sich eine derartige Frage. Sie mündet bei ihm in der Forderung nach einer ›offeneren Suche‹, die mehr ›Serendipität‹, also unerwartete und unvorhersehbare Glücksfunde, befördern solle. Denn die zunehmenden Informationsblasen würden nicht zuletzt zu einem Verlust von ›Kreativität‹ und ›Offenheit‹ führen. Web-Suchmaschinen würden auf diese Weise »einen passiven Informationskonsum« befördern, »der Erkundungen und Entdeckungen im Wege steht«. Eli Pariser setzt sich daher für ein weniger ökonomisiertes Internet ein und fordert in diesem »ein humanistischeres und feineres Verständnis von Identität, die aktive Förderung öffentlicher Themen und die Kultivierung von bürgerschaftlichem Engagement«.
Zusammenfassend lässt sich festhalten, dass sowohl die Automatisierung als auch die Personalisierung als technische Voraussetzungen der digitalen Suche begriffen werden, die einem kritischen und diversen Denken sowie einer damit verbundenen heterogenen und demokratischen Gesellschaft entgegenstehen.
Unterdrückung und Rassismus
Im Jahr 2011 wollte die US-Amerikanerin Safiya Umoja Noble ihre Stieftochter und deren Cousine – beides junge Mädchen afroamerikanischer Herkunft – mit Hilfe der Web-Suche dazu animieren, über ihre eigene Identität und die Herausforderungen von politischen Ausgrenzungen in den Vereinigten Staaten von Amerika nachzudenken. Sie überlegte, was die beiden Mädchen suchen könnten, und tippte kurzerhand »black girls« in die leere Suchmaske von Google ein. Der Plan, mit Hilfe der Web-Suche über afroamerikanische Identitäten und deren Diskriminierung ins Gespräch zu kommen, ging auf – jedoch auf radikalere Weise, als Noble es erwartet hätte. Überrascht stellte sie fest, dass ihre Suche zu ungefiltertem pornografischen Bild- und Textmaterial führte, in dem junge schwarze Frauen zur Schau gestellt wurden. Aber damit nicht genug: Derartige Bilder, Texte und Links wurden Noble damals nicht nur als einige Ergebnisse unter vielen angezeigt, sondern dominierten sogar die gesamte Liste.
Diese autobiografische Erzählung inszeniert Noble als Beweggrund für ihre Untersuchungen über Web-Suchmaschinen. Ihr einschlägiges Buch erschien 2018 unter dem Titel Algorithms of Oppression: How Search Engines Reinforce Racism. Als Ergebnis ihrer Forschung widmet sie sich hier den Selektionsprozessen von Google, die, so der Vorwurf, häufig Verzerrungen (bias) mit rassistischen Tendenzen befördern würden.
Auch andere persönliche Erfahrungen, die Menschen mit der Online-Suche machten, werden von Noble untersucht und paradigmatisch angeführt. So verloren z.B. eine Reihe von Frauen, unter ihnen Lehrerinnen, medizinische Assistentinnen und Verkäuferinnen, ihre Anstellung, weil Nacktbilder von ihnen online kursierten. Um es Privatpersonen einfacher zu machen, denunzierendes Bild- oder Textmaterial aus dem Index von Suchmaschinen zu entfernen, ist seit einigen Jahren ein sog. ›Recht auf Vergessenwerden‹ im Gespräch – dieses wurde prominent von Viktor Mayer-Schönberger vorgeschlagen.
Um die informationelle Selbstbestimmung zu gewährleisten, beinhaltet die Datenschutz-Grundverordnung der Europäischen Union seit 2016 ein Recht auf Löschung von personenbezogenen Daten aus dem Index von Suchmaschinen. In den USA gibt es ein vergleichbares Gesetz allerdings nicht, was Noble scharf kritisiert. Denunziationen und Unterdrückungen seien nicht zuletzt aufgrund dieser fehlenden Rechtsgrundlage im Internet – dem für Noble »am wenigsten regulierten sozialen Experiment unserer Zeit« – eher die Regel als die Ausnahme. Gesellschaftlich ohnehin schon marginalisiertere Gruppen hätten es im vermeintlich egalitären digitalen Raum häufig besonders schwer. Noble verwendet den Begriff ›technological redlining‹, um zu beschreiben, wie soziale Gruppen und Inhalte im weltweiten Netz durch technisierte und automatisierte Prozesse markiert und ausgegrenzt werden.
In ihrer Forschung diskutiert sie, wie und mit welchen Folgen die afroamerikanische Bevölkerung in den USA im Kontext von Klassifikationssystemen diskriminiert wird. Formen der Unterdrückung seien dabei nicht nur in historischen Bibliotheken und Katalogen zu beobachten, sondern längst ins weltweite Netz übertragen worden. Hinsichtlich ihrer politischen Mobilisierung verweist Noble nicht zuletzt auf ihre eigene Herkunft und versteht sich und ihre Arbeit als Teil der wissenschaftspolitischen Bewegung »black feminist technology studies«.
Es gibt verschiedene Auseinandersetzungen mit Diskriminierungen im weltweiten Netz. Hier wird jedoch die Monografie von Noble exemplarisch im Fokus stehen. Einerseits, weil sie die Web-Suche prominent verhandelt, andererseits, weil die Verletzbarkeit von Noble sowie ihr Kampf gegen dominante Suchmaschinen für meine Analysen besonders aufschlussreich sind. Ich möchte Nobles Monografie als eine zeitgenössische Reaktion auf die gegenwärtigen Techniken des Suchens und Findens sowie deren Fähigkeit zur Diskriminierung lesen. Eine wichtige Einsicht wurde dabei bereits deutlich: Wer sucht, kann nicht nur gefunden oder manipuliert, sondern ebenso denunziert, unterdrückt und verletzt werden.
Noble kritisiert die Ergebnisse der Web-Suche nicht nur, sie dokumentiert sie auch. Zu diesem Zweck finden sich in ihrem Buch zahlreiche Abbildungen von Google-Suchergebnissen. In all diesen Fällen handelt es sich um Screenshots, d.h. um Aufnahmen von grafischen Darstellungen, die auf einem Monitor angezeigt wurden. Die Aufnahmen wurden jeweils angefertigt, nachdem eine Suchanfrage gestellt wurde, und zeigen in der Regel die führenden Treffer. Mit Hilfe dieser Abbildungen versucht Noble, den Output von Google sowie dessen vermeintlich verzerrten und tendenziösen – von Noble als rassistisch gelesenen – Charakter zu dokumentieren. Die Abbildungen sind daher wichtiger Bestandteil ihrer Argumentation. Sie dienen als Zeugnisse ihrer Suche, als Beweise der stattfindenden Diskriminierung und als Grundlage ihrer Kritik.
Bei näherer Betrachtung wird jedoch schnell deutlich, dass die Abbildungen nur einen schwachen Eindruck der Online-Suche vermitteln. In den meisten Fällen wird lediglich die erste Seite der ausgegebenen Suchergebnisse dargestellt. Die abgebildeten Screenshots wurden zudem in der Regel für den Buchdruck beschnitten und zeigen offensichtlich nur einen Ausschnitt des ursprünglichen Monitorbildes. Ferner sind die Abbildungen schwarz-weiß und nicht farbig, fixiert und nicht interaktiv und zum Teil auch noch mit Markierungen versehen, die nachträglich ein gefügt wurden. Nicht zuletzt fällt auf, dass die Abbildungen in relativ schlechter Auflösung vorliegen. Und doch sind diese Bilder wichtig, denn sie sind das Einzige, was von Nobles durchgeführten Suchen übrig ist.
In Bildunterschriften markiert Noble, was die einzelnen Abbildungen zeigen und wann sie gemacht wurden. So findet sich z.B. auf Seite 19 die wie folgt betitelte Abbildung: »Figure 1.2. First page of search results on keywords ›black girls‹, September 18, 2011«. Die Abbildung zeigt eine Internetseite mit 17 Google-Suchergebnissen. Zehn werden in einer linken Spalte angezeigt, sieben in einer etwas kleineren rechten Spalte. Letztere ist mit dem Hinweis »Ads« als Werbeblock markiert. Als zuvor eingegebener Suchbegriff steht »Black girls« in einem Eingabefeld. Dieses erscheint sowohl am oberen als auch am unteren Bildschirmrand. Noble nutzt diese Abbildung, um zu beweisen, dass ihr im Jahr 2011 pornografische und sexistische Ergebnisse angezeigt wurden, als sie via Google nach »Black girls« suchte. Die Abbildung bekräftigt Nobles Kritik insofern, als dass elf der 17 angezeigten Treffer scheinbar explizit auf pornografisches Material oder sexuelle Dienstleistungen verweisen. Mit zahlreichen weiteren bebilderten Beispielen demonstriert Noble die stereotype Wirkung der Web-Suche. Besonders anschaulich wird dies bei der Bildersuche. So gelangte Noble über ihre Anfrage nach »black girls« zu zahlreichen Fotografien von knapp bekleideten dunkelhäutigen Frauen in erotischer Pose, während ihre Suche nach »beautiful« zu Fotografien von jungen weißen Frauen führte.
Ein weiteres Suchwerkzeug, das Stereotype reproduziert, findet Noble in der automatisierten Google-Vervollständigung. Bei dieser werden Suchanfragen bereits während der Eingabe um Vorschläge ergänzt. Lewandowski und Quirmbach erklären, dass mit Hilfe von Suchvorschlägen in erster Linie die Formulierung einer Suchanfrage vereinfacht und die Trefferlisten für die Suchenden optimiert werden sollen. Bei der Google-Web-Suche beruhe die automatisierte Vervollständigung überwiegend auf der aktuellen Popularität von Wortkombinationen. Eben dadurch vergrößere sich jedoch die Wahrscheinlichkeit, dass stereotype Vorschläge generiert werden. Denn Suchvorschläge, die hauptsächlich aus den Eingaben der Suchenden abgeleitet werden, liefen Gefahr, bestehende gesellschaftliche Vorurteile zu reproduzieren. Um diesem Umstand effektiv entgegenzuwirken, so das Fazit von Lewandowski und Quirmbach, sei eine aufwendige redaktionelle Arbeit notwendig. Dass diese nicht immer stattfindet, zeigen verschiedene Abbildungen in Nobles Monografie. Eine davon wird als so prägnant wahrgenommen, dass sie es in modifizierter Form sogar auf die Titelseite der vorliegenden Ausgabe geschafft hat. Es handelt sich um die Vervollständigung des abgebrochenen Fragesatzes »why are black women so […?]«. Aus der bereits in ihrer Formulierung vorurteilsbehafteten Frage ›Warum schwarze Frauen so … sind‹, wird durch die automatische Vervollständigung implizit die Frage, ›wie schwarze Frauen denn seien‹. Und diese Frage wird von Google mit neun verschiedenen Vorschlägen beantwortet bzw. jeweils um ein fett gedrucktes Wort ergänzt, wovon bereits die ersten drei »angry«, »loud«, »mean«, also »wütend«, »laut« und »gemein«, Nobles Vorwurf bekräftigen, Google würde rassistische Stereotype reproduzieren.
In den genannten Beispielen wird deutlich, dass Google-Suchergebnisse tendenziös sein können. Nobles These, dass Web-Suchmaschinen Vorurteile und rassistische Tendenzen nicht etwa verringern, sondern im Gegenteil eher befördern, findet sich auf anschauliche Weise belegt. Nur die letzte Abbildung, die in Nobles Monografie eine Google-Suche zeigt, unterscheidet sich in dieser Hinsicht von den übrigen: Auf der letzten Seite ihrer Konklusion druckt Noble einen Screenshot ab, der eine Gegenfolie zu jenem Sucherlebnis bildet, mit dem sie ihre Forschungsarbeit begann, der also eine positive Entwicklung dokumentiert. Es handelt sich erneut um eine Suche nach den Schlüsselwörtern »black girls«, wieder mit der Suchmaschine Google und wieder wird die erste Seite der Ergebnisliste gezeigt. Doch gibt es einen markanten Unterschied: Die Abbildung »Figure C.2. My last Google search on ›black girls‹, June 23, 2016« zeigt eine Google-Suche, die fünf Jahre später durchgeführt wurde und die wesentlich moderatere Ergebnisse enthält, keines davon explizit pornografisch.
Es lassen sich auch noch weitere Unterschiede zwischen den zeitversetzten Suchergebnissen entdecken. So fällt z.B. auf, dass sich die Gesamtheit der Treffer mehr als verdoppelt hat; führte die Web-Suchmaschine im Jahr 2011 noch auf, dass sie rund 140.000.000 Ergebnisse gefunden habe, sind es in der Suche von 2016 bereits 301.000.000. Zudem fehlt die Spalte mit den Werbetreffern in der neueren Suche. Unter den zwölf angezeigten Ergebnissen findet sich dort nur noch eine einzige Website, die bereits im Screenshot von 2011 zu finden war: Die Internetpräsenz der Organisation ›Black Girls Rock‹, die sich ausgehend von einer jährlichen Preisverleihung für die Förderung von afroamerikanischen Frauen und Mädchen einsetzt.
Dramaturgisch ist es für Nobles Argumentation äußerst plausibel, am Ende ihrer Publikation wieder zu jener Suche zurückzukehren, die sie selbst als den Startpunkt ihrer Forschungstätigkeit markierte, um einen hoffnungsvollen Ausblick in die Zukunft zu wagen. Die eigentliche Pointe und die Brisanz der veränderten Suche treten zugunsten dieser Erzählung jedoch in den Hintergrund. Denn wirklich bemerkenswert ist nicht, dass sich die Suche nach »black girls« innerhalb von fünf Jahren verändert hat, bemerkenswert ist vielmehr, dass sich die Suchergebnisse von Google durch zahlreiche Faktoren ständig verändern – ja, dass fast davon auszugehen ist, dass kaum eine später durchgeführte Suche zu den exakt gleichen Ergebnissen führt.
Das Einzige, was für die Suchenden langfristig konstant bleibt, ist die Potenzialität eines für sie unkontrollierbaren Wandels. Diese Verunsicherung, die die Web-Suche beständig produziert, ist zwar einerseits zentral für Nobles Empörung, wird jedoch andererseits in ihrer eigenen Dokumentation vernachlässigt. Ihre zwei abgebildeten Suchen nach »black girls« in fünf Jahren suggerieren eine konstante und kontrollierbare Entwicklung, die es aber – und eben dies macht die Web-Suche so brisant – nicht gibt. Denn es steht fest: Zahlreiche Faktoren bestimmen das Ranking. Und diese sind für die einzelnen Suchenden weder ersichtlich noch steuerbar. Zudem sind die Algorithmen der Web-Suche auch weiterhin darauf ausgelegt, die Ergebnislisten beständig zu aktualisieren und anzupassen, wobei es zumindest für die Betreiberfirmen und in geringerem Maße auch für andere Parteien, wie z.B. für Suchmaschinenoptimierende, möglich ist, das Ranking gezielt zu beeinflussen. Daraus folgt, dass die Ergebnisse einem ständigen Wandel unterworfen bleiben und dass sich die einzelnen Suchenden, mittlerweile übrigens auf den meisten Plattformen im Internet, niemals sicher sein können, dass sie mit derselben Anfrage auch morgen noch dieselben Informationen finden. Noble schreibt in diesem Sinne völlig zurecht, dass ein Buch über Google bereits beim Drucktermin veraltet, »out of date« sei. Ihre Studie kann keine Auskunft darüber geben, wie das Ranking von Google heute oder morgen aussieht. Sie muss vielmehr als spezifische Langzeitdokumentation von Suchergebnissen gelesen werden, als eine Dokumentation von rassistischen Treffern, die einer US-Amerikanerin zwischen 2011 und 2016 angezeigt wurden.
In Anlehnung an Jennifer Eickelmann, die sich ausgehend von Judith Butler mit ›Hate Speech‹ im Internet beschäftigt hat, möchte ich die Suchergebnisse, mit denen Noble sich konfrontiert sieht, als Formen ›mediatisierter Missachtung‹ lesen, d.h. als eine »medientechnologisch bedingte Zurückweisung und Herabsetzung, die Ausschlüsse produziert und damit den Möglichkeitsraum für (Über-)Lebensfähigkeit begrenzt«. Die Performativität dieser ›mediatisierten Missachtung‹, die z.B. als ›Hate Speech‹ in sozialen Netzwerken zu beobachten ist, äußere sich laut Eickelmann »im Kontext ihrer technologischen Bedingtheiten sowie ihrer Unkontrollierbarkeit«. Eine dauerhafte Produktion von Ausschlüssen, die technisch bedingt und für die Einzelnen nicht kontrollierbar ist, verstärkt auch die diffamierende Kraft der Web-Suche.
In der eingangs erwähnten Geschichte, in der Noble mit den beiden Mädchen das Internet durchsuchen wollte, fühlte sie sich als Person durch die pornografischen und rassistischen Treffer angegriffen. Sie war schockiert, dass ihre harmlose Suche zu einer derartigen Verunglimpfung führte. Wenn angenommen wird, dass sich die Suchergebnisse immer wieder verändern, wächst die Befürchtung, dass sich eine solche Situation ständig wiederholen kann und dass es kein Entkommen vor der ›mediatisierten Missachtung‹, oder, in Nobles Worten, vor den ›Algorithmen der Unterdrückung‹ gibt. Ich glaube, dass diese situative Kraft der Suche ernst genommen werden muss und dass sie der Auslöser für Nobles Empörung und für ihre Dokumentation von Suchergebnissen ist. Noble versucht, Momente zu dokumentieren, in denen die Suche eine verletzende Kraft hatte. Es geht darum, Beweise zu sammeln. Denn wenn davon ausgegangen wird, dass sich solche Situationen im Nachhinein nicht rekonstruieren lassen, dann können sie weder vernünftig aufgeklärt noch geahndet werden.
Noble selbst verweist im Kontext eines historischen Vergleiches auf die amerikanische Library of Congress und die dort anzutreffenden rassistischen Klassifizierungen. Auf den vielleicht entscheidenden Unterschied zur Web-Suche verweist sie allerdings nicht: Um zu beweisen, dass sich rassistische Ordnungskategorien in der Library of Congress befinden, kann diese jederzeit konsultiert werden. Um zu beweisen, dass Google oder andere Web-Suchmaschinen rassistische Ergebnisse liefern, muss jedoch die Suche dokumentiert werden – und zwar sofort, gleich nach dem Eintippen der Anfrage – und das immer und immer wieder.
Überwachung und Kontrolle
David Gugerli formuliert die These, dass sich mit Suchmaschinen »Hoffnungen auf Fundamentaldemokratisierung, informationelle Emanzipation und vollständige Übersicht ebenso verbinden« ließen, »wie die Horrorvisionen eines […] Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt«. Die demokratischen Hoffnungen in die Web-Suche wurden in den letzten beiden Abschnitten bereits ausgehend von deren automatisierten Selektionen sowie den daraus resultierenden tendenziösen Verzerrungen infrage gestellt. In diesem Abschnitt wird nun in Diskurse eingeführt, in denen Suchmaschinen als Instrumente der Überwachung sowie im Hinblick auf eine ökonomisch motivierte Datensammlung und Kontrolle im Fokus der Kritik stehen.
Es kann angenommen werden, dass Suchmaschinenbetreiber über die Speicherung und Auswertung von Suchanfragen potenziell Einfluss auf die Gesellschaft nehmen können. Eine wichtige Voraussetzung dafür ist die technische Fähigkeit, gigantische Datenmengen zu sammeln und zu verknüpfen. Diskutiert wird unter dem Stichwort ›Big Data‹, wie, zu welchen Zwecken und mit welchen Konsequenzen Daten verarbeitet werden. In Bezug auf Suchmaschinen werden zumeist die ökonomischen Chancen besonders betont. Betreiberfirmen könnten über die Auswertung der gespeicherten Anfragen gezielt Werbung schalten, Angebot und Nachfrage koordinieren und »die Welt in ihren Transaktionschancen lesbar« machen. Die Wirkmächtigkeit solcher Big-Data-Analysen wurde dem amerikanischen Journalisten John Battelle schlagartig bewusst, als er 2002 auf den Google-Dienst ›Zeitgeist‹ stieß. ›Zeitgeist‹ fasste die Suchanfragen der vergangenen Jahre eindrucksvoll und werbewirksam zusammen und suggerierte Battelle auf diese Weise, »dass Google nicht einfach nur den Finger am Puls der Kultur hatte, sondern dass es direkt an das Nervensystem der Kultur angeschlossen war«. Battelle erkannte, dass Web-Suchmaschinen nicht nur ständig registrieren, wonach die Welt sucht, sondern davon ausgehend Prognosen erstellen, Trends antizipieren, Werbung platzieren und Meinungen beeinflussen können.
In seinem einschlägigen Buch prägt er daraufhin den Begriff ›Datenbank der Absichten‹, den er als die »Summe aller Suchanfragen« definiert. Er beschreibt ferner, dass die Web-Suche auf eine totale Vernetzung und Auffindbarkeit abzielt. Dies führt ihn zu der Vermutung, dass in naher Zukunft die digitale Suche ausgehend »vom computerzentrierten Web« sich »quasi metastasierend« auf sämtliche Geräte und Objekte übertragen könnte: »Stellen Sie sich das einmal vor – Ihren Hund zu googeln, Ihr Kind, Ihre Brieftasche, Ihr Handy, Ihr Auto.« Schon bald werde »alles, was einen Wert hat […] mit dem Web verbunden sein, denn in der verkabelten Welt definiert die Verbundenheit den Wert«.
Diese Zukunftsvisionen verweisen auf eine Gesellschaft, in der Maschinen dauerhaft registrieren, wonach die Menschen suchen, um dann dafür zu sorgen, dass möglichst nichts mehr im Verborgenen bleibt, dass immer alles gefunden wird. Es überrascht nicht, dass mit diesen Vorstellungen kaum noch Hoffnungen auf eine demokratische Übersicht, sondern eher Ängste und Sorgen vor einer totalen Überwachung befördert werden.
Dies schlägt sich nicht zuletzt in Debatten zum Datenschutz und zur Privatsphäre nieder. Der Umstand, dass theoretisch jede Eingabe im weltweiten Netz gespeichert, ausgewertet und zu ihrem Ursprung zurückverfolgt werden kann, veranlasst den Rechtswissenschaftler Maximilian Hotter zu der Einschätzung, dass die Gesellschaftsteilnehmer_innen gegenwärtig so viele digitale Spuren hinterließen, dass ein effektiver staatlicher Datenschutz nötig geworden sei, um eine verloren gegangene Privatsphäre künstlich wiederherzustellen. Derartigen Einschätzungen liegt die Beobachtung zugrunde, dass Web-Dienste mitunter einen sehr präzisen Einblick in die Aktivitäten ihrer Kund_innen erlangen. Über sog. ›Session-Replay Scripts‹ ist es z.B. möglich, die Interaktionen auf Internetseiten visuell aufzuzeichnen – fast so, als würde den Nutzenden beim Surfen im weltweiten Netz jemand über die Schulter schauen.
Aber nicht nur die Gefahren einer unternehmerischen, sondern auch die Gefahren einer staatlichen und geheimdienstlichen Überwachung waren in den letzten Jahren ein breit diskutiertes Thema. So führte es zu weltweitem Aufruhr, als 2013 der ehemalige NSA-Mitarbeiter Edward Snowden Daten aus staatlichen Überwachungsprojekten an die Öffentlichkeit zurückspielte. Mit solchen Phänomenen beschäftigen sich gegenwärtig die Surveillance Studies, die prominent von den Theorien Zygmunt Baumans sowie der Arbeit von David Lyon geprägt wurden. Bauman etablierte die Rede von einer ›flüchtigen‹ bzw. ›flüssigen Moderne‹, mit fluiden Strukturen und den technischen Möglichkeiten einer exterritorialen und ›post-panoptischen‹ Kontrolle. In einem Dialog beschwören Bauman und Lyon eine Form der ›Transparenz‹, »durch die nicht nur der Staatsbürger als solcher, sondern jeder Mensch in allen Bereichen des Alltagslebens pausenlos überprüft, beobachtet, getestet, bewertet, beurteilt und in Kategorien eingeordnet werden kann«.
Ein weiterer wichtiger theoretischer Bezugspunkt der Surveillance Studies ist das Werk Überwachen und Strafen (1975) von Michel Foucault – insbesondere aufgrund des dort etablierten Begriffs der ›Disziplinargesellschaft‹. In Anlehnung an den britischen Philosophen und Juristen Jeremy Bentham entfaltet Foucault die Idee einer allgemeinen Disziplinierung besonders anschaulich: Bentham entwarf 1787 das architektonische Modell einer Beobachtungsanstalt namens ›Panopticon‹. Sein Konzept war nicht nur für die Konstruktion von Gefängnissen, sondern auch von Schulen, Fabriken, Krankenhäusern oder Irrenanstalten gedacht. Die Funktionsweise der vorgesehenen Architektur war ebenso einfach wie genial: ein Turm, ein Innenhof und drum herum ein ringförmiges Gebäude, das in Zellen unterteilt ist. Die Zellen sollen lichtdurchflutet sein und ihre Insassen gut sichtbar. Der Wächterposten im Turm mit seinem Rundumblick muss hingegen im Verborgenen bleiben, sodass die Gefangenen nie wissen können, ob sie gerade tatsächlich beobachtet werden oder nicht – weswegen sie potenziell einfach immer davon ausgehen.
Michel Foucault vertritt die These, dass dieses Modell der panoptischen Überwachung dazu berufen war, »sich im Gesellschaftskörper auszubreiten«, um zu »einer verallgemeinerten Funktion« zu werden. Das Panoptikum habe die Macht der Sichtbarmachung »automatisiert und entindividualisiert«. In einer ›Disziplinargesellschaft‹ seien es fortan »die Untertanen, die gesehen werden müssen, die im Scheinwerferlicht stehen, damit der Zugriff der Macht gesichert bleibt«. Dabei kann jeder zum Wächter werden, aber eben auch jeder zum Überwachten. Nach Foucaults Darstellungen wurde Jeremy Bentham somit zu einem maßgeblichen Wegbereiter der Idee einer allgegenwärtigen Überwachung, »die imstande ist alles sichtbar zu machen, sich selber aber unsichtbar«.
In Zeiten neokapitalistischer Interessen und ›post-panoptischer‹ Überwachungstechnologien dient die Beobachtung der Bevölkerung jedoch zumeist nicht mehr der klassischen Disziplinierung. Die Ökonomin Shoshana Zuboff spricht im Hinblick auf die ›Datensammelwut‹ im weltweiten Netz von einer neuen Marktform, die sie als ›Überwachungskapitalismus‹ bezeichnet. Hierbei werde »menschliche Erfahrung als Rohstoff zur Umwandlung in Verhaltensdaten« verarbeitet. Der Großteil dieser Daten diene dazu, zukünftiges Verhalten vorherzusagen, um Profitmöglichkeiten frühzeitig zu antizipieren. Zuboff bezeichnet Google als den Pionier dieser »übermächtigen neuen Spielart des Kapitalismus«, da das Unternehmen als eines der ersten aus dem Verhaltensüberschuss seiner ahnungslosen Suchenden einen immensen Profit zu generieren wusste.
Mit seinem Begriff der ›Kontrollgesellschaft‹ etablierte Gilles Deleuze bereits zu Beginn der 1990er Jahre ein bis heute beliebtes Analysewerkzeug, um zu markieren, dass die gegenwärtigen Regime die Subjekte nicht mehr in erster Linie disziplinieren wollen. Anders als in Benthams Panoptikum, in dem es noch darum ging, die Subjekte auf ein bestimmtes Ideal hin zu erziehen, sei die gegenwärtige Kontrolle »kurzfristig und auf schnellen Umsatz gerichtet, aber auch kontinuierlich und unbegrenzt«. Die von Deleuze beschriebenen Mechanismen der ›Kontrolle‹ und der ›Modulation‹ sind in den einschlägigen Debatten weit verbreitet. So könnten, wie z.B. Theo Röhle es beschreibt, Web-Suchmaschinen in einer ständigen Feedback-Schleife Anfragen auswerten, um mittels der gewonnenen Daten Statistiken zu erstellen, Werbung zu platzieren, das Angebot zu optimieren und ihren Profit zu steigern. Auch »irreguläres Verhalten« sei also »kontrollierbar«, da es keine Gefahr mehr für das System darstelle, sondern vielmehr von diesem zur produktiven Weiterentwicklung ausgewertet werden könne. Steuerungsverfahren aus der Kybernetik kämen zum Einsatz, um Geldgebende und Werbetreibende zufriedenzustellen:
Durch den ständigen Input an Nutzerdaten kann sich das System flexibel an neue Bedingungen anpassen, Abweichungen integrieren und dabei weiterhin auf das Ziel des erhöhten Konsums hinsteuern.
Diese Idee von einer durch digitale Technologien beförderten kybernetischen ›Kontrollgesellschaft‹ wird zum Ausgangspunkt einer Kritik, die den totalen Verlust individueller Selbstbestimmung prophezeit. So befürchtet Ramón Reichert, dass das Individuum der Kontrollgesellschaft »nur noch als dechiffrierbare und transformierbare Figur seiner Brauchbarkeiten« von Interesse sei, während der Soziologe Wolfgang Streeck polemisiert, dass das Individuum »in den riesigen Datenspeichern des digitalen Kapitalismus« in seiner steuerbaren Potenzialität vornehmlich als konsumierend oder terrorisierend erscheine:
Der Terrorist soll gefunden werden, bevor er zu einem wird; über den Konsumenten will man wissen, was er konsumieren will, bevor er selber es weiß. So werden beide, jeder auf seine Art, aus dem Reiche derer, die etwas zu sagen haben, ausgebürgert.
Die Vorstellung, mit Hilfe von Big-Data-Analysen terroristische Anschläge verhindern zu können, ist hierbei nicht als Übertreibung zu verstehen. Algorithmen, die postrelationale Datenbanksysteme weltweit nach Informationen durchsuchen, um terroristische Netzwerke aufzudecken, gehören tatsächlich zum Handwerkszeug von Regierungen. Jutta Weber diskutiert und beschreibt in einem 2018 publizierten Aufsatz, wie »riesige Datenmengen nach Mustern, Beziehungen, Assoziationen und ›Anomalien‹« durchsucht, klassifiziert und gruppiert werden. Dabei sei das Objekt der Suche in der Regel kein »genau definiertes Problem, sondern eher ein sehr breit definiertes Ziel […] – etwa einen Terroristen zu finden«. Die Folgen dieser Big-Data-Kriege gegen den Terror bezeichnet Weber als hochproblematisch: »Aus Angst, mögliche potenzielle Verdächtige zu übersehen«, würden die Suchkriterien extrem ausgeweitet, was dazu führe, dass die Daten von immer mehr Individuen »in die Datenbanken der Tötungs- und Beobachtungslisten eingespeist« und dort automatisch ausgewertet würden.
Die skizzierten Sorgen, mittels digitaler Suchmaschinen und im Kontext von Big-Data-Auswertungen gezielt überwacht, kontrolliert und manipuliert zu werden, sind nicht zuletzt auch deswegen so virulent, weil die komplexen Bearbeitungs- und Selektionsprozesse der Maschinen für Außenstehende in der Regel nicht nachvollziehbar sind. Web-Suchmaschinen werden häufig als ›Black Boxes‹ angeprangert, da ihre Funktionsweisen unbekannt bleiben und sie den Nutzenden nur über ihre Inputs und Outputs zugänglich gemacht werden. Sie erscheinen wie mächtige Phantome, die alles sichtbar machen, selbst jedoch im Unsichtbaren verbleiben. So resümieren Bauman und Lyon: »Während unser Alltag für die uns beobachtenden Organisationen in allen Details transparenter wird, entziehen sich deren Aktivitäten zunehmend unserer Einsichtsmöglichkeiten.« Die Sorge vor einer Kontrolle, Überwachung und Manipulation, bei denen die Regierungen in erster Linie am Machterhalt und die Betreiberfirmen an der eigenen Gewinnmaximierung interessiert sind – und kaum noch jemand an der Informations- und Meinungsvielfalt der Bevölkerung – wird durch dieses wahrgenommene, radikale Ungleichgewicht verstärkt. Das damit verbundene paradoxe Verhältnis von Transparenz und Opazität wird im folgenden letzten Abschnitt dieses Kapitels diskutiert.
Black Box
In seiner 2010 erschienenen Monografie Der Google-Komplex verfolgt Theo Röhle das Anliegen, »Machtzuschreibungen im Bereich der Suchmaschinen zu präzisieren«. Diesem Vorhaben liegt die Beobachtung zugrunde, dass in Bezug auf Web-Suchmaschinen sowohl öffentliche als auch wissenschaftliche Debatten »eine Geschlossenheit der Machtverhältnisse suggerieren, die so nicht gegeben ist«. Dabei würden Vorstellungen evoziert, die insbesondere Google zum »Inbegriff des machtvollen Souveräns im digitalen Zeitalter« stilisieren.
Röhle bemüht sich daher in seiner Arbeit, die verschiedenen Akteur_innen hinter der Google-Suche differenziert zu betrachten und deren wechselseitigen Einflüsse zu beschreiben. Dazu unterscheidet er vier handelnde Verbünde: das Unternehmen Google, die Inhaltsanbietenden des Webs, externe Suchmaschinenoptimierende und die Suchenden. Jedoch legen seine Analysen nahe, dass die Suchenden in diesem Komplex die schwächste Verhandlungsposition einnehmen. Denn sie erscheinen als unfreiwillige Datenlieferant_innen, deren Verhalten in einer – vom Werbesystem beeinflussten – Wertschöpfungskette beobachtet, konfiguriert und ökonomisch ausgebeutet wird. Röhle beschließt seine Arbeit infolgedessen mit der Aussage, dass es an den Nutzenden läge, »den Wert ihrer Arbeit zu erkennen und die Maschinen in ihrem Sinne zu konfigurieren«.
Jedoch blickt Röhle sorgenvoll in die Zukunft: »Regulierung, Aufklärung oder die Förderung technischer Alternativen – bisher sind noch so gut wie alle Ansätze an der Bequemlichkeit der Nutzer gescheitert.« Und scheinbar auch an deren Naivität, denn Röhle unterstellt den Suchenden ein hohes Maß an Unwissenheit. Nur wenige hätten Kenntnis von den Kriterien der Rankings, geschweige denn von der stattfindenden Kontrolle. Zudem würden Web-Suchmaschinen im Vergleich zu älteren Systemen ihre »Vermittlerrolle wesentlich effektiver hinter minimalen Schnittstellen und extrem kurzen Verarbeitungszeiten« verbergen, was den »Anschein eines transparenten Informationszugangs« erzeuge.
In Bezug auf diesen letzten Punkt impliziert Röhle die Vorstellung von einer intransparenten Technologie, die jedoch einen widerstandslosen Zugriff auf die Welt suggeriert. Während die Suchmaschine Google immer mehr Entscheidungen automatisiert durchführen würde, erzeuge sie über ihre bedienungsfreundlichen Outputs eine »Transparenzillusion«. Die Verschiebung, die sich hier abzeichnet, macht Röhle 2013 in einem Aufsatz zur Frage, »Wie Google Wirklichkeit produziert«, explizit. Problematisch sei die Verschiebung Googles »vom identifizierbaren Gatekeeper zur Black Box […], deren Zuordnungen und Kategorisierungen zwar gleichermaßen diskursmächtig sind, sich aber nur noch äußerst vage erahnen lassen«. An dieser Stelle droht Röhles Versuch, dem »vage als ›böse‹ konnotierten Konglomerat« der Web-Suche zu entkommen und diesem eine differenzierte Analyse der Machtverhältnisse entgegenzusetzen, an seine Grenzen zu stoßen oder gar zu scheitern. Denn wenn die Suchmaschine zur Black Box wird, eine Illusion von Transparenz erzeugt und es kaum noch Chancen für die Suchenden gibt, »den sinnzuschreibenden Kategorisierungsversuchen der Algorithmen zu entkommen«, dann hat die Welt es mit einem mächtigen Phantom zu tun, das alles sieht und steuert, selbst jedoch im Unsichtbaren verbleibt.
Dieser machtvollen Zuschreibung kann die Suchmaschinenforschung kaum entkommen. So bemerken bereits die Soziologen Schetsche, Lehmann und Krug in einem Aufsatz zur Google-Gesellschaft aus dem Jahr 2005, dass »Computerprogramme und Netzwerktechnik […] den Nutzern in aller Regel als Blackbox« entgegentreten und der Mangel »an technischem Wissen« dazu verleite, »die Welt der Computer und Netze magisch zu verstehen«. Die damit verbundene Gefahr, in irrationale Vorstellungen und Verschwörungstheorien zu verfallen, wird von wissenschaftlichen Analysen leider nicht immer konsequent bekämpft. So trägt die einschlägige Monografie The Black Box Society des US-amerikanischen Juristen Frank Pasquale bereits mit ihrem Titel dazu bei, die Mächte hinter den digitalen Technologien zu mystifizieren. Im Untertitel verweist sie auf die »unsichtbaren Algorithmen, die Geld und Informationen kontrollieren«. Dazu gehört selbstredend auch eine ›versteckte Logik der Suche‹, der Pasquale ein ganzes Kapitel widmet. In diesem betont er, dass die Gesellschaft ihren digitalen Suchdiensten eine fast unvorstellbare Macht gegeben habe, festzulegen, was wahrgenommen wird und was nicht.
Die Suchmaschine als Black Box taucht aber auch in nüchterneren Zusammenhängen auf. So stellen Jürgens, Stark und Magin im Kontext ihrer empirischen Studie zu den Personalisierungsprozessen der Google-Web-Suche fest, dass sich diese der wissenschaftlichen Analyse weitestgehend entziehen: »Weder Input, Funktionsweise und Output […] noch die Nutzung können in einer der gesellschaftlichen Bedeutung angemessenen Gründlichkeit untersucht werden«. Für »Außenstehende aller Art« seien »Suchmaschinen als Ganzes damit schlichtweg eine Black Box«. Auch in historischen Analysen zum Suchen und Finden wird der Begriff verwendet, um auf die Opazität der Wissensorganisation und eine dadurch implizierte nebulöse Macht zu verweisen. So schreibt z.B. Nikolaus Wegmann in seiner einschlägigen Monografie Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter metaphorisch davon, »die Black Box Bibliothek« aufzubrechen. Wenn der Kulturwissenschaftler Philipp von Hilgers kritisiert, der Begriff ›Black Box‹ sei zum »traurigen wissenschaftlichen Jargon« verkommen und werde zumeist dann verwendet, wenn es darum ginge, »die Intransparenzen moderner Gesellschaftsformen anklingen zu lassen«, so steckt hinter diesem Vorwurf zugleich die Aufforderung, sich dem Begriff zu stellen und seine Implikationen zu überdenken. Denn tatsächlich scheint es so, als würde der Begriff viel häufiger verwendet als reflektiert. Und eine Reflexion ist gerade im Hinblick auf die Web-Suche dringend geboten, insbesondere, um den Vorstellungen eines großen undurchschaubaren Machtkonglomerats etwas entgegenzusetzen und aufzuzeigen, wie die Suchenden »die Maschinen in ihrem Sinne […] konfigurieren« können. Daher wird im Folgenden versucht, das Spannungsverhältnis von Transparenz und Opazität, durch das die Suchmaschine als Black Box gekennzeichnet ist, in seiner Ambivalenz darzustellen.
Die Forderung nach Transparenz impliziert gegenwärtig zumeist den Wunsch, verborgene Informationen sichtbar zu machen, um Manipulationen und Korruptionen aufzudecken. Während das Wort in seiner ursprünglichen Bedeutung schlicht auf die Durchlässigkeit von Licht verweist, hat es sich als Metapher eine immense Bedeutungsfülle angeeignet. Der Begriff avancierte zu einer Art Leitbild westlicher Demokratien. Längst wird davon ausgegangen, dass die mündigen Bürger_innen »eine Offenlegung aller staatlich verfügbaren Daten« verlangen und dass eine Verweigerung dieser Informationen schädlich für die demokratische Meinungsbildung sei. Unter diesem Eindruck schreibt der Philosoph Byung-Chul Han: »Kein anderes Schlagwort beherrscht heute den öffentlichen Diskurs so sehr wie die Transparenz. Sie wird vor allem im Zusammenhang mit der Informationsfreiheit emphatisch beschworen.« Denn trotz ihrer demokratischen Implikationen ist eine Skepsis gegenüber den Transparenzverlautbarungen angebracht. Der Germanist Manfred Schneider warnt, dass sich hinter der Forderung nach Transparenz nicht zuletzt auch »Machtverlangen, theoretische Gewalt, blinde Medienideologie und unmögliche Versprechen« versammeln würden.
In seiner Monografie Transparenztraum versucht Schneider, die Phantasmen der Transparenz offenzulegen und historisch zurückzuverfolgen. Aus einer medienwissenschaftlichen Perspektive erscheinen dabei die folgenden drei Aspekte besonders zentral: das Ideal einer täuschungsfreien Kommunikation, eines mächtigen, alles durchdringenden Blicks und nicht zuletzt einer medienlosen, d.h. unvermittelten, ›Wirklichkeit‹. Schneider diskreditiert derlei Ideale der Transparenz als einen unerfüllbaren Traum, der sich zum Wahn steigern könne. Und so ist nicht nur die emphatische Forderung, sondern auch die harsche Kritik an der Transparenz ein Bestandteil der gegenwärtigen Debatte. In seinem kleinen kulturpessimistischen Essay findet Byung-Chul Han vernichtende Worte für die von ihm so bezeichnete ›Transparenzgesellschaft‹:
Die Transparenzgesellschaft ist eine Gesellschaft des Misstrauens und des Verdachts, die aufgrund des schwindenden Vertrauens auf Kontrolle setzt. […] An die Stelle der wegbrechenden moralischen Instanz tritt die Transparenz als neuer gesellschaftlicher Imperativ.
Auch ohne diese Polemik wird deutlich, dass Forderungen nach Transparenz einerseits schnell an die Grenzen der technischen Realität stoßen und andererseits zu Skepsis und Misstrauen verleiten. Dies gilt insbesondere in Bezug auf Dinge, die sich gänzlich dem Zugriff entziehen, die opak, d.h. undurchsichtig bleiben. Der Black Box haftet indessen ein Freund/Feind-Schema an, das sich bis in die Wirren des Zweiten Weltkriegs zurückverfolgen lässt. Noch bevor der Begriff als Metapher in der frühen Kybernetik aufkam, wurde er von den Alliierten verwendet, um eine in Kampfflugzeugen eingesetzte Radartechnologie zu bezeichnen, die dem Feind zwar in die Hände fallen, aber nicht entschlüsselt und damit auch nicht nachgebaut werden konnte. Die kompromissloseste Definition einer Black Box beschreibt in diesem Sinne ein technisches Gerät, das sich unmöglich öffnen lässt und das folglich nur über seine In- und Outputs zugänglich ist.
Die Black Box als Feindesmaschine wird nicht nur von Friedrich Kittler aufgegriffen, um einmal mehr den Ursprung von Medientechnologien im Kriegsgeschehen zu suchen, sondern wird auch in aktuellen Debatten immer wieder gerne verwendet, um die Vorstellungen von einer extremen Opposition zu evozieren. So funktioniert die Metapher der schwarzen Kiste bis heute als Feindbild einer aufgeklärten und partizipativen Gesellschaft. Eine solche plakativ anmutende Opposition beschert jedoch gleich zwei Probleme: Sie verleitet nicht nur dazu, die Transparenz zu verherrlichen und die opake Black Box zu verteufeln, sondern sie boykottiert zugleich die Möglichkeit, einen widerständigen Umgang mit Technologien zu finden, die sich in ihrer Funktionsweise dem Zugang entziehen.
Um diesen Problemen zu begegnen, lohnt es sich, noch einen genaueren Blick auf das Konzept der Black Box zu werfen. Bruno Latour verwendet den Begriff
›blackboxing‹ im Rahmen seiner Akteur-Netzwerk-Theorie, um zu beschreiben, wie auch wissenschaftliche Arbeiten und technische Innovationen, die jeder funktionierenden Maschine zugrunde liegen, gleich dem ›Inhalt‹ einer Black Box in Vergessenheit geraten:
Wenn eine Maschine reibungslos läuft […] braucht nur noch auf Input und Output geachtet zu werden, nicht mehr auf ihre interne Komplexität. Daher das Paradox: Je erfolgreicher Wissenschaft und Technik sind, desto undurchsichtiger und dunkler werden sie.
Diese Idee beschränkt Latour nicht auf einzelne technische Geräte, die zum Feind stilisiert werden können, sondern er weitet sie aus auf eine Welt voller menschlicher und nicht-menschlicher Akteur_innen, die alle als komplexe verschachtelte Black Boxes gelesen werden können und die alle miteinander agieren. Jegliche Artefakte, Menschen und Dinge betrachtet Latour dabei immer schon als Teile von Institutionen und Kollektiven, »schillernd in ihrem Mischstatus als Vermittler […], ohne zu wissen, ob sie einer oder viele sind, ob sie eine einzige Black Box bilden oder ein Labyrinth voller Vielheiten«.
Philipp von Hilgers bezieht sich zwar auf die Überlegungen von Latour, kritisiert jedoch, dass dieser nicht berücksichtige, dass es sich beim ›blackboxing‹ nicht nur um einen unvermeidlichen und allgegenwärtigen, sondern ebenso um einen bewussten und dabei äußerst produktiven Vorgang handeln könne. Das ›blackboxing‹ sei ebenso »angewendetes und positives Wissen«. In der Kybernetik sei der Begriff gerade deswegen als theoretisches Modell aufgegriffen worden, weil die Beschränkung, die Black Box nicht zu öffnen, »die Anwendung effizienterer Untersuchungsmethoden und neuer Einsichten« eröffnet habe. Diese sog. Black Box-Epistemologie habe nicht zuletzt einen gravierenden Einfluss auf die Informatik gehabt. Dort bezeichne die Black Box »Hard- und Softwarekomponenten, die klar definierte Schnittstellen aufweisen, sodass Programmierungen vorgenommen werden können, die an Kenntnissen nur die Funktionsweise eben jener Schnittstellen voraussetzen«.
Was bei dieser informationstechnischen Perspektive im Fokus steht, ist nicht etwa der Wunsch, die Black Box zu knacken, sondern vielmehr die Möglichkeit, sie zu funktionalisieren. So schreibt Alexander Galloway, dass die Black-Box-Epistemologie ein für die europäische Wissenschaftswelt »neuer Erkenntnisansatz« gewesen sei, »der kein Eindringen in das Objektinnere mehr verlangte, sondern vielmehr das Objekt in seiner Opakheit beließ und Urteile nur auf der Grundlage seines beobachtbaren Verhaltens fällte«. Galloway begegnet den Tendenzen, die Black Box metaphysisch aufzuladen, indem er darauf verweist, dass die Black Box »ein rein funktionales Sein ohne Wesen oder transzendentalen Kern« besitze. Eine solche Lesart scheint auch geboten, um die Web-Suchmaschine als Black Box zu verstehen. Für die Entwicklung von modernen Computern war es eine wegweisende Entscheidung, Datenbanksysteme zu entwickeln, auf die mittels einfacher Bedienschnittstellen und ohne großes technisches Wissen zugegriffen werden konnte. Das ›blackboxing‹ wurde zu einem zentralen Konzept der technischen Funktionalisierung. Es bildete gewissermaßen die Basis für die Entwicklung von persönlichen Computern, dem weltweiten Netz und den dort operierenden Such- diensten.
Diese Feststellung soll nicht bedeuten, dass im Umgang mit opaken Systemen, die in der Lage sind, massenhaft Daten zu speichern, auszuwerten und zu selektieren, keine Vorsicht geboten wäre. Es soll auch nicht suggeriert werden, dass die Forderung nach mehr Transparenz durch und durch naiv und aussichtslos sei. Und meine Argumentation möchte erst recht keine Kapitulation vor der Suchmaschine als Black Box darstellen. Ganz im Gegenteil: Ich glaube, dass ein differenzierter Blick auf das Spannungsverhältnis von Transparenz und Opazität sowie auf die Prozesse des ›blackboxings‹ notwendig sind, um einen fachkundigen, sachlichen und nicht zuletzt auch widerständigen Umgang mit digitalen Technologien zu finden. Dabei sollte es das Ziel sein, sich von den Ängsten zu befreien, die durch die Opposition von Transparenz und Opazität evoziert werden, und es sollte der Versuch unternommen werden, eine Black Box zunächst als technische Funktion zu begreifen. Denn eben diese Funktionalisierung halte ich für eine zentrale Voraussetzung, um, wie Röhle es fordert, die Suchenden im weltweiten Netz in die Lage zu versetzten, »die Maschinen in ihrem Sinne zu konfigurieren«.
Über eben diese Perspektive kann zugleich das Selbstverständnis der suchenden Bevölkerung gestärkt werden. Es handelt sich nämlich nicht per se um eine transparente Kundschaft, die von Web-Suchmaschinen andauernd ausgeleuchtet und kontrolliert wird. Es verhält sich vielmehr andersherum: Jedes suchende Individuum ist ›aus Sicht der Maschine‹ zunächst selbst eine Black Box, die nur über Input und Output kommuniziert. Die Suchenden können sich infolgedessen selbst verschlüsseln und sind potenziell in der Lage, die Modulationen in ihrem Sinne nutzbar zu machen und gegen das System zu verwenden.
Die gefühlte Hilflosigkeit gegenüber Web-Suchmaschinen, die in diesem Kapitel immer wieder thematisiert wurde, muss nicht durch deren Intransparenz verstärkt werden. Wer sucht, kann vielleicht manipuliert, verletzt, kontrolliert und gefunden werden – darf sich aber ebenso zur Wehr setzen. Es ist ein zentrales Anliegen dieser Arbeit, Praktiken aufzuzeigen, die einen gelasseneren Umgang mit den intransparenten Funktionsweisen der Web-Suche ermöglichen. Denn auf Röhles Frage, welche Möglichkeiten es gibt, »den sinnzuschreibenden Kategorisierungsversuchen der Algorithmen zu entkommen«, lassen sich tatsächlich eine Menge Antworten finden. Viele stecken bereits in den gegenwärtigen Auseinandersetzungen mit Web-Suchmaschinen, einige werde ich ausgehend von den Analysen der historischen Texte liefern und manche davon werde ich am Ende dieser Arbeit noch einmal zur Diskussion stellen. So viel sei vorweggenommen: Die hilflose Forderung nach mehr Transparenz gehört nicht dazu.
Robin Schrade in: Wer sucht, kann gefunden werden; Problemgeschichten der Wissensorganisation von der Scholastik bis zur Suchmaschinenforschung; transcript Verlag, Bielefeld, 2022
Creative Commons — Namensnennung 4.0 International — CC BY 4.0
https://doi.org/10.14361/9783839456798
Zur einfacheren Lesbarkeit wurden die Quellen- und Literaturverweise entfernt.