7.5 Sicherheitsaspekte
7.5.1 Kurze Einführung
KI-Systeme können manipuliert, umgangen und irregeführt werden, was tiefgreifende Auswirkungen auf die Sicherheit von Anwendungen wie Netzwerküberwachungstools, Finanzsystemen oder autonomen Fahrzeugen hat. KI hat mit Computern, Hardware und Software zu tun, sodass alle gängigen Bedrohungen für digitale Systeme auch für KI-Systeme gemeinsame Bedrohungen darstellen. Darüber hinaus gibt es KI-spezifische Schwachstellen, die detaillierter dargestellt werden müssen. Da die Komplexität von KI-Systemen rasch zunimmt, ist es ungewiss, ob diese Probleme gelöst oder in Zukunft sogar noch verschärft werden könnten. Die Software von KI-Systemen kann gestohlen werden, d.h. Cyberspionage kann den gesamten Vorteil von KI-Systemen beseitigen. Andererseits kann KI die Cyber-Verteidigung bis hin zur automatisierten Cyber-Verteidigung erheblich verbessern und eine Waffe in der Informationskriegsführung sein.
7.5.2 Wichtige Schwachstellen von KI-Systemen
7.5.2.1 Grundlegende Probleme der KI
Die frühen KI-Systeme waren einfach gebaut und daher leicht zu erklären. Inzwischen sind jedoch Deep Neural Networks entstanden, die sehr gute Ergebnisse zeigen, jedoch auf Deep Learning-Modellen basieren, die Lernalgorithmen mit bis zu Hunderten von versteckten „neuronalen“ Schichten und Millionen von Parametern kombinieren, wodurch sie zu undurchsichtigen Black-Box-Systemen werden. Dies ist auch als Explainability Issue (Erklärbarkeitsproblem) bekannt.
Die Arten von KI-Algorithmen mit der höchsten Leistung können ihre Prozesse derzeit nicht erklären. Zum Beispiel hat Google ein effektives System zur Identifizierung von Katzen in Filmen geschaffen, aber niemand konnte erklären, welches Element einer Katze die Identifizierung ermöglichte. Dieser Mangel an sogenannter „Erklärbarkeit“ ist allen solchen KI-Algorithmen gemeinsam. Es gibt jedoch eine Diskussion darüber, dass Maschinen manchmal gemeinsame Muster oder Strukturen in Objektklassen sehen, die Menschen zuvor einfach nicht bemerkt haben. Infolgedessen kann niemand vorhersagen, wann und aus welchem Grund ein Fehler auftreten kann, und KI-Systeme sind nur begrenzt vorhersehbar (predictability issue).
Systematische Fehler: KI-Systemfehler können ein erhebliches Risiko darstellen, wenn die Systeme in großem Maßstab bereitgestellt werden, d.h. KI-Systeme könnten dann gleichzeitig und auf die gleiche Weise versagen und möglicherweise große oder zerstörerische Auswirkungen haben.
Kommunikationsprobleme: 5G-Netzwerke werden eine Art „Bindegewebe“ zwischen KI-Anwendungen sein, was bedeutet, dass jeder, der auf die 5G-Netzwerke zugreifen kann, die Kommunikation beeinflussen (verändern, stören) kann.
Missbrauch der Rechenleistung: Die reine Geschwindigkeit der KI macht die Systeme für den Missbrauch sehr attraktiv, z.B. für das Erschaffen (Mining) von Kryptowährung, die viele Berechnungen erfordert.
7.5.2.2 Missionsstabilität
Ein spezifisches militärisches KI-Problem ist die Missionsstabilität. Autonome militärische Systeme können die Aufklärung und die Informationslage verbessern, die Entscheidungsfindung beschleunigen und schnelle Reaktionen ermöglichen, aber auch militärische Missionen destabilisieren. Beispiele:
- Eine autonome Drohne kann beschließen, ein relevantes Ziel anzugreifen, auf diese Weise jedoch militärische Präsenz offenlegen und Spezialeinheiten oder Geheimdienstoperationen gefährden.
Bei der DARPA Cyber Challenge 2016 war der beste Computer eine Maschine, die sich auf Kosten von ihr betreuten Verteidigungssysteme selbst verteidigte.
- Ein Computer kann entscheiden, dass ein Kampf an einem bestimmten Ort eine Verschwendung von Ressourcen darstellt, und z.B. einen Drohnenschwarm zurückziehen, aber vielleicht nie verstehen, dass manchmal ein bestimmter Ort einen symbolischen und psychologischen Wert hat oder vielleicht als Ankerpunkt einer neuen Frontlinie vorgesehen ist oder dass der Kampf nur dazu dient, Gegner von wichtigeren Bereichen abzulenken. Die Frage ist: Wird eine fortgeschrittene militärische KI wirklich strategisch oder nur taktisch denken können? Der Kontext wird von den Systemen immer noch sehr schlecht verstanden, d.h. ihnen fehlt der gesunde Menschenverstand.
- Missionsautoritätsproblem: In Zivilflugzeugen mussten Piloten bereits gegen defekte Autopiloten kämpfen, die in kritischen Situationen nicht außer Kraft gesetzt werden konnten.
- Eine KI kann sich zu schnell entscheiden, zu kämpfen, und so die konventionellen Streitkräfte unvorbereitet zu lassen oder die Tür zu einer friedlichen Lösung zu schließen.
- Ein gehacktes KI-System kann gegen seinen Kontrolleur umgedreht oder als Doppelagent verwendet werden (d.h. es sendet Beobachtungen beider Seiten an beide Seiten).
Schlussfolgerung: Je weiter fortgeschritten eine militärische KI ist, desto höher ist das Risiko einer Missionsinstabilität, die plötzlich in Mikrosekunden auftreten kann.
7.5.2.3 Daten-Manipulation
- Manipulierte Bilder können autonome Systeme verwirren. Kleine Aufkleber auf der Straße reichten aus, um den Autopiloten eines Tesla-Fahrzeugs auf die gegenüberliegende Fahrspur zu lenken. Mittlerweile gibt es auf modernen chinesischen Militärfahrzeugen, aber auch auf russischen Hubschraubern Tarnbilder im Pixelstil.
- Bereits kleinste – für das menschliche Auge unsichtbare – Änderungen in digitalen Bildern können zu systematischen Fehlinterpretationen durch die
- KI führen, ein Prozess, der als adverses maschinelles Lernen (adversarial machine learning) bezeichnet wird.
- Data poisoning (‘Datenvergiftung’): Maschinen können durch falsch beschriftete Daten systematisch irregeführt werden. Dies kann durch Tapes auf Stoppschildern für den Verkehr geschehen, aber möglicherweise könnte der Missbrauch von Militärflaggen und -symbolen eine andere Option sein.
- Attrappen könnten sicherlich sogar autonome Kampfdrohnen irreführen.
- Spoofing: Irreführung von GPS-gesteuerten Systemen, indem sie ein falsches GPS-Signal senden, das das richtige Signal überlagert, z.B. gegen Drohnen oder Schiffe
7.6 Ethik und Maschinen-Logik
Es gibt viele Aspekte der KI, die ethische Probleme verursachen können, z.B. im militärischen Bereich, wenn die automatisierte Entscheidungsfindung zur Tötung von Gegnern führen kann. Es gilt als selbstverständlich, dass KI-Systeme eine menschliche Aufsicht oder zumindest eine Notübersteuerung bei offensichtlichen Fehlfunktionen ermöglichen sollten.
Eine weitere Herausforderung ist das Problem der Vorhersehbarkeit (predictability) und Erklärbarkeit (explainability). Die spezifischen Merkmale vieler KI-Technologien, einschließlich Intransparenz („Black-Box-Effekt“), Komplexität, Unvorhersehbarkeit und teilweise autonomen Verhalten können es schwierig machen, die Einhaltung von Rechtsregeln zum Schutz von Grundrechten zu überprüfen, und so deren wirksame Durchsetzung behindern. Bestimmte KI-Algorithmen können geschlechtsspezifische und rassistische Vorurteile integrieren, z.B. zur Gesichtsanalyse. Menschliche Entscheidungen können auch voreingenommen sein, aber die gleiche Voreingenommenheit in weit verbreiteten KI-Systemen könnte einen viel größeren Effekt haben und viele Menschen betreffen und diskriminieren.
Während es möglich ist, dass sich KI-Forscher und ihre Länder ethischen und gesellschaftlichen Werten verpflichtet fühlen, ist es derzeit, wo KI ein begrenztes Verständnis der Situationskontexte hat, sehr schwierig, sich eine KI mit eingebetteten Werten vorzustellen. Zum Beispiel haben Menschen normalerweise eine klare Vorstellung davon, was Würde, Gerechtigkeit und Fairness für sie bedeuten, aber wie könnten diese Begriffe im Programmcode oder in Maschinensprache aussehen?
Ein klassisches Problem der Maschinenethik und -logik ist das Kollisionsdilemma autonomer Autos: Ein Fußgänger kann plötzlich die Straße überqueren und das autonome Autosystem kann mit zwei Optionen konfrontiert werden, nämlich Ausweichen mit dem Risiko des Todes des Fahrers oder Weiterfahren mit dem Risiko des Todes des Fußgängers.
Eine starke künstliche Intelligenz, d.h. ein System mit der Fähigkeit, nach dem Sinn zu fragen und mit einem autonomen Selbst (cogito ergo sum) wird – basierend auf überlegenem Wissen und Intelligenz – wahrscheinlich nicht eher der menschlichen Logik und Ethik folgen. Im DARPA-Wettbewerb 2016 hat die Maschine gewonnen, die sich selbst gerettet hat, anstatt die Verteidigungssysteme dauerhaft aktiv zu halten.
Klaus Saalbach: Cyberwar: Grundlagen – Methoden – Beispiele
https://repositorium.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-202009303598
http://creativecommons.org/licenses/by/3.0/de/
Zur einfacheren Lesbarkeit wurden die Quellenangaben und Fussnoten entfernt.