Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Künstliche Intelligenz und Ethik im Gesundheitswesen – Spagat oder Symbiose?

Einleitung

In Hollywoods Filmstudios begegnen uns seit Jahrzehnten dystopische Zukunftsvisionen, in denen Künstliche Intelligenz (KI) übermenschliche Intelligenz erlangt oder Roboter als mysteriöse und gefährliche Wesen dargestellt werden. Nicht selten versuchen diese gar, die Menschheit auszulöschen. Während sich solche düsteren «Worst-Case-Szenarien» in den Warnungen einiger KI-Ethiker widerspiegeln, argumentieren andere, dass die Invasion der Roboter in unserem Alltag längst Realität sei.

Tatsächlich sind gewisse KI-gestützte Algorithmen bereits weit verbreitet: Wir kommunizieren mit ihnen online und lassen uns von ihnen beraten. Wir nutzen KI wie selbstverständlich, um uns in unseren immer komplexer werdenden digitalisierten Lebensbedingungen weiterhin zurechtzufinden. Folgt man Autoren wie David Gunkel, so wird sich hier kein plötzlicher Moment der Machtübernahme durch die Maschinen ereignen. Stattdessen findet eine langsame, aber stetige Invasion statt. Aus dieser Perspektive stellt sich die Frage, wie wir mit diesen Veränderungen langfristig und vorausschauend umgehen und unter welchen Umständen Mensch und Maschine in Zukunft Verbündete sein können.

Beim Blick auf die Chancen und Gefahren der Zusammenarbeit zwischen Menschen und KI verdient die wachsende Bedeutung von KI im Gesundheitswesen ein besonderes Augenmerk. Diese wird beispielsweise in den Bereichen der Befundauswertung, Datenanalyse und Public Health immer häufiger eingesetzt. Doch welche ethischen Fragen stellen sich konkret in diesem Bereich?

In diesem Beitrag möchten wir insbesondere die Rolle kognitiver Systeme beleuchten, die in der Unterstützung besonders Gefährdeter einen enormen positiven Beitrag leisten könnten. Zu dieser Gruppe gehören Menschen mit Demenz (MmD). Die Anwendung kognitiver Systeme bei dieser Indikation schien bisher oft einen Spagat zwischen KI und Ethik darzustellen, dagegen könnte deren nachhaltige Allianz oder «Symbiose» letztlich helfen, menschliche Autonomie zu stärken, statt sie zu gefährden. Vor einem näheren Blick auf die Chancen einer solchen Allianz sollten in der ethischen Abwägung die potenziellen Gefahren von KI klar benannt werden. Zu diesem Zweck stellen wir zunächst die aus unserer Sicht prominentesten Worst-Case-Szenarien für die Folgen von KI dar und beziehen diese auf einen möglichen Einsatz im Gesundheitswesen. Auf dieser Grundlage entwickeln wir dann ein «Best-Case-Szenario» für eine «symbiotische KI», die menschliche Autonomie unterstützt. Wir illustrieren unsere Vision anhand des I CARE Projekts, das MmD mit Hilfe eines auf der Basis nachvollziehbarer ethischer Prinzipien entwickelten Systems unterstützen soll. Abschliessend diskutieren wir vor diesem Hintergrund die Frage zur Rolle von KI im Gesundheitswesen: Um den Spagat zwischen KI und Ethik sowie Chancen und Gefahren aufzulösen, bedarf es ethisch geprüfter Ansätze, in denen KI Menschen im Erhalt ihrer Autonomie unterstützt.


Worst-Case-Szenarien

Unabhängig vom Einsatzfeld umreissen KI-Experten sechs grosse Prototypen realer Worst-Case-Szenarien für KI, die sich auch beim Einsatz von KI im Gesundheitswesen widerspiegeln könnten:

1. Massive Verbreitung von Desinformation.

KI-gestützte Systeme sind in der Lage, Desinformationen in einem zuvor ungeahnten Massstab zu generieren. Wo zuvor seit Jahrtausenden solche absichtlich in die Irre führenden Falschinformationen allein durch Menschen, ob einzeln oder in Gruppen, verbreitet wurden, kann KI nun Lügen und Desinformationen in einem globalen Massstab produzieren. Sprachsysteme wie GPT 3 (Generative Pre-trained Transformer 3) können maschinelle Lernverfahren wie «Deep Learning» ähnliche Texte wie Menschen produzieren. Sie sind bisher vermutlich noch nicht leistungsfähig genug, um selbstständig Desinformationskampagnen zu führen. Jedoch können sie den durch menschliche Betreiber verursachten Schaden erheblich vergrössern, indem sie eine Flut von Desinformationen generieren.

Dies betrifft auch und insbesondere den Gesundheitsbereich. Diese Form von KI könnte z. B. dazu missbraucht werden, massenhaft Desinformationen zu Themen wie den vermeintlichen Gefahren von Impfungen oder einem angeblichen Missbrauch persönlicher Gesundheitsdaten durch den Staat zu verbreiten. So könnten Desinformationen sehr schnell zu einem enormen Schaden für die öffentliche Gesundheit führen. Demnach dürfte es in kaum einem sonstigen Bereich so gefährlich werden wie im Gesundheitsbereich, wenn wir es zulassen, dass Fiktion unsere Realität bestimmt.

2. Bedrohung der Bevölkerungen und Gesellschaften.

Wenn KI für nationale Sicherheitsinteressen relevant wird, könnte es leicht zu einem gefährlichen Geschwindigkeitswettbewerb beim Erreichen bestimmter automatisierter Systemfähigkeiten kommen. Dies könnte katastrophale Folgen haben, bis hin zu kriegerischen Auseinandersetzungen, falls die sicherheitsgerechte Entwicklung z. B. von militärischen KI-Systemen dabei untergraben wird.

Im Gesundheitsbereich entstehen global betrachtet keine derart dramatischen Worst-Case-Szenarien. Dennoch gibt es auch hier Einwände, die gegen eine Abgabe von Autonomie an Roboter und KI sprechen könnten. So warnt z. B. Bryson, dass eine unbedachte Abtretung von Verantwortung an Roboter zu einer Vermenschlichung solcher Systeme und einer Entmenschlichung realer Personen führen könnte. Auf gesellschaftlicher Ebene könnte dadurch unternehmerische Verantwortung unterminiert und es könnten begrenzte Ressourcen an Roboter verschwendet werden, die ansonsten direkt Menschen und menschlicher Interaktion zugutekommen würden. Zudem wird fehlende Gerechtigkeit im Zugang zu robotischen Systemen für ökonomisch benachteiligte Personen als Problem gesehen.

3. Das Ende der Privatsphäre.

Mit jeder digitalen Handlung produzieren wir neue Daten, die von Unternehmen, Regierungen und anderen Akteuren für Überwachungs- und Kontrollzwecke ausgenutzt werden können. Darüber hinaus haben wir so gut wie kein Verständnis für die potenziellen Auswirkungen der Überwachung und Verfolgung sensibler Daten, wie beispielsweise Gesichtserkennungsdaten, Biometrie, genomische Daten und deren Bearbeitung mittels KI-gestützter prädiktiver Analysen.

Dieses grundsätzliche Szenario ist im Gesundheitsbereich besonders kritisch zu sehen, beispielsweise wenn Roboter und kognitive Systeme mit vulnerablen Gruppen wie Kindern oder in der Altenpflege zusammenarbeiten sollen. In jüngeren Arbeiten wurden dabei vor allem die Gefahren des Einsatzes von Begleitrobotern in der Altenpflege beschrieben. Zu den führenden Autoren in dieser Debatte gehören Sharkey & Sharkey, die argumentieren, dass Roboter in der Altenpflege zu (1) einer Verringerung des menschlichen Kontakts, (2) einer Zunahme des Gefühls der Objektivierung und des Kontrollverlusts, (3) einem Verlust der Privatsphäre, (4) einem Verlust der persönlichen Freiheit, (5) einer Täuschung und Infantilisierung älterer Menschen und (6) einer Verringerung der Autonomie älterer Menschen führen werden. Bislang scheinen diese begründeten Bedenken in Nutzerstudien jedoch gegenüber eher ökonomisch motivierten Sorgen zurückzustehen, dass einkommensschwächere Nutzer:innen aus Kostengründen nicht gleichwertig von solchen Systemen profitieren könnten.

4. KI als Magnet menschlicher Aufmerksamkeit.

Die menschliche Fähigkeit, Belohnungen aufzuschieben, steht schon seit längerer Zeit unter dem Eindruck immer grösser werdender digitaler und medialer Versuchungen. Der sogenannte Marshmallow-Test wird dabei oft als ein anschauliches Beispiel herangezogen, in dem es um die Bedeutung der Fähigkeit geht, süssen und kurzfristigen Versuchungen zunächst zu widerstehen (z. B. Marshmallows), um später eine grössere Belohnung zu erhalten. Wie neuere Replikationen zeigen, mögen die unmittelbaren Auswirkungen der reduzierten Fähigkeit zum Belohnungsaufschub auf schulische Leistungen und spätere Verhaltensauffälligkeiten weniger ausgeprägt sein, als in den ursprünglichen Studien angenommen. Dennoch leben wir bereits heute in einer tiefgreifend mediatisierten Gesellschaft, in der Medientechnologien weitgehend mit den alltäglichen Praktiken unserer sozialen Welt verflochten sind. Dadurch bekommen Plattformen, die durch entsprechende Algorithmen auf eine möglichst lange Verweildauer und Interaktionsintensität ausgerichtet sind, eine immer grössere Anziehungskraft. Das Worst-Case-Szenario besteht dabei darin, dass wir durch diese automatisierten Mechanismen (z. B. Likes, Kommentare, Follower) immer mehr Zeit mit derartigen Plattformen verbringen und dadurch immer weniger Zeit für das Streben nach einem positiven, produktiven und erfüllten Leben haben.

Auch dieses Szenario und die damit verbundenen Herausforderungen sind im Gesundheitsbereich besonders bedeutsam. So können z. B. ältere Menschen mit Demenz nicht mehr immer vollumfänglich einschätzen, wann auf sie zugeschnittene Algorithmen sie von einer positiven und produktiveren Gestaltung ihres Alltags abhalten. Auf der anderen Seite kann es jedoch ethisch ebenso problematisch sein, nicht (mehr) neurotypische Erwachsene von der Nutzung neuer Technologien auszuschliessen. Dies diskutieren beispielsweise Earp and Grunt-Mejer anhand der Problematik der Nutzung von Sexrobotern im Alter. Einerseits könnten gerade ältere MmD von neuen Innovationen im Gesundheitsbereich besonders profitieren. Andererseits handelt es sich hier jedoch oft um besonders vulnerable Gruppen. Vorliegende ethische Konzepte sind hier immer noch primär auf den Fall von uneingeschränkt einwilligungsfähigen neurotypischen Erwachsenen ausgelegt.

5. KI als Treiber von Ungleichheit und Vorurteilen.

KI-gestützte Systeme übernehmen immer grössere Teile unseres Alltagslebens. Gleichzeitig zeigen diese Systeme jedoch weiterhin Schwächen, wenn es um die unvoreingenommene Berücksichtigung unterschiedlicher Erfahrungen und Merkmale verschiedener Menschen geht. So leiden Ansätze, die auf maschinellen Lernverfahren basieren, oft unter sogenannten «Biases» (deutsch: Voreingenommenheiten), die mit gravierenden Nachteilen für die Betroffenen verbunden sein können. Dies schlägt sich beispielweise in den Algorithmen sozialer Netzwerke wie Twitter nieder, wo z. B. durch Biases der Algorithmen in der Analyse von Nutzerprofilen soziale Vorurteile gegenüber Geschlechterstereotypen verstärkt werden können. Diese algorithmischen Voreingenommenheiten gehen oft auf implizite Vorurteile der menschlichen Programmierer:innen zurück und lassen sich daher nur schwer vermeiden. Ebenso können entsprechende Verzerrungen durch unzureichende Datengrundlagen z. B. während des Trainings der Modelle entstehen, da hier z. B. Minderheiten oft nur unzureichend vertreten sind. In diesem Worst-Case-Szenario könnten somit insbesondere Minderheiten in Zukunft noch stärker marginalisiert und ausgegrenzt werden. Da KI Probleme auf der Grundlage «vortrainierter» Modelle und Daten und nicht auf der Basis der einzigartigen Bedürfnisse jedes Einzelnen löst, erzeugen solche Systeme ein Mass an Konformität, das es in der menschlichen Gesellschaft nicht gibt. KI könnte sich so in eine Art «kafkaesken Torwächter» verwandeln, der den Zugang zu Kundendienst, Arbeitsplätzen, Gesundheitsversorgung und vielem mehr verwehrt.
Während sich die möglichen Auswirkungen dieses Szenarios auf die gesamte Breite des sozialen Lebens erstrecken, sind auch hier die möglichen Nachteile im Gesundheitsbereich besonders kritisch zu sehen. Im Falle einer «Algokratie», in der Algorithmen zunehmend wichtige öffentliche Entscheidungen beeinflussen oder gar selbst treffen, könnten z. B. bereits anderweitig besonders benachteiligte Gruppen zunehmend von grundlegenden Gesundheitsdienstleistungen ausgeschlossen werden.

6. Die Angst vor Künstlicher Intelligenz.

Da KI zunehmend mächtiger wird, ist auch mit Blick auf die bereits genannten Szenarien mit weiter zunehmenden Ängsten und auch mit mehr Kontrolle, z. B. seitens der Regierungen zu rechnen. Während eine konsequente Weiterentwicklung der technischen, rechtlichen und ethischen Rahmenbedingungen von KI somit dringend geboten ist, gibt es auch hier eine Kehrseite von übereilten und unüberlegten Verboten: Allein aus Angst vor KI könnten der Menschheit alle oder viele ihrer Vorteile entgehen. Der notwendige Schutz vor unbeabsichtigten negativen Folgen von KI könnte so dazu führen, dass wir uns weigern, KI für das tatsächlich Gute zu nutzen, das sie bewirken kann.

Auch dieses Szenario gilt insbesondere für Anwendungen im Gesundheitsbereich, wo beim Verzicht auf den Einsatz von KI, z. B. aus Datenschutzgründen oder zum Schutz der Privatsphäre, auch nachteilige langfristige Auswirkungen fehlender KI-basierter Interventionsmöglichkeiten unbedingt mitbedacht werden sollten.

Vom Worst Case zum Best Case der KI-Nutzung im Gesundheitsbereich

Bestimmte Risiken des Einsatzes von KI wie z. B. Täuschung und der Verlust von Autonomie im Alltag werden einhellig als gravierende Probleme gesehen. Viele der bereits angesprochenen ethischen Herausforderungen zeigen sich dabei im Gesundheitsbereich in besonderer Schärfe. In der Folge könnte bei bestimmten Fragestellungen ein Umdenken erforderlich werden. Wie müssten kognitive Systeme gestaltet werden, um Menschen in ihrem Alltag zu unterstützen, ohne ihre Autonomie zu untergraben? Anknüpfend an unsere bisherige Risikoanalyse stellen wir in diesem Abschnitt die Frage nach dem «Best Case», in dem KI die Handlungsspielräume und Autonomie aktiv und positiv erweitert.

Zahlreiche moderne ethische Überlegungen basieren noch immer auf der Vorstellung einer neurotypischen «normalen» erwachsenen Person, deren Autonomie es zu schützen gilt. So besagen unsere vorherrschenden ethischen Modelle beispielsweise, dass ethisch richtiger Sex weitgehend durch die gegenseitige Zustimmung zwischen Erwachsenen definiert wird, während eine fehlende Zustimmung Sex als falsch erscheinen lässt. Was geschieht jedoch, wenn die Autonomie eines Menschen absehbar durch Faktoren wie etwa Demenz eingeschränkt wird? Dies kann bedeuten, dass dieser ab einem bestimmten zukünftigen Zeitpunkt nicht mehr ohne weiteres seine Zustimmung geben kann. Manche Entscheidungen oder Hilfestellungen könnten hier jedoch unter bestimmten Bedingungen an intelligente adaptive Systeme delegiert werden, um hilfsbedürftigen Menschen in der Summe zu mehr Autonomie zu verhelfen. Hier schlägt beispielsweise Bianchi vor, ältere Menschen mit Demenz im Vorfeld zu fragen, ob und/oder wann sie einen Sexroboter in der Zukunft benutzen würden, falls eine solche Möglichkeit verfügbar werden sollte. Wie durch dieses vielleicht immer noch etwas ungewöhnliche Beispiel illustriert wird, besteht bei einem ethisch gut durchdachten Einsatz von KI-gestützten Systemen somit durchaus die Möglichkeit, die Autonomie und Lebensqualität benachteiligter Menschen nachhaltig zu stärken. Womöglich wird dies jedoch eine langfristige Sicht über die gesamte Lebensspanne der Nutzer:innen erfordern. In unserer Vision eines Best-Case-Szenarios würde KI somit menschliche Autonomie über lange Zeiträume und Lebensphasen hinweg betrachten, prädizieren und unterstützen können.
Tatsächlich lässt sich dieser Ansatz aus unserer Sicht zukünftig auf zahlreiche Anwendungsbereiche im Gesundheitswesen übertragen. So könnte KI gezielt dazu eingesetzt werden, die autonomen Entscheidungen, Werte und Bedürfnisse bzgl. Privatsphäre von Menschen über einen langen Zeitraum hinweg zu erlernen und ggf. auch an andere Akteur:innen zurückspiegeln. Ein mögliches Einsatzfeld läge hier beispielsweise im Bereich der häuslichen Pflege, in der KI-basierte Systeme Angehörige von demenzerkrankten Personen entlasten könnten, indem sie wechselndes Pflegepersonal über die erlernten Präferenzen und Autonomiebedürfnisse der pflegebedürftigen Person informieren und damit der Überforderung vorbeugen. Ein auf langjährige Nutzung hin ausgerichtetes Assistenzsystem könnte einen erheblichen Beitrag zu einer besser auf die jeweilige Person zugeschnittenen Pflege leisten. In unserer Vision eines Best-Case-Szenarios des ethischen Einsatzes von KI im Gesundheitswesen liessen sich das Bedürfnis nach Hilfe und jenes nach Autonomie weitgehend vereinbaren.

Die Abwägung zwischen Hilfe und Autonomie stellt sich auch für die helfenden Personen: Was wünscht sich der oder die Hilfebedürftige und welche konkreten Bedürfnisse sind gerade besonders wichtig? Hier könnten insbesondere biosignalbasierte adaptive Systeme einen Beitrag leisten, indem sie z. B. helfen, die verbleibenden sprachlichen und kommunikativen Fähigkeiten einer erkrankten Person zu unterstützen. Ebenso könnten diese Systeme lernen zu erkennen, durch welche Angebote und Anregungen die an Demenz erkrankte Person wieder zu mehr aktiver Teilnahme (englisch: «Engagement») am Alltagsgeschehen angeregt werden könnte.

Statt des Szenarios eines fortwährenden Spagats zwischen Ethik und KI im Gesundheitswesen sehen wir somit ein erhebliches Potenzial einer sich über die gesamte Lebensspanne hinweg entwickelnden Symbiose, die dem Erhalt der menschlichen Autonomie dient. Allen dystopischen Visionen in diesem Feld zum Trotz könnten KI und Roboter in Zukunft sehr viel mehr als Freunde denn als Feinde der Menschheit agieren. Diese Perspektive nehmen auch grosse aktuelle Initiativen ein, die entsprechende Worst-Case-Szenarien verhindern helfen sollen. Ein Beispiel ist die interdisziplinär aus Vordenkern aus der Wissenschaft, Industrie, Zivilgesellschaft und Politik zusammengesetzte Initiative «Ethical Aligned Design» (EAD). In dieser Initiative haben mehrere hundert Fachleute aus technischen und geisteswissenschaftlichen Disziplinen aus sechs Kontinenten gesellschaftliche und politische Leitlinien formuliert, damit autonome und intelligente Systeme menschenzentriert bleiben und den Werten und ethischen Prinzipien der Menschheit dienen.

Die Prinzipien des EAD verfolgen das Ziel der Weiterentwicklung von KI bei ausdrücklicher Achtung unserer unveräusserlichen Grundrechte und unserer Würde sowie die Steigerung des menschlichen Wohlergehens und der ökologischen Nachhaltigkeit. EAD definiert zu diesem Zweck zunächst acht allgemeine Grundsätze, die von den Entwickler:innen von KI-Systemen zu befolgen sind: Menschenrechte, Wohlbefinden, Datenautorität, Effektivität, Transparenz, Verantwortlichkeit, Bewusstsein und Kompetenz. Darüber hinaus bietet es klare Richtlinien, Methoden und Messgrössen, mit denen diese allgemeinen Prinzipien in die Praxis umgesetzt werden können.

Zur einfacheren Lesbarkeit wurden die Quell- und Literaturverweise entfernt.

Küster, D., Schultz, T. Künstliche Intelligenz und Ethik im Gesundheitswesen – Spagat oder Symbiose? Bundesgesundheitsbl 66, 176–183 (2023)
https://doi.org/10.1007/s00103-022-03653-5
http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024