Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

KI & Ethik

Künstliche Intelligenz in öffentlichen Verwaltungen

Einleitung

Wenn KI-Systeme in Entscheidungsprozesse involviert sind oder in anderer Weise unser Leben beeinflussen, dann muss dies auf ethische Weise passieren. Das betrifft nicht nur die konkrete Entscheidung selbst, sondern auch z. B. was dieser zugrunde liegt (z. B. die Datenbasis). Doch was ist mit ethischem Verhalten gemeint, speziell im Bereich KI? Zur Beantwortung dieser Frage werden zuerst drei Fallbeispiele vorgestellt, dann wird Ethik definiert, die ethischen Aspekte beim Einsatz von KI-Systemen betrachtet und Fragen zur ethischen Bewertung von KI-Anwendungen vorgestellt. Anschließend werden kurz die zentralen Ergebnisse eines Interviews zu ethischen Aspekten von KI zusammengefasst. Abschließend folgen Fragen zur Bewertung von KI-Anwendungen, Übungsfragen sowie Aufgaben zum eigenen Anwendungsfall.

Fallbeispiele

Betrachtet man die Entscheidungen von KI-Anwendungen und inwieweit Menschen sie als ethisch bezeichnen würden, lassen sich gute, schlechte, und hässliche Anwendungen identifizieren.

Gute Anwendungen können Verzerrungen, insbesondere Vorurteile, in Entscheidungen reduzieren. Ein typisches Beispiel sind Personalentscheidungen, wenn z. B. die verantwortliche Person bestimmte Gruppen unangemessen bevorzugt. Zwar ist die Vorstellung, dass eine KI-Anwendung objektiv und damit vorurteilsfrei ist, sehr gewagt, eine KI-Anwendung kann allerdings Entscheidungen transparenter machen. Durch diese Transparenz können Entscheidungen auf mögliche irrelevante Verzerrungen untersucht und gegebenenfalls reduziert werden.

Schlechte Anwendungen können Entscheidungen treffen, die vielleicht rational sind, viele Menschen aber für ethisch falsch halten. Ein fiktionales Beispiel sieht man im Film „I, Robot“. Ein Roboter entscheidet, welche von zwei Personen die größten Überlebenschancen hat und fällt auf dieser Basis die Entscheidung: das System rettet den erwachsenen Mann und lässt das kleine Mädchen ertrinken. Viele Personen würden dem – vermutlich aus gutem Grund – nicht zustimmen.

Hässliche Anwendungen verändern die Situation sehr subtil. Bei der Verwendung von Social-Media-Anwendungen werden Nutzer heute schon von Algorithmen beeinflusst, oft ohne es zu merken. Unsere Welt verändert sich unmerklich, unser Verhalten wird so manipuliert, dass Nutzer die Anwendung möglichst lange verwenden. Diese Manipulation kann auch ohne negative Absicht auftreten.

Die Frage ist jetzt, wie muss eine KI-Anwendung gestaltet sein, damit diese sich möglichst „ethisch“ verhält. Worauf muss man dabei achten?

Ethik und KI – sieben Thesen

Was ist mit Ethik gemeint? Für die Betrachtung von KI und Ethik ist zentral, dass die Ethik als philosophische Disziplin die grundsätzliche Frage behandelt: Was ist gut/richtig vs. was ist schlecht/falsch? Umgesetzt ist sie dann zum einen im Recht, aber auch in ungeschriebenen Idealvorstellungen. Oder näher an Ethik und KI formuliert: „Ethics is based on well-founded standards of right and wrong that prescribe what humans ought to do, usually in terms of rights, obligations, benefits to society, fairness, or specific virtues.“ bzw. übersetzt: „Ethik basiert auf wohlbegründeten Standards von Richtig und Falsch, die vorschreiben, was Menschen machen sollten, normalerweise in Begriffen von Rechten, Verpflichtungen, Vorteilen für die Gesellschaft, Fairness oder spezifischen Werten.“

Warum ist Ethik bei KI besonders wichtig? Die folgenden Abschnitte erläutern sieben Thesen zu dieser Frage.

Menschen würden von einer KI ethisches Verhalten erwarten

Wenn eine KI Empfehlungen gibt oder Entscheidungen trifft, dann würden die Nutzer ethisches Verhalten erwarten. Unethische Vorschläge wären bei Entscheidungen, für die man sich rechtfertigen muss (inkl. vor sich selbst), wenig hilfreich.

Der Einsatz von KI macht unsere Entscheidungsregeln und die Konsequenzen transparent

Der Einsatz von KI macht unsere Entscheidungen, und damit die Grundlage und die Konsequenzen, transparent. Die Entscheidungsprozesse und deren Ergebnisse werden bei KI leicht beobachtbar und diskutierbar. Menschen müssen entweder über explizite Regeln oder (beim maschinellen Lernen) über Rückmeldung, welches Verhalten richtig ist, explizit machen, was das – auch ethisch – richtige Verhalten ist. Gerade diese Transparenz, wie ist die Entscheidung zustande gekommen und welche Auswirkungen hat es, macht die Werte-Frage explizit. Es wirft die Frage auf: Was ist eine gute, faire, korrekte Entscheidung? Diese Frage kann nicht nur anhand von Regeln oder Vorgaben beantwortet werden, sondern auch mit Blick auf die Anwendung über viele Fälle hinweg. Man kann sich z. B. alle Anträge der letzten zehn Jahre ansehen und relativ leicht überprüfen, ob Entscheidungen z. B. bestimmte Gruppen ungerechtfertigt benachteiligen.

Der Einsatz von KI erfordert die Festlegung auf soziale und moralische Normen

Wenn man die Regeln oder die Richtigkeit von KI-Entscheidungen bewertet, muss man genau überlegen, an welchen Normen der Gesellschaft man sich orientiert. Die IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems formuliert dazu: „If machines engage in human communities as autonomous agents, then those agents will be expected to follow the community’s social and moral norms. A necessary step in enabling machines to do so is to identify these norms. But whose norms?“ übersetzt: „Wenn eine Maschine in menschlichen Gemeinschaften als autonome Handelnde eingreifen, dann wird man von ihnen erwarten, dass sie den sozialen und moralischen Normen der Gemeinschaft folgen. Ein notwendiger Schritt darin, die Maschinen in die Lage zu versetzen, dies zu machen, ist diese Normen zu identifizieren. Aber wessen Normen?“

Der Einsatz von KI erfordert es, sich darüber Gedanken zu machen, auf welcher Grundlage man Entscheidungen trifft, was die Konsequenzen sind, und letztendlich, welche Welt oder welches Weltbild vertreten wird.

Logik und Rationalität „der KI“ ist ein Trugschluss und wäre auch nicht wünschenswert

Die (oft nur angenommene) Logik und Rationalität von KI ist ein Trugschluss. Es gilt auch hier Garbage in, Garbage out (GIGO, übersetzt als „Müll rein, Müll raus“) – wenn z. B. in den Trainingsdaten Verzerrungen enthalten sind, weil die Personen, welche die Entscheidungen getroffen haben, auch nicht vorurteilsfrei waren, dann wird das trainierte System diese Verzerrungen auch aufweisen.

Des Weiteren ist der Mensch kein „homo oeconomicus“, der Entscheidungen rein rational und auf Basis der verfügbaren Informationen trifft. Menschen haben schlicht nicht die Ressourcen, um bei allen Entscheidungen rational zu handeln. Eine rein logische Welt wäre auch „unmenschlich“. Nicht ohne Grund gibt es auch bei (einigen) Entscheidungen in der öffentlichen Verwaltung einen Ermessensspielraum. Dieser lässt sich aber nur schwer in Regeln gießen.

Wissenschaft und Technik sind wertneutral

Ein weiterer Punkt ist, dass KI – ebenso wie jegliche Wissenschaft und Technik – nur ein Werkzeug ist, das wertneutral ist. Die Wissenschaft und Technik besitzt keine inhärenten Sicherungsmechanismen, die einen unethischen Einsatz verhindern würden. Richard Dawkins beschreibt dies wie folgt: „Scientific and technological progress themselves are value-neutral. They are just very good at doing what they do. If you want to do selfish, greedy, intolerant and violent things, scientific technology will provide you with by far the most efficient way of doing so. But if you want to do good, to solve the world’s problems, to progress in the best value-laden sense, once again, there is no better means to those ends than the scientific way.“ übersetzt (mittels KI, der kostenlosen Version von DeepL.com/Translator): „Der wissenschaftliche und technische Fortschritt selbst ist wertneutral. Sie sind nur sehr gut darin, das zu tun, was sie tun. Wenn Sie egoistische, gierige, intolerante und gewalttätige Dinge tun wollen, bietet Ihnen die wissenschaftliche Technologie die bei weitem effizienteste Möglichkeit, dies zu tun. Wenn Sie aber Gutes tun, die Probleme der Welt lösen und im besten werteorientierten Sinne fortschreiten wollen, dann gibt es wiederum kein besseres Mittel als die Wissenschaft, um diese Ziele zu erreichen.“

Technik ist wertneutral – es kann für jeden Zweck eingesetzt werden, ob gut oder schlecht. Man kann z. B. Microsoft Excel verwenden, um die sozialen Mittel besser zu verwalten, man könnte damit aber auch Verbrechen planen und organisieren. Die Wertneutralität von Technik hat bei KI aber eine besondere Bedeutung bekommen, weil KI-Systeme auch autonom agieren können. Je nach Automationsgrad fällt ein System Entscheidungen oder liefert zumindest Hilfe bei der Entscheidungsfindung. Die Bewertung inwiefern das Verhalten von KI-Systemen ethisch ist, muss dabei vom Menschen kommen. Es gibt allerdings Versuche, KI für die Bewertung von ethischen Fragen einzusetzen – z. B. delphi.allenai.org. Die Ergebnisse sind allerdings mit Vorsicht zu behandeln.

Computer können einen extrem starken Einfluss auf unser Verhalten haben

Dass beim Einsatz von KI unweigerlich Computer verwendet werden, kann ein weiteres ethisches Problem darstellen. Computer haben viele Stärken, wenn es um die Unterstützung von Menschen geht, insbesondere bei der Verhaltensänderung (z. B. über Persuasive Technology). Beispiele sind Mindfulness-Apps oder auch Fitness-Tracker, welche die Nutzer zu selbst gewähltem, besserem Verhalten motivieren sollen. Fogg nennt als Vorteile von Computern unter anderem deren Hartnäckigkeit, Anonymität, Umgang mit großen Datenmengen, Nutzung unterschiedlicher Modalitäten, leichte Skalierbarkeit (da sich Anwendungen leicht kopieren und verbreiten lassen) und Einsetzbarkeit an Orten, an denen andere Menschen nicht willkommen sind. Entsprechend können Computer sehr gut darin sein, Menschen bei der Änderung von Gewohnheiten zu unterstützen.

All diese Stärken werden zu einem Problem, wenn ein KI-System – aus unserer Sicht – unethische Entscheidungen trifft. Es ist ein beständiger Einfluss oder auch Druck, der immer und immer wieder ausgeübt wird.

Die Verantwortung liegt beim Menschen

All diese Punkte sorgen dafür, dass man am Thema Ethik nicht vorbeikommt. Und das ist nichts, was man an KI-Systeme abgeben kann. Die Verantwortung kann nur der Mensch übernehmen – schließlich kann man schlecht sagen: „Ich habe nur die Anweisungen der KI befolgt.“. Entsprechend muss sichergestellt werden, dass ein KI-System ethisch operiert. Nur was gehört bei einem KI-System zum ethischen Verhalten dazu – und was sind mögliche Risiken?

Ethische Aspekte beim Einsatz von KI-Systemen

Was sind ethische Aspekte beim Einsatz von KI? Zunächst einmal, Ethik geht über die konkrete Empfehlung oder Entscheidung hinaus. Es umfasst auch Aspekte, die vor der Empfehlung bzw. Entscheidung passieren sowie die Konsequenzen (inkl. langfristiger Auswirkungen). Darunter fällt zum Beispiel die Datenbasis (Wurden die Daten auf ethische Weise gesammelt?), der Betrieb des Systems (Wie ist die Kosten-Nutzen-Rechnung bezüglich Energieverbrauch/Nachhaltigkeit?), das Urteilen/Entscheiden des KI-Systems (Werden unverzerrte, faire Entscheidungen getroffen?) und die Verwendung des KI-Systems (Werden die Ergebnisse auf ethische Weise genutzt?).

Hauptaspekte bei KI und Ethik sind vor allem „Fairness“, die Vermeidung von Verzerrungen, Datenschutz & Privatsphäre, Vermeidung von (oft subtilen) Beeinflussungen, die Auswirkungen von KI auf die öffentliche Verwaltung, sowie gesellschaftliche Auswirkungen. Außerdem ergeben sich bei der ethischen Betrachtung oft Zielkonflikte mit anderen Kriterien.

Fairness

Fairness ist ein überraschend komplexer Begriff. Im Kern betrifft es das Vermeiden oder Verhindern von unerwünschter bzw. ungerechtfertigter Diskriminierung. Aber wie Fairness konkret definiert wird, ist alles andere als eindeutig.

Fairness ist auch das Thema, das bei KI viel Aufmerksamkeit bekommen hat. U. a. weil niemand aufgrund von irrelevanten Eigenschaften schlechter behandelt werden soll und eine solche Behandlung – die KI sichtbar macht – üblicherweise eine hohe öffentliche bzw. mediale Aufmerksamkeit auslöst. Entsprechend sind die großen Unternehmen dabei, Fairness explizit zu adressieren, z. B. IBM’s AI Fairness, Google’s TensorFlow kit, Microsoft’s Fairlearn, Facebook’s Fairness Flow oder Amazon & NSF’s Fairness in AI.

Fairness ist insbesondere in der öffentlichen Verwaltung auch rechtlich relevant, denn es gibt das „… Verbot, gleiche soziale Sachverhalte ungleich oder ungleiche gleich zu behandeln, es sei denn, ein abweichendes Vorgehen wäre sachlich gerechtfertigt.“. Entsprechend darf keine Benachteiligung aufgrund irrelevanter Kriterien erfolgen. Dies kann z. B. Nationalität, ethnische Herkunft, Geschlecht, Religion/Weltanschauung, Behinderung, Altersgruppe oder sexuelle Identität beinhalten – sofern diese irrelevant für die entsprechende Entscheidung sind. Fairness ist vor allem relevant bei Systemen, die Vorhersagen machen (wie z. B. bei vielen Decision Support Systems).

Wie kann man Fairness beurteilen?

Eine vermeintlich einfache Anforderung wie Fairness ist überraschend komplex, weil man Fairness nach verschiedenen Standards mit verschiedenen Werten beurteilen kann.

Auf Einzelfall-Ebene ist eine richtige Entscheidung recht einfach. Das KI-System kann die richtige Entscheidung treffen (richtig positiv – Antrag wird bewilligt, Person ist auch berechtigt bzw. richtig negativ – Antrag wird nicht bewilligt, Person ist auch nicht berechtigt). Sie kann aber auch eine falsche Entscheidung treffen (falsch positiv – Antrag wird bewilligt, Person ist aber nicht berechtigt bzw. falsch negativ – Antrag wird nicht bewilligt, Person ist aber berechtigt).

Schaut man sich jetzt die Qualität von vielen Vorhersagen an, kann man unterschiedliche Qualitätsmaße berechnen. Zum Beispiel die Wahrscheinlichkeit, dass eine als berechtigt vorhergesagte Person auch in Wirklichkeit berechtigt ist, oder eine berechtigte Person auch richtig als berechtigt vorhergesagt wird, oder eine als berechtigt vorhergesagte Person in Wirklichkeit nicht berechtigt ist, oder eine unberechtigte Person fälschlicherweise als berechtigt vorhergesagt wird, oder eine als nicht berechtigt vorhergesagte Person in Wirklichkeit berechtigt ist, oder eine berechtigte Person fälschlicherweise als unberechtigt vorhergesagt wird, oder eine als nicht berechtigt vorhergesagte Person in Wirklichkeit auch nicht berechtigt ist, oder eine unberechtigte Person auch richtig als unberechtigt vorhergesagt wird. Was hat das mit Fairness zu tun?

Mit diesen Berechnungen kann man unterschiedliche Maße für die Vorhersagequalität für unterschiedliche Gruppen berechnen und vergleichen. Je nachdem welche Werte zugrunde liegen, kann man zum Ergebnis kommen, dass ein Algorithmus fair ist oder nicht. Bei „group fairness“ ist die Wahrscheinlichkeit, den Antrag bewilligt zu bekommen, die gleiche für unterschiedliche Gruppen. Die „conditional statistical parity“ ist ähnlich wie die „group fairness“, aber legitime Faktoren dürfen mit einbezogen werden. Bei der „predictive parity“ ist die Wahrscheinlichkeit, dass z. B. ein Antrag korrekt bewilligt wird, die Gleiche für unterschiedliche Gruppen.

Bei der Fairness geht es oft um Gruppenfairness vs. individuelle Fairness. Das sind zwei sehr unterschiedliche Konzepte. Bei der Gruppenfairness sind die Ergebnisse der Anwendung für alle vorhandenen Gruppen vergleichbar (gleiche Verteilung auf verschiedene Gruppen, gleiche Vorhersagequalität in allen Gruppen). Bei der individuellen Fairness werden gleiche Individuen gleich behandelt. Dies berührt das Spannungsfeld von „Ergebnisgleichheit“ vs. Chancengleichheit.

Diese und andere Beispiele zeigen, wie komplex ein intuitiv einfaches Konzept wie „Fairness“ plötzlich sein kann. Das war es vorher auch schon, aber durch die Datenbasis, die Möglichkeit, den Entscheidungsprozess, die Ergebnisse und die Konsequenzen klar vor sich zu haben, wird es plötzlich – wie eingangs geschrieben – beobachtbar und diskutierbar. Die Transparenz macht die Werte-Frage – was ist eine gute, faire, korrekte Entscheidung – explizit.

Vermeidung von Verzerrungen (biases)

Insbesondere wenn Fairness-Kriterien verletzt sind, stellt sich die Frage – woher kommen diese Abweichungen? Dies führt zum Thema der Verzerrungen (engl. biases). Es kann sein, dass während der Entwicklung eines KI-Systems Verzerrungen eingeflossen sind, die dort eigentlich nicht vorkommen sollten.

Diese Verzerrungen können leicht einfließen, da an der Entwicklung eines KI-Systems – v. a. wenn maschinelles Lernen verwendet wird – viele Personen beteiligt sind. Dabei unterscheidet man zwischen Verzerrungen bei der Erstellung der Trainingsdaten (data-creation bias), Verzerrungen bei der Problemdefinition, Verzerrungen bezogen auf Algorithmen und Datenanalyse und Verzerrungen bezogen auf die Evaluation und Validierung durch Menschen. Diese Verzerrungen können sich über die Entwicklungspipeline ansammeln. Von der Erstellung der Trainingsdaten, der Definition des Problems, den Algorithmen und der Datenanalyse, zur Evaluation und Validierung durch Menschen.

Insbesondere die Definition des Problems ist interessant. Betrachtet man z. B. die Agentur für Arbeit, dann stellt sich die Frage, wie eine gute Stellenvermittlung so messbar gemacht wird, dass man dem KI-System Rückmeldung geben kann, was eine richtige oder falsche Entscheidung war (Operationalisierung). Man kann als Ziel haben, dass möglichst wenige Personen zu einem gegebenen Zeitpunkt arbeitssuchend sind, d. h. Ziel ist, möglichst schnell eine ausreichend passende Stelle finden. Man kann aber auch als Ziel haben, dass Personen eine Stelle finden, die langfristig zu ihnen passt und in der sie sich auch weiter entwickeln können. Das ist eine Frage, wie man das Problem framed (also rahmt), was auch bestimmt, welche Daten ausgewählt werden (und welche Entscheidungen den Daten zugrunde liegen), um das Modell mit guten vs. schlechten Entscheidungen zu trainieren. Konkret fällt das unter den „Framing Effect Bias“.

Das Thema „Verzerrungen“ wird vermutlich in Zukunft stärker Thema werden, auch bezogen auf die Erstellung von Trainingsdaten, die möglichst repräsentativ und eben „verzerrungsfrei“ sein sollen.

Bei all den Verzerrungen kann man sich fragen, ob es überhaupt Sinn ergibt, KI einzusetzen. Menschen sind allerdings auch nicht frei von Verzerrungen. Sie verwenden viele Daumenregeln (Heuristiken) und entsprechend weist das Denken viele Verzerrungen auf. All diese Heuristiken und Verzerrungen sollten aber nicht darüber hinwegtäuschen, dass Menschen relativ gut darin sind, Vorhersagen und Entscheidungen zu treffen – es ist schlicht überlebenswichtig. Es ist aber auch nicht verwunderlich, dass ein KI-System – die von Menschen entwickelt wurde – auch sehr leicht Verzerrungen aufweisen kann.

Wie kann man Verzerrungen (biases) vermeiden? Srinivasan und Chander geben die Empfehlungen, dass domänenspezifisches Wissen zentral ist und die Eigenschaften, anhand derer die KI lernen soll, bewusst ausgewählt werden müssen. Außerdem muss die Datenbasis der Population entsprechen, es muss klare Standards geben, wie die Daten annotiert werden (labels), und die relevanten Variablen müssten klar identifiziert werden (u. a. auch welche fehlen). Schließlich muss das Modell mit einer repräsentativen Stichprobe getestet werden.

Datenschutz & Privatsphäre

KI-Systeme – insbesondere wenn maschinelles Lernen verwendet wird – benötigen Daten. Diese Daten müssen allerdings „irgendwoher kommen“. Und dabei müssen Datenschutz und Privatsphäre gewahrt werden, speziell das Recht auf Informationelle Selbstbestimmung sowie die Persönlichkeitsrechte. Das ist insbesondere bei Stimmaufnahmen aber auch Fotos und Videos relevant. Rechtlich sind u. a. die Datenschutz-Grundverordnung (DSGVO) sowie das Bundesdatenschutzgesetz (BDSG) ausschlaggebend. Bei der Verwendung von Daten ist zu beachten, dass es nicht darum geht, dass ein Missbrauch tatsächlich passiert ist. Es ist schon problematisch, wenn dieser möglich wäre.

Datenschutz und Privatsphäre gehen allerdings über das reine Abgreifen von Daten durch unbefugte Personen hinaus („data leak“). Ein weiteres Problem ist, dass beim Trainieren von KI-Systemen oft Daten zusammenführt werden („data linkage“). Durch diese Zusammenführung von Daten können leichter Personen identifiziert werden, was – bei einem Datenleck – schnell zu Rufschädigung bzw. finanziellen Schäden führen kann.

Auf der anderen Seite ist ein überzogener Fokus auf Datenschutz und Privatsphäre eine Innovationsbremse. Das heißt nicht, dass man Datenschutz und Privatsphäre ignorieren sollte – oder dass es überbewertet wäre. Aber man muss hier auch einen Blick für die Konsequenzen haben. Ein KI-System braucht für gute Entscheidungen Daten zum Lernen – das ist bei einem Menschen nicht anders. Menschen entwickeln ihre Expertise im Umgang mit vielen Fällen.

Um Datenschutz und Privatsphäre zu schützen, ist die Einwilligung der Betroffenen notwendig, die Weiterverarbeitung darf nur mit Zustimmung erfolgen, es darf keine unberechtigten Zugriffsmöglichkeiten geben und es muss ein weitreichendes und jederzeitiges Widerspruchsrecht gewährleistet werden. Personen müssen auch Information über Zweck und Einsatz der personenbezogenen bzw. daraus abgeleiteten Daten erhalten. Generell gilt das Prinzip der Datensparsamkeit und das Prinzip der zweckgebundenen Verwendung. Diese Kriterien müssen berücksichtigt werden.

Vermeidung von (oft subtilen) Beeinflussungen

Der Einfluss von KI kann auch subtiler sein – das Verhalten verändert sich, weil es auf bestimmte Kriterien hin optimiert wird. Besonders sichtbar ist dies derzeit bei sozialen Medien.

Ein KI-System kann mit einer eigenen Agenda einhergehen – mit einem beständigen Druck, der ausgeübt wird (vgl. die „Stärken“ von Computern, wenn Personen beeinflusst werden).

Auswirkungen von KI auf die öffentliche Verwaltung

Von den Beeinflussungen etwas weiter gedacht ist auch die Frage, wie sich die öffentliche Verwaltung langfristig weiterentwickelt, wenn KI-Systeme eingesetzt werden. Viele Auswirkungen werden erst langfristig sichtbar werden, zum Beispiel:

  • Wie verändern sich die wahrgenommene Autonomie, Kompetenz und sozialen Beziehungen bei der Arbeit?
  • Ist tatsächlich mehr Zeit für die Bürger verfügbar, wenn KI-Systeme zeitintensive, einfache Aufgaben übernehmen – oder entstehen neue Aufgaben?

Es liegen schon heute konkrete Befürchtungen vor, wie z. B. Stellenabbau, Fertigkeitsabbau („de-skilling“, was insbesondere ein Problem wird, wenn die Automation versagt) oder der Erhalt der Aufmerksamkeit, wenn Handlungen seltener werden.

Gesellschaftliche Auswirkungen

Der Einfluss von KI-Systemen auf soziale Gefüge ist sehr schwer vorherzusehen. Wann immer Technologie eingesetzt wird, verändern sich auch soziale Beziehungen – und umgekehrt. Ein passendes, wenn auch nicht KI-bezogenes Beispiel, ist die Einführung eines Mängelmelders. Bürger sehen Probleme (z. B. wilder Müll) und können dies direkt den zuständigen Stellen mitteilen. Allerdings können sie auch in umfangreichen Maß Fehlverhalten anderer melden. Dies kann Auswirkungen auf eine Gemeinschaft haben. Technik kann in sozialen Systemen immer zu unerwarteten Wirkungen führen. Auswirkungen müssen daher auch langfristig beobachtet und mit Blick auf die ursprünglichen Ziele bewertet werden.

Zielkonflikte

Bei der ethischen Bewertung sind mögliche Zielkonflikte zu berücksichtigen (vgl. auch die unterschiedlichen Definitionen von Fairness, oder die besonderen Anforderungen bei KI-Anwendungen.)

Das ist nach Poretschkin und anderen z. B. der Fall bei Datensparsamkeit und Fairness. Um eine höhere Genauigkeit zu erzielen (für faire Entscheidungen), müssen in umfassenden Maß Daten erhoben werden (widerspricht dem Ziel der Datensparsamkeit). Die Genauigkeit – via eines gut trainierten Black-Box-Systems – kann auch leicht in Konflikt mit der Interpretierbarkeit kommen. Menschliche Aufsicht und Autonomie kann in Konflikt mit Sicherheit kommen, da Manipulation möglich ist. Letztlich sind Rest-Risiken und Trade-Offs oft unvermeidlich.

Ethische Bewertung von KI-Anwendungen

Wie kann eine KI-Anwendung ethisch bewertet werden – inwieweit werden ethische Standards eingehalten oder verletzt?

Als Einzelperson können in der Praxis oft nur Teilaspekte bewerten werden. Als Nutzer wird man auf frühe Aspekte der KI-Pipeline nur wenig Einfluss oder wenig Wissen dazu haben. Aber man kann sich z. B. ansehen, wie Entscheidungen getroffen werden und ob die Ergebnisse nachvollziehbar sind oder nicht. Auch langfristige Auswirkungen sind zumindest abschätzbar.

Insbesondere sollte man sich bei der Bewertung von KI-Anwendungen der Eigenverantwortung bewusst sein. Man kann sie weder an das KI-System noch an die Programmierer abgeben.

Es ist allerdings sehr leicht, im Umgang mit KI einfach nur Anweisungen zu befolgen, gerade weil das KI-System den Eindruck erwecken kann, als würden die Entscheidungen „objektiv“ und „richtig“ erfolgen. Wie in diesem Kapitel beschrieben, ist das nicht unbedingt der Fall.

In diesem Zusammenhang ist ein Exkurs zu einem fragwürdigen Experiment aus der Psychologie zu Gehorsam hilfreich: dem Milgram Experiment.

Milgram wollte nach dem zweiten Weltkrieg wissen, warum so viele Deutsche einfach „nur Befehle befolgt“ hatten. War es eine typisch deutsche autoritäre Persönlichkeit – wie von einigen Personen angenommen oder steckte mehr dahinter, etwas, was auch in anderen Ländern passieren könnte?

Milgram hat die Frage in einem Experiment untersucht, das kurz zusammengefasst wie folgt ablief. Er hat erwachsene Teilnehmer für seine Studie rekrutiert (z. B. Flyer), denen angeblich zufällig entweder eine Lehrer- oder Lerner-Rolle zugelost wurden. In Wirklichkeit war aber die Auslosung so manipuliert, dass der Teilnehmer immer der Lehrer war, während der Lerner in Wirklichkeit ein Helfer von Milgram war. Der Lerner wurde in einem Raum auf einen Stuhl festgebunden und ihm wurde etwas umgelegt, um ihm Elektroschocks zu geben. Der Lehrer (also der echte Versuchsteilnehmer) wurde in einen anderen Raum geführt und musste dem Lerner über eine Sprechanlage Wortpaare beibringen. Zuerst wurden die Wortpaare genannt, im weiteren Verlauf wurde dann nur das erste Wort gesagt und vier mögliche Lösungen vorgegeben. Eine davon war richtig, die anderen drei falsch. Wenn der Lerner eine falsche Antwort gab, sollte der Lehrer ihn mit einem Elektroschock bestrafen. Dafür gab es eine Maschine, die (angeblich) Elektroschocks von 15 bis 450 V geben konnte, jeweils in 15-V-Schritten. Macht der Lerner einen Fehler, sollte der Lehrer einen Schock geben – zuerst 15, dann 30, dann 45, etc. bis 450 V. In Wirklichkeit wurden keine Schocks gegeben, aber für den Lehrer sah es echt aus, inkl. der Schmerzreaktionen des Lerners über die Sprechanlage. Die sehr emotionalen Reaktionen des Lehrers haben auch gezeigt, dass die Lehrer dies geglaubt haben. Es gab mehrere Varianten des Experiments. In einer schlug der Lerner bei 300 V gegen die Wand, bat darum aufzuhören, beklagte Herzprobleme und antwortete dann nicht mehr. Der Versuchsleiter, der die ganze Zeit anwesend war, gab die Anweisung, dass keine Antwort als Fehler zu werten ist. Wenn der Lehrer unsicher war, ob er weitermachen sollte oder sich weigerte, gab der Versuchsleiter die Anweisung weiterzumachen, z. B. mit „Bitte machen Sie weiter.“, „Das Experiment erfordert, dass Sie weiter machen.“, „Es ist absolut notwendig, dass Sie weiter machen.“, oder „Sie haben keine andere Wahl, Sie müssen weiter machen.“.

Die Frage war, befolgen die Lehrer – normale Menschen die an der Studie teilnahmen – die Anweisungen und geben potenziell tödliche Elektroschocks? Milgram hatte vorher Psychiater befragt. Deren Einschätzung war, dass die Lehrer früh aufhören würden. Fast keiner würde über 300 V gehen und nur in Ausnahmefällen würden die Versuchspersonen bis zum Ende gehen.

In dem beschriebenen Experiment sind 26 von 40 Teilnehmern (65 %) bis zum Ende gegangen, also bis zu 450 V – eine Schockstärke, die potenziell tödlich ist, und nachdem der Lerner ab 300 V nicht mehr reagiert hat. Keiner hat vor 300 V aufgehört.

Auch wenn das Experiment umstritten ist, hat es das Weltbild von einem Charakterfehler einer Minderheit von Personen die „nur Befehle befolgen“ infrage gestellt.

Milgram hat untersucht, was passiert, wenn der Lehrer im selben Raum wie der Lerner ist (es hören mehr Personen früher auf) oder wenn ein zweiter Lehrer mit im Raum ist (in Wirklichkeit ein weiterer Mitarbeiter von Milgram), der sich widersetzt (es hören mehr Personen früher auf). Milgram hat auf diese Weise Faktoren identifiziert, die Gehorsam bei unethischen Anweisungen wahrscheinlicher oder unwahrscheinlicher machen.

Was geschieht, wenn diese Faktoren auf den Einsatz von KI-Systemen übertragen werden? In Klammern werden die Faktoren aus dem Experiment genannt. Ist es denkbar, dass Systemanwender unethische Entscheidungen akzeptieren, wenn das System klar entscheidet (der Versuchsleiter weist an), dem System ein objektiver und fairer Status durch ein Zertifikat zugeschrieben wird (Versuchsleiter als Autoritätsperson durch Insignien, z. B. Laborkittel), das System schrittweise verstärkt unethisch entscheidet (schrittweise Erhöhung der Stromschläge) und das System unter Zeitdruck genutzt wird? Ein Faktor der Ungehorsam wahrscheinlicher macht, also eine Ablehnung von unethischen Entscheidungen bedeutet, kann zum Beispiel das Hinterfragen des Systems sein (Hinterfragen der Expertise, Motive und des Wissens der Versuchsleitung).

Im unreflektierten Einsatz von KI besteht die Gefahr, dass Verantwortung dem KI-System zugeschrieben wird, dass die KI-Anwendung als fehlerfrei wahrgenommen wird, dass der Einsatzbereich des KI-Systems schleichend erweitert wird, Nutzer von der Entwicklung überrollt werden (z. B. wegen hoher Arbeitsbelastung) und letztlich niemand widerspricht.

Vor diesem Hintergrund müssen KI-Systeme anhand klarer Kriterien bewertet werden.

Ethische Aspekte von KI – Interview mit Christian Herzog, Leiter des Ethical Innovation Hubs der Universität zu Lübeck

Eine interessante Perspektive auf ethische Aspekte von KI bietet ein Interview, das Ende 2021 mit Christian Herzog, dem Leiter des Ethical Innovation Hubs der Universität zu Lübeck durchgeführt wurde. Er verbindet die ingenieurwissenschaftliche/informatische Perspektive mit einer ethischen Perspektive, um ethische Analysen nutzbringend für die technische Entwicklung einzusetzen. Im Folgenden sind seine Antworten auf die Interviewfragen zusammengefasst und leicht gekürzt wiedergegeben.

Wie würdest du kurz und prägnant definieren, was Ethik ist?

Ethik ist die wissenschaftliche Beschäftigung mit unserem Moralverständnis, die deskriptiv (Was ist? Wie verstehen wir? Wie handeln wir? Was denken wir ist gut und richtig?) oder normativ (Was sind Prinzipien, die helfen herauszufinden, was gut und richtig ist? Wie können wir unser Moralverständnis hinterfragen?) erfolgen kann. Sie ist besonders bei KI wichtig, weil wir uns mit neuen Entwicklungen konfrontiert sehen. Wir greifen zwar auf bisherige Entwicklungen zurück und nutzen unser Moralverständnis, aber wir müssen auch in die Zukunft schauen. Ein weiterer Bereich ist die angewandte Ethik, bei der bei ganz konkreten Fragestellungen (Was soll ich der Situation machen?) Abwägungen und Argumente bereitgestellt werden, um die Entscheidung treffen zu können.

Aus welcher Perspektive betreibst du Ethik? Welche Aspekte von Ethik sind dir besonders wichtig?

Insbesondere die angewandte Ethik. In der Medizintechnik bzw. medizinischer Informatik stellt sich z. B. die Frage, inwieweit KI erklärbar sein muss. Insbesondere wenn Systeme schon sehr gut funktionieren, möchte man diese den Patienten nicht vorenthalten. Auf der anderen Seite sind langfristige Perspektiven, was z. B. den Erkenntnisgewinn in der Medizin betrifft oder die Auswirkungen auf Patient-Arzt Beziehung zu beachten.

In der öffentlichen Verwaltung ist es u. a. die Frage, mit welchen Prioritäten KI-Methoden eingesetzt werden. Wer verwendet die KI, wer ist davon betroffen (profitiert, wird davon beeinflusst) und aus welchen (eher grundlagenphilosophischen) Beweggründen wird sie eingesetzt. Warum digitalisieren wir die öffentliche Verwaltung und setzen KI ein? Da ist die Sichtweise von Jürgen Habermas interessant, der vielleicht idealisiert oder überhöht formuliert eine ideale Sprechsituation beschreibt. Sie ist auf Augenhöhe, ohne Machtgefälle, mit vollkommender Offenheit, bei der das beste Argument gewinnt. Beim Einsatz der KI benötigen wir eine breit angelegte Partizipation. Und die benötigt Zeit. Wir müssen uns Mühe geben und die Zeit investieren mit allen Betroffenen, diese gemeinsam an einen Tisch zu bringen. Vielleicht in Stufen, aber wir brauchen eine demutsvolle Perspektive, um Konsens zu bewirken, den politischen Prozess anzustoßen. Statt im Elfenbeinturm auszuarbeiten, wie man vorgehen muss, sollte man einen Aushandlungsprozess anstoßen.

Welche ethischen Aspekte sind bei KI gesellschaftlich besonders relevant?

Bei der gesellschaftlichen Perspektive sind wir nicht mehr ganz nah an der Technologie oder am konkreten Gegenstand. In Prinzipienkatalogen, die man kritisch sehen kann, wird zuerst immer der Respekt vor der menschlichen Autonomie genannt. Wenn wir die respektieren, dann müssen wir Gestaltungsspielräume geben oder erhalten. Diese werden immer eingeengt durch Gestaltungsspielräume anderer Personen, aber bei KI muss man (auch langfristig) sehen, ob der Gestaltungsspielraum eingeengt wird. Derzeit haben wir durch KI einen großen Nutzen, aber auf lange Sicht machen wir uns abhängig von einer solchen Technologie. Wir haben auch eine solche Durchdringung dieser Technologie, dass wir sie kaum noch zurücknehmen können. Dies sehen wir in vielerlei Hinsicht bei Smartphones. Wir können wahrscheinlich ganz gut damit leben, wenn wir privilegiert genug sind uns mit Zeit und Muße damit auseinander zu setzen und uns, wenn notwendig, von der Technik distanzieren. Dann sind wir davon so abhängig wie von Papier und Bleistift. Aber das muss nicht bei jedem so sein. Entsprechend ist der wichtigste und schwerwiegendste Punkt eine langfristige Perspektive einzunehmen und es auch in Partizipationsformaten zu schaffen, dass Menschen diese langfristige Perspektive gelten lassen.

Im Gegensatz zur Medizin, wo es direkt um Menschenleben geht und Erklärbarkeit auf praktischen Nutzen trifft, haben wir diesen Druck in der öffentlichen Verwaltung häufig nicht. Die Prozesse laufen, vielleicht nicht ideal, aber wir können uns Zeit und Muße nehmen in einen partizipativen Vorgang einzutreten. Wir können Mitarbeiter der Verwaltung mitnehmen, langfristig denken, auch z. B. Umschulungsmaßnahmen mit einzubeziehen, um den (auftretenden) Wegfall von Arbeitsplätzen sozial gerecht zu gestalten. Das sind Fragen, die wir gar nicht so direkt am technischen Artefakt beantworten müssen, sondern im gesellschaftlichen Kontext.

Welche ethischen Aspekte sind bei KI in der öffentlichen Verwaltung besonders relevant?

Wir dürfen Ermessensspielraum nicht „aus Versehen“ verringern, was schleichend passieren kann. Wir müssen diese Entwicklungen ernst nehmen, auch aus psychologischer Sicht. Zum Beispiel werden Entscheidungsunterstützungssysteme aus guter Intention heraus entwickelt. Man versucht, objektivere, bessere, mit Informationen gestützte Entscheidungen herbeizuführen. Es gibt Effekte, wenn Systeme nicht ganz durchschaut und täglich verwendet werden, dass man ihnen übermäßig vertraut. Empfehlungen werden als de facto Entscheidungen umgesetzt. Damit wird der Entscheidungsspielraum auf null reduziert. Das kann nicht das Ziel von Digitalisierung oder KI sein. Es wird gesagt, dass durch KI mehr Interaktion mit Bürgern stattfinden soll (politische Frage). Wenn Technologie den Freiraum schaffen kann, dann darf man ihn nicht auf der anderen Seite durch Rationalisierung wieder einengen.

Die Unterstützung, welche die KI leisten kann, kann korrumpiert werden von Dingen, für die die Technologie erstmal nichts kann. Deswegen muss man global und umfassend in der öffentlichen Verwaltung über KI nachdenken. Es ist weniger eine Frage der KI selbst, sondern wie sie eingebettet ist – das Interface Design, oder wie die KI in den Arbeitsfluss in der Verwaltung eingebettet ist. Dass man z. B. darauf hinweist, dass es nur eine Empfehlung ist und wo man nachschlagen muss, was die Entscheidungskriterien betrifft. Auch den Aspekt, was versprochen wurde und was umgesetzt wurde, muss man beachten. Wir bewegen uns im Kontext was in den 80er Jahren über Automatisierung gesagt wurde.

Die Ironie der Automatisierung war, dass die Arbeit durch die Arbeitsverdichtung unmenschlich wurde, wenn am laufenden Band acht Stunden am Stück gearbeitet wurde. Wenn durch den Einsatz von KI nur noch die schweren Fälle übrig bleiben, stellt sich die Frage, wie dann der Feierabend noch aussehen kann und wie emotional belastet man dann ist. Da muss man sich die Arbeitsprozesse ansehen. Wir sagen zwar, wir wollen nicht monoton arbeiten, aber wenn monotone Phasen nicht mehr vorhanden sind, würden wir dann mehr arbeiten? Vermutlich würden wir mehr Kaffee trinken.

Da ist das gute Bild vom Menschen, der auch leistungswillig ist und Teil der Gesellschaft ist. Der Teil eines funktionierenden Apparates ist, und nicht gegen den Bürger, der hart verwaltet werden muss, sondern bei dem ein Miteinander im Vordergrund steht.

Wie wird KI die öffentliche Verwaltung verändern? Worauf muss die öffentliche Verwaltung bei Ethik besonders achten, damit es nicht zur Dystopie wird?

Vielleicht zunächst wie wir an einer Dystopie vorbeikommen. Auch auf die Gefahr hin, jetzt erzkonservativ zu wirken, aber wir müssen uns ansehen, was als nächster Schritt angedacht ist. Robotic Process Automation eignet sich sehr gut. Das wird auch in Gesetzesvorlagen einbezogen, da kein Ermessensspielraum beeinflusst wird. Es kann zwar aus Versehen passieren, aber mit RPA sind wir auf einem sicheren Weg, dass dies erst mal nicht passiert und wir Erfahrungen sammeln können. Effizienzsteigerungen, die man erhält und erhalten darf, erst einmal zu verwalten. Sich ansehen, was mit der Arbeitskultur passiert, die sich auf das System einstellen muss. Und den Prozess mitzubegleiten, die Mitbestimmung der Angestellten sicherzustellen, zusehen, dass die Transition gut verläuft und das Bürger davon profitieren. Es ist weniger Dystopie, sondern was ich mir wünschen würde, ist, dass digitale Souveränität zum moralischen Kompass für Digitalisierung in der Verwaltung wird. Dass die Souveränität von Bürgern gesteigert wird, nicht in einem Kunden-Serviceverhältnis aus Bürger und Verwaltung, sondern durch den alltäglichen Kontakt mit der Verwaltung. Wir müssen informieren, Partizipation auf niedrigschwellige Art sicherstellen, Vertrauenswürdigkeit und Akzeptanzfähigkeit herstellen. Die Möglichkeit schaffen, dass es akzeptiert wird, begründet darauf, dass man weiß, was das Gegenüber für Ziele hat und auch meine Ziele – also hier die der Bürger – respektiert.

Als Dystopie – eine Idee aus der Wissenschaft, die sich mit Privatheit beschäftigt, kommt von Daniel Solove. Er beschäftigt sich mit Digitalisierung, Datenaustausch zwischen Behörden, dem Ansammeln von Daten. Privatsphäre wird manchmal unter der Drohgebärde von „Big Brother“ thematisiert, was Solove für falsch hält. Er sieht das Problem eher wie bei „Der Prozess“ von Franz Kafka. Es geht darum, dass viele sehr bürokratische, unmenschliche einzelne Entitäten in der Verwaltung Informationen austauschen, ohne Wissen des Betroffenen und auch ohne Intention zu überwachen oder Repressalien anzuwenden. Aber es funktioniert einfach ineinander in einer uneinsehbaren Art, es werden Daten interpretiert und man wird nur noch mit Ergebnissen konfrontiert. Das wäre eine wesentliche Dystopie.

Man sollte nicht den Fehler machen, aus der kommerzialisierten Welt Analogien zu ziehen, aber dort ist auch nicht alles falsch. Eine Bank stellt z. B. einen persönlichen Berater zur Verfügung, mit dem man immer wieder spricht. Wenn KI die Ressourcen frei macht, dann kann sich das die öffentliche Verwaltung vielleicht auch leisten. Ein persönlicher Draht, der den Austausch effizienter macht, weil man die Lebensgeschichte nicht immer neu erzählen muss. Es wäre mehr Empathie möglich, man könnte den Ermessensspielraum nutzen ohne ungerecht zu werden oder bevorteilen zu wollen. Man kann entscheiden, ob man sich mehr Mühe geben muss oder ob jemand alleine zurechtkommt.

Was würdest du Mitarbeitern der ÖV mitgeben, bzw. Personen, die mit KI zu tun haben, bezüglich Ethik und KI?

Wenn man auf Partizipation abzielt, dann verlangt es einiges von Mitarbeitern der öffentlichen Verwaltung, eine gewisse Offenheit, Neugier, und Spaß, dass sich was verändert. Mir ist bewusst, dass man den Spaß nicht in jeder Lebenssituation haben kann. Man kann sich aber organisieren und Partizipation einfordern. Es gibt Stellen, die Lobbyarbeit machen, dass die Digitalisierung der öffentlichen Verwaltung nicht an den Mitarbeitern vorbeigeht. Sie muss auf fruchtbaren Boden fallen. Ich würde es mir wünschen, weil ich glaube, dass man dann den Bereich, der manchmal zu Unrecht bei Bürgern negative Konnotation aufweist („die Verwaltung“, „muss wieder auf’s Amt“) einen anderen Anstrich geben würde. Einen, der gerechtfertigt ist, weil dort in Zukunft moderne Prozesse ablaufen, die hoffentlich viel Geld sparen. Das kommt den Bürgern zu Gute. Ich würde mir wünschen, dass Mitarbeiter sich einsetzen und aufbegehren, dass der Arbeitsplatz weiterhin einer ist, den sie bekleiden wollen. Man muss in der Gesellschaft zusammenhalten und nicht sagen, dass es die Sache der Mitarbeiter der Verwaltung ist. Bürger müssen das auch im eigenen Interesse einfordern – die Verwaltung profitiert, aber auch die Bürger. Es geht nicht so sehr darum, was die KI ausmacht – das ist technisch faszinierend und es ist auch schön, wenn man sich dafür interessiert. Es geht eher darum, was die Ziele der Leute sind, die Digitalisierung maßgeblich anstoßen, dass man kritisch bleibt, nachfragt, mitgestaltet und eigene Ziele einbringt und in den Diskurs kommt. Dann bin ich zuversichtlich, dass es zu einem guten Einsatz kommt.

Das Problem in der KI-Entwicklung ist, dass in der Regel von Menschen entwickelt wird, die nicht davon betroffen sind. Nicht aus bösem Willen, sondern weil es schwer ist, an Menschen heranzukommen, die davon betroffen sind. Die leben z. B. in einer prekären Situation, müssen arbeiten, oder lehnen Technologie aus einer Grundhaltung ab, die nicht unbegründet sein muss. Man muss auch Partizipation ernst nehmen – Anreizstrukturen schaffen, Erleichterungen für Leute schaffen, die üblicherweise am Prozess nicht teilnehmen. Die Gründe muss man erst nehmen und Angebote machen für eine diverse Perspektive auf den Wandel, der nicht nur die technologie-affinen und Zukunftsutopisten anspricht. Es ist schön diese zu haben, man braucht aber auch kritische Stimmen.

Als letzte Frage, gibt es noch weitere Punkte, bezüglich Ethik und KI, die wir nicht angesprochen haben, die aber wichtig sind?

Ein Thema, das heißt diskutiert wird und wir nicht angesprochen haben, ist „algorithmic bias“. Entscheidungsunterstützungssysteme, die auf verzerrten Daten basieren oder von Entwicklungsteams mit bestimmter Perspektive entwickelt wurde – und die eine andere Perspektive auch bei besten Intentionen nicht einnehmen können. Da wird dem KI-System eine bestimmte Perspektive mitgegeben auch ohne es zu wollen, oder auch aus Nachlässigkeit. Gerade bei Fragen in der öffentlichen Verwaltung kann das massiv soziale Ungerechtigkeit hervorrufen. Auch an scheinbar banalen Entscheidungen können Schicksale dranhängen, wenn es ums Geld geht. Das Thema kann man nicht unterbewerten, das ist sehr wichtig und das müssen wir bei KI berücksichtigen.

Fragen an KI-Anwendungen in der öffentlichen Verwaltung

Was sind Fragen, die man sich bei KI-Anwendungen in der öffentlichen Verwaltung stellen kann? Wie kann man die ethischen Aspekte von KI-Anwendungen überprüfen?

Fairness

  • Ist die Anwendung fair – nach welcher Definition von Fairness?
  • Werden unverzerrte, faire, Entscheidungen getroffen?

Langfristige Auswirkungen durch den Einsatz von KI

Eigenes Arbeitsverhalten

  • Beeinflussung: Verändert sich das individuelle Arbeitsverhalten über die Zeit negativ? Wird es durch den Einsatz von KI in eine bestimmte Richtung gedrückt?

Auswirkungen auf die öffentliche Verwaltung

  • Wie verändern sich die wahrgenommene Autonomie, Kompetenz und sozialen Beziehungen bei der Arbeit?
  • Wurden die Versprechungen/Hoffnungen des KI-Einsatzes auch eingelöst? Gab es negative Konsequenzen (z. B. Stellenabbau, Fertigkeitsabbau)?

Auswirkungen auf die Gesellschaft

  • Welche Auswirkungen hat der Einsatz von KI in der öffentlichen Verwaltung auf die Gesellschaft als Ganzes?

Einsatz der KI-Anwendung (Organisationsebene)

  • Datenbasis: Wurden die Daten auf ethische Weise gesammelt?
  • Nachhaltigkeit: Wie ist die Kosten-Nutzen-Rechnung bezüglich Energieverbrauch/Nachhaltigkeit?
  • Verzerrungsfreie ML-Pipeline: Wurden Verzerrungen in der ML-Pipeline ausgeschlossen/reduziert?
  • Verlässlichkeit: Wird der Einsatz der KI-Anwendung regelmäßig überprüft? Z. B. via:
    • Dokumentation des Verhaltens der KI-Anwendung
    • Audits, Benchmark Tests
    • Verwendung von Analyse-Werkzeugen, Erklärbare KI-Ansichten
    • Kontinuierliche Begutachtung der Datenqualität und Testen auf mögliche Verzerrungen
  • Sicherheit: Ist die Sicherheit auf organisatorischer Ebene gewährleistet? Z. B. via:
    • Verpflichtung zur Sicherheit durch Führungskräfte
    • Offenes Berichten über Fehler und kritische Ereignisse
    • Öffentliche Berichte von Problemen und zukünftigen Plänen
  • Vertrauenswürdigkeit: Wird die Vertrauenswürdigkeit auf organisatorischer Ebene gewährleistet? Z. B. via:
    • Einhalten von Standards und Richtlinien
    • Zertifizierung
    • Externe Kontrolle

Aufgaben zum eigenen Anwendungsfall

Sie haben die Anwendung bereits auf Gebrauchstauglichkeit und im Detail bezüglich der Mensch-KI-Interaktion analysiert. Schauen Sie jetzt auf die ethischen Aspekte von KI-Anwendungen.

  • Inwiefern ist die Anwendung fair – insbesondere für die von den Entscheidungen betroffenen Personen? Welche Definition von Fairness verwenden Sie? Woran könnten Sie etwaige Probleme erkennen? Zusätzlich, falls maschinelles Lernen verwendet wird: Wie stellen Sie sicher, dass Verzerrungen in der ML-Pipeline ausgeschlossen bzw. reduziert wurden?
  • Welche langfristigen Auswirkungen durch den Einsatz der KI-Anwendung sind realistisch? Nehmen Sie dann eine kritische Perspektive ein – was könnte schlimmstenfalls passieren (Beeinflussung, Auswirkungen auf die öffentliche Verwaltung, Auswirkungen auf die Gesellschaft) und wie sollte sichergestellt werden, dass diese Probleme nicht eintreten?
  • Gehen Sie im letzten Schritt über Ihre KI-Anwendung hinaus und beurteilen Sie den Einsatz von KI-Anwendungen in Ihrer Verwaltungseinheit generell. Wie wird auf Organisationsebene (Einsatz der KI-Anwendung auf Organisationsebene) vorgegangen? Ist das Vorgehen ethisch?

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise und die Übung entfernt.

Wessel, D. (2023). KI & Ethik. In: Künstliche Intelligenz in öffentlichen Verwaltungen. Edition eGov-Campus. Springer Gabler, Wiesbaden

https://doi.org/10.1007/978-3-658-40101-6_11

http://creativecommons.org/licenses/by/4.0/deed.de


© Swiss Infosec AG 2024