Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Die Herausforderung von tragbaren neurologischen Geräten zur Arbeitsplatzüberwachung: eine rechtliche Perspektive der EU

1 Einleitung

1921 schrieb der russische Autor Jewgeni Zamjatin den dystopischen Roman «Wir», der eine fiktive totalitäre Gesellschaft beschreibt, in der Individualität und persönliche Freiheit zugunsten gesellschaftlicher Harmonie und Ordnung unterdrückt werden. Der Roman spielt im 26. Jahrhundert und ist in einem Staat angesiedelt, in dem der Einzelne Massenüberwachung unterliegt und es von ihm erwartet wird, dass er nach vorgegebenen rationalen Werten handelt, denkt und fühlt. Der Protagonist des Romans, D-503, ist ein Mathematiker und Ingenieur, der an der Konstruktion eines Raumschiffs namens Integral arbeitet. Im Verlauf der Geschichte werden D-503s Überzeugungen in Frage gestellt, was zu einem Konflikt zwischen seiner Loyalität gegenüber dem Staat und seinem Wunsch nach persönlicher Freiheit führt. In Zamyatins dystopischer Gesellschaft werden die meisten Menschen als aufrichtig von den Prinzipien der rationalen sozialen Ordnung und der Weltharmonie geleitet dargestellt. Im Gegensatz dazu werden die modernen Überwachungsmethoden in erster Linie von Profitinteressen geleitet. Eine Variante der modernen Überwachungsmethoden wird am Arbeitsplatz eingesetzt, um den Gewinn und die Effizienz des Unternehmens zu steigern. Leider führt dies häufig zu einer Entmenschlichung der Menschen, die als blosse Maschinen und nicht als Wesen mit Autonomie und freiem Willen behandelt werden.

Heute hat das algorithmische Management die Überwachung am Arbeitsplatz verändert und das so genannte Amazon-Zeitalter hervorgebracht. Der Name ist vom Technologieunternehmen Amazon inspiriert, das oft Pionierarbeit bei der invasiven Erfassung persönlicher Daten am Arbeitsplatz leistet. Berichten zufolge setzt dieses Unternehmen Standortverfolgung, biometrische Analyse, Gesichts- und Bilderkennung, tragbare Geräte, fortgeschrittene Algorithmen und Big Data ein, um Produktivitätsdaten von Mitarbeitern zu sammeln. Diese Informationen werden dann verwendet, um Arbeitnehmer zu beurteilen, zu disziplinieren, zu bewerten und zu belohnen, wodurch eine neue Machtdynamik am Arbeitsplatz entsteht.

Mit den Fortschritten der Neurotechnologie wächst die Sorge, dass Arbeitgeber in der Lage sein könnten, die Gehirne ihrer Arbeitnehmer mit modernen Überwachungsmethoden, der sogenannten Neuroüberwachung, zu kontrollieren. Diese Neurotechnologien werden aufgrund des Fortschritts und der Konvergenz von Neurowissenschaften, KI, maschinellem Lernen und Big Data immer zugänglicher. Durch den Einsatz von Neurogeräten können Arbeitgeber die mentale Arbeitsbelastung, den emotionalen Zustand, das Konzentrationsniveau und den Grad der Wachsamkeit oder Müdigkeit der Arbeitnehmer am Arbeitsplatz überwachen.

Eine der zugänglichsten Möglichkeiten zur Aufzeichnung und Analyse der Gehirnaktivität ist ein tragbares EEG-Gerät, z. B. ein Stirnband oder Ohrstöpsel, das Rohdaten des Gehirns erfassen kann. Durch eine algorithmische Analyse können diese Hirndaten vom Rauschen getrennt und verwendet werden, um Informationen über den Konzentrationsgrad, die Emotionen und die mentale Arbeitsbelastung eines Mitarbeiters zu erhalten; sie stellen die Daten erster Ordnung dar. Es können auch zusätzliche Datenquellen integriert werden, um Rückschlüsse zweiter Ordnung zu ziehen. Beispielsweise kann der Arbeitgeber anhand von Gehirndaten umfassendere Vorhersagen über die künftige Leistung, die kognitiven Fähigkeiten oder Verhaltenstendenzen der Arbeitnehmer treffen.

Der jüngste Bericht der britischen Datenaufsichtsbehörde, des Information Commissioner’s Officer, prognostiziert für die nächsten fünf Jahre eine erhebliche Ausweitung des Einsatzes nicht-invasiver Neurotechnologie am Arbeitsplatz zu Zwecken der Sicherheit, des Wohlbefindens und der Mitarbeiterrekrutierung. Beispielsweise kann die Neuroüberwachung in Gesundheits- und Sicherheitsprogramme integriert werden, um die Aufmerksamkeit und Konzentration der Mitarbeiter zu messen und zu verbessern. Es ist jetzt möglich, neurokognitive Zustände wie geistiges Abschweifen, Leistungsentzug und Unaufmerksamkeitsphänomene zu erkennen. In diesem Zusammenhang können Neurodevices vor allem in Umgebungen mit hohem Risiko nützlich sein, z. B. bei der Arbeit mit schweren Maschinen oder bei langen Arbeitszeiten in Schichten. Darüber hinaus sind tragbare Neurotechnologien, die das Wohlbefinden fördern, jetzt auf dem Verbrauchermarkt als Selbstkontrollinstrument erhältlich, um das Konzentrations- und Stressniveau, den Grad der Wachsamkeit oder Müdigkeit und den emotionalen Zustand am Arbeitsplatz zu erkennen. Als Einstellungsinstrument könnten Neurotechnologien eingesetzt werden, um Personen mit gewünschten Verhaltensmerkmalen zu identifizieren, kognitive Fähigkeiten einzuschätzen und das Niveau der Exekutivfunktionen und Intelligenzwerte der Teilnehmer zu klassifizieren. Nach Ansicht von Nita Farahany werden EEG-basierte Systeme zum Goldstandard bei der Überwachung von Müdigkeit am Arbeitsplatz werden, aber wie viel wir letztendlich von den Brain Wearables am Arbeitsplatz profitieren, hängt vor allem davon ab, wie die Arbeitgeber die Technologie nutzen.

Es ist wichtig, darauf hinzuweisen, dass mentale Daten unbewusst erzeugt werden und der Einzelne keine Kontrolle über die Informationen hat, die sie preisgeben. So können beispielsweise EEG-Gehirndaten wertvolle Einblicke in verschiedene kognitive und neurologische Prozesse und emotionale Reaktionen auf Reize geben. Arbeitgeber können diese Daten nutzen, um die kognitiven Fähigkeiten und den Konzentrationsgrad ihrer Mitarbeiter zu ermitteln. In Kombination mit anderen Technologien wie der algorithmischen Steuerung der Aufgabendauer, der Leistungsüberwachung und der Standortverfolgung in Echtzeit könnte so ein Umfeld mit beispielloser Arbeitseffizienz geschaffen werden, in dem jede Minute der Arbeitszeit des Arbeitnehmers genau gezählt und auf Effizienz ausgerichtet ist. Diese allzu aufdringliche Praxis kann jedoch die Handlungsfähigkeit der Arbeitnehmer, ihre Rechte auf Privatsphäre und ihr psychologisches Wohlbefinden stark beeinträchtigen.

Es besteht die Sorge, dass algorithmusbasierte Neurotechnologien mit dem Fortschritt und der Sammlung von Big Data invasiver und aufdringlicher werden könnten. Dies könnte zu einer Störung des Gleichgewichts zwischen Arbeit und Privatleben führen, da die Arbeitnehmer das Gefühl haben könnten, ständig beobachtet zu werden, auch in ihrer Freizeit. Diese ständige Überwachung kann dazu führen, dass sich Arbeitnehmer unwohl fühlen und sich unnatürlich verhalten, indem sie beispielsweise gezwungen werden zu lächeln oder ihre wahren Gefühle und ihre Persönlichkeit zu unterdrücken, um dem Algorithmus zu gefallen. Da wir uns auf eine Zukunft zubewegen, in der Maschinen die Arbeitsanforderungen beeinflussen, könnten sich Arbeitnehmer unter Druck gesetzt fühlen, die hohen Standards der Maximierung der Effektivität zu übernehmen, unerschütterliche Konzentration an den Tag zu legen, keine emotionalen Reaktionen zu zeigen und eine 100%ige Effizienz bei der Bewältigung des Arbeitsaufkommens zu erreichen. Wie N. Farahany argumentiert, hat der Einsatz von Brain Wearables bei der Arbeit nicht nur Auswirkungen auf die Sicherheit, die Produktivität und das Stressniveau der Arbeitnehmer, sondern auch auf die Würde der Arbeitnehmer und die Zukunft der Arbeit selbst.

In den letzten Jahren haben Wissenschaftler und Gesetzgeber dem Einsatz von KI und digitalen Werkzeugen bei der Verwaltung und Bewertung von Arbeitsplätzen viel Aufmerksamkeit geschenkt. Die Anwendung von Neurotechnologien durch das Management von Arbeitgebern und die Überwachung von Arbeitnehmern ist jedoch noch nicht gründlich untersucht worden. Während die Neurotechnologien den Arbeitgebern neue Instrumente bieten, fehlt es an einer rechtlichen Bewertung der Zulässigkeit der Neuroüberwachung am Arbeitsplatz. Dieses Thema wurde in den Mainstream-Debatten über die Zukunft der Arbeit kaum diskutiert.

Darüber hinaus ist es wichtig anzuerkennen, dass KI und Digitalisierung nicht nur quantitative Risiken in Bezug auf die Verfügbarkeit von Arbeitsplätzen auf dem Markt, sondern auch qualitative Risiken für die Arbeitnehmer mit sich bringen. Anstatt Menschen einfach durch Maschinen zu ersetzen, ermöglichen es bestimmte technologische Fortschritte den Arbeitgebern, Menschen wie Maschinen zu behandeln. Dies zeigt sich in den sich verändernden Geschäftsmodellen, die mit dem Aufkommen der «Gig-Economy» einhergehen, wo neue Technologien die Qualität der Arbeitsbedingungen erheblich beeinflussen. So haben beispielsweise digitale Plattformen, die algorithmisches Management nutzen, eine neue Form der Beschäftigung geschaffen, die als «Nicht-Standard-Beschäftigung» bekannt ist. Diese Plattformen, wie z. B. Uber, Bolt und Deliveroo, verbinden unabhängige Subunternehmer mit bezahlten Aufgaben von Kunden, die Dienstleistungen auf Abruf anbieten. Die Verteilung der Aufgaben, die Arbeitsintensität und die Arbeitspreise werden direkt von Algorithmen bestimmt, während die Bewertungen der Arbeitnehmer auf dem Feedback der Kunden basieren. Die Richtlinie über Plattformarbeit, die derzeit vom Rat der EU endgültig verabschiedet wird, soll die EU-Länder dazu verpflichten, auf nationaler Ebene eine widerlegbare rechtliche Vermutung für die Beschäftigung zu schaffen. Entgegen den ursprünglichen Erwartungen wird die EU keine standardisierten Kriterien für die Einstufung von Plattformarbeitern als Arbeitnehmer festlegen. Infolgedessen können die Mitgliedsstaaten die Vermutung unterschiedlich umsetzen.

Weitere Forschung ist erforderlich, da die Plattformarbeit sehr vielfältig ist. Zunächst ist es von entscheidender Bedeutung, die Kriterien für die Unterscheidung zwischen Plattformarbeitern und Selbstständigen festzulegen, wie sie in der Richtlinie über Plattformarbeit und in der kommenden staatlichen Gesetzgebung dargelegt sind. Dieser Artikel konzentriert sich auf die Festlegung der Regeln für den Einsatz von Neurotechnologien in der traditionellen Beschäftigung. Es wird jedoch auf einige Artikel der Plattformarbeitsrichtlinie als Beispiele für relevante regulatorische Lösungen verwiesen.

Da die Neurotechnologie das Potenzial hat, die Arbeitswelt erheblich zu beeinflussen, ist es von entscheidender Bedeutung, die Regulierungsmassnahmen richtig zu koordinieren. In diesem Artikel soll insbesondere untersucht werden, wie die bestehenden EU-Rechtsvorschriften zum Schutz der Privatsphäre, vor allem die Datenschutz-Grundverordnung (im Folgenden «DSGVO») und das Gesetz über künstliche Intelligenz (im Folgenden «KI-Verordnung»), geeignet sind, ein Gleichgewicht zwischen neurotechnologischen Fortschritten und dem Schutz der Privatsphäre der Arbeitnehmer sowie ihrem Recht auf gute und faire Arbeitsbedingungen herzustellen. Es würde den Rahmen dieses Papiers sprengen, eine eingehende vergleichende Analyse der Rechtsvorschriften der EU-Mitgliedstaaten vorzunehmen.

Es besteht weitgehend Einigkeit darüber, dass die Europäische Union über die weltweit strengsten Rechtsvorschriften zum Schutz privater Daten verfügt. Die vor kurzem erlassene KI-Verordnung ist die erste ihrer Art in der Welt. In diesem Artikel möchte ich analysieren, wie sich die EU auf neue Trends in der Neuroüberwachung von Arbeitnehmern durch KI-basierte Neurotechnologien vorbereitet. Da sich dieser Trend weiterentwickelt, gibt er Anlass zur Sorge über die Zukunft der Arbeit und die Rolle der Technologie bei der Gestaltung unseres Berufslebens. Es stellt sich die berechtigte Frage: Wie können wir die Schaffung eines dystopischen und paternalistischen Arbeitsumfelds verhindern? Dies führt natürlich zu einer weiteren Frage: deckt der derzeitige Rechtsrahmen der EU solche Technologien angemessen ab, und gibt es Lücken?

Konkret zielt dieser Artikel vor allem darauf ab, den rechtlichen Rahmen der EU in Bezug auf die Legitimität des Einsatzes nicht-invasiver, tragbarer Neurodevices zur Überwachung von Arbeitnehmern zu bewerten. Aus methodischen Gründen wird diese Aufgabe anhand einer zweistufigen Strategie durchgeführt. Zunächst wird die DSGVO im Hinblick auf die Zulässigkeit der Erhebung von Hirndaten von Arbeitnehmern analysiert. Zweitens wird die KI-Verordnung in Bezug auf die Verwendung spezifischer Hirndaten und anderer Arbeitnehmerinformationen untersucht, um Rückschlüsse auf die Arbeitnehmer zu ziehen.

2 DSGVO und Neuroüberwachung am Arbeitsplatz

Die DSGVO, die als die einflussreichste Datenschutzregulierung weltweit bekannt ist, regelt alle Stufen der Datenverarbeitung und gilt für jede Organisation, die mit den personenbezogenen Daten natürlicher Personen innerhalb der EU umgeht. In Erwägungsgrund 4 der DSGVO wird anerkannt, dass das Recht auf den Schutz personenbezogener Daten nicht absolut ist, sondern «im Verhältnis zu seiner Funktion in der Gesellschaft betrachtet und gemäss dem Grundsatz der Verhältnismässigkeit gegen andere Grundrechte abgewogen werden muss».

Artikel 6 der DSGVO definiert die Rechtmässigkeit der Verarbeitung personenbezogener Daten. Demnach sollte die Verarbeitung personenbezogener Daten auf der Grundlage der Einwilligung der betroffenen Person oder auf einer anderen gesetzlichen Grundlage erfolgen, die entweder in der DSGVO oder in anderen Rechtsvorschriften der Union oder eines Mitgliedstaats festgelegt ist. Dazu kann die Notwendigkeit gehören, einer rechtlichen Verpflichtung nachzukommen, der der für die Verarbeitung Verantwortliche unterliegt, oder die Notwendigkeit, einen Vertrag zu erfüllen, bei dem die betroffene Person Vertragspartei ist, oder um auf Antrag der betroffenen Person vor Abschluss eines Vertrags Massnahmen zu ergreifen.

Artikel 88 der DSGVO enthält allgemeine Regeln für die Verarbeitung von Arbeitnehmerdaten durch Arbeitgeber in den EU-Mitgliedstaaten. Erstens kann jeder Mitgliedstaat der Europäischen Union frei entscheiden, wie er die Verarbeitung von Arbeitnehmerdaten, einschliesslich sensibler Daten, durch nationale Gesetze und Tarifverträge regelt, wobei der Schwerpunkt auf dem Schutz der Würde, der berechtigten Interessen und der Grundrechte der betroffenen Person liegt, insbesondere im Hinblick auf die Transparenz der Verarbeitung und die Übermittlung personenbezogener Daten. Zweitens dürfen die Arbeitgeber die Daten der Arbeitnehmer für arbeitsbezogene Zwecke verarbeiten und müssen für jede weitere Verarbeitung eine Einwilligung einholen. Gemäss Artikel 88 (1) der DSGVO bedeutet dies, dass der Arbeitgeber die Daten von Arbeitnehmern für folgende Zwecke verarbeiten darf: Einstellung, Ausführung von Arbeitsverträgen, Vielfalt und Gleichstellung am Arbeitsplatz, Planung und Organisation der Arbeit, Verwaltung des Unternehmens, Sicherheit und Gesundheit am Arbeitsplatz, Schutz des Eigentums des Arbeitgebers oder der Kunden oder jede andere Verpflichtung, die der Arbeitgeber nach den geltenden Gesetzen und Tarifverträgen hat. Dazu gehört unter Umständen auch die Verarbeitung sensibler personenbezogener Daten, wie Gesundheitsdaten, Ethnie, ethnische Herkunft und andere.

In Arbeitsverhältnissen regelt die DSGVO die gesamte Datenverarbeitung und sorgt für ein Gleichgewicht zwischen dem legitimen Interesse des Arbeitgebers an der Entwicklung seines Unternehmens bei gleichzeitiger Gewährleistung sicherer Arbeitsbedingungen und der angemessenen Erwartung des Arbeitnehmers an seine Privatsphäre. Arbeitgeber müssen sich bei der Verarbeitung von Arbeitnehmerdaten an strenge Datenschutzvorschriften halten. Obwohl eine kontinuierliche Überwachung und Verfolgung des Verhaltens von Arbeitnehmern technisch möglich ist, setzt die Gesetzgebung daher Grenzen für eine aufdringliche Überwachung, die die Privatsphäre der Arbeitnehmer respektiert.

Bei der Beurteilung der Frage, ob ein Arbeitgeber die Hirndaten seiner Mitarbeiter nach der DSGVO erfassen und verarbeiten darf, sind einige wesentliche Faktoren zu berücksichtigen: (2.1) Erstens muss der rechtliche Status von Hirndaten definiert werden. (2.2) Zweitens muss die Einwilligung als Rechtsgrundlage für die Verarbeitung sensibler Daten geprüft werden. (2.3) Drittens sollten die Bedingungen für die Verarbeitung sensibler Daten von Arbeitnehmern zur Bewertung ihrer Arbeitsfähigkeit analysiert werden. (2.4) Darüber hinaus ist es wichtig zu betonen, dass die Arbeitgeber verpflichtet sind, ihre Arbeitnehmer zu konsultieren, bevor sie Überwachungssysteme am Arbeitsplatz einsetzen. (2.5) Schliesslich müssen wir die potenziellen Schwachstellen der DSGVO ermitteln.

2.1 Der rechtliche Status von Hirndaten

Es ist unbestritten, dass die Messungen der Gehirnaktivität, die ein Arbeitgeber erhält, als «personenbezogene Daten» bezeichnet werden können, da sie mit einer bestimmten Person (Arbeitnehmer) in Verbindung gebracht werden können. Gemäss Artikel 4 Absatz 1 der DSGVO können personenbezogene Daten definiert werden als «alle Informationen, die sich auf eine bestimmte oder bestimmbare natürliche Person beziehen».

Es ist wichtig zu bestimmen, ob personenbezogene Daten, die durch den Einsatz von Neuroüberwachungsinstrumenten gewonnen werden, unter eine besondere Kategorie personenbezogener Daten fallen, die als «sensible Daten» bezeichnet werden. Artikel 9 der DSGVO enthält eine Liste sensibler Datenkategorien, zu denen Gesundheit, medizinische Daten und biometrische Merkmale einer Person gehören. Dazu gehören auch Informationen, die politische Meinungen, religiöse oder philosophische Überzeugungen, die Mitgliedschaft in einer Gewerkschaft oder die sexuelle Orientierung offenlegen.

Im akademischen Diskurs sind sich die Experten im Allgemeinen einig, dass Hirndaten als eine besondere Kategorie sensibler Daten betrachtet werden sollten, für die das gleiche Schutzniveau gelten sollte wie für genetische Daten im Rahmen der DSGVO. Darüber hinaus schlagen die Forscher vor, einen neuen Begriff für Hirndaten in die Gesetzgebung aufzunehmen, der sich auf «quantitative Informationen über die Struktur, Aktivität und Funktion des menschlichen Gehirns» bezieht. Solange das Konzept der Hirndaten nicht ausdrücklich als besondere Datenkategorie in die DSGVO aufgenommen wird, würde die Einstufung von Hirndaten als sensibel von der Art des Geräts abhängen, das für ihre Erhebung verwendet wird (medizinisch oder für Verbraucher), und von den Informationen, die sie enthüllen könnten.

Es ist wichtig zu erwähnen, dass die Unterscheidung zwischen mentalen Daten und Gehirndaten zu einem wichtigen Diskussionsthema in den Neurowissenschaften, der Neuroethik und dem Datenschutz geworden ist. Ienca und Malgieri führten 2022 das Konzept der «mentalen Daten» als Informationen ein, die Rückschlüsse auf die mentalen Zustände einer Person zulassen, und unterschieden sie sowohl von neuronalen als auch von verhaltensbezogenen Daten. Sie argumentieren, dass zwar einige neuronale und verhaltensbezogene Daten als mentale Daten betrachtet werden können, wenn sie zur Ableitung mentaler Zustände verwendet werden, aber nicht alle diese Daten in diese Kategorie fallen. Dieses Konzept stimmt mit der Definition von Ienca et al. überein, die Hirndaten als «quantitative Daten über die Struktur, Aktivität und Funktion des menschlichen Gehirns» bezeichnen, zu denen direkte Messungen der Hirnaktivität und indirekte Funktionsindikatoren gehören können. Die Unterscheidung wird von Muñoz et al. weiter nuanciert, die darauf hinweisen, dass Hirndaten mit nicht-neuralen Kontextdaten kombiniert werden können, um Rückschlüsse auf mentale Prozesse im weiteren Sinne zu ermöglichen. Diese Perspektive unterstreicht das Potenzial für ein umfassenderes Verständnis mentaler Zustände durch die Integration verschiedener Datenquellen. Es gibt jedoch anhaltende Debatten über die Genauigkeit und Zuverlässigkeit aktueller Neurogeräte bei der Ableitung mentaler Zustände aus neuronalen Daten, was die Unterscheidung zwischen mentalen und Gehirndaten erschwert. Diese Diskussionen unterstreichen die Notwendigkeit eines präziseren konzeptionellen und regulatorischen Rahmens, um die einzigartigen Herausforderungen zu bewältigen, die sich aus der Sammlung, der Analyse und dem Schutz sowohl von mentalen als auch von Gehirndaten in einer Ära fortschreitender Neurotechnologie ergeben.

Es wird die Auffassung vertreten, dass «nicht alle psychischen Daten unter die strenge Regelung für sensible Daten fallen», da «die Liste der sensiblen Datenkategorien in der DSGVO (Gesundheit, biometrische Daten, genetische Daten, politische Meinungen, sexuelle Orientierung usw.) nicht umfassend genug ist, um ‚Gefühle‘ oder andere ‚Gedanken‘ zu erfassen, die nicht mit dem Gesundheitszustand, der Sexualität oder politischen/religiösen Überzeugungen zusammenhängen».

Aus einem anderen Blickwinkel betrachtet, könnten EEG-Rohdaten, die Gehirnwellenfrequenzen aufzeichnen, möglicherweise Informationen über neurologische Erkrankungen wie Epilepsie, Alzheimer und Parkinson enthalten. Infolgedessen fallen sie unter die Definition von «Gesundheitsdaten» als besondere Kategorie personenbezogener Daten gemäss Artikel 4 Absatz 15 der DSGVO.

Diese Meinung deckt sich mit der Klarstellung der Artikel-29-Datenschutzgruppe, einer unabhängigen europäischen Organisation, die für die Durchsetzung der Datenschutzvorschriften in der EU und die Förderung der Zusammenarbeit zwischen den EU-Datenschutzbehörden zuständig ist. Laut ihrem Kommentar gelten personenbezogene Daten als Gesundheitsdaten, wenn «die Sensor-Rohdaten allein oder in Kombination mit anderen Daten verwendet werden können, um eine Schlussfolgerung über den tatsächlichen Gesundheitszustand oder das Gesundheitsrisiko einer Person zu ziehen». In unserem Fall enthalten die Daten selbst sensible Informationen über die Person, während der Verarbeitungsalgorithmus nur bestimmt, welche Art von Informationen aus den Rohdaten abgeleitet werden können. Die Behandlung von Hirndaten als sensibel steht daher im Einklang mit dem grundlegenden Menschenrechtsprinzip des Schutzes der Privatsphäre und rechtfertigt deren Schutz.

Die Definition von Daten, die mit Hilfe von Neurodevices gewonnen wurden, als sensibel würde es Arbeitgebern im Allgemeinen verbieten, diese Daten gemäss Artikel 9 Absatz 1 der DSGVO zu verarbeiten. Das Gesetz sieht jedoch Ausnahmen und besondere Bedingungen vor, die eine Verarbeitung zulassen und die im Folgenden untersucht werden.

2.2 Einwilligung als Rechtsgrundlage für die Verarbeitung sensibler Daten nach der DSGVO

Gemäss Artikel 9 Absatz 1 Buchstabe a der DSGVO ist für die Verarbeitung sensibler Daten eine frei erteilte, spezifische, informierte und eindeutige Einwilligung erforderlich. Die Rechtsgültigkeit der Einwilligung des Arbeitnehmers wird jedoch problematisch.

Gemäss den Leitlinien 05/2020 zur Einwilligung im Rahmen der Verordnung des Europäischen Datenschutzausschusses «kann die Einwilligung nur dann eine geeignete Rechtsgrundlage sein, wenn einer betroffenen Person die Kontrolle angeboten wird und sie eine echte Wahlmöglichkeit hat, die angebotenen Bedingungen anzunehmen oder abzulehnen oder sie ohne Nachteile abzulehnen». Die Gültigkeit der Einwilligung am Arbeitsplatz hat auch die Artikel-29-Datenschutzgruppe, ein unabhängiges Beratungsgremium der EU, in ihrer Stellungnahme 2/2017 zur Datenverarbeitung am Arbeitsplatz klargestellt. Sie definiert die allgemeine Vermutung: «Arbeitnehmer sind fast nie in der Lage, ihre Einwilligung frei zu erteilen, zu verweigern oder zu widerrufen, da ein Abhängigkeitsverhältnis zwischen Arbeitgeber und Arbeitnehmer besteht.» Die Stellungnahme 2/2017 befasste sich auch speziell mit der Verwendung von tragbaren Geräten durch Arbeitgeber, um die Gesundheit und Aktivität der Arbeitnehmer zu verfolgen und zu überwachen. In der Stellungnahme 2/2017 heisst es: «Angesichts des sensiblen Charakters von Gesundheitsdaten und des ungleichen Verhältnisses zwischen Arbeitgebern und Arbeitnehmern ist es höchst unwahrscheinlich, dass eine rechtsgültige ausdrückliche Zustimmung für die Verfolgung oder Überwachung solcher Daten eingeholt werden kann.» Da Arbeitnehmer in vielerlei Hinsicht von ihrem Arbeitgeber abhängig sind, könnten sie ihre Einwilligung aus Angst vor dem Verlust des Arbeitsplatzes oder anderen Nachteilen erteilen. In dieser Hinsicht kann die Zustimmung zum Neuromonitoring als eine nicht gültige Form der Willensbekundung angesehen werden.

Ausserdem können weder der Arbeitgeber noch der Arbeitnehmer sicher sein, welche Art von Informationen durch die Neuroüberwachung aufgedeckt werden könnten. Für den Arbeitnehmer kann es schwierig sein, seine eigenen biologischen und mentalen Prozesse vorherzusehen, bevor er seine Zustimmung zur Verwendung dieser Informationen gibt. Dies liegt daran, dass die aus den Gehirnsignalen eines Mitarbeiters gewonnenen Daten unbewusste oder implizite Informationen aufdecken können, derer sich der Mitarbeiter nicht bewusst ist und die er nicht kontrollieren kann. So könnte der Einsatz von Neurotechnologie beispielsweise die persönlichen Meinungen der Mitarbeiter offenlegen, ihre Gereiztheit und ihren versteckten Stress oder andere starke Emotionen gegenüber ihren Kollegen und Vorgesetzten aufdecken. In dieser Hinsicht könnte die Zustimmung nicht als spezifisch definiert werden. Ausserdem könnten mit dem Fortschreiten der Forschung früher gewonnene Daten in Zukunft mit grösserer Genauigkeit wiedergefunden werden, ohne dass die betroffene Person ihre Zustimmung gegeben hat und sich dessen bewusst ist. Einige Experten halten Hirnscans für vergleichbar mit einzigartigen Fingerabdrücken, da sie ein eindeutiges Abbild des Gehirns einer Person liefern.

Wenn wir davon ausgehen, dass Arbeitnehmer hypothetisch die Zustimmung zur Verwendung ihrer Daten für einen bestimmten Zweck erteilen, wie z. B. die Überwachung ihres Ermüdungsgrads aus Sicherheitsgründen, besteht die Möglichkeit, dass diese Daten absichtlich oder unabsichtlich für weitere Zwecke verwendet werden, ohne dass der Arbeitnehmer sich dessen bewusst ist oder zustimmt, und trotz der Verpflichtung zur Zweckbindung personenbezogener Daten gemäss Artikel 5 Absatz 1 Buchstabe b DSGVO. In Verbindung mit anderen Datenquellen wie tragbaren Geräten zur Erfassung des körperlichen Zustands, der Überwachung der Stimme, von Gesichtsbildern und Textschreibmustern könnten die Informationen sogar noch umfassender sein und komplexe Merkmale der Persönlichkeit offenbaren. Dieses Problem wird in der akademischen Diskussion auch mit dem Konzept der «digitalen Phänotypisierung» angesprochen.

All diese Argumente machen es schwierig, eine solche Einwilligung als informiert, spezifisch und eindeutig im Sinne von Artikel 9 Absatz 1 Buchstabe a der DSGVO zu definieren. Dies führt zu der Schlussfolgerung, dass es nach der DSGVO für einen Arbeitgeber nicht rechtmässig ist, Instrumente für die Neuroüberwachung am Arbeitsplatz allein auf der Grundlage der Zustimmung des Arbeitnehmers zu verwenden. Die Zustimmung kann notwendig, aber nicht ausreichend sein. Die DSGVO enthält jedoch eine weitere Bestimmung, die es dem Arbeitgeber möglicherweise erlauben könnte, die Gehirndaten seiner Mitarbeiter zu sammeln und zu verarbeiten.

2.3 Verarbeitung sensibler Daten der Arbeitnehmer zur Beurteilung der Arbeitsfähigkeit eines Arbeitnehmers

Gemäss Artikel 9 Absatz 2 Buchstabe h der DSGVO können besondere Kategorien sensibler Daten verarbeitet werden, wenn dies zur Beurteilung der Arbeitsfähigkeit eines Arbeitnehmers oder für die Präventiv- oder Arbeitsmedizin erforderlich ist. Darüber hinaus muss bei der Verarbeitung solcher Daten das Berufsgeheimnis gewahrt bleiben.

Darüber hinaus sind die Arbeitgeber gesetzlich verpflichtet, eine sichere Arbeitsumgebung zu schaffen, und die oben genannten Bestimmungen wurden erlassen, um sicherzustellen, dass sie dieser Verpflichtung nachkommen. Diese Verantwortung ist in der EU-Rahmenrichtlinie für Sicherheit und Gesundheitsschutz am Arbeitsplatz, allgemein bekannt als EU-Sicherheitsrichtlinie OSH, dargelegt. Darüber hinaus wird in dieser Richtlinie betont, dass «der Arbeitgeber bei der Übertragung von Aufgaben an einen Arbeitnehmer dessen Fähigkeiten in Bezug auf Sicherheit und Gesundheitsschutz berücksichtigen und an den technischen Fortschritt anpassen muss».

Da Müdigkeit und Schläfrigkeit in hohem Masse zu Verletzungen am Arbeitsplatz beitragen, könnte der Einsatz von Neurotechnologie als eine Massnahme zur Verbesserung der Sicherheit bei Aufgaben angesehen werden, bei denen mangelnde Aufmerksamkeit ein erhebliches Unfallrisiko darstellt. Durch die Analyse von EEG-Signalmustern wird es möglich, Müdigkeit zu erkennen und Präventivmassnahmen zu ergreifen, um Unfälle durch menschliche Fehler zu vermeiden. Ein Beispiel für den Einsatz von Neurotechnologie zu Sicherheitszwecken findet sich in der Bergbauindustrie. So werden SmartCaps, eine EEG-basierte Technologie, die in Helme integriert wird, derzeit als Sicherheitsausrüstung eingesetzt. Ähnliche neurotechnische Geräte können im Verkehrswesen (Strassen-, Luft-, Schienen- und Seeverkehr) sowie in anderen Bereichen (z. B. Krankenhäuser, Notfalleinsätze, Strafverfolgungsbehörden) oder bei Rettungseinsätzen eingesetzt werden, insbesondere bei unregelmässigen Arbeitszeiten. Es ist wichtig zu betonen, dass der mögliche Einsatz von Neurotechnologie in solchen Fällen mit den EU-Rechtsvorschriften in Einklang stehen könnte.

Bevor die Entscheidung getroffen wird, Neuromonitoring für die Sicherheit der Arbeitnehmer einzusetzen, sollten die Arbeitgeber eine Datenschutz-Folgenabschätzung (im Folgenden DSFA) durchführen, wie in Artikel 35 der DSGVO vorgeschrieben. Mit dieser Bewertung werden die potenziellen Auswirkungen der Datenverarbeitung auf die Rechte und Freiheiten natürlicher Personen beurteilt, insbesondere wenn sensible Daten betroffen sind und neue Technologien mit unvorhersehbaren Folgen für die grundlegenden Menschenrechte eingesetzt werden. Erwägungsgrund 75 der DSGVO unterstreicht ebenfalls die Notwendigkeit einer DSFA in Fällen, in denen personenbezogene Aspekte, insbesondere im Zusammenhang mit der Analyse oder Vorhersage der Arbeitsleistung, bewertet werden. Artikel 35.7 der DSGVO legt die Mindestanforderungen für eine DSFA fest. Erstens muss der Arbeitgeber, der eine DSFA für die Verarbeitung personenbezogener Daten durchführt, den Zweck und das berechtigte Interesse hinter dieser Verarbeitung erläutern, wie in diesem Fall Zwecke der Prävention und der Gesundheit am Arbeitsplatz.

Zweitens müssen sie die Notwendigkeit und Verhältnismässigkeit der Verarbeitung bewerten und nachweisen, dass alternative, weniger einschneidende Massnahmen unzureichend sind. In diesem Fall muss der Arbeitgeber nachweisen, dass er sich an den technologischen Fortschritt anpasst, um die Sicherheit zu erhöhen, und dass andere bestehende Sicherheitsmethoden als weniger wirksam und eingreifender angesehen werden. Daher könnte der Einsatz der Neurodevice im Prinzip gerechtfertigt sein.

Es gibt Argumente, die für die Verhältnismässigkeit solcher Massnahmen sprechen. So kann beispielsweise argumentiert werden, dass eine ständige Videoüberwachung von Fahrern, die risikoreiche Maschinen bedienen, einen grösseren Eingriff darstellt als der Einsatz von EEG-Neurogeräten, die speziell die Alpha-Gehirnströme überwachen, um den Ermüdungsgrad zu erkennen und Unfälle zu vermeiden, indem der Fahrer gewarnt wird. Diese Sichtweise legt nahe, dass die Überwachung der Hirnaktivität mit Neurodevices einen gezielten Ansatz zur Gewährleistung der Sicherheit bieten kann, ohne dass eine ständige Videoüberwachung erforderlich ist, die möglicherweise als invasiver empfunden wird. Es gibt jedoch unterschiedliche Meinungen über die Wirksamkeit von EEG-basierten Instrumenten zur Überwachung von Müdigkeit, die auf einen Mangel an Beweisen für solche Neurogeräte hinweisen.

Schliesslich müssen die Arbeitgeber sicherstellen, dass die Verwendung der Neurodevices nicht gegen die Rechte und Freiheiten der Arbeitnehmer verstösst und dass angemessene Garantien zum Schutz ihrer Privatsphäre vorhanden sind. So sollte der Arbeitgeber beispielsweise Techniken zur Datenminimierung anwenden und sicherstellen, dass nur notwendige und relevante Daten erhoben und verarbeitet werden. Darüber hinaus sollte der Arbeitgeber eine Geheimhaltungsregelung einhalten, die gesammelten Daten schützen und sicherstellen, dass nur befugte Personen Zugang zu diesen Daten haben.

Die Bedingungen der DSFA orientieren sich an denselben Grundsätzen wie die Argumente in den Entscheidungen des Europäischen Gerichtshofs für Menschenrechte zum Schutz der Privatsphäre der Arbeitnehmer (Artikel 8). Die Entscheidungen des Europäischen Gerichtshofs für Menschenrechte (EGMR) berücksichtigen jedoch auch ein weiteres Kriterium – das Bewusstsein des Arbeitnehmers für die Überwachung als zusätzlichen Faktor bei der Beurteilung der Zulässigkeit der Überwachung am Arbeitsplatz. Die Umsetzung der Neuroüberwachung am Arbeitsplatz mag aufgrund der strengen Vorschriften der DSGVO zunächst schwierig erscheinen. Es besteht jedoch die Möglichkeit, dass Arbeitgeber solche Massnahmen zur Sicherheit ihrer Arbeitnehmer rechtfertigen können. Um die Legitimität der Neuroüberwachung am Arbeitsplatz zu bestimmen, müssen Schlüsselprinzipien wie Verhältnismässigkeit und Subsidiarität eine entscheidende Rolle spielen.

Der Europäische Datenschutzausschuss (EDSA) (der offiziell an die Stelle der Artikel-29-Datenschutzgruppe getreten ist) kann die Situation erheblich klären, indem er Empfehlungen oder Stellungnahmen veröffentlicht, in denen Hirndaten ausdrücklich als sensibel anerkannt werden, und klare Leitlinien für akzeptable Bedingungen für ihre Verarbeitung am Arbeitsplatz vorgibt. Insbesondere könnte der EDSA den Grundsatz der Verhältnismässigkeit dahingehend definieren, dass sowohl die Bedürfnisse und Interessen der Arbeitnehmer als auch die Interessen des Unternehmens bei einer solchen Verarbeitung berücksichtigt werden. In diesem Zusammenhang könnte ein klares Kriterium für die Verhältnismässigkeit darin bestehen, dass der Einsatz der Neurotechnologie am Arbeitsplatz dem Arbeitnehmer zugute kommen und ihm im Vergleich zu anderen, weniger eingreifenden Instrumenten spürbare Sicherheitsvorteile bieten sollte. Solche Leitlinien würden sich positiv auf den Arbeitsmarkt auswirken und den Entwicklern, die Neurotechnologien auf dem EU-Markt einführen wollen, die dringend benötigte Klarheit verschaffen.

Zusammenfassend lässt sich sagen, dass Arbeitgeber den Einsatz von Neurotechnologie zu Sicherheitszwecken sorgfältig abwägen und sicherstellen sollten, dass bei der Verarbeitung sensibler Daten die Grundsätze der Notwendigkeit, der Verhältnismässigkeit und der Datenminimierung beachtet werden. Der Schutz der Privatsphäre und die Wahrung der Vertraulichkeit sind von entscheidender Bedeutung, und Arbeitgeber sollten nur so viele Daten erheben und verarbeiten, wie zur Erreichung angemessener Ziele erforderlich sind. In diesem Zusammenhang ist es von entscheidender Bedeutung, umfassende Leitlinien und Best-Practice-Standards für die verantwortungsvolle Entwicklung und den Einsatz von Neurotechnologien festzulegen, bevor diese auf dem Arbeitsmarkt der Europäischen Union eingeführt werden.

Insbesondere wird vorgeschlagen, in das Arbeitsrecht auf EU-Ebene eine ausdrückliche Bestimmung aufzunehmen, wonach der Einsatz von Neurotechnologien am Arbeitsplatz nur in Ausnahmefällen zu Sicherheitszwecken zulässig ist, z. B. zur Überwachung der Ermüdung von Arbeitnehmern an risikoreichen Arbeitsplätzen. Es sollte auch klar sein, dass es Arbeitgebern untersagt ist, die Gefühle und Gedanken ihrer Mitarbeiter zu analysieren.

2.4 Die Pflicht zur Anhörung der Arbeitnehmer und/oder ihrer Vertreter bei Entscheidungen, die in den Zuständigkeitsbereich des Arbeitgebers fallen (Recht auf Unterrichtung und Anhörung)

Die Lehre geht davon aus, dass rechtliche Schutzmassnahmen, die die Privatsphäre und die Diskretion der Arbeitnehmer garantieren, stumpfe Instrumente sind, wenn es keine Mechanismen gibt, die auch die Stimme der Arbeitnehmer bei der Umsetzung dieser Schutzmassnahmen stärken. In dieser Hinsicht sind kollektive Arbeitsrechte, insbesondere Tarifverhandlungen, die wirksamsten und bewährtesten Instrumente, um Arbeitnehmern eine authentische Stimme bei der Verteilung von Vorteilen oder Kosten der KI- und datengesteuerten «digitalen Revolution» zu geben. Das Arbeitsrecht in der EU gibt den Arbeitgebern das Recht, sich aktiv an der Entscheidung über den Einsatz von Überwachungsinstrumenten am Arbeitsplatz zu beteiligen. Die Arbeitgeber können ihre Bedenken äussern und in einigen Fällen sogar den Einsatz bestimmter Überwachungstechnologien verbieten. Dieser Aspekt wird von den Arbeitnehmern häufig übersehen, aber eine aktive Beteiligung ermöglicht es den Arbeitnehmern, direkt auf Veränderungen der Arbeitsbedingungen einzuwirken, indem sie ihre Sichtweise mitteilen.

Konkret verlangt Artikel 11 der EU-Sicherheitsrichtlinie für Sicherheit und Gesundheitsschutz am Arbeitsplatz, dass die Arbeitgeber die Arbeitnehmer in Diskussionen über die Einführung neuer Technologien am Arbeitsplatz einbeziehen, bevor sie eine DSFA durchführen. Ein ähnlicher Ansatz findet sich in der Richtlinie 2002/14/EG des Rates, die einen Rahmen für die Unterrichtung und Anhörung der Arbeitnehmervertreter «im Hinblick auf eine Einigung über Entscheidungen im Rahmen der Befugnisse des Arbeitgebers» festlegt.

Diese Bestimmungen stehen auch im Einklang mit dem nationalen Arbeitsrecht. Je nach EU-Land kann das innerstaatliche Arbeitsrecht den Arbeitnehmervertretern das Recht auf Anhörung einräumen oder häufig sogar ein Mitbestimmungsrecht vorsehen. Das Recht auf Anhörung ist beispielsweise in Frankreich verwirklicht. Der Arbeitgeber ist verpflichtet, den Betriebsrat anzuhören, bevor er neue Technologien einführt, die sich auf die Arbeitsbedingungen, das Entgelt, die Beschäftigung, die Qualifikation oder die Ausbildung der Arbeitnehmer auswirken können. Wenn der Arbeitgeber die Einrichtung und die freie Bestellung des Betriebsrats behindert oder dessen reguläre Arbeit behindert, kann er mit einem Jahr Haft und/oder einer Geldstrafe bestraft werden.

In Deutschland beispielsweise ist jede Änderung der Arbeitnehmerpolitik, die sich auf den Arbeitsrhythmus auswirkt, mitbestimmungspflichtig. Bei der Mitbestimmung handelt es sich um eine Entscheidungsstruktur innerhalb eines Unternehmens, bei der die Arbeitnehmer und ihre Vertreter Einfluss auf Entscheidungen nehmen, und zwar häufig auf einer höheren Ebene und in einem relativ frühen Stadium. Die Einführung von Geräten, Programmen und Software muss vor der Umsetzung im Detail mit den Betriebsräten verhandelt werden.

Diese Vielfalt an innerstaatlichen Vorschriften kann dazu führen, dass ein internationales Unternehmen in den verschiedenen Ländern unterschiedliche Massnahmen ergreift. Arbeitnehmer in Ländern, in denen das Recht auf Anhörung und Mitbestimmung gilt, haben möglicherweise bessere Arbeitsbedingungen als in anderen Ländern. Deshalb wäre es wichtig, das Arbeitsrecht in der EU zu harmonisieren, um Mitbestimmungsrechte in allen Mitgliedsländern zu gewährleisten.

In der EU haben Arbeitnehmer das Recht, an der Auswahl von KI-basierten Überwachungsinstrumenten am Arbeitsplatz mitzuwirken. Es ist von entscheidender Bedeutung, das Bewusstsein der Arbeitnehmer dafür zu schärfen, dass sie die Entscheidungen ihrer Arbeitgeber über die Einführung von Neuromonitoring-Tools verhandeln und beeinflussen können. So hat beispielsweise der Deutsche Gewerkschaftsbund (DGB) in seinem Konzeptpapier «KI für gute Arbeit» wertvolle Vorschläge zur KI am Arbeitsplatz gemacht, die auch für Neurotechnologien am Arbeitsplatz gelten könnten. In Analogie zu diesem Vorschlag können wir davon ausgehen, dass die Arbeitgeber die Arbeitnehmer im Voraus über die von ihnen geplanten Neuromonitoring-Geräte am Arbeitsplatz informieren und ihnen diese klar erklären sollten. Um effektiv verhandeln zu können, müssen die Arbeitnehmer Zugang zu relevanten Informationen über neue Technologien haben. Daher ist das Wissen der Arbeitnehmer über den technologischen Fortschritt entscheidend für den wirksamen Schutz ihrer Rechte.

Ein weiteres Beispiel ist, dass die Plattformarbeitsrichtlinie auch die Bedeutung der Konsultation von Arbeitnehmern und ihren Vertretern anerkennt, wie in den Artikeln 6, 9 und 12 dargelegt. Die vorgeschlagene Richtlinie zielt darauf ab, den sozialen Dialog über algorithmische Managementsysteme zu fördern, indem sie kollektive Rechte für den Erhalt von Informationen und die Anhörung zu wesentlichen Änderungen im Zusammenhang mit der Nutzung von automatisierten Überwachungs- und Entscheidungsfindungssystemen festlegt. Folglich werden Einzelpersonen, die über Plattformen arbeiten, und ihre Vertreter von einer verbesserten Transparenz und einem besseren Verständnis der algorithmischen Verwaltungspraktiken sowie von einem verbesserten Zugang zu Rechtsmitteln für automatisierte Entscheidungen profitieren, was zu besseren Arbeitsbedingungen führt.

2.5 Die Problematik der KI-basierten Neurotechnologien und die Schwachstellen der DSGVO

Die Erlaubnis für Arbeitgeber, zu Sicherheitszwecken auf die Gehirndaten von Arbeitnehmern zuzugreifen, wirft auch ein Licht auf die potenzielle Schwäche der DSGVO-Gesetzgebung. Wie einige Forscher vermuten, geht die DSGVO nicht auf die neuen Risiken ein, die sich aus der Analyse von Schlussfolgerungen ergeben, da «Einzelpersonen wenig Kontrolle und Aufsicht darüber haben, wie ihre personenbezogenen Daten verwendet werden, um Rückschlüsse auf sie zu ziehen». Sind die Daten erst einmal rechtmässig erlangt, gibt es nur sehr wenig Kontrolle oder Verständnis für die Inferenzanalyse, die ein «Niemandsland» bleibt.

In unserem Fall bedeutet dies, dass die Daten, die rechtmässig zu Sicherheitszwecken erhoben werden, wie z. B. die Überwachung des Ermüdungsgrads und der Wachsamkeit eines Mitarbeiters, zu Verwaltungszwecken mit anderen persönlichen Informationen über den Mitarbeiter, wie z. B. dessen Geschlecht, Alter und Gesundheitszustand, kombiniert werden könnten. Diese kombinierten Daten könnten dann verwendet werden, um Analysen zu erstellen, die die Privatsphäre verletzen, den Ruf einer Person schädigen, Diskriminierung provozieren oder kritische Entscheidungen auf der Grundlage von Vorhersagen oder subjektiven Meinungen treffen, die möglicherweise nicht zuverlässig oder genau sind.

Einige Wissenschaftler nehmen berechtigterweise an, dass in Fällen, in denen neue personenbezogene Informationen abgeleitet werden, wie z. B. bei der Profilerstellung, dies als Schaffung neuer personenbezogener Daten angesehen werden sollte. Dies sollte auch für den Prozess der Re-Identifizierung anonymer oder pseudonymer Daten gelten, wenn diese für Bewertungen und Entscheidungen verwendet werden. Auch die Artikel-29-Datenschutzgruppe liefert wertvolle Kommentare zu diesen Risiken. Darin heisst es, dass es bei der Wiederverwendung personenbezogener Daten für individualisierte Rückschlüsse entscheidend ist, die Legitimität des neuen Zwecks anhand mehrerer Kriterien zu bewerten. Dazu gehören (1) die Bewertung des Abstands zwischen dem neuen Zweck und dem ursprünglichen Zweck, (2) die Prüfung der Übereinstimmung des neuen Zwecks mit den Erwartungen der betroffenen Personen, der Art der Daten und ihrer Auswirkungen auf die Interessen der betroffenen Personen und (3) die Sicherstellung, dass der für die Verarbeitung Verantwortliche angemessene Garantien eingeführt hat, um eine Verarbeitung nach Treu und Glauben zu gewährleisten und unangemessene negative Auswirkungen zu verhindern.

Wenn man davon ausgeht, dass Neurotechnologie am Arbeitsplatz nur aus Sicherheitsgründen erlaubt sein könnte, z. B. zur Überwachung der Müdigkeit bei risikoreichen Tätigkeiten, ist es wichtig, alle anderen Formen der Analyse von Gehirndaten durch Entwickler, Arbeitgeber und andere Parteien strikt zu verbieten. In dieser Hinsicht muss sich das Datenschutzrecht auf die Verwendung, den Schaden und das Risiko der Daten konzentrieren und nicht nur auf die Art der personenbezogenen Daten. Die gesetzliche Vorgabe, dass personenbezogene Daten nur für einen klar definierten Zweck verwendet werden dürfen, muss auf jeden Fall beibehalten werden. Darüber hinaus ist es sinnvoll, die den Neuroüberwachungsinstrumenten zugrunde liegenden Algorithmen gründlich zu untersuchen. In diesem Zusammenhang spielen die Rechtsvorschriften, die die Entwicklung und Nutzung von KI-Systemen regeln, eine wichtige Rolle.

2.6 Die KI-Verordnung und die Neuroüberwachung am Arbeitsplatz

Die Europäische Kommission hat vor kurzem Schritte zur Einführung einer Verordnung unternommen, die harmonisierte Regeln für künstliche Intelligenz festlegt und allgemein als EU-KI-Verordnung bezeichnet wird. Ende 2023 hatten das Europäische Parlament, der Rat der Europäischen Union und die Europäische Kommission in einem als «Trilog» bezeichneten Verhandlungsprozess erfolgreich an der Ausarbeitung einer endgültigen Fassung der Rechtsvorschriften gearbeitet. Der vereinbarte Text wird Anfang 2024 vom EU-Parlament und vom Rat fertiggestellt und angenommen, gefolgt von einer 18-monatigen Übergangszeit, bevor er vollständig in Kraft tritt.

Die KI-Verordnung ist ein umfassender Rahmen «für die Entwicklung, Vermarktung und Nutzung von künstlicher Intelligenz im Einklang mit den Werten der Union». Die KI-Verordnung ersetzt nicht den Schutz, den die DSGVO bietet, sondern überschneidet sich in gewisser Weise mit diesem, obwohl der Anwendungsbereich der DSGVO weiter gefasst und nicht auf personenbezogene Daten beschränkt ist. Sein Ziel ist es, eine technologieneutrale Definition von KI-Systemen festzulegen und sie auf der Grundlage ihres Risikoniveaus zu kategorisieren. Um die Grundrechte, die Gesundheit und die Sicherheit der Menschen zu gewährleisten, werden in der Verordnung verschiedene Anforderungen und Verpflichtungen auf der Grundlage von Kategorien festgelegt, zu denen inakzeptable, hohe, begrenzte und geringe oder minimale Risiken gehören. KI-Systeme, die unannehmbare Risiken darstellen, werden verboten, während eine breite Palette von KI-Systemen mit hohem Risiko mit einer Reihe von Anforderungen und Verpflichtungen zugelassen wird, um Zugang zum EU-Markt zu erhalten. Die KI-Systeme mit minimalem oder geringem Risiko sind meist bedingungslos zugelassen.

Die KI-Verordnung soll den Einsatz von KI-Systemen in verschiedenen Bereichen regeln, darunter die biometrische Identifizierung von Personen, die Verwaltung und der Betrieb kritischer Infrastrukturen, das Bildungswesen, wesentliche private und öffentliche Dienstleistungen, die Strafverfolgung, das Migrations-, Asyl- und Grenzkontrollmanagement, die Justizverwaltung und demokratische Prozesse. Gemäss der KI-Verordnung wird der Einsatz von KI in der Arbeitswelt als hochriskant eingestuft.

Der umfassende Geltungsbereich der KI-Verordnung kann als Nachteil empfunden werden. Einige Wissenschaftler vermuten, dass die KI-Verordnung die Gefahr birgt, ihre Regulierungslösungen zu sehr zu verallgemeinern und die Besonderheiten der verschiedenen Sektoren zu vernachlässigen. Im Zusammenhang mit den Beschäftigungsvorschriften schränkt die KI-Verordnung jedoch nicht die Möglichkeiten der Union und der Mitgliedstaaten ein, spezifischere Vorschriften zu erlassen. Es ermöglicht die Einführung zusätzlicher Vorschriften, um den Einsatz von KI im Arbeitssektor genauer zu regeln.

Generell muss sichergestellt werden, dass die verschiedenen Bestimmungen der KI-Verordnung mit den EU-Rechtsvorschriften verknüpft und koordiniert werden. So müssen beispielsweise das algorithmische Management in der traditionellen Beschäftigung und die Regeln für Plattformarbeiter verglichen und harmonisiert werden.

In der KI-Verordnung werden KI-basierte Neurotechnologiesysteme für die Beschäftigung in zwei Kontexten direkt oder indirekt erwähnt: (a) in Bezug auf unannehmbare Risiken und (b) in Bezug auf KI-basierte Systeme mit hohem Risiko.

2.7 Unannehmbares Risiko

Erstens sieht die KI-Verordnung spezifische Beschränkungen für den Einsatz und die Anwendung von KI vor, die Personen absichtlich manipuliert. Konkret verbietet Artikel 5(a) der KI-Verordnung «das Inverkehrbringen, die Inbetriebnahme oder die Nutzung von KI-Systemen, die unterschwellige Techniken jenseits des Bewusstseins einer Person oder absichtlich manipulative oder täuschende Techniken einsetzen». Ziel dieser Bestimmung ist es, zu verhindern, «dass das Verhalten einer Person oder einer Personengruppe dadurch wesentlich beeinflusst wird, dass ihre Fähigkeit, eine informierte Entscheidung zu treffen, spürbar beeinträchtigt wird und sie dadurch zu einer Entscheidung veranlasst wird, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Personengruppe einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.» Darüber hinaus wird in Erwägungsgrund 29 der KI-Verordnung klargestellt, dass diese Einschränkung auch für «maschinelle Gehirnschnittstellen oder virtuelle Realitäten gilt, da sie ein höheres Mass an Kontrolle darüber ermöglichen, welche Stimuli Personen präsentiert werden, sofern diese ihr Verhalten in einer erheblich schädigenden Weise wesentlich verzerren können».

Obwohl die KI-Verordnung keine ausdrückliche Definition für «Schnittstellen zwischen Maschine und Gehirn» enthält, haben diese Bestimmungen eine positive Wirkung, da sie die Nutzung neurowissenschaftlicher Fortschritte in einer invasiven und aufdringlichen Weise einschränken. Laut Erwägungsgrund 29 kann eine solche Verwendung die Autonomie, Entscheidungsfindung oder freie Wahl einer Person in einer Weise untergraben oder beeinträchtigen, die den Menschen möglicherweise nicht bewusst ist, oder selbst, wenn sie sich dessen bewusst sind, könnten sie getäuscht werden oder nicht in der Lage sein, die Situation zu kontrollieren oder sich dagegen zu wehren. Es scheint, dass die KI-Verordnung im Hinblick auf den Einsatz von Neurotechnologie weiter präzisiert werden muss, insbesondere um deren manipulativen und betrügerischen Einsatz zu verhindern. Dies könnte dadurch erreicht werden, dass die Erhebung von Hirndaten zu manipulativen Zwecken ausdrücklich eingeschränkt wird und die Verwendung von Neurogeräten zur Beeinflussung der Hirnaktivität, z. B. durch Neurostimulation, zu anderen als medizinischen Zwecken verboten wird.

Überraschenderweise enthielt die frühere Fassung der KI-Verordnung in Erwägungsgrund 16 ein viel präziseres Verbot von «Neurotechnologien, die von KI-Systemen unterstützt werden und dazu dienen, neuronale Daten zu überwachen, zu nutzen oder zu beeinflussen, die über Gehirn-Computer-Schnittstellen erfasst werden». Letztlich hat diese Version des Gesetzes den Verhandlungsprozess nicht bestanden.

Zweitens enthält die KI-Verordnung eine wichtige Bestimmung, die KI-Systeme verbietet, die dazu bestimmt sind, den emotionalen Zustand von Personen am Arbeitsplatz zu erkennen. Nach Artikel 5f ist «das Inverkehrbringen, die Inbetriebnahme zu diesem Zweck oder die Verwendung von KI-Systemen zur Ermittlung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen» verboten. In Erwägungsgrund 44 erklärt der Gesetzgeber, dass «ernsthafte Bedenken hinsichtlich der wissenschaftlichen Grundlage von KI-Systemen bestehen, die darauf abzielen, Emotionen zu erkennen oder abzuleiten, zumal der Ausdruck von Emotionen in verschiedenen Kulturen und Situationen und sogar innerhalb einer einzelnen Person sehr unterschiedlich ist.» Infolgedessen haben solche Systeme «eine begrenzte Zuverlässigkeit, mangelnde Spezifität und begrenzte Verallgemeinerbarkeit».

Diese Vorschrift ist als rechtzeitige Reaktion auf bestehende KI-gestützte Instrumente auf dem Arbeitsmarkt gedacht, mit denen die Emotionen eines Bewerbers während eines Vorstellungsgesprächs durch die Analyse von Mimik, Bewegungen, Pulsfrequenz oder Stimme erfasst werden. Die Bestimmung könnte Arbeitgeber auch daran hindern, stark in die Privatsphäre eingreifende EEG-basierte Neurotechnologien zu verwenden, um die Emotionen von Arbeitnehmern zu erkennen.

Artikel 5f enthält eine Ausnahmeregelung, die den Einsatz von KI-Systemen zur Ermittlung der Emotionen von Personen am Arbeitsplatz untersagt, es sei denn, es liegen medizinische oder sicherheitsrelevante Gründe vor. Darüber hinaus wird in Erwägungsgrund 18 zwischen Emotionen und physischen Zuständen unterschieden, die als separate Konzepte behandelt werden. Nach dieser Bestimmung ist es verboten, anhand der biometrischen Daten einer Person deren Emotionen oder Absichten zu erkennen oder Annahmen darüber zu treffen. Dazu gehören Emotionen wie Glück, Traurigkeit, Wut, Überraschung, Ekel, Verlegenheit, Aufregung, Scham, Verachtung, Zufriedenheit und Belustigung. Körperliche Zustände wie Schmerz oder Müdigkeit sind jedoch von diesem Verbot ausgenommen. So können beispielsweise Systeme, die den Müdigkeitszustand von Piloten oder Fahrern erkennen, zur Unfallverhütung eingesetzt werden. Vor diesem Hintergrund hat der Gesetzgeber den Einsatz von KI-Systemen zur Erkennung von Emotionen in arbeitsbezogenen Situationen verboten. Sie haben jedoch Raum gelassen für die Implementierung sicherheitsrelevanter Neurodevices zur Erkennung von Müdigkeit in Hochrisikoberufen unter Einhaltung des Arbeits- und Datenschutzrechts.

Es könnte sinnvoll sein, eine Erweiterung der Liste der inakzeptablen Risiken im Rahmen der KI-Verordnung in Erwägung zu ziehen, um das Verbot der Verwendung neuronaler Daten, die über Gehirn-Computer-Schnittstellen gewonnen werden, um Rückschlüsse auf Arbeitnehmer zu ziehen, aufzunehmen. Das bedeutet, dass Neurodevices nicht dazu verwendet werden sollten, die kognitiven Fähigkeiten von Arbeitnehmern einzuschätzen, um ihre Effizienz, Belastbarkeit und andere persönliche Eigenschaften zu vergleichen. Um Neurodiskriminierung zu verhindern, wäre es sinnvoll, Bestimmungen aufzunehmen, die es Arbeitgebern gänzlich untersagen, die kognitiven Fähigkeiten ihrer Mitarbeiter auf der Grundlage von Neurodaten und KI zu schätzen. Wenn der Arbeitgeber unter bestimmten Umständen den körperlichen Zustand des Arbeitnehmers feststellen könnte, sollte es ihm rechtlich untersagt sein, diese Daten für andere Zwecke als die Unfallverhütung zu verwenden.

Die Richtlinie über Plattformarbeit verfolgt einen ähnlichen Ansatz, wie in Artikel 6 (5) dargelegt, der die Verarbeitung personenbezogener Daten über den emotionalen oder psychologischen Zustand des Plattformarbeiters untersagt. Darüber hinaus sieht der Artikel vor, dass digitale Arbeitsplattformen keine personenbezogenen Daten über Plattformarbeiter verarbeiten dürfen, die nicht untrennbar mit der Erfüllung ihres Vertrags verbunden und für diese unbedingt erforderlich sind. Dazu gehören nicht nur der psychologische oder emotionale Zustand des Plattformarbeiters, sondern auch Daten über private Gespräche, Gesundheit und alle Daten, während der Plattformarbeiter keine Plattformarbeit anbietet oder ausführt.

Zusammenfassend enthält die KI-Verordnung wichtige Bestimmungen, die den Einsatz von KI-Systemen verbieten, die mit absichtlich manipulativen oder betrügerischen Techniken und Emotionserkennung verbunden sind. Diese Bestimmungen sind nicht auf Fälle beschränkt, die mit dem Einsatz von Neurotechnologien und der Verwendung von psychischen Daten zusammenhängen, sondern sie enthalten allgemeine Regeln zum Schutz der psychischen Privatsphäre, der psychischen Integrität und der kognitiven Freiheit auf der Ebene des Sekundärrechts.

2.8 Hochriskante KI-Systeme

KI-Systeme mit hohem Risiko stehen im Mittelpunkt der KI-Verordnung. Sie sind auf dem Markt zugelassen, müssen aber bestimmte verbindliche Anforderungen erfüllen. Solche Systeme können entweder als Sicherheitskomponenten in Produkten eingesetzt werden oder, wie im Gesetz erwähnt, als eine Art eigenständiges Produkt (Artikel 6 der KI-Verordnung).

Gemäss der KI-Verordnung gelten AI-Systeme, die für die Beschäftigung, die Verwaltung von Arbeitnehmern und die Selbstständigkeit eingesetzt werden, als risikoreiche AI-Systeme (Artikel 6 (2), Anhang III KI-Verordnung). Dazu gehören zwei Arten von KI-Systemen, die für bestimmte Zwecke im Zusammenhang mit der Beschäftigung entwickelt wurden:

1. KI-Systeme, die für die Einstellung oder Auswahl natürlicher Personen eingesetzt werden sollen, insbesondere zur Schaltung gezielter Stellenanzeigen, zur Analyse und Filterung von Bewerbungen und zur Bewertung von Bewerbern;

2. KI-Systeme, die dazu bestimmt sind, Entscheidungen zu treffen, die sich auf die Bedingungen arbeitsbezogener Beziehungen, die Förderung oder Beendigung arbeitsbezogener Vertragsverhältnisse auswirken, Aufgaben auf der Grundlage individuellen Verhaltens oder persönlicher Eigenschaften oder Merkmale zuzuweisen oder die Leistung und das Verhalten von Personen in solchen Beziehungen zu überwachen und zu bewerten.

In Erwägungsgrund 57 der KI-Verordnung heisst es, dass die oben genannten KI-Systeme, «die auf individuellem Verhalten, persönlichen Merkmalen oder biometrischen Daten beruhen und der Überwachung oder Bewertung von Personen in arbeitsbezogenen Vertragsverhältnissen dienen, ebenfalls als risikoreich eingestuft werden sollten.» Das liegt daran, dass «diese Systeme die künftigen Berufsaussichten, den Lebensunterhalt dieser Personen und die Rechte der Arbeitnehmer spürbar beeinflussen können». Darüber hinaus «können solche Systeme historisch gewachsene Diskriminierungsmuster fortschreiben, zum Beispiel gegenüber Frauen, bestimmten Altersgruppen, Menschen mit Behinderungen oder Personen bestimmter Rassen, ethnischer Herkunft oder sexueller Orientierung». Ausserdem «können KI-Systeme, die zur Überwachung der Leistung und des Verhaltens dieser Personen eingesetzt werden, auch den Kern ihrer Grundrechte auf Datenschutz und Privatsphäre untergraben».

Darüber hinaus sieht Artikel 26 (7) der KI-Verordnung die Verpflichtung vor, «die Arbeitnehmervertreter und die betroffenen Arbeitnehmer darüber zu informieren, dass sie dem Einsatz des AI-Systems für hohe Risiken ausgesetzt sein werden, bevor ein AI-System für hohe Risiken am Arbeitsplatz in Betrieb genommen oder verwendet wird.» Diese Verpflichtung steht im Einklang mit den Rechtsvorschriften und der Praxis der Union und der Mitgliedstaaten in Bezug auf die Unterrichtung der Arbeitnehmer und ihrer Vertreter. Im Text wird auch betont, dass diese Verordnung nicht die bestehenden Verpflichtungen der Arbeitgeber zur Unterrichtung und Anhörung der Arbeitnehmer oder ihrer Vertreter im Rahmen anderer Rechtsinstrumente ausser Kraft setzt.

Insgesamt stellt die KI-Verordnung einen proaktiven Ansatz dar, um die ethischen und gesellschaftlichen Auswirkungen des KI-Einsatzes am Arbeitsplatz anzugehen und ein integrativeres und gerechteres Arbeitsumfeld für alle zu fördern.

Nach der Analyse der KI-Verordnung lässt sich feststellen, dass der Einsatz von KI-gesteuerten Neurodevices im Bereich der Arbeit als risikoreich gilt. Nach der KI-Verordnung müssen Entwickler von risikoreichen KI-Systemen verschiedene Anforderungen erfüllen. Dazu gehören ein umfassendes Risikomanagement, Data Governance, Überwachungs- und Aufzeichnungspraktiken, eine ausführliche technische Dokumentation, Transparenz und menschliche Aufsichtspflichten sowie Standards für Genauigkeit, Robustheit und Cybersicherheit. KI-Systeme mit hohem Risiko müssen ausserdem in einer EU-weiten öffentlichen Datenbank registriert werden. Wird ein KI-System falsch kategorisiert und/oder werden die entsprechenden Bestimmungen nicht eingehalten, droht eine Geldstrafe von mindestens 5 Millionen oder 1,5 % des weltweiten Umsatzes, je nachdem, welcher Betrag höher ist.

Infolgedessen hat die KI-Verordnung robuste Massnahmen eingeführt, um Arbeitnehmer vor einem möglichen Missbrauch von KI-gestützter Neurotechnologie durch Arbeitgeber zu schützen. Es ist jedoch noch ungewiss, ob Neurodevices, die für Sicherheitszwecke bestimmt sind und als Sicherheitsausrüstung auf den Markt gebracht werden sollen, nach der Bewertung im Rahmen des in Kapitel 2 der KI-Verordnung beschriebenen Risikomanagementsystems als rechtmässig angesehen werden. Es bedarf weiterer Untersuchungen, um festzustellen, wie wirksam die Schutzmassnahmen sind, die die KI-Verordnung für Hochrisikosysteme vorsieht. Es ist erwähnenswert, dass die meisten der (in Artikel 9 der KI-Verordnung genannten) Risikomanagementmassnahmen auf einer Selbsteinschätzung der Technologieentwickler und -implementierer beruhen. Daher ist es von entscheidender Bedeutung, praktische Lösungen abzuwarten und zu sehen, wie die Anforderungen für Hochrisikosysteme in realen Szenarien in die Praxis umgesetzt werden.

3 Schlussfolgerung

Die Ersetzung von Arbeitnehmern durch KI-Tools ist oft die Hauptsorge, wenn über die Zukunft der Arbeit diskutiert wird. Maschinen können datenbasierte Entscheidungen schneller und effizienter treffen als Menschen. Infolgedessen könnten einige Arbeitsplätze durch technologische Innovationen ersetzt werden. Experten sagen jedoch voraus, dass sich der Arbeitsmarkt langsam an diese technologischen Fortschritte anpassen und dieses Problem überwinden wird. Diesen Prognosen zufolge werden gering qualifizierte Arbeitnehmer, die am stärksten von der Verdrängung bedroht sind, wahrscheinlich Aufgaben übernehmen, die weniger anfällig für die Computerisierung sind, wie etwa solche, die Kreativität und soziale Intelligenz erfordern.

Auch wenn die Überwachung der Gedanken eines Mitarbeiters auf den ersten Blick weit hergeholt erscheint, ist sie beim derzeitigen Stand der Technik möglich. Die Konvergenz neuer Technologien wie KI und Neurotechnologien hat die allgegenwärtige Überwachung von Arbeitnehmern auf ein neues Niveau gebracht. Der Einsatz von Neurotechnologien und ihre Auswirkungen auf die Arbeitswelt werden nur noch zunehmen. Die allgegenwärtige und aufdringliche Überwachung von Arbeitnehmern stellt nicht nur ein Risiko für das Recht auf Privatsphäre und Datenschutz dar, sondern auch für das Recht auf gute und faire Arbeitsbedingungen – dies verdient mehr Aufmerksamkeit in der Politik.

Daher ist es auf der Ebene der EU-Gesetzgebung unter dem Gesichtspunkt des Schutzes der Arbeitnehmerrechte von entscheidender Bedeutung, den Versuchen der Arbeitgeber, aufdringliche Neuroüberwachungsmethoden einzusetzen, zuvorzukommen. In dieser Hinsicht sollte die Entscheidung, neue revolutionäre Methoden der Überwachung am Arbeitsplatz einzusetzen, immer unter dem Gesichtspunkt des Nutzens für die Arbeitnehmer als erstes Hindernis für die Einführung einer solchen Technologie beurteilt werden.

Eine Überprüfung der EU-Rechtsvorschriften zeigt, dass die derzeitigen EU-Vorschriften zumindest in der Theorie ein ausreichendes Schutzniveau für Arbeitnehmer bieten. Es gibt jedoch immer noch Bereiche, in denen Unsicherheiten bestehen, die beseitigt werden müssen, um mehr Klarheit zu schaffen. Auf der Grundlage der in diesem Papier vorgestellten Analyse des EU-Rechts lassen sich die abschliessenden Überlegungen und Empfehlungen wie folgt zusammenfassen:

Erstens ist es richtig, dass Arbeitgeber aufgrund der strengen Vorschriften der DSGVO für die Datenverarbeitung rechtliche Risiken eingehen, wenn sie sich für die Einführung von Neuroüberwachung am Arbeitsplatz entscheiden. Dennoch ist es wichtig anzuerkennen, dass, wenn Arbeitgeber diese Massnahmen für die Sicherheit ihrer Mitarbeiter rechtfertigen können, die Möglichkeit besteht, dass sie sie durchführen werden. Daher wird die Rechtmässigkeit der Neuroüberwachung am Arbeitsplatz unter diesen Umständen weitgehend davon abhängen, dass wirksame Massnahmen zum Schutz der Privatsphäre der Arbeitnehmer ergriffen und Grundsätze wie die Verhältnismässigkeit und die Subsidiarität der Erhebung von Hirndaten beachtet werden. In dieser Hinsicht könnte der EDSA als erste Massnahme eine klärende Rolle spielen, indem er Empfehlungen verabschiedet, die Hirndaten ausdrücklich als sensibel anerkennen und faire Leitlinien für die Bedingungen ihrer Verarbeitung vorgeben. Insbesondere könnte der EDSA den Grundsatz der Verhältnismässigkeit definieren, indem er sowohl die Bedürfnisse und Interessen der Arbeitnehmer als auch die Interessen des Unternehmens berücksichtigt. In diesem Zusammenhang könnte ein klares Kriterium für die Verhältnismässigkeit darin bestehen, dass der Einsatz der Neurotechnologie nicht nur für den Arbeitgeber, sondern auch für die Sicherheit der Arbeitnehmer greifbare Vorteile bringt.

Ein weiterer gängiger Vorschlag ist die Definition von Gehirndaten als eine besondere Kategorie sensibler Daten im Rahmen der DSGVO. Diese Kennzeichnung ist zwar hilfreich, aber unzureichend, denn sobald die Daten erhoben sind, wird es für die Arbeitnehmer zu einer weiteren Herausforderung, ihre Verwendung zu kontrollieren. Daher ist es von entscheidender Bedeutung, sich darauf zu konzentrieren, wie Hirndaten verwendet werden, und ihre aufdringliche und manipulative Verwendung einzuschränken.

Zweitens verbietet die KI-Verordnung die KI-basierten Neurotechnologien, die mit Neuro-Manipulation, Gedankenlesen und Emotionserkennung im Arbeitsbereich verbunden sind. Dies ist nützlich, aber es sind weitere Massnahmen erforderlich. Es ist von entscheidender Bedeutung, die Liste der inakzeptablen Risiken im Rahmen der KI-Verordnung zu erweitern, einschliesslich des Verbots der Verwendung neuronaler Daten, die über Gehirn-Computer-Schnittstellen gewonnen werden, um Rückschlüsse auf Arbeitnehmer zu ziehen. Das bedeutet, dass Neurodevices nicht dazu verwendet werden dürfen, die kognitiven Fähigkeiten von Arbeitnehmern einzuschätzen, um ihre Effizienz, Belastbarkeit und andere persönliche Eigenschaften zu vergleichen. Es besteht ein dringender Bedarf an umfassender normativer und rechtlicher Forschung und einem breiteren öffentlichen Diskurs, um die Komplexität der Neurodiskriminierung anzugehen. Die Bewertung der kognitiven Fähigkeiten im Beschäftigungskontext muss als Diskriminierungsgrund definiert werden.

Drittens soll die KI-Verordnung eine breite Anwendbarkeit über mehrere Sektoren hinweg haben, und nicht nur in Bezug auf die Arbeitsbeziehungen, die durch das Gesetz eher beiläufig geregelt werden. Daher ist es wichtig, sich weiter auf den Arbeitssektor zu konzentrieren, wenn man in Betracht zieht, dass Arbeitgeber möglicherweise KI-basierte Neurodevices zur Überwachung der psychischen Verfassung von Arbeitnehmern einsetzen. Es wäre sinnvoll, spezifische Standards für den Einsatz von Neurotechnologie in verschiedenen Branchen festzulegen. Da beispielsweise die Neuroüberwachung in Hochrisikoberufen wie bei Fahrern von Hochgeschwindigkeitszügen und Bedienern von Schwermaschinen immer häufiger zum Einsatz kommt, ist es unerlässlich, auf diese Bereiche zugeschnittene Erklärungen zur verantwortungsvollen Nutzung zu entwickeln. Die erste Phase bei der Entwicklung eines solchen Kodex bewährter Praktiken sollte eine Diskussion mit Gewerkschaften, Industrievertretern und Technologieentwicklern umfassen, um eine Kultur des Vertrauens zwischen den Parteien zu fördern.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Muhl E (2024) The challenge of wearable neurodevices for workplace monitoring: an EU legal perspective

https://www.frontiersin.org/journals/human-dynamics/articles/10.3389/fhumd.2024.1473893/full

http://creativecommons.org/licenses/by/4.0/

doi: 10.3389/fhumd.2024.1473893

Übersetzung Swiss Infosec AG


© Swiss Infosec AG 2024