05/2022 – Fachartikel Swiss Infosec AG
- Was bezweckt der AI Act?
- Sind Schweizer Unternehmen von der neuen EU-Verordnung betroffen?
- Was sind «AI-Systeme»? Wie erfolgt deren Kategorisierung? Welchen Anforderungen unterliegen sie?
- Begriff «AI-Systeme
- Anwendungsbereich
- Stufensystem für AI-Anwendungen
- Welche Sanktionen sind möglich?
- Frist und Ausblick
Die EU will als erste Institution den Einsatz von «Artificial Intelligence» (kurz: «AI», deutsch: Künstliche Intelligenz) regulieren und damit einen internationalen Standard setzen. Faktisch ist unser Alltag von Algorithmen und AI-Anwendungen bestimmt. AI hat das Potenzial, die heutige Technologie auf ein neues Level zu bringen, ist aber oft schwer zu verstehen oder zu kontrollieren. Automatisierte Entscheidungssysteme können im Extremfall Personen in Gefahr bringen oder bei der Vergabe von Jobs, Studienplätzen oder in der medizinischen Versorgung zu unfairen Entscheidungen führen. Die Betroffenen wissen häufig weder wie ein System darüber entscheidet noch wie der genaue Vorgang abläuft, oder welche Daten als Grundalge verwendet werden. Folglich ist es für Betroffene schwer oder gar unmöglich, gegen Entscheidungen vorzugehen.
Der AI Act soll hier Abhilfe schaffen und die Grundrechte von Personen besser schützen wie auch das Vertrauen der Gesellschaft in AI-Anwendungen stärken. In der Folge müssen sich Unternehmen künftig um ihre AI Compliance kümmern.
Was bezweckt der AI Act?
Der AI Act bezweckt die Schaffung eines einheitlichen Rechtsrahmens für die Entwicklung, Vermarktung und Nutzung von AI, die den Werten der EU entsprechen. Der freie grenzüberschreitende Verkehr von AI-basierten Waren und Dienstleistungen soll gewährleistet, und EU Mitgliedstaaten sollen daran gehindert werden, die Entwicklung, Vermarktung und Nutzung von AI-Systemen in einer Weise voranzutreiben, die nicht im AI Act vorgesehen sind. Dabei geht es um den Schutz von Allgemeininteressen wie Gesundheit, Sicherheit und Grundrechte.
Sind Schweizer Unternehmen von der neuen EU-Verordnung betroffen?
Der AI Act wird auch Auswirkungen auf die Schweiz haben. Die Verordnung ist anwendbar, wenn ein AI-System innerhalb der EU eingesetzt oder dessen Output in der EU «verwendet» wird. Dies trifft zum Beispiel zu, wenn Schweizer Unternehmen ihre Systeme anderen Unternehmen, öffentlichen Stellen oder Personen innerhalb der EU zugänglich machen, oder, wenn eine in der Schweiz von einem AI-basierten System getroffene Prognose, Empfehlung oder Entscheidung innerhalb der EU «verwendet» wird.
Was sind «AI-Systeme»? Wie erfolgt deren Kategorisierung? Welchen Anforderungen unterliegen sie?
1. Begriff «AI-Systeme»
Die Definition von «AI-Systemen» ist weit gefasst und umfasst unter anderem die Bereiche des maschinellen Lernens, der Experten- und Logistiksysteme, die Bayessche Schätz-, Such- und Optimierungsmethoden sowie weitere statistische Ansätze, die oft bei automatisierten Entscheidungsfindungen hinterlegt sind.
2. Anwendungsbereich
Der AI Act ist anwendbar auf:
- Anbieter, die AI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen, unabhängig davon, ob diese Anbieter in der EU oder in einem Drittland ansässig sind,
- Nutzer von AI-Systemen mit Sitz in der EU sowie
- Anbieter und Nutzer von AI-Systemen, die in einem Drittland ansässig sind, wenn der von dem System erzeugte Output in der EU «verwendet» wird.
3. Stufensystem für AI-Anwendungen
Der AI Act folgt einem risikobasierten Ansatz ganz nach dem Credo «je höher das Risiko einer Nutzungsart eines AI, desto strenger die Regeln». Die AI-Anwendungen werden demnach in vier Risikokategorien eingeteilt:
- Unacceptable risk: AI-Anwendungen in dieser Kategorie werden gänzlich verboten, da sie eine «klare Bedrohung» darstellen (z.B. «Social Scoring», Gesichtserkennungssysteme im öffentlichen Raum zur biometrischen Identifizierung von Personen im Bereich der Strafverfolgung).
- High risk: Im AI Act werden vorwiegend AI-Systeme dieser Kategorie reguliert. Dabei handelt es sich um «potenziell bedrohliche» AI-Anwendungen. Diese werden nicht verboten, müssen aber für die Zulassung auf dem EU-Markt strengen Voraussetzungen genügen. Die Einstufung als «high risk» bezieht sich nicht nur auf die ausgeführte Tätigkeit des AI-Systems, sondern auch auf den Zweck, für den das System verwendet wird. Es handelt sich um AI-Anwendungen, die in grundrechtssensiblen Bereichen Entscheidungen über Menschen treffen. Darunter fallen
- private und öffentliche Dienstleistungen (z.B. Bewertung der Kreditwürdigkeit, wodurch Personen die Möglichkeit verwehrt wird, ein Darlehen zu erhalten),
- Sicherheitskomponenten in der kritischen Infrastruktur (z.B. in der Verkehrssteuerung, Energieversorgung), in denen das Leben und die Gesundheit von Personen gefährdet werden kann,
- Sicherheitskomponenten von Produkten (z.B. AI-Anwendungen für roboterassistierte Operationen),
- Anwendungen im Bildungswesen (z.B. Software für die Prüfungsbewertung oder für den Prüfungszugang),
- Anwendungen im Berufsleben (z.B. zur Auswertung von Lebensläufen) oder
- Systeme zur Unterstützung der Strafverfolgungsbehörden sowie
- Systeme in der Justizverwaltung.
«High risk» AI-Anwendungen unterliegen erhöhten Anforderungen. Vorgänge für die Rückverfolgbarkeit von Ergebnissen sind zu protokollieren und mit allen erforderlichen Informationen über das System sowie seinen Zweck zu dokumentieren. Überdies sind Risikobewertungs- und Risikominderungssysteme zu implementieren. Eine hohe Qualität der in das System einzuspeisenden Datensätze ist zu gewährleisten. Zur Minimierung von Risiken sind klare und angemessene Informationen für die Nutzer sowie eine angemessene menschliche Aufsicht bereitzustellen.
- Limited risk: Der AI Act sieht für diese Anwendungen weitestgehend keine Regulierung vor, um innovationsfreundliche Bedingungen zu schaffen. Er sieht lediglich bestimmte Transparenzpflichten vor (z.B. Chatbots, Deep Fakes), wonach dem Nutzer solcher Systeme bewusst sein muss, dass er mit einer AI interagiert.
- Minimal risk: Der Grossteil von AI-Anwendungen wird in diesen Bereich eingestuft und im Entwurf überhaupt nicht erfasst (z.B. Videospiele, Suchalgorithmen oder Spamfilter).
Welche Sanktionen sind möglich?
Es drohen Bussgelder bis zu EUR 30 Millionen oder 6% des weltweiten Jahresumsatzes.
Frist und Ausblick
Der AI Act wird voraussichtlich noch 2022 in Kraft treten, wobei eine zweijährige Frist für die Entwicklung von Standards und Governance-Strukturen geplant ist, bevor sie 2024 vollständig umgesetzt wird.
Gerne beantworten wir Ihre Fragen oder helfen Ihnen bei der Umsetzung interner Prozesse für die Einhaltung des neuen EU AI Acts.
Swiss Infosec AG; 29.04.2022
Kompetenzzentrum Datenschutz