Das Europäische Parlament hat am 13. März 2024 ein neues Gesetz verabschiedet, das Regeln für künstliche Intelligenz (KI) festlegt. Es ist das weltweit erste Gesetz dieser Art. Nach dem neuen Regelwerk werden KI-Systeme künftig in verschiedene Risikogruppen eingeteilt. Je nachdem, wie riskant eine KI-Anwendung für den Menschen oder die Gesellschaft ist, gelten nun strengere Regeln. In Oslo arbeiten Forscher*innen mit KI, um frühzeitig zu erkennen, wenn Konflikte drohen, indem sie genau hinschauen, was diese Konflikte auslösen könnte. Ziel des Gesetzes und der Forschung ist es, den Nutzen von KI zu erhöhen, aber auch sicherzustellen, dass sie keine Probleme verursacht.
AI-Act
Der AI-Act basiert auf dem ersten EU-Rechtsrahmen für KI, der im April 2021 vorgeschlagen wurde. Darin wurde bereits empfohlen, Ki-Systeme in verschiedene Risikokategorien einzuordnen. Die verschiedenen Risikostufen werden unterschiedlich stark reguliert.
Das Europäische Parlament will vor allem sicherstellen, dass in der EU eingesetzte KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten durch Menschen und nicht durch Automatisierung überwacht werden, um schädliche Ergebnisse zu vermeiden. Das Parlament möchte ausserdem eine einheitliche, technologieneutrale Definition von KI festlegen, die auf zukünftige KI-Systeme angewendet werden kann.
Die Verordnung wurde im Parlament mit 523 Ja-Stimmen, 46 Nein-Stimmen und 49 Enthaltungen angenommen. Parlament und Rat hatten sich bereits im Dezember 2023 auf den Verordnungstext geeinigt.
Risikoeinstufung
- Unannehmbares Risiko
Bestimmte KI-Anwendungen, die gegen die Werte der EU verstossen, sollen gänzlich verboten werden. Dazu gehört beispielsweise die Bewertung des Sozialverhaltens, das sogenannte Social Scoring, das in China eingesetzt wird. Auch die Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen soll es in der EU nicht geben.
Auch die Gesichtserkennung im öffentlichen Raum, etwa durch Videoüberwachung an öffentlichen Plätzen, soll grundsätzlich nicht erlaubt sein. Allerdings soll es Ausnahmen geben: Polizei und andere Sicherheitsbehörden sollen eine solche Gesichtserkennung im öffentlichen Raum zur Verfolgung ganz bestimmter Straftaten wie Menschenhandel oder Terrorismus einsetzen dürfen.
- Hochrisiko-KI-Systeme
Bestimmte KI-Systeme, die erhebliche Risiken für Gesundheit, Sicherheit, Grundrechte usw. bergen, müssen strengen Vorschriften unterliegen. Dazu gehören KI-Anwendungen in Schlüsselbereichen wie Infrastruktur, Bildung, Arbeit, Gesundheit, Bankwesen, Polizei, Grenzkontrolle, Justiz und Wahlen. Diese Systeme müssen Risiken bewerten und mindern, ihre Nutzung aufzeichnen, klare und genaue Informationen liefern und unter menschlicher Aufsicht stehen.
Menschen können Beschwerden über diese KI-Systeme einreichen und Erklärungen für Entscheidungen verlangen, die sie betreffen.
- Transparenzanforderungen
KI-Systeme müssen bestimmte Transparenzanforderungen erfüllen, darunter die EU-Urheberrechte einhalten und offenlegen, wie mit welchen Trainingsdaten das KI-System gefüttert wurde.
Mächtigere Modelle, die möglicherweise grössere Risiken bergen, müssen zusätzlichen Tests unterzogen werden und Risiken und Probleme offenlegen. Ausserdem müssen Inhalte, die von KI erstellt oder verändert werden – wie Bilder oder Videos (z. B. Deepfakes) – klar als von KI erstellt gekennzeichnet werden, damit die Nutzenden wissen, wenn es sich um solche KI generierten Inhalte handelt.
What’s next?
Die Mitgliedstaaten konnten sich nun im März auf den Text der Konvention einigen, der als nächstes im Mai 2024 vom Ministerkomitee verabschiedet wird. Für die Mitgliedstaaten bedeutet dies nun, dass sie zunächst schrittweise die verbotenen Systeme ausser Betrieb nehmen müssen. Nach zwei Jahren müssen alle Punkte des AI-Acts vollständig umgesetzt sein.
Und die Schweiz?
Die Schweiz hat sich Ende November 2023 der Gruppe der Länder angeschlossen, welche die Regulierungsansätze befürworten. Das Eidgenössische Departement für Umwelt, Verkehr, Energie und Kommunikation (UVEK) wurde beauftragt, bis Ende 2024 eine entsprechende Analyse der Regulierungsansätze durchzuführen. Dabei sollen auch die Bundesämter einbezogen werden. Dies hat der Bundesrat in einer Medienmitteilung bekannt gegeben.
Mit der Analyse will der Bundesrat die Grundlagen schaffen, um 2025 einen konkreten Auftrag für eine KI-Regulierungsvorlage erteilen und die Zuständigkeiten regeln zu können.
Quellen:
AlgorithmWatch (2024). Europarat schafft Rahmenbedingungen für Künstliche Intelligenz. [2.4.24]
Europäisches Parlament (2024). KI-Gesetz: erste Regulierung der künstlichen
Intelligenz. [2.4.24]
Europäisches Parlament (2024). Gesetz über künstliche Intelligenz: Parlament verabschiedet wegweisende Regeln. [2.4.24]
Fulterer (2024). Neues KI-Gesetz der EU: «Kann es die ‹böse› Innovation blockieren und die gute ermöglichen?» [2.4.24]
Ibrahim, S. (2023). Regulierung von Künstlicher Intelligenz: Hat die Schweiz den Zug verpasst? [2.4.24]
Nano (2024). KI-Gesetz – Weltweit erstes Gesetz zur Künstlichen Intelligenz. [2.4.24]
NZZ (2024). Weltweit erstes Gesetz zur KI: Das EU-Parlament verschärft die Regeln für Künstliche Intelligenz. [2.4.24]
SRF (2024). EU-Gesetz für Umgang mit KI – was bedeutet das konkret? [2.4.24]
Watson (2024). Europarat-Komitee gibt der KI einen juristischen Rahmen. [2.4.24]