EU hat geliefert: Weltweit erster AI-Act wurde verabschiedet

Die EU versucht, Anwendungen der Künstlichen Intelligenz so offen wie möglich zu regulieren. Das Prinzip ist einfach: Je höher die Risiken von KI-Anwendungen für den Menschen oder die Gesellschaft sind, desto stärker werden sie kontrolliert oder eingeschränkt. Das ist ein demokratischer, gesellschaftlicher Aushandlungsprozess.

Das Europäische Parlament hat am 13. März 2024 ein neues Gesetz verabschiedet, das Regeln für künstliche Intelligenz (KI) festlegt. Es ist das weltweit erste Gesetz dieser Art. Nach dem neuen Regelwerk werden KI-Systeme künftig in verschiedene Risikogruppen eingeteilt. Je nachdem, wie riskant eine KI-Anwendung für den Menschen oder die Gesellschaft ist, gelten nun strengere Regeln. In Oslo arbeiten Forscher*innen mit KI, um frühzeitig zu erkennen, wenn Konflikte drohen, indem sie genau hinschauen, was diese Konflikte auslösen könnte. Ziel des Gesetzes und der Forschung ist es, den Nutzen von KI zu erhöhen, aber auch sicherzustellen, dass sie keine Probleme verursacht.

AI-Act

Der AI-Act basiert auf dem ersten EU-Rechtsrahmen für KI, der im April 2021 vorgeschlagen wurde. Darin wurde bereits empfohlen, Ki-Systeme in verschiedene Risikokategorien einzuordnen. Die verschiedenen Risikostufen werden unterschiedlich stark reguliert.

Das Europäische Parlament will vor allem sicherstellen, dass in der EU eingesetzte KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten durch Menschen und nicht durch Automatisierung überwacht werden, um schädliche Ergebnisse zu vermeiden. Das Parlament möchte ausserdem eine einheitliche, technologieneutrale Definition von KI festlegen, die auf zukünftige KI-Systeme angewendet werden kann.

Die Verordnung wurde im Parlament mit 523 Ja-Stimmen, 46 Nein-Stimmen und 49 Enthaltungen angenommen. Parlament und Rat hatten sich bereits im Dezember 2023 auf den Verordnungstext geeinigt.

Risikoeinstufung

  • Unannehmbares Risiko

Bestimmte KI-Anwendungen, die gegen die Werte der EU verstossen, sollen gänzlich verboten werden. Dazu gehört beispielsweise die Bewertung des Sozialverhaltens, das sogenannte Social Scoring, das in China eingesetzt wird. Auch die Erkennung von Emotionen am Arbeitsplatz und in Bildungseinrichtungen soll es in der EU nicht geben.

Auch die Gesichtserkennung im öffentlichen Raum, etwa durch Videoüberwachung an öffentlichen Plätzen, soll grundsätzlich nicht erlaubt sein. Allerdings soll es Ausnahmen geben: Polizei und andere Sicherheitsbehörden sollen eine solche Gesichtserkennung im öffentlichen Raum zur Verfolgung ganz bestimmter Straftaten wie Menschenhandel oder Terrorismus einsetzen dürfen.

  • Hochrisiko-KI-Systeme

Bestimmte KI-Systeme, die erhebliche Risiken für Gesundheit, Sicherheit, Grundrechte usw. bergen, müssen strengen Vorschriften unterliegen. Dazu gehören KI-Anwendungen in Schlüsselbereichen wie Infrastruktur, Bildung, Arbeit, Gesundheit, Bankwesen, Polizei, Grenzkontrolle, Justiz und Wahlen. Diese Systeme müssen Risiken bewerten und mindern, ihre Nutzung aufzeichnen, klare und genaue Informationen liefern und unter menschlicher Aufsicht stehen.

Menschen können Beschwerden über diese KI-Systeme einreichen und Erklärungen für Entscheidungen verlangen, die sie betreffen.

  • Transparenzanforderungen

KI-Systeme müssen bestimmte Transparenzanforderungen erfüllen, darunter die EU-Urheberrechte einhalten und offenlegen, wie mit welchen Trainingsdaten das KI-System gefüttert wurde.

Mächtigere Modelle, die möglicherweise grössere Risiken bergen, müssen zusätzlichen Tests unterzogen werden und Risiken und Probleme offenlegen. Ausserdem müssen Inhalte, die von KI erstellt oder verändert werden – wie Bilder oder Videos (z. B. Deepfakes) – klar als von KI erstellt gekennzeichnet werden, damit die Nutzenden wissen, wenn es sich um solche KI generierten Inhalte handelt.

What’s next?

Die Mitgliedstaaten konnten sich nun im März auf den Text der Konvention einigen, der als nächstes im Mai 2024 vom Ministerkomitee verabschiedet wird. Für die Mitgliedstaaten bedeutet dies nun, dass sie zunächst schrittweise die verbotenen Systeme ausser Betrieb nehmen müssen. Nach zwei Jahren müssen alle Punkte des AI-Acts vollständig umgesetzt sein.

Und die Schweiz?

Die Schweiz hat sich Ende November 2023 der Gruppe der Länder angeschlossen, welche die Regulierungsansätze befürworten. Das Eidgenössische Departement für Umwelt, Verkehr, Energie und Kommunikation (UVEK) wurde beauftragt, bis Ende 2024 eine entsprechende Analyse der Regulierungsansätze durchzuführen. Dabei sollen auch die Bundesämter einbezogen werden. Dies hat der Bundesrat in einer Medienmitteilung bekannt gegeben.

Mit der Analyse will der Bundesrat die Grundlagen schaffen, um 2025 einen konkreten Auftrag für eine KI-Regulierungsvorlage erteilen und die Zuständigkeiten regeln zu können.

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95