Vermehrt begegnen wir im Alltag Systemen die automatisierte Entscheidungen für uns treffen. Diese ADM-Systeme (Automated Decision Making Systems) bestimmen beispielsweise, welche Nachrichten wir auf Nachrichtenportalen oder Sozialen Medien sehen, machen Risikobewertungen und haben Einfluss darauf, welche Versicherungsleistungen wir bekommen oder wie kreditwürdig wir eingeschätzt werden. Mit Predictive-Policing-Systemen, wird den Polizeibeamten vorhergesagt, wo ein präventiver Einsatz nötig sein könnte.

ADM-Systeme sind bereits vielerorts in unseren Alltag integriert, ohne dass wir darüber ein tatsächliches Bewusstsein haben. Zweifellos bietet der Einsatz von ADM-Systemen ein grosses Potenzial. Gleichzeitig birgt er aber auch erhebliche Risiken – vor allem, wenn solche Systeme nicht mit der nötigen Sorgfalt eingesetzt werden. Die ADM-Systeme operieren auf Grundlage von Algorithmen. Dabei kann es zu algorithmischen Verzerrungen kommen, sogenannten «Bias«, welche unter Umständen bestimmte Personen oder Gruppen benachteiligen. Sie können den Zugang der Menschen zur Beteiligung, zu öffentlichen Gütern und Dienstleistungen einschränken und Grundrechte verletzen.

Durch den Einsatz von ADM-Systemen und das Erkennen von potenziellen Risiken, wurde der Ruf nach rechlichten Forderungen lauter. Bereits im April 2021 hat die EU reagiert und einen Vorschlag zum Umgang mit KI (Künstlicher Intelligenz) verfasst. Im Blogbeitrag: «Was macht diese KI eigentlich?» haben wir das Thema und die Anstrengungen durch die EU bereits genauer beleuchtet.

Nun zieht auch die Schweiz nach. Der Verein „Digitale Gesellschaft“ veröffentlichte im Februar 2022 den Vorschlag: „Position der Digitalen Gesellschaft zur Regulierung von automatisierten Entscheidungssystemen“. Mit dem Positionspapier möchte die Gesellschaft, die ADM-Systeme in einen rechtlichen Rahmen einbetten. Der Verein „Digitale Gesellschaft“ ist gemeinnützig organisiert und setzt sich für eine nachhaltige, demokratische und freie Öffentlichkeit im digitalen Zeitalter ein. Ihr Anliegen ist es, in einer digital vernetzten Welt, die Grundrechte für alle zu wahren. 

Risikoeinschätzung von ADM-Systemen

Der Rechtsrahmen verfolgt eine Mischform zwischen schadens- und risikobasiertem Ansatz. Beim schadensbasierten Ansatz, werden erst Sanktionen ausgesprochen, wenn ein Schadensfall vorliegt. Im risikobasierten Ansatz, müssen die ADM-Systeme vorab in Risikokategorien eingeordnet werden und unterliegen im Falle einer risikoreichen Anwendung bestimmten Auflagen. 

Die Besitzer:innen von ADM-Systemen müssen das Risiko ihrer Systeme für die Gesundheit, Sicherheit und Grundrechte von Individuen und der Gesellschaft einschätzen und kategorisieren:

  • Kategorie «tiefes Risiko»: Ein geringes Risiko für Individuen und kein Risiko für die Gesellschaft.
  • Kategorie «hohes Risiko»: Transparenz- und Sorgfaltspflicht damit das Risiko für die Öffentlichkeit eingeschätzt werden kann und den Nutzen ermöglicht. 
  • Kategorie «inakzeptables Risiko»: Ein unvertretbar hohes Risiko für Individuen oder die Gesellschaft. Diese Anwendungen werden verboten.

Das ganze Paper kann hier nachgelesen werden. Im folgenden ist ein Doku-Tipp zu finden. Diese Doku widmet sich der Künstlichen Intelligenz und zeigt die Chancen sowie Grenzen von KI auf.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95