ADM-Systeme sind bereits vielerorts in unseren Alltag integriert, ohne dass wir darüber ein tatsächliches Bewusstsein haben. Zweifellos bietet der Einsatz von ADM-Systemen ein grosses Potenzial. Gleichzeitig birgt er aber auch erhebliche Risiken – vor allem, wenn solche Systeme nicht mit der nötigen Sorgfalt eingesetzt werden. Die ADM-Systeme operieren auf Grundlage von Algorithmen. Dabei kann es zu algorithmischen Verzerrungen kommen, sogenannten «Bias«, welche unter Umständen bestimmte Personen oder Gruppen benachteiligen. Sie können den Zugang der Menschen zur Beteiligung, zu öffentlichen Gütern und Dienstleistungen einschränken und Grundrechte verletzen.
Durch den Einsatz von ADM-Systemen und das Erkennen von potenziellen Risiken, wurde der Ruf nach rechlichten Forderungen lauter. Bereits im April 2021 hat die EU reagiert und einen Vorschlag zum Umgang mit KI (Künstlicher Intelligenz) verfasst. Im Blogbeitrag: «Was macht diese KI eigentlich?» haben wir das Thema und die Anstrengungen durch die EU bereits genauer beleuchtet.
Nun zieht auch die Schweiz nach. Der Verein „Digitale Gesellschaft“ veröffentlichte im Februar 2022 den Vorschlag: „Position der Digitalen Gesellschaft zur Regulierung von automatisierten Entscheidungssystemen“. Mit dem Positionspapier möchte die Gesellschaft, die ADM-Systeme in einen rechtlichen Rahmen einbetten. Der Verein „Digitale Gesellschaft“ ist gemeinnützig organisiert und setzt sich für eine nachhaltige, demokratische und freie Öffentlichkeit im digitalen Zeitalter ein. Ihr Anliegen ist es, in einer digital vernetzten Welt, die Grundrechte für alle zu wahren.
Risikoeinschätzung von ADM-Systemen
Der Rechtsrahmen verfolgt eine Mischform zwischen schadens- und risikobasiertem Ansatz. Beim schadensbasierten Ansatz, werden erst Sanktionen ausgesprochen, wenn ein Schadensfall vorliegt. Im risikobasierten Ansatz, müssen die ADM-Systeme vorab in Risikokategorien eingeordnet werden und unterliegen im Falle einer risikoreichen Anwendung bestimmten Auflagen.
Die Besitzer:innen von ADM-Systemen müssen das Risiko ihrer Systeme für die Gesundheit, Sicherheit und Grundrechte von Individuen und der Gesellschaft einschätzen und kategorisieren:
- Kategorie «tiefes Risiko»: Ein geringes Risiko für Individuen und kein Risiko für die Gesellschaft.
- Kategorie «hohes Risiko»: Transparenz- und Sorgfaltspflicht damit das Risiko für die Öffentlichkeit eingeschätzt werden kann und den Nutzen ermöglicht.
- Kategorie «inakzeptables Risiko»: Ein unvertretbar hohes Risiko für Individuen oder die Gesellschaft. Diese Anwendungen werden verboten.
Das ganze Paper kann hier nachgelesen werden. Im folgenden ist ein Doku-Tipp zu finden. Diese Doku widmet sich der Künstlichen Intelligenz und zeigt die Chancen sowie Grenzen von KI auf.
Quellen:
Jaun, R. (2022). Digitale Gesellschaft will automatisierte Entscheidungssysteme regulieren. [16.11.22]
Krempl, S. (2021).Automatische Entscheidungen per Algorithmus: Wenige positive Beispiele in Europa. [16.11.22]
Leese, M (2018). Predictive Policing in der Schweiz: Chancen, Herausforderungen, Risiken. [16.11.22]
Sommer, S. (2022). Digitale Gesellschaft veröffentlicht Positionspapier mit einem konkreten Vorschlag für einen rechtlichen Rahmen. [16.11.22]
Wüstholz, F. & Kaufmann, D. (2021). Die Software sagt, wer den Job bekommt. [16.11.22]