Think Tank Medien und Informatik

Think Tank Medien und Informatik

Logo der PHBern
Input - Output
Moderne KI-Systeme übernehmen immer mehr Aufgaben für uns Menschen. Teilweise werden die Systeme als „Black Boxes“ kritisiert, das heisst den Anwender:innen und Entwickler:innen ist ihre Ergebnisfindung nicht klar. Damit das Vertrauen in KI-Systeme wächst und sie nach rechtlichen Massstäben arbeiten, muss die Ergebnisfindung der Systeme nachvollziehbar sein.

Zur künstlichen Intelligenz (KI) gehören Systeme, die die Informationsverarbeitung des Gehirns durch künstliche neuronale Netze nachahmen. Dabei werden Informationen als Input (Eingabe) in das System eingegeben, mittels Algorithmen verarbeitet und anschliessend wieder als Output (Ausgabe) ausgegeben. In der klassischen Softwareentwicklung wird die Ergebnisfindung durch den Algorithmus von der Eingabe bis zur Ausgabe Schritt für Schritt entwickelt. Im Gegensatz dazu, ist die Ergebnisfindung zwischen Eingabe und Ausgabe bei Systemen der künstlichen Intelligenz durch Machine Learning (ML) unterstützt.

KI-Systeme mit Machine Learning (ML) Algorithmen werden mit umfassenden Eingabe- sowie Ausgabe-Daten trainiert. Das ML-Modell hilft dabei gewünschte Muster (Pattern) zu finden und bildet anschliessend den Zusammenhang zwischen Eingabe und Ausgabe ab. Wie die Ausgaben, aufgrund der gegebenen Eingaben, tatsächlich entstanden sind, bleibt ohne entsprechende Massnahmen unbekannt und bringt zahlreiche Gefahren mit sich.

Unternehmen in der Verantwortung

Unternehmen, die Künstliche Intelligenz (KI) einsetzen, müssen sich ihrer Verantwortung bewusst sein. Sie sind verantwortlich dafür, zu überprüfen was ihre KI tatsächlich tut und zu versichern, dass sie nach rechtlichen und ethischen Massstäben handelt.  Wesentliche Prinzipien dabei sind Transparenz, Erklärbarkeit und Fairness. Viele KI-Anwendungen müssen in Zukunft der KI-Verordnung der EU genügen.

In der Verordnung werden KI-Systeme in Risikokategorien eingeteilt:

  • unzulässig
  • hoch
  • begrenzt
  • minimal

Je nachdem in welche Risikokategorie ein KI-System fällt, wird an das KI-System andere Anforderungen gestellt. Nach der EU-Verordnung gelten KI-Systeme, „die in den Bereichen Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit eingesetzt werden, insbesondere für die Einstellung und Auswahl von Personen“, als Hochrisiko-KI-Systeme und unterliegen zahlreichen Vorgaben. Beispielsweise fällt so eine KI, die eingehende Bewerbungen anstelle des Menschen vorsortiert, in die Kategorie hoch. Es kann sein, dass eine trainierte KI aufgrund von bestehenden Daten, eine Vorsortierung von Bewerbungen vornimmt, die rechtswidrig und ethisch nicht zulässig ist.

So könnten bzw. Brillenträger:innen bessere Chancen im Bewerbungsprozess haben, da die KI die Annahme erlernte, Brillenträger:innen seien meist besser ausgebildet. Solche und ähnliche Vorurteile können zu Ungerechtigkeiten und Diskriminierungen führen.

Was bedeuten die Anforderungen an eine KI für die Bildungslandschaft?

Damit KI-Systeme erfolgreich sein können, müssen einige Anforderungen bei der Entwicklung berücksichtigt werden. Die KI-Verordnung der EU ist ein Beispiel, die dafür erste Grundsteine legt. Gerade beim Einsatz von KI-Systemen in der Bildung ist Vorsicht geboten, es muss ersichtlich sein, wie KI-Systeme operieren und es muss erklärt werden können, warum ein KI-System zu einer spezifischen Ausgabe kommt. Gerade in der Bildung könnte es zu fatalen Ungleichbehandlungen aufgrund KI-Systemen kommen bzw. wenn eine KI aufgrund bestehender Daten entscheidet, das Niveau bei Mathematikaufgaben bei Jungen höher anzusetzen als bei Mädchen.

Kurz und knapp ist es unabdingbar, die Entscheidungsfindung eines KI-Systems verstehen zu können. Gerade beim Einsatz von KI-Modellen im Bereich der Adaptiven Lernsysteme (Lernsysteme, welche sich an die Bedürfnisse und Voraussetzung der Lernenden anpassen) ist die Erklärbarkeit von Entscheidungen durch die KI eine Voraussetzung. Schliesslich soll der Einsatz von KI Vorteile mit sich bringen und keine alten oder neuen Nachteile generieren.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95