Laut Pagel (2014) gibt es keine klaren Hinweise darauf, dass diese Systeme ein Bewusstsein entwickelt haben. Gewisse Fähigkeiten entstehen erst aufgrund komplexen Zusammenspiele, wurden also nicht programmiert. Wichtig ist daher, diese Systeme zu beobachten, kontrollieren und anpassen. Dafür hilfreich können Machine Learning Operations (MLOps), Model Governance und Explainable AI sein. Letztere beispielsweise veranschaulicht mit Hilfe mathematischer Strukturen, wie MLOps zu verstehen sind. Ausserdem gibt es Verordnungen, welche KI-Systeme in Risikokategorien von ‘unzulässig’ bis ‘minimal’ gliedern. Die Systeme müssen replizierbar und überprüfbar sein. Diese neueren Anforderungen zeigen die Fortschritte in KI-Modellen. Wenn ein KI-Modell gewählt wird, sollte diese Entscheidung begründbar sein.
Auch im Bildungsbereich könnte KI eine immer grössere Rolle spielen. So können Lehrpersonen sich vielleicht bald mehr Zeit widmen für die Vorbereitung des Unterrichts und weniger für das Korrigieren von Multiple-Choice-Tests, da dies von KI übernommen werden kann. Den Einsatz dieser digitalen Assistenten, sowie die Entscheidung, welches KI-Modell gebraucht wird, muss begründbar sein. KI in spezifischen Funktionen kann das Unterrichten ansprechender machen, wenn mühsame Aufgaben übernommen werden kann. Lehrkräfte haben dabei das letzte Wort und fungieren weiterhin als Pädagogen und Wissensvermittler.
Quellen:
Isabel Bär, K. K. (2022, July 12). Ki-Systeme: Mlops, model governance und explainable AI Sichern Robusten Einsatz. Heise. https://bit.ly/3OTeNci
Pagel, J. F. (2014). Creating artificial dreams. Dream Science, 181–197. https://doi.org/10.1016/b978-0-12-404648-1.00010-7