Die OECD hat in ihrem «Digital Education Outlook 2026» empirische Forschung, Designexperimente und Expert*innenmeinungen synthetisiert, die sich vollständig mit generativer KI (GenAI) befassen. Ähnlich hat das Center for Universal Education bei Brookings die Forschungsliteratur seit Ende 2022 (ab Erscheinen des ersten generativen Chatbots) analysiert und zusätzlich Gespräche mit Lehrkräften, Lernenden, Erziehungsberechtigten und Expert:innen aus über 50 Ländern in verschiedenen Formaten geführt. Ihre Ergebnisse wurden unter dem Titel «A new direction for students in an AI world: Prosper, prepare, protect» veröffentlicht.
Beide Berichte identifizieren die Potenziale und Risiken, die GenAI-Systeme für Bildung und Lernen bergen, und geben konkrete Handlungsempfehlungen, um bereits heute eine gute Zukunft zu gestalten. Dieser Blogbeitrag gibt einen Überblick. Dabei gehen wir insbesondere auch auf die Gemeinsamkeiten der beiden Berichte ein.
Arten von KI-Systemen
Ein grosses Problem in der Debatte um KI ist, dass der Begriff nicht einheitlich definiert ist und eine Vielzahl von Technologien umfasst. Die Aussage «KI ist xyz» mag für einige KI-Systeme zutreffen, für andere jedoch nicht. Das macht eine Konsensfindung oft schwierig.
In beiden Berichten wird grundsätzlich zwischen «Educational AI» und «General-Purpose AI» unterschieden. «Educational AI» beschreibt Systeme und Tools, die mit pädagogisch-didaktischer Intention entwickelt wurden. Im Gegensatz dazu verfolgen Systeme der General-Purpose-KI andere Ziele, in vielen Fällen die Maximierung der Interaktion mit den Nutzenden. Einige der hier skizzierten Risiken gehen auf diese Fehloptimierung von Allzweck-KI zurück, weshalb verständlicherweise zum Einsatz von Educational AI geraten wird. Dieses Gebiet steckt allerdings noch in den Kinderschuhen. Im letzten Abschnitt dieses Beitrags besprechen wir deshalb unter anderem Empfehlungen dazu, wie Educational AI gestaltet sein sollte.
Potenziale generativer KI
Obwohl GenAI im Zusammenhang mit Schule oft als Problem diskutiert und wahrgenommen wird, birgt sie auch grosse Potentiale. Ein Aspekt, den beide Berichte betonen, ist die Entlastung von Lehrpersonen, wenn diese beispielsweise Routinearbeiten an ein GenAI-Tool abgeben oder zumindest dabei unterstützt werden. Darunter fallen unter anderem Planung, Korrekturen, sowie das Verfassen von Briefen, Gesprächsnotizen oder Berichten etc. Die freigewordene Zeit können sie dann in Anderes stecken. So beschreibt der Brookings-Report ein Anwendungsbeispiel aus Singapur, bei dem ein KI-Tool die Rechtschreibung und Grammatik von Aufsätzen überprüft. Die Lehrpersonen können sich so auf andere Aspekte wie die Argumentation und den Schreibstil konzentrieren (vgl. Burns et al., 2026, S. 39).
Ein weiteres Potential von GenAI liegt in der Individualisierung und Personalisierung von Lernen. Die OECD spricht von intelligenten Tutoren, die adaptive, sokratische Gespräche führen und Erklärungen an das Niveau der Lernenden anpassen. Ähnliche Ansätze werden auch im Brookings-Bericht beschrieben. So können Lehrpersonen Lerninhalte, -umgebung, und -materialien dank GenAI einfacher an Lernende anpassen. Zum Beispiel können Lernende, die nicht in Ihrer Erstsprache unterrichtet werden, davon profitieren, wenn Sachtexte an ihr jeweiliges Sprachniveau angepasst werden (vgl. Burns et al., 2026, S. 41).
Abschliessend kann GenAI auch zum Abbau von Ungleichheiten beitragen, indem durch sie eine qualitativ hochwertige Bildung allen Menschen zugänglich gemacht werden kann. Davon profitieren vor allem Kinder und Jugendliche in ressourcenschwachen Regionen. Die School of Leadership Afghanistan nutzt KI, um den afghanischen Lehrplan zu digitalisieren, Unterrichtsmaterialien zu erstellen und diese über WhatsApp in Dari, Paschtu und Englisch zu verbreiten (Botti-Lodovico, 2025). So erhalten Mädchen und Frauen trotz des Bildungsverbots der Taliban Zugang zu weiterführender Bildung über Internet und KI (vgl. Burns et al., 2026, S. 35).
Das Team von Brookings betont in diesem Zusammenhang die Wichtigkeit von Open Source Modellen, um die Systeme auch Ländern zugänglich zu machen, für die die Entwicklung von KI zu teuer ist (vgl. Burns et al., 2026, S. 37). Die OECD empfiehlt, dass die Anwendungen auf kleinen Sprachmodellen basieren sollen, die auch auf mobilen Endgeräten (z.B. Handys, Laptops) laufen können. Nur dann ist eine Nutzung unabhängig vom Internetzugang möglich (vgl. OECD, 2026, S. 122 – 127).
Risiken generativer KI
Die wohl grösste Sorge beim Einsatz von GenAI-Systemen im Bildungskontext ist, dass die Entwicklung emotionaler, sozialer und kognitiver Kompetenzen möglicherweise gehemmt wird. Die OECD warnt davor menschliche Beziehung, Motivation und soziale Interaktion durch Algorithmen zu ersetzten, da Bildung so den Blick für die Menschen verliert (OECD, 2026, S.134). Das Team von Brookings betont zudem die Wichtigkeit der emotionalen Gesundheit und guter sozialer Bindungen für das Lernen, aber auch der Schule als Ort, wo emotionale und soziale Kompetenzen erworben werden. Jedoch greife GenAI in diese Entwicklung ein. Lehrpersonen, Erziehungsberechtigte und Expert*innen sind besorgt darüber, dass einige Jugendliche GenAI-Systeme wie einen Freund oder eine Freundin behandeln (sogenannte «AI Companions»). Sie sind besorgt, dass dies die Beziehungsfähigkeit oder emotionalen Gesundheit der Betroffenen schädigt oder sogar in einer emotionalen Abhängigkeit mündet. An dieser Stelle muss aber auch erwähnt werden, dass die befragten Jugendlichen selten seelischen Schäden oder dergleichen durch KI wahrnehmen (vgl. Burns et al., 2026, S. 70).
Bezüglich der kognitiven Entwicklung wird insbesondere die Gefahr von Metakognitiver Faulheit und Cognitive Offloading betont (mehr dazu in unserem Blogpost: «Bewusst denken im KI-Zeitalter: Zwischen Bequemlichkeit und Achtsamkeit»). Die Studienlage zeigt mittlerweile klar, dass Lernende mit KI zwar kurzfristig bessere Ergebnisse erzielen, diese aber ohne KI nicht reproduzieren können und in Tests ohne Hilfsmittel mitunter sogar schlechter abschneiden (vgl. OECD, 2026, S. 78). Der Bericht von Brookings warnt diesbezüglich sogar vor einer Abhängigkeit, wenn Lernende gewisse Aufgaben ohne KI gar nicht mehr erledigen können. Dies führe zudem zu einer eingeschränkten Empfindung von Selbstwirksamkeit und Autonomie (vgl. Burns et al., 2026, S. 104 – 110).
Konklusion und Handlungsempfehlungen
Der Bericht von Brookings ist in seiner Einschätzung zum Einsatz von GenAI in der Bildung ganz klar und besorgniserregend: Aktuell überwiegen die Risiken gegenüber den potenziellen Vorteilen. Dies gilt insbesondere für general-purpose AI (vgl. Burns et al., 2026, S.12). Auch die OECD rät im Bildungskontext dazu, Educational AI zu nutzen (vgl. OECD, 2026, S.11). Dies müsse, so der Brookings-Bericht, klaren, verständlichen Regeln unterliegen, die bspw. den Datenschutz und das emotionale Wohlergehen der Nutzenden gewährleistet (vgl. Burns et al., 2026, S. 151 – 152). Die beiden Berichte betonen zudem, dass ein solches System Lernende in der Lösungsfindung unterstützen soll (z.B. mittels adaptivem Scaffolding) statt ihnen die Antwort zu verraten (vgl. OECD, 2026, S. 26). Das Team von Brookings fordert zudem, dass Lehrende, Lernende und Erziehungsberechtigte in den Entwicklungsprozess von KI-Systemen für die Bildung miteinbezogen werden (vgl. Burns et al., 2026, S. 136).
Ein weiterer, wichtiger Aspekt ist, dass alle an Erziehung und Bildung beteiligten Akteure über umfassende KI-Kompetenzen verfügen und entsprechend aus- und weitergebildet werden. Sie sollen in der Lage sein, kritisch mit GenAI umzugehen, beispielsweise Ergebnisse zu überprüfen und ethische Implikationen zu verstehen. Das Team von Brookings gibt als Ziel vor, dass Lehrpersonen mit und durch AI unterrichten können und Erziehungsberechtigte in der Lage sind, den AI-Konsum ihrer Kinder zu managen (vgl. Burns et al., 2026, S. 142 – 151 / OECD, 2026, S. 30).
Zu guter Letzt fordern beide Berichte, Forschung zum Aufwachsen in einer von KI-dominierten Welt zu betrieben. Das Team von Brookings fordert darüber hinaus, dass bestehende Bildungssysteme weiterentwickelt werden. Auch die beste Educational AI kann nur dann sinnvoll eingesetzt werden, wenn sie Teil einer pädagogisch fundierten Bildung ist (vgl. Burns et al., 2026, S. 128 / vgl. OECD, 2026, S. 54).
Wer sich mit generativer KI und Bildung beschäftigt, wird über die gewonnenen Erkenntnisse kaum überrascht sein. Das Ziel sollte nach wie vor darin bestehen, einen kritischen Umgang mit generativer KI zu fördern und in der Bildungslandschaft auf pädagogisch ausgerichtete und datenschutzkonforme KI-Modelle zu setzen. Dabei sind die Grundlagen des Lernens nach wie vor unabdingbar. Weitere Blogposts beschäftigen sich mit dieser Thematik. Welche Haltung vertrittst du? Schreib es uns in die Kommentare.
Quellen:
OECD (2026). OECD Digital Education Outlook 2026: Exploring Effective Uses of Generative AI in Education. OECD Publishing: Paris. https://doi.org/10.1787/062a7394-en.
Burns, M., Winthrop, R., Luther, N., Venetis, E., & Karim, R. (2026). A new direction for students in an AI world: Prosper, prepare, protect (Full report). The Brookings Institution. https://www.brookings.edu/wp-content/uploads/2026/01/A-New-Direction-for-Students-in-an-AI-World-FULL-REPORT.pdf