Was genau sind KI-Agenten?
Einfach ausgedrückt sind KI-Agenten Softwaresysteme, die nicht nur auf Befehle reagieren, sondern autonom Ziele verfolgen und Aufgaben im Namen der Nutzer*innen erledigen. Sie verfügen über Fähigkeiten wie Denkvermögen, Planung und ein Gedächtnis, das es ihnen ermöglicht, aus Erfahrungen zu lernen und sich an neue Situationen anzupassen. Die Fähigkeiten von KI-Agenten kommen vor allem daher, dass sie viele Arten von Informationen gleichzeitig verarbeiten können – zum Beispiel Texte, Sprache, Videos, Audio oder Programmcode. Sie können sich unterhalten, Probleme erkennen, Schlussfolgerungen ziehen, Entscheidungen treffen und mit der Zeit dazulernen. So helfen sie, Abläufe, Geschäfte oder Aufgaben leichter zu erledigen. Ausserdem können sie zusammenarbeiten, um auch komplizierte Aufgaben gemeinsam zu bewältigen (vgl. Google Cloud, 2025).
Man kann sich einen KI-Agenten wie einen digitalen Mitarbeitenden vorstellen, dem man ein Endergebnis vorgibt (z. B. «Organisiere eine Projektwoche zum Thema Nachhaltigkeit»), und der daraufhin selbstständig die notwendigen Einzelschritte plant und ausführt.
Der entscheidende Unterschied: Antworten vs. Handeln
Der wohl wichtigste Unterschied zu den bekannten Chatbots lässt sich in einem Satz zusammenfassen: Ein Chatbot antwortet, ein Agent handelt.
- KI-Chatbots (wie das Standard-ChatGPT): Sie sind reaktiv. Man gibt einen Textbefehl (Prompt) ein und erhält Text oder Code zurück. Den Rest – das Kopieren in ein Dokument, das Versenden einer E-Mail oder das Eintragen in einen Kalender – muss der Mensch selbst erledigen.
- KI-Agenten: Sie sind proaktiv und zielorientiert. Ein Agent bleibt nicht im Chatfenster «stecken». Er kann auf zuvor freigegebene Programme zugreifen und dort selbstständig Werkzeuge nutzen.
Beispiele:
Während ein Chatbot eine mathematische Formel nur erklären kann, ist ein KI-Agent intelligent genug, bei Bedarf selbstständig einen Taschenrechner als Werkzeug aufzurufen, um ein komplexes Ergebnis präzise zu berechnen. Er delegiert Aufgaben nicht an den Nutzenden zurück, sondern übernimmt den gesamten Prozess.
Barbara Geyer formuliert auf ihrem Substack ein Beispiel, das die Möglichkeiten von KI-Agenten in der Bildung veranschaulicht. So können sich KI-Agenten selbstständig auf einer Lernplattform anmelden, Module und das dazugehörige Material sowie Quizfragen bearbeiten und schliesslich nach erfolgreichem Abschluss des Moduls das Zertifikat herunterladen. Ganz ohne deine Mithilfe, ganz ohne dein Lernen. Der Agent übernimmt die Arbeit für dich.
Laut Gartner, einem bekannten Forschungs- und Beratungsunternehmen, gehörte agentenbasierte KI zu den wichtigsten Technologietrends für das Jahr 2025. Fachleute gehen davon aus, dass der weltweite Markt für KI-Agenten von 2024 bis 2030 sehr stark wachsen wird – im Durchschnitt um 44,8 % pro Jahr. Bis 2030 könnte der Markt einen Wert von 47,1 Milliarden US-Dollar erreichen. Diese Zahlen zeigen, dass diese Technologie immer wichtiger wird und Potenzial zugeschrieben wird (vgl. Karrenberg, 2025, S. 131).
Obwohl KI-Agenten den nächsten Schritt in der Welt der KI versprechen, ist bisher Vorsicht geboten. Die Agenten sind noch nicht sicher genug, um nützlich zu sein. Die Verwendung eines KI-Agenten wie OpenClaw ist im Moment vergleichbar damit, mein Portemonnaie einem Fremden auf der Strasse zu überlassen (vgl. Huckins, 2026). Steinberger selbst riet Ende Januar auf der Plattform «X» davon ab, OpenClaw zu installieren, wenn man kein Technikfreak ist. Der KI-Agent sei erst drei Monate alt und stecke noch in den Kinderschuhen. Das Ziel des Open-Source-Systems sei es, Leute zu inspirieren, allerdings seien die Entwicklungen noch nicht fertig.
Ein KI-Agent, der in letzter Zeit für Aufsehen gesorgt hat, ist «OpenClaw». OpenClaw ist nicht «schlauer» als andere KIs. Sein Reiz liegt darin, dass er wie ein leistungsstarker Anzug für KI-Modelle funktioniert: Man wählt eine KI aus, und OpenClaw stattet sie mit besserem Gedächtnis aus und erlaubt ihr, selbstständig Aufgaben zu planen und regelmässig auszuführen.
Dabei verbindet OpenClaw verschiedene KI-Modelle miteinander und verknüpft sie mit echter Software. Gibt man ihm ein Ziel, entscheidet er selbst (mit den entsprechenden Zugriffsrechten), welche Modelle und Programme er nutzt. So wird aus einer KI, die nur Texte schreibt, ein System, das auch handeln kann.
Die Agenten laufen rund um die Uhr und sind über WhatsApp oder andere Messenger erreichbar. Genau das macht OpenClaw so spannend – aber auch potenziell riskant (vgl. Fontana, 2026 / Huckins, 2026).
Für Aufmerksamkeit sorgt auch seine Herkunft. OpenClaw stammt nämlich nicht, wie zu erwarten, von einem grossen Tech-Konzern, sondern von dem österreichischen Entwickler Peter Steinberger (jetzt bei OpenAI). Zudem ist das Projekt frei zugänglich (Open Source). Dadurch können viele Menschen es weiterentwickeln, was das Wachstum stark beschleunigt. Gleichzeitig gibt es aber keine zentrale Stelle, die für die Überwachung von Sicherheit und Qualität zuständig ist (vgl. Fontana, 2026).
Der sogenannte «Claw Hub» ist einzigartig. Dabei handelt es sich um eine Art Marktplatz, über den der Agent eigenständig neue Fähigkeiten, sogenannte «Skills», erwerben kann. Ausserdem erregt das Projekt mit «MoltBook» Aufsehen. Dabei handelt es sich um ein soziales Netzwerk, das ähnlich wie Reddit funktioniert. Im Unterschied zu Reddit tauschen sich in «MoltBook» aber ausschliesslich Agenten untereinander aus, ohne dass menschliches Zutun erforderlich ist.
OpenClaw wurde erst im vergangenen November entwickelt. Der KI-Agent ist viral gegangen, weil viele KI-Fans glauben, dass er einen riesigen Fortschritt zeigt. Einige sprechen sogar von einem möglichen «AGI-Moment» (AGI: Artificial General Intelligence) – also von einem ersten Hinweis auf eine KI, die sehr vielseitig und fast wie ein Mensch denken und handeln kann (vgl. Down, 2026).
Geyer warnt (Dezember 2025), dass KI-Agenten in der Lehre innerhalb von 12–24 Monaten so selbstverständlich sein könnten wie heute ChatGPT. Auf dem Spiel stehen die Glaubwürdigkeit von Abschlüssen, die Infrastruktur skalierbarer Online-Bildung, Bildungsgerechtigkeit, die kognitive Entwicklung einer Generation und der gesellschaftliche Wert von Expertise. Gängige Reaktionen greifen zu kurz: Verbote sind wirkungslos, Überwachung ist dystopisch und umgehbar, KI-Erkennung technisch gescheitert, und reine Präsenzprüfungen weder skalierbar noch inklusiv.
Nach Karrenberg (2025, S. XVII) würden die KI-Agenten weiter die Veränderungen im Bildungsbereich vorantreiben: Lernsysteme werden individueller, passen Inhalte dynamisch an und geben laufend Feedback. Zugleich verschieben sich die Bildungsziele hin zu Kompetenzen wie kritischem Denken, Kreativität und sozialer Intelligenz – also zu Fähigkeiten, in denen KI bislang an ihre Grenzen stösst.
Bildung im Zeitalter der KI-Agenten: Welche Kompetenzen zählen
Mit dem Vormarsch von KI-Agenten verändert sich nicht nur die Arbeitswelt, sondern auch die Art und Weise, wie wir lernen und Wissen vermitteln. Schulen, Hochschulen und Weiterbildungseinrichtungen stehen vor der Herausforderung, Lerninhalte und Methoden so anzupassen, dass sie auf die neuen Anforderungen vorbereiten. Dabei würden bestimmte Kompetenzen stärker in den Fokus rücken (vgl. Karrenberg, 2025, S. 33-35):
Technologische Kompetenzen: Digitale Grundfähigkeiten, Programmierung, Datenanalyse und KI-Verständnis werden essenziell.
Kreativität & Innovation: Menschliche Ideenfindung und unkonventionelles Denken gewinnen an Wert, da KI Routineaufgaben übernimmt.
Kritisches Denken & Problemlösung: Analysefähigkeit, Urteilsvermögen und die Bewertung komplexer Informationen werden zentral.
Emotionale & soziale Intelligenz: Empathie, Führungskompetenz und Teamfähigkeit bleiben unverzichtbar.
Adaptabilität & lebenslanges Lernen: Flexibilität und kontinuierliche Weiterbildung sichern die berufliche Zukunftsfähigkeit.
Interdisziplinäres Denken: Das Zusammendenken verschiedener Fachgebiete ist notwendig für komplexe Problemstellungen.
KI-Literacy: Grundlegendes Verständnis von KI-Systemen und die Fähigkeit zur effektiven Zusammenarbeit mit KI-Agenten werden Standardkompetenzen.
Geyer (2025) zeigt auf, was wir als Lehrer und Lehrerinnen tun können. Beispielsweise können wir bei der Bewertung ansetzen und uns von reinen Produktbewertungen hin zu Prozessbegleitung und -beurteilung bewegen. Es müssen Räume für Zusammenarbeit und Austausch geschaffen werden, denn Lernen findet auch in Gemeinschaft statt.
Am Kern der Sache steht jedoch die Frage nach der intrinsischen Motivation: Warum sollte ich als Lernende diese Anstrengung des Lernens auf mich nehmen, wenn KI-Agenten das für mich tun können? Idealerweise erkennen Lernende, dass die Erweiterung des eigenen Denkens der eigentliche Gewinn ist und idealerweise schaffen es Lehrpersonen, diese intrinsische Motivation in den Lernenden wecken zu können.
Diese sind keine neuen Veränderungen, welche erst mit Eingang von KI-Agenten in die Bildungslandschaft einhergehen. Bereits mit der verbreitereten Popularität von KI-Chatbots verändern sich diese Aspekte, wie wir bereits in früheren Blogposts thematisierten, wie beispielsweise: Zwei Berichte über KI & Lernen: Potenziale, Risiken und Handlungsempfehlungen, Google: KI und die Zukunft des Lernens, oder auch in KI in der Bildung: Drei Zukunftsszenarien.
Fühlst du dich bereit für die Zukunft? Wie kompetent fühlst du dich im Umgang mit KI und den neuesten Entwicklungen?
Quellen:
Down, A. (2026). Viral AI personal assistant seen as step change – but experts warn of risks. [26.2.26]
Fontana, L. (2026). Agenten statt Chatbots: Warum OpenClaw gerade alle elektrisiert. [19.2.26]
Geyer, B. (2025). Wenn KI-Agenten für uns lernen. [2.3.26]
Google Cloud (2025). Was ist ein KI-Agent? [19.2.26]
Huckins, G. (2026). Is a secure AI assistant possible? [2.3.26]
Karrenberg, U. (2025). Metamorphose unserer Gesellschaft durch KI-Agenten: Was bleibt vom Menschen, wenn Maschinen besser denken? Springer Berlin Heidelberg. https://doi.org/10.1007/978-3-662-72415-6
Zeischke, M. (2025). KI-Agenten: Die Architekten der Zukunft – welche Typen gibt es und wie funktionieren sie? [19.2.26]