1. Generative KI-Sprachmodelle sind fehlerfrei
Generative KI-Systeme wurden mit umfangreichen Datensätzen trainiert, damit das System Daten wie Texte, Bilder, Musik oder auch Videos generieren kann. Bei der Generierung von Output wie bzw. Text, arbeitet das Sprachmodell auf Basis von Wortwahrscheinlichkeiten und versucht die Sprache möglichst natürlich zu imitieren. Diese Modelle, einschliesslich ChatGPT, neigen jedoch aufgrund ihrer stochastischen Natur dazu, «halluzinieren», was bedeutet, dass sie Antworten generieren, die zwar plausibel klingen, aber inhaltlich falsch sein können. Dies stellt insbesondere für Lernende, die sich in neue Gebiete einarbeiten, ein Problem dar, da sie möglicherweise nicht in der Lage sind, die inhaltliche Korrektheit der Ausgaben dieser KI-Tools zu beurteilen.
2. KI versteht Bedeutungen
KI-Modelle können semantisch und syntaktisch sinnvolle Texte erzeugen, allerdings die dahinterliegenden Bedeutungen oder Zusammenhänge nicht verstehen. Dies liegt daran, dass KIs Wörter und Begriffe in einen Zusammenhang bringen (mithilfe von sog. Embeddings), in dem sinnverwandte Wörter in räumliche Nähe zueinander gestellt werden. ChatGPT arbeitet bzw. mit über 10’000 solcher Dimensionen für jedes Wort. Das Modell erkennt also Muster und Korrelationen in den Trainingsdaten, aber ihr fehlt das menschliche Verständnis für Kontext, Kausalität und den «gesunden Menschenverstand».
3. KI wird immer klüger
Paradoxerweise könnten KI-Modelle schlechter werden, weil sie immer mehr Daten zum Lernen brauchen, aber gute Daten knapp werden, da sie bereits gebraucht wurden. Ein weiteres Problem ist, dass das Internet zunehmend mit von KI erstellten Inhalten gefüllt wird. Wenn KIs mit diesen selbstgemachten Inhalten trainiert werden, verschlechtert sich ihre Leistung. Dieses Phänomen wird als «Model Autophagy Disorder (MAD)» bezeichnet. Forscher*innen sind der Meinung, dass wir bereits im Jahr 2026 nur wenig neue, qualitativ hochwertigen Daten zum Trainieren der KIs haben könnten, was ihre Entwicklung behindert.
4. KI ist eine Blackbox
Generative KI-Modelle sind für Laien oft wie eine Blackbox, weil unklar ist, wie sie zu ihren Ergebnissen kommen. Das liegt an der riesigen Anzahl von Parametern, deren Einfluss schwer zu verstehen ist, und daran, dass nicht transparent ist, auf welchen Daten die KI trainiert wurde. Um diese Blackbox etwas zu öffnen, gibt es die Disziplin der «Erklärbaren KI (XAI)», die versucht, das Verhalten von KI-Modellen transparenter zu machen. Trotzdem bleibt die Funktionsweise von KI für viele Menschen schwer nachvollziehbar.
5. KI ist kreativ
Generative KI scheint auf den ersten Blick kreativ zu sein, indem sie schnell neue Bilder oder Texte erzeugt. Diese «Kreativität» basiert jedoch auf der Neukombination bereits existierender menschlicher Werke, was bedeutet, dass die KI lediglich menschliche Kreativität remixt. Mit menschlicher Kreativität bzw. bei der Formulierung von originelle Anweisungen (Prompts) kann das KI-System befähigt werden möglichst originellen Output zu generieren. Allerdings kann die KI das bahnbrechend Neue nicht erschaffen, denn menschliche Kreativität lebt von Emotion, Lebenserfahrung, Intuition und Improvisation.
6. KI hat ein Bewusstsein
Im Juni 2022 behauptete Google-Ingenieur Blake Lemoine, dass der Chatbot LaMDA ein Bewusstsein entwickelt habe. Diese Idee, dass KI ein Bewusstsein haben könnte, basiert mehr auf Glauben und alten philosophischen Ideen als auf wissenschaftlichen Beweisen. Experten wie der Psychiater Thomas Fuchs argumentieren, dass Konzepte wie Fühlen oder Entscheiden nicht auf KI anwendbar sind, da diese keine physiologische Basis wie das menschliche Gehirn haben. Die Debatte um das Bewusstsein und KI ist voll von ungelösten Fragen und basiert oft auf persönlichen Überzeugungen. Techno-Optimisten glauben, wir könnten bald künstliches Bewusstsein erschaffen, obwohl es dafür keine klaren Beweise gibt. Die Forschung suggeriert, dass grössere KI-Modelle scheinbar neue Fähigkeiten entwickeln können, was aber einfach bedeutet, dass sie komplexere Aufgaben lösen können. Ein interessantes Phänomen ist, dass Menschen dazu neigen, KI menschliche Eigenschaften zuzuschreiben, selbst wenn diese sehr einfach gestaltet ist, wie das Beispiel des Chatbots ELIZA zeigt.
7. Wissenschaftliches Arbeiten wird obsolet
In einer Welt voller Informationen ist es wichtig, die Zuverlässigkeit von Quellen zu beurteilen, besonders bei von KI generierten Texten. Wissenschaftliches Arbeiten erfordert echtes Fachwissen, um Informationen richtig einzuordnen und neue Erkenntnisse zu schaffen, was KI nicht kann. Obwohl KI-Tools immer besser werden und im akademischen Bereich genutzt werden könnten, haben sie Grenzen, wie die Erfindung von Quellen. Es ist entscheidend, diese Einschränkungen zu beachten.
8. KI führt zu mehr Arbeitslosigkeit
In der Vergangenheit lässt sich beobachten, dass das Erscheinen von neuen Technologien Debatten über Jobverluste hervorrufen. Doch historisch gesehen führt technologischer Fortschritt nicht zu mehr Arbeitslosigkeit, sondern verändert lediglich die Arbeitswelt. Einige Jobs verschwinden, während neue entstehen. Die Vorstellung, dass KI in Zukunft Arbeitsplätze vernichtet, bleibt Spekulation. Vielmehr sollte der Fokus auf der Zusammenarbeit zwischen Mensch und Maschine liegen, wobei der Mensch seine Autonomie behält.
9. KI kann in die Zukunft blicken
Vorhersagen durch KI basieren auf Vergangenheitsdaten und haben ihre Grenzen, besonders bei unerwarteten Ereignissen. KI kann in bestimmten Szenarien wie Kundenverhalten hilfreich sein, aber ihre Prognosen bleiben unsicher. Die Annahme, KI-Vorhersagen seien fehlerfrei, kann dazu führen, dass andere Möglichkeiten übersehen werden. Im Bildungsbereich ist Vorsicht geboten, um die Autonomie zu wahren und nicht nur auf KI-gestützte Empfehlungen zu setzen.
Quelle:
Friedrich, J.D., Tobor, J. & Wan, M. (2024). 9 Mythen über generative KI in der Hochschulbildung. [15.2.24]