Update 28.11.24
Geschichte der Künstlichen Intelligenz: Elektrische Schaltkreise als Vorbild für KI
In den 1940er Jahren legten die Forscher McCulloch und Pitts den Grundstein für eine revolutionäre Idee. Fasziniert von der Ähnlichkeit zwischen den Strukturen im menschlichen Gehirn und elektrischen Schaltkreisen, stellten sie sich die Frage, ob es möglich wäre, diese biologischen Netzwerke in elektrische Schaltkreise zu übertragen. Obwohl ihnen zu dieser Zeit die notwendigen Ressourcen fehlten, um ihre Vision in die Realität umzusetzen, blieb die Idee bestehen und wurde zu einem zentralen Gedanken in der Entwicklung der künstlichen Intelligenz.
In den 1960er Jahren begann die wissenschaftliche Gemeinschaft, sich ernsthafter mit der Umsetzung dieser Idee zu befassen, insbesondere mit dem Ziel, sie in Software zu implementieren. Dies markierte einen wichtigen Wendepunkt in der Geschichte der künstlichen Intelligenz.
Ein erneutes Aufleben des Interesses an dieser Idee erfolgte in den 1980er Jahren. Doch erst im 21. Jahrhundert wurden die Bedingungen geschaffen, die eine Realisierung dieser Vision ermöglichten. Dieser Durchbruch ist auf drei wesentliche Entwicklungen zurückzuführen:
- Wissenschaftliche Fortschritte, insbesondere im Bereich des Deep Learning, führten zu einem besseren Verständnis und effektiveren Methoden im Umgang mit künstlichen neuronalen Netzen
- Die Verfügbarkeit grosser Datenmengen: Grosse Datenmengen sind notwendig, um neuronale Netze effektiv zu trainieren und zu konfigurieren.
- Die Steigerung der Menge an Computerleistung bei gleichzeitig sinkenden Kosten
Somit bildeten diese drei Faktoren – wissenschaftlicher Fortschritt im Deep Learning, die Verfügbarkeit grosser Datenmengen und die erhöhte, kostengünstige Computerleistung – das Fundament für die heutige Ära der künstlichen Intelligenz, ein Traum, der seine Wurzeln in den Überlegungen von McCulloch und Pitts in den 1940er Jahren hat.
Warum ChatGPT
GPT-3 und sein Nachfolger ChatGPT konnten massgeblich von den neuesten Entwicklungen profitieren. Der grosse Erfolg von ChatGPT kommt daher, dass es mit sehr vielen Daten trainiert wurde. Das war aber nur möglich, weil dafür spezielle, sehr teure Computer «KI-Supercomputer» eingesetzt wurden, die monatelang liefen. Diese Supercomputer kosten viele Millionen Dollar, und allein der Strom, den sie verbrauchen, kostet auch Millionen. Die Frage, was das für die Umwelt bedeutet, sollte man dabei nicht vergessen. Wer sich für dieses Thema interessiert, findet im SustAIn-Magazin wertvolle Anregungen zu KI und dessen ökologischen, sozialen und wirtschaftlichen Kosten und Folgen.
In «The Turing Lectures: The Future of Generative AI» auf YouTube wird das revolutionäre Potenzial generativer KI-Technologien diskutiert. Mit ihrer Kapazität, menschenähnliche Texte zu erzeugen und vielfältige Aufgaben zu meistern, könnten sie unsere Art zu kommunizieren, zu lernen und zu arbeiten tiefgreifend verändern. Doch welche neuen Möglichkeiten eröffnen sich dadurch? Kann KI helfen technologische Durchbrüche zu erzielen? Haben wir den Schlüssel zur KI endlich gefunden?
Ära der Allgemeinen Künstlichen Intelligenz (AKI)?
Seit die rasanten Entwicklungen der Künstlichen Intelligenz die breite Masse begeistern, wird die Diskussion um eine Allgemeine Künstliche Intelligenz (AKI) immer relevanter. Unter AKI wird verstanden, dass Roboter bzw. Computerprogramme auf dieselbe Art lernen, verstehen und denken wie wir Menschen.
Insbesondere die Fähigkeit von bzw. ChatGPT, Aufgaben zu bewältigen, für welche der Chatbot nicht expliziert trainiert wurde, weckt das Interesse und lässt über das Potenzial solcher Systeme spekulieren. In der Youtube-Vorlesung «The Turing Lectures: The Future of Generative AI» werden verschiedene Arten von AKI (engl. General Artificial Intelligence) unterschieden:
- Maschinen, die alles tun können, was ein Mensch tun kann
- Maschinen, die jede kognitive Aufgabe erfüllen können, die ein Mensch tun kann
- Maschinen, die jede sprachbasierte Aufgabe erfüllen können, die ein Mensch tun kann
- Erweiterte Large Language Models (LLMs) (dt.: Grosse Sprachmodelle)
Insgesamt bringt die Debatte über Maschinenbewusstsein und allgemeine künstliche Intelligenz (AGI) wichtige ethische und philosophische Fragen mit sich. Wenn Künstliche Intelligenzen irgendwann so bewusst wie Menschen werden, muss über die moralischen Folgen nachgedacht werden. Und schliesslich: Wollen wir überhaupt, dass Maschinen eine Art menschliches Bewusstsein erlangen?