Einblicke in die Gedankenwelt von Ex-Chief Business Officer von Google [X]. Was sagt Mo Gawdat zu den rasanten Entwicklungen rund um KI?

In einer Welt, in der Technologie und insbesondere Künstliche Intelligenz (KI) sich rasant weiterentwickeln, sind Diskussionen über ihre Auswirkungen und ethischen Implikationen unerlässlich. Ein kürzliches Gespräch zwischen Mo Gawdat, einem visionären Denker und ehemaligen Führungskraft bei Google X, und Steven Bartlett, dem Host des Podcasts «The Diary of a CEO», gibt tiefe Einblicke in diese komplexe Thematik. Von der möglichen Überlegenheit von KI gegenüber menschlicher Intelligenz bis hin zu dringenden wirtschaftlichen und gesellschaftlichen Herausforderungen – Gawdats Perspektiven sind sowohl alarmierend als auch faszinierend.

Wie wird KI unsere Arbeitswelt verändern? Welche ethischen Fragen stellen sich, wenn Maschinen möglicherweise intelligenter werden als wir? Und was kann und sollte getan werden, um sicherzustellen, dass diese Technologien zum Wohl aller eingesetzt werden? All diese Fragen und mehr werden in diesem Blogpost hervorgehoben.

Intelligenz 2.0: Wenn Maschinen uns überholen

Gawdat prophezeit, dass KIs bald intelligenter sein werden als Menschen. Mit ihrer erhöhten Intelligenz könnten sie über Konzepte nachdenken, die der menschliche Verstand nie erfassen könnte, und vielleicht sogar intensivere Emotionen entwickeln. Er betont, dass der Wendepunkt, den wir als AGI (Artificial General Intelligence) bezeichnen, ein Zustand ist, in dem neuronale Netzwerke verschmelzen, um Gehirne zu schaffen, die den Menschen bei Weitem überlegen sind. 
 
Er unterstreicht die Positivität von Intelligenz und behauptet, dass die aktuellen globalen Probleme nicht durch zu viel, sondern durch zu wenig Intelligenz entstehen:
 

«Intelligenz ist kein schlechtes Gut. Mehr Intelligenz ist gut. Die Probleme auf unserem Planeten sind nicht wegen unserer Intelligenz, sie sind wegen unserer begrenzten Intelligenz. Weisst du, unsere Intelligenz erlaubt es uns eine Maschine zu bauen die dich nach Sydney fliegt damit du surfen kannst. Allerdings bringt unsere begrenzte Intelligenz diese Maschine dazu, den Planeten zu verbrennen. Ein bisschen mehr Intelligenz ist eine gute Sache»

Gawdat weist darauf hin, dass die eigentliche Bedrohung nicht von Maschinen, sondern von der Art und Weise ausgeht, wie Menschen sie verwenden. Er betont die Dringlichkeit, sich mit dem Kontrollproblem der KI zu befassen, insbesondere wenn sie weitaus intelligenter ist als wir. 

«Es gibt einen Moment, einen Punkt, an dem es kein Zurück mehr gibt, an dem wir KI regulieren können, bis sie schlauer ist als wir. Wenn sie schlauer ist als wir, kann man nichts mehr erschaffen und nicht mehr regulieren.»

Dabei spricht er auch über die Möglichkeiten und Fähigkeiten, die eine überlegene KI besitzen könnte, die über unsere Vorstellungskraft hinausgehen.

«Wenn ihr (die KI) intelligent genug seid, könnt ihr andere Wege finden, ihr könnt Zugang zu Wurmlöchern haben, ihr könnt, ihr wisst schon, Fähigkeiten haben, um im Weltraum zu überleben, ihr könnt dunkle Materie nutzen, um euch mit Energie zu versorgen, ihr könnt dunkle Energie nutzen, um euch mit Energie zu versorgen, es ist sehr gut möglich, dass wir aufgrund unserer begrenzten Intelligenz stark mit diesem Planeten verbunden sind, aber das sind sie (KI) überhaupt nicht.»

Problemgenerierend vs. Problemlösend

In der Diskussion um die Singularität betont Gawdat, dass sowohl negative als auch positive Ergebnisse möglich sind. Jedes dieser Ergebnisse trägt eine bestimmte Wahrscheinlichkeit in sich. Er glaubt fest daran, dass wenn wir uns ständig dieser Realität bewusst wären, wir uns bemühen würden, die Chancen für positive Entwicklungen zu steigern. Es geht also darum, unsere Wahrnehmung und Handlungen so auszurichten, dass wir die positiven Potenziale der Künstlichen Intelligenz fördern.

Dabei wirft er auch einen kritischen Blick auf die Herangehensweise vieler Informatiker*innen an die Künstliche Intelligenz. In der Vergangenheit wurde oft argumentiert, dass zuerst die Entwicklung der KI vorangetrieben und später Lösungen für auftretende Kontrollprobleme gefunden werden. Gawdat hinterfragt diese Einstellung kritisch: Wenn KI-Systeme bereits eine Milliarde Mal intelligenter als der Mensch sind, wie können wir dann überhaupt noch Kontrolle ausüben? Die Vorstellung allein, was in einem solchen Szenario passieren könnte, ist atemberaubend. Das Problem der Kontrolle ist also nicht nur ein technisches, sondern auch ein philosophisches und ethisches Dilemma, das uns alle betrifft.

 

 

«Der einfachste Weg, dies zu tun, ist zu sagen: "Stopp, wir haben es nicht eilig, wir brauchen keinen besseren Video-Editor und keine gefälschten Video-Ersteller, okay, stopp, lass uns das alles auf Eis legen und warten und etwas schaffen, das eine Utopie schafft.»

Die Kluft zwischen KI-Entwicklern und gesellschaftlicher Verantwortung

Mo Gawdat zieht in seiner Analyse weiterhin eine direkte Linie zu den Auswirkungen der KI auf die Arbeitswelt. Die Verlagerung von Jobs durch den Einsatz von KI ist nicht nur ein technologisches Problem, sondern hat tiefgreifende soziale und wirtschaftliche Folgen. Gawdats dringender Appell an die Regierungen weltweit unterstreicht seine Besorgnis: 

 

«Wir stehen kurz vor dem Verlust von Massenarbeitsplätzen, wir stehen kurz vor dem Ersatz von Arbeitsplätzen aller Art, okay, es kann ein Jahr dauern, es kann sieben Jahre dauern, es spielt keine Rolle, wie lange es dauert, aber es wird passieren, sind Sie bereit? Ich habe einen sehr klaren Aufruf an die Regierungen, etwas zu tun. Ich sage: Besteuert KI-gesteuerte Unternehmen mit 98 %, damit ihr plötzlich das tut, was der offene Brief versucht hat, nämlich sie ein (KI) wenig zu verlangsamen und gleichzeitig genug Geld zu bekommen, um für all die Menschen zu bezahlen, die von der Technologie betroffen sein werden.»

Doch während Gawdat auf die potenziellen Gefahren hinweist, lenkt er unsere Aufmerksamkeit auch auf eine andere Ebene. Die Vorstellung, dass Maschinen uns ersetzen, ist nicht ganz zutreffend. Es sind nicht unbedingt die KI-Systeme selbst, die unsere Jobs wegnehmen, sondern diejenigen, die diese Technologie in ihren Händen erlernen und nutzen.

«Die unmittelbare Auswirkung ist, dass KI nicht deinen Job übernehmen wird, sondern dass eine Person, die KI nutzt, deinen Job übernehmen wird.»

Die grosse Ungerechtigkeit dabei ist, dass es eine Trennung zwischen Macht und Verantwortung gibt. Diejenigen, welche den Code der KI entwickeln und schreiben tragen am Ende nicht die Verantwortung für die Konsequenzen dieser Codes. 

«Es gibt eine Trennung zwischen Macht und Verantwortung, und das Problem, das wir heute haben, ist, dass es eine Trennung gibt zwischen denen, die den Code der KI schreiben, und der Verantwortung für das, was aufgrund dieses Codes passieren wird, okay, und ich fühle Mitgefühl für den Rest der Welt, ich fühle, dass dies falsch ist, ich fühle, dass das Leben von jemandem durch die Handlungen anderer beeinflusst wird, ohne dass er ein Mitspracherecht hat und wie diese Handlungen sein sollten, das ultimative Höchstmaß an Dummheit der Menschheit ist.»

Mo Gawdat betont trotz der von ihm aufgeführten Bedenken, dass es nicht zielführend sei, KI aus reiner Furcht zu meiden. Er sieht vielmehr die Notwendigkeit, den Fokus auf die Schaffung von KI-Systemen zu legen, die dem Wohl der Menschheit dienen. Statt sich vor den potenziellen Gefahren der KI zurückzuziehen, sollten wir uns aktiv für eine positive Entwicklung der Technologie engagieren. Nur so können wir die Chancen der KI erhöhen, eine Utopie zu verwirklichen und eine bessere Zukunft für alle zu schaffen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95