Think Tank Medien und Informatik

Think Tank Medien und Informatik

Logo der PHBern
In «What Now? with Trevor Noah» diskutiert Trevor mit Tristan Harris über die Risiken der Künstlichen Intelligenz. Harris, bekannt aus "The Social Dilemma", fordert ein tiefes Verständnis für diese Technologie und deren Entwicklung für eine ethischere technologische Zukunft.

«What Now? with Trevor Noah» ist eine Show, in der Trevor in jeder Folge mit einem besonderen Gast ins Detail geht, darunter Entertainer*innen, CEOs, Schauspieler*innen, Sportler*innen und Vordenker*innen.

In einer seiner Dezember 2023-Episoden spricht Trevor mit Tristan Harris. Tristan ist Mitbegründer und Geschäftsführer des Center for Humane Technology (CHT), einer gemeinnützigen Organisation, deren Ziel es ist, Technologie mit den besten Interessen der Menschheit in Einklang zu bringen. Tristan ist mehrheitlich dank seinem zweifachen Auftritt in der Netflix-Dokumentation «The Social Dilemma» bekannt. Der Film enthüllte, wie die sozialen Medien unser Gehirn und die menschliche Zivilisation auf gefährliche Weise umprogrammieren. 

Tristan setzt sich für einen ethischen Umgang mit Technologie ein. Zu Beginn seiner Karriere arbeitete Harris als Design-Ethiker bei Google. Zudem erforscht er als Co-Moderator des Technologie-Podcasts «Your Undivided Attention» die Ursachen für den Wettlauf um die Aufmerksamkeit in den sozialen Medien, die Destabilisierung der Gesellschaft und mögliche Lösungen. 

Podcast-Episode mit Tristan Harris

In der Podcast-Episode verdeutlicht Tristan, wie wichtig es ist, dass ein klares Verständnis der bestehenden Risiken von Künstlicher Intelligenz bei allen vorhanden ist. Dieses Verständnis ist die Grundlage, um gemeinsame Massnahmen zur Risikovermeidung zu koordinieren und ein geteiltes Bewusstsein für die Herausforderungen und Chancen der Technologie zu entwickeln.

Die Podcast-Episode bietet eine umfassenden Einblick und erstreckt sich über eine Gesamtdauer von 1 Stunde und 2 Minuten. Tristan, der in den USA aufgewachsen ist und dort lebt, bringt eine Perspektive mit, die stark von der amerikanischen Kultur und ihren Werten geprägt ist.

Das Problem: Vergleich mit der Waffenindustrie

Als Beispiel wird die Entwicklung von Waffen genannt. Oft glaubten Nationen, bestimmte Waffen entwickeln zu müssen, um entweder den Feind davon abzuhalten, diese zu besitzen oder um ihre eigene Kampffähigkeit zu verbessern. Dabei würde jedoch übersehen, dass die blosse Existenz einer neuen Waffe dem Gegner signalisiert, dass solch eine Waffe herstellbar ist. Dies führe oft dazu, dass der Feind die Waffe kopiert oder nachbaut, was wiederum einen endlosen Zyklus von Wettrüsten auslöst.

Wird die Lektion auf die aktuelle Situation der Künstlichen Intelligenz übertragen so steht fest, dass in einem Tempo vorangeschritten werden muss, das es erlaubt, die Dinge richtig zu machen. Es braucht eine starke politische Bewegung, die sich für ein verantwortungsvolles Tempo einsetzt, um Technologien sicher und im Einklang mit dem Wohl der Menschheit zu entwickeln. Aktuell scheinen Regierungen oft in einer Sackgasse zu stecken, da es an ausreichender Legitimität für eine sicherheitsbewusste Sichtweise mangelt. Es braucht eine Kultur, die Sicherheit hochhält, ohne dabei pessimistisch zu sein – eine Kultur des vorsichtigen Optimismus.

Wie es besser gehen könnte: Vergleich mit der Luftfahrt

Ein mögliches Vorbild lässt sich in der Luftfahrtindustrie finden. Eine gängige Praxis sei es da, dass Flugzeuge bei technischen Defekten so lange am Boden bleiben, bis die Probleme vollständig behoben sind.

Eine solche Herangehensweise könnte auch auf die Entwicklung und den Einsatz von Künstlicher Intelligenz übertragen werden. Betrachtet man beispielsweise die Raketenstarts von SpaceX, so existiert dort eine unabhängige Instanz, die in der Lage ist, den Start bei Abweichungen vom Kurs abzubrechen. In ähnlicher Weise könnten bei der Entwicklung fortschrittlicher KI-Systeme, wie GPT 5 oder GPT 6, unabhängige Überwachungs- und Kontrollmechanismen implementiert werden. Diese würden es ermöglichen, potenzielle Gefahren frühzeitig zu erkennen und entsprechend zu reagieren, um Risiken zu minimieren.

Die Herausforderung: Über den Horizont hinausblicken

Das vor uns liegende Problem ist allerdings komplex. Menschen fällt es oft schwer, sich Gefahren vorzustellen, die nicht direkt vor ihren Augen liegen. Ein einfaches Beispiel hierfür ist ein Flugzeugabsturz, dessen Auswirkungen sofort und deutlich sichtbar sind. Im Kontrast dazu könnten die negativen Folgen eines Fehlers in der Künstlichen Intelligenz (KI) vielleicht erst viel später erkennbar werden.

Es ist daher entscheidend, dass ein Umdenken stattfindet und die möglichen zukünftigen Auswirkungen der KI-Entwicklung vorausgesehen werden. Ein wichtiger Schritt in diese Richtung ist das Schaffen eines globalen Bewusstseins, das die Sicherheit über die reine Grössenordnung der Technologie stellt. 

So I want everyone to know, that the motivation here is, how do we get to a good future.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95