Nach Jahren des schnellen Wachstums deutet vieles darauf hin, dass das Jahr 2026 das Jahr sein wird, in dem Künstliche Intelligenz (KI) ihre tatsächliche Nützlichkeit unter Beweis stellen muss. Es geht nicht mehr nur darum, was KI theoretisch leisten kann, sondern wie gut sie Aufgaben in der Realität erfüllt (vgl. Lynch, 2025).

1. Technologische Souveränität als politische Priorität

Ein prägender Trend für 2026 ist das Streben nach digitaler Unabhängigkeit. James Landay (Stanford University) prognostiziert, dass die «KI-Souveränität» massiv an Bedeutung gewinnen wird, da Nationen versuchen, ihre Unabhängigkeit von US-Anbietern und deren politischem System zu demonstrieren (vgl. Lynch, 2025).

In der Schweiz rückt dieses Thema ins Zentrum der Politik. Das im September 2025 eingeführte Modell Apertus – das erste öffentliche, mehrsprachige Schweizer Large Language Model (LLM) – soll 2026 durch konkrete Anwendungen für Unternehmen und Forschung etabliert werden (vgl. Ibrahim, 2026). Alexander Ilic (ETH Zürich) betont das Ziel, ein tiefgreifendes Ökosystem rund um dieses Modell zu schaffen (vgl. Ibrahim, 2026). Dennoch bleibt die Schweiz in der Realität weiterhin stark von ausländischen Grossanbietern abhängig, was sich etwa in den hohen Ausgaben für Softwarelizenzen widerspiegelt (vgl. Ibrahim, 2026).

2. KI als «digitaler Kollege» in der Arbeitswelt

In der Arbeitswelt entwickelt sich KI vom reinen Werkzeug zum Partner (vgl. Microsoft, 2025). Aparna Chennapragada (Microsoft) sieht 2026 den Beginn einer Ära, in der KI die menschliche Expertise verstärkt, statt sie zu ersetzen (Microsoft, 2025).
  • KI-Agenten: Diese übernehmen zunehmend autonome Aufgaben. Vasu Jakkal (Microsoft) fordert hierfür klare Sicherheitsvorkehrungen: Jeder Agent benötigt eine eigene Identität und begrenzte Zugriffsrechte, um Risiken zu minimieren (vgl. Microsoft, 2025).
  • Messbare Produktivität: Erik Brynjolfsson (Stanford University) erwartet die Einführung von «KI-Wirtschafts-Dashboards», die in Echtzeit messen, wo KI tatsächlich die Produktivität steigert oder Arbeitskräfte verdrängt. Unternehmen werden 2026 voraussichtlich auch offener über gescheiterte KI-Projekte berichten (vgl. Lynch, 2025).

3. Der «ChatGPT-Moment» im Gesundheitswesen

Für die Medizin markiert 2026 einen potenziellen Wendepunkt. Curtis Langlotz (Stanford University) prognostiziert einen «ChatGPT-Moment» für die Medizin, da Modelle nun auf massiven, qualitativ hochwertigen Gesundheitsdaten trainiert werden. Diese neuen biomedizinischen Grundmodelle werden die Genauigkeit medizinischer KI-Systeme verbessern und neue Tools ermöglichen, mit denen seltene und ungewöhnliche Krankheiten diagnostiziert werden können, für die nur wenige Trainingsdatensätze zur Verfügung stehen.

In der Schweiz wird dieser Fortschritt in den Spitälern sichtbar. Das Universitätsspital Lausanne (CHUV) plant ab Mai 2026 den Test des Modells Meditron in der Notaufnahme, um das Personal bei klinischen Entscheidungen zu unterstützen (vgl. Ibrahim, 2026). Ein entscheidender Vorteil von Open-Source-Modellen wie Meditron ist laut Mary-Anne Hartley (EPFL), dass sie lokal betrieben werden können, wodurch sensible Patientendaten geschützt bleiben.

4. Wissenschaft: Die Öffnung der «Black Box»

In der Forschung wird KI 2026 zum aktiven Teilnehmer am Entdeckungsprozess, der Hypothesen generiert und Experimente in Chemie oder Biologie steuert (vgl. Microsoft, 2025). Russ Altman (Stanford University) betont jedoch die Notwendigkeit, die «Black Box» der KI zu öffnen: In der Wissenschaft reiche eine korrekte Vorhersage nicht aus; man müsse verstehen, wie das Modell zu dem Ergebnis gekommen ist (vgl. Lynch, 2025). Neu ist die zunehmende Bedeutung des hybriden Rechnens, bei dem Quantencomputing Seite an Seite mit KI und Supercomputern arbeiten (vgl. Microsoft, 2025).

5. Regulierung und Schutz vor Diskriminierung

Rechtlich setzt die Schweiz 2026 auf die Anpassung bestehender Gesetze statt auf ein allgemeines KI-Gesetz (vgl. Ibrahim, 2026).
  • Diskriminierungsschutz: Die Schweiz plant laut Innenministerin Elisabeth Baume-Schneider, die Bevölkerung stärker vor algorithmischer Diskriminierung zu schützen. Besonders im Fokus stehen sensible Bereiche wie die Kreditvergabe und die Personalbeschaffung. Bis Ende 2026 sollen die Behörden sowohl verbindliche als auch unverbindliche Massnahmen gegen Diskriminierung ausarbeiten, etwa im Gesundheitswesen und in der autonomen Mobilität.(vgl. Ibrahim, 2026).
  • Fokus auf Geschäftsmodelle: Der KI-Experte Thilo Stadelmann (ZHAW) ist hält fest, dass neue Technologien mit grossen gesellschaftlichen Auswirkungen reguliert werden müssen. Entscheidend seien dabei weniger die Technologien selbst als vielmehr die Geschäftsmodelle dahinter. Das grösste Risiko für die Gesellschaft entstehe durch profitorientierte Modelle, die KI nutzen, um Aufmerksamkeit zu maximieren und Suchtverhalten zu fördern. Besonders betroffen seien junge Menschen. Als Beispiel nennt er soziale Medien, die mithilfe algorithmischer Systeme gezielt Nutzerbindung erzeugen (vgl. Ibrahim, 2026).
Das Jahr 2026 wird als ein Jahr des Realismus beschrieben (Lynch, 2025). Es geht um die Integration von KI in bestehende Strukturen, die Sicherung der technologischen Souveränität und den Nachweis eines tatsächlichen wirtschaftlichen und gesellschaftlichen Nutzens (vgl. Ibrahim, 2026; Microsoft, 2025).

Eines ist klar: Die Entwicklungen und Integration von KI-Systemen werden weiter voranschreiten. Was hältst du von diesen Aussichten? Welche Entwicklungen siehst du – eventuell auch in Bezug auf dein berufliches Umfeld?

Quellen:

Ibrahim, S. (2026). Künstliche Intelligenz in der Schweiz: Was wir 2026 erwarten können. SWI swissinfo.ch. [13.1.25]
 
Lynch, S. (2025). Stanford AI Experts Predict What Will Happen in 2026. Stanford HAI. [13.1.25]
 
Microsoft (2025). Was kommt als Nächstes in der KI: 7 Trends für 2026. Source EMEA. [13.1.25]

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95