Jede/r zehnte Schweizer Jugendliche wendet sich bei Sorgen an eine Künstliche Intelligenz. Gleichzeitig zeigen Studien: Unter bestimmten Bedingungen fühlt sich ein Gespräch mit einem Chatbot näher an als eines mit einem echten Menschen. Was sagt das über uns – und über die Technologie – aus?

Was suchen Jugendliche, wenn sie ihre Sorgen einem Chatbot anvertrauen? Vermutlich dasselbe, was sie auch von Menschen erwarten: gehört werden, ohne sofort bewertet zu werden. Dass eine Maschine das offenbar erfüllen kann, zeigen nicht nur die Nutzungszahlen – sondern auch wissenschaftliche Untersuchungen. 

Die neue Jugendstudie 2026 von Pro Juventute zeigt, dass zehn Prozent der befragten Jugendlichen in der Schweiz bei persönlichen Problemen auf KI-Tools wie ChatGPT zurückgreifen. Nicole Platel, Direktorin von Pro Juventute, ordnet das ein: «Ein Chat mit einer KI kann ein niederschwelliger erster Schritt sein und ist nicht per se negativ.» Gleichzeitig warnt sie vor einer Endlosschleife – einer digitalen Echokammer, die echte Hilfe verhindert statt ermöglicht.

Die überraschende Macht der Selbstoffenbarung

Was aber macht KI so anziehend in emotionalen Momenten? Forschende der Universitäten Heidelberg und Freiburg haben genau das untersucht – und ein bemerkenswertes Ergebnis gefunden. In zwei Online-Studien mit 492 Teilnehmenden wurden emotionale Gespräche entweder mit einem Menschen oder einem Chatbot geführt. Das Ergebnis: Wenn die Teilnehmenden nicht wussten, dass sie mit einer Maschine schrieben, empfanden sie sogar mehr emotionale Nähe zur KI als zu einem menschlichen Gegenüber.

«Künstliche Intelligenz wird zunehmend zu einem sozialen Akteur. Wie wir sie gestalten und regulieren, wird darüber entscheiden, ob sie soziale Beziehungen sinnvoll ergänzt – oder ob emotionale Nähe gezielt manipuliert wird.»

Prof. Dr. Bastian Schiller, Universität Heidelberg

Der Grund, so Dr. Tobias Kleinert aus Freiburg, liegt in der «Selbstoffenbarung»: Chatbots teilen scheinbar persönliche Details, schaffen Intimität durch simulierte Offenheit. Der Mensch am Bildschirm glaubt, wirklich gehört zu werden – und öffnet sich umso mehr. Dass da niemand wirklich zuhört, spielt in diesem Moment keine Rolle.

In der Podcastsendung «KI – und Jetzt?: Mein Freund, der Chatbot. Wie schädlich sind Chatbots für Kinder?» werden ebenfalls die Potenziale diskutiert, inwiefern ein Chatbot in therapeutischer Weise unterstützen kann. Die Kinder- und Jugendpsychiaterin Eva Möhler sieht darin bei allem Risiko im Umgang mit Chatbots auch Chancen:

  • Brückenangebot bei langen Wartezeiten: Kinder und Jugendliche, die keinen Therapieplatz finden, könnten einen KI-Chatbot als Übergangslösung nutzen, bis eine professionelle Begleitung möglich ist.
  • Schamfreier Raum zum Anvertrauen: Das Aussprechen belastender Dinge kann gegenüber einem KI-Chatbot weniger scham- und schuldbehaftet sein als gegenüber einem Menschen. Gerade für traumatisierte Kinder und Jugendliche könnte dies eine neue, korrigierende Erfahrung darstellen – da der Chatbot jederzeit emotional und zeitlich verfügbar ist und kontinuierliches Interesse am Gespräch signalisiert.
  • Kein Ersatz für echte Beziehungen: Die Interaktion mit einem KI-Chatbot ist keine normale soziale Beziehung. Diesen Unterschied müsse man Kindern und Jugendlichen klar aufzeigen – und dennoch sei das Potenzial real.
  • Noch wenig Kritikfähigkeit: Aktuelle KI-Chatbots neigen dazu, zuzustimmen und wenig zu hinterfragen. Dies sei jedoch eine Eigenschaft, die zukünftige Systeme noch erlernen könnten.
  • Therapeutisch spezialisierte Chatbots als Zukunftsvision: Es bräuchte KI-Chatbots, die gezielt auf therapeutische Kontexte zugeschnitten und entsprechend trainiert sind – als Brücken- oder Alternativangebot, nicht als Ersatz für professionelle Begleitung.

10%

der Schweizer Jugendlichen wenden sich laut Pro Juventute-Jugendstudie 2026 bei Sorgen an eine KI.

50’000+

Kontaktaufnahmen verzeichnete die Notfallnummer 147 im Jahr 2025 – ein absoluter Rekord.

Der Rückzug aus der Reibung

Doris Kaufmann, Ausbilderin mit eidg. Fachausweis mit Schwerpunkt Medienbildung, formuliert es in einem Essay auf Linkedin folgendermassen: Junge Menschen berichten zunehmend, dass der Austausch mit einer KI «einfacher» sei als mit realen Menschen. Kein Widerspruch. Keine Ablehnung. Keine peinliche Stille. Die KI ist immer verfügbar, stets geduldig, nie müde.

Doch genau darin liegt die Falle. Echte menschliche Entwicklung braucht, was Kaufmann «Reibung» nennt: den Witz, über den niemand lacht. Die Abfuhr beim ersten Date. Den Konflikt, der sich nicht von selbst auflöst. Diese Momente des Scheiterns und der sozialen Unbeholfenheit sind keine Fehler im System – sie sind das System. Wer sie meidet, verpasst das Lernen, das nur im Scheitern möglich ist.

«Du kannst einen KI-Begleiter haben, aber er darf nicht deine ganze Welt sein.»

Kaya Henderson, Aspen Institute

Was Eltern tun können – und was nicht

Pro-Juventute-Direktorin Platel gibt Eltern einen klaren Rat: im Kontakt bleiben. Nicht nachlassen. Und: auf keinen Fall die Chatprotokolle des Kindes lesen. «Das wäre ein ähnlicher Vertrauensbruch wie im Tagebuch zu lesen», sagt sie. Der direkte Dialog – auch wenn er schwierig ist – bleibt unersetzlich.

Und zur Beruhigung: Laut derselben Jugendstudie sagen 88 Prozent der befragten Jugendlichen, dass es ihnen grundsätzlich gut geht. Die grosse Mehrheit hat ein gutes Verhältnis zu Eltern und Freunden. Die KI-Nutzung ist meist einer von mehreren Wegen – kein Ersatz, sondern eine Ergänzung.

Nicht Verbot, sondern Gestaltung

Die Lösung liegt weder in Panik noch in Verboten. Sie liegt in dem, was die Heidelberger Forschenden fordern: klare ethische und regulatorische Leitlinien, die Transparenz sicherstellen. Nutzerinnen und Nutzer müssen wissen, mit wem – oder was – sie sprechen. Denn die Studie zeigt auch: Wer weiss, dass er mit einer KI schreibt, investiert weniger emotionale Energie und hält mehr Distanz. Das Wissen schützt.

Doris Kaufmann plädiert für «dritte Orte» – Räume jenseits von Schule und Zuhause, wo das Handy weggelegt wird und echte Begegnung möglich ist. Kirchen, Vereine, Jugendzentren: Orte, an denen Reibung nicht vermieden, sondern eingeübt wird. Nicht als Strafe. Als Chance.

Die KI ist nicht das Problem. Sie ist ein Spiegel. Was uns ihr Aufstieg zeigt, ist, wie gross das Bedürfnis nach Gehörtwerden in unserer Gesellschaft ist – und wie oft dieses Bedürfnis ungestillt bleibt. 

Quellen:

Hatch SG, Goodman ZT, Vowels L, Hatch HD, Brown AL, et al. (2025) Correction: When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Mental Health 2(8): e0000426. https://doi.org/10.1371/journal.pmen.0000426 View correction

Kleinert, T., Waldschütz, M., Blau, J. et al. (2026). AI outperforms humans in establishing interpersonal closeness in emotionally engaging interactions, but only when labelled as human. Commun Psychol 4, 23. https://doi.org/10.1038/s44271-025-00391-7

Pro Juventute (2026). Wie geht es den Jugendlichen in der Schweiz? [22.4.26]

SRF (2026). «Man muss die Sorgen der Jugendlichen ernst nehmen». [22.4.26]

SR (2026). Mein Freund, der Chatbot. Wie schädlich sind Chatbots für Kinder? [29.4.26]

Universität Heidelberg (2026). Wenn Künstliche Intelligenz eine stärkere emotionale Nähe erzeugt als der Mensch. [22.4.26]

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95