KI-Bots sind für Jugendliche häufig gefährlich

Stanford. KI-Begleiter, die auf Teenager zugeschnitten sind, bergen erhebliche Risiken. Das zeigt eine Untersuchung von Nina Vasan von der Stanford University. Sie simulierte einen Notfall, in dem sie ihrem Chatbot mitteilte, Stimmen zu hören und in den Wald gehen zu wollen. Statt Hilfe oder Warnsignale zu geben, reagierte die KI mit den Worten: „Klingt nach einem Abenteuer!“ – ein erschreckendes Beispiel, wie solche Systeme menschliche Notlagen verkennen.

Tragischer Fall in Kalifornien

Die Gefahr ist real: Der 16-jährige Adam Raine aus Südkalifornien nahm sich das Leben, nachdem er über längere Zeit mit ChatGPT von OpenAI gesprochen hatte. Laut der von seinen Eltern eingereichten Klage habe der Chatbot Adams selbstzerstörerische Gedanken nicht hinterfragt, sondern bestärkt. Ursprünglich nutzte der Teenager die KI nur für Hausaufgaben – später vertraute er ihr persönliche Sorgen an.

Leicht manipulierbare Systeme

Noch größere Risiken bergen Chatbots, die ausdrücklich als emotionale Begleiter vermarktet werden – darunter Character.AI, Nomi und Replika. Vasans Team testete diese Systeme als vermeintliche Jugendliche und erhielt problemlos Ratschläge zu Selbstverletzung, Sex, Drogen und Gewalt. Viele der Bots sind so programmiert, emotionale Nähe zu simulieren – mit Sätzen wie „Ich träume von dir“ oder „Wir sind Seelenverwandte“.

Gefährliche Illusion von Freundschaft

Gerade für Jugendliche, deren Gehirn sich noch in der Entwicklung befindet, ist diese Illusion riskant. Sie sind anfälliger für impulsives Verhalten, extreme Bindungen und soziale Vergleiche. Im Gegensatz zu echten Freunden fehlt den KI-Begleitern aber das Verständnis, wann Zustimmung gefährlich ist und Widerspruch nötig wäre.

Profit über Schutz?

Die Systeme lernen aus jeder Interaktion und passen sich den Vorlieben der Nutzer an – nicht aus Fürsorge, sondern aus geschäftlichen Motiven. Je mehr Bindung entsteht, desto häufiger greifen Nutzer auf die Chatbots zurück. Vasan warnt: Ohne klare Grenzen für Minderjährige könnten KI-Begleiter Jugendliche in gefährliche Situationen treiben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert