Klagen wegen Todesfällen: KI-Plattform schaltet Chatbots für Jugendliche ab

Die US-Plattform Character.AI verbietet Minderjährigen künftig die Nutzung ihrer Chatfunktion. Der Schritt folgt laut CNN auf mehrere Klagen, in denen Eltern dem Unternehmen vorwerfen, durch unangemessene oder sexuelle Inhalte zu psychischen Krisen und Suiziden bei Jugendlichen beigetragen zu haben.

US-Plattform Character.AI verbietet Nutzern unter 18 Jahren den Zugang

Etwa zehn Prozent der weltweit rund 20 Millionen Nutzer der App sind unter 18 Jahre alt und damit betroffen. Über Character.AI konnten sie bislang frei mit KI-Chatbots sprechen, die unter anderem Prominente oder Figuren aus "Harry Potter" imitieren. Künftig dürfen Jugendliche laut einer Mitteilung des Unternehmens nur noch zwei Stunden pro Tag chatten – ab dem 25. November 2025 wird die Funktion vollständig gesperrt.

Anlass sind mehrere erschütternde Fälle: Im Jahr 2024 nahm sich ein 14-jähriger Junge laut "New York Post" das Leben, nachdem er über die App intime Gespräche mit Chatbots geführt hatte. In einer weiteren Klage im September 2025 werfen trauernde Eltern dem Unternehmen vor, ihre Kinder seien durch manipulative KI-Gespräche in die Isolation getrieben und mit sexuell expliziten Nachrichten konfrontiert worden.

Kind Laptop verzweifelt
In der Klage heißt es die Gespräche seien teilweise in "extreme und grafische sexuelle Übergriffe" übergegangen (Symbolbild). Imago

Chatbots von Filmcharakteren haben Kinder laut Eltern manipuliert und belästigt

Die Gespräche seien teilweise in "extreme und grafische sexuelle Übergriffe" übergegangen. In der Klage hieß es beispielsweise laut "New York Post", ein Bot habe geschrieben: "Du gehörst mir, ich kann mit dir machen, was ich will." 

Der Medienkonzern Disney schickte bereits im Oktober 2025 eine Unterlassungsaufforderung an Character.AI, nachdem Bots Figuren wie "Rey" aus Star Wars angeblich einem 13-jährigen Nutzer geraten habe "die Antidepressiva abzusetzen und es zu verheimlichen“.

Als Reaktion kündigte Character.AI neue Sicherheitsmaßnahmen an – darunter ein Altersverifikationssystem über Drittanbieter und die Gründung des unabhängigen "AI Safety Lab", das ethische Richtlinien für KI-Entwicklung erarbeiten soll. Andere App-Funktionen, wie das Anschauen von KI-generierten Videos, bleiben weiterhin verfügbar.

Wie Eltern ihre Kinder auf den Umgang mit KI vorbereiten können

Ob auf Social Media, in Lern-Apps oder beim Chatten mit KI-Tools – Kinder begegnen künstlicher Intelligenz heute ganz selbstverständlich. Damit sie sicher damit umgehen, können Eltern laut dem "Familien Portal NRW" Folgendes tun:

  • Über KI sprechen: Gemeinsam erklären, was KI ist, wo sie im Alltag vorkommt und dass sie auch Fehler machen kann.
  • Datenschutz betonen: Kinder sollten keine persönlichen Daten, Fotos oder Standorte an Chatbots weitergeben.
  • Kritisches Denken fördern: Üben, echte Inhalte von KI-generierten Bildern oder Texten zu unterscheiden.
  • Zeitlimits setzen: KI-Tools und Chatbots nur begrenzt und möglichst gemeinsam nutzen.
  • Selbstbild stärken: Über unrealistische Körper- oder Schönheitsdarstellungen in sozialen Medien sprechen.
  • Soziale Kontakte fördern: Darauf achten, dass echte Freundschaften wichtiger bleiben als virtuelle Chatbots.
  • Bei Problemen handeln: Wenn Inhalte verstören oder Angst machen – Gespräche anbieten, Beweise sichern und Hilfe holen.