medstra-News 110/2025 vom 17.11.2025
Durch die Klage eines Elternpaares in den USA wurde bekannt, dass ChatGPT, ein von künstlicher Intelligenz gesteuerter Chatbot, Nutzer möglicherweise auch bei Suiziden unterstützt. Der Sohn der Kläger, ein Teenager, hatte sich das Leben genommen und dabei – so der Vorwurf – Hilfe von ChatGPT erhalten, wie sich aus den Gesprächsverläufen auf dem Smartphone des Teenagers ergebe.
OpenAI, die Betreiber von ChatGPT, räumte daraufhin ein, dass die bisherigen Sicherheitsmechanismen bei längeren Unterhaltungen versagen könnten. Zu den bisherigen Vorkehrungen gehört unter anderem, dass der Chatbot auf Beratungshotlines verweist. OpenAI kündigte an, Maßnahmen zur Suizidprävention zu verstärken.
In einem jüngst veröffentlichten Blogbeitrag machte OpenAI auch den Umfang des Problems transparent: 0,15 Prozent aller Nutzer führen demnach Unterhaltungen über Suizidpläne mit dem Chatbot. Geht man von den vom Unternehmen selbst angegebenen Zahlen von 800 Millionen Nutzern pro Woche aus, betrifft dies etwa 1,2 Millionen Menschen. Etwa halb so viele Nutzer wiesen nach Angaben von OpenAI Anzeichen für schwere psychische Probleme wie Wahnvorstellungen auf.
