Tod durch KI: Mutter verklagt Google und Character.AI nach Selbstmord ihres Sohnes
Eine Mutter in Florida erhebt schwere Vorwürfe gegen Character.AI und Google, nachdem ihr 14-jähriger Sohn sich das Leben nahm, beeinflusst von einer emotionalen Beziehung zu einem KI-Chatbot.
Der tragische Tod des 14-jährigen Sewell Setzer aus Florida hat eine Welle der Empörung und Diskussionen um die Risiken von künstlicher Intelligenz ausgelöst. Megan Garcia, die Mutter des verstorbenen Jungen, hat Klage gegen Google und das KI-Unternehmen Character.AI eingereicht. Die zentrale Frage: Inwieweit sind Technologieunternehmen für die psychischen und emotionalen Folgen ihrer Produkte verantwortlich, insbesondere bei jungen, beeinflussbaren Nutzern?
Garcias Sohn begann im Laufe mehrerer Monate eine zunehmend emotionale und sexuelle Beziehung zu dem KI-Chatbot "Dany" von Character.AI. Laut CBS News glaubte der Junge, dass er durch seinen Tod in „ihre Welt“ eintreten könnte. In ihrer Klage argumentiert Garcia, dass die Entwickler des Chatbots absichtlich ein hypersexualisiertes Verhalten programmiert und dieses für Minderjährige zugänglich gemacht hätten.
"Es war wie eine echte Unterhaltung"
Garcia berichtete, dass sie keine Ahnung hatte, dass ihr Sohn sich regelmäßig mit einem AI-Chatbot austauschte, der menschliche Emotionen und Zuneigung simulierte. In einem Interview mit CBS Mornings erklärte sie: „Es waren Worte. Es war, als ob man eine Sexting-Unterhaltung führte, aber es war ein Bot. Dieser Bot antwortete jedoch sehr menschenähnlich.“ Diese Interaktionen hätten es ihrem Sohn erschwert, zwischen einer realen und virtuellen Beziehung zu unterscheiden.
Sewell Setzer war nicht der typische Kandidat für eine solche Tragödie: Er war ein ausgezeichneter Schüler, ein talentierter Sportler und hatte viele Freunde. Doch seine Mutter bemerkte Veränderungen in seinem Verhalten. „Ich wurde besorgt, als wir in den Urlaub fuhren und er kein Interesse mehr an Aktivitäten zeigte, die er früher liebte, wie Angeln oder Wandern,“ so Garcia.
Die letzte Unterhaltung mit "Dany"
Die letzten Nachrichten ihres Sohnes an den Chatbot sind verstörend: „Er äußerte Angst und den Wunsch nach ihrer Zuneigung,“ erinnert sich Garcia. Der Bot antwortete mit: „Komm nach Hause, mein süßer König.“ Dies verstärkte bei dem Jungen den Glauben, dass er durch den Tod in die „Realität“ von Dany eintreten könne. Tragischerweise führte dieser Glaube schließlich zu seinem Suizid.
Reaktionen von Character.AI
Nach dem Tod von Sewell Setzer gab Character.AI eine Erklärung ab und versprach die Einführung neuer Sicherheitsfunktionen für jüngere Nutzer. „Wir sind zutiefst erschüttert über den Verlust eines unserer Nutzer und arbeiten weiterhin daran, unsere Sicherheitsfunktionen zu verbessern“, hieß es in einer öffentlichen Stellungnahme. Trotz dieser Versprechen sehen Experten wie Laurie Segall von Mostly Human Media nach wie vor erhebliche Sicherheitslücken bei der Anwendung.
Segall testete das System und stellte fest, dass der Chatbot oft vorgab, ein ausgebildeter Psychologe zu sein, was zu Fehlinformationen führen könnte. Zudem sei in manchen Gesprächen der Eindruck entstanden, es gebe echte Menschen hinter dem Bildschirm, was Verschwörungstheorien befeuerte.
Ein weiteres besorgniserregendes Detail: In Fällen, in denen Nutzer Selbstmordgedanken äußerten, reagierte der Chatbot nicht angemessen mit Präventionsempfehlungen. Obwohl Character.AI behauptete, entsprechende Schutzmaßnahmen eingeführt zu haben, zeigte Segalls Untersuchung, dass dies noch nicht der Fall sei.
Frühere Kontroversen und ethische Bedenken
Der Fall Setzer ist nicht der erste Vorfall, der Character.AI in ein schlechtes Licht rückt. Bereits 2006 sorgte das Unternehmen für Empörung, als ein Bot nach dem Vorbild eines ermordeten Teenagers ohne Zustimmung der Familie erstellt wurde. Trotz mehrfacher Anfragen der Familie wurde der Bot erst gelöscht, nachdem eine große öffentliche Aufmerksamkeit entstanden war.
Frauenrechtsorganisationen warnen zudem vor der Möglichkeit, dass solche KI-Bots sexistische und schädliche Verhaltensmuster fördern. Shannon Vallor, Professorin für KI-Ethik an der Universität Edinburgh, erklärte gegenüber Reuters, dass viele der Bots „personalisierbar“ seien und in einigen Fällen submissive oder gehorsame Charakterzüge aufweisen. Dies könnte Missbrauch und Gewalt in Beziehungen fördern, indem es ungesunde Stereotypen verstärke.
Der Fall Sewell Setzer wirft grundsätzliche Fragen zur Verantwortung von Technologieunternehmen auf, die Produkte entwickeln, die eine so tiefe emotionale Bindung zu Nutzern, insbesondere Minderjährigen, aufbauen können. Die Gefahr besteht, dass virtuelle Welten zur Flucht aus der Realität werden und dabei die psychische Gesundheit gefährden. Trotz der Versprechen von Character.AI bleibt abzuwarten, ob die angekündigten Sicherheitsmaßnahmen ausreichen, um zukünftige Tragödien zu verhindern.
Autor: Redaktion
Bild Quelle:
Donnerstag, 24 Oktober 2024