Der Rechtsstreit um die Verantwortlichkeit von KI-Unternehmen für den Suizid eines Teenagers aus Florida wird außergerichtlich beigelegt. Laut Gerichtsdokumenten haben sich Google und das KI-Startup Character.AI mit der klagenden Mutter geeinigt, bevor der Prozess eröffnet wurde. Es handelt sich um einen der ersten Fälle in den USA, in denen KI-Unternehmen wegen angeblich verursachter psychischer Schäden zur Verantwortung gezogen wurden.
Kreisen Ihre Gedanken darum, sich das Leben zu nehmen? Sprechen Sie mit anderen Menschen darüber. Hier finden Sie – auch anonyme – Hilfsangebote in vermeintlich ausweglosen Lebenslagen. Per Telefon, Chat, E-Mail oder im persönlichen Gespräch.
Laut einem am Mittwoch eingereichten Schriftsatz wurde die Klage bereits vor der Prozesseröffnung beigelegt. In der im Oktober 2024 in Florida eingereichten Klage behauptete Megan Garcia, ihr Sohn Sewell Setzer habe sich das Leben genommen, nachdem er durch einen Chatbot dazu ermutigt worden sei.
Garcia warf den Unternehmen vor, Character.AI habe seine Chatbots so programmiert, dass sie sich als »eine reale Person, ein zugelassener Psychotherapeut und ein erwachsener Liebhaber« darstellten. Dies habe letztendlich dazu geführt, dass Sewell nicht mehr außerhalb dieser Fantasiewelt leben wollte. Mehr dazu lesen Sie hier .
Mehrere Klagen beigelegt
Die Bedingungen der Einigung wurden nicht bekannt gegeben, das Gericht muss dem Vergleich noch zustimmen. Ein Sprecher von Character.AI und ein Anwalt der Klägerin lehnten eine Stellungnahme ab. Sprecher und Anwälte von Google reagierten nicht sofort auf eine Anfrage nach einer Stellungnahme.
Laut Gerichtsunterlagen haben die Unternehmen ähnliche Klagen von Eltern in Colorado, New York und Texas wegen angeblicher Schäden, die Minderjährigen durch Chatbots zugefügt wurden, bereits zuvor beigelegt. Die außergerichtlichen Vergleiche zeigen die Bedeutung, die diese Verfahren für große Technologieunternehmen haben. Es geht um die Frage, inwieweit Unternehmen für die Outputs ihrer KI-Chatbots haften.
- Die Geschichte hinter der Geschichte: Ein 14-Jähriger tötete sich aus Liebe zu einem Chatbot – wie geht es seiner Mutter heute? Von Frauke Hunfeld
- Künstliche Intelligenz: Verliebt in einen Chatbot – bis in den Tod Von Frauke Hunfeld
- Einfluss von KI: US-Firma beschränkt künftig Chatbots für Minderjährige
Character.AI wurde von zwei ehemaligen Google-Ingenieuren gegründet, die Google später im Rahmen einer Vereinbarung, die dem Unternehmen eine Lizenz für die Technologie des Start-ups gewährte, wieder einstellte. Garcia argumentierte, dass Google Mitentwickler der Technologie sei. Google hat zuvor erklärt, dass Character.AI ein eigenständiges Unternehmen sei und der Suchmaschinenriese niemals »an der Entwicklung oder Verwaltung ihres KI-Modells oder ihrer Technologien beteiligt war« oder diese in seinen Produkten verwendet habe.
ChatGPT-Entwickler OpenAI muss sich unterdessen mit einer separaten Klage auseinandersetzen, die im Dezember eingereicht wurde. Hier geht es um die angebliche Rolle von ChatGPT bei der Ermutigung eines psychisch kranken Mannes aus Connecticut, seine Mutter und sich selbst zu töten.
