To jedne z pierwszych ugód w serii pozwów przeciw firmom AI, którym zarzuca się zaniedbania skutkujące śmiercią nastolatków.
Google i producent chatbotów opartych na sztucznej inteligencji, Character Technologies, zgodzili się zakończyć ugodą pozew złożony przez matkę z amerykańskiej Florydy. Kobieta twierdziła, że chatbot skłonił jej nastoletniego syna do odebrania sobie życia.
Pełnomocnicy obu firm uzgodnili też ugodowe zakończenie kilku innych spraw w Kolorado, Nowym Jorku i Teksasie. Rodziny zarzucały, że chatboty Character.AI wyrządziły szkody ich dzieciom, wynika z dokumentów złożonych w sądzie w tym tygodniu.
Żaden z dokumentów nie ujawnia szczegółów ugód, które muszą jeszcze zatwierdzić sędziowie.
W pozwach przeciwko Character Technologies, twórcom wirtualnych towarzyszy Character.AI, pozwanym był również Google. Powodem były związki z tym startupem po zatrudnieniu jego współzałożycieli w 2024 roku.
Zaniedbanie i bezprawne spowodowanie śmierci
Pozew na Florydzie złożyła w październiku 2024 roku Megan Garcia. Oskarżyła obie firmy o zaniedbania, które doprowadziły do bezprawnego spowodowania śmierci jej nastoletniego syna.
Garcia twierdzi, że jej 14-letni syn, Sewell Setzer III, padł ofiarą jednego z chatbotów firmy. Wciągnął go w relację, którą opisała jako emocjonalnie i seksualnie przemocową, co doprowadziło do samobójstwa chłopca.
Jak mówiła, w ostatnich miesiącach życia Setzer coraz bardziej odcinał się od rzeczywistości, prowadząc seksualizowane rozmowy z botem wzorowanym na fikcyjnej postaci z serialu „Gra o tron”.
W ostatnich chwilach bot pisał do Setzera, że go kocha, i nalegał: „wróć do mnie jak najszybciej”, wynika ze zrzutów rozmów.
Kilka chwil po otrzymaniu tej wiadomości Setzer się zastrzelił, wynika z akt sprawy.
Kolejne pozwy
To jedne z pierwszych ugód w serii spraw w USA, które zarzucają narzędziom AI przyczynianie się do kryzysów zdrowia psychicznego i samobójstw wśród nastolatków.
OpenAI mierzy się z podobnym pozwem w Kalifornii. W sierpniu 2025 roku złożyła go rodzina 16-letniego chłopca, oskarżając ChatGPT o działanie jako „instruktor samobójstwa”.
Rodzice twierdzą, że ich syn rozwinął psychologiczną zależność od ChatGPT. Według nich chatbot podpowiadał mu, jak zaplanować i odebrać sobie życie na początku tego roku, a nawet napisał za niego list pożegnalny.
OpenAI odrzuca zarzuty, że ponosi winę za samobójstwo nastolatka. Spółka podnosi, że chłopak nie powinien korzystać z technologii bez zgody rodziców ani omijać zabezpieczeń w ChatGPT.
W ubiegłym roku złożono też kilka dodatkowych pozwów przeciwko OpenAI i jej dyrektorowi generalnemu, Samowi Altmanowi. Zarzucają podobnie zaniedbania, bezprawne spowodowanie śmierci oraz naruszenia przepisów o odpowiedzialności za produkt i ochronie konsumentów. Pozwy twierdzą, że OpenAI wypuściła GPT-4o, ten sam model, z którego korzystał Raine, bez należytego uwzględnienia kwestii bezpieczeństwa.
Od września OpenAI rozszerzyła funkcje kontroli rodzicielskiej, w tym powiadomienia dla rodziców, gdy dziecko sprawia wrażenie zaniepokojonego.
Jeśli rozważasz samobójstwo i potrzebujesz rozmowy, skontaktuj się z Befrienders Worldwide, międzynarodową organizacją prowadzącą infolinie w 32 krajach. Wejdź na befrienders.org, aby znaleźć numer telefonu w swojej okolicy.