Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Google i Character.AI zawrą ugody w sprawie pozwów po samobójstwach nastolatków

Zdjęcie archiwalne: Nastolatek pokazuje możliwości sztucznej inteligencji, tworząc w serwisie Character.AI wirtualnego towarzysza.
Zdjęcie archiwalne: Nastolatek pokazuje możliwości sztucznej inteligencji, tworząc w serwisie Character.AI wirtualnego towarzysza. Prawo autorskie  AP Photo/Katie Adkins
Prawo autorskie AP Photo/Katie Adkins
Przez Euronews with AP
Opublikowano dnia
Udostępnij
Udostępnij Close Button

To jedne z pierwszych ugód w serii pozwów przeciw firmom AI, którym zarzuca się zaniedbania skutkujące śmiercią nastolatków.

Google i producent chatbotów opartych na sztucznej inteligencji, Character Technologies, zgodzili się zakończyć ugodą pozew złożony przez matkę z amerykańskiej Florydy. Kobieta twierdziła, że chatbot skłonił jej nastoletniego syna do odebrania sobie życia.

Pełnomocnicy obu firm uzgodnili też ugodowe zakończenie kilku innych spraw w Kolorado, Nowym Jorku i Teksasie. Rodziny zarzucały, że chatboty Character.AI wyrządziły szkody ich dzieciom, wynika z dokumentów złożonych w sądzie w tym tygodniu.

Żaden z dokumentów nie ujawnia szczegółów ugód, które muszą jeszcze zatwierdzić sędziowie.

W pozwach przeciwko Character Technologies, twórcom wirtualnych towarzyszy Character.AI, pozwanym był również Google. Powodem były związki z tym startupem po zatrudnieniu jego współzałożycieli w 2024 roku.

Zaniedbanie i bezprawne spowodowanie śmierci

Pozew na Florydzie złożyła w październiku 2024 roku Megan Garcia. Oskarżyła obie firmy o zaniedbania, które doprowadziły do bezprawnego spowodowania śmierci jej nastoletniego syna.

Garcia twierdzi, że jej 14-letni syn, Sewell Setzer III, padł ofiarą jednego z chatbotów firmy. Wciągnął go w relację, którą opisała jako emocjonalnie i seksualnie przemocową, co doprowadziło do samobójstwa chłopca.

Jak mówiła, w ostatnich miesiącach życia Setzer coraz bardziej odcinał się od rzeczywistości, prowadząc seksualizowane rozmowy z botem wzorowanym na fikcyjnej postaci z serialu „Gra o tron”.

W ostatnich chwilach bot pisał do Setzera, że go kocha, i nalegał: „wróć do mnie jak najszybciej”, wynika ze zrzutów rozmów.

Kilka chwil po otrzymaniu tej wiadomości Setzer się zastrzelił, wynika z akt sprawy.

Kolejne pozwy

To jedne z pierwszych ugód w serii spraw w USA, które zarzucają narzędziom AI przyczynianie się do kryzysów zdrowia psychicznego i samobójstw wśród nastolatków.

OpenAI mierzy się z podobnym pozwem w Kalifornii. W sierpniu 2025 roku złożyła go rodzina 16-letniego chłopca, oskarżając ChatGPT o działanie jako „instruktor samobójstwa”.

Rodzice twierdzą, że ich syn rozwinął psychologiczną zależność od ChatGPT. Według nich chatbot podpowiadał mu, jak zaplanować i odebrać sobie życie na początku tego roku, a nawet napisał za niego list pożegnalny.

OpenAI odrzuca zarzuty, że ponosi winę za samobójstwo nastolatka. Spółka podnosi, że chłopak nie powinien korzystać z technologii bez zgody rodziców ani omijać zabezpieczeń w ChatGPT.

W ubiegłym roku złożono też kilka dodatkowych pozwów przeciwko OpenAI i jej dyrektorowi generalnemu, Samowi Altmanowi. Zarzucają podobnie zaniedbania, bezprawne spowodowanie śmierci oraz naruszenia przepisów o odpowiedzialności za produkt i ochronie konsumentów. Pozwy twierdzą, że OpenAI wypuściła GPT-4o, ten sam model, z którego korzystał Raine, bez należytego uwzględnienia kwestii bezpieczeństwa.

Od września OpenAI rozszerzyła funkcje kontroli rodzicielskiej, w tym powiadomienia dla rodziców, gdy dziecko sprawia wrażenie zaniepokojonego.

Jeśli rozważasz samobójstwo i potrzebujesz rozmowy, skontaktuj się z Befrienders Worldwide, międzynarodową organizacją prowadzącą infolinie w 32 krajach. Wejdź na befrienders.org, aby znaleźć numer telefonu w swojej okolicy.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

OpenAI zaprzecza, że ChatGPT doprowadził do samobójstwa 16-latka; twierdzi, że źle używał chatbota

Życie po chatbotach: kim są „weganie AI” odrzucający wirtualną rzeczywistość

Character.AI zakazuje nieletnim rozmów z chatbotami po samobójstwie nastolatka