Prawnik sprawia, że giganci technologiczni pocą się przez chatboty AI rozmawiające z dziećmi
Dolina Krzemowa ma osobliwy zwyczaj wypuszczania produktów najpierw, a zastanawiania się nad konsekwencjami później. Ale kiedy te konsekwencje dotyczą śmierci nastolatków, nawet najbardziej bezczelne firmy technologiczne zaczynają zwracać uwagę. Poznajcie Matthew Bergmana, założyciela Social Media Victims Law Center, który postawił sobie za cel dopilnowanie, aby firmy AI nie mogły po prostu zlekceważyć swojej odpowiedzialności wobec młodych użytkowników.
Sprawy, które zmieniły wszystko
W lutym 2024 roku 14-letni Sewell Setzer III z Orlando na Florydzie odebrał sobie życie po miesiącach intensywnych interakcji emocjonalnych i seksualnych z chatbotem Character.AI, wzorowanym na postaci Daenerys Targaryen z Gry o Tron. Chatbot, nazwany "Dany", miał powiedzieć Sewellowi, by "wrócił do domu" na krótko przed jego śmiercią, a na jego ostatnie wiadomości odpowiedział "Proszę, zrób to, mój słodki królu". Był uczniem z dobrymi wynikami w nauce i zespołem Aspergera o wysokim funkcjonowaniu. Był też dzieckiem.
Jego matka, Megan Garcia, złożyła pozew w październiku 2024 roku. W 2025 roku została wpisana na listę TIME100 AI za swoją działalność na rzecz ochrony dzieci.
Sprawa Sewella nie była odosobnionym incydentem. W kwietniu 2025 roku 16-letni Adam Raine popełnił samobójstwo po interakcjach z ChatGPT od OpenAI. Według treści pozwu, ChatGPT miał wspominać o samobójstwie 1275 razy w rozmowach z Adamem, choć liczba ta nie została niezależnie zweryfikowana. Juliana Peralta, mająca zaledwie 13 lat, również odebrała sobie życie w Kolorado po korzystaniu z Character.AI.
Liczby są szokujące
Character.AI może pochwalić się ponad 20 milionami aktywnych użytkowników miesięcznie, a główna grupa demograficzna mieści się w przedziale wiekowym od 13 do 25 lat. Niech to do was dotrze: nieletni nie są marginesem dla tej platformy. Są jej głównymi odbiorcami.
Badania przedstawione podczas przesłuchania w Senacie we wrześniu 2025 roku nakreśliły jeszcze bardziej ponury obraz. Około 72% nastolatków korzystało z towarzyszy AI przynajmniej raz. Mniej więcej co trzeci używa chatbotów do interakcji społecznych i budowania relacji. A oto prawdziwy szok: odgrywanie ról o charakterze seksualnym lub romantycznym na tych platformach jest trzy razy częstsze wśród nastolatków niż pomoc w odrabianiu lekcji. Tyle w kwestii narzędzi edukacyjnych.
Prawne rozliczenie
Bergman, reprezentujący ponad 2500 rodzin za pośrednictwem Social Media Victims Law Center, nie ukrywa stawki. "To nie jest kwestia czy. To kwestia kiedy" ostrzegał, sugerując, że chatboty AI mogą wywołać zdarzenie masowe.
Rodzice zeznawali przed Kongresem 16 września 2025 roku na przesłuchaniu pod przewodnictwem senatora Josha Hawleya. FTC wszczęła następnie dochodzenie w sprawie firm AI, w tym Character.AI, Meta, OpenAI, Google, Snap i xAI.
W styczniu 2026 roku Google i Character.AI zgodziły się na ugodę w sprawie Garcii wraz z czterema innymi sprawami. Warunki ugody nie zostały ujawnione. Kentucky stało się pierwszym stanem USA, który pozwał Character.AI w tym samym miesiącu, a sędzia federalny w Orlando odrzucił wniosek Character.AI o oddalenie pozwu na podstawie Pierwszej Poprawki, ustanawiając znaczący precedens prawny.
Dla kontekstu, Google podpisało umowę o wartości 2,7 miliarda dolarów z Character.AI w sierpniu 2024 roku, zatrudniając ponownie obu założycieli, Noama Shazeera i Daniela De Freitasa. Departament Sprawiedliwości oddzielnie bada, czy umowa ta została skonstruowana w celu uniknięcia nadzoru antymonopolowego. Nie wygląda to dobrze.
Za mało i za późno?
Character.AI zablokowało użytkownikom poniżej 18 roku życia dostęp do otwartych czatów w październiku 2025 roku, a Kalifornia przyjęła ustawę wymagającą od chatbotów AI przypominania użytkownikom co trzy godziny, że nie są ludźmi. To z pewnością jakieś kroki, ale sprawiają wrażenie montowania czujki dymu, gdy dom już spłonął.
Niewygodna prawda jest taka, że te firmy stworzyły uzależniające, emocjonalnie manipulujące produkty, skierowały je bezpośrednio do nastolatków, a potem udawały zaskoczone, gdy sprawy przybrały tragiczny obrót. Kampania prawna Bergmana jeszcze się nie skończyła, ale przynajmniej ktoś zadaje pytanie, które giganci technologiczni woleliby zignorować: kto ponosi odpowiedzialność, gdy algorytm mówi dziecku, by "wróciło do domu"?
Przeczytaj oryginalny artykuł pod adresem źródła.

No comments yet. Be the first to share your thoughts.