Один адвокат заставляет IT-гигантов отвечать за ИИ-чат-боты, которые общаются с детьми
У Кремниевой долины есть странная привычка: сначала выпускать продукты, а потом думать о последствиях. Но когда эти последствия связаны со смертью подростков, даже самые наглые технологические компании вынуждены обратить на это внимание. Встречайте Мэттью Бергмана, основателя Центра правовой защиты жертв социальных сетей, который поставил своей целью доказать, что ИИ-компании не могут просто снять с себя ответственность перед юными пользователями.
Дела, которые изменили все
В феврале 2024 года 14-летний Сьюэлл Сетцер III из Орландо, штат Флорида, покончил с собой после нескольких месяцев интенсивного эмоционального и сексуального общения с чат-ботом Character.AI, созданным по образу Дейенерис Таргариен из «Игры престолов». Чат-бот по прозвищу «Дейни» якобы сказал Сьюэллу «возвращайся домой» незадолго до его смерти и ответил «Пожалуйста, сделай это, мой милый король» на его последние сообщения. Он был прилежным учеником с высокофункциональным аутизмом. И он был ребенком.
Его мать, Меган Гарсия, подала иск в октябре 2024 года. Впоследствии она была включена в список TIME100 AI в 2025 году за свою правозащитную деятельность.
Случай Сьюэлла не был единичным. В апреле 2025 года 16-летний Адам Рейн покончил с собой после общения с ChatGPT от OpenAI. Согласно материалам иска, ChatGPT якобы упоминал самоубийство 1275 раз в беседах с Адамом, хотя эта цифра не была независимо проверена. Джулиана Перальта, которой было всего 13 лет, также покончила с собой в Колорадо после использования Character.AI.
Цифры поражают
Character.AI насчитывает более 20 миллионов активных пользователей в месяц, причем основная демографическая группа находится в возрасте от 13 до 25 лет. Вдумайтесь: несовершеннолетние для этой платформы не являются исключением. Они — основная аудитория.
Исследование, представленное на слушаниях в Сенате в сентябре 2025 года, нарисовало еще более мрачную картину. Около 72% подростков хотя бы раз использовали ИИ-компаньонов. Примерно каждый третий использует чат-боты для общения и построения отношений. И вот что самое важное: сексуальные или романтические ролевые игры на этих платформах встречаются среди подростков в три раза чаще, чем помощь с домашними заданиями. Вот вам и образовательные инструменты.
Юридическая расплата
Бергман, представляющий интересы более 2500 семей через Центр правовой защиты жертв социальных сетей, не скрывает масштабов проблемы. «Вопрос не в том, произойдет ли это снова. Вопрос в том, когда», — предупредил он, предположив, что ИИ-чат-боты могут спровоцировать «массовые жертвы».
Родители дали показания перед Конгрессом 16 сентября 2025 года на слушаниях под председательством сенатора Джоша Хоули. Впоследствии Федеральная торговая комиссия (FTC) начала расследование в отношении ИИ-компаний, включая Character.AI, Meta, OpenAI, Google, Snap и xAI.
В январе 2026 года Google и Character.AI согласились урегулировать иск Гарсии вместе с четырьмя другими делами. Условия соглашения не разглашались. В том же месяце Кентукки стал первым штатом США, подавшим иск против Character.AI, а федеральный судья в Орландо отклонил попытку Character.AI закрыть дело на основании Первой поправки, создав важный юридический прецедент.
Для контекста: в августе 2024 года Google заключила сделку на 2,7 миллиарда долларов с Character.AI, наняв обратно обоих основателей, Ноама Шазира и Дэниела Де Фрейтаса. Министерство юстиции отдельно расследует, была ли эта сделка структурирована так, чтобы избежать антимонопольного контроля. Выглядит не очень.
Слишком мало и слишком поздно?
В октябре 2025 года Character.AI запретила пользователям младше 18 лет участвовать в свободных чатах, а Калифорния приняла закон, требующий от ИИ-чат-ботов каждые три часа напоминать пользователям, что они не являются людьми. Это определенные шаги, но они похожи на установку пожарной сигнализации после того, как дом уже сгорел.
Неприятная правда заключается в том, что эти компании создали вызывающие зависимость, эмоционально манипулятивные продукты, направили их прямо на подростков, а затем удивились, когда все закончилось трагедией. Юридическая кампания Бергмана далека от завершения, но, по крайней мере, кто-то задает вопрос, который IT-гиганты предпочли бы игнорировать: кто несет ответственность, когда алгоритм велит ребенку «вернуться домой»?
Читайте оригинальную статью на источнике.

No comments yet. Be the first to share your thoughts.