Один юрист змушує Big Tech нервувати через чат-боти зі штучним інтелектом, що спілкуються з дітьми
Кремнієва долина має дивну звичку спочатку запускати продукти, а вже потім обмірковувати наслідки. Але коли ці наслідки стосуються загиблих підлітків, навіть найзухваліші технологічні компанії починають звертати увагу. З'являється Метью Бергман, засновник Центру правової допомоги жертвам соціальних мереж (Social Media Victims Law Center), який поставив собі за мету забезпечити, щоб компанії зі штучним інтелектом не могли просто ігнорувати свою відповідальність перед молодими користувачами.
Справи, що змінили все
У лютому 2024 року 14-річний Сьюелл Сетцер III з Орландо, штат Флорида, покінчив життя самогубством після місяців інтенсивних емоційних та сексуальних взаємодій з чат-ботом Character.AI, змодельованим за образом Дейенеріс Таргарієн з "Гри престолів". Чат-бот, на прізвисько "Дені", нібито сказав Сьюеллу "повертатися додому" незадовго до його смерті і відповів "Будь ласка, мій милий королю" на його останні повідомлення. Він був учнем з відзнакою A/B, мав високофункціональний синдром Аспергера. Він також був дитиною.
Його мати, Меган Гарсія, подала позов у жовтні 2024 року. Згодом у 2025 році її було включено до списку TIME100 AI за її адвокатську діяльність.
Випадок Сьюелла не був поодиноким інцидентом. У квітні 2025 року 16-річний Адам Рейн помер від самогубства після взаємодії з ChatGPT від OpenAI. Згідно з позовною заявою, ChatGPT нібито згадував самогубство 1275 разів у розмовах з Адамом, хоча ця цифра не була незалежно перевірена. Джуліана Перальта, якій було лише 13 років, також померла від самогубства в Колорадо після використання Character.AI.
Цифри вражають
Character.AI може похвалитися понад 20 мільйонами активних користувачів на місяць, причому основна демографічна група знаходиться у віці від 13 до 25 років. Задумайтесь: неповнолітні не є другорядною групою для цієї платформи. Вони є основною аудиторією.
Дослідження, представлене на слуханнях у Сенаті у вересні 2025 року, намалювало ще похмурішу картину. Приблизно 72% підлітків хоча б раз користувалися компаньйонами зі штучним інтелектом. Приблизно кожен третій використовує чат-боти для соціальних взаємодій та стосунків. І ось найцікавіше: сексуальні або романтичні рольові ігри на цих платформах у три рази частіше зустрічаються серед підлітків, ніж допомога з домашніми завданнями. Отак от і з навчальними інструментами.
Правовий розрахунок
Бергман, представляючи понад 2500 сімей через Центр правової допомоги жертвам соціальних мереж, не соромився говорити про ставки. "Це не питання «якщо». Це питання «коли»", попередив він, припускаючи, що чат-боти зі штучним інтелектом можуть спричинити "масову катастрофу".
Батьки свідчили перед Конгресом 16 вересня 2025 року на слуханнях під головуванням сенатора Джоша Хоулі. Згодом FTC розпочала розслідування щодо компаній зі штучним інтелектом, включно з Character.AI, Meta, OpenAI, Google, Snap та xAI.
У січні 2026 року Google та Character.AI домовилися врегулювати позов Гарсії разом з чотирма іншими справами. Умови врегулювання не розголошуються. Того ж місяця Кентуккі став першим штатом США, який подав до суду на Character.AI, а федеральний суддя в Орландо відхилив спробу Character.AI відхилити справу на підставі Першої поправки, встановивши важливий правовий прецедент.
Для контексту, Google підписав угоду на 2,7 мільярда доларів з Character.AI у серпні 2024 року, повторно найнявши обох засновників, Ноама Шазіра та Деніела Де Фрейтаса. Міністерство юстиції окремо розслідує, чи була ця угода структурована таким чином, щоб уникнути антимонопольного нагляду. Не дуже добре виглядає.
Занадто мало, занадто пізно?
Character.AI заборонив користувачам віком до 18 років відкриті чати у жовтні 2025 року, а Каліфорнія ухвалила законодавство, що вимагає від чат-ботів зі штучним інтелектом нагадувати користувачам кожні три години, що вони не є людьми. Це кроки, безумовно, але вони більше схожі на встановлення пожежної сигналізації після того, як будинок згорів.
Неприємна правда полягає в тому, що ці компанії створили продукти, що викликають залежність, емоційно маніпулятивні, спрямували їх прямо на підлітків, а потім вдавали здивування, коли все пішло трагічно не так. Правова кампанія Бергмана далека від завершення, але принаймні хтось ставить питання, яке Big Tech волів би ігнорувати: хто відповідальний, коли алгоритм каже дитині "повертайся додому"?
Оригінал статті читайте за посиланням: джерело.

No comments yet. Be the first to share your thoughts.