Проблема ИИ-аватаров в TikTok: как фейковые образы чернокожих женщин используются для продажи откровенного контента
Расследование, которое вынудило TikTok действовать
Вот фраза, которую не должно было быть нужды читать в 2026 году: десятки аккаунтов в социальных сетях использовали созданные с помощью ИИ аватары сексуализированных чернокожих женщин, чтобы перенаправлять пользователей к платному откровенному контенту. И тем не менее, согласно расследованию BBC News Arabic, опубликованному на этой неделе, именно это происходило в TikTok и Instagram - в основном бесконтрольно, пока журналисты не начали задавать вопросы.
Би-би-си совместно с независимым изданием об ИИ Riddance и аналитиками Джереми Карраско и Энджел Нулани предположительно выявила около 60 аккаунтов с ИИ-созданными аватарами чернокожих женщин на обеих платформах. Это были не тонко замаскированные дипфейки, спрятанные в тёмных уголках интернета. Они набирали миллионы просмотров.
Похищенный контент, синтетические лица
Расследование выявило особенно мрачную технику. По данным Би-би-си, малазийская модель, известная как Рия Улан, предположительно стала жертрой кражи её видеоконтента: на её оригинальные движения было наложено ИИ-сгенерированное тёмное лицо. Результат - вымышленный персонаж, действующий в теле реального создателя контента.
Цифры, приводимые Би-би-си, поражают, хотя их сложно проверить независимым образом. Одно из изменённых видео предположительно набрало 35 миллионов просмотров в TikTok и 173 миллиона в Instagram - примерно в 47 раз больше, чем оригинальная публикация Рии. Один аккаунт предположительно набрал 3 миллиона подписчиков в TikTok всего за несколько недель после создания в декабре. Это не органический рост. Это алгоритмное ракетное топливо.
Соглашение об именовании, которое говорит само за себя
Аккаунты даже не пытались скрыть свои намерения. Согласно расследованию, многие из них включали расовые термины - такие как «black», «noir», «dark» и «ebony» - прямо в свои названия. Это согласуется с более широкими исследованиями, показывающими, что фразы вроде «AI Generated Black Women» («чернокожие женщины, созданные ИИ») и «Black Women Baddies AI» стали активными поисковыми категориями на страницах обнаружения самого TikTok.
Ссылки из этих аккаунтов вели на платные сайты с сексуально откровенным контентом. Примечательно, что сайты-назначения маркировали материалы как ИИ-сгенерированные, однако социальные сети, размещавшие рекламный контент, этого не делали. Удобное упущение, не правда ли.
Реакция платформ: привычный сценарий
TikTok заблокировал 20 аккаунтов после того, как Би-би-си вышла на связь с компанией. Не до этого. После. Платформа заявила, что запрещает ИИ-сгенерированный контент с изображением людей без их согласия и придерживается «нулевой терпимости» к контенту, продвигающему сексуальные услуги за пределами платформы. Многочисленные расследования изданий, включая The Bureau of Investigative Journalism и Media Matters, задокументировали весьма значительный разрыв между декларируемой политикой TikTok и тем, что реально соблюдается.
Реакция Meta оказалась ещё менее убедительной. По данным Би-би-си, компания сообщила, что проводит расследование, однако не предприняла немедленных действий. Девять аккаунтов в Instagram впоследствии предположительно исчезли, хотя сроки и причины остаются неясными. Собственное более раннее расследование Riddance показало, что из 23 видеозаписей, о которых было сообщено в Instagram, Meta удалила лишь одну.
Больше чем проблема контента
Марокканская модель и создатель контента Худа Фонон охарактеризовала эту тенденцию как «стирание» аутентичного образа чернокожих женщин в интернете. И она права. Речь идёт не просто о сомнительном ИИ-контенте. Это вписывается в гораздо более широкую задокументированную закономерность, уходящую корнями как минимум к середине 2025 года: от тренда «Bigfoot Baddie», ставшего возможным благодаря Veo 3 от Google, до ИИ-сгенерированных фейковых видео, которые Fox News по ошибке выдал за настоящие.
Как отметила исследователь Института Брукингса Никол Тёрнер Ли, здесь прослеживается мрачный исторический прецедент. В эпоху рабства чернокожих людей намеренно изображали в преувеличенном виде на иллюстрациях, чтобы подчеркнуть предполагаемые примитивные черты. Анализ 5000 ИИ-подсказок показал, что 68% результатов опирались на стереотипы. Технология новая. Расизм - нет.
Итог
Социальные сети располагают инструментами для проактивного обнаружения и удаления подобного контента. Они просто предпочитают этого не делать - до тех пор, пока им не позвонит журналист. Это не модерация. Это связи с общественностью.
Читайте оригинальную статью по ссылке.

No comments yet. Be the first to share your thoughts.