Проблема ШІ-аватарів у TikTok: як фейкові образи чорношкірих жінок використовуються для продажу відвертого контенту

Проблема ШІ-аватарів у TikTok: як фейкові образи чорношкірих жінок використовуються для продажу відвертого контенту

Розслідування, яке змусило TikTok діяти

Ось речення, яке не повинно існувати у 2026 році: десятки акаунтів у соціальних мережах використовували згенеровані штучним інтелектом аватари сексуалізованих чорношкірих жінок, щоб спрямовувати користувачів до платного відвертого контенту. І все ж, згідно з розслідуванням BBC News Arabic, опублікованим цього тижня, саме це відбувалося у TikTok та Instagram, здебільшого безкарно, доки журналісти не почали ставити запитання.

BBC, працюючи спільно з незалежним виданням про ШІ Riddance та аналітиками Джеремі Карраско і Анджел Нулані, виявило приблизно 60 акаунтів із згенерованими ШІ аватарами чорношкірих жінок на обох платформах. Це були не тонкі діпфейки, захованими у темних куточках інтернету. Вони збирали мільйони переглядів.

Викрадений контент, синтетичні обличчя

Розслідування висвітлює особливо похмуру техніку. За даними BBC, малайзійська модель, відома як Рія Улан, нібито мала вкрадений і маніпульований відеоконтент, на оригінальні рухи якої накладали згенероване ШІ темношкіре обличчя. Результат? Вигадана особа, що виступає у тілі реального творця.

Цифри, наведені BBC, вражають, хоча й важко перевірити їх незалежно. Одне маніпульоване відео нібито набрало 35 мільйонів переглядів у TikTok і 173 мільйони в Instagram, тобто приблизно у 47 разів більше залучення, ніж оригінальна публікація Рії. Один акаунт нібито зібрав 3 мільйони підписників у TikTok за кілька тижнів після створення у грудні. Це не органічне зростання. Це алгоритмне ракетне паливо.

Конвенція найменувань, що говорить сама за себе

Акаунти навіть не намагалися приховати, що робили. Згідно з розслідуванням, багато з них включали расові терміни, такі як «black», «noir», «dark» та «ebony» безпосередньо у свої назви. Це узгоджується з ширшими дослідженнями, які показують, що такі фрази, як «AI Generated Black Women» та «Black Women Baddies AI», стали активними пошуковими категоріями на власних сторінках відкриття TikTok.

Посилання з цих акаунтів вели на платні сайти з відвертим сексуальним контентом. Показово, що цільові сайти позначали матеріали як згенеровані ШІ, але платформи соціальних мереж, що розміщували рекламний контент, цього не робили. Зручне упущення, можна сказати.

Реакція платформ: звична схема

TikTok заблокував 20 акаунтів після того, як BBC вийшло на зв'язок. Не раніше. Після. Платформа заявила, що забороняє згенерований ШІ контент, що зображає осіб без їхнього дозволу, і має «нульову толерантність» до контенту, що просуває сексуальні послуги за межами платформи. Численні розслідування таких видань, як The Bureau of Investigative Journalism та Media Matters, задокументували досить значну прірву між задекларованою політикою TikTok і тим, що насправді виконується.

Реакція Meta була ще менш переконливою. BBC повідомляє, що компанія заявила про проведення розслідування, але не вжила жодних негайних заходів. Дев'ять акаунтів Instagram нібито зникли пізніше, хоча терміни та причини залишаються незрозумілими. Власне попереднє розслідування Riddance виявило, що з 23 відеозвітів в Instagram Meta видалила лише одне.

Більше ніж проблема контенту

Марокканська модель і творець контенту Худа Фонон описала цю тенденцію як «стирання» автентичного представництва чорношкірих жінок в інтернеті. І вона права. Це не просто проблема сумнівного ШІ-контенту. Вона вписується у значно ширшу задокументовану закономірність, що сягає щонайменше середини 2025 року, від увімкнення Veo 3 від Google так званого тренду «Bigfoot Baddie» до згенерованих ШІ фейкових відео, які Fox News помилково подало як реальні.

Як зазначила дослідниця Інституту Брукінгса Ніколь Тернер Лі, тут є похмурий історичний прецедент. Під час рабства чорношкірих людей навмисно перебільшено зображали на ілюстраціях, щоб підкреслити нібито первісні риси. Аналіз 5000 ШІ-запитів показав, що 68% результатів спирались на стереотипи. Технологія нова. Расизм ні.

Підсумок

Платформи соціальних мереж мають інструменти для проактивного виявлення та видалення такого контенту. Вони просто обирають не робити цього, доки журналіст не подзвонить їм. Це не модерація. Це зв'язки з громадськістю.

Читайте оригінальну статтю за посиланням.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.