Problem awatarów AI na TikToku: Jak fałszywe czarnoskóre kobiety są wykorzystywane do sprzedaży treści erotycznych

Problem awatarów AI na TikToku: Jak fałszywe czarnoskóre kobiety są wykorzystywane do sprzedaży treści erotycznych

Śledztwo, które zmusiło TikToka do działania

Oto zdanie, którego nie powinno się czytać w 2026 roku: dziesiątki kont w mediach społecznościowych wykorzystywały generowane przez AI awatary seksualizowanych czarnoskórych kobiet, aby kierować użytkowników do płatnych treści erotycznych. A jednak, zgodnie ze śledztwem BBC News Arabic opublikowanym w tym tygodniu, właśnie to działo się na TikToku i Instagramie, w dużej mierze bez kontroli, dopóki dziennikarze nie zaczęli zadawać pytań.

BBC, współpracując z niezależną publikacją o sztucznej inteligencji Riddance oraz analitykami Jeremym Carrasco i Angelem Nulanim, zidentyfikowało około 60 kont wykorzystujących generowane przez AI awatary czarnoskórych kobiet na obu platformach. Nie były to subtelne deepfake'i ukryte w ciemnych zakamarkach internetu. Gromadziły miliony wyświetleń.

Skradzione treści, syntetyczne twarze

Śledztwo ujawnia szczególnie ponurą technikę. Według BBC, modelka z Malezji zidentyfikowana jako Riya Ulan miała rzekomo skradzione i zmanipulowane treści wideo, z nałożoną na jej oryginalne ruchy ciemnoskórą twarzą wygenerowaną przez AI. Rezultat? Sfabrykowana osoba występująca w ciele prawdziwej twórczyni.

Liczby podawane przez BBC są oszałamiające, choć trudne do niezależnego zweryfikowania. Jedno zmanipulowane wideo rzekomo osiągnęło 35 milionów wyświetleń na TikToku i 173 miliony na Instagramie, co stanowi około 47-krotność zaangażowania w oryginalny post Riyi. Jedno konto rzekomo zgromadziło 3 miliony obserwujących na TikToku w ciągu kilku tygodni od jego utworzenia w grudniu. To nie jest organiczny wzrost. To paliwo rakietowe algorytmów.

Konwencja nazewnictwa, która mówi wszystko

Konta nawet nie próbowały ukrywać tego, co robiły. Zgodnie ze śledztwem, wiele z nich włączało terminy rasowe, takie jak „black”, „noir”, „dark” i „ebony” bezpośrednio do swoich nazw. Jest to zgodne z szerszymi badaniami pokazującymi, że frazy takie jak „AI Generated Black Women” i „Black Women Baddies AI” stały się aktywnymi kategoriami wyszukiwania na stronach odkrywania TikToka.

Linki z tych kont prowadziły do płatnych stron z treściami erotycznymi. Co istotne, strony docelowe oznaczyły materiał jako wygenerowany przez AI, ale platformy mediów społecznościowych hostujące treści promocyjne tego nie zrobiły. Można by to nazwać wygodnym pominięciem.

Reakcje platform: Zwykły scenariusz

TikTok zbanował 20 kont po kontakcie z BBC. Nie wcześniej. Po. Platforma oświadczyła, że zabrania treści generowanych przez AI przedstawiających osoby bez ich zgody i ma „zero tolerancji” dla treści promujących usługi seksualne poza platformą. Wiele śledztw prowadzonych przez takie organizacje jak The Bureau of Investigative Journalism i Media Matters udokumentowało raczej szeroką przepaść między deklarowanymi zasadami TikToka a tym, co faktycznie jest egzekwowane.

Odpowiedź Mety była jeszcze mniej przekonująca. BBC donosi, że firma oświadczyła, iż prowadzi dochodzenie, ale nie podjęła natychmiastowych działań. Dziewięć kont na Instagramie rzekomo zniknęło później, choć harmonogram i uzasadnienie pozostają niejasne. Wcześniejsze śledztwo Riddance wykazało, że spośród 23 zgłoszonych filmów na Instagramie, Meta usunęła tylko jeden.

Więcej niż problem z treścią

Marokańska modelka i twórczyni treści Houda Fonone opisała ten trend jako „wymazywanie” autentycznej reprezentacji czarnoskórych kobiet w internecie. Nie myli się. Nie chodzi tu tylko o podejrzane treści AI. Wpisuje się to w znacznie większy, udokumentowany wzorzec, sięgający co najmniej połowy 2025 roku, od Google Veo 3 umożliwiającego tak zwany trend „Bigfoot Baddie” po fałszywe filmy generowane przez AI, które Fox News błędnie uznał za prawdziwe.

Jak zauważyła Nicol Turner Lee, badaczka z Brookings Institution, istnieje tu ponury precedens historyczny. Podczas niewolnictwa czarnoskórzy ludzie byli celowo wyolbrzymiani na ilustracjach, aby podkreślić rzekome pierwotne cechy. Przegląd 5000 promptów AI wykazał, że 68% wyników opierało się na stereotypach. Technologia jest nowa. Rasizm nie.

Podsumowanie

Platformy mediów społecznościowych mają narzędzia do proaktywnego wykrywania i usuwania tych treści. Po prostu nie decydują się na to, dopóki dziennikarz do nich nie zadzwoni. To nie jest moderacja. To public relations.

Przeczytaj oryginalny artykuł na źródle.

D
Written by

Daniel Benson

Writer, editor, and the entire staff of SignalDaily. Spent years in tech before deciding the news needed fewer press releases and more straight talk. Covers AI, technology, sport and world events — always with context, sometimes with sarcasm. No ads, no paywalls, no patience for clickbait. Based in the UK.