A TikTok AI avatár problémája: Hogyan használnak hamis fekete nőket explicit tartalom eladására
A nyomozás, ami cselekvésre kényszerítette a TikTokot
Íme egy mondat, amit 2026-ban már nem kellene olvasnod: közösségi média fiókok tucatjai használtak mesterséges intelligencia (MI) által generált, szexuális tartalmú fekete női avatárokat, hogy felhasználókat tereljenek fizetős explicit tartalom felé. És mégis, a BBC News Arabic ezen a héten közzétett nyomozása szerint pontosan ez történt a TikTokon és az Instagramon, nagyrészt ellenőrizetlenül, egészen addig, amíg újságírók kérdéseket nem kezdtek feltenni.
A BBC, az független MI publikációval, a Riddance-szel, valamint Jeremy Carrasco és Angel Nulani elemzőkkel együttműködve, állítólag körülbelül 60 olyan fiókot azonosított mindkét platformon, amelyek MI által generált fekete női avatárokat tartalmaztak. Ezek nem finom deepfake-ek voltak, elrejtve az internet sötét zugaiban. Milliókat érő nézettséget halmoztak fel.
Ellopott tartalom, szintetikus arcok
A nyomozás egy különösen komor technikára hívja fel a figyelmet. A BBC szerint egy Malajziában élő modellt, Riya Ulan-t azzal gyanúsítják, hogy videótartalmát ellopták és manipulálták, MI által generált sötét bőrű arcot helyezve az eredeti mozdulataira. Az eredmény? Egy kitalált személy szerepel egy valódi alkotó testében.
A BBC által jelentett számok megdöbbentőek, bár nehezen ellenőrizhetők függetlenül. Egy manipulált videó állítólag 35 millió megtekintést ért el a TikTokon és 173 milliót az Instagramon, ami körülbelül 47-szerese Riya eredeti bejegyzésének. Egy fiók állítólag 3 millió TikTok követőt gyűjtött össze hetekkel a decemberi létrehozása után. Ez nem organikus növekedés. Ez algoritmikus rakétaüzemanyag.
Egy elnevezési konvenció, ami mindent elárul
A fiókok még csak nem is próbálták leplezni, mit csinálnak. A nyomozás szerint sokan faji kifejezéseket, például „black” (fekete), „noir” (fekete), „dark” (sötét) és „ebony” (ében) építettek közvetlenül a nevükbe. Ez összhangban van a szélesebb körű kutatásokkal, amelyek azt mutatják, hogy az olyan kifejezések, mint az „AI Generated Black Women” és a „Black Women Baddies AI” aktív keresési kategóriákká váltak a TikTok saját felfedező oldalain.
Ezekről a fiókokról fizetős, szexuálisan explicit tartalmú oldalakra mutattak linkek. Kulcsfontosságú, hogy a céloldalak MI által generáltként jelölték meg az anyagot, de a promóciós tartalmat üzemeltető közösségi média platformok nem. Mondhatni, kényelmes kihagyás.
Platformválaszok: A szokásos forgatókönyv
A TikTok 20 fiókot tiltott le, miután a BBC felvette velük a kapcsolatot. Nem előtte. Utána. A platform kijelentette, hogy tiltja az MI által generált tartalmat, amely egyéneket ábrázol az engedélyük nélkül, és „zéró toleranciát” tanúsít a platformon kívüli szexuális szolgáltatásokat népszerűsítő tartalommal szemben. Számos nyomozás, többek között a The Bureau of Investigative Journalism és a Media Matters által végzettek, dokumentálták a meglehetősen nagy szakadékot a TikTok kijelentett irányelvei és a ténylegesen érvényesülő gyakorlat között.
A Meta válasza még kevésbé volt meggyőző. A BBC jelentése szerint a vállalat azt mondta, hogy vizsgálódik, de nem tett azonnali lépéseket. Kilenc Instagram-fiók állítólag később eltűnt, bár az idővonal és az indoklás továbbra is tisztázatlan. A Riddance saját korábbi nyomozása megállapította, hogy 23 bejelentett Instagram-videóból a Meta csak egyet távolított el.
Több mint egy tartalmi probléma
A marokkói modell és tartalomkészítő, Houda Fonone a trendet az autentikus fekete nők online megjelenésének „eltörléseként” jellemezte. Nincs igaza. Ez nem egyszerűen gyanús MI tartalomról szól. Ez egy sokkal nagyobb, dokumentált mintázat része, amely legalább 2025 közepéig nyúlik vissza, a Google Veo 3-tól, amely lehetővé tette az úgynevezett „Bigfoot Baddie” trendet, egészen az MI által generált hamis videókig, amelyeket a Fox News tévedésből valóságként jelentett.
Ahogy Nicol Turner Lee, a Brookings Intézet tudósa megjegyezte, van itt egy komor történelmi előzmény. A rabszolgaság idején a fekete embereket szándékosan eltúlozták az illusztrációkban, hogy hangsúlyozzák az állítólagos ősi vonásokat. 5000 MI prompt áttekintése során kiderült, hogy a kimenetek 68%-a sztereotípiákra támaszkodott. A technológia új. A rasszizmus nem.
A lényeg
A közösségi média platformok rendelkeznek azokkal az eszközökkel, amelyekkel proaktívan észlelhetik és eltávolíthatják ezt a tartalmat. Egyszerűen nem választják ezt, amíg egy újságíró fel nem hívja őket. Ez nem moderálás. Ez PR.
Olvasd el az eredeti cikket a forrásnál.

No comments yet. Be the first to share your thoughts.