TikToks AI-avatarprobleem: hoe nep zwarte vrouwen worden gebruikt om expliciete content te verkopen
Een BBC-onderzoek ontdekte tientallen accounts die AI-avatars van zwarte vrouwen gebruikten voor expliciete content op TikTok en Instagram. De platforms grepen pas in na media-aandacht.
Het onderzoek dat TikTok tot actie dwong
Dit is een zin die je in 2026 niet zou moeten hoeven lezen: tientallen sociale media-accounts hebben AI-gegenereerde avatars van geseksualiseerde zwarte vrouwen gebruikt om gebruikers naar betaalde expliciete content te leiden. Toch is dat precies wat er is gebeurd, aldus een onderzoek van BBC News Arabic dat deze week werd gepubliceerd, grotendeels ongecontroleerd, op TikTok en Instagram, totdat journalisten vragen begonnen te stellen.
De BBC, werkend samen met het onafhankelijke AI-tijdschrift Riddance en analisten Jeremy Carrasco en Angel Nulani, identificeerde naar verluidt ongeveer 60 accounts met AI-gegenereerde zwarte vrouwelijke avatars op beide platforms. Dit waren geen subtiele deepfakes weggestopt in donkere hoeken van het internet. Ze verzamelden miljoenen views.
Gestolen content, synthetische gezichten
Het onderzoek belicht een bijzonder grimmige techniek. Volgens de BBC had een in Maleisië gevestigd model dat bekendstaat als Riya Ulan naar verluidt haar videocontent gestolen en gemanipuleerd, waarbij een AI-gegenereerd donker gezicht over haar originele bewegingen werd geplaatst. Het resultaat? Een gefabriceerd persoon die optreedt in het lichaam van een echte creator.
De door de BBC gerapporteerde cijfers zijn verbijsterend, ook al zijn ze moeilijk onafhankelijk te verifiëren. Een gemanipuleerde video bereikte naar verluidt 35 miljoen views op TikTok en 173 miljoen op Instagram, ongeveer 47 keer het bereik van Riya's originele post. Een account vergaarde naar verluidt binnen weken na de oprichting in december 3 miljoen TikTok-volgers. Dat is geen organische groei. Dat is algoritmische raketbrandstof.
Een naamgevingsconventie die alles zegt
De accounts deden niet eens hun best om hun bedoelingen te verbergen. Volgens het onderzoek verwerkten velen raciale termen zoals 'black', 'noir', 'dark' en 'ebony' rechtstreeks in hun namen. Dit is consistent met breder onderzoek waaruit blijkt dat zinnen als 'AI Generated Black Women' en 'Black Women Baddies AI' actieve zoekcategorieen zijn geworden op TikToks eigen ontdekkingspagina's.
Links van deze accounts leidden naar betaalde seksueel expliciete contentwebsites. Cruciaal is dat de doelsites het materiaal als AI-gegenereerd bestempelden, maar de sociale mediaplatforms waarop de promotionele content werd gehost deden dat niet. Een handige weglating, zou je kunnen zeggen.
Reacties van platforms: het gebruikelijke script
TikTok verbande 20 accounts nadat de BBC contact had opgenomen. Niet ervoor. Erna. Het platform stelde dat het AI-gegenereerde content verbiedt die personen zonder hun toestemming afbeeldt en 'nultolerantie' heeft voor content die off-platform seksuele diensten promoot. Meerdere onderzoeken door media zoals The Bureau of Investigative Journalism en Media Matters hebben de nogal grote kloof gedocumenteerd tussen het verklaarde beleid van TikTok en wat er daadwerkelijk wordt gehandhaafd.
De reactie van Meta was nog minder overtuigend. De BBC meldt dat het bedrijf zei dat het onderzoek deed, maar geen onmiddellijke actie ondernam. Negen Instagram-accounts verdwenen later naar verluidt, hoewel de tijdlijn en de reden onduidelijk blijven. Riddances eigen eerdere onderzoek wees uit dat Meta van 23 gemelde video's op Instagram slechts een verwijderde.
Meer dan een contentprobleem
Het Marokkaanse model en content creator Houda Fonone beschreef de trend als een 'uitwissing' van de authentieke representatie van zwarte vrouwen online. Ze heeft gelijk. Dit gaat niet simpelweg over dubieuze AI-content. Het past binnen een veel groter gedocumenteerd patroon dat teruggaat tot zeker medio 2025, van Google's Veo 3 dat de zogenaamde 'Bigfoot Baddie'-trend mogelijk maakte tot AI-gegenereerde nepvideo's die Fox News abusievelijk als echt rapporteerde.
Zoals Nicol Turner Lee van de Brookings Institution heeft opgemerkt, is er hier een grimmig historisch precedent. Tijdens de slavernij werden zwarte mensen bewust overdreven afgebeeld in illustraties om vermeende primitieve eigenschappen te benadrukken. Een analyse van 5.000 AI-prompts wees uit dat 68% van de resultaten op stereotypen leunde. De technologie is nieuw. Het racisme is dat niet.
De conclusie
Sociale mediaplatforms hebben de tools om deze content proactief te detecteren en te verwijderen. Ze kiezen er simpelweg voor dat niet te doen totdat een journalist hen belt. Dat is geen moderatie. Dat is pr.
Lees het originele artikel op bron.
