Le Problème des Avatars IA de TikTok : Comment de Fausses Femmes Noires Sont Utilisées pour Vendre du Contenu Explicite
L'enquête qui a forcé TikTok à agir
Voici une phrase que vous ne devriez pas avoir à lire en 2026 : des dizaines de comptes de médias sociaux ont utilisé des avatars de femmes noires sexualisées générés par l'IA pour diriger les utilisateurs vers du contenu explicite payant. Et pourtant, selon une enquête de BBC News Arabic publiée cette semaine, c'est précisément ce qui s'est passé sur TikTok et Instagram, en grande partie sans contrôle, jusqu'à ce que des journalistes commencent à poser des questions.
La BBC, en collaboration avec la publication indépendante sur l'IA Riddance et les analystes Jeremy Carrasco et Angel Nulani, aurait identifié environ 60 comptes présentant des avatars de femmes noires générés par l'IA sur les deux plateformes. Il ne s'agissait pas de deepfakes subtils cachés dans les recoins sombres d'Internet. Ils accumulaient des millions de vues.
Contenu Volé, Visages Synthétiques
L'enquête met en lumière une technique particulièrement sinistre. Selon la BBC, une mannequin basée en Malaisie, identifiée comme Riya Ulan, aurait vu son contenu vidéo volé et manipulé, avec un visage à la peau foncée généré par l'IA superposé sur ses mouvements originaux. Le résultat ? Une personne fabriquée se produisant dans le corps d'un vrai créateur.
Les chiffres rapportés par la BBC sont stupéfiants, bien que difficiles à vérifier de manière indépendante. Une vidéo manipulée aurait atteint 35 millions de vues sur TikTok et 173 millions sur Instagram, soit environ 47 fois l'engagement du post original de Riya. Un compte aurait amassé 3 millions d'abonnés TikTok en quelques semaines après sa création en décembre. Ce n'est pas une croissance organique. C'est du carburant de fusée algorithmique.
Une Convention de Nommage Qui En Dit Long
Les comptes n'essayaient même pas d'être discrets sur ce qu'ils faisaient. Selon l'enquête, beaucoup intégraient des termes raciaux tels que 'black', 'noir', 'dark' et 'ebony' directement dans leurs noms. Cela concorde avec des recherches plus larges montrant que des expressions comme 'AI Generated Black Women' et 'Black Women Baddies AI' sont devenues des catégories de recherche actives sur les pages de découverte de TikTok.
Les liens de ces comptes menaient à des sites de contenu sexuellement explicite payant. De manière cruciale, les sites de destination étiquetaient le matériel comme généré par l'IA, mais les plateformes de médias sociaux hébergeant le contenu promotionnel ne le faisaient pas. Une omission commode, pourrait-on dire.
Réponses des Plateformes : Le Scénario Habituel
TikTok a banni 20 comptes après que la BBC ait pris contact. Pas avant. Après. La plateforme a déclaré qu'elle interdisait le contenu généré par l'IA représentant des individus sans leur permission et qu'elle avait une 'tolérance zéro' pour le contenu faisant la promotion de services sexuels hors plateforme. De multiples enquêtes menées par des médias tels que The Bureau of Investigative Journalism et Media Matters ont documenté l'écart plutôt important entre les politiques déclarées de TikTok et ce qui est réellement appliqué.
La réponse de Meta était encore moins convaincante. La BBC rapporte que l'entreprise a déclaré qu'elle enquêtait mais n'a pris aucune mesure immédiate. Neuf comptes Instagram auraient disparu plus tard, bien que le calendrier et les raisons restent flous. L'enquête précédente de Riddance avait révélé que sur 23 vidéos signalées sur Instagram, Meta n'en avait supprimé qu'une.
Plus Qu'un Problème de Contenu
La mannequin et créatrice de contenu marocaine Houda Fonone a décrit cette tendance comme un 'effacement' de la représentation authentique des femmes noires en ligne. Elle n'a pas tort. Il ne s'agit pas simplement de contenu IA douteux. Cela s'inscrit dans un schéma documenté beaucoup plus large remontant à au moins mi-2025, de Veo 3 de Google permettant la soi-disant tendance 'Bigfoot Baddie' aux fausses vidéos générées par l'IA que Fox News a rapportées par erreur comme réelles.
Comme l'a noté Nicol Turner Lee, chercheuse à la Brookings Institution, il existe ici un sombre précédent historique. Pendant l'esclavage, les personnes noires étaient délibérément exagérées dans les illustrations pour accentuer de prétendus traits primaires. Une étude de 5 000 invites IA a révélé que 68 % des résultats s'appuyaient sur des stéréotypes. La technologie est nouvelle. Le racisme ne l'est pas.
Le Fond du Problème
Les plateformes de médias sociaux ont les outils pour détecter et supprimer ce contenu de manière proactive. Elles choisissent simplement de ne pas le faire tant qu'un journaliste ne les appelle pas. Ce n'est pas de la modération. C'est des relations publiques.
Lisez l'article original à la source.

No comments yet. Be the first to share your thoughts.