O Problema dos Avatares de IA do TikTok: Como Mulheres Negras Falsas Estão Sendo Usadas Para Vender Conteúdo Explícito
A Investigação Que Forçou o TikTok a Agir
Aqui está uma frase que não deveríamos ter de ler em 2026: dezenas de contas de redes sociais têm usado avatares de mulheres negras sexualizadas gerados por IA para direcionar utilizadores para conteúdo explícito pago. E, no entanto, de acordo com uma investigação da BBC News Arabic publicada esta semana, foi precisamente isso que tem acontecido no TikTok e Instagram, em grande parte sem controlo, até que os jornalistas começaram a fazer perguntas.
A BBC, trabalhando em conjunto com a publicação independente de IA Riddance e os analistas Jeremy Carrasco e Angel Nulani, terá identificado aproximadamente 60 contas que apresentavam avatares de mulheres negras gerados por IA em ambas as plataformas. Não eram deepfakes subtis escondidos em cantos obscuros da internet. Estavam a acumular milhões de visualizações.
Conteúdo Roubado, Rostos Sintéticos
A investigação destaca uma técnica particularmente sombria. De acordo com a BBC, uma modelo sediada na Malásia, identificada como Riya Ulan, terá tido o seu conteúdo de vídeo roubado e manipulado, com um rosto de pele escura gerado por IA sobreposto aos seus movimentos originais. O resultado? Uma pessoa fabricada a atuar no corpo de um criador real.
Os números reportados pela BBC são impressionantes, embora difíceis de verificar independentemente. Um vídeo manipulado terá atingido 35 milhões de visualizações no TikTok e 173 milhões no Instagram, aproximadamente 47 vezes o envolvimento da publicação original de Riya. Uma conta terá acumulado 3 milhões de seguidores no TikTok semanas após a sua criação em dezembro. Isso não é crescimento orgânico. Isso é combustível de foguetão algorítmico.
Uma Convenção de Nomenclatura Que Diz Tudo
As contas nem sequer tentavam ser discretas sobre o que estavam a fazer. De acordo com a investigação, muitas incorporavam termos raciais como 'black', 'noir', 'dark' e 'ebony' diretamente nos seus nomes. Isto é consistente com pesquisas mais amplas que mostram que frases como 'AI Generated Black Women' e 'Black Women Baddies AI' se tornaram categorias de pesquisa ativas nas próprias páginas de descoberta do TikTok.
Links destas contas levavam a sites de conteúdo sexualmente explícito pago. Crucialmente, os sites de destino rotulavam o material como gerado por IA, mas as plataformas de redes sociais que hospedavam o conteúdo promocional não o faziam. Uma omissão conveniente, poder-se-ia dizer.
Respostas das Plataformas: O Argumento de Sempre
O TikTok baniu 20 contas depois de a BBC ter feito contacto. Não antes. Depois. A plataforma declarou que proíbe conteúdo gerado por IA que represente indivíduos sem a sua permissão e tem 'tolerância zero' para conteúdo que promova serviços sexuais fora da plataforma. Múltiplas investigações por meios como The Bureau of Investigative Journalism e Media Matters documentaram a bastante ampla lacuna entre as políticas declaradas do TikTok e o que realmente é aplicado.
A resposta da Meta foi ainda menos convincente. A BBC relata que a empresa disse que estava a investigar, mas não tomou medidas imediatas. Nove contas do Instagram terão desaparecido mais tarde, embora o cronograma e a justificação permaneçam incertos. A própria investigação anterior da Riddance descobriu que, de 23 vídeos denunciados no Instagram, a Meta removeu apenas um.
Mais do Que Um Problema de Conteúdo
A modelo e criadora de conteúdo marroquina Houda Fonone descreveu a tendência como um 'apagamento' da representação autêntica de mulheres negras online. Ela não está errada. Isto não é simplesmente sobre conteúdo de IA duvidoso. Enquadra-se num padrão documentado muito maior que remonta a pelo menos meados de 2025, desde o Veo 3 da Google a permitir a chamada tendência 'Bigfoot Baddie' até vídeos falsos gerados por IA que a Fox News relatou erroneamente como reais.
Como a académica da Brookings Institution, Nicol Turner Lee, observou, existe um sombrio precedente histórico aqui. Durante a escravidão, as pessoas negras eram deliberadamente exageradas em ilustrações para enfatizar supostos traços primais. Uma revisão de 5.000 prompts de IA descobriu que 68% das saídas se apoiavam em estereótipos. A tecnologia é nova. O racismo não.
O Essencial
As plataformas de redes sociais têm as ferramentas para detetar e remover este conteúdo proativamente. Elas simplesmente optam por não o fazer até que um jornalista lhes ligue. Isso não é moderação. Isso é relações públicas.
Leia o artigo original em fonte.

No comments yet. Be the first to share your thoughts.