El Problema de los Avatares con IA de TikTok: Cómo se Usan Mujeres Negras Falsas para Vender Contenido Explícito
La Investigación que Obligó a TikTok a Actuar
Aquí hay una frase que no debería tener que leer en 2026: docenas de cuentas de redes sociales han estado utilizando avatares de mujeres negras sexualizadas generados por IA para dirigir a los usuarios hacia contenido explícito de pago. Y sin embargo, según una investigación de BBC News Arabic publicada esta semana, eso es precisamente lo que ha estado ocurriendo en TikTok e Instagram, en gran parte sin control, hasta que los periodistas comenzaron a hacer preguntas.
La BBC, trabajando junto con la publicación independiente de IA Riddance y los analistas Jeremy Carrasco y Angel Nulani, identificó aproximadamente 60 cuentas que presentaban avatares de mujeres negras generados por IA en ambas plataformas. No se trataba de deepfakes sutiles escondidos en rincones oscuros de Internet. Estaban acumulando millones de reproducciones.
Contenido Robado, Caras Sintéticas
La investigación destaca una técnica particularmente sombría. Según la BBC, una modelo con sede en Malasia identificada como Riya Ulan supuestamente sufrió el robo y la manipulación de su contenido de vídeo, con una cara de piel oscura generada por IA superpuesta a sus movimientos originales. ¿El resultado? Una persona fabricada actuando en el cuerpo de una creadora real.
Las cifras reportadas por la BBC son asombrosas, aunque difíciles de verificar de forma independiente. Un vídeo manipulado supuestamente alcanzó los 35 millones de reproducciones en TikTok y 173 millones en Instagram, aproximadamente 47 veces el engagement de la publicación original de Riya. Una cuenta supuestamente acumuló 3 millones de seguidores en TikTok en semanas desde su creación en diciembre. Eso no es crecimiento orgánico. Eso es combustible de cohete algorítmico.
Una Convención de Nombres que lo Dice Todo
Las cuentas ni siquiera intentaban ser discretas sobre lo que estaban haciendo. Según la investigación, muchas incorporaron términos raciales como 'black' (negro), 'noir' (negro), 'dark' (oscuro) y 'ebony' (ébano) directamente en sus nombres. Esto es consistente con una investigación más amplia que muestra que frases como 'AI Generated Black Women' y 'Black Women Baddies AI' se han convertido en categorías de búsqueda activas en las propias páginas de descubrimiento de TikTok.
Los enlaces de estas cuentas llevaban a sitios de contenido sexualmente explícito de pago. Crucialmente, los sitios de destino etiquetaban el material como generado por IA, pero las plataformas de redes sociales que alojaban el contenido promocional no lo hacían. Una omisión conveniente, se podría decir.
Respuestas de las Plataformas: El Guion Habitual
TikTok prohibió 20 cuentas después de que la BBC se pusiera en contacto. No antes. Después. La plataforma declaró que prohíbe el contenido generado por IA que representa a individuos sin su permiso y tiene 'tolerancia cero' para el contenido que promueve servicios sexuales fuera de la plataforma. Múltiples investigaciones de medios como The Bureau of Investigative Journalism y Media Matters han documentado la bastante amplia brecha entre las políticas declaradas de TikTok y lo que realmente se aplica.
La respuesta de Meta fue aún menos convincente. La BBC informa que la compañía dijo que estaba investigando pero no tomó medidas inmediatas. Nueve cuentas de Instagram supuestamente desaparecieron más tarde, aunque el cronograma y el razonamiento siguen sin estar claros. La propia investigación anterior de Riddance encontró que de 23 vídeos reportados en Instagram, Meta eliminó solo uno.
Más que un Problema de Contenido
La modelo y creadora de contenido marroquí Houda Fonone describió la tendencia como una 'borradura' de la representación auténtica de las mujeres negras en línea. No se equivoca. Esto no se trata simplemente de contenido de IA engañoso. Se enmarca en un patrón documentado mucho más amplio que se remonta al menos a mediados de 2025, desde Google Veo 3 que permitió la llamada tendencia 'Bigfoot Baddie' hasta vídeos falsos generados por IA que Fox News reportó erróneamente como reales.
Como ha señalado la académica de Brookings Institution Nicol Turner Lee, existe un sombrío precedente histórico aquí. Durante la esclavitud, las personas negras fueron deliberadamente exageradas en las ilustraciones para enfatizar supuestos rasgos primarios. Una revisión de 5.000 prompts de IA encontró que el 68% de los resultados se apoyaban en estereotipos. La tecnología es nueva. El racismo no.
En Resumen
Las plataformas de redes sociales tienen las herramientas para detectar y eliminar este contenido de forma proactiva. Simplemente eligen no hacerlo hasta que un periodista las contacta. Eso no es moderación. Eso es relaciones públicas.
Lee el artículo original en fuente.

No comments yet. Be the first to share your thoughts.