TikToks KI-Avatar-Problem: Wie gefälschte schwarze Frauen genutzt werden, um explizite Inhalte zu verkaufen
Die Untersuchung, die TikTok zum Handeln zwang
Hier ist ein Satz, den man im Jahr 2026 nicht lesen müssen sollte: Dutzende Social-Media-Konten haben KI-generierte Avatare von sexualisierten schwarzen Frauen genutzt, um Nutzer zu bezahlten expliziten Inhalten zu leiten. Und doch, so eine diese Woche veröffentlichte Untersuchung von BBC News Arabic, genau das geschieht auf TikTok und Instagram, weitgehend unkontrolliert, bis Journalisten anfingen, Fragen zu stellen.
Die BBC, in Zusammenarbeit mit der unabhängigen KI-Publikation Riddance und den Analysten Jeremy Carrasco und Angel Nulani, identifizierte Berichten zufolge etwa 60 Konten mit KI-generierten schwarzen weiblichen Avataren auf beiden Plattformen. Dies waren keine subtilen Deepfakes, die in dunklen Ecken des Internets versteckt waren. Sie erzielten Aufrufe in Millionenhöhe.
Gestohlene Inhalte, synthetische Gesichter
Die Untersuchung beleuchtet eine besonders düstere Technik. Laut BBC wurde einer als Riya Ulan identifizierten malaysischen Influencerin angeblich Videoinhalte gestohlen und manipuliert, wobei ein KI-generiertes dunkelhäutiges Gesicht über ihre ursprünglichen Bewegungen gelegt wurde. Das Ergebnis? Eine gefälschte Person, die im Körper eines echten Creators auftritt.
Die von der BBC gemeldeten Zahlen sind erschreckend, auch wenn sie schwer unabhängig zu überprüfen sind. Ein manipuliertes Video erreichte angeblich 35 Millionen Aufrufe auf TikTok und 173 Millionen auf Instagram, etwa das 47-fache der Interaktion auf Riyas Originalbeitrag. Ein Konto soll innerhalb weniger Wochen nach seiner Erstellung im Dezember 3 Millionen TikTok-Follower gesammelt haben. Das ist kein organisches Wachstum. Das ist algorithmischer Raketentreibstoff.
Eine Namenskonvention, die alles sagt
Die Konten versuchten nicht einmal, sich über ihre Absichten bedeckt zu halten. Laut der Untersuchung nahmen viele rassistische Begriffe wie „black“, „noir“, „dark“ und „ebony“ direkt in ihre Namen auf. Dies stimmt mit umfassenderen Untersuchungen überein, die zeigen, dass Phrasen wie „AI Generated Black Women“ und „Black Women Baddies AI“ zu aktiven Suchkategorien auf TikToks eigenen Entdeckungsseiten geworden sind.
Links von diesen Konten führten zu kostenpflichtigen, sexuell expliziten Inhaltsseiten. Entscheidend ist, dass die Zielseiten das Material als KI-generiert kennzeichneten, die Social-Media-Plattformen, die die Werbeinhalte hosteten, dies jedoch nicht taten. Eine bequeme Auslassung, könnte man sagen.
Reaktionen der Plattformen: Das übliche Drehbuch
TikTok sperrte 20 Konten, nachdem die BBC Kontakt aufgenommen hatte. Nicht vorher. Danach. Die Plattform erklärte, dass sie KI-generierte Inhalte, die Personen ohne deren Erlaubnis darstellen, verbietet und eine „Null-Toleranz“-Politik für Inhalte hat, die sexuelle Dienste außerhalb der Plattform bewerben. Mehrere Untersuchungen von Medien wie The Bureau of Investigative Journalism und Media Matters haben die ziemlich große Kluft zwischen TikToks erklärten Richtlinien und dem, was tatsächlich durchgesetzt wird, dokumentiert.
Metas Reaktion war noch weniger überzeugend. Die BBC berichtet, dass das Unternehmen angab, zu ermitteln, aber keine sofortigen Maßnahmen ergriff. Neun Instagram-Konten verschwanden Berichten zufolge später, obwohl der Zeitplan und die Begründung unklar bleiben. Riddances eigene frühere Untersuchung ergab, dass von 23 gemeldeten Videos auf Instagram Meta nur eines entfernte.
Mehr als ein Inhaltsproblem
Das marokkanische Model und Content Creator Houda Fonone beschrieb den Trend als „Auslöschung“ der authentischen Darstellung schwarzer Frauen online. Sie hat nicht Unrecht. Hier geht es nicht nur um fragwürdige KI-Inhalte. Es reiht sich ein in ein viel größeres dokumentiertes Muster, das mindestens bis Mitte 2025 zurückreicht, von Googles Veo 3, das den sogenannten „Bigfoot Baddie“-Trend ermöglichte, bis hin zu KI-generierten Fake-Videos, die Fox News fälschlicherweise als echt meldete.
Wie die Wissenschaftlerin der Brookings Institution, Nicol Turner Lee, bemerkte, gibt es hier einen düsteren historischen Präzedenzfall. Während der Sklaverei wurden schwarze Menschen in Illustrationen bewusst übertrieben dargestellt, um vermeintliche ursprüngliche Merkmale zu betonen. Eine Überprüfung von 5.000 KI-Prompts ergab, dass 68 % der Ergebnisse auf Stereotypen beruhten. Die Technologie ist neu. Der Rassismus nicht.
Das Fazit
Social-Media-Plattformen verfügen über die Werkzeuge, um diese Inhalte proaktiv zu erkennen und zu entfernen. Sie entscheiden sich einfach dagegen, bis ein Journalist sie anruft. Das ist keine Moderation. Das ist Öffentlichkeitsarbeit.
Den Originalartikel lesen Sie unter Quelle.

No comments yet. Be the first to share your thoughts.