TikTok-Algorithmen: Sie fördern Frauenfeindlichkeit massiv (Bild: Gerd Altmann, pixabay.com)

Die Algorithmen von Tiktok verstärken frauenfeindliche Bilder, sagt Sunday Ayodabo, Dozent der University of Texas in Dallas. Das wirke sich vor allem auf junge männliche Tiktok-Nutzer negativ aus. Der Forscher hat die automatischen Vorschläge der Plattform untersucht, die zum chinesischen Internet-Riesen Bytedance gehört.

"Diese algorithmische Voreingenommenheit führt zu einer Normalisierung und Verstärkung frauenfeindlicher Inhalte, wodurch diese eine grössere Sichtbarkeit erhalten und möglicherweise ein grösseres Publikum anziehen", so der Experte. Die Empfehlungsmuster des Algorithmus hätten das Potenzial, die Wahrnehmungen und Überzeugungen der Nutzer über Geschlechterrollen und Beziehungen erheblich zu beeinflussen. Diese Voreingenommenheit führe zur Normalisierung und Verstärkung frauenfeindlicher Videos.

Ihm zufolge scheint der Algorithmus von Tiktok gegen die Community-Richtlinien der Plattform zu verstossen, indem er frauenfeindliche Inhalte begünstigt. Ayodabo erklärt weiter, dass die Studie eine algorithmische Voreingenommenheit offenbart, insbesondere auf den Empfehlungsseiten "For You" und "Suggested User", die frauenfeindliche Videos und Accounts unverhältnismäßig stark fördern.

Dazu passen Enthüllungen des "Guardian" über den kometenhaften Aufstieg des Ex-Kickboxers Andrew Tate von gut einem Jahr. "Frauen gehören ins Haus, dürfen nicht Auto fahren und sind Eigentum des Mannes", so seine damaligen Bekenntnisse auf Tiktok. In anderen Clips sprach der britisch-amerikanische Influencer, der mit schnellen Autos und Waffen posierte und sich selbst als Zigarre rauchenden Playboy darstellte, darüber, Frauen zu schlagen und zu würgen, ihr Hab und Gut zu zerstören und sie daran zu hindern, auszugehen. Damals wurden seine Videos 11,3 Milliarden Mal angesehen. Die heftigsten Tate-Videos hat Tiktok mittlerweile gelöscht.



Der Online-Stellenmarkt für ICT Professionals