Ce n’est pas forcément une surprise que ces vidéos fassent l’actualité. Les gens font leurs vidéos parce qu’ils travaillent. Obtenir des vues a été l’une des stratégies les plus efficaces pour pousser une grande plate-forme à réparer quelque chose pendant des années. Tiktok, Twitter et Facebook ont permis aux utilisateurs de signaler plus facilement les abus et les violations des règles par d’autres utilisateurs. Mais lorsque ces entreprises semblent enfreindre leurs propres politiques, les gens trouvent souvent que la meilleure voie à suivre est simplement d’essayer de publier à ce sujet sur la plate-forme elle-même, dans l’espoir de devenir viral et d’attirer l’attention qui mène à une sorte de résolution. Les deux vidéos de Tyler sur le bios de Marketplace, par exemple, ont chacune plus d’un million de vues.
« Le contenu est signalé parce qu’il s’agit d’un membre d’un groupe marginalisé qui parle de ses expériences avec le racisme. Le discours de haine et le discours de haine peuvent ressembler beaucoup à un algorithme. »
Casey Fiesler, Université du Colorado, Boulder
« Je suis probablement identifié dans quelque chose environ une fois par semaine », explique Casey Fiesler, professeur adjoint à l’Université du Colorado, Boulder, qui étudie l’éthique technologique et les communautés en ligne. Elle est active sur TikTok, avec plus de 50 000 abonnés, mais même si tout ce qu’elle voit ne semble pas être une préoccupation légitime, elle dit que le défilé régulier de problèmes de l’application est réel. TikTok a eu plusieurs erreurs de ce type au cours des derniers mois, qui ont toutes eu un impact disproportionné sur les groupes marginalisés de la plate-forme.
Examen de la technologie du MIT a interrogé TikTok sur chacun de ces exemples récents, et les réponses sont similaires : après enquête, TikTok constate que le problème a été créé par erreur, souligne que le contenu bloqué en question n’enfreint pas leurs politiques et des liens pour soutenir l’entreprise donne de tels groupes.
La question est de savoir si ce cycle – une erreur technique ou politique, une réponse virale et des excuses – peut être modifié.
Résoudre les problèmes avant qu’ils ne surviennent
« Il y a deux types de dommages de cette modération de contenu probablement algorithmique que les gens observent », dit Fiesler. « L’un est les faux négatifs. Les gens se demandent ‘pourquoi y a-t-il tant de discours de haine sur cette plate-forme et pourquoi n’est-il pas supprimé ?’ »
L’autre est un faux positif. « Leur contenu est signalé parce qu’il s’agit d’un membre d’un groupe marginalisé qui parle de ses expériences avec le racisme », dit-elle. « Le discours de haine et parler de discours de haine peut ressembler beaucoup à un algorithme. »
Ces deux catégories, a-t-elle noté, nuisent aux mêmes personnes : ceux qui sont ciblés de manière disproportionnée pour abus finissent par être censurés par un algorithme pour en avoir parlé.
Les mystérieux algorithmes de recommandation de TikTok font partie de son succès, mais ses limites floues et en constante évolution ont déjà un effet dissuasif sur certains utilisateurs. Fiesler note que de nombreux créateurs de TikTok s’autocensurent sur les mots de la plate-forme afin d’éviter de déclencher une critique. Et bien qu’elle ne sache pas exactement à quel point cette tactique accomplit, Fielser a également commencé à le faire, elle-même, juste au cas où. Les interdictions de compte, les mystères algorithmiques et les décisions de modération bizarres font partie intégrante de la conversation sur l’application.
L’article Bienvenue dans le cycle sans fin de censure et d’erreurs de TikTok est apparu en premier sur zimo news.