Modérateur Facebook: « Chaque jour était un cauchemar »
Par Cristina Criddle
Journaliste technologique
- Publié
- il y a 2 jours
Un modérateur de Facebook a pour la première fois présenté des preuves révélant le bilan mental du travail à un comité parlementaire.
Le parlement irlandais a appris comment les modérateurs voyaient le contenu graphique jusqu’à huit heures par jour.
Le cabinet d’avocats Foxglove et le Syndicat des travailleurs de la communication, représentant les modérateurs, ont appelé à un meilleur soutien psychologique et à la liberté de s’exprimer.
Facebook a déclaré qu’il fournissait une assistance 24 heures sur 24 au personnel.
Isabella Plunkett travaille en tant que modératrice de contenu Facebook depuis un peu plus de deux ans et y travaille toujours.
Son travail consiste à examiner les publications sur la plate-forme – qui peuvent contenir de la violence graphique, de l’exploitation, de l’extrémisme, des abus et du suicide.
La jeune femme de 26 ans dit qu’elle n’a pas pu parler à ses amis ou à sa famille des choses qu’elle a vues au travail en raison d’un accord de non-divulgation (NDA) qu’elle avait signé au début de son contrat.
Les membres de la Commission mixte irlandaise sur l’entreprise, le commerce et l’emploi ont félicité sa bravoure pour s’exprimer.
Isabella a également parlé à la BBC
«Je suis ici en train de parler et je ne sais pas nécessairement en détail ce que je suis légalement autorisé à dire et à ne pas dire», a-t-elle déclaré.
«Il était toujours clair que nous ne pouvions pas parler de notre travail, nous ne pouvions pas parler de notre travail à nos amis, à notre famille … et c’est définitivement un lieu de travail avec un sentiment de secret.
Facebook a déclaré à la BBC que les NDA sont une pratique courante et que les critiques peuvent discuter de n’importe quel aspect de leur travail avec des médecins et des conseillers.
Le personnel peut discuter des défis généraux et des récompenses de son travail avec sa famille et ses proches, mais pas de détails spécifiques sur le contenu qu’il examine.
Santé mentale
« J’ai fait le travail pendant deux ans et je ne pense pas que je pourrais le faire plus longtemps à cause de la tension que cela cause à votre santé mentale », a déclaré Isabella à la BBC.
«Ce n’est pas comme un travail normal où vous pouvez aller travailler et rentrer à la maison et l’oublier – les choses que vous voyez sont vraiment ancrées dans votre esprit.»
Isabella traite environ 100 «tickets» par jour – il peut s’agir de vidéos, d’images ou de messages texte sur la plate-forme. Elle a dit qu’ils contiennent souvent de la violence graphique, du suicide, de l’exploitation et des abus.
Elle travaille pour Covalen, l’un des plus grands entrepreneurs de Facebook en Irlande.
Isabella affirme qu’elle n’était pas autorisée à travailler à domicile, contrairement à ses homologues qui étaient directement employés par Facebook et qui faisaient le même travail.
En conséquence, elle dit être exposée à un contenu plus graphique, car elle est au bureau.
‘Un cauchemar’
«Les files d’attente hautement prioritaires – la violence graphique, les trucs d’enfants, l’exploitation et les suicides, les gens qui travaillent à domicile ne comprennent pas cela – le fardeau nous incombe.»
Malgré la protection de sa famille à la maison, on lui a dit de venir au bureau et elle a développé de l’anxiété, pour laquelle elle prend maintenant des antidépresseurs.
«Chaque jour était un cauchemar», a-t-elle déclaré, ajoutant que le soutien apporté était «insuffisant».
Facebook affirme qu’une aide psychologique est disponible pour tous ses modérateurs 24 heures sur 24, mais Isabella affirme que ses coachs en bien-être ne sont pas des psychiatres qualifiés.
«Je voyais l’équipe de bien-être, mais je n’avais pas l’impression d’avoir le soutien dont j’avais besoin. Je ne peux pas dire que j’ai quitté le travail soulagé ou sachant que je pourrais rentrer chez moi et passer une bonne nuit de sommeil – ce n’est pas possible », a-t-elle ajouté.
«Cela me suivrait à la maison. Je pourrais simplement regarder la télévision à la maison et repenser à l’un des horribles billets vraiment graphiques.
Le personnel sous-traitant bénéficie d’une heure et demie de «bien-être» par semaine, dit-elle, ce qui peut être utilisé pour parler à un coach de bien-être, se promener ou prendre du temps lorsqu’il se sent dépassé.
« Ce n’est pas assez. Je vois maintenant le contenu que je vis dans le travail dans mes rêves. Je m’en souviens, je le vis à nouveau et c’est horrible.
«Vous ne savez jamais ce qui va se passer ensuite et vous devez le regarder en entier car ils pourraient avoir des contrevenants.»
Avis de non-responsabilité concernant le SSPT
Certains modérateurs de Facebook sont invités à signer une clause de non-responsabilité avant de commencer à travailler, acceptant que le contenu vu dans leur travail puisse entraîner une mauvaise santé mentale et un SSPT (trouble de stress post-traumatique).
Un exemple de contrat, lu en comité, disait: «Je comprends que l’exposition à ce contenu peut me donner un trouble de stress post-traumatique.
« Je vais participer à une séance obligatoire de coaching en bien-être, mais je comprends que ce ne sont pas des conditions et peuvent ne pas être suffisantes pour empêcher mon SSPT de contracter. »
Une porte-parole de Facebook a déclaré: «Tous ceux qui examinent du contenu pour Facebook suivent un programme de formation approfondie sur les normes communautaires de Facebook et ont accès à un soutien psychologique pour assurer leur bien-être.
«Nous nous engageons à travailler avec nos partenaires pour fournir un soutien à nos réviseurs de contenu, car nous reconnaissons que l’examen de certains types de contenu peut parfois être difficile», a-t-elle ajouté.
«En Irlande, cela comprend une assistance sur site 24h / 24 et 7j / 7 avec des praticiens qualifiés, un service de garde et l’accès aux soins de santé privés dès le premier jour d’emploi.
«Nous utilisons également des solutions techniques pour limiter au maximum leur exposition à des éléments potentiellement graphiques. Il s’agit d’un problème important et nous nous engageons à y parvenir.»
Solutions techniques
Facebook utilise une combinaison d’algorithmes d’apprentissage automatique et de modérateurs humains pour examiner le contenu.
À l’avenir, il espère réduire le nombre de modérateurs humains grâce à l’apprentissage automatique.
Mais Isabella a dit que c’était un « fantasme » de Facebook, que les systèmes n’étaient « même pas près de ce stade ».
S’adressant au comité, Isabella a déclaré que «les gens sont intimidés» par le processus de la NDA et ont peur de perdre leur emploi.
Elle a cité une plate-forme de communication interne sur Facebook, dans laquelle les messages des travailleurs ont été supprimés lorsqu’ils ont pris la parole. Facebook a nié ces allégations et a déclaré qu’aucune mesure disciplinaire n’était prise pour les employés qui soulevaient des inquiétudes.
«Les gens se sont plaints du traitement, de ce qui se passait et de la façon dont ils ne se sentaient pas en sécurité», a déclaré Isabella au comité. « Il était clair qu’il était censuré parce que les commentaires des gens étaient supprimés, les comptes étaient désactivés. »
Elle a dit que son expérience l’avait poussée à témoigner: «J’avais juste le sentiment que je devais le faire», a-t-elle ajouté dans son témoignage. «Je dois parler au nom des gens qui ont trop peur, qui sentent qu’ils ont trop de responsabilités et qui ne peuvent pas se permettre de prendre des risques.»
Rubriques connexes
- Santé mentale
- Des médias sociaux
En savoir plus sur cette histoire
-
Facebook paiera le personnel contractuel pour travailler à domicile
- Publié
- 18 mars 2020
-
Facebook paiera 52 millions de dollars aux modérateurs pour le SSPT
- Publié
- 13 mai 2020
-
Les modérateurs des médias sociaux ont demandé à signer des formulaires de SSPT
- Publié
- 25 janvier 2020
www.bbc.com
L’article Modérateur Facebook: « Chaque jour était un cauchemar » est apparu en premier sur zimo news.