"Cela vous marque à vie" : des modérateurs traumatisés par des vidéos violentes poursuivent Meta

dsfsd
dsfsd Tous droits réservés Unsplash
Par Laura Llach
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Des employés de Meta poursuivent l'entreprise en justice. Plus de 20 % du personnel engagé par Meta pour vérifier le contenu violent de Facebook et d'Instagram est en arrêt maladie pour cause de traumatisme psychologique.

PUBLICITÉ

Pour travailler en tant que modérateur de contenu dans la ville espagnole de Barcelone, la seule exigence de Facebook était de connaître la langue locale.

Le poste semblait attrayant, avec un salaire pouvant atteindre 2 400 euros par mois pour le visionnage de 300 à 500 vidéos par jour.

Cependant, ce qui semblait être une bonne opportunité s'est avéré être une mauvaise décision pour de nombreux travailleurs qui ont obtenu ces emplois à Barcelone.

Plus de 20 % du personnel de CCC Barcelona Digital Services - qui appartient à Telsus, l'entreprise engagée par Meta pour vérifier le contenu de Facebook et d'Instagram - sont en arrêt maladie en raison de traumatismes psychologiques.

Les images postées sur les réseaux sociaux, qu'ils étaient censés vérifier, montraient le pire de l'humanité : des vidéos de meurtres, de démembrements, de viols et de suicides en direct.

"Dans l'une des vidéos, un père montre son bébé, qui aurait eu un an. Il lui plante un couteau dans la poitrine, lui arrache le cœur et le mange", raconte, à Euronews, Francesc Feliu, l'avocat de plus d'une douzaine de travailleurs qui ont décidé de poursuivre l'entreprise en justice. 

"Outre le contenu absolument inhumain, il y a beaucoup de bruit, de cris et de sang", ajoute Francesc Feliu.

Les employés ont critiqué les conditions de travail imposées par l'entreprise aux modérateurs de contenu, expliquant que le visionnage de ces vidéos les exposent à de graves problèmes de santé mentale tels que le stress post-traumatique, les troubles obsessionnels compulsifs et la dépression.

"Il s'agit de personnes qui étaient en bonne santé et qui, soudain, souffrent de troubles mentaux. Certains de ces travailleurs ont tenté de se suicider", affirme l'avocat.

"On parle de dizaines et de dizaines de personnes relativement jeunes souffrant de troubles mentaux. C'est extrêmement grave", ajoute-t-il.

L'outil de recherche de Facebook
L'outil de recherche de FacebookUnsplash

La première plainte européenne

Chris Gray a commencé à travailler pour CPL, l'entrepreneur avec lequel Facebook travaillait en Irlande, en 2017. Son contrat de modérateur de contenu a duré un an.

L'Irlandais, aujourd'hui âgé de 50 ans, a été le premier à poursuivre le réseau social en justice.

Lorsqu'il a commencé à travailler, la vidéo ne représentait que 20 % du contenu qu'il devait examiner, travaillant surtout avec du texte, des photos et quelques vidéos en direct.

Les images qui lui viennent à l'esprit sont celles de migrants torturés avec une barre de métal brûlante ou de chiens bouillis vivants.

"Je n'avais pas réalisé à quel point cela m'avait affecté. Ce n'est que plus tard que j'ai réalisé que j'étais dans un état lamentable, que j'étais très stressé. Je n'arrivais pas à dormir et je devenais très agressif. Si quelqu'un parlait de mon travail, je pleurais après", confie Chris Gray à Euronews.

Lorsqu'il s'est rendu compte qu'il ne pouvait plus faire face à la situation, il a essayé de parler au psychologue de l'entreprise : "J'ai rempli des questionnaires disant que je me sentais dépassé au travail. Mais il a fallu des années pour obtenir un rendez-vous avec quelqu'un".

Comme Chris Gray, 35 autres modérateurs de contenu se sont plaints auprès de la Haute Cour irlandaise, où se trouve le siège européen de Meta.

"Nous avons des clients en Irlande, en Pologne, en Allemagne et en Espagne. Certains d'entre eux ont réalisé que leur travail leur faisait du tort après quelques semaines, d'autres affirment qu'ils n'ont réalisé l'impact que lorsque leur famille et leurs amis leur ont dit que leur personnalité avait changé", explique Diane Treanor, une avocate de Coleman Legal qui représente Chris Gray.

PUBLICITÉ

Les travailleurs espagnols se sont également plaints de ne pas pouvoir bénéficier d'un soutien psychologique.

"En regardant une vidéo, beaucoup de ces personnes s'effondraient, elles ne pouvaient plus continuer. Le psychologue les écoutait, puis leur disait que ce qu'ils faisaient était extrêmement important pour la société, qu'ils devaient imaginer que ce qu'ils voyaient n'était pas réel mais un film, et qu'ils devaient retourner au travail", précise l'avocat espagnol.

En outre, les travailleurs n'ont pas été testés au préalable pour savoir si les personnes qu'ils embauchaient avaient déjà eu des problèmes de santé mentale, ce qui aurait pu les rendre inaptes au travail.

Contacté par Euronews, Facebook affirme toutefois qu'il travaille avec Telsus pour résoudre le problème de toute urgence.

"Nous prenons au sérieux le soutien des réviseurs de contenu et exigeons de toutes les entreprises avec lesquelles nous travaillons qu'elles fournissent un soutien sur place 24 heures sur 24 et 7 jours sur 7 par des praticiens formés", assure l'entreprise. 

PUBLICITÉ
L'application Facebook
L'application FacebookUnsplash

Des cicatrices pour la vie

Les travailleurs affirment que, même cinq ans plus tard, nombre d'entre eux suivent encore un traitement psychologique. Certains ont même peur de sortir dans la rue.

"Ce genre de contenu vous marque à vie. Nous ne sommes pas des machines ou des ordinateurs dépourvus de sentiments", confie Francesc Feliu.

Les deux avocats s'accordent à dire que la politique de Meta, qui oblige les employés à regarder l'intégralité de la vidéo afin d'expliquer toutes les raisons de la censure, aggrave le traumatisme.

Selon eux, si l'employé peut déjà voir après 10 secondes la raison pour laquelle la vidéo doit être censurée, il n'est pas nécessaire de la regarder en entier. Ils se plaignent également que le modérateur doive souvent regarder la même vidéo à plusieurs reprises parce que plusieurs utilisateurs l'ont signalée.

À ce sujet, Facebook affirme qu'il existe des "solutions techniques pour limiter autant que possible l'exposition au matériel graphique".

PUBLICITÉ

"Les personnes qui examinent le contenu sur Facebook et Instagram peuvent ajuster l'outil d'examen du contenu afin que le contenu graphique apparaisse complètement flou, en noir et blanc ou sans son", explique Facebook.

Il y a trois ans, Mark Zuckerberg, PDG de Facebook, a qualifié les critiques sur les conditions de travail de l'entreprise d'"un peu trop dramatiques". Ces propos, tenus lors d'une réunion du personnel, ont fait l'objet d'une fuite dans la presse.

"Ce n'est pas que la plupart des gens voient des choses horribles toute la journée. Mais il y a des choses vraiment terribles auxquelles les gens doivent faire face, et il est très important de s'assurer qu'ils disposent des conseils appropriés, de l'espace et de la possibilité de faire des pauses et d'obtenir le soutien dont ils ont besoin en matière de santé mentale", a assuré Mark Zuckerberg à ses employés.

Mais ce n'est pas l'expérience des anciens travailleurs.

"La politique de l'entreprise consiste à nier les faits", affirme l'avocat espagnol.

PUBLICITÉ

"S'ils voulaient résoudre ces problèmes, la dynamique serait différente, mais pour l'instant, la seule solution est la voie pénale", conclut-il.

Partager cet articleDiscussion

À découvrir également

Données personnelles : Meta écope d'une amende record en Europe d'1,2 milliard d'euros

Scandale Cambridge Analytica : Mark Zuckerberg poursuivi par le procureur de Washington

Violences faites aux femmes : réunion des 27 à Pampelune sur le consentement