PUBLICITÉ

Kenya : des anciens modérateurs de contenu de Facebook qualifient leur travail de "torture"

Nathan Nkunzimana est l'un des anciens modérateurs de contenu de Facebook qui poursuivent le groupe.
Nathan Nkunzimana est l'un des anciens modérateurs de contenu de Facebook qui poursuivent le groupe. Tous droits réservés AP
Tous droits réservés AP
Par Euronews avec AP
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Ils regardaient les horreurs pour que d'autres n'aient pas à le faire. Aujourd'hui, ils poursuivent le groupe pour les mauvaises conditions de travail.

PUBLICITÉ

Au bord des larmes, Nathan Nkunzimana se souvient avoir regardé une vidéo montrant un enfant agressé et une autre montrant une femme tuée.

Huit heures par jour, son travail de modérateur de contenu pour un sous-traitant de Facebook l'obligeait à voir des horreurs pour que le monde n'ait pas à le faire. Certains de ses collègues, accablés, criaient ou pleuraient, dit-il.

Aujourd'hui, M. Nkunzimana fait partie des quelque 200 anciens employés kenyans qui poursuivent Facebook et l'entreprise locale Sama en raison des conditions de travail. Cela pourrait avoir des répercussions sur les modérateurs de médias sociaux dans le monde entier.

Il s'agit de la première action en justice connue en dehors des États-Unis, où Facebook a conclu un accord avec les modérateurs en 2020.

1,46 milliard d'euros d'indemnités

Ces employés travaillaient au centre externalisé du géant des médias sociaux dans la capitale du Kenya, Nairobi, où ils filtraient les publications, vidéos, messages et autres contenus des utilisateurs à travers l'Afrique, pour détecter tout matériel illégal ou nuisible qui enfreint les normes de la communauté et les conditions de service.

If you feel comfortable browsing and going through the Facebook page, it is because there’s someone like me who has been there on that screen, checking, 'Is this okay to be here?'
Nathan Nkunzimana
Former content moderator for Facebook contractor Sama

Les modérateurs, originaires de plusieurs pays africains, réclament une indemnisation de 1,46 milliard d'euros après avoir dénoncé de mauvaises conditions de travail, notamment un soutien psychologique insuffisant et une faible rémunération.

Au début de l'année, ils ont été licenciés par Sama, qui a abandonné la modération de contenu. Ils affirment que cela va à l'encontre d'une décision de justice ordonnant la prolongation de leurs contrats jusqu'à ce que l'affaire soit jugée.

Facebook et Sama ont défendu leurs pratiques en matière d'emploi.

Des "soldats" qui prennent une balle pour les utilisateurs de Facebook

Sans certitude quant à la durée de la procédure, les modérateurs ont exprimé leur désespoir face à l'épuisement de leur argent et de leur permis de travail, ainsi qu'aux images traumatisantes qui les hantent.

"Si vous vous sentez à l'aise en naviguant et en parcourant la page Facebook, c'est parce qu'il y a quelqu'un comme moi qui a été là, sur cet écran, à vérifier si cela peut être là", a déclaré M. Nkunzimana, un père de trois enfants originaire du Burundi, à Associated Press (AP) à Nairobi.

AP
Nathan Nkunzimana a déclaré qu'il avait commencé son ancien travail de modérateur sur Facebook avec un sentiment de fierté.AP

Selon cet homme de 33 ans, les modérateurs de contenus peuvent être comparés à des "soldats" qui prennent une balle pour les utilisateurs de Facebook, les employés surveillant les contenus nuisibles montrant des meurtres, des suicides et des agressions sexuelles.

Pour M. Nkunzimana et d'autres, le travail a commencé par un sentiment de fierté, avec l'impression d'être des "héros pour la communauté".

Manque de soutien et culture du secret

Mais alors que l'exposition à des contenus alarmants ravivait des traumatismes passés pour certains qui, comme lui, avaient fui les violences politiques ou ethniques dans leur pays, les modérateurs ont trouvé peu de soutien et une culture du secret.

Il leur a été demandé de signer des accords de non-divulgation. Les objets personnels, comme les téléphones, n'étaient pas autorisés sur le lieu de travail.

Après son service, Nkuzimana rentrait chez lui épuisé et s'enfermait souvent dans sa chambre pour tenter d'oublier ce qu'il avait vu. Même sa femme n'avait aucune idée de ce qu'était son travail.

Aujourd'hui, il continue de s'isoler pour éviter que ses fils ne lui demandent pourquoi il ne travaille plus et pourquoi ils ne pourra bientôt probablement plus payer leurs frais de scolarité.

Le salaire des modérateurs de contenu était de 392 euros par mois, les non-Kényans recevant en plus une petite indemnité d'expatriation.

Des conseillers mal formés

Selon M. Nkuzimana, le sous-traitant de Facebook, la société américaine Sama, n'a pas fait grand-chose pour que les modérateurs puissent bénéficier d'une assistance psychologique dans les bureaux de Nairobi.

PUBLICITÉ

Il ajoute que les conseillers n'étaient pas suffisamment formés pour faire face à ce que lui et ses collègues vivaient. Aujourd'hui, en l'absence de soins psychologiques, il se tourne vers l'Eglise.

La société mère de Facebook, Meta, a déclaré que ses sous-traitants étaient contractuellement tenus de rémunérer leurs employés à un niveau supérieur à la norme du secteur sur les marchés où ils opèrent et de leur fournir un soutien sur place par des praticiens formés.

Un porte-parole a déclaré que Meta ne pouvait pas commenter l'affaire du Kenya.

AP
Facebook parent Meta has said its contractors are contractually obliged to pay their employees above the industry standard in the markets they operate.AP

Dans un courriel adressé à AP, Sama a déclaré que les salaires offerts au Kenya étaient quatre fois supérieurs au salaire minimum local et que "plus de 60 % des employés masculins et plus de 70 % des employées féminines vivaient en dessous du seuil international de pauvreté (moins de 1,74 € par jour)" avant d'être embauchés.

Sama indique que tous les employés avaient un accès illimité à des conseils individuels "sans crainte de répercussions".

PUBLICITÉ

Le groupe a également qualifié de "déroutante" une récente décision de justice visant à prolonger les contrats des modérateurs et a affirmé qu'elle n'était pas entrée en vigueur suite à une nouvelle décision.

Utiliser l'inégalité économique mondiale

Selon Sarah Roberts, experte en modération de contenu à l'université de Californie à Los Angeles, ce type de travail peut être "incroyablement préjudiciable sur le plan psychologique".

Dans des pays comme le Kenya, où la main-d'œuvre bon marché est abondante, l'externalisation d'un travail aussi sensible est "l'histoire d'une industrie qui exploite les inégalités économiques mondiales à son avantage, qui fait du mal et qui n'assume ensuite aucune responsabilité parce que les entreprises peuvent dire : "Eh bien, nous n'avons jamais employé untel ou untel, c'était, vous savez, la tierce partie"", estime-t-elle.

Les soins psychologiques ne sont pas forcément à la hauteur et des inquiétudes ont été soulevées quant à la confidentialité de la thérapie, selon Sarah Roberts.

Elle pense que la nouveauté dans cette affaire est que les modérateurs s'organisent et s'opposent à leurs conditions, ce qui crée une visibilité inhabituelle.

PUBLICITÉ

La stratégie courante dans ce genre d'affaires aux États-Unis est de trouver un arrangement, mais "si des affaires sont portées devant les tribunaux dans d'autres pays, il ne sera peut-être pas aussi facile pour les entreprises d'agir de la sorte".

Discours de haine et conflits en ligne

Facebook a investi dans des centres de modération dans le monde entier après avoir été accusé de laisser circuler des discours haineux dans des pays comme l'Éthiopie et la Birmanie, où les conflits faisaient des milliers de victimes et où des contenus préjudiciables étaient publiés dans diverses langues locales.

Recherchés pour leur maîtrise de diverses langues africaines, les modérateurs de contenu engagés par Sama au Kenya se sont rapidement retrouvés face à des contenus qui leur étaient douloureusement proches.

Vous fuyez la guerre, puis vous devez la voir. Pour nous, ce n'était qu'une torture.
Fasica Gebrekidan
Réfugiée tigréenne et ancienne modératrice de contenu pour Facebook

Les deux années pendant lesquelles Fasica Gebrekidan a travaillé comme modératrice ont coïncidé avec la geurre dans la région du Tigré, au nord de l'Ethiopie, où des centaines de milliers de personnes ont été tuées et où de nombreux Tigréens, comme elle, ne savaient pas grand-chose sur le sort de leurs proches.

Souffrant déjà d'avoir dû fuir le conflit, cette jeune femme de 28 ans passait ses journées de travail à regarder des vidéos "horribles" et d'autres contenus liés en grande partie à la guerre, y compris des viols.

PUBLICITÉ

Elle devait regarder les 50 premières et les 50 dernières secondes des vidéos avant de décider s'il fallait les supprimer.

Le sentiment de gratitude qu'elle avait éprouvé en décrochant le poste a rapidement disparu.

"Vous fuyez la guerre, puis vous devez la voir", a déclaré Mme Fasica, "c'était juste une torture pour nous".

Facebook devrait se préoccuper de nous

Aujourd'hui, elle n'a ni revenu ni logement permanent. Elle cherche de nouvelles opportunités pour essayer de se sentir à nouveau "normale".

Ancienne journaliste, elle ne peut plus se résoudre à écrire, même pour évacuer ses émotions.

PUBLICITÉ

Mme Fasica craint que "ces conneries" ne restent à jamais dans sa tête. Pendant qu'elle parlait à AP, elle ne quittait pas des yeux un tableau situé de l'autre côté du café, représentant ce qui semblait être un homme en détresse. Cela l'a dérangée.

Mme Fasica reproche à Facebook l'absence de soins psychologiques et de rémunération appropriés et accuse l'entrepreneur local de l'avoir utilisée et de l'avoir laissée partir.

"Facebook devrait savoir ce qui se passe et se préoccuper de nous", a-t-elle déclaré.

Le sort de la plainte des modérateurs est entre les mains du tribunal kenyan, dont la prochaine audience aura lieu le 10 juillet.

L'incertitude est frustrante, a déclaré Mme Fasica. Certains modérateurs abandonnent et retournent dans leur pays d'origine, mais ce n'est pas encore une option pour elle.

PUBLICITÉ
Partager cet articleDiscussion

À découvrir également

De jeunes universitaires utilisent TikTok pour éduquer les électeurs de l'UE avant les élections

Bertrand Piccard : l'IA pourrait aider ou nuire à l'environnement selon la manière dont elle est utilisée

La vie sur Mars, l'IA "honnête" et un avenir sans emploi : Elon Musk s'exprime à VivaTech