This content is not available in your region

La lanceuse d’alerte Chelsea Manning et nos données privées à l’honneur au FIFDH

Pouvez-vous construire une vie à partir des données de recherche de Google ?
Pouvez-vous construire une vie à partir des données de recherche de Google ?   -   Tous droits réservés  Jens Meyer/AP
Par Jez Fielder

Est-il possible de reconstituer la vie d'une personne en se basant uniquement sur ses recherches sur Google ?

C’est ce que le réalisateur allemand Hans Block questionne dans son documentaire Made to Measure, projeté samedi 5 mars lors de la 20ème édition du FIFDH, le Festival du film et forum international sur les droits humains à Genève.

Au cœur de ce projet, on retrouve le “résidu comportemental”, ces petites traces de données que nous laissons au cours de notre vie quotidienne. Ce film nous montre comment nous les parsemons, et ce que le reste du monde peut en déduire à notre sujet.

A l’origine de ce film, une expérience qui utilise l'apprentissage automatique (machine learning dans la langue de Shakespeare) pour analyser notre empreinte numérique, puis, dans un second temps, crée un profil psychologique à partir de ces données.

M. Block, accompagné dans la réalisation de ce film par Moritz Riesewieck et Cosima Terrasse, ont proposé à une volontaire de devenir leur cas d’étude, et cinq années durant, l’ont profilée pour aboutir à un final théâtral où sa vie numérique se retrouve, pour ainsi dire, habitée et rejouée par une actrice.

Nous avons tous pleinement conscience de la valeur des algorithmes, surtout sur le marché du Net. Mais un profil établi à partir de l'historique de nos recherches peut-il révéler des faits beaucoup plus profonds sur notre véritable personnalité ? Peut-il répondre à des questions telles que : De quoi ai-je peur ? et Pour quoi serais-je prêt à me battre ?

Les recherches que nous effectuons en ligne contribuent à un véritable commerce. Prenez la santé par exemple: nos recherches sont surveillées et les résultats sont compilés et vendus aux compagnies pharmaceutiques et d'assurance par des courtiers en données (data brokers en anglais), et cela nous arrive à tous.

La cartographie de la vie de cette femme s’est traduit en un film extrêmement émouvant lorsque le profil de recherche a révélé une fausse couche. Emue aux larmes, celle-ci a dû faire une pause dans son visionnage.

"C'est comme ça que ça s'est passé. Pas du tout dans ce contexte, mais quand même. C'est fou", a-t-elle déclaré, choquée par la façon dont sa réalité avait été reconstituée et avait pris vie uniquement grâce à un ensemble de données.

"C'est comme ça que ça s’est passé", a-t-elle répété à l'actrice en face d'elle. "Vous avez vraiment réussi à saisir ce moment."

Elle expliquera plus tard qu’elle avait l’impression d’avoir été “mise sur écoute”

Après cette expérience, réexpérimenter cette vie qui ne lui appartient plus a produit une sorte de dualité avec la vie réelle de la candidate, surtout lorsqu’il s’agissait de se souvenir de son passé. "Je ne peux pas revenir à l'expérience réelle de ma vie. C'est comme si la réalité s'était mélangée à la fiction. Je ne peux plus me rendre à cet endroit, je mélange tout et je ne sais même pas ce qui est vrai."

Un sentiment de perturbation partagé par l’actrice: "Ça m'a donné la chair de poule d'être ce parfait sosie."

La lanceuse d’alerte Chelsea Manning à la FIFDH

Après la projection de Made to Measure, l'ancienne analyste des renseignements de l'armée américaine Chelsea Manning, aujourd'hui experte en optimisation de sécurité matérielle, était présente au FIFDH pour participer à une rencontre avec le public autour du thème de la confidentialité des données.

Cliff Owen/AP
Chelsea Manning en 2019.Cliff Owen/AP

Lorsqu'on lui a demandé si le film était exact en ce qui concerne la façon dont les plateformes de médias sociaux s'imprègnent de nos traces numériques, Manning a répondu par l'affirmative.

"Surtout avec l'apprentissage automatique [le machine learning, NDLR], vous êtes capable d'établir des connexions avec et entre des choses qu'un être humain n'associerait normalement pas à naviguer sur le web."

"C'est la dystopie pour laquelle nous avons signé. Nous cliquons sur 'accepter les paramètres' ", a déclaré Manning.

_Voir l’entretien en entier en version originale: _

Le documentaire de M. Block est entrecoupé d'avis d'experts concernant les éléments dangereux qui opèrent dans le processus des algorithmes.

"La fonction de rechercher et naviguer sur le web est exploitée par ces algorithmes en ligne pour nous inciter à faire défiler, cliquer sur la diapositive suivante, pour trouver une sorte de stimulus nouveau,” explique Anna Lambke, chercheuse en addictologie à l'université de Stanford.

FIFDH
L'affiche de la 20e édition du FIFDH par la photographe Shin Noguchi.FIFDH

Capitalisme de surveillance

"Il existe de bonnes méthodes de surveillance, cette idée que si nous donnons un peu d'informations extrêmement privées mais que nous le faisons pour une bonne raison, tout ira bien, mais c'est généralement une porte ouverte aux abus et à l'exploitation en aval", a déclaré Manning. "Il s'agit de créer un moyen plus acceptable d'autoriser la surveillance dans votre vie."

"Il existe de bonnes méthodes de surveillance, cette idée que si nous donnons un peu d'informations extrêmement privées mais que nous le faisons pour une bonne raison, tout ira bien, mais c'est généralement une porte ouverte aux abus et à l'exploitation en aval", a déclaré Manning. "Il s'agit de créer un moyen plus acceptable d'autoriser la surveillance dans votre vie."

"Nous allons vous surveiller pour que vous deveniez le produit.
Chelsea Manning
Lanceuse d'alerte, experte en optimisation de sécurité matérielle à Nym Technologies

"Nous allons vous surveiller pour que vous deveniez le produit", ajoute-t-elle.

Ainsi, les algorithmes nous connaissent-ils mieux que nous ne nous connaissons nous-mêmes ?

Pourquoi ne le feraient-ils pas ? C'est une industrie de plusieurs millions d'euros. Les courtiers en données s'intéressent à nous plus que n'importe lequel de nos amis.

En visionnant Made to Measure, vous serez interpellé par de nombreuses séquences, mais celle qui a eu le plus d’impact à mes yeux est l'idée qu’ "Instagram savait que j'étais enceinte avant moi." Notre subconscient peut informer nos peurs, nos penchants et nos pensées les plus profondes, et il influence notre comportement de navigation.

Comment y remédier ?

"Les autorités qui ont reçu le pouvoir de faire quelque chose à ce sujet... n'ont rien fait", affirme Johnny Ryan, expert en confidentialité des données.

Manning prend le relais. "Sommes-nous en train d'attendre que quelqu'un d'autre vienne résoudre ce problème ?," demande-t-elle avant d'affirmer que la responsabilité incombe "aux personnes qui ont conçu ce matériel."

"Les médecins ont des obligations, les avocats ont des obligations éthiques. Ils ont des sanctions s'ils ne respectent pas certaines normes et protocoles éthiques... Comment se fait-il que les personnes qui conçoivent et développent cette technologie n'aient pas ces mêmes normes ?"

Le travail actuel de Manning avec la société suisse Nym Technologies contribue à créer un réseau de partage de données plus sécurisé. "Cela crée une enveloppe ou un chapiteau autour de ce trafic", explique-t-elle.

Quand les données vous reviennent

Ce que j'ai trouvé de plus magistral dans le projet Made to Measure et son exécution, c'est que, pendant mon expérience de spectateur, les données que je donnais en répondant aux questions à l'écran, étaient enregistrées et analysées: quand je mettais le film en pause, à quelle fréquence et à quel endroit, en regardant les parties que je rejouais ou encore à quelle vitesse je cliquais.

Ce qui fait froid dans le dos, c'est que j'ai ensuite eu droit à une consultation de mon profil, un exposé sur ce que les données avaient conclu à mon sujet.

Je ne le partagerai pas avec vous, mais certaines des observations étaient saisissantes (j'ai pensé avec désinvolture à la façon dont les horoscopes peuvent tromper les gens, ce qui était étrangement rassurant) et on m'a ensuite donné la possibilité de télécharger mon portrait numérique et de l'envoyer à un courtier en données.

Je vous en livre une partie : "Nous pensons que vous n'atteignez que 37% de votre potentiel. Nous savons que ce n'est pas ce que vous voulez". Une ruse psychologique de mise en confiance? Peut-être. Ou peut-être pas.

Le FIFDH a 20 ans

Pendant 10 jours, des diplomates, des ONG, des victimes, des artistes, des philanthropes, des militants, des journalistes, des dirigeants et le grand public sont invités au FIFDH pour débattre de leurs points de vue sur les violations des droits de l'homme dans le monde.

Parmi les personnalités éminentes qui ont participé aux débats, on peut citer: les lauréats du prix Nobel Shirin Ebadi, Joseph Stiglitz, Tawakkol Karman et le Dr Denis Mukwege; les hauts-commissaires Michelle Bachelet, Louise Arbour et Zeid Ra'ad al Hussein; le directeur de Human Rights Watch, Kenneth Roth; l'ancien analyste de la NSA Edward Snowden; les écrivains Chimamanda Ngozi Adichie, Arundathi Roy, Nancy Houston et Joe Sacco; la militante Angela Davis; les artistes Ai Weiwei et JR; les diplomates et politiciens Svetlana Tsikhanouskaya, Leila Shahid et Samantha Power, aux côtés de nombreuses victimes et acteurs sur le terrain.