Des vidéos et photos sensibles, montrant notamment de la nudité et des données bancaires, filmées par les lunettes connectées à IA de Meta, auraient été examinées par du personnel humain.
Meta fait face à une nouvelle action en justice en raison d'inquiétudes liées au respect de la vie privée autour de ses lunettes connectées équipées d'IA.
Cette procédure fait suite à des révélations des quotidiens suédois Svenska Dagbladet et Göteborgs-Posten (GP), selon lesquelles des employés d'un sous-traitant basé au Kenya visionnaient des vidéos privées enregistrées via les lunettes intelligentes de clients.
Ces images comprenaient des contenus sensibles, comme de la nudité, des personnes aux toilettes, des rapports sexuels, des informations de cartes bancaires, ainsi que des messages et conversations privés.
Le régulateur britannique de la protection des données, l'Information Commissioner's Office, a décidé d'ouvrir une enquête, ce qui a ensuite débouché sur une plainte aux États-Unis déposée par Mateo Canu, en Californie, et Gina Bartone, dans le New Jersey. Ils sont représentés par le cabinet Clarkson Law Firm, spécialisé dans les actions d'intérêt public.
La plainte américaine accuse Meta d'avoir eu recours à une publicité mensongère et d'avoir ignoré les lois sur la protection de la vie privée.
Elle affirme que Meta met en avant, pour ses lunettes intelligentes à IA, des formules publicitaires telles que « conçues pour la confidentialité, contrôlées par vous », de nature à rassurer les utilisateurs et à leur faire croire que leurs moments intimes et leurs données sont à l'abri des regards.
La plainte reproche aussi à Meta de ne pas avoir assorti ces messages d'un avertissement contraire. Le partenaire chargé de la fabrication des lunettes, Luxottica of America, est également visé pour des pratiques jugées contraires aux lois sur la protection des consommateurs.
Les conditions d'utilisation de l'IA de Meta au Royaume-Uni (source en anglais) mentionnent toutefois l'existence d'un examen humain.
Une version (source en anglais) de cette politique s'applique également aux États-Unis et précise : « Dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations ou messages adressés aux IA ; cet examen peut être automatisé ou manuel (humain). »
Le sous-traitant en cause est Sama, une entreprise spécialisée dans l'annotation de données basée à Nairobi, où les employés entraînent manuellement des systèmes d'IA en décrivant, étiquetant et contrôlant la qualité des images.
Euronews Next a sollicité Meta pour un commentaire, sans obtenir de réponse au moment de la publication.
Des craintes pour la vie privée face à des images et données sensibles
Meta affirme que les visages sont en général floutés sur les images, mais des sources interrogées par Svenska Dagbladet soulignent que ce n'est pas systématiquement le cas.
« On voit tout, des salons jusqu'aux corps nus », a raconté l'un des employés du sous-traitant.
Selon Meta, les employés des sous-traitants doivent parfois examiner les contenus des utilisateurs, y compris des photos et des vidéos, afin d'améliorer l'expérience offerte par les lunettes intelligentes.
Le géant des technologies assure toutefois prendre très au sérieux la protection de la vie privée de ses clients.
« Les lunettes Ray-Ban Meta vous aident à utiliser l'IA, en mains libres, pour répondre aux questions sur le monde qui vous entoure », a déclaré Meta dans un communiqué cité par le site TechCrunch.
« Lorsque les utilisateurs partagent du contenu avec Meta AI, nous faisons parfois appel à des prestataires pour examiner ces données, dans le but d'améliorer l'expérience, comme le font de nombreuses autres entreprises. Nous prenons des mesures pour filtrer ces données afin de protéger la vie privée des personnes et d'éviter que des informations permettant de les identifier ne soient examinées. »
Les inquiétudes autour de ces technologies de « surveillance de luxe » se sont nettement accrues ces dernières années.