Ne confiez pas à l’IA la prise de vos grandes décisions : considérez-la comme un stagiaire, une ressource à encadrer et non le décideur ultime.
Des juges partout dans le monde sont confrontés à un problème grandissant : des mémoires juridiques rédigés avec l’aide de l’intelligence artificielle (IA) et déposés avec des erreurs, comme des citations d’affaires qui n’existent pas, selon des avocats et des documents judiciaires.
Cette tendance fait figure d’avertissement pour celles et ceux qui apprennent à utiliser les outils d’IA au travail. De nombreux employeurs veulent recruter des salariés capables de s’en servir pour des tâches telles que la recherche et la rédaction de rapports. À mesure que des enseignants, des comptables et des professionnels du marketing commencent à solliciter des chatbots et des assistants d’IA pour générer des idées et gagner en productivité, ils découvrent aussi que les programmes commettent des erreurs.
Un data scientist et avocat français, Damien Charlotin, a recensé au moins 490 dépôts auprès des tribunaux au cours des six derniers mois contenant des « hallucinations », c’est-à-dire des réponses d’IA comportant des informations fausses ou trompeuses. Le phénomène s’accélère à mesure que davantage de personnes utilisent l’IA, dit-il.
« Même les acteurs les plus aguerris peuvent s’y casser les dents », affirme Charlotin. « L’IA peut être une aubaine. C’est formidable, mais il y a aussi ces écueils. »
Chercheur senior à HEC Paris, une école de commerce située aux portes de la capitale, Charlotin a créé une base de données pour recenser les affaires dans lesquelles un juge a estimé que l’IA générative avait produit des contenus « hallucinés », tels que de la jurisprudence fabriquée de toutes pièces et de fausses citations.
La majorité des décisions proviennent d’affaires américaines où les plaignants se représentaient eux-mêmes, sans avocat, dit-il. Si la plupart des juges se sont contentés d’avertissements au sujet des erreurs, certains ont infligé des amendes.
Mais même des entreprises en vue ont soumis des documents juridiques problématiques. Un juge fédéral du Colorado a estimé qu’un avocat de MyPillow Inc. avait déposé un mémoire comportant près de 30 citations défectueuses dans le cadre d’une plainte en diffamation visant l’entreprise et son fondateur, Michael Lindell.
La profession juridique n’est pas la seule à composer avec les caprices de l’IA. Les synthèses générées par l’IA, qui apparaissent en tête des pages de résultats de recherche sur le web, contiennent fréquemment des erreurs.
Les outils d’IA soulèvent aussi des questions de confidentialité. Dans tous les secteurs, les salariés doivent faire attention aux informations qu’ils mettent en ligne ou saisissent dans leurs requêtes pour s’assurer de protéger les données confidentielles des employeurs et des clients.
Des experts du droit et du monde du travail partagent leurs expériences des erreurs de l’IA et décrivent les pièges à éviter.
Considérez l’IA comme un assistant
Ne confiez pas à l’IA le soin de prendre de grandes décisions à votre place. Certains utilisateurs la considèrent comme un stagiaire à qui l’on confie des tâches et dont on s’attend à vérifier le travail une fois terminé.
« Pensez l’IA comme un outil qui augmente votre flux de travail », explique Maria Flynn, directrice générale de Jobs for the Future, une organisation à but non lucratif dédiée au développement des compétences. Elle peut jouer le rôle d’assistant pour des tâches comme rédiger un e-mail ou préparer un itinéraire de voyage, mais ne la considérez pas comme un substitut capable de faire tout le travail, dit-elle.
En préparant une réunion, Flynn a testé un outil d’IA interne en lui demandant de proposer des questions de discussion à partir d’un article qu’elle avait partagé avec l’équipe.
« Certaines des questions proposées n’étaient pas vraiment adaptées au contexte de notre organisation. J’ai donc pu lui faire ce retour… et il est revenu avec cinq questions très pertinentes », raconte-t-elle.
Vérifiez l’exactitude
Flynn a aussi relevé des problèmes dans les résultats de l’outil d’IA, encore en phase pilote. Elle lui a un jour demandé de compiler des informations sur les travaux menés par son organisation dans différents États. Mais l’outil considérait les travaux achevés et les demandes de financement comme une seule et même chose.
« Dans ce cas, notre outil d’IA n’a pas été capable de faire la différence entre quelque chose qui avait été proposé et quelque chose qui avait été réalisé », indique Flynn.
Heureusement, elle avait la connaissance institutionnelle nécessaire pour repérer les erreurs. « Si vous êtes nouveau dans une organisation, demandez à vos collègues si les résultats leur paraissent exacts », suggère Flynn.
Si l’IA peut aider à générer des idées, s’en remettre à elle pour fournir des informations factuelles reste risqué. Prenez le temps de vérifier l’exactitude de ce qu’elle génère, même s’il est tentant de sauter cette étape.
« Les gens partent du principe que c’est juste parce que cela paraît plausible, et que c’est commode », explique Justin Daniels, avocat à Atlanta et associé du cabinet Baker Donelson. « Devoir revenir en arrière et vérifier toutes les références, ou, quand je regarde un contrat que l’IA a résumé, devoir relire ce que dit le contrat, c’est un peu fastidieux et chronophage, mais c’est ce qu’il faut faire. Vous aurez beau penser que l’IA peut s’y substituer, elle ne le peut pas. »
Prudence avec les outils de prise de notes
La tentation est grande d’utiliser l’IA pour enregistrer et prendre des notes pendant les réunions. Certains outils génèrent des synthèses utiles et définissent des actions à entreprendre à partir de ce qui a été dit.
Mais, dans de nombreuses juridictions, l’enregistrement de conversations suppose le consentement des participants. Avant d’utiliser l’IA pour prendre des notes, prenez un temps d’arrêt et demandez-vous si la conversation doit rester privilégiée et confidentielle, conseille Danielle Kays, associée du cabinet Fisher Phillips, à Chicago.
Elle suggère de consulter les collègues des services juridiques ou des ressources humaines avant de déployer un outil de prise de notes dans des situations à risque élevé, comme des enquêtes, des entretiens d’évaluation ou des discussions de stratégie juridique.
« Certaines personnes estiment que, s’agissant de l’IA, il devrait exister différents niveaux de consentement, et cette question chemine actuellement devant les tribunaux », explique Kays. « C’est un sujet que, selon moi, les entreprises doivent continuer à suivre au fil du contentieux. »
Protéger les informations confidentielles
Si vous utilisez des outils d’IA gratuits pour rédiger une note ou une campagne marketing, ne lui fournissez pas d’informations identifiantes ni de secrets d’entreprise. Une fois que vous les avez saisies, il est possible que d’autres utilisateurs du même outil puissent les retrouver.
Car lorsque d’autres personnes interrogent un outil d’IA, celui-ci va puiser dans les informations disponibles, y compris des éléments que vous avez divulgués, pour construire sa réponse, explique Flynn. « Il ne distingue pas ce qui est public de ce qui est privé », ajoute-t-elle.
Se former
Si votre employeur ne propose pas de formation à l’IA, essayez d’expérimenter des outils gratuits comme ChatGPT ou Microsoft Copilot. Certaines universités et entreprises technologiques proposent des cours qui peuvent vous aider à mieux comprendre le fonctionnement de l’IA et les usages utiles que vous pouvez en faire.
Des formations qui apprennent à formuler de bons prompts, ou des cours pratiques offrant des occasions de s’exercer, sont précieuses, note Flynn.
Malgré leurs limites potentielles, apprendre comment ces outils fonctionnent peut être bénéfique à une époque où ils sont omniprésents.
« Le plus grand écueil potentiel, quand on apprend à utiliser l’IA, c’est de ne pas l’apprendre du tout », estime Flynn. « Nous allons tous devoir devenir à l’aise avec l’IA, et franchir dès maintenant les premières étapes pour se familiariser, gagner en maîtrise et en aisance avec l’outil sera crucial. »
 
             
             
             
             
             
            