Après le récent lancement de ChatGPT Health par OpenAI, voici quelques éléments à prendre en compte avant de se tourner vers des chatbots d’IA pour obtenir des conseils médicaux.
Avec des centaines de millions de personnes qui se tournent vers les chatbots pour obtenir des conseils, il n’était qu’une question de temps avant que les entreprises technologiques ne commencent à proposer des outils spécialement conçus pour répondre aux questions de santé.
En janvier, OpenAI a lancé ChatGPT Health, une nouvelle version de son chatbot, qui, selon l’entreprise, peut analyser les dossiers médicaux des utilisateurs ainsi que les données provenant d’applications de bien-être et d’objets connectés pour répondre à leurs questions de santé.
Pour l’heure, un programme de ce type n’est accessible que sur liste d’attente. Anthropic, une entreprise d’IA concurrente, propose des fonctionnalités similaires à certains utilisateurs de son chatbot Claude.
Les deux entreprises affirment que leurs programmes, appelés grands modèles de langage, ne remplacent pas une prise en charge professionnelle et ne doivent pas servir à poser des diagnostics. Selon elles, les chatbots peuvent plutôt résumer et expliquer des résultats d’examens complexes, aider à préparer une consultation ou analyser des tendances importantes dissimulées dans les dossiers médicaux et les données d’applications.
Mais ces chatbots sont-ils vraiment sûrs et fiables pour analyser des données de santé et des symptômes ? Et peut-on réellement s’y fier ?
Voici quelques éléments à prendre en compte avant de parler de votre santé avec un chatbot :
Les chatbots peuvent fournir des informations plus personnalisées qu’une recherche Google
Certains médecins et chercheurs qui ont travaillé avec ChatGPT Health et des programmes similaires y voient une amélioration par rapport à la situation actuelle.
Les plateformes d’IA ne sont pas parfaites : elles peuvent parfois produire des hallucinations ou donner de mauvais conseils (source en anglais), mais les informations qu’elles fournissent ont davantage de chances d’être personnalisées et précises que ce que les patients trouvent via une simple recherche Google.
« L’autre option, bien souvent, c’est rien du tout, ou le patient qui se débrouille tout seul », explique le Dr Robert Wachter, spécialiste des technologies médicales à l’université de Californie à San Francisco. « Si vous utilisez ces outils de manière responsable, vous pouvez, je pense, obtenir des informations utiles. »
Dans des pays comme le Royaume-Uni ou les États-Unis, où il faut parfois des semaines pour obtenir un rendez-vous médical et où l’attente aux urgences se compte souvent en heures, les chatbots peuvent, dans bien des cas, aider à réduire les inquiétudes inutiles et à gagner du temps.
Ils peuvent toutefois aussi signaler lorsque des symptômes sont dangereux et doivent être évalués par de vrais professionnels de santé.
L’un des atouts des derniers chatbots, c’est qu’ils répondent aux questions des utilisateurs en tenant compte de leur historique médical, notamment leurs prescriptions, leur âge et les notes de leurs médecins.
Même si vous n’avez pas donné à l’IA accès à vos informations médicales, Wachter et d’autres recommandent de fournir au chatbot le plus de détails possible pour améliorer la qualité des réponses.
Si vos symptômes vous inquiètent, passez-vous de l’IA
Wachter et d’autres insistent sur le fait qu’il existe des situations où il ne faut pas passer par un chatbot, mais chercher une aide médicale immédiate. Des symptômes comme un essoufflement, des douleurs thoraciques ou un mal de tête intense peuvent signaler une urgence médicale.
Même dans des situations moins urgentes, les patients et les médecins devraient aborder les programmes d’IA avec « une dose de scepticisme salutaire », estime le Dr Lloyd Minor, de l’université Stanford.
« S’il s’agit d’une décision médicale importante, ou même d’une décision plus modeste concernant votre santé, vous ne devriez jamais vous fier uniquement à ce que vous donne un grand modèle de langage », souligne Minor, doyen de la faculté de médecine de Stanford.
Même pour des cas moins complexes ou fréquents, comme le syndrome des ovaires polykystiques (SOPK), il peut être préférable de consulter un véritable professionnel de santé, tant cette pathologie peut se manifester très différemment selon les personnes, ce qui influe sur les traitements.
Réfléchissez à votre vie privée avant de télécharger des données de santé
Nombre des avantages offerts par les bots d’IA reposent sur le partage, par les utilisateurs, d’informations médicales personnelles. Mais il est important de comprendre que tout ce qui est partagé avec une entreprise d’IA n’est pas protégé par la loi fédérale américaine sur la confidentialité qui encadre normalement les données médicales sensibles.
Communément appelée HIPAA, cette loi prévoit des amendes, voire des peines de prison, pour les médecins, hôpitaux, assureurs ou autres services de santé qui divulguent des dossiers médicaux. Mais elle ne s’applique pas aux entreprises qui conçoivent des chatbots.
« Quand quelqu’un télécharge son dossier médical dans un grand modèle de langage, ce n’est pas du tout la même chose que de le remettre à un nouveau médecin », explique Minor. « Les consommateurs doivent comprendre que les normes de confidentialité sont complètement différentes. »
OpenAI comme Anthropic affirment que les informations de santé des utilisateurs sont conservées séparément des autres données et bénéficient de protections de confidentialité supplémentaires. Les entreprises n’utilisent pas ces données pour entraîner leurs modèles. Les utilisateurs doivent consentir explicitement au partage de leurs informations et peuvent mettre fin à ce partage à tout moment.
Les tests montrent que les chatbots peuvent se tromper
Malgré l’enthousiasme autour de l’IA, les tests indépendants de ces technologies n’en sont qu’à leurs débuts. De premières études suggèrent que des programmes comme ChatGPT peuvent réussir haut la main des examens médicaux de haut niveau, mais trébuchent souvent lorsqu’ils interagissent avec des humains.
Une étude menée récemment par l’université d’Oxford auprès de 1 300 participants a montré que les personnes utilisant des chatbots d’IA pour se renseigner sur des problèmes de santé hypothétiques ne prenaient pas de meilleures décisions que celles qui utilisaient des recherches en ligne ou leur propre jugement.
Présentés avec des scénarios médicaux complets, sous forme écrite, les chatbots d’IA ont correctement identifié la pathologie sous-jacente dans 95 % des cas.
« Ce n’était pas là que se situait le problème », souligne Adam Mahdi, auteur principal de l’étude et chercheur à l’Oxford Internet Institute. « Là où tout se compliquait, c’était dans l’interaction avec les participants. »
Mahdi et son équipe ont mis en évidence plusieurs problèmes de communication. Les participants ne fournissaient souvent pas aux chatbots les informations nécessaires pour identifier correctement le problème de santé. À l’inverse, les systèmes d’IA répondaient fréquemment par un mélange d’informations pertinentes et erronées, et les utilisateurs avaient du mal à faire la part des choses.
L’étude, réalisée en 2024, ne portait pas sur les toutes dernières versions de chatbots, notamment les nouveaux outils comme ChatGPT Health.
Un deuxième avis d’IA peut être utile
La capacité des chatbots à poser des questions de suivi et à obtenir des précisions essentielles de la part des utilisateurs est, selon Wachter, l’un des domaines où il reste des progrès à faire.
« Je pense que ces outils deviendront vraiment très efficaces lorsqu’ils fonctionneront d’une manière un peu plus “médicale” dans leur façon d’échanger avec les patients », estime-t-il.
Pour l’instant, une façon de se sentir plus sûr des informations obtenues consiste à consulter plusieurs chatbots, un peu comme on demande un deuxième avis à un autre médecin.
« Il m’arrive de saisir des informations dans ChatGPT et les mêmes dans Gemini », explique Wachter, en référence à l’outil d’IA de Google. « Et lorsqu’ils sont d’accord, je me sens un peu plus certain que c’est la bonne réponse. »