Technologie

Ce qu’il faut savoir avant de demander des conseils de santé à Chat GPT ou Claude

Les agents conversationnels ont leur utilité médicale, mais aussi leurs limites.

Publié le 

CHAT GPT (Noovo Info)

Avec des centaines de millions de personnes qui se tournent vers les agents conversationnels pour obtenir des conseils, ce n’était qu’une question de temps avant que les entreprises technologiques ne commencent à proposer des programmes spécialement conçus pour répondre aux questions de santé.

En janvier, OpenAI a lancé ChatGPT Health, une nouvelle version de son agent conversationnel qui, selon l’entreprise, peut analyser les dossiers médicaux des utilisateurs, les applications de bien-être et les données des appareils portables pour répondre à des questions sur la santé et la médecine. Actuellement, il y a une liste d’attente pour ce programme.

Anthropic, une entreprise rivale spécialisée dans l’IA, propose des fonctionnalités similaires à certains utilisateurs de son agent conversationnel Claude.

Les deux entreprises affirment que leurs programmes, connus sous le nom de «grands modèles linguistiques», ne remplacent pas les soins professionnels et ne doivent pas être utilisés pour diagnostiquer des troubles médicaux.

Elles affirment plutôt que les agents conversationnels peuvent résumer et expliquer des résultats d’examens complexes, aider à préparer une consultation médicale ou analyser des tendances importantes en matière de santé cachées dans les dossiers médicaux et les mesures des applications.

Voici quelques éléments à prendre en compte avant de parler de votre santé à un agent conversationnel.

Les agents conversationnels peuvent offrir des informations plus personnalisées qu’une recherche Google

Certains médecins et chercheurs qui ont travaillé avec ChatGPT Health et des programmes similaires les considèrent comme une amélioration par rapport au statu quo.

La majorité des emplois touchés par l’IA, selon une étude Une étude de l’Institut de la statistique du Québec suggère que 60% de la population québécoise est exposée à l’intelligence artificielle (IA) au travail. Cela veut dire qu’une personne pourrait éventuellement voir son emploi être amélioré, transformé ou remplacé par la technologie.

Les plateformes d’IA ne sont pas parfaites — elles peuvent parfois divaguer ou donner de mauvais conseils — mais les informations qu’elles produisent sont plus susceptibles d’être personnalisées et spécifiques que celles que les patients pourraient trouver via une recherche Google.

«L’alternative est souvent l’absence totale d’informations, ou le patient qui improvise», explique le Dr Robert Wachter, expert en technologie médicale à l’université de Californie à San Francisco. «Je pense donc que si vous utilisez ces outils de manière responsable, vous pouvez obtenir des informations utiles.»

L’un des avantages des derniers agents conversationnels est qu’ils répondent aux questions des utilisateurs en tenant compte du contexte de leurs antécédents médicaux, notamment leurs ordonnances, leur âge et les notes de leur médecin.

Même si vous n’avez pas donné accès à l’IA à vos informations médicales, M. Wachter et d’autres recommandent de fournir aux agents conversationnels autant de détails que possible afin d’améliorer leurs réponses.

Si vous présentez des symptômes inquiétants, évitez l’IA

M. Wachter et d’autres soulignent qu’il existe des situations dans lesquelles il vaut mieux éviter les agents conversationnels et consulter immédiatement un médecin. Des symptômes tels que l’essoufflement, des douleurs thoraciques ou des maux de tête sévères peuvent être le signe d’une urgence médicale.

Il crée une application pour confronter son cancer Par Lila Mouch | Et si tous les patients pouvaient affronter leur maladie en face à face, leur permettant de l'insulter ou encore la remercier?

Même dans des situations moins urgentes, les patients et les médecins doivent aborder les programmes d’IA avec «un certain scepticisme», a déclaré le Dr Lloyd Minor de l’université de Stanford.

«S’il s’agit d’une décision médicale importante, ou même d’une décision mineure concernant votre santé, vous ne devriez jamais vous fier uniquement à ce que vous obtenez d’un grand modèle linguistique», a déclaré M. Minor, qui est doyen de la faculté de médecine de Stanford.

Pensez à votre vie privée avant de télécharger des données de santé

De nombreux avantages offerts par les robots IA découlent du partage d’informations médicales personnelles par les utilisateurs. Mais il est important de comprendre que tout ce qui est partagé avec une entreprise d’IA n’est pas protégé par la loi fédérale américaine sur la confidentialité qui régit normalement les informations médicales sensibles.

Communément appelée HIPAA, cette loi prévoit des amendes et même des peines de prison pour les médecins, les hôpitaux, les assureurs ou autres services de santé qui divulguent des dossiers médicaux. Mais la loi ne s’applique pas aux entreprises qui conçoivent des agents conversationnels.

«Lorsque quelqu’un télécharge son dossier médical dans un grand modèle linguistique, c’est très différent de le remettre à un nouveau médecin», explique M. Minor. «Les consommateurs doivent comprendre qu’il s’agit de normes de confidentialité complètement différentes.»

OpenAI et Anthropic affirment toutes deux que les informations médicales des utilisateurs sont conservées séparément des autres types de données et font l’objet de protections supplémentaires en matière de confidentialité. Les entreprises n’utilisent pas les données médicales pour entraîner leurs modèles. Les utilisateurs doivent accepter de partager leurs informations et peuvent se déconnecter à tout moment.

Les tests montrent que les agents conversationnels peuvent échouer

Malgré l’engouement suscité par l’IA, les tests indépendants de cette technologie n’en sont qu’à leurs débuts. Les premières études suggèrent que des programmes tels que ChatGPT peuvent réussir haut la main des examens médicaux de haut niveau, mais échouent souvent lorsqu’ils interagissent avec des humains.

Une étude menée par l’université d’Oxford auprès de 1300 participants a récemment révélé que les personnes utilisant des agents conversationnels IA pour rechercher des informations sur des problèmes de santé hypothétiques ne prenaient pas de meilleures décisions que celles qui effectuaient des recherches en ligne ou se fiaient à leur jugement personnel.

Les agents conversationnels IA, auxquels on a présenté des scénarios médicaux sous forme écrite et exhaustive, ont correctement identifié le problème sous-jacent dans 95 % des cas.

«Ce n’était pas le problème», a souligné Adam Mahdi, auteur principal de l’étude, de l’Oxford Internet Institute. «C’est lors de l’interaction avec les vrais participants que les choses ont mal tourné.»

M. Mahdi et son équipe ont identifié plusieurs problèmes de communication. Souvent, les utilisateurs ne fournissaient pas aux agents conversationnels les informations nécessaires pour identifier correctement le problème de santé. À l’inverse, les systèmes d’IA répondaient souvent en combinant des informations pertinentes et erronées, et les utilisateurs avaient du mal à faire la distinction entre les deux.

L’étude, menée en 2024, n’a pas utilisé les dernières versions des agents conversationnels, notamment les nouvelles offres telles que ChatGPT Health.

Un deuxième avis de l’IA peut être utile

La capacité des agents conversationnels à poser des questions complémentaires et à obtenir des informations clés auprès des utilisateurs est un domaine dans lequel M. Wachter voit une marge d’amélioration.

«Je pense que ce sera vraiment efficace lorsque les outils deviendront un peu plus ‘’médicaux’’ dans leur façon d’échanger» avec les patients, a déclaré M. Wachter.

Pour l’instant, une façon d’avoir davantage confiance dans les informations que vous obtenez est de consulter plusieurs agents conversationnels, un peu comme si vous demandiez un deuxième avis à un autre médecin.

«Je saisis parfois des informations dans ChatGPT et dans Gemini», explique M. Wachter, en référence à l’outil d’IA de Google. «Et quand les deux sont d’accord, je me sens un peu plus sûr que c’est la bonne réponse.»