
L'automédication via l'intelligence artificielle inquiète de plus en plus les soignants
Demander un conseil médical à une intelligence artificielle devient un réflexe pour de nombreuses personnes. Un tiers des Français utiliseraient déjà des IA comme ChatGPT pour des questions de santé. Mais cette tendance à l'automédication assistée par IA inquiète de plus en plus les soignants, qui constatent déjà les conséquences de cette pratique dans leurs services d'urgence.
Des cas concrets qui alarment la communauté médicale
Les services d'urgence commencent à noter l'arrivée de "patients de l'IA" - des personnes ayant suivi des conseils médicaux erronés générés par des intelligences artificielles. Si le phénomène reste encore émergent, plusieurs cas documentés ont déjà alerté la profession médicale.
L'un des exemples les plus cités est celui d'un sexagénaire américain qui a développé une psyrose et une paranoïa après avoir utilisé du bromure de sodium comme substitut de sel pendant trois mois. La recommandation venait directement de ChatGPT, qui avait présenté cette substance comme une alternative sûre au sel de table. L'empoisonnement a nécessité une hospitalisation de trois semaines.
D'autres situations moins spectaculaires mais tout aussi préoccupantes sont régulièrement rapportées : retards de prise en charge suite à un diagnostic rassurant mais erroné de l'IA, mésusage de médicaments sur avis d'un chatbot, ou encore automédication hasardeuse suite à des recommandations inadaptées.
Pourquoi l'IA génère-t-elle des conseils dangereux ?
Plusieurs facteurs expliquent la tendance des IA à prodiguer des conseils médicaux parfois dangereux. Contrairement à un professionnel de santé, les modèles comme ChatGPT n'ont pas de conscience du contexte médical global, des antécédents d'un patient ou de la gravité réelle d'une situation.
Ces comportements des intelligences artificielles s'expliquent par des raisons techniques :
- Une conception orientée vers l'aide : les IA sont optimisées pour fournir une réponse même en l'absence de certitude
- Une vulnérabilité à la désinformation médicale présente dans leurs données d'entraînement (via les forums ou les réseaux sociaux par exemple)
- Le phénomène des "hallucinations" où l'IA invente des faits médicaux de manière très convaincante
- Une absence totale de jugement clinique et de discernement médical
Ces limitations expliquent pourquoi la Haute Autorité de Santé (HAS) appelle les professionnels à la plus grande prudence face à ces outils.
{txt:sectionTitle}
{txt:sectionText}
La réaction des soignants : entre inquiétude et adaptation
Face à ce phénomène émergent, les communautés médicales s'organisent. Sur les forums spécialisés comme r/medicine ou r/emergencymedicine, (Reddit), les professionnels de santé partagent de plus en plus d'expériences et de préoccupations concernant l'automédication assistée par IA.
Les discussions révèlent une position nuancée : si l'IA est reconnue comme un outil potentiellement utile pour certains aspects administratifs ou même d'aide au diagnostic, elle est unanimement considérée comme dangereuse entre les mains de non-professionnels.
Plusieurs initiatives émergent pour répondre à ce défi. La plateforme Doctolib a ainsi annoncé le lancement d'un assistant IA conçu avec et par les soignants, spécifiquement conçu pour fournir des informations validées et orienter vers les bons professionnels, sans jamais poser de diagnostic ni prescrire de traitement.
Comment utiliser l'IA à bon escient pour sa santé ?
Face à la popularité croissante des IA dans le domaine de la santé, les professionnels recommandent une approche prudente et éclairée. L'intelligence artificielle peut être utile pour obtenir des informations générales, mais ne doit jamais remplacer un avis médical professionnel.
Pour une utilisation sûre, voici quelques principes à respecter :
- Considérez l'IA comme un point de départ pour vos recherches, jamais comme une conclusion
- Vérifiez toujours les informations fournies par l'IA auprès de sources médicales fiables
- Méfiez-vous des réponses trop précises ou affirmatives sans examen clinique
- En cas de symptôme inquiétant, contactez systématiquement un professionnel de santé
Pour les questions d'urgence ou d'empoisonnement, les centres antipoison restent les ressources les plus fiables, et accessibles partout en France.
Sources
- ChatGPT dietary advice sends man to hospital with dangerous chemical poisoning - Fox 7 Austin : Reportage sur le cas d'empoisonnement au bromure de sodium suite à un conseil de ChatGPT.
- ChatGPT With GPT-4 Outperforms Emergency Department Physicians in Diagnostic Accuracy - JMIR : Étude comparant les performances diagnostiques de GPT-4 avec celles de médecins des urgences.
- A Practical Guide to the Utilization of ChatGPT in the Emergency Department - Cureus : Guide pratique sur l'utilisation de ChatGPT en milieu hospitalier, avec ses limites et risques.
- Doctolib s'attaque à la désinformation médicale avec l'IA - Siècle Digital : Annonce de l'initiative de Doctolib pour créer un assistant IA encadré par des professionnels de santé.
Est-ce dangereux de demander des conseils médicaux à ChatGPT ?
Oui, cela peut être dangereux. ChatGPT n'a pas de jugement clinique, ne connaît pas vos antécédents médicaux et peut fournir des informations erronées ou inadaptées à votre situation personnelle.
Que faire en cas d'urgence médicale si je n'ai pas accès à un médecin ?
Contactez immédiatement les services d'urgence (le 15 en France) ou un centre antipoison pour les questions d'intoxication. N'utilisez jamais une IA pour une situation d'urgence médicale.
Les médecins utilisent-ils l'intelligence artificielle dans ?
Oui, de plus en plus de médecins utilisent l'IA comme outil d'aide, notamment pour des tâches administratives ou parfois comme aide au diagnostic différentiel, mais toujours avec validation humaine et encadrement professionnel.
Comment vérifier si une information médicale venant d'une IA est fiable ?
Consultez systématiquement des sources médicales fiables (sites gouvernementaux, associations médicales reconnues) et, surtout, validez toute information concernant votre santé avec un professionnel de santé qualifié.





