
Un homme s'empoisonne au bromure de sodium à cause de ChatGPT
Un homme américain de 60 ans a été hospitalisé après avoir remplacé le sel de table par du bromure de sodium. Cette décision venait d’un conseil donné par ChatGPT. Ce cas, publié dans une revue médicale, met en lumière les risques de prendre au pied de la lettre des réponses d’IA sans vérification et sans contexte.
Une intoxication digne du XIXᵉ siècle
Le patient voulait réduire sa consommation de sel (chlorure de sodium). Après avoir interrogé ChatGPT, il a cru pouvoir le remplacer par du bromure de sodium (NaBr). Ce composé, jadis utilisé comme sédatif, est aujourd’hui reconnu comme toxique en cas d’ingestion prolongée.
L’homme a rapidement développé des symptômes graves : hallucinations, paranoïa, insomnie, fatigue extrême et troubles neurologiques. Diagnostiqué avec un bromisme, il a dû être hospitalisé trois semaines.
Comment ChatGPT a induit en erreur
Les médecins n’ont pas pu récupérer l’échange original, mais en refaisant des requêtes similaires, les chercheurs ont obtenu des réponses listant le bromure de sodium comme substitut chimique au sel.
Le problème ? ChatGPT n’a pas précisé que cette option n’était pas alimentaire. En voulant donner une réponse « correcte » d’un point de vue chimique, l’IA a fourni une suggestion dangereuse sans contexte ni mise en garde.
Des risques bien réels avec les IA grand public
Ce cas n’est pas isolé, et il illustre une tendance plus large. De nombreuses enquêtes et études montrent que les IA conversationnelles comme ChatGPT, Claude ou Gemini peuvent générer des réponses problématiques lorsqu’elles sont utilisées dans un contexte sensible comme la santé.
Parmi les risques identifiés :
* Des conseils médicaux erronés : certaines IA ont déjà recommandé des dosages incorrects de médicaments, ou donné de fausses informations sur des pathologies. Dans un cadre médical, même une petite erreur peut avoir de graves conséquences.
* Des recommandations dangereuses pour la santé mentale : plusieurs tests réalisés auprès d’adolescents ont montré que les chatbots pouvaient encourager des comportements à risque, banaliser les troubles alimentaires ou donner des réponses inadaptées à des personnes en détresse psychologique.
* Des suggestions hors contexte : l’IA peut proposer des alternatives valides d’un point de vue théorique, mais totalement inappropriées dans la réalité. C’est exactement ce qui s’est passé avec le bromure de sodium, présenté comme un “équivalent chimique” du sel sans avertissement sur sa toxicité.
Ces dérives rappellent une règle essentielle : ChatGPT et les autres modèles ne sont pas des médecins. Leur rôle est de fournir de l’information générale, pas de prescrire un traitement ou de remplacer l’expertise d’un professionnel de santé.
Pourquoi le bromure est-il toxique ?
Le bromure de sodium perturbe profondément l’équilibre électrolytique de l’organisme. Son action entraîne une accumulation de bromures dans le sang, ce qui altère le fonctionnement normal des cellules nerveuses et provoque une intoxication chronique connue sous le nom de bromisme.
À forte dose, ses effets sont multiples et graves :
* Troubles neurologiques : confusion mentale, désorientation, convulsions ou perte de coordination.
* Hallucinations et paranoïa : le patient peut développer des délires, entendre des voix ou se persuader d’idées fausses.
* Atteintes cutanées et digestives : éruptions, acné inhabituelle, douleurs abdominales, nausées et fatigue intense.
Abandonné depuis le milieu du XXᵉ siècle, ce composé n’est plus utilisé qu’exceptionnellement dans quelques protocoles expérimentaux. Sa disponibilité reste pourtant possible via certains fournisseurs de produits chimiques en ligne, ce qui soulève une question inquiétante : comment un particulier a-t-il pu s’en procurer et l’utiliser comme ingrédient alimentaire ?
Au-delà de la substance elle-même, ce cas met aussi en évidence une confiance aveugle dans l’IA. L’homme a suivi la suggestion de ChatGPT sans chercher à vérifier auprès d’un professionnel de santé ni même à remettre en cause la pertinence de remplacer un aliment courant par un produit chimique industriel. Cette absence de recul illustre la manière dont un outil perçu comme intelligent peut induire en erreur lorsqu’on le prend pour une autorité.
L’usage du bromure de sodium comme substitut de sel n’était pas seulement une erreur grave : c’est le résultat d’un enchaînement de facteurs combinant toxicité de la substance, facilité d’accès et manque de sens critique face aux réponses de l’IA.
Une responsabilité partagée
L’affaire pose une question délicate : jusqu’où peut-on tenir une IA responsable de ses réponses ? ChatGPT n’a pas d’intention de nuire. Mais sans garde-fous solides, il peut fournir des informations incomplètes ou trompeuses.
C’est aussi un rappel que les utilisateurs doivent systématiquement vérifier les conseils médicaux auprès de professionnels de santé. L’IA reste un outil, pas un substitut au jugement clinique.
Sources
* The Guardian – US man develops bromism after asking ChatGPT about salt
Article détaillant le cas clinique et les avertissements des médecins sur l’usage de l’IA en santé.
* PC Gamer – Man develops rare 19th-century illness after ChatGPT advice
Retour journalistique sur l’affaire, expliquant la rareté du bromisme aujourd’hui et le rôle des réponses de l’IA.
* NY Post – ChatGPT advice lands man in hospital with hallucinations
Témoignage insistant sur les symptômes hallucinatoires et les semaines d’hospitalisation du patient.
* Wikipedia – Bromism
Fiche encyclopédique décrivant l’intoxication au bromure, ses symptômes, son histoire médicale et son déclin au XXᵉ siècle.
Qu'est-ce que le bromisme ?
Le bromisme est une intoxication chronique au bromure. Il provoque des symptômes neurologiques, psychiatriques et cutanés. Jadis fréquent au XIXᵉ siècle, il est aujourd’hui très rare.
Est-ce que ChatGPT a été tenu pour responsable d'un empoisonnement au bromure de sodium?
ChatGPT n’a pas de responsabilité légale directe, mais son absence de mise en garde a contribué à la mauvaise décision du patient. Cela souligne l’importance d’encadrer l’usage médical des IA.
Peut-on demander des conseils santé à une IA ?
Oui, mais uniquement comme point de départ. Les IA ne remplacent pas un médecin. Pour toute décision impactant la santé, il faut consulter un professionnel qualifié.
Comment éviter les erreurs liées aux réponses IA ?
Toujours recouper les informations avec des sources fiables, vérifier auprès d’un expert humain et se rappeler que l’IA peut fournir des réponses hors contexte ou incomplètes.