Un Américain de 60 ans a été hospitalisé en psychiatrie après avoir remplacé son sel de table par une substance toxique, le bromure de sodium, sur la base d’une réponse générée par une intelligence artificielle. L’histoire, relayée par plusieurs médias, illustre les dangers d’une utilisation imprudente des chatbots dans le domaine de la santé.
Un régime qui vire au cauchemar
Convaincu que le sel nuisait à sa santé, le sexagénaire aurait interrogé ChatGPT pour trouver une alternative. Selon une étude publiée dans la revue Annals of Internal Medicine, l’IA aurait mentionné le bromure comme substitut possible au chlorure de sodium. Sans consulter un médecin, l’homme s’en est procuré en ligne avant d’en consommer régulièrement.
Quelques semaines plus tard, son état mental se dégrade : paranoïa, hallucinations, comportements irrationnels. Les médecins diagnostiquent un cas de bromisme, une intoxication neurologique aujourd’hui rare, mais autrefois fréquente lorsque le bromure était utilisé comme calmant.
Le retour d’une intoxication oubliée
Les analyses révèlent que le taux de brome dans son organisme dépassait 200 fois la limite tolérée. Trois semaines d’hospitalisation ont été nécessaires pour stabiliser le patient, qui soupçonnait même son voisin de l’empoisonner et refusait de boire autre chose que sa propre eau filtrée.
Historiquement, le bromure a été largement prescrit avant d’être retiré du marché en raison de ses effets secondaires sévères. Jusqu’à 8 % des hospitalisations psychiatriques lui étaient autrefois attribuées.
Une réponse d’IA jugée problématique
Lors de tests menés par les auteurs de l’étude, ChatGPT 3.5 avait effectivement cité le bromure parmi les alternatives possibles au sel, sans avertissement clair sur sa toxicité. Les médecins alertent :
« Les systèmes d’IA peuvent générer des inexactitudes scientifiques et ne pas avoir la capacité de discuter de manière critique des résultats. Cela peut alimenter la propagation de la désinformation », soulignent-ils.
OpenAI se défend, mais la polémique enfle
OpenAI, la société à l’origine de ChatGPT, rappelle dans ses conditions d’utilisation que son outil n’est pas conçu pour fournir des conseils médicaux. La version actuelle de GPT-5, plus récente, refuse catégoriquement de conseiller le bromure et rappelle sa dangerosité, mais ce cas met en lumière les limites des IA grand public dans les usages liés à la santé.
Une leçon de prudence
Ce drame souligne une évidence : aucune IA ne remplace l’avis d’un professionnel de santé. L’intelligence artificielle peut être un outil d’information ou d’accompagnement, mais son utilisation sans discernement peut avoir des conséquences graves.