À 60 ans, il développe une maladie rarissime après avoir suivi les conseils de ChatGPT

Date: Category:Français Views:2 Comment:0


Une histoire aussi absurde que dramatique. Celle d'un sexagénaire qui a pris au mot une réponse de ChatGPT. Après avoir utilisé la célèbre intelligence artificielle, l'homme a développé une maladie rarissime : le bromisme.

Une question banale, et la situation dérape

Comme l'expliquent les auteurs d'un article publié sur le site de la revue américaine Annals of Internal Medicine, tout a commencé lorsque l'homme s'interrogeait sur sa consommation de sel de table. Désireux de trouver une alternative plus saine à ce qui est aussi appelé chlorure de sodium, il a alors consulté ChatGPT. C'est ainsi que le sexagénaire s'est mis à consommer du bromure de sodium pendant trois mois. Les auteurs de l'article précisent pourtant que l'intelligence artificielle avait bien mis en garde l'homme sur le fait que le bromure de sodium peut aussi être utilisé "à d'autres fins, comme le nettoyage". Au début du XXe siècle, il était également considéré comme sédatif et antiépileptique. Aujourd'hui, il est encore utilisé en médecine comme sédatif et anticonvulsivant. Bref, le bromure de sodium n'est pas (du tout) fait pour remplacer le sel de table. Et pourtant...

Traité pour psychose après avoir consulté ChatGPT

Ayant pris à la lettre la réponse de ChatGPT, le sexagénaire a donc fini par souffrir d'une intoxication par le brome et ses sels, la plupart du temps provoquée par inhalation sous forme de gaz ou de vapeur. Dans ce cas précis, l'homme a ingéré le bromure de sodium pendant trois mois. Selon l'article, en arrivant à l'hôpital, il a prétendu s'être fait empoissonner par son voisin, présentant une attitude paranoïaque et refusant de boire l'eau qui lui était proposée par le personnel soignant, bien qu'assoiffé. Le sexagénaire a même tenté de s'échapper de l'hôpital. Finalement traité pour psychose, les médecins lui ont diagnostiqué un bromisme, une intoxication au bromure de sodium, caractérisée par de l'acné au visage, une sévère insomnie et une soif excessive. Dans le cas d'une intoxication aiguë, de nos jours considérée comme très rare, des nausées, une anorexie et des vomissements peuvent être observés, ainsi qu'une hypothermie, des tremblements, et, dans certains cas plus graves encore, un coma profond.

ChatGPT pointé du doigt

Si la genèse de cette histoire peut être prise à la légère, les auteurs de l'article estiment que ce cas démontre combien "l'utilisation de l'intelligence artificielle peut potentiellement contribuer au développement d'effets indésirables évitables sur la santé." D'autant que, sans accès à l'historique de la conversation entre l'homme et ChatGPT, il est aujourd'hui difficile de déterminer la teneur exacte des conseils qui ont été prodigués par l'intelligence artificielle. Ce qui a rendu le travail des médecins d'autant plus complexe. Après avoir eux-mêmes consulté ChatGPT au sujet du sel de table, les auteurs de l'article ont confirmé que la réponse incluait bel et bien du bromure de sodium. Désormais, ils tirent la sonnette d'alarme, craignant que d'autres applications d'IA puissent "générer des inexactitudes scientifiques, ne pas permettre de discuter des résultats de manière critique et, au final, alimenter la diffusion de fausses informations". En conclusion, l'article de la revue américaine préconise l'utilisation de l'IA par les médecins, afin de mieux appréhender ce type de cas médicaux qui, s'ils sont encore rares aujourd'hui, risquent bien de se multiplier à l'avenir avec le recours de plus en plus croissant à ChatGPT.

Comments

I want to comment

◎Welcome to participate in the discussion, please express your views and exchange your opinions here.