Table des matières
Les avancées en intelligence artificielle ont transformé de nombreux secteurs, mais elles ne sont pas sans failles. Une expérience menée par des chercheurs suédois a exposé des vulnérabilités préoccupantes dans la façon dont les chatbots valident les informations médicales. En inventant une maladie fictive, la « bixonimanie », ces chercheurs ont démontré que les IA pouvaient être facilement trompées, ce qui soulève des questions sur leur utilisation dans des contextes sensibles. Découvrez comment cette expérience a mis en lumière les limites des systèmes d’intelligence artificielle actuels.
L’essentiel à retenir
En 2024, Almira Osmanovic Thunström, chercheuse à l’université de Gothenburg, a conçu une expérience pour tester les limites des chatbots. Elle a inventé la « bixonimanie », une maladie fictive, et l’a intégrée dans des préprints académiques remplis de signes évidents de fausseté. Malgré ces indices, des chatbots renommés ont validé cette pathologie, la considérant comme réelle.
Copilot, par exemple, décrivait la bixonimanie comme « intrigante et relativement rare », tandis que Gemini recommandait de consulter un ophtalmologue. Cela montre que les IA peuvent se laisser berner par des contenus bien formatés, qu’elles perçoivent comme légitimes.
L’erreur ne s’est pas limitée aux chatbots. Des chercheurs de l’Institut de sciences médicales de Mullana en Inde ont cité les faux préprints dans une étude, prouvant que même les experts peuvent être trompés par des informations générées par IA. Cureus, la revue où l’article a été publié, a rétracté le document en mars 2026, mais l’incident a révélé une faille systémique dans la vérification des sources académiques.
Elisabeth Bik, spécialiste de l’intégrité de la recherche, a exprimé ses préoccupations quant à l’automatisation des indexations académiques. Elle a souligné le risque que des informations erronées se propagent sans intervention humaine, un problème exacerbé par l’utilisation des LLMs (modèles de langage de grande taille) dans la recherche.
Depuis l’expérience, certains chatbots ont mis à jour leurs réponses. Copilot et Perplexity ont reconnu qu’ils avaient été dupés et ont corrigé leurs bases de données. Gemini, de son côté, conseille désormais de consulter des professionnels pour des sujets médicaux sensibles.
En revanche, ChatGPT continue de contourner la question en fournissant des réponses élaborées sans admettre l’erreur. Cette réticence à reconnaître les failles souligne la nécessité d’une meilleure gestion des informations dans les systèmes d’IA.
Cette expérience soulève d’importantes considérations pour l’avenir de l’IA, notamment dans le domaine médical. Alors que les chatbots et autres systèmes basés sur l’IA deviennent des outils de plus en plus courants, il est crucial d’améliorer leur capacité à discerner les informations fiables des informations erronées. La collaboration entre experts humains et systèmes d’IA pourrait être une voie prometteuse pour garantir la précision et la sécurité des données médicales à l’avenir.