ChatGPT, Copilot, Gemini et Perplexity face à une fausse maladie : retour sur une expérience révélatrice des limites des IA

ChatGPT, Copilot, Gemini et Perplexity face à une fausse maladie : retour sur une expérience révélatrice des limites des IA

Les avancées en intelligence artificielle ont transformé de nombreux secteurs, mais elles ne sont pas sans failles. Une expérience menée par des chercheurs suédois a exposé des vulnérabilités préoccupantes dans la façon dont les chatbots valident les informations médicales. En inventant une maladie fictive, la « bixonimanie », ces chercheurs ont démontré que les IA pouvaient être facilement trompées, ce qui soulève des questions sur leur utilisation dans des contextes sensibles. Découvrez comment cette expérience a mis en lumière les limites des systèmes d’intelligence artificielle actuels.

L’essentiel à retenir

  • Des chercheurs ont créé une maladie fictive pour tester la crédibilité des IA, révélant des failles importantes dans leur capacité à discerner le vrai du faux.
  • Les chatbots comme ChatGPT, Copilot, Gemini et Perplexity ont traité la « bixonimanie » comme une pathologie réelle, illustrant les risques de l’automatisation sans vérification humaine.
  • Deux ans après l’expérience, certains chatbots n’ont toujours pas corrigé leur base de données, soulignant un problème persistant dans la gestion des informations erronées.

Les IA piégées par une maladie fictive

En 2024, Almira Osmanovic Thunström, chercheuse à l’université de Gothenburg, a conçu une expérience pour tester les limites des chatbots. Elle a inventé la « bixonimanie », une maladie fictive, et l’a intégrée dans des préprints académiques remplis de signes évidents de fausseté. Malgré ces indices, des chatbots renommés ont validé cette pathologie, la considérant comme réelle.

À lire  Strawberry : l'innovation d'OpenAI qui promet la précision au prix de la patience

Copilot, par exemple, décrivait la bixonimanie comme « intrigante et relativement rare », tandis que Gemini recommandait de consulter un ophtalmologue. Cela montre que les IA peuvent se laisser berner par des contenus bien formatés, qu’elles perçoivent comme légitimes.

Conséquences pour la recherche et la santé

L’erreur ne s’est pas limitée aux chatbots. Des chercheurs de l’Institut de sciences médicales de Mullana en Inde ont cité les faux préprints dans une étude, prouvant que même les experts peuvent être trompés par des informations générées par IA. Cureus, la revue où l’article a été publié, a rétracté le document en mars 2026, mais l’incident a révélé une faille systémique dans la vérification des sources académiques.

Elisabeth Bik, spécialiste de l’intégrité de la recherche, a exprimé ses préoccupations quant à l’automatisation des indexations académiques. Elle a souligné le risque que des informations erronées se propagent sans intervention humaine, un problème exacerbé par l’utilisation des LLMs (modèles de langage de grande taille) dans la recherche.

Réactions et ajustements des chatbots

Depuis l’expérience, certains chatbots ont mis à jour leurs réponses. Copilot et Perplexity ont reconnu qu’ils avaient été dupés et ont corrigé leurs bases de données. Gemini, de son côté, conseille désormais de consulter des professionnels pour des sujets médicaux sensibles.

En revanche, ChatGPT continue de contourner la question en fournissant des réponses élaborées sans admettre l’erreur. Cette réticence à reconnaître les failles souligne la nécessité d’une meilleure gestion des informations dans les systèmes d’IA.

Les implications pour l’avenir des IA dans le domaine médical

Cette expérience soulève d’importantes considérations pour l’avenir de l’IA, notamment dans le domaine médical. Alors que les chatbots et autres systèmes basés sur l’IA deviennent des outils de plus en plus courants, il est crucial d’améliorer leur capacité à discerner les informations fiables des informations erronées. La collaboration entre experts humains et systèmes d’IA pourrait être une voie prometteuse pour garantir la précision et la sécurité des données médicales à l’avenir.

À lire  Gemini, le nouveau modèle d'IA révolutionnaire de Google

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *