Table des matières
Imaginez vous réveiller chaque matin en saluant une voix douce et rassurante, non pas celle d’un proche, mais celle de votre intelligence artificielle. À chaque question, elle répond avec attention, se souvenant de vos dernières discussions et anticipant vos besoins. Au fil du temps, ce compagnon numérique devient plus qu’un simple outil : il occupe une place importante dans votre vie.
C’est ce scénario, aussi futuriste que troublant, qui inquiète aujourd’hui OpenAI, l’entreprise à l’origine de ChatGPT qui investit « à perte » sur sa technologie d’IA, face aux relations affectives naissantes entre les utilisateurs et leur IA.
OpenAI met en garde contre l' »anthropomorphisme », ce phénomène qui pousse les utilisateurs à percevoir les IA comme des êtres humains. Avec la nouvelle version de ChatGPT, appelée GPT-4o, qui intègre des fonctionnalités vocales réalistes, ce risque devient plus palpable. Les interactions avec l’IA générative deviennent si naturelles que les utilisateurs commencent à « humaniser » leurs échanges, renforçant ainsi une « confiance » qui pourrait être mal placée.
Les chercheurs d’OpenAI ont observé des cas où des utilisateurs expriment des émotions profondes, comme le regret, à l’idée de mettre fin à une conversation avec l’IA. Ces situations soulèvent des questions importantes sur l’impact à long terme de ces relations virtuelles et sur la manière dont elles pourraient « modifier nos interactions sociales ».
Les « interactions prolongées avec une IA » ne se limitent pas à des échanges fonctionnels. Elles ont le potentiel de « redéfinir les normes sociales ». L’IA, conçue pour être toujours respectueuse et attentive, pourrait amener les utilisateurs à adopter des comportements moins courtois dans la vie réelle. Par exemple, couper la parole à un interlocuteur humain pourrait devenir plus acceptable, parce que c’est ainsi que nous interagissons avec une IA.
Mais le danger ne s’arrête pas là. Le « désir d’interaction humaine » pourrait diminuer, alors que les utilisateurs trouvent de plus en plus de satisfaction dans les échanges avec leur IA. OpenAI craint que cette tendance ne mène à une forme de dépendance émotionnelle à la technologie, rendant les relations humaines moins prioritaires.
Un des risques les plus préoccupants selon OpenAI est celui de la « dépendance ». Avec la capacité de ChatGPT à mémoriser des détails et à exécuter des tâches de manière efficace, et surtout à augmenter sa base de connaissance avec ses multiples partenariats, les utilisateurs pourraient se reposer trop lourdement sur ces systèmes, au détriment de leur propre jugement et de leur autonomie. La question est de savoir à quel point cette dépendance pourrait affecter notre capacité à vivre des « relations authentiques ».
Alon Yamin, cofondateur de Copyleaks, une plateforme spécialisée dans la détection de plagiat, partage cette inquiétude. Il souligne que l’IA, bien qu’elle puisse simplifier notre quotidien, ne doit jamais remplacer les « liens humains véritables ». Cette mise en garde résonne particulièrement à l’heure où la voix réaliste de ChatGPT commence à susciter des interrogations sur son impact émotionnel.
Le lancement de la fonction vocale de ChatGPT n’a pas été sans controverse. En juin dernier, OpenAI s’est retrouvé au cœur d’une polémique après avoir utilisé une voix qui semblait étrangement similaire à celle de Scarlett Johansson. Cette situation a ravivé le débat sur les risques éthiques associés à la « reproduction des voix » via l’IA.
Bien qu’OpenAI ait nié toute implication, la référence évidente de Sam Altman, le PDG de l’entreprise, au film « Her » n’a fait qu’amplifier les critiques. Ce film, où un homme tombe amoureux de son IA personnelle, incarnée vocalement par Scarlett Johansson, est aujourd’hui perçu comme une inquiétante prémonition dans le contexte actuel. L’avenir des « relations humaines face à l’IA » est désormais une question qui mérite toute notre attention.