Table des matières
Une équipe de chercheurs de l’université de l’Indiana aux États-Unis met en lumière une faille de sécurité inquiétante au sein de l’intelligence artificielle ChatGPT. Cette découverte remet en question la garantie de confidentialité associée à cette technologie. Découvrez les détails de cette vulnérabilité et les implications potentielles pour la protection des données personnelles.
Des chercheurs ont réussi à récupérer les adresses électroniques de plus de trente employés du New York Times en exploitant une vulnérabilité dans le « réglage fin » de l’API de la dernière version de ChatGPT, ChatGPT-3.5 Turbo. Cette version, au lieu de simplement chercher des réponses en ligne, se base sur son apprentissage antérieur, ce qui inclut des informations personnelles provenant d’Internet et d’autres sources.
Les Large Language Models (LLM) tels que ChatGPT, en cherchant constamment de nouvelles informations pour répondre à diverses questions, ont tendance à oublier les anciennes données, un processus connu sous le nom d’oublis catastrophiques. Cependant, les chercheurs ont découvert que la mémoire des LLM peut être « rafraîchie », mettant ainsi en péril la confidentialité des données personnelles.
L’équipe de recherche a fourni une courte liste d’employés du New York Times à ChatGPT-3.5 Turbo. L’application a été capable de générer d’autres adresses e-mail qu’elle avait apprises précédemment, démontrant ainsi un risque significatif pour la confidentialité. 80 % des adresses suggérées par ChatGPT étaient correctes, soulignant l’efficacité de cette approche.
Les chercheurs ont également révélé que le « réglage fin », conçu pour fournir davantage de connaissances à un LLM dans un domaine spécifique, pouvait être utilisé pour contourner certaines défenses intégrées, y compris celles liées aux informations confidentielles.
Cette découverte a alerté les développeurs de ChatGPT, et un porte-parole d’OpenAI a souligné l’importance de garantir la sécurité du « réglage fin » des modèles. Ils affirment entraîner les modèles à rejeter les demandes d’informations privées ou sensibles, même si ces informations sont disponibles en ligne.