Faille de sécurité dans ChatGPT : risque pour les données personnelles

Faille de sécurité dans ChatGPT : risque pour les données personnelles

Une équipe de chercheurs de l’université de l’Indiana aux États-Unis met en lumière une faille de sécurité inquiétante au sein de l’intelligence artificielle ChatGPT. Cette découverte remet en question la garantie de confidentialité associée à cette technologie. Découvrez les détails de cette vulnérabilité et les implications potentielles pour la protection des données personnelles.

Le réglage fin de ChatGPT-3.5 Turbo exposé

Des chercheurs ont réussi à récupérer les adresses électroniques de plus de trente employés du New York Times en exploitant une vulnérabilité dans le « réglage fin » de l’API de la dernière version de ChatGPT, ChatGPT-3.5 Turbo. Cette version, au lieu de simplement chercher des réponses en ligne, se base sur son apprentissage antérieur, ce qui inclut des informations personnelles provenant d’Internet et d’autres sources.

Les risques des oublis catastrophiques

Les Large Language Models (LLM) tels que ChatGPT, en cherchant constamment de nouvelles informations pour répondre à diverses questions, ont tendance à oublier les anciennes données, un processus connu sous le nom d’oublis catastrophiques. Cependant, les chercheurs ont découvert que la mémoire des LLM peut être « rafraîchie », mettant ainsi en péril la confidentialité des données personnelles.

Expérimentation avec le New York Times

L’équipe de recherche a fourni une courte liste d’employés du New York Times à ChatGPT-3.5 Turbo. L’application a été capable de générer d’autres adresses e-mail qu’elle avait apprises précédemment, démontrant ainsi un risque significatif pour la confidentialité. 80 % des adresses suggérées par ChatGPT étaient correctes, soulignant l’efficacité de cette approche.

Contournement des défenses par le « réglage fin »

Les chercheurs ont également révélé que le « réglage fin », conçu pour fournir davantage de connaissances à un LLM dans un domaine spécifique, pouvait être utilisé pour contourner certaines défenses intégrées, y compris celles liées aux informations confidentielles.

Réponse d’OpenAI

Cette découverte a alerté les développeurs de ChatGPT, et un porte-parole d’OpenAI a souligné l’importance de garantir la sécurité du « réglage fin » des modèles. Ils affirment entraîner les modèles à rejeter les demandes d’informations privées ou sensibles, même si ces informations sont disponibles en ligne.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *