Table des matières
Chez OpenAI, qui a dernièrement signé un partenariat avec le Time Magazine, une faille de sécurité a permis à un hacker d’accéder à des conversations internes sensibles, révélant des détails clés sur la conception de ses technologies. Cette intrusion, découverte il y a plus d’un an, soulève de nombreuses questions sur la sécurité des systèmes d’intelligence artificielle.
En avril 2023, le New York Times a révélé qu’un pirate avait exploité une faille dans les systèmes de messagerie interne d’OpenAI. Le hacker a ainsi pu accéder à des discussions entre employés et chercheurs, mettant en lumière des détails sensibles concernant la conception des technologies de l’entreprise. Cependant, l’attaque n’aurait pas compromis les systèmes hébergeant l’intelligence artificielle de l’entreprise.
Lors d’une réunion générale au siège de San Francisco, la direction d’OpenAI a informé ses équipes de cette intrusion. Toutefois, cette information n’a jamais été rendue publique ni communiquée aux autorités compétentes comme le FBI. OpenAI a justifié ce silence par l’absence de fuite de données personnelles compromettantes, à la différence de cette histoire de faille de ChatGPT qui avait fait grand bruit.
Selon des sources internes anonymes, OpenAI a conclu que le piratage avait été orchestré par un individu isolé sans lien avec des gouvernements étrangers. Cette décision a été contestée par certains employés, inquiets des possibles implications pour la sécurité nationale. Leopold Aschenbrenner, ancien responsable technique, a exprimé ses préoccupations sur YouTube après son licenciement. Il critiquait le manque de mesures de sécurité chez OpenAI pour prévenir l’espionnage et le vol d’informations confidentielles.
Aschenbrenner a notamment souligné que les protocoles de sécurité internes étaient insuffisants face à des menaces potentielles d’entités gouvernementales étrangères. Cette position n’a pas été accueillie favorablement par la direction de l’entreprise, entraînant des tensions au sein de l’équipe.
Le débat sur la sécurité des technologies de l’intelligence artificielle, et notamment l’IA générative, n’est pas nouveau. Des entreprises comme Meta partagent leurs travaux sous licence open source pour encourager la recherche et le développement. Cependant, d’autres acteurs de l’IA, conscients des risques potentiels, préfèrent verrouiller leurs opérations techniques avant de les déployer.
Les experts en sécurité nationale rappellent que, bien que les algorithmes actuels d’intelligence artificielle ne posent pas de menace immédiate, ils pourraient devenir dangereux à terme. Il est donc crucial de mettre en place des contrôles plus stricts pour prévenir toute utilisation malveillante de ces technologies.
Ce piratage chez OpenAI, bien que limité en impact immédiat, met en lumière les défis persistants en matière de sécurité pour les entreprises développant des technologies avancées d’intelligence artificielle. Il appelle à une vigilance et à une transparence renforcée pour garantir la protection des informations sensibles.