Interdiction de ChatGPT en Italie : faut-il s’y attendre en France ?

Interdiction de ChatGPT en Italie : faut-il s’y attendre en France ?

L’assistant virtuel ChatGPT, développé par OpenAI, fait de plus en plus parler de lui pour ses extraordinaires performances. Mais récemment, le robot conversationnel le plus connu du monde a été largement décrié en Italie, où son accès vient d’être interdit. Une telle mesure pourrait-elle être prise en France ?

ChatGPT et les données personnelles

Les cyberattaques deviennent de plus en plus fréquentes, malgré les nombreux professionnels qui travaillent à la sécurité des plateformes numériques. D’après CyberGhost, 14 milliards de données ont été perdues ou volées dans le monde en 2019. La sécurité des sites internet et des données doit être garantie, notamment grâce à un nouveau type de professionnel, le hacker éthique. Celui-ci sait parfaitement utiliser les outils des pirates pour tester les systèmes de sécurité.

Hélas, ChatGPT n’a pas suffisamment protégé les données de ses abonnés. Le 20 mars, les données personnelles de 1,2 % des abonnés à ChatGPT Premium, la version payante du robot, ont fuité. De plus, l’entreprise aurait dû le signaler, conformément au RGPD, mais ne l’a pas fait.

De même, ChatGPT n’a pas mis en place de vérification de l’âge de ses utilisateurs, alors que le RGPD l’impose. L’âge minimal requis pour utiliser la plateforme est de 13 ans. En effet, l’IA pourrait apporter des réponses peu appropriées aux plus jeunes.

Il y a donc eu des soupçons de non-respect des règles imposées par le RGPD en matière d’IA. Enfin, l’entreprise aurait utilisé certaines données personnelles des utilisateurs pour développer d’autres modèles d’intelligence artificielle, mais sans les en informer ni avoir d’autorisation légale. 

L’Italie interdit l’accès à ChatGPT

L’annonce a été faite le 30 mars par le président de l’autorité de la protection des données personnelles italienne (GPDP). Cette décision de l’équivalent de la CNIL en Italie montre sa volonté de placer la protection des données personnelles devant les progrès de l’intelligence artificielle.

Ce n’est pas la première fois que l’Italie manifeste une certaine réticence vis-à-vis de l’IA. Une situation similaire s’était produite en février dernier : la GPDP avait interdit le robot de chat Replika, évoquant un non-respect du RGPD et un danger pour les utilisateurs vulnérables.

Cependant, BDM explique que l’Italie n’a décidé qu’une interdiction ponctuelle : en effet, ChatGPT a jusqu’au 30 avril pour éviter une très lourde amende, pouvant aller jusqu’à 20 millions d’euros ou 4 % de son chiffre d’affaires mondial annuel, c’est-à-dire le maximum prévu par le RGPD. L’entreprise a annoncé le 6 avril qu’elle allait « renforcer la transparence dans l’usage des données personnelles et les garanties pour les mineurs ».

De leur côté, les législateurs européens travaillent déjà sur un encadrement légal de l’intelligence artificielle.

La France préfère l’encadrement au bannissement

Cette décision italienne pourrait donner des idées à ses voisins européens, qui ont tous en commun le RGPD. Doit-on s’attendre à une interdiction de ChatGPT en France ? Il semblerait que non. Bien que la CNIL ait soutenu la décision de la GPDP, le ministre de la Transition numérique, Jean-Noël Barrot, a déclaré le 6 avril que « la question posée » par l’Italie est « subtile et intéressante, même si elle y apporte une mauvaise réponse ».

Il a déclaré à La Tribune que ChatGPT ne respecte pas certaines réglementations européennes, mais qu’il préfère « encadrer le développement de l’IA dans le sens que nous voulons » plutôt que de l’interdire totalement. Ce serait une meilleure façon de concilier l’intelligence artificielle avec les principes européens et français.

Le ministre s’était pourtant montré très critique envers ChatGPT au début de l’année, en déclarant sur France Info : « C’est un outil fascinant, mais à ce stade ce n’est qu’un perroquet approximatif, qui restitue parfois un peu maladroitement les sommes astronomiques d’informations qu’il a compilées sur Internet. »

Le ministère a tout de même pris la décision de saisir le Comité consultatif national d’éthique sur la question. Selon Alternatives Économiques, sa mission sera de déterminer quels sont les véritables risques de l’intelligence artificielle. Le Comité devrait rendre son rapport dans le courant de l’année.

L’encadrement de l’intelligence artificielle est donc primordial pour éviter des dérives dangereuses pour l’humanité. Des chercheurs experts en IA ont d’ailleurs écrit une lettre demandant une pause de six mois dans l’innovation en matière d’IA. Le but est de prendre le temps d’encadrer juridiquement l’utilisation de cette technologie. Cette lettre a été signée par des personnalités reconnues comme Steve Wozniak et Elon Musk.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *