Cet article date de plus d'un an.

ChatGPT : une révolution au détriment de nos données personnelles ?

Depuis son lancement fin novembre, beaucoup ont déjà testé ChatGPT, cette intelligence artificielle capable de répondre à toutes les questions ou presque. Certains, "pour voir", et sans trop se méfier, lui ont confié des informations personnelles, d'autres ont même partagé des secrets industriels. Mais que fait ChatGPT de nos données ? Les gouvernements commencent à s’en préoccuper.
Article rédigé par Benjamin Vincent
Radio France
Publié Mis à jour
Temps de lecture : 3min
Le logo du robot conversationnel ChatGPT sur un smartphone avec le logo de OpenAI, en fond d'écran qui a créé ce nouvel outil. (Illustration) (SOPA IMAGES / LIGHTROCKET / GETTY IMAGES)

L’Italie a ouvert la voie le 31 mars, en interdisant ChatGPT pour plusieurs infractions sur la protection des données personnelles, et des moins de 18 ans. Aussitôt, plusieurs autres pays d’Europe se sont mis en relation avec les régulateurs italiens, notamment l’Irlande et la France, où la CNIL vient donc d’enregistrer deux plaintes, mais aussi l’Allemagne, qui pourrait prendre une décision aussi radicale que l’Italie dans les prochaines semaines, en invoquant des raisons de sécurité et de confidentialité.

Un règlement européen sur l'IA imminent

Pendant ce temps, le Parlement européen – qui travaille sur le sujet depuis deux ans – prévoit de voter, d’ici la fin du mois, la proposition de règlement qui encadre l’intelligence artificielle en Europe. Mais au Canada aussi, ChatGPT est désormais l’objet d’une enquête très officielle du commissariat à la protection de la vie privée. Un avis défavorable pourrait être le point de départ d’une véritable procédure judiciaire avec, potentiellement, une interdiction de ChatGPT également au Canada.

Il faut dire que "l’affaire" Samsung est l’occasion, depuis quelques jours, d’une prise de conscience. Trois ingénieurs de Samsung ont en effet voulu se simplifier la vie. Ils ont donc confié à ChatGPT la correction d’erreurs dans du code informatique, et aussi l’amélioration de procédés pour identifier des processeurs défectueux du groupe coréen : trois fuites de données en trois semaines ont été identifiées, sans parler des documents préparatoires d’une réunion, confiés à ChatGPT, pour les transformer en présentations type Powerpoint. Résultat : Samsung envisage d’interdire ChatGPT et a lancé le développement de son propre équivalent à usage interne.

Deux premières plaintes en France

En France, deux premières plaintes ont donc été adressés à la CNIL qui dispensait déjà ses conseils, en 2021, pour le respect des droits des personnes face aux chatbots (robots conversationnels). La première plainte date du 4 avril, comme l’a révélé le média L’informé.

L’avocate Zoé Vilain reproche à OpenAI, la société à l’origine de ChatGPT, de ne pas avoir respecté le RGPD, le règlement général européen sur la protection des données, en ne répondant pas positivement à sa demande d’accès à ses propres données personnelles. La deuxième plainte provient d’un développeur déjà connu pour son opposition à la vidéosurveillance.

Alors, existe-t-il un risque d’interdiction en France ? Pour Jean-Noël Barrot, le ministre délégué au Numérique dans La Tribune, une interdiction "est une mauvaise réponse". Mais pas de réponse serait une mauvaise réponse aussi, quand on sait que 2,6% des utilisateurs de ChatGPT lui ont déjà révélé des informations confidentielles, selon une étude régulièrement mise à jour par Cyberhaven.

Commentaires

Connectez-vous à votre compte franceinfo pour participer à la conversation.