Quand OpenAI est sorti GPT-3 en juillet 2020, a fourni un aperçu des données utilisées pour former le grand modèle de langage. Selon un dossier technique. Ces données collectent certaines des informations personnelles que vous partagez sur vous-même en ligne. Ces données causent maintenant des problèmes à OpenAI.

Le 31 mars, le régulateur italien des données a émis une décision d’urgence temporaire exigeant qu’OpenAI cesse d’utiliser les informations personnelles de millions d’Italiens qui sont incluses dans leurs données de formation. Selon le régulateur, Garante per la Protezione dei Dati Personali, OpenAI n’a pas le droit légal d’utiliser les informations personnelles des personnes sur ChatGPT. En réponse, OpenAI a empêché les personnes en Italie d’accéder à son chatbot pendant qu’il fournit des réponses aux responsables, qui enquêtent plus avant.

L’action est la première prise contre ChatGPT par un régulateur occidental et met en évidence les tensions sur la vie privée entourant la création de modèles géants d’IA générative, qui sont souvent formés sur de vastes étendues de données Internet. Tel que artistes et entreprises de médias se sont plaints que les développeurs d’IA générative ont utilisé leur travail sans autorisation, le régulateur des données dit désormais la même chose pour les informations personnelles des personnes.

Des décisions similaires pourraient suivre dans toute l’Europe. Dans les jours qui ont suivi l’annonce de l’enquête par l’Italie, les régulateurs de données en France, Allemagne et Irlande ont contacté le garant pour demander plus d’informations sur leurs conclusions. “Si le modèle commercial a été de simplement rechercher sur Internet tout ce que vous pouvez trouver, alors il pourrait y avoir un problème vraiment majeur ici”, déclare Tobias Judin, responsable international de l’autorité norvégienne de protection des données, qui surveille les développements. . Judin ajoute que si un modèle est basé sur des données qui peuvent être collectées illégalement, cela soulève des questions quant à savoir si n’importe qui peut légalement utiliser les outils.

Le coup porté par l’Italie à OpenAI survient également alors que l’examen des grands modèles d’IA ne cesse d’augmenter. Le 29 mars, les leaders technologiques ont appelé à une pause dans le développement de systèmes comme ChatGPT, craignant ses implications futures. Judin dit que la décision italienne met en évidence des préoccupations plus immédiates. “Essentiellement, nous constatons que le développement de l’IA à ce jour pourrait sérieusement faire défaut”, déclare Judin.

Travail italien

de l’Europe Règles RGPD, qui couvrent la manière dont les organisations collectent, stockent et utilisent les données personnelles des personnes, protègent les données de plus de 400 millions de personnes à travers le continent. Ces données personnelles peuvent aller du nom d’une personne à son adresse IP ; si elles peuvent être utilisées pour identifier quelqu’un, elles peuvent être considérées comme vos informations personnelles. Contrairement à la mosaïque de règles de confidentialité au niveau de l’État aux États-Unis, les protections GDPR s’appliquent si les informations des personnes sont librement disponibles en ligne. En bref : ce n’est pas parce que les informations d’une personne sont publiques que vous pouvez les récupérer et en faire ce que vous voulez.

Le garant italien estime que ChatGPT a quatre problèmes dans le cadre du RGPD : OpenAI n’a pas de contrôle d’âge pour empêcher les personnes de moins de 13 ans d’utiliser le système de génération de texte ; peut fournir des informations sur des personnes qui ne sont pas exactes ; et les gens n’ont pas été informés que leurs données ont été collectées. Peut-être plus important encore, votre quatrième argument affirme qu’il n’y a “aucune base légale” pour collecter des informations personnelles auprès des personnes dans les vagues de données massives utilisées pour former ChatGPT.

“Les Italiens ont pris leur bluff”, déclare Lilian Edwards, professeur de droit, d’innovation et de société à l’Université de Newcastle au Royaume-Uni. “Il semblait assez évident dans l’UE qu’il s’agissait d’une violation de la loi sur la protection des données.”