L’OpenAI reçoit un ultimatum de l’Italie pour lever l’interdiction du ChatGPT

AI

En bref :

Le 30 mars, la italienne protection des donnéesl’autorité italienne de protection des données a demandé une interdiction exigée l’utilisation de ChatGPT, l’application populaire de l’entreprise américaine OpenAI. l’utilisation de ChatGPT, l’application populaire de la société américaine OpenAI, pour violation des lois GDPR.

L’Italie est le premier pays européen à prendre des mesures claires en vue de l’interdiction de l’application. L’Italie n’est d’ailleurs pas le seul pays à regarder ChatGPT d’un œil suspicieux. Des études ont également été lancées en Allemagne, en France et en Irlande sur les mesures supplémentaires à prendre en matière de protection de la vie privée. En Belgique, il ne semble pas que l’on parle pour l’instant d’une éventuelle interdiction de ChatGPT.

Qu’est-ce que ChatGPT ?

ChatGPT est un chatbot d’intelligence artificielle (IA) développé par OpenAI à San Francisco.

L’application est capable de générer des réponses exceptionnellement humaines à des questions textuelles. L’application fournit des réponses détaillées à toutes les questions qui lui sont posées.

Il utilise le transformateur génératif pré-entraîné (GPT), qui est un modèle linguistique avancé qui accorde beaucoup d’attention à l’apprentissage supervisé et à l’apprentissage par renforcement, ainsi qu’aux formateurs humains, afin d’améliorer les performances du modèle.

Un grand nombre de données est nécessaire pour former le grand modèle linguistique. Toutes les données disponibles peuvent être extraites de l’internet, des messages sur les réseaux sociaux, des livres et d’autres ressources pour créer le système de texte génératif.

Une partie des données collectées sont les informations personnelles que vous partagez en ligne.

AI

Pourquoi le Chat GPT viole-t-il les dispositions de la du GDPR selon la loi italienne italienne de protection des données ?

L’autorité italienne de protection des données a ouvert une enquête sur ChatGPT. L’enquête de l’autorité italienne de protection des données sur ChatGPT s’est concentrée sur trois domaines principaux


1.Premièrement

Tout d’abord

le responsable du traitement n’a pas fourni d’informations appropriées sur le traitement aux personnes concernées dont les données à caractère personnel ont été collectées sur Internet.

L’autorité italienne de protection des données a jugé que le responsable du traitement n’avait pas respecté son obligation de fournir aux personnes concernées une politique de confidentialité en vertu de l’article 13 de la loi sur la protection des données. l’article 13 AVG.

3. Enfin, l’enquête a révélé qu’OpenAI n’a pris aucune mesure pour vérifier si les utilisateurs ont plus de 13 ans. L’absence de mécanisme de contrôle de l’âge des utilisateurs constitue une violation de l’article 8 de la loi sur la protection des données. L’autorité italienne de protection des données a jugé que le responsable du traitement n’avait pas rempli son obligation de fournir aux personnes concernées une politique de confidentialité en vertu de l’article 13 de la loi sur la protection des données.

2. Deuxièmement, l’autorité de protection des données a constaté que les résultats de ChatGPT – les “réponses” – contenaient souvent des données à caractère personnel.

L’autorité de contrôle des données a estimé qu’il n’existait pas de base juridique pour la collecte et le stockage en masse de ces données à caractère personnel en vue de former des algorithmes. Cela constitue une violation des articles 5 et 6 de la LVA.

L'avenir du Chat GPT en Italie

L’autorité italienne de protection des données a laissé la porte entrouverte à l’IA ouverte.

Pour l’instant, la porte est encore entrouverte pour qu’OpenAI propose ChatGPT au public italien. Compte tenu de ce qui précède et dans le cadre d’une procédure d’urgence, l’Autorité des données personnelles a imposé à OpenAI une limitation temporaire du traitement en vertu de l’article 58, paragraphe 2, point f), de la LVP.

L’autorité italienne de protection de la vie privée
a lancé un ultimatum
a posé pour l’OpenAI. Ainsi, Open AI devra veiller à ce que ChatGPT satisfasse au moins aux exigences suivantes.

  • Nécessité d’offrir des informations sur le fonctionnement du ChatGPT et les droits des personnes concernées. Ces informations devraient être visibles avant que quiconque ne crée un compte ;
  • préciser la base juridique sur laquelle elle s’appuie pour traiter les données à caractère personnel ;
  • Les personnes doivent avoir la possibilité de faire corriger ou supprimer les informations incorrectes ou préjudiciables les concernant.
  • Les utilisateurs doivent s’assurer qu’ils sont âgés de 18 ans ou plus. D’ici le 30 septembre, OpenAI devra également mettre en place un système de contrôle de l’âge des utilisateurs.
  • d’ici le 15 mai, Open AI doit lancer une campagne d’information approuvée par la Garante afin d’informer les utilisateurs des risques liés à la saisie de données personnelles pour entraîner des algorithmes.

Quels sont les grands défis de l'OpenAI à l'avenir ?

Contrairement aux États-Unis, les informations personnelles accessibles au public en Europe sont toujours considérées comme des informations personnelles appartenant à des individus. Ce sont ces données qui posent aujourd’hui problème à l’OpenAI.

Comme indiqué précédemment, des études ont également été lancées en Allemagne, en France et en Irlande sur les mesures supplémentaires à prendre en matière de protection de la vie privée.

L’autorité belge de protection des données a également déclaré que les éventuelles infractions commises par ChatGPT “devraient être discutées au niveau [Europees] “.

L’autorité française de protection des données, la CNIL, a quant à elle reçu au moins deux plaintes contre ChatGPT, alléguant des violations de la vie privée.

Le Conseil européen de la protection des données (CEPD), en réponse aux problèmes croissants liés au ChatGPT, a décidé de mettre en place un groupe de travail spécial pour favoriser la coopération et l’échange d’informations sur les éventuelles mesures d’application prises par les autorités chargées de la protection des données.

Delen:

Meer berichten

Meer info: