La face cachée de la technologie deepfake

Partie 1 : Risques potentiels pour la vie privée  

La technologie des simulacres profonds a connu un essor considérable ces dernières années. Avec l’utilisation généralisée des contenus “deepfake”, des problèmes tels que la manipulation du public, les atteintes aux droits de la personne, les violations des droits de propriété intellectuelle et la protection des données à caractère personnel deviennent de plus en plus fréquents. Les législateurs et les grandes entreprises technologiques sont à la recherche d’une solution efficace pour lutter contre le problème croissant des “deepfakes”. Dans la première partie de ce blog, nous vous expliquerons ce qu’est le deepfake et les risques qu’il pose en matière de GDPR.

deepfake

Qu’est-ce que Deepfake ?

Les “deepfakes” sont des versions audiovisuelles des “fake news”. Les films “Deepfake” partent de séquences existantes, qui sont ensuite éditées ou manipulées par l’intelligence artificielle (IA). En tant que tels, les deepfakes sont également une forme de médias synthétiques. Les deepfakes vont au-delà des articles de fake news ordinaires et nécessitent des techniques sophistiquées La création d’un deepfake n’est pas quelque chose que l’on fait à la légère. Pour ce faire, vous avez besoin d’un logiciel dit “d’apprentissage profond” : un logiciel capable de produire de fausses vidéos ou de faux clips audio grâce à l’intelligence artificielle.

S’il s’agit d’images de personnes, le logiciel apprendra lui-même comment la personne en question parle et se déplace. Ensuite, à l’aide de ce logiciel et des connaissances qu’il a accumulées, vous pouvez créer un faux film dans lequel vous pouvez faire faire à cette personne n’importe quelle déclaration ou action.

De l’expérience Reddit à la tendance – Plus accessible que jamais !

Le phénomène est né sur la plateforme en ligne Reddit en 2017. Un développeur de logiciels a publié sur la plateforme des photos et des vidéos dans lesquelles il remplaçait les visages d’acteurs pornographiques par ceux de célébrités hollywoodiennes.

Après la diffusion rapide de ces créations sur Reddit et au-delà, le deepfake est devenu une véritable tendance. Par exemple, pour créer un deepfake aujourd’hui, il n’est pas nécessaire de fournir d’énormes ensembles de données, une simple photo d’une source suffit pour créer un contenu deepfake.

Exemples convaincants et implications sombres pour les données personnelles et les droits de propriété intellectuelle

Obama, Trump, Zuckerberg et Dalí sont des exemples bien connus de deepfakes. De plus, ils sont tout à fait convaincants. En d’autres termes, il est difficile de distinguer l’image réelle de celle qui a été modifiée par deepfake.

Cependant, Deepfake a aussi un côté sombre. Ces dernières années, par exemple, il est souvent utilisé pour la pornographie de vengeance et même la pornographie enfantine.

Il n’est pas surprenant qu’en termes juridiques, cela soulève également toutes sortes de questions telles que les violations des droits de protection des données personnelles et des droits de propriété intellectuelle. Bien que les deepfakes posent de nombreux problèmes, nous nous concentrerons principalement sur les droits de propriété intellectuelle et les droits de protection des données personnelles en relation avec les contenus deepfakes.

deepfake technologie

Les "deepfakes" et leur incompatibilité avec le GDPR ?

En outre, le GDPR stipule également que les images sont des données à caractère personnel si une personne physique peut être identifiée ou authentifiée à partir de ces images.

Pour pouvoir traiter des données à caractère personnel, il faut tout d’abord disposer d’une base juridique appropriée.

Cela signifie que la prise de photos ou la réalisation de vidéos constitue un traitement de données à caractère personnel tel que décrit dans le GDPR.

Si vous souhaitez créer un deepfake d’une personne, vous devrez fournir à l’algorithme de l’IA des photos de cette personne.

La première question à se poser ici est de savoir si nous pouvons utiliser la photo de cette personne sans son consentement et, par conséquent, si nous devons qualifier les photos de données à caractère personnel au sens de l’article 4 du règlement GDPR.

Il est important ici de citer d’abord le droit à l’image. Ce droit stipule qu’une autorisation est nécessaire pour toute image humaine et son utilisation.

Le GDPR énumère 6 motifs légaux sur la base desquels vous pouvez traiter des données à caractère personnel, à savoir :

  • autorisation ;
  • nécessité (un traitement constitue une exception à la protection des données à caractère personnel et ses limitations doivent rester dans la limite du strict nécessaire, ce qui n’est rien d’autre que l’application du principe de traitement minimal des données mentionné à l’article 5, point c), du RGPD) :
  • l’exécution d’un contrat ;
  • obligation légale ;
  • la protection des intérêts vitaux d’une personne ;
  • l’intérêt public ou l’exercice de l’autorité publique ;
  • la poursuite d’un intérêt légitime.

Un seul des fondements juridiques peut être utilisé en bonne et due forme dans le cadre des deepfakes pour justifier l’utilisation des images d’une personne, à savoir le consentement explicite préalable de la personne concernée.

Une nuance entre les images ciblées et non ciblées

Cela signifie-t-il que vous devez toujours demander la permission si vous voulez utiliser la photo de quelqu’un d’autre ? Non, une petite nuance s’impose. S’il s’agit d’images ciblées, vous devez toujours obtenir l’autorisation de prendre et d’utiliser des photos. Les images ciblées sont des images où la ou les personnes en question ont été ciblées et sont très clairement reconnaissables, par exemple des photos d’identité. Les journalistes n’ont pas besoin de demander l’autorisation pour ces images ciblées si elles sont utilisées dans le contexte de l’information ou du reportage. Pour les images non focalisées, c’est-à-dire les images qui n’ont pas l’intention de représenter clairement certaines personnes et qui sont plutôt des images atmosphériques, vous n’avez pas besoin d’autorisation explicite.

Défis et obligations pour les utilisateurs

Par exemple, des mesures de sécurité appropriées doivent être garanties pour les données utilisées, la transparence envers les personnes dont les données sont traitées, la limitation de la durée de conservation de ces données et, de manière générale, le respect des droits des personnes concernées de retirer leur consentement, le droit d’accès à leurs données, leur droit à l’oubli, ….

Tous ces éléments font qu’il est difficile de créer des deepfakes en Europe. En vertu du GDPR, les deepfakes ne sont en principe autorisés que si la personne concernée a donné son consentement préalable.

La zone grise des Deepfakes comme données personnelles selon le GDPR

Pourtant, la situation n’est pas aussi noire ou blanche. Cependant, certains pensent que la les fausses images ou vidéos ne peut être vu en vues comme des données à caractère personnel car dans certains cas, elles ne peuvent plus être attribuées à des personnes. Toutefois, cette déclaration oublie qu’en vertu du GDPR, les données à caractère personnel ne doivent pas nécessairement être objectives. Informations subjectives telles que Les opinions, jugements ou estimations peuvent également données personnelles sont. C’est pourquoi Faux-fuyants profonds bien données personnelles peuvent contenir dans le cadre de la classification plus large des données à caractère personnel telle qu’elle est définie dans le GDPR.

Exceptions au GDPR et considérations morales

Un autre point important est le fait que le GDPR ne s’applique qu’aux informations relatives à une personne vivante identifiable et que, par conséquent, les informations relatives à une personne décédée ne sont pas personnelles et ne sont donc pas couvertes par le GDPR.

Il s’agit d’un problème lié aux imitations profondes de personnes décédées. Les droits conférés par le GDPR expirent après la mort.Cela signifie que le GDPR n’offre aucune protection supplémentaire lorsque des deepfakes respectueux sont réalisés à partir d’une personne décédée. On peut s’interroger sur la moralité de cette pratique.

Conclusie

Récupéré de GDPR il y a encore il y a encore beaucoup de beaucoup de questions questions sur les deepfakeces questions peuvent être placées dans la grande catégoriere dans le contexte de la discussion sur l’IA. Dans la deuxième partie de Dans ce blog, nous aborderons les questions relatives aux droitsdroitsles droits du portrait et des droits des consommateurs.

Delen:

Meer berichten

nis2 incident aangeven

Signaler un incident NIS2

Avec l’introduction de la directive NIS2 dans l’UE, le signalement des cyberincidents deviendra obligatoire pour de nombreuses entreprises. Cela signifie que les

Partners

©DPO Associates Alle rechten voorbehouden. Privacy verklaringCookie verklaring | Algemene voorwaarden