OpenAI krijgt ultimatum van Italië om ban ChatGPT op te heffen 

In het kort:

Op 30 maart werd door de Italiaanse gegevensbeschermings-autoriteit een verbod geëist op het gebruik van ChatGPT, de populaire applicatie van het Amerikaanse bedrijf OpenAI, wegens het schenden van de GDPR-wetgeving. 

Italië is het eerste Europese land dat duidelijke stappen heeft genomen richting het verbieden van  de applicatie. Italië is overigens niet het enige land dat wantrouwend naar ChatGPT kijkt. Ook in Duitsland, Frankrijk en Ierland zijn onderzoeken gestart naar de bijkomende privacymaatregelen die nodig zijn. In België lijkt er voorlopig nog geen sprake te zijn van een eventueel verbod voor ChatGPT. 

Wat is ChatGPT?

ChatGPT is een chatbot met kunstmatige intelligentie (AI), ontwikkeld door OpenAI in San Francisco. 

De Applicatie is in staat om buitengewoon menselijke antwoorden te geneeren op tekstvragen. De applicatie biedt gedetailleerde antwoorden op iedere vraag die aan haar gesteld wordt. 

Het maakt gebruik van de generatieve pre-trained transformer (GPT), dit is een geavanceerd taalmodel dat veel aandacht vestigd op zowel begeleid leren als versterkend leren en menselijke trainers om de prestaties van het model te verbeteren.  

Er zijn veel gegevens nodig om het grote taalmodel te trainen. Alle beschikbare gegevens kunnen worden geschraapt van internet, posts op sociale netwerken, boeken en andere middelen om het generatieve tekstsysteem te creëren. 

Een deel van de verzamelde gegevens is de persoonlijke informatie die u online over uzelf deelt. 

AI

Waarom schendt Chat GPT de bepalingen van de de GDPR volgens de italiaanse gegevens-beschermingsautoriteit?

De Italiaanse gegevensbeschermingsautoriteit heeft een onderzoek geopend naar ChatGPT,  Het onderzoek van de italiaanse gegevensbeschermingsautoriteit naar ChatGPT richtte zich op drie hoofdgebieden

1.Ten eerste heeft de verwerkingsverantwoordelijke geen passende informatie over de verwerking verstrekt aan betrokkenen wiens persoonsgegevens via internet zijn verzameld. 

De Italiaanse gegevensbeschermingsautoriteit oordeelde dat de verwerkingsverantwoordelijke niet voldeed aan zijn verplichting om betrokkenen een privacybeleid te verstrekken op grond van artikel 13 AVG.

3. Ten slotte bleek uit het onderzoek dat OpenAI geen maatregelen heeft genomen om te controleren of gebruikers ouder zijn dan 13 jaar. Het ontbreken van een mechanisme om de leeftijd van de gebruikers te controleren vormt een schending van artikel 8 AVG. De Italiaanse gegevensbeschermingsautoriteit oordeelde dat de verwerkingsverantwoordelijke niet voldeed aan zijn verplichting om betrokkenen een privacybeleid te verstrekken op grond van artikel 13 AVG.

2. Ten tweede constateerde de gegevensbeschermingsautoriteit dat het resultaat van ChatGPT – de “antwoorden” – vaak persoonsgegevens bevatte. 

 De gegevensautoriteit was van mening dat er geen wettelijke basis was voor het massaal verzamelen en opslaan van deze persoonlijke gegevens om algoritmen te trainen. Dit druist in tegen artikel 5 en 6 AVG. 

De toekomst van Chat GPT in Italië

De italiaanse gegevensbeschermingsautoriteit heeft de deur nog op een kier gelaten voor Open AI. 

De deur staat voorlopig nog op een kier voor OpenAI om ChatGPT alsnog naar het Italiaanse publiek te brengen. In het licht van het bovenstaande en in het kader van een spoedprocedure heeft de Autoriteit Persoonsgegevens OpenAI een tijdelijke beperking van de verwerking opgelegd op grond van artikel 58, lid 2, onder f), van de AVG. 

De Italiaanse privacywaakhond heeft een ultimatum gesteld voor OpenAI. Zo zal Open AI ervoor moeten zorgen dat ChatGPT minstend aan de volgende voowaarden zal moeten voldoen.

  • Informatie moeten aanbieden over de werking van ChatGPT en de rechten van de betrokkenen. Die informatie moet zichtbaar vooraleer iemand een account aanmaakt; 
  • verduidelijken op welke rechtsgrondslag het zich beroept voor het verwerken van persoonsgegevens; 
  • Personen moeten de kans krijgen om foutieve of schadelijke informatie over zichzelf te laten rechtzetten of verwijderen. 
  • Gebruikers moeten verifiëren dat zij achttien jaar zijn of ouder. Tegen 30 september moet OpenAI ook een controlesysteem invoeren om de leeftijden van gebruikers te controleren. 
  • voor 15 mei moet Open AI een door de Garante goedgekeurde informatiecampagne opzetten om gebruikers te informeren over de risico’s van het ingeven van persoonlijke gegevens voor het trainen van algoritmen. 

 

Wat zijn de grote uitdagingen voor OpenAI in de toekomst?

Anders dan in de VS wordt in Europa openbaar beschikbare persoonlijke informatie nog steeds beschouwd als persoonlijke informatie die toebehoort aan individuen. Het zijn deze gegevens die nu voor problemen zorgen voor OpenAI.

Zoals eerder vermeld zijn er ook in Duitsland, Frankrijk en Ierland zijn onderzoeken gestart naar de bijkomende privacymaatregelen die nodig zijn. 

Ook de Belgische gegevensbeschermingsautoriteit zei dat de mogelijke inbreuken van ChatGPT “op [Europees] niveau moeten worden besproken”. 

De Franse gegevensbeschermingsautoriteit CNIL ontving ondertussen al minste twee klachten tegen ChatGPT, op grond van privacyschendingen. 

De European Data Protection Board (EDPB) heeft naar aanleiding van groeiende problematiek rond ChatGPT besloten om een speciale taskforce op te richten om de samenwerking te bevorderen en informatie uit te wisselen over mogelijke handhavingsmaatregelen van gegevensbeschermingsautoriteiten.

Delen:

Meer berichten

gdpr audit

Een Audit in NIS2

Inleiding: De Europese Unie heeft ingespeeld door de NIS2-richtlijn te introduceren, een update van de oorspronkelijke Network and Information Systems (NIS) richtlijn

Partners

©DPO Associates Alle rechten voorbehouden. Privacy verklaringCookie verklaring | Algemene voorwaarden