Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
OpenAI, reconnue mondialement pour ses avancées dans le domaine de l’intelligence artificielle, est actuellement confrontée à une sérieuse problématique liée au respect de la réglementation européenne sur la protection des données (GDPR). Une récente plainte déposée auprès de l’Union européenne cible spécifiquement ChatGPT, un chatbot développé par OpenAI. Le cœur de la plainte accuse ChatGPT de générer des informations erronées sur les personnes sans pouvoir les corriger, une faille qui pourrait non seulement induire en erreur mais également nuire à l’image et à la vie privée des individus concernés.
La GDPR, avec ses exigences strictes en matière de correction et de transparence des données, prévoit des sanctions pouvant atteindre jusqu’à 4% du chiffre d’affaires annuel mondial pour les entreprises qui manquent à leurs obligations. De plus, les régulateurs ont le pouvoir d’ordonner des changements dans le traitement des informations, ce qui pourrait entraîner une refonte significative du fonctionnement des outils d’intelligence artificielle générative dans l’UE.
La plainte contre ChatGPT soulève deux problèmes principaux : l’incapacité à corriger des données erronées et les inquiétudes en matière de transparence concernant les sources des données et les modalités de leur stockage. Bien qu’OpenAI offre la possibilité aux utilisateurs de demander des corrections pour des informations factuellement inexactes produites par ChatGPT, l’entreprise elle-même admet que ces corrections ne sont pas toujours possibles en raison de complexités techniques. Cette limitation pose la question de l’efficacité des mesures correctives envisagées par la politique de confidentialité de l’entreprise.
En outre, un autre aspect inquiétant de l’affaire est le manque de clarté d’OpenAI quant à la divulgation des sources des données utilisées par ChatGPT et des destinataires de ces informations. Ce manque de transparence pourrait non seulement saper la confiance des utilisateurs mais également enfreindre les principes fondamentaux de la GDPR concernant la responsabilité et la traçabilité des données.
Cette affaire arrive à un moment où OpenAI a déjà été visée par des plaintes similaires en Pologne et en Italie, ce qui indique un motif de non-conformité potentiel aux exigences réglementaires. Ces actions pourraient préfigurer des mesures coercitives étendues à travers différents États membres, une perspective qui a amené OpenAI à établir un bureau régional à Dublin. Ce choix stratégique vise à centraliser la supervision en vertu du mécanisme de plainte transfrontalier de la GDPR sous l’égide de la Commission de protection des données d’Irlande.
Face à cette situation, noyb, une organisation à but non lucratif dédiée aux droits de la vie privée, presse l’Autorité de Protection des Données autrichienne de mener une enquête approfondie. Ce groupe activiste espère que des sanctions seront imposées pour stimuler une conformité future d’OpenAI aux standards européens.
En fin de compte, cette accumulation de plaintes et d’enquêtes pourrait bien inciter OpenAI à remodeler de manière considérable ses approches en matière de traitement des données pour ses applications d’IA en Europe. La manière dont l’entreprise répondra à ces défis déterminera non seulement son avenir réglementaire dans l’UE mais influencera également le paysage global du respect de la vie privée dans l’ère de l’intelligence artificielle générative.