Table des matières
ToggleGPT Chat et la protection des données dans le domaine de l’IA
Ces derniers mois, nous avons beaucoup entendu parler de la relation entre l’intelligence artificielle (IA) et le droit, et de nombreuses opinions différentes ont émergé. D’un côté, il y a ceux qui estiment que l’IA peut être un outil fondamental pour le travail, le développement économique et social, non seulement dans le monde du droit, mais aussi dans de multiples secteurs professionnels ; d’un autre côté, il y a les opinions négatives sur le sujet, qui soutiennent que l’IA peut devenir contraire à l’éthique dans certains cas, voire irrespectueuse et antidémocratique, car il s’agit d’un système intelligent et informatisé, qui n’est ni émotif ni évaluatif ; un troisième groupe soutient l’idée que l’IA pourrait apporter un grand changement favorable, à condition que des aspects tels que la reconnaissance de la personnalité juridique de l’IA, le régime de responsabilité, etc. soient concrètement réglementés.
Cette profusion d’opinions s’est clairement reflétée dans la dernière controverse sur l’IA dans le cadre du « GPT Chat ».
Pour ceux qui ne le connaissent pas, le GPT Chat est un modèle linguistique qui utilise les technologies de l’IA, s’entraînant avec une grande quantité de données textuelles, afin de générer automatiquement des réponses et d’améliorer la précision des systèmes de recherche d’informations. En ce sens, il génère des textes, des images, des audios et des vidéos de la même manière ou d’une manière très similaire à la manière dont une personne le ferait. Il fonctionne comme une application que l’on télécharge et qui, selon qu’elle est gratuite (utilisateur) ou payante (abonné), offre certains avantages ou d’autres. Dans l’application, une sorte de chat apparaît dans lequel l’utilisateur ou l’abonné peut poser n’importe quel type de question, comme : Montrez-moi un modèle de contrat de fiducie, et un modèle de contrat apparaît automatiquement ; ou encore : Quelles ont été les affaires pénales les plus controversées aux États-Unis en 2011 ?
Si le Chat GPT peut apparaître comme l’une des plus grandes inventions de l’histoire, il n’en présente pas moins des lacunes. Tout d’abord, il s’agit d’un type d’IA qui ne garantit pas la véracité de l’information, car elle peut contenir des données erronées, car si elle est entraînée avec des données inadéquates, elle peut générer un contenu inexact. D’autre part, de nombreuses professions ont qualifié l’activité du Chat GPT d’intrusion dans le monde du travail au motif que, si un tel chat peut traiter l’écriture aussi simplement et à peu de frais, voire gratuitement, il n’y aurait pas besoin de certaines figures professionnelles dont la formation est à l’origine de tout leur travail.
La violation de la vie privée, de la sécurité publique et des données personnelles est une autre crainte internationale majeure du Chat GPT, à laquelle on s’attaque déjà. L’Italie en est un bon exemple. L’Agence nationale de cybersécurité d’Andorre a publié le 13 avril un article indiquant que l’Italie avait décidé de « bloquer » l’outil de chat GPT parce qu’il ne respecte pas les principes et la discipline de la confidentialité des données, étant donné qu’il recueille des millions de données pour fournir une réponse automatisée aux questions des utilisateurs, et qu’il collecte des millions de données auprès des utilisateurs et des abonnés qui utilisent l’outil.
De même, aux États-Unis, le Center for AI and Digital Policy (CAIDP) a considéré que GPT Chat était « biaisé, trompeur et présentait un risque pour la vie privée et la sécurité publique », estimant qu’il ne respectait pas les garanties de robustesse empirique des données et qu’il ne disposait pas de sauvegardes suffisantes pour limiter les biais et la tromperie.
Dans le cas de l’Espagne, l’Agence espagnole de protection des données mène également des enquêtes à cet égard afin de déterminer l’impact de GPT Chat sur les données des utilisateurs et des abonnés et sur leurs droits fondamentaux. Par conséquent, il a été décidé de créer un comité de travail qui sera chargé de la supervision et du contrôle et qui mettra ensuite en place un système de coopération et d’échange d’informations avec les autorités dans les cas où les données ou la sécurité sont affectées de manière négative afin de prendre des mesures.
Dans les prochains mois, nous pourrons voir comment cette controverse évolue, étant donné que de nombreux pays ont demandé au Comité européen de protection des données d’aborder la question lors de sa réunion plénière, en raison de l’importance qu’elle implique non seulement pour la vie privée et la sécurité des utilisateurs, mais aussi pour les développements futurs liés à l’IA, qui évoluera progressivement et sera introduite dans notre vie quotidienne, de sorte qu’il sera nécessaire qu’elle soit réglementée dans tous les aspects auxquels elle peut s’appliquer.
La Direction