Couverture du journal du 04/11/2024 Le nouveau magazine

L’IA et la transparence

L'intelligence artificielle (IA) a émergé comme accélérateur majeur de transformation sociale et économique, apportant des innovations importantes dans tous les secteurs.

Me Ludovic de la Monneraye ©Atypix

Si le potentiel de l’IA n’est plus à prouver, elle pose de nombreuses questions, éthiques, juridiques et sociales, et suscite encore la méfiance d’une grande partie de la population.

En effet, elle peut être perçue par certain comme dangereuse, obscure et opaque. C’est la raison pour laquelle, toujours dans une volonté de renforcement de la confiance numérique, la transparence a été mise au cœur des utilisations vertueuses en matière d’IA.

La transparence au titre des collectes de données

Au titre du Règlement Général sur la Protection des Données (RGPD) et notamment des obligations d’information et de transparence, tous les traitements de données à caractère personnel, intégrant des systèmes d’IA ou non, doivent être portés à la connaissance des personnes concernées.

L’opacité de certains systèmes d’IA peut complexifier la fourniture de l’information aux personnes concernées par les traitements de données. Au-delà du simple accès à l’information, il est fondamental que tout un chacun comprenne les contours de ces traitements et notamment les spécificités des systèmes d’IA.

La transparence quant au fonctionnement des solutions intégrant l’IA

On parle de transparence sur l’existence même des décisions automatisées mais également sur les éléments qui les fondent.

En effet, si la personne concernée doit être informée qu’elle fait l’objet d’un traitement automatisé de ses données, elle doit aussi en comprendre la teneur et recevoir des explications claires sur la manière dont sont prises les décisions. Elle doit également être en mesure de les contester.

Il est essentiel que la logique derrière les décisions prises par les systèmes d’IA soit parfaitement comprise par tous.

C’est la raison pour laquelle il est nécessaire que les entreprises doivent offrir la plus grande transparence quant au fonctionnement des algorithmes, aux données employées et notamment aux données d’entrainement.

Les algorithmes étant souvent complexes, évolutifs et auto-apprenants, leurs concepteurs eux-mêmes ne sont pas toujours en mesure d’expliquer les décisions automatisées, raison pour laquelle une parfaite transparence algorithmique est difficile à atteindre.

Dans une autre mesure, les critères permettant d’aboutir à des décisions automatisées doivent pouvoir être portés à la connaissance des personnes concernées, notamment pour éviter les biais algorithmiques et les décisions discriminatoires.

En effet, même si l’on peut penser que la construction mathématique des algorithmes est neutre et offre une égalité parfaite entre les individus, il faut garder à l’esprit que ces suites d’informations sont conçues par des humains à partir de données reflétant des pratiques humaines.

Ces systèmes ne sont donc pas exempts d’erreurs et de biais qui pourraient avoir de graves impacts sur les utilisateurs. Par exemple, un modèle de reconnaissance faciale formé avec une majorité d’images d’hommes montrera une prédisposition à identifier plus souvent un visage comme masculin.

Des nouvelles exigences de transparences portées par l’IA Act

À la croisée du progrès technologique et des principes juridiques, la question de la régulation de l’IA a rapidement revêtu une importance cruciale. C’est la raison pour laquelle les institutions européennes se sont emparées du sujet et ont œuvré pour la réglementer. Le règlement européen sur l’IA, l’IA Act, proposé dès 2021, a été définitivement approuvé, le 13 mars 2024, par le Parlement européen. Ce règlement établi un cadre juridique harmonisé des systèmes d’IA qui sera pleinement applicable à l’horizon 2026.

Le choix s’est porté sur une approche par les risques, imposant des obligations plus ou moins étendues, allant de la prohibition à une simple régulation par des codes de conduite, en fonction des risques que représentent les systèmes pour les droits et libertés des personnes.

L’IA Act s’est intéressé aux IA génératives (ChatGPT par exemple) et a établi de nouvelles exigences en matière de transparence. A l’avenir, les utilisateurs devront être informés de manière claire lorsqu’ils interagissent avec des contenus générés par IA, que ce soit des articles, des images, des œuvres d’art ou des échanges avec des chatbots. Cette information peut être réalisée par une politique de confidentialité, des conditions générales d’utilisation (CGU), un avertissement par pop-up ou même une case à cocher pour donner son consentement.

Sera également instauré un contrôle strict de la qualité des données d’entrainement des algorithmes d’IA, obligeant les entreprises à les livrer sur demande. L’objectif étant notamment de garantir le bon respect de la législation sur le droit d’auteur.

Le texte prévoit la création d’une entité européenne en charge de vérifier l’application de l’IA Act et des sanctions financières (jusqu’à 35 M€ ou 7% du chiffre d’affaires annuel mondial) en cas de manquement au règlement.

On perçoit alors la volonté d’une prise en main efficace du sujet et de tous les enjeux qu’il implique, tout en travaillant sur le renforcement du lien de confiance des citoyens envers les évolutions technologiques telles que l’IA.

La pérennité des systèmes d’IA semble alors résider dans deux volets encore fragiles : la transparence et la responsabilité. Plus les acteurs feront l’effort d’une plus grande transparence, algorithmique notamment, plus les utilisateurs auront confiance dans ces solutions et cela participera à leur démocratisation et à leur développement éthique.

 

Une expertise de Ludovic de la MONNERAYE, avocat au barreau de Rennes