top of page

Une intelligence artificielle mais vertueuse, à quelle(s) condition(s) ?


2023 marquera un tournant dans l’encadrement et la régulation des systèmes d’intelligence artificielle (IA), de leur conception à leurs usages et applications. Face aux craintes suscitées par ses développements tous azimuts, notamment avec l’arrivée de l’IA générative, les Etats ont fini par réagir : « IA Act » au niveau européen, décret « Safe, Secure, and Trustworthy Artificial Intelligence aux Etats-Unis… Le défi : favoriser le développement d’une IA de confiance, respectueuse des droits humains et oeuvrant au bien commun. Et ce sans brider l’innovation et sans priver les Etats de son potentiel technologique, mais aussi politique et économique. Reste à savoir s’ils se donneront les moyens de le relever…


Par Amélie Rives





LIA au service des justes causes


« LIA pourrait offrir dimmenses opportunités en vue de la réalisation des objectifs de développement durable (ODD) établis par les Nations Unies dans le Programme de développement durable à lhorizon 2030. Ses applications permettent des solutions innovantes, une meilleure évaluation des risques, une meilleure planification et un partage plus rapide des connaissances. »[1] rappelle Audrey Azoulay, Directrice générale de l’UNESCO. A mesure que la technologie et les usages de l’IA se développent, la nécessité de mettre leur potentiel au service de l’humain et du bien commun s’impose. En 2021, les 193 membres de l’organisation adoptaient une Recommandation sur l’éthique de lintelligence artificielle, reposant sur « quatre valeurs fondamentales qui doivent servir de base à des systèmes d'IA fonctionnant pour le bien de l'humanité, des individus, des sociétés et de l'environnement ». [2] 

Reflet de cet engagement, l’Union internationale des télécommunications et 40 autres agences onusiennes opèrent « IA for good », destinée à identifier les applications de l'IA susceptibles de faire avancer les ODD et à accroître leur impact. La communauté internationale de scientifiques et d’experts se défie notamment lors de « challenges » sur des enjeux numériques, énergétiques et climatiques, etc. L’un d'eux dédié à la lutte contre le changement climatique et ses conséquences, verra ses résultats annoncés lors de la COP28. « AI for fusion » piloté par l’Agence Internationale de l’Energie Atomique entend lui accélérer la R&D en matière de fusion nucléaire, une forme d’énergie considérée comme écologique et sûre mais qui reste une lointaine promesse. D’autres projets comme ARCHES (AI Research for Climate CHange and Environmental Sustainability) porté par l’INRIA, met l’IA au service d’une meilleure anticipation, adaptation et résilience au changement climatique, notamment en facilitant les collaborations interdisciplinaires entre sciences du climat, énergies renouvelables, apprentissage automatique, exploration de données, statistiques.

Autre champs d’action pour une IA engagée : la protection de l’enfance. En 2020, le Centre pour l'IA et la robotique de l'UNICRI et le ministère de l'Intérieur des Emirats arabes unis (EAU) ont lancé l’initiative AI for Safer Children pour lutter contre l'exploitation sexuelle des enfants et les abus en ligne grâce à de nouvelles technologies. Les EAU ont présenté en mai 2023 une nouvelle stratégie de protection de l’enfance dans laquelle l’IA joue un rôle central pour renforcer les capacités d’action des professionnels, améliorer la coopération nationale et internationale contre la propagation des matériels d’abus sexuels, et sensibiliser aux droits des enfants. « […] en adoptant lIA et lapprentissage automatique pour soutenir les efforts de lutte contre les violations des droits de lenfant dans le monde virtuel, les Emirats  sont déterminés à continuer à montrer lexemple » expliquaient leurs représentants.[3]



Une IA éthique “by design”


Il ne suffit pourtant pas qu’une solution d’IA serve une cause juste pour qu’elle le soit. En cause notamment : les biais, conscients ou inconscients, transmis par les humains aux données d’apprentissages puis aux algorithmes en reproduisant ou en amplifiant les discriminations. Sur certaines plateformes de recrutement en ligne par exemple « l’algorithme ne se contente pas de trier les postulants sur la seule base méritocratique mais prend aussi en compte les recommandations et les retours des entreprises qui ont embauché ces personnes par le passé. L’algorithme est alors conforté dans son biais et continue à faire apparaître en tête de liste les groupes démographiques qui auront bénéficié antérieurement d’une exposition privilégiée. »[4] rappelle Sihem Amer-Yahia, Directrice du laboratoire de recherche de Grenoble du CNRS. En plus de ces impacts sociétaux considérables, « Ne pas les anticiper [ces biais] revient à compromettre les bénéfices de lIA et à ralentir ladoption de technologies à haut potentiel pour les individus et la société dans son ensemble. »[5] prévient Olivier Penel, Head of Global Advisory chez SAS. Les anticiper, c’est mettre en place des garde-fous à toutes les étapes de sa conception et de son déploiement, pour que l’IA soit éthique par nature : surveiller les variables d’entrée des algorithmes et aux données de formation qui doivent traduire la diversité du monde réel, auditer les algorithmes une fois les systèmes développés pour détecter les biais éventuels et les corriger si besoin, ou encore vérifier les résultats des algorithmes.

Mais pour respecter les droits fondamentaux et servir l’humain, les algorithmes doivent aussi être sécurisés, fiables et solides, et les systèmes d’IA transparents, traçables, accessibles et auditables et laisser aux citoyens le contrôle sur leurs données. En 2019, le groupe d'experts de haut niveau sur l'IA mis en place par la Commission européenne fixait ainsi 7 principes pour une IA éthique : facteur humain et contrôle humain, robustesse et sécurité, respect de la vie privée et gouvernance des données, transparence, diversité, non-discrimination et équité, bien-être sociétal et environnemental, et responsabilisation des systèmes d’IA. Désireux de promouvoir le développement d’une IA intrinsèquement vertueuse et responsable, la France et le Canada ont lancé en 2018 un Groupe international dexperts en intelligence artificielle (G2IA), chargé « danalyser, de façon indépendante, les informations dordre scientifique, technique et socio-économique nécessaires pour mieux comprendre les développements des techniques de lintelligence artificielle et cerner les conséquences de leur utilisation. » [6] C’est aussi pour faciliter le développement d’une IA qui « reste un outil au service de lintérêt général et que son utilisation se fasse dans le respect des droits individuels. »[7] que la Commission européenne pour l’efficacité de la justice du Conseil de l’Europe a adopté la même année une charte éthique relative à l’utilisation de l’IA dans les systèmes judiciaires, basée sur 7 principes essentiels : respect des droits fondamentaux, non-discrimination, qualité et sécurité, transparence, neutralité et intégrité intellectuelle, et maîtrise par l’utilisateur.



Fini de jouer !


Pour que ces lignes de conduite ne restent pas lettre morte dans un contexte d’innovation tous azimuts, les Etats redoublent d’efforts pour faire aboutir leurs projets d’encadrement et de régulation des systèmes d’IA et de leurs usages. En juin, les députés européens ont donné un premier accord au projet d’« IA Act », qui imposera de nouvelles obligations aux fournisseurs et utilisateurs en fonction des risques posés par les systèmes. Ceux considérés comme présentant un risque inacceptable seront tout simplement interdits, comme les systèmes de scoring social, d’identification biométrique à distance et en temps réel ou de manipulation cognitivo-comportementale de personnes ou de groupes vulnérables. Pour les autres, les obligations prévues comprennent entre autres un contrôle humain sur la machine, la mise à disposition d’un documentation technique ou l’établissement d’un système de gestion du risque. Des autorités de surveillance seront désignées dans chaque pays pour contrôler leur respect. Quant aux fameuses IA génératives, elles seront soumises à des exigences de transparence renforcées (marquage des contenus, dispositifs visant notamment à empêcher la génération de contenu illégal…).

Outre Atlantique, faute d’avoir réussi à rassembler le Congrès derrière un ambitieux texte trans-partisan, le président Biden a publié le 30 octobre son décret « Safe, Secure, and Trustworthy Artificial Intelligence » destiné à « faire en sorte que l'Amérique montre la voie en saisissant les opportunités et en gérant les risques de l'IA. »[8] Il reprend les mesures volontairement adoptées par 15 grands acteurs de l’IA cet été, notamment le marquage des contenus générés par l’IA, et annonce de nouvelles mesures destinées par exemple à favoriser le développement de normes, outils et tests garantissant que les systèmes d'IA sont sûrs, sécurisés et dignes de confiance, à lutter contre la discrimination algorithmique ou encore à renforcer la protection des données personnelles et de la vie privée.

Le même jour, le G7 a conclu un accord sur les principes directeurs internationaux pour l’intelligence artificielle et un code de conduite volontaire pour les développeurs d'IA. Objectif : promouvoir la sécurité et la fiabilité de l’IA, en atténuer les risques et limiter les abus, identifier les vulnérabilités, faciliter l’échange d’information ou encore élaborer un système de marquage.

Réguler donc, mais sans pour autant brider l’innovation et le développement de l’IA. Le 13 juin, Emmanuel Macron a ainsi rappelé que “le pire scénario serait une Europe qui investit beaucoup moins que les Américains et les Chinois et qui commencerait par créer de la régulation. Ce scénario est possible, ce ne serait pas celui que je soutiendrai ».[9] Réunis le 30 octobre pour évoquer l'autonomie stratégique de l’UE en matière d’IA, Bruno le Maire et ses homologues italien et allemand ont, eux, insisté sur la nécessité d’une législation « sans bureaucratie inutile »[10]. Ils ont appelé à des procédures administratives simplifiées, des charges administratives réduites pour les projets impliquant plusieurs Etats membres, le développement d'un écosystème européen de capital-risque solide, etc… Car au-delà de son indéniable impact sociétal l’IA est aussi un enjeu d’(in)dépendance technologique et de compétitivité, d’autant plus dans un contexte économique incertain. Le décret Biden comprend d’ailleurs une section intitulée « promouvoir l’innovation et la compétitivité ». Une véritable course à la régulation de l’IA s’est ainsi ouverte, les enjeux économiques s’adossant aux enjeux éthiques dans des économies mondialisées où fixer les règles revient à élaborer des normes et standards et qui « maîtrise la norme et les standards, maîtrise le marché »…

 



bottom of page