Après l’avènement du RGPD et dans un contexte global de recherche de sens, le numérique doit se mettre en ordre de bataille. Pour beaucoup d’entreprises concernées, c’est déjà le cas. Les questionnements éthiques guident déjà leur R&D. En attendant les lois.
Par Lola Breton
© Shutterstock
Le compte à rebours est lancé. Dans un peu plus d’un an, les spectateurs vont affluer par centaines de milliers à Paris, Lille ou encore Lyon pour suivre les épreuves mythiques des Jeux Olympiques. Un grand événement qui suppose une organisation sans faille, notamment en matière sécuritaire. Pour cela, il va falloir s’aider de technologies numériques de pointe. Cette échéance a permis la promulgation d’une loi sur la sécurité des JO. Elle autorise « l’expérimentation de la vidéosurveillance intelligente pour assurer la sécurité des manifestations sportives, récréatives ou culturelles particulièrement exposées à des risques », jusqu’au 31 mars 2025. Ces caméras augmentées sont composées d’un système d’intelligence artificielle capable de détecter des événements anormaux dans une foule. Il leur est absolument interdit, en l’état, de recourir à des techniques de reconnaissance biométrique. Cette décision encore prudente n’empêche pas les fantasmes et la crainte qui entoure toujours l’intelligence artificielle. Une poignée d’industriels et d’entrepreneurs du secteur, y compris le controversé Elon Musk, ont appelé fin mars 2023 à une pause dans la course à l’IA. Face au développement des IA type ChatGPT, capable de répondre à toute sorte de questions même complexe, ils estiment que « les systèmes d’IA qui peuvent entrer en compétition avec l’intelligence humaine posent des risques profonds pour l’humanité et la société ».
Explicabilité, robustesse, gestion des données
Pourtant, ni l’IA ni les autres technologies numériques n’arrêteront de se développer du jour au lendemain. Il faut donc penser une manière juste et morale de le faire. C’est là qu’entre l’éthique, avant que la loi elle-même n’intervienne. « Depuis le début de l’histoire de l’IA, les développeurs sont porteurs de questionnements sur les limites que l’on doit imposer à cette technologie pour éviter qu’elle ne soit détournée par des personnes et des usages malhonnêtes », indique Rémi Barbarin, responsable R&D, Software et IA chez Eviden, branche digital, cloud, big data et sécurité du groupe Atos. En attendant l’adoption de l’AI Act, la directive européenne qui promet de réguler les usages de l’intelligence artificielle, d’ici 2024, 12 industriels français ont créé le collectif Confiance.ai, dont Atos fait partie. Une manière d’organiser, en amont des obligations légales, un secteur dans lequel les limites ne sont pas encore clairement définies. « Les outils d’IA sont souvent des boîtes noires, concède Rémi Barbarin. Ici, on essaie de mettre en œuvre ces outils pour faire de l’IA quelque chose en laquelle on a confiance. On ne peut pas attendre que la loi nous y contraigne. »
La philosophie des industriels français qui souhaitent développer des outils d’IA éthiques tient en trois points : explicabilité, robustesse et gestion des données. « Pour toute IA, on doit être capable d’expliquer son fonctionnement. Ce n’est plus acceptable de ne pas savoir dire comment elle fonctionne. Si une voiture qui fonctionne avec un système d’IA intégré cause un accident, on doit pouvoir expliquer pourquoi le freinage automatique a, ou pas, fonctionné », explicite Rémi Barbarin. Mais cette tâche d’explicabilité n’est pas toujours facile à effectuer tant les biais sont nombreux à s’insérer dans la mise sur pied des outils. « Pour les questions de reconnaissance faciale, par exemple, on n’a pas aujourd’hui le droit d’utiliser des données biométriques. Pour entraîner les outils, on s’appuie donc sur des banques d’images, notamment de gens célèbres. On s’est rendu compte que l’IA n’était alors pas capable de reconnaître un visage de femme s’il n’est pas maquillé. Par les données fournies, on a créé un biais », souligne le responsable du sujet chez Eviden.
Les start-ups s’y mettent
Une IA pensée de manière éthique, et donc transparente, doit ensuite pouvoir résister à l’usage tout en s’assurant qu’elle peut collecter les données qu’elle a entre les mains. C’est pour cette raison, et parce que tout dépend de l’intention du développeur et du détenteur d’un outil d’IA lorsqu’ils l’utilisent que l’Europe, dont le cheval de bataille était encore il y a peu le RGPD, a établi des niveaux de risque associé à l’IA et à son utilisation possible. Inacceptable, haut risque ou gérable. Les outils liés à un risque inacceptable, parce qu’ils seraient utilisés pour surveiller la population par l’Etat, par exemple, sont interdits.
Chez Confiance.ai, les industriels « visent d’être au-delà de la loi », assure Rémi Barbarin. Être encore plus éthique que dans la légalité. Et ce ne sont pas les seuls à s’être penché sur cette question avant que le législateur ne s’en empare. Le data scientist américain Abhinav Raghunathan a créé une base de données en 2022 qui recense toutes les start-ups de l’IA éthique – l’Ethical AI Database (EAIDB). Il en a décompté à ce jour plus de 200, notamment en Europe et aux Etats-Unis. Il note que c’est sur trois types de modèles d’IA que la recherche d’éthique se concentre. Apprentissage fédéré (qui consiste à entraîner la machine chez plusieurs usagers puis d’agréger les données apprises), IA causales (analysent les causes et les conséquences d’une action), et IA neurosymboliques (qui mêlent réseaux neuronaux et représentation symbolique) sont particulièrement prisées.
By design
S’il y a un domaine du numérique où le sujet de l’éthique est prégnant et indispensable, c’est celui de la e-santé. Que ce soit dans les outils d’IA qui y sont associés ou dans tout autre technologie qui nécessite de s’intéresser de près ou de collecter des données de santé, sensibles, la transparence et la bonne gestion des données sont clés. La cellule éthique de la Délégation ministérielle au numérique en santé a mis sur pied un guide des bonnes pratiques pour adopter le principe d’éthique by design dans les solutions de e-santé. Une approche d’autant plus importante qu’elle permet un usage vertueux de la technologie.
Le principe de l’éthique by design est discuté, et adopté par beaucoup, depuis de longues années. Cela suppose de se mettre en ordre de marche en tant qu’organisation et non pas uniquement dans les technologies que l’on propose. Car un outil ne saurait aujourd’hui être éthique sans une dimension écologique, par exemple. Il convient alors pour les collaborateurs d’embrasser un mode de vie et une organisation quotidienne dans lesquelles les préoccupations environnementales et l’avenir de notre planète compte autant que le futur de la technologie numérique.
Comentarios