IA & éthique : « Il faut savoir prendre du recul » – Cécile Wendling
Comment créer un cadre éthique pour l’IA ? Comment les entreprises peuvent-elles engager la réflexion sur le sujet ? Cécile Wendling, directrice de la prospective du Groupe AXA , a répondu à nos questions.
Cécile Wendling est la directrice de la prospective du Groupe Axa. Son rôle consiste à anticiper les tendances pour imaginer à quoi ressemblera l’assurance dans le monde de demain. Dans ce cadre, Cécile Wendling travaille notamment sur ce que veut dire une intelligence artificielle responsable : depuis près de 4 ans, elle gère pour le groupe AXA leu Data Protection & Ethics Panel, un panel constitué d’experts indépendants se réunissant régulièrement avec les exécutifs du Groupe pour définir l’utilisation de la donnée et des algorithmes.
Cécile Wendling
Directrice de la Prospective du Groupe AXA
L’adoption d’une technologie passe par la confiance. Quelles sont les principales clés pour assurer la confiance dans l’IA ?
La première, c’est la robustesse et la fiabilité : il faut que l’intelligence artificielle fasse ce qu’elle dit et dise ce qu’elle fait. Si l’IA bugge sans arrêt, dévie ou se fait hacker, nous n’en obtiendrons rien !
La deuxième clé consiste à appliquer l’AI en accord avec les valeurs et les engagements de l’entreprise. Si l’on prend une décision, qu’elle soit appuyée ou non par l’IA, il faut qu’elle reflète pour quoi l’entreprise s’engage : diversité, inclusion…
Il n’y a pas de confiance sans engagements concrets.
Enfin, la troisième clé, c’est de comprendre que la confiance ne se décrète pas : elle se gagne dans le temps. Or, la construction d’une relation de confiance, c’est donner des signes et des preuves tangibles des engagements de l’entreprise.
Comment donner un cadre éthique à l’IA ?
Aujourd’hui, les initiatives se multiplient : CERNA (Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, l’alliance des sciences et technologies du numérique), Council on Extended Intelligence (CXI – de l’IEEE Standards Association et du MIT Media Lab), la nomination d’un groupe d’experts pour la commission européenne (auquel appartient Cécile Wendling ; NDLR), bientôt un rapport du Parlement européen…
Ainsi, les principes, nous les connaissons – et ils sont extrêmement importants. Nous pouvons par exemple citer la loyauté et la neutralité des algorithmes, la transparence, l’explicabilité et l’interprétabilité… Nous savons que nous devons être responsables avec l’intelligence artificielle, la question est : comment faire ?
C’est là qu’intervient Impact IA, un collectif qui rassemble de grands acteurs comme AXA, Microsoft ou encore Orange et qui est ouvert à toutes les entreprises qui souhaitent le rejoindre, par exemple parce qu’elles se posent des questions sur l’usage responsable de l’intelligence artificielle, sur l’IA for good, sur l’éducation à l’IA…
Partager pour être meilleurs tous ensemble
Au sein de ce collectif, nous sommes en train de penser à une plateforme en ligne qui répertoriera des outils pour faire de l’IA responsable, sous la forme d’une bibliothèque virtuelle. Ces outils peuvent être techniques ou mathématiques : comment concevoir des algorithmes transparents, comment éviter les biais, comment travailler l’interprétabilité, c’est-à-dire donner la possibilité d’identifier les caractéristiques ou variables qui participent le plus à la décision… Il peut aussi s’agir d’outils de gouvernance : comment monter et faire fonctionner un panel, comment mettre en place un data scientist oath (un serment lié à l’éthique)… L’idée, c’est que cette librairie soit vivante, que toutes les entreprises puissent contribuer en apportant leurs propres outils.
Quel impact ont ces enjeux éthiques pour les entreprises ?
C’est vraiment aux départements R&D d’inclure ces nouvelles briques d’IA responsable. Dans la gouvernance de l’entreprise, cela veut dire avoir un processus pour, si l’on a un doute ou une question, pouvoir enclencher une discussion. Cela veut aussi dire inclure les RH, pour que les salariés puissent être formés à ces sujets. En fait, c’est un sujet qui est transversal dans l’entreprise : des développeurs jusque, par exemple, aux collaborateurs organisant des formations.
Au sein du Groupe AXA, nous finançons de la recherche fondamentale sur le sujet de l’IA responsable. Nous avons d’ailleurs créé un livret pour valoriser les travaux de nos chercheurs sur ces sujets.
A lire aussi : « Il faut s’informer pour démystifier l’intelligence artificielle » – Jean-Claude Heudin
Comment peuvent-elles engager la réflexion autour de l’éthique ?
Chaque entreprise doit, au moment de développer un usage de l’IA, avoir un moment de recul et se demander ce qu’elle fait, ce que ça change, ce que ça transforme et comment faire attention à l’impact de cette transformation.
Cela dit, pour moi, ce n’est pas spécifique à l’IA : l’IA génère un buzz qui fait que l’on se pose beaucoup cette question mais, en réalité, à chaque fois que l’on change un processus, que l’on s’organise autrement – que ça soit avec de l’IA ou pas – les entreprises doivent continuer à incarner leurs valeurs et leurs engagements auprès de leurs clients.
Comment les entreprises peuvent-elles s’assurer que l’IA ait un impact positif ?
Le concept d’IA for good vise à se demander comment l’IA peut nous aider à mieux répondre à de grands enjeux, comme le changement climatique ou la montée de l’obésité dans une population donnée.
Il n’y a pas une seule façon de faire de l’IA for good : l’IA peut aider à régler des problèmes de société de multiples manières.
Faire de l’IA for good, ça peut être tirer parti des jeux de données que les états n’ont pas les moyens d’exploiter pour faire de la prévention, par exemple. Cela peut aussi être faire du mécénat de compétences, en mettant à disposition des compétences liées à l’analyse de la donnée, ou aider des entrepreneurs sociaux ou des ONG à accéder à de l’intelligence artificielle pour accélérer leur pratique.
A lire aussi : « Derrière l’ordinateur quantique, il y a des promesses technologiques, mais aussi des promesses sociétales »
On parle beaucoup des biais des algorithmes : comment les entreprises peuvent-elles lutter contre ce phénomène ?
Des biais, il y en a toujours eu : un individu qui prend une décision a des biais de part de sa culture, de son expérience. Il y a aussi des biais de groupes : quand une équipe prend une décision collective, elle peut être biaisée par les habitudes de travail, par le renfermement sur des pratiques internes…
Débiaiser les jeux de données sur lesquels s’entraine le machine learning est extrêmement important
Il y a des questions de biais dans le machine learning parce que l’algorithme apprend sur un jeu de donnée : si cet échantillon ne comprend que des données d’hommes et pas de femmes, par exemple, les recommandations faites vont être plus adaptées aux hommes qu’aux femmes. Après le machine learning évolue dans le temps, interagit avec son environnement et si l’environnement le manipule cela peut aussi recréer du biais.
Le biais n’est pas arrivé avec l’IA, mais il faut néanmoins être conscient du fait qu’il y a différents endroits où on peut intervenir : lors de l’entrainement d’un algorithme, en le suivant dans le temps… Aujourd’hui, il existe des moyens pour vérifier que l’on n’a pas été victime d’un biais.
Tout outil, qu’il s’agisse d’un outil statistique classique ou un outil d’IA très sophistiqué, apporte énormément d’opportunités mais a aussi des limites. Ce qui est important aujourd’hui, c’est d’apprendre à bien les connaitre et d’être lucide sur la façon dont on les utilise. Il ne faut pas tomber dans le buzz, et faire un pas de côté pour regarder tous les avantages (quelle valeur va pouvoir venir de ces outils ?) et les exploiter d’une façon responsable et engagée ; qui reflète les valeurs de l’entreprise.