IA & éthique : « Il faut savoir prendre du recul » – Cécile Wendling

Temps de lecture : 5 minutes

Comment créer un cadre éthique pour l’IA ? Comment les entreprises peuvent-elles engager la réflexion sur le sujet ? Cécile Wendling, directrice de la prospective du Groupe AXA , a répondu à nos questions.

Cécile Wendling est la directrice de la prospective du Groupe Axa. Son rôle consiste à anticiper les tendances pour imaginer à quoi ressemblera l’assurance dans le monde de demain. Dans ce cadre, Cécile Wendling travaille notamment sur ce que veut dire une  intelligence artificielle responsable : depuis près de 4 ans, elle gère pour le groupe AXA leu Data Protection & Ethics Panel, un panel constitué d’experts indépendants se réunissant régulièrement avec les exécutifs du Groupe pour définir l’utilisation de la donnée et des algorithmes.

 

Cécile Wendling
Cécile Wendling

Directrice de la Prospective du Groupe AXA

L’adoption d’une technologie passe par la confiance. Quelles sont les principales clés pour assurer la confiance dans l’IA ?

La première, c’est la robustesse et la fiabilité : il faut que l’intelligence artificielle fasse ce qu’elle dit et dise ce qu’elle fait. Si l’IA bugge sans arrêt, dévie ou se fait hacker, nous n’en obtiendrons rien !

La deuxième clé consiste à appliquer l’AI en accord avec les valeurs et les engagements de l’entreprise. Si l’on prend une décision, qu’elle soit appuyée ou non par l’IA, il faut qu’elle reflète pour quoi l’entreprise s’engage : diversité, inclusion…

Il n’y a pas de confiance sans engagements concrets.

Enfin, la troisième clé, c’est de comprendre que la confiance ne se décrète pas : elle se gagne dans le temps. Or, la construction d’une relation de confiance, c’est donner des signes et des preuves tangibles des engagements de l’entreprise.

Replay

Vers un numérique plus durable et soutenable

Découvrez la proposition de Microsoft pour un numérique soutenable et durable traduite en 21 actions.

Visionner le replay

Comment donner un cadre éthique à l’IA ?

Aujourd’hui, les initiatives se multiplient : CERNA (Commission de réflexion sur l’Ethique de la Recherche en sciences et technologies du Numérique d’Allistene, l’alliance des sciences et technologies du numérique), Council on Extended Intelligence (CXI – de l’IEEE Standards Association et du MIT Media Lab), la nomination d’un groupe d’experts pour la commission européenne (auquel appartient Cécile Wendling ; NDLR), bientôt un rapport du Parlement européen…

Ainsi, les principes, nous les connaissons – et ils sont extrêmement importants. Nous pouvons par exemple citer la loyauté et la neutralité des algorithmes, la transparence, l’explicabilité et l’interprétabilité… Nous savons que nous devons être responsables avec l’intelligence artificielle, la question est : comment faire ?

C’est là qu’intervient Impact IA, un collectif qui rassemble de grands acteurs comme AXA, Microsoft ou encore Orange et qui est ouvert à toutes les entreprises qui souhaitent le rejoindre, par exemple parce qu’elles se posent des questions sur l’usage responsable de l’intelligence artificielle, sur l’IA for good, sur l’éducation à l’IA

Partager pour être meilleurs tous ensemble

Au sein de ce collectif, nous sommes en train de penser à une plateforme en ligne qui répertoriera des outils pour faire de l’IA responsable, sous la forme d’une bibliothèque virtuelle. Ces outils peuvent être techniques ou mathématiques : comment concevoir des algorithmes transparents, comment éviter les biais, comment travailler l’interprétabilité, c’est-à-dire donner la possibilité d’identifier les caractéristiques ou variables qui participent le plus à la décision… Il peut aussi s’agir d’outils de gouvernance : comment monter et faire fonctionner un panel, comment mettre en place un data scientist oath (un serment lié à l’éthique)… L’idée, c’est que cette librairie soit vivante, que toutes les entreprises puissent contribuer en apportant leurs propres outils.

Cécile Wendling
Photo : Thierry Ehrmann sur Flickr.com / Licence : CC BY 2.0

Quel impact ont ces enjeux éthiques pour les entreprises ?

C’est vraiment aux départements R&D d’inclure ces nouvelles briques d’IA responsable. Dans la gouvernance de l’entreprise, cela veut dire avoir un processus pour, si l’on a un doute ou une question, pouvoir enclencher une discussion. Cela veut aussi dire inclure les RH, pour que les salariés puissent être formés à ces sujets. En fait, c’est un sujet qui est transversal dans l’entreprise : des développeurs jusque, par exemple, aux collaborateurs organisant des formations.

Au sein du Groupe AXA, nous finançons de la recherche fondamentale sur le sujet de l’IA responsable. Nous avons d’ailleurs créé un livret pour valoriser les travaux de nos chercheurs sur ces sujets.

A lire aussi : « Il faut s’informer pour démystifier l’intelligence artificielle » – Jean-Claude Heudin

Septembre 
26
12h00
Big Data & AI Paris 2022 Big Data & AI Paris offre une occasion unique de s’informer sur les dernières tendances du marché et networker avec l’ensemble des professionnels de la data et de l’intelligence artificielle en France. Rejoignez M… S’inscrire En savoir plus

Comment peuvent-elles engager la réflexion autour de l’éthique ?

Chaque entreprise doit, au moment de développer un usage de l’IA, avoir un moment de recul et se demander ce qu’elle fait, ce que ça change, ce que ça transforme et comment faire attention à l’impact de cette transformation.

Cela dit, pour moi, ce n’est pas spécifique à l’IA : l’IA génère un buzz qui fait que l’on se pose beaucoup cette question mais, en réalité, à chaque fois que l’on change un processus, que l’on s’organise autrement – que ça soit avec de l’IA ou pas – les entreprises doivent continuer à incarner leurs valeurs et leurs engagements auprès de leurs clients.

Septembre 
26
12h00
Big Data & AI Paris 2022 Big Data & AI Paris offre une occasion unique de s’informer sur les dernières tendances du marché et networker avec l’ensemble des professionnels de la data et de l’intelligence artificielle en France. Rejoignez M… S’inscrire En savoir plus

Comment les entreprises peuvent-elles s’assurer que l’IA ait un impact positif ?

Le concept d’IA for good vise à se demander comment l’IA peut nous aider à mieux répondre à de grands enjeux, comme le changement climatique ou la montée de l’obésité dans une population donnée.

Il n’y a pas une seule façon de faire de l’IA for good : l’IA peut aider à régler des problèmes de société de multiples manières.

Faire de l’IA for good, ça peut être tirer parti des jeux de données que les états n’ont pas les moyens d’exploiter pour faire de la prévention, par exemple. Cela peut aussi être faire du mécénat de compétences, en mettant à disposition des compétences liées à l’analyse de la donnée, ou aider des entrepreneurs sociaux ou des ONG à accéder à de l’intelligence artificielle pour accélérer leur pratique.

A lire aussi : « Derrière l’ordinateur quantique, il y a des promesses technologiques, mais aussi des promesses sociétales »

On parle beaucoup des biais des algorithmes : comment les entreprises peuvent-elles lutter contre ce phénomène ?

Des biais, il y en a toujours eu : un individu qui prend une décision a des biais de part de sa culture, de son expérience. Il y a aussi des biais de groupes : quand une équipe prend une décision collective, elle peut être biaisée par les habitudes de travail, par le renfermement sur des pratiques internes…

Débiaiser les jeux de données sur lesquels s’entraine le machine learning est extrêmement important

Il y a des questions de biais dans le machine learning parce que l’algorithme apprend sur un jeu de donnée : si cet échantillon ne comprend que des données d’hommes et pas de femmes, par exemple, les recommandations faites vont être plus adaptées aux hommes qu’aux femmes. Après le machine learning évolue dans le temps, interagit avec son environnement et si l’environnement le manipule cela peut aussi recréer du biais.

Webinar

L’IA et le cloud computing au service de la pratique clinique

L’IA est amenée à prendre une place plus importante dans le quotidien des cliniciens : Du patient connecté, aux outils d’aide à la décision, quelles seront les tendances à venir du secteur ?

Je m’inscris

Le biais n’est pas arrivé avec l’IA, mais il faut néanmoins être conscient du fait qu’il y a différents endroits où on peut intervenir : lors de l’entrainement d’un algorithme, en le suivant dans le temps… Aujourd’hui, il existe des moyens pour vérifier que l’on n’a pas été victime d’un biais.

Tout outil, qu’il s’agisse d’un outil statistique classique ou un outil d’IA très sophistiqué, apporte énormément d’opportunités mais a aussi des limites. Ce qui est important aujourd’hui, c’est d’apprendre à bien les  connaitre et d’être lucide sur la façon dont on les utilise. Il ne faut pas tomber dans le buzz, et faire un pas de côté pour regarder tous les avantages (quelle valeur va pouvoir venir de ces outils ?) et les exploiter d’une façon responsable et engagée ; qui reflète les valeurs de l’entreprise.

A la une

#hololense

Le métavers au service de l’industrie

Alors que le métavers fait progressivement son chemin vers le grand public, il est déjà depuis déjà quelques années une réalité dans le secteur de l’industrie. Des technologies industrielles matures, dont Microsoft et ses partenaires se sont fait une spécialité. Une usine qui prend forme virtuellement avant d’être construite. D’immenses cuves de brassages connectées qui […]

Lire l'article
Etudiant devant un écran

L’adaptive learning change les codes de l’apprentissage

L’adaptive learning s’impose de plus en plus dans les formations, et pour cause : face à la pluralité des profils au sein d’un système scolaire l’adaptive Learning offre des outils pour traiter équitablement l’ensemble des profils d’apprenants. Mais quand est-il vraiment de cette méthode de pédagogie innovante ? Rencontre avec Pascal Bringer, directeur général de Maskott, […]

Lire l'article
Data loss prevention (DLP)

Data Management: tout ce qu’il faut savoir

Les données sont aujourd’hui indissociables des modes de travail et de production des organisations, encore faut-il savoir les gérer de façon efficace et intelligente : c’est ce qu’on appelle le « Data management » ou « gestion des données ». Explorons ce concept ensemble. Sommaire : 1. Présentation du Data Management 2. Explication de la […]

Lire l'article