Comment rendre l’IA éthique ?
L’éthique de l’IA relève de notre responsabilité à tous : travailler à la conception en équipes mixtes, tester à grande échelle, penser IA for good… Trois conseils pour une IA éthique.
Reconnaître une personne à la peau claire mais pas celle à la peau mate, associer le métier d’aide-ménagère en priorité aux profils féminins sur les moteurs de recherche… Autant de biais qui interrogent l’éthique de l’intelligence artificielle. Mélodie Isnard, directrice des partenariats et du programme d’éducation de Microsoft France et Laurent Patane, CIO de Xbrain, nous ont livré leurs conseils pour une IA éthique sur le plateau TV de Microsoft Experiences 18.
Conseil 1 : Garder une pensée critique
L’intelligence artificielle permet d’analyser des volumes de données colossaux que les humains ne sauraient pas traiter sans son aide. « Ce n’est pas un outil qui va remplacer l’humain, c’est un outil de complément », souligne Laurent Patane. Mais quel est le sens donné par l’IA aux données ? Comment obtient-elle ses résultats ?
Les choix de l’IA sont parfois opaques, on évoque alors le concept de la black box, une boîte noire qui cache des choix que même certains mathématiciens n’arrivent à expliquer. Dans ce contexte, « il ne faut pas considérer les résultats fournis par la machine comme forcément acquis, car elle ne possède pas la vérité absolue », poursuit Laurent Patane
Si l’éthique est une notion clé pour l’intelligence artificielle, elle n’est cependant pas innée. Il faut « initier une pensée critique dès le plus jeune âge envers l’intelligence artificielle et expliquer ses enjeux, indique Mélodie Isnard. Cela nécessite beaucoup d’efforts de pédagogie. »
C’est d’ailleurs l’une des missions de la classe immersive de Microsoft, un lieu où les enfants et les enseignants peuvent s’approprier les nouvelles technologies dans le cadre de l’apprentissage. Mélodie Isnard travaille ainsi à la conception d’un atelier sur l’intelligence artificielle où des enfants de 8 ans seront invités à réfléchir autour de la notion d’éthique. Ils établiront un système d’entraînement de l’intelligence artificielle et lui apprendront à faire des erreurs. Ainsi, l’esprit critique des enfants sera sollicité lorsqu’ils essaieront de comprendre la logique de l’algorithme. « Nous devons tous être acteurs et actifs pour ne pas subir l’intelligence artificielle », complète Mélodie Isnard.
Conseil 2 : Être transparent
Pour faciliter la compréhension et lever les craintes, les choix pris par l’intelligence artificielle doivent être expliqués de façon claire. Laurent Patane cite l’expérience lancée en 2016 par des chercheurs du MIT sur le site Moral Machine. Objectif : choisir la personne à renverser en cas d’accident dans une voiture autonome : une personne âgée ? quelqu’un qui traverse au mauvais endroit ?
L’expérience permet de distinguer des différences culturelles : en Asie, par respect, les personnes ne renverseraient pour rien au monde une personne âgée alors qu’elles sont choisies dans un premier temps en Europe.
Dans tous les cas, la personne interrogée, placée en position de passager, ne veut pas mourir. Ainsi, très logiquement, lorsque les voitures autonomes se commercialiseront en grand nombre, le public va souhaiter acheter une voiture qui ne tue pas. Les constructeurs automobiles affirment « qu’on ne meurt pas dans leurs voitures » contrairement à celles de leur concurrence. C’est déjà un biais !
Pour Laurent Patane, les biais ne peuvent pas être supprimés, car ce sont des facteurs humain : « il faut s’en accoutumer pour mieux les dénoncer. Le challenge, aujourd’hui, se situe dans la recherche. Au niveau scientifique, ce serait fantastique d’être capable de faire de l’explicabilité de l’algorithme. C’est-à-dire qu’on ait une sorte de notice pour comprendre les résultats. » Dans le cas des voitures autonomes, leur réaction dans une situation d’urgence pourra par exemple être expliqué dans un document en détails accessible à tous.
Conseil 3 : mettre en place ou rejoindre des comités éthiques
« Le temps du droit n’est pas le même que celui du code. Le temps du code est ultra rapide et le temps du droit ultra long », affirme Laurent Patane. Pour s’autoréguler, il faudrait donc que le droit agisse de manière proactive et pas uniquement en réaction à la technologie.
Mélodie Isnard souligne quant à elle l’importance des comités d’éthiques qui savent communiquer et rendre transparent l’utilisation des données. Ces comités permettent de comprendre comment fonctionne un algorithme et comment il peut lire les données. Tout le monde peut ainsi être renseigné sur la façon dont ses données vont être exploitées.
Les entreprises peuvent également rejoindre des collectifs, comme Impact IA, auquel appartient Microsoft. Une plateforme en ligne est d’ailleurs en train de voir le jour en son sein. Elle répertoriera des outils techniques et de gouvernance qui répondront aux interrogations de conception d’IA responsable : comment créer des algorithmes transparents ? Comment éviter les biais ?
Lire aussi IA & éthique: « Il faut savoir prendre du recul » – Cécile Wendling
L’IA nous facilite la vie au quotidien, mais pour qu’elle reste bénéfique, il faut rester vigilant. Il ne tient qu’à nous de conserver un esprit critique pour ne pas absorber les informations transmises par l’IA telles des vérités absolues et rendre l’utilisation des données transparentes.
Pour cela, l’éducation et la formation sont essentielles, que ce soit dès le plus jeune âge, pour acquérir les bons réflexes, ceux qui permettront d’initier une pensée critique, ou plus tard, en se confrontant à des retours d’expériences ou des avis d’experts au sein de comité d’éthique, par exemple.
Pour en savoir plus sur le sujet, n’hésitez pas à regarder l’intégralité de la discussion entre Mélodie Isnard et Laurent Patane :