Équité des algorithmes : qu’est-ce que c’est ?
L’équité des algorithmes est l’un des piliers d’une intelligence artificielle responsable et au service de l’humain. Qu’est-ce qu’un algorithme biaisé ? Comment le rendre plus juste ? En quoi cette équité est-elle bénéfique aux entreprises ?
Les algorithmes peuvent aider à prendre des décisions plus justes, que ce soit dans le domaine de l’emploi, de l’orientation scolaire, des soins médicaux, de l’agriculture ou des demandes de prêts. On imagine que les machines peuvent résoudre des problèmes sans partis pris humain. Pourtant, les recherches démontrent que ces machines ne sont pas dépourvues de biais.
Prenons le domaine de la recherche d’emploi par exemple. Les entreprises pèchent souvent par un manque d’hétérogénéité des profils, un recruteur humain ayant forcément des biais lorsqu’il reçoit des candidatures. L’intelligence artificielle pourrait y remédier et limiter les discriminations à l’embauche. Une grande entreprise américaine a donc tenté d’automatiser ce processus. Au bout d’un an, seuls les CV d’hommes étaient retenus. La raison est simple : les données actuels et historiques servaient de base pour entrainer l’algorithme. Or la plupart des salariés étaient des hommes. La machine a donc considéré que ces profils étaient préférables.
Attention au phénomène de math-washing donc ! Celui-ci tend à nous faire croire que les algorithmes sont par nature neutres et que leur réponse est plus fiable que celle d’un humain. À l’heure où les algorithmes nous accompagnent dans des domaines de plus en plus sensibles il devient urgent d’éviter les biais.
Qu’est-ce qu’un algorithme biaisé ?
Des chercheurs auprès de Telecom Paris-tech et de l’Université Paris-Nanterre classifient les biais selon trois catégories :
Les biais cognitifs
Le programmeur de l’algorithme a, dans la conception même, introduit des défauts (volontairement ou non). Les résultats obtenus sont alors le reflet de ces erreurs. Ces biais cognitifs se rangent en diverses catégories. Par exemple, dans le biais du « mouton de Panurge », le programmeur reproduit des modélisations existantes sans les interroger. Avec le biais de stéréotype, il reproduit, dans un algorithme, un stéréotype présent à son esprit. C’est ainsi qu’une journaliste a récemment dénoncé les biais du brevet de l’algorithme de matching d’une application de rencontre. Celui-ci avait tendance à privilégier les hommes les mieux payés et plus âgés, et les femmes plus jeunes qui avaient fait moins d’études.
Les biais statistiques
Ensuite, les biais peuvent provenir du jeu de données sur lequel l’algorithme a été entraîné. On parle alors de biais statistiques. Quelle que soit la pertinence de la conception de l’algorithme, les résultats seront à la hauteur de la qualité des données d’origine. Un système d’évaluation des approbations de prêt, par exemple, devrait traiter de façon équitable tous les candidats ayant une situation financière similaire. Pourtant, un audit réalisé par Microsoft dans le cadre d’un partenariat avec une grande institution de prêts a révélé le contraire. Les prêts approuvés par son système IA ne concernaient en effet que des emprunteurs masculins. Comme pour l’exemple des embauches cités plus haut, les algorithmes avaient appris des données collectées que les agents de crédit privilégiaient les hommes. Ils reproduisaient donc l’existant. Inspecter le système a permis de corriger ce parti pris avant son déploiement.
Variable manquante, endogénéité des données, etc… Les jeux de données peuvent être biaisés d’un très grand nombre de façons. Ils peuvent par exemple ne pas représenter la population générale. C’est ce qui est arrivé au chatbot Tay, sur les réseaux sociaux. Ce dernier devait apprendre sans supervision, des conversations des utilisateurs de Twitter. Quelques-uns, particulièrement actifs, sont intentionnellement parvenus à lui faire tenir des propos haineux, en lui donnant le mauvais exemple.
Les bais économiques
Enfin, les biais peuvent être économiques. Ici, les algorithmes sont conduits volontairement à donner un certain résultat, pour répondre à des contraintes financières. Par exemple, une publicité en ligne qui privilégierait un certain public, moins cher à cibler. C’est ce qui s’est produit lorsqu’une grande entreprise a décidé de pousser des offres d’emploi pour des profils techniques. Cibler les hommes coûtait moins cher, c’est donc ce public là qui a été privilégié.
Quelles sont les réglementations en vigueur ?
Les réglementations s’adaptent progressivement à l’évolution des usages. Concernant les algorithmes, un triple cadre législatif fait référence : la Loi informatique et libertés, le Règlement européen sur la protection des données (RGPD) et la loi pour une République numérique.
La Loi pour une République numérique
Promulguée en octobre 2016, cette loi vise à promouvoir le développement de l’économie numérique. Le tout en garantissant les droits des utilisateurs et en protégeant les données personnelles. Elle impose notamment la mention explicite de l’utilisation d’un traitement algorithmique dans le cadre d’une décision administrative. Et permet à l’usager d’en demander les principales règles.
Le RGPD du 27 avril 2016
Il renforce et harmonise la protection des données personnelles au sein de l’Union européenne. Pour cela il s’appuie notamment sur les notions de consentement « explicite » et « positif » ou le droit à l’effacement des données. Il met aussi en place le principe de privacy by design. Celui-ci impose aux équipes techniques de prendre en compte les exigences de protection des données dès le développement.
La résolution du Parlement européen sur l’intelligence artificielle
Le 12 février 2019, le Parlement européen a adopté une nouvelle résolution pour une politique industrielle européenne globale sur l’intelligence artificielle. Le texte souligne la nécessité de garantir, dès la conception, la transparence et l’explicabilité des algorithmes. Le but est ici d’empêcher toute discrimination liée aux décisions automatisées. Il recommande en outre la mise en place de règles éthiques intégrant l’idée que l’IA est une « technologie centrée sur l’Homme, » conçue comme un outil qui aide l’Homme et qui est contrôlé par lui.
Pour Microsoft, l’équité est en tête de ses 6 valeurs éthiques pour l’intelligence artificielle. Les systèmes d’IA doivent traiter tout le monde de façon équitable.
Pourquoi les entreprises doivent s’y intéresser ?
Selon la résolution du Parlement européen, l’approche éthique de l’IA est essentielle pour permettre une compétitivité responsable. Elle suscitera en effet la confiance des utilisateurs et facilitera une adoption plus large de l’IA. Les entreprises ont donc tout à gagner en œuvrant pour une IA éthique et équitable. En effet, d’après le baromètre Kantar sur la confiance dans les entreprises, 53 % des Français déclarent cesser de consommer les produits d’une marque en laquelle ils n’ont pas confiance. Tous les secteurs sont concernés : marketing, santé, banque, retail, éducation…
Et face aux conséquences sociales de l’IA, il est de la responsabilité des entreprises d’anticiper et d’atténuer les effets inattendus. Comme le manque d’équité des algorithmes par exemple.
L’intelligence artificielle est une opportunité majeure, à condition de prendre en compte sa dimension sociétale et la responsabilité qu’elle implique. L’IA ne pourra apporter une contribution positive à la société que si chacun prend la mesure de l’enjeu et dialogue, collabore. Il est nécessaire d’embarquer tout le monde !
Quelles solutions pour rendre un algorithme équitable ?
À découvrir : Les outils développés par Microsoft pour identifier les IA biaisées.
L’évaluation des données utilisées
En premier lieu, il est nécessaire d’évaluer systématiquement les données utilisées pour alimenter les algorithmes. Et ce, en se concentrant sur les éléments de représentativité et de parti pris et en déterminant les origines et caractéristiques de ces données. Des outils existent aujourd’hui pour pré-traiter les data-sets par exemple, afin de les débiaiser. Il faut également identifier les partis pris dans les algorithmes de machine learning. C’est le travail que mène notamment le chercheur Rich Caruana, chez Microsoft. Il développe un système qui automatise la recherche de biais dans les algorithmes. Un travail d’autant plus important que ces derniers peuvent apparaître plus tard, au fur et à mesure de l’apprentissage. Il est donc essentiel de continuer à surveiller les algorithmes et leur évolution.
Lire aussi L’interview de Cécile Wendling sur l’IA et l’éthique
La formation des développeurs
Il est également primordial de former les développeurs. Ces derniers doivent comprendre comment un parti pris peut être introduit et comment il peut affecter les suggestions des algorithmes. Ils doivent concevoir des modèles d’IA capables d’apprendre au fil du temps sans développer de partis pris.
Pour cela, des outils et méthodologies existent. L’approche pour une classification juste peut par exemple aider un système IA à respecter la parité démographique pour sélectionner des candidats à l’embauche. Le kit de ressources de conception inclusive permet quant à lui de créer des produits adaptés au plus grand nombre. Les six principes de reconnaissance faciale représentent également une marche à suivre.
La participation d’experts
Un autre impératif est d’inclure des experts du domaine concerné dans le processus de conception et dans les décisions de déploiement. Cela peut, par exemple, être un spécialiste des crédits pour un algorithme sur l’attribution de prêts. Les décisions d’une intelligence artificielle devraient toujours être supervisées par un expert humain. Inclure de la diversité dans les équipes de développement peut aussi être un paramètre pour éviter les biais.
La mise à l’épreuve des solutions
Il faut enfin tester les solutions avant leur mise en ligne. C’est ce que réalise actuellement l’agence autrichienne pour l’emploi (AMS). En effet, l’institution compte déployer un outil de scoring des candidats. Le score évalue la probabilité qu’ils retrouvent un poste. Pour cela, il tient compte d’un grand nombre de critères incluant l’âge, le sexe, l’expérience etc. Le médiateur de la République s’est inquiété de voir cet outil mis en place. « Il faut mettre en garde contre un danger complètement imprévisible pour les groupes socialement défavorisés de la population. Le fait que les femmes semblent généralement devoir compter sur une classification négative discriminatoire est incroyable. Le bureau du médiateur épuisera tous les moyens, les procédures et les possibilités afin de lutter contre la stigmatisation des personnes qui ont besoin de soutien et d’attention, » a‑t-il annoncé au quotidien Der Standard.