Corriger les biais véhiculés par l’IA : un enjeu d’éducation et de sensibilisation

Le 11 avril 2025 |
En 2024, une étude de l’UNESCO révélait* que de nombreux modèles d’IA proposaient des contenus comprenant des biais discriminants. Dans certains secteurs professionnels comme le recrutement, l’utilisation de solutions véhiculant ce type de biais renforce les stéréotypes préexistants et impacte directement les profils traités par l’outil. Pour les éviter, l’esprit critique, l’intelligence humaine, mais aussi l’éducation et la sensibilisation dès le plus jeune âge apparaissent comme des clés indispensables.

Exercer son esprit critique

Ces dernières années, la démocratisation de l’intelligence artificielle a ouvert de nombreuses possibilités au grand public comme aux professionnels. Mais comme pour toute révolution technologique, l’adoption de cette innovation nécessite de prendre le recul suffisant pour comprendre son mécanisme. En effet, le fonctionnement des IA génératives repose majoritairement sur le traitement des informations disponibles sur le web. Or, ces données ne sont pas toutes exactes, et un grand nombre d’entre elles comportent des mentions sexistes, racistes, homophobes ou discriminantes au sens large. Si la base de données utilisée pour paramétrer l’outil est biaisée, les résultats proposés le seront fatalement.

« Dans ce contexte, il est plus que jamais nécessaire que chacun forge et face usage de son esprit critique ! », rappelle Sylvain Fréon, Associé, membre du Comité exécutif de Forvis Mazars en France. A défaut, le manque de mise en perspective risque de banaliser certains stéréotypes. « S’informer sans entraîner son sens du discernement ni son objectivité, c’est tomber dans un mécanisme d’auto-conviction et se conforter dans ses propres opinions. Il est donc essentiel de ne pas se cantonner à l’IA comme seul moyen d’accès à la connaissance », souligne Virginie Chauvin, Associée, membre du Comité Exécutif de Forvis Mazars en France.

 

Encadrement et vigilance : le rôle de l’intervention humaine

Au niveau réglementaire, l’IA Act (règlement européen sur l’intelligence artificielle) impose un cadre juridique depuis 2024. Dans les domaines considérés « à haut risque » par l’IA Act, comme la santé, l’éducation, le recrutement ou encore le maintien de l’ordre, l’utilisation d’outils intégrant des biais discriminants peut effectivement avoir des conséquences importantes : sélection de CV sur des critères non-objectifs, systèmes de reconnaissance faciale non adaptés, etc. Pour éviter les dérives et en surveiller les impacts potentiels, les entreprises ayant recours à des systèmes d’IA sont tenues de les recenser et de mettre en place des communications claires à ce sujet. « Sans ce type de cadre, les citoyens pourront plus difficilement être protégés », explique Sylvain Fréon.

En parallèle de ces actions, la vigilance et la vérification humaine sont des clés fondamentales à exploiter en aval. « Seul l’engagement des entreprises à maintenir une vigilance humaine suffisante peut leur garantir d’éviter de commettre des écueils discriminants ! Ce regard est indispensable pour traiter la matière brute fournie par les systèmes d’IA. Il incombe aux entreprises de former leurs collaborateurs aux risques existants et aux leviers à actionner pour les atténuer », analyse Virginie Chauvin. « Depuis fin 2024, l’Académie Digitale de Forvis Mazars répond à ces nouveaux enjeux en formant les collaborateurs à appliquer un regard critique sur les outils d’IA que nous utilisons au quotidien », ajoute Sylvain Fréon.

 

L’IA, un révélateur de valeurs en entreprise

Si les résultats générés par nos modèles d’IA et les données qui les alimentent reflètent les stéréotypes existants au sein de la société, cette logique s’applique également aux entreprises. Concrètement, si une organisation possède des valeurs fortes, elles se reflèteront dans la façon dont elle choisira d’entraîner ses systèmes d’IA. A l’inverse, ces outils feront ressortir les défauts dont elle souffre. « Les systèmes d’IA sont de véritables révélateurs du fonctionnement d’une société. En vue de leur mise en place dans les entreprises, il est d’autant plus important pour elles de maintenir leurs principes de tolérance et d’ouverture », précise Sylvain Fréon.

En ce sens, l’intelligence artificielle peut aussi fonctionner comme un levier de promotion de l’égalité : systèmes pointant des écarts de salaire, détectant des contenus haineux en ligne, etc. « L’IA n’est qu’un moyen technique mis à notre disposition, à nous de définir ce que nous souhaitons en faire ! Utilisés à bon escient, ces systèmes peuvent nous permettre de gagner en profondeur dans nos analyses », commente Virginie Chauvin.

 

Eduquer et sensibiliser dès le plus jeune âge

Certains biais de discrimination liés aux systèmes d’intelligence artificielle, et notamment les stéréotypes sexistes, peuvent être présents dès leur conception. En effet, les profils impliqués dans la programmation et l’entraînement de ces systèmes restent majoritairement masculins. L’intégration de ces outils dans les organisations en étant encore à ses balbutiements, les profils privilégiés lors du recrutement sont ceux qui ont la meilleure maîtrise du sujet et proviennent souvent des mêmes types d’écoles. Or, la proportion de femmes aujourd’hui comptabilisée dans les écoles d’ingénieur stagne depuis une dizaine d’années aux environs de 20 %.

« Il est urgent d’intégrer cet enjeu d’éducation dès l’entrée en primaire, car c’est à ce stade que la perception de ces sujets par les élèves se joue », explique Virginie Chauvin. De nombreuses études prouvent effectivement que la façon dont sont enseignées les mathématiques ou les matières scientifiques peut avoir un impact important dans leurs choix d’orientation. « En suivant cette logique, des générations entières de futurs jeunes actifs seront conditionnées par la façon dont nous choisirons de nous saisir de ce sujet ! », souligne-t-elle. De leur côté, les jeunes parents ont également un rôle central à jouer dans la façon dont ils valorisent ces disciplines devant leurs filles et leurs garçons.

 

Alors que l’implantation des outils d’intelligence artificielle se généralise, l’esprit critique, l’ouverture et la remise en question des informations apparaissent comme des clés fondamentales pour en faire un usage responsable et éviter de perpétuer des biais discriminants. Parallèlement, l’éducation, la formation et la sensibilisation sont des enjeux à prendre en compte dès le plus jeune âge afin de diversifier les profils des actifs de demain dans ce secteur.  

 

*Source : Unesco.org

Auteur