Avec l’essor de l’intelligence artificielle dans le recrutement, de nombreuses entreprises adoptent des outils d’automatisation pour simplifier leurs processus.
Cependant, bien que ces algorithmes promettent objectivité et rapidité, ils ne sont pas exempts de biais, notamment ceux liés au genre. Ces biais peuvent conduire à des pratiques discriminatoires, privant des candidats qualifiés d’opportunités en raison de leur sexe.
Il est donc crucial que les professionnels des ressources humaines et les développeurs d’algorithmes travaillent conjointement pour identifier, prévenir et corriger ces biais. Cet article examine comment prévenir les biais de genre dans les algorithmes de recrutement.
Comprendre l’origine des biais de genre dans les algorithmes
Les biais de genre dans les algorithmes proviennent principalement des données sur lesquelles ces systèmes sont formés. Ces données reflètent souvent des pratiques historiques de recrutement, où certaines professions étaient dominées par un sexe particulier.
C’est ce que confirme une étude publiée à l’occasion de la Journée internationale de la femme dans le cadre d’une collaboration entre l’UNESCO, l’OCDE et la Banque interaméricaine de développement.
Par exemple, si un algorithme est formé à partir de données de recrutement passées qui montrent que la majorité des ingénieurs embauchés étaient des hommes, il pourrait automatiquement favoriser des profils masculins, même si les femmes sont tout aussi qualifiées.
Un exemple frappant de cette problématique est le cas d’Amazon, qui a dû abandonner son outil de recrutement basé sur l’IA après avoir découvert qu’il discriminait les femmes pour les postes techniques. L’algorithme avait appris à partir de données historiques où les hommes étaient surreprésentés dans ces postes, reproduisant ainsi les biais existants plutôt que de les corriger .
Méthodes pour prévenir les biais de genre
Pour prévenir les biais de genre dans les algorithmes de recrutement, plusieurs approches peuvent être adoptées.
a) Diversification des données d’entraînement
L’une des stratégies les plus efficaces consiste à diversifier les données utilisées pour entraîner les algorithmes. Il est essentiel d’inclure des données qui reflètent la diversité des genres dans les postes et les secteurs concernés. Cela implique non seulement de prendre en compte les candidats qui ont été historiquement sous-représentés, mais aussi de réviser les critères de sélection pour s’assurer qu’ils ne perpétuent pas les stéréotypes de genre.
Nous attirons également votre attention sur le fait que si vous utilisez des outils de recrutement externes ou qui ne sont pas entraînés sur vos données propres, les programmeurs de ces outils externes peuvent très bien, sans le vouloir avoir introduit des biais dans la programmation…
b) Audits réguliers des algorithmes
Il est également important de réaliser des audits réguliers des systèmes d’IA pour identifier les biais potentiels. Ces audits permettent de tester les résultats des algorithmes en fonction de critères de genre, afin de s’assurer qu’ils ne favorisent pas un groupe plus qu’un autre.
Les entreprises peuvent également utiliser des outils de « testing par des pairs » pour vérifier si les algorithmes produisent des résultats équilibrés.
Les audits peuvent aussi inclure des simulations où des données fictives sont soumises à l’algorithme pour tester la manière dont il traite des candidats de différents genres. Cela permet de détecter et de corriger des biais avant qu’ils n’affectent les véritables processus de recrutement.
c) Transparence des algorithmes
La transparence est un élément clé pour prévenir les biais de genre. Les entreprises doivent exiger des développeurs d’algorithmes qu’ils fournissent des explications claires sur le fonctionnement des systèmes.
Plus les processus de prise de décision de l’algorithme sont transparents, plus il est facile de repérer les zones où des biais peuvent survenir.
Cette transparence permet également aux équipes RH d’ajuster les critères et d’apporter des modifications si des disparités de genre sont détectées.
L’implication des RH dans la gestion des biais
Les départements RH jouent un rôle central dans la prévention des biais de genre dans les algorithmes. Leur implication dans le processus de conception et de supervision des outils IA est essentielle pour garantir que ces technologies soient équitables et inclusives.
Les RH doivent collaborer avec les équipes techniques pour :
- Définir des critères de sélection qui encouragent la diversité.
- S’assurer que les algorithmes sont régulièrement audités et ajustés.
- Former le personnel à l’utilisation de ces technologies tout en restant vigilant sur les possibles biais.
Il est également, bien sûr, primordial d’inclure des personnes dans ce processus afin de vérifier régulièrement que le système fonctionne correctement !!!
L’IA aide l’humain, il ne le remplace pas complètement.
Surtout pas dans des tâches aussi ardues que le recrutement de futurs talents et candidats.
Conclusion
La prévention des biais de genre dans les algorithmes de recrutement est un enjeu majeur pour les entreprises modernes. En diversifiant les données, en réalisant des audits réguliers et en assurant la transparence des algorithmes, il est possible de réduire considérablement ces biais et de garantir que les processus de recrutement soient justes et inclusifs.
Les départements RH ont un rôle essentiel à jouer pour veiller à ce que les outils d’IA respectent les principes d’équité et favorisent une réelle diversité dans l’entreprise.