Voorkomen van genderbias in wervingsalgoritmen

prévenir les biais de genre dans les algorithmes de recrutement

 

Met de opkomst van kunstmatige intelligentie in werving, maken veel bedrijven gebruik van automatiseringstools om hun processen te vereenvoudigen.

Hoewel deze algoritmen objectiviteit en snelheid beloven, zijn ze niet vrij van vooroordelen, met name op het gebied van gender. Deze vooroordelen kunnen leiden tot discriminerende praktijken, waardoor gekwalificeerde kandidaten worden uitgesloten van kansen vanwege hun geslacht.

Het is daarom van cruciaal belang dat HR-professionals en algoritmeontwikkelaars samenwerken om deze vooroordelen te identificeren, te voorkomen en te corrigeren. Dit artikel onderzoekt hoe genderbias in wervingsalgoritmen kan worden voorkomen.

De oorsprong van genderbias in algoritmen begrijpen

Genderbias in algoritmen komt voornamelijk voort uit de gegevens waarop deze systemen zijn getraind. Deze gegevens weerspiegelen vaak historische wervingspraktijken, waarin bepaalde beroepen door een specifiek geslacht werden gedomineerd.

Dit wordt bevestigd door een studie die is gepubliceerd ter gelegenheid van Internationale Vrouwendag in samenwerking tussen UNESCO, de OESO en de Inter-Amerikaanse Ontwikkelingsbank.

Als een algoritme bijvoorbeeld is getraind op eerdere wervingsgegevens waaruit blijkt dat de meeste ingehuurde ingenieurs mannen waren, kan het automatisch mannelijke profielen bevoordelen, zelfs als vrouwen even gekwalificeerd zijn.

Een opvallend voorbeeld van dit probleem is het geval van Amazon, dat zijn op AI gebaseerde wervingstool moest afschaffen nadat het ontdekte dat deze vrouwen discrimineerde voor technische functies.

Het algoritme had geleerd van historische gegevens waarin mannen oververtegenwoordigd waren in deze functies, waardoor het bestaande vooroordelen herhaalde in plaats van ze te corrigeren.

Methoden om genderbias te voorkomen

Er kunnen verschillende benaderingen worden gehanteerd om genderbias in wervingsalgoritmen te voorkomen.

a) Diversificatie van trainingsgegevens

Een van de meest effectieve strategieën is het diversifiëren van de gegevens die worden gebruikt om de algoritmen te trainen. Het is essentieel om gegevens op te nemen die de genderdiversiteit in de relevante rollen en sectoren weerspiegelen. Dit houdt in dat niet alleen rekening wordt gehouden met historisch ondervertegenwoordigde kandidaten, maar ook dat selectiecriteria worden herzien om ervoor te zorgen dat ze geen genderstereotypen in stand houden.
Het is ook belangrijk op te merken dat wanneer externe wervingstools worden gebruikt die niet zijn getraind op uw eigen gegevens, de ontwikkelaars van deze externe tools onbedoeld vooroordelen in de programmering kunnen hebben geïntroduceerd.

b) Regelmatige audits van algoritmen

Het is ook belangrijk om regelmatig audits van AI-systemen uit te voeren om mogelijke vooroordelen te identificeren. Deze audits testen de resultaten van de algoritmen op basis van gendercriteria om ervoor te zorgen dat ze geen groep bevoordelen boven een andere.
Bedrijven kunnen ook gebruikmaken van “peer testing”-tools om te controleren of de algoritmen evenwichtige resultaten opleveren.
Audits kunnen ook simulaties omvatten waarbij fictieve gegevens aan het algoritme worden voorgelegd om te testen hoe het kandidaten van verschillende geslachten behandelt. Dit helpt om vooroordelen op te sporen en te corrigeren voordat ze de echte wervingsprocessen beïnvloeden.

c) Transparantie van algoritmen

Transparantie is een belangrijk element bij het voorkomen van genderbias. Bedrijven moeten van de ontwikkelaars van algoritmen eisen dat zij duidelijke uitleg geven over hoe hun systemen werken.

Hoe transparanter het besluitvormingsproces van het algoritme, hoe gemakkelijker het is om te identificeren waar vooroordelen kunnen optreden.

Deze transparantie stelt HR-teams ook in staat om de criteria aan te passen en wijzigingen door te voeren als er genderverschillen worden gedetecteerd.

De rol van HR bij het beheren van vooroordelen

HR-afdelingen spelen een centrale rol bij het voorkomen van genderbias in algoritmen. Hun betrokkenheid bij het ontwerp en het toezicht op AI-tools is essentieel om ervoor te zorgen dat deze technologieën eerlijk en inclusief zijn.

HR-teams moeten samenwerken met technische teams om:

  • Selectiecriteria te definiëren die diversiteit bevorderen.
  • Ervoor te zorgen dat algoritmen regelmatig worden geaudit en aangepast.
  • Personeel op te leiden in het gebruik van deze technologieën, terwijl ze alert blijven op mogelijke vooroordelen.
    Het is ook van cruciaal belang om mensen bij dit proces te betrekken om regelmatig te controleren of het systeem correct functioneert!
    AI ondersteunt mensen, maar vervangt ze niet volledig, vooral niet bij taken die zo complex zijn als het werven van toekomstig talent en kandidaten.

Conclusie

Het voorkomen van genderbias in wervingsalgoritmen is een belangrijke uitdaging voor moderne bedrijven. Door gegevens te diversifiëren, regelmatige audits uit te voeren en te zorgen voor transparantie van de algoritmen, is het mogelijk om deze vooroordelen aanzienlijk te verminderen en ervoor te zorgen dat wervingsprocessen eerlijk en inclusief zijn.

HR-afdelingen hebben een cruciale rol om ervoor te zorgen dat AI-tools de principes van rechtvaardigheid respecteren en echte diversiteit binnen het bedrijf bevorderen.