Privacyverklaring

Waarom AI in hr alleen werkt als het eerlijk is

13 mei 2025
Tekst
Elien Verheye

De belofte van AI in hr klinkt veelbelovend: gepersonaliseerde leertrajecten, efficiëntere rekrutering en diepere inzichten in medewerkersbetrokkenheid en prestaties. Maar onder die glanzende laag schuilt een complex spanningsveld tussen innovatie en ethiek. De presentatie van Mariia Zameshina, CEO van Hexagone AI, legt dit feilloos bloot. Vooral de rol van bias - of vooringenomenheid - in AI-modellen voor hr is alarmerend en verdient meer aandacht.

De sluipmoordenaar in het sollicitatieproces

Bias ontstaat wanneer AI-modellen worden getraind op historische data die zelf al scheefgetrokken is. Een klassiek voorbeeld is de cv-selectietool van Amazon, dat vrouwen systematisch lager rangschikte omdat het getraind was op tien jaar aan vooral mannelijke sollicitaties. Dit illustreert hoe een onschuldige dataset kan leiden tot structurele discriminatie, zelfs zonder dat de ontwikkelaars dat bedoelen.

In sollicitatieprocedures wordt bias vaak afgedaan als een menselijk probleem, onbewuste vooroordelen van interviewers. Maar wanneer deze bias verankerd wordt in een algoritme dat duizenden cv’s beoordeelt, wordt het effect massaal en onzichtbaar. Zo wordt AI een vermeende objectieve beoordelaar die in feite bestaande ongelijkheden reproduceert en versterkt.

Bias is daarmee een dooddoener: het ondermijnt niet alleen de belofte van eerlijke selectie, maar creëert ook juridische en reputatierisico’s. Volgens de Europese AI-wetgeving zijn rekruteringssystemen zelfs geclassificeerd als “hoog risico”, wat verplichte bias-tests en transparantie-eisen met zich meebrengt.

Ethische AI begint bij data-anonimisering

Een tweede kernthema uit de presentatie is data-ethiek. Hr-data bevat gevoelige informatie gaande van salarissen en gezondheidsgegevens tot gedragsdata uit tools zoals Microsoft Teams. Onzorgvuldige omgang hiermee leidt tot schending van de GDPR-wetgeving, zoals bij Microsoft’s “Productivity Score”, waar gebruikersdata zonder voldoende anonimisering werd verwerkt.

Hexagone AI stelt daarom een ethisch verantwoorde aanpak voor: geavanceerde data-anonimisering gecombineerd met strikte bias-controle. Hun technologie maakt het mogelijk om multimodale hr-data zoals tekst, beeld en audio, zó te bewerken dat de privacy behouden blijft zonder dat de bruikbaarheid verloren gaat.

Eerlijke AI is geen nice-to-have, maar een must

De les is duidelijk: AI in hr werkt alleen als het transparant, eerlijk en privacybewust is. Bias is niet slechts een technisch probleem, maar een ethische valkuil met echte consequenties voor mensenlevens. Bedrijven die investeren in eerlijke, geanonimiseerde datasets én hun modellen kritisch blijven bevragen, zullen niet alleen voldoen aan wetgeving, maar ook winnen aan vertrouwen van sollicitanten én medewerkers.

Want wie mensen beoordeelt met algoritmes, moet extra menselijk zijn in zijn aanpak.