Neem contact op

Ben je een recruiter, (team) manager, HR-manager of op een andere manier actief in het aannemen van mensen? Dan ben je tijdens een sollicitatieprocedure hoogstwaarschijnlijk bezig met het leren kennen van een kandidaat en het beoordelen van geschiktheid.

In deze functies ben ook jij (net als alle andere mensen) sterk – en vaak onbewust – biased. Zo zou je de ene groep mensen leuker, slimmer, creatiever en geschikter vinden dan een groep die bijvoorbeeld niet op je lijkt. Het is vaak best lastig om bepaalde vooroordelen te bannen uit ons brein, maar het is niet heel lastig om een bepaalde bewustwording te creëren bij jezelf, je team of zelfs op organisatieniveau.

De mensen die je aanneemt en onderdeel gaan uitmaken van je team spiegelen de keuzes die je maakt voor bepaalde groepen. Bij weinig diversiteit in een team kan het dus zomaar zijn dat je bias ervoor zorgt dat je de voorkeur geeft aan een specifieke groep. Nu al ons huidig gedrag wordt gemonitord en verwerkt in data (denk aan al je social media-activiteiten of je google zoektochten) elke keer als we een telefoon gebruiken, zijn patronen of algoritmes te ontdekken die vrijwel zeker ons gedrag van de dag erna voorspellen. Een google search naar een elektronisch apparaat en je wordt ermee doodgegooid. In de wereld van werven en selecteren kan het dus ook een duidelijk patroon worden hoe bevooroordeeld en subjectief wij mensen beoordelen. Als je je hier bewust van bent, kun je dus je gedrag erop aanpassen.

Wat kun je doen?

1. Ga op zoek naar je eigen diversiteit of identiteit

Wat zijn je vooroordelen en waarom? Wat voor diversiteitskenmerken maken jou de persoon die je vandaag bent? Wat waardeer je in de ”vreemde” ander en waarom? Wat is nu echt belangrijk voor de functie en hoe kan een kandidaat met diversiteitskenmerken daar een positieve bijdrage aan leveren?

2. Wees kritisch op de vragen die je stelt

Als je een sollicitatiegesprek voorbereidt, zorg dan dat je vragen niet voorkomen uit je vooroordelen. Hou ze relevant voor de functie en de organisatie. Juist de dingen die daarvoor niet relevant zijn – bijvoorbeeld waar ‘echt’ vandaan komt – hebben de neiging tot een negatief uitkomst te leiden. Meestal voeren we het liefst ongestructureerde interviews en willen we – als het enigszins kan – wegblijven bij de vaste kaders waar je geen bewegingsvrijheid meer voelt voor een eigen sausje. Da kletst toch net iets makkelijker. Maar probeer toch gestructureerde gesprekken te voeren. Onderzoek heeft laten zien dat je je vooroordelen het best kunt verkleinen door aan iedere kandidaat dezelfde vragen te stellen die dus relevant zijn voor de functie. Richt je niet op kenmerken zoals huidskleur, accent, hoe iemand zijn of haar haren heeft gevlochten, kandidaat met hoofddoek of andere religieuze kenmerken of gedragingen.

3. Hanteer objectieve criteria

Richt je aannamebeleid of diversiteit en inclusiviteit. Neem je alleen mensen aan die op je lijken, met dezelfde achtergrond, leeftijd, hetzelfde geslacht of met andere vergelijkbare karakteristieken en eigenschappen? Dit is vaak een teken van confirmation bias: het opzoek gaan naar informatie die je gevoel of overtuigingen kracht bijzetten. Een inclusief (HRM) beleid heeft een positief effect op de organisatie.

Over algoritmes gesproken

In recruitment technologieën zoals online adverteren, leuke en creatieve videosollicitaties kan gebruik worden gemaakt van algoritmes die een selectie maken van geschikte kandidaten. Deze algoritmes kunnen kandidaten een score geven die leidt tot een ‘ranking’ van de best geschikte kandidaten. Dit is gericht op het bouwen van systemen die van de verwerkte data kunnen leren of deze data gebruiken om bijvoorbeeld processen makkelijker, sneller of soepeler te laten verlopen. Als hier gebruik van wordt gemaakt dan bestaat er een aardige kans dat deze vorm van kunstmatige intelligentie leidt tot bias.

Slimme software, die op steeds meer plekken ingezet wordt om handmatige selectie, dus intensief mensenwerk, te kunnen vervangen. De vraag is: kan de computer weloverwogen keuzes maken?

Neem nu de Amerikaanse Joy Buolamwini, onderzoeker bij het MIT Media Lab. Ze gaat voor een project aan de slag gaat met gezicht herkenning software. Daar gebeurt er iets vreemds: haar gezicht wordt maar op één manier herkend. Buolamwini is een zwarte vrouw, maar wanneer ze een wit masker opzet, ziet het systeem nu wel een gezicht.

Joy Buolamwini, onderzoeker bij het MIT Media Lab.

Buolamwini gaat de software van verschillende grote bedrijven verder testen en de resultaten zijn shocking! De gezichten van mannen worden veel beter herkend dan die van vrouwen en hoe donkerder je huid, hoe slechter de gezichtsherkenning scoort. Dat heeft enorme gevolgen, want gezichtsherkenning wordt steeds meer gebruikt door bedrijven en overheden. Als jouw gezicht beoordeeld moet worden op zo een systeem en het systeem kan dat niet heel goed, dan is de kans op misidentificatie of uitsluiting heel groot. Wil je hier meer over weten, check dan de film ‘Coded Bias’. Daar volgen we Buolamwini vanaf haar de kick-off van haar project tot aan een hoorzitting in het Amerikaanse congres over discriminatie door algoritmen. Een van haar belangrijkste punten: de biases zijn, wellicht onbewust, gecodeerd door vaak witte mannen (de meeste programmeurs en softwareontwikkelaars) Als deze mannen ontwerp- en trainingsmateriaal moeten gebruiken voor hun algoritmen, gebruiken zij voornamelijk foto’s van mensen die op hen lijken. Met als resultaat een software dat heel goed heeft geleerd om witte mannen te herkennen, maar moeite heeft met iedereen die niet onder dat criterium valt.

Gaat jouw organisatie goed om met verschillen tussen werknemers? Voelt iedereen zich echt thuis? Werknemers met een andere culturele achtergrond, mannen en vrouwen, jongeren en ouderen, LHTBI’ers, mensen met een arbeidsbeperking en mensen met een psychische aandoening. Zijn zij op hun gemak in jullie organisatie?