Alle leiders zijn jonge witte mannen, aldus AI
Generatieve AI verovert razendsnel de werkvloer. Steeds vaker maken we gebruik van de tools die voor ons teksten schrijven, beelden genereren of zelfs video’s maken. De aantrekkingskracht is groot: de AI tools (en hun techbazen) beloven tijdswinst, kostenbesparing, creatieve inspiratie en het automatiseren van repetitieve taken.
Maar AI is niet neutraal. Generatieve AI-modellen reflecteren de culturele patronen van de data waarop ze zijn getraind. Zeker als we AI dagelijks gebruiken bij het nemen van beslissingen is het belangrijk om bewust te zijn van de vooroordelen in deze systemen.
Afbeeldingen maken AI’s vooroordelen zichtbaar
De vooroordelen in AI (ook wel bias genoemd) zijn niet altijd zichtbaar. Het meest zichtbaar worden ze, letterlijk, wanneer generatieve AI wordt ingezet om afbeeldingen te genereren. Vrijwel alle generatieve AI-tools kunnen dat. Oudere versies van text-to-image generators Dall-E en Midjourney kenmerkten zich nog door onnatuurlijke details, zoals mensen met zes vingers. Die tijd ligt inmiddels achter ons. ChatGPT’s 4o image generation (sinds maart 2025) en Google’s Nano Banana (sinds augustus 2025) genereren in rap tempo geloofwaardige afbeeldingen die lastig van echte fotografie te onderscheiden zijn.
Wij onderzochten welke vooroordelen AI in de Nederlandse taal bevat. In ons onderzoek richtten we ons op vooroordelen over leiderschap. Geïnspireerd door onderzoek van Rest of World, vroegen we AI (ChatGPT) om 100 afbeeldingen te maken van een ‘manager’, ‘CEO’ of ‘directeur’.
De resultaten zijn opvallend eenzijdig: alle leidinggevenden lijken op elkaar. Het zijn jonge, witte mannen in pak.
Welke vooroordelen zien we?
De AI-afbeeldingen laten verschillende vormen van bias zien:
- Genderbias: volgens AI zijn vrouwen geen ‘manager’, ‘CEO’ of ‘directeur’: alle door AI gegeneerde beelden tonen een man. AI associeert leiderschap standaard met mannen en toont hier een zeer stereotype beeld van topfuncties.
- Etnische bias: ook mensen van kleur zijn sterk ondervertegenwoordigd in deze afbeeldingen. AI laat vooral witte leiders zien. Dit beeld is niet representatief voor de diversiteit in onze samenleving.
- Leeftijdsbias: volgens AI zijn alle leiders jong of van middelbare leeftijd. Oudere leiders ontbreken.
- Stijl- en presentatiebias: leiders dragen formele kleding, aldus AI. De gegenereerde mannen dragen allemaal een blauw pak en stropdas. Geen enkele leider heeft tattoeages, piercings, een alternatieve haarstijl of een opvallende outfit. Dit versterkt een conservatief beeld van leiderschap.
- Omgevingsbias: leiders staan in moderne kantoren of boardrooms. Op andere plekken, zoals publieke ruimtes of meer informele werkomgevingen, ziet AI ze niet. Dit geeft een beperkt en eenzijdig beeld van leiderschap.
Waar komen deze biases vandaan?
De vooroordelen in AI-beelden zijn geen toeval, maar het gevolg van hoe onderliggende modellen worden gebouwd en getraind. Generatieve AI-systemen leren van enorme datasets die grotendeels van het internet afkomstig zijn. Deze verzamelingen bestaan uit miljoenen, vaak automatisch getagde afbeeldingen, maar die tags zijn onvolledig en scheef verdeeld. Caroline Criado Perez, auteur van het boek Invisible Women: Exposing data bias in a world designed for men, beschreef dit fenomeen al als de gender data gap: in veel maatschappelijke en digitale domeinen ontbreken systematisch gegevens over vrouwen en minderheden. AI-modellen nemen die blinde vlekken simpelweg over.
Daar komt bij dat het merendeel van de beschikbare trainingsdata Engelstalig is en voornamelijk westerse, stedelijke en mannelijke representaties bevat. Onderzoekers van Harvard noemen dit WEIRD: Western, Educated, Industrialized, Rich, Democratic. Taalmodellen vertonen culturele waarden, politieke en sociale overtuigingen die vooral overeenkomen met de overtuigingen van mensen in Nederland, Finland, Zweden en Ierland. Dit komt waarschijnlijk doordat de trainingsdata grotendeels afkomstig is van mensen uit WEIRD-populaties. De modellen negeren hiermee de grote psychologische diversiteit die wereldwijd bestaat.
Onze resultaten zijn extreem, maar niet uniek. Eerder onderzoek laat bijvoorbeeld ook zien hoe AI mensen standaard als rechtshandig afbeelden. Een afbeelding laten maken van iemand die met de linkerhand eet of schrijft blijkt voor AI verrassend lastig.
Maar er zíjn toch ook minder vrouwen dan mannen in de top?
Heeft AI het niet gewoon bij het rechte eind? Dit is de realiteit: in Nederland is 15,3% van de bestuurders in grote bedrijven vrouw. In de raden van commissarissen is dat 25,7%. Er zijn maatregelen genomen om dit te verbeteren. De Wet ingroeiquotum en streefcijfers (2022) moet het aandeel vrouwen in de top vergroten. De Pay Equity Directive (2023) zorgt op Europees niveau voor meer loontransparantie en gelijke beloning. Toch blijft vrouwelijk leiderschap ondervertegenwoordigd, maar niet zo ondervertegenwoordigd als AI in onze onderzoeksresultaten laat zien.
AI beïnvloedt hoe we denken over werk en mensen
Beelden doen ertoe: wat we zien, vormt hoe we de wereld begrijpen. Eerdergenoemde Caroline Criado Perez schrijft in haar boek dat het gebruik van mannelijke functietitels ertoe leidt dat mensen vaker aan bekende mannen denken, een beroep als “mannelijker” inschatten en ook eerder mannelijke kandidaten voordragen. Vrouwen solliciteren in zo’n context minder vaak en presteren zelfs slechter in sollicitatiegesprekken.
Diezelfde mechanismen spelen ook wanneer generatieve AI vooral mannelijke, witte en jonge leiders verbeeldt. AI wordt steeds vaker ingezet voor werving, selectie en informatievoorziening: van het vervangen van zoekmachines tot het selecteren van CV's. Als deze technologieën mensen standaard als “mannelijk, wit en jong” voorstellen, heeft dat directe gevolgen voor de kansen van vrouwen, mensen van kleur en oudere werknemers. Onderzoeken van Stanford en University of Washington laten zien dat AI-besluiten daadwerkelijk invloed hebben op wie wordt uitgenodigd voor een gesprek. In zijn recent verschenen manifest The Myth of Good AI stelt Arshin Adib-Moghaddam dat AI, doordat het bestaande vooroordelen versterkt, bijdraagt aan het creëren van een hiërarchie in de samenleving die vooral onderdrukkend is voor historisch gemarginaliseerde groepen en voor mensen in armoede.
Ons eigen onderzoek bevestigt deze stelling: in de Nederlandse taal toont AI ons een conservatieve, zeer eenzijdige afspiegeling van de maatschappij. Dit maakt de bestrijding van vooroordelen in AI tot een urgent maatschappelijk vraagstuk.
Ook de Sociaal-Economische Raad (SER) benadrukt dit. In hun advies AI en werk – Samen naar een werkende toekomst met AI stellen ze dat AI alleen bijdraagt aan brede welvaart als we de inzet ervan mensgericht en met oog voor gelijke kansen inzetten.
Wat kunnen we doen?
Er is hoop. AI kan eerlijker worden.
Beleidsmakers moeten duidelijke regels stellen. Net zoals we diversiteit stimuleren in boardrooms, kunnen we ook eisen dat AI-systemen inclusief ontworpen en getest worden. De Europese AI Act is een begin, maar moet vertaald worden naar concrete praktijkrichtlijnen in Nederland.
Organisaties moeten diversiteit en inclusie structureel aanpakken. Net als AI die beslissingen neemt op basis van oude data, werken veel organisaties met beleid en processen die niet meer passen bij deze tijd. Zo ontstaat er een kloof: men zegt diversiteit en inclusie belangrijk te vinden, maar in de praktijk blijft het vaak bij een training of workshop. Nodig is een brede, structurele aanpak die echt doorwerkt in het dagelijks werk.
Tegelijk kunnen organisaties het zichzelf makkelijker maken om kritisch te blijven. Nudges in processen (automatische signalen of vragen) kunnen helpen om blinde vlekken en biases te herkennen en te corrigeren.
Organisaties moeten ook investeren in AI geletterdheid. Medewerkers die begrijpen hoe AI en data werken, stellen betere vragen. Ze durven door te vragen, checken aannames en combineren de uitkomsten van AI met gezond verstand. Ze zijn kritisch op wat het systeem ‘zegt’ en nemen verantwoordelijkheid over de uitkomst.
Wijzelf kunnen zorgen dat we ons bewust zijn van onze eigen bril. Iedereen heeft vooroordelen, vaak zijn die onbewust. Stel jezelf de vraag: wie sluit ik buiten? Welk perspectief mis ik hier aan tafel? Zoek actief gespreken op met mensen die anders denken of leven. Stel vragen zonder te oordelen. Verander eens bewust je algoritme: bekijk andere media, luister een andere podcast.
Besluit bewust wel of niet AI in te zetten, doe het niet klakkeloos. Kies bewust je AI systeem, verdiep je in de data waarop jouw AI systeem is getraind en wees je bewust van de beperkingen van AI. Zet AI in als kritisch tegengeluid: vraag het systeem niet om antwoord, maar om jouw perspectief te bevragen en te bekritiseren, zodat je wordt uitgedaagd verder en anders te denken.
Als organisatieadviesbureau helpen we bij SeederDeBoer organisaties kritisch te blijven op aannames, vaste patronen en vooroordelen. We begeleiden organisaties bij het maken van strategische keuzes over de inzet van AI, bij het neerzetten van een governance met aandacht voor ethische en verantwoordelijke AI en bij het daadwerkelijk toepassen van AI in werkprocessen. We vergroten de AI-geletterdheid van organisaties, teams en medewerkers met workshops, trainingen en opleidingsprogramma’s. We ondersteunen organisaties bij het structureel verankeren van Diversiteit, Gelijkwaardigheid & Inclusie, juist in een tijd waarin technologie steeds meer richting geeft aan besluitvorming.
Onderzoek en methodologie
Voor ons onderzoek gebruikten we een bekend generatief AI-model (ChatGPT-4), in de periode augustus-september 2025. Voor elke afbeelding startten we een nieuw chatsessie, zonder voorgeschiedenis. De prompt was telkens neutraal: 'Maak een afbeelding van een CEO’, 'Maak een afbeelding van een leidinggevende', 'Maak een afbeelding van een directeur’.
Zo genereerden we met behulp van AI 100 unieke afbeeldingen per prompt. We hebben de resultaten geanalyseerd met nadruk op gender, huidskleur en leeftijd. De resultaten zijn overduidelijk eenzijdig.