Raciale vooroordelen ontstaan vroeger dan werd gedacht

Vanaf het moment dat baby’s drie maanden oud zijn, zien ze het verschil tussen huidskleuren. Wie dacht dat de figuurlijke kleurenblindheid nog een tijdje stand houdt, heeft het mis. Uit twee recente onderzoeken blijkt dat baby’s al vanaf hun zesde levensmaand de voorkeur geven aan mensen van hun eigen etnische achtergrond.

Het is gangbaar om te denken dat raciale vooroordelen zich ongeveer vanaf het tweede levensjaar vormen. De verstandelijke ontwikkeling gaat bij peuters en kleuters heel snel, daarom delen ze de wereld op in vereenvoudigde categorieën. Hierbij kunnen  vooroordelen makkelijk ontstaan, bijvoorbeeld dat mensen met dezelfde huidskleur ook op andere dimensies gelijkwaardig zijn.

Beeld uit de documentaire ‘Wit is ook een kleur‘.

Een goede illustratie van dergelijke raciale vooroordelen toonde Sunny Bergman in haar documentaire Wit is ook een kleur. Ze voert het zogenoemde poppenexperiment uit bij kinderen tussen de 4 en 7 jaar. De kinderen moeten bij vragen als “Wie is het slimste?” kiezen tussen een witte en zwarte pop.

Hierbij blijken kinderen ongeacht hun eigen kleur de witte pop stelselmatig boven de zwarte pop te plaatsen. Een jongetje legt al wijzend naar de donkere pop uit: “Dit is bijvoorbeeld een indiaan. Een donker blut mens, is een beetje dom. Hij weet eigenlijk niet wat de mensen willen en zo.” Dan pakt hij de witte pop en ligt verder toe: “Dit is een Amerikaan en die weet alles.”

Na zes maanden al bevooroordeeld

Twee recente onderzoeken naar vooroordelen bij baby’s, geleid door Kang Lee, professor aan de Universiteit van Toronto, bevestigen het door Bergman geschetste beeld. Uit het eerste onderzoek, bij 193 Chinese baby’s tussen de drie en negen maanden, blijkt dat baby’s vanaf zes maanden oud gezichten van mensen met dezelfde etnische achtergrond associëren met blije muziek en met een andere achtergrond met droevige muziek. Uit het tweede onderzoek concluderen de wetenschappers dat baby’s tussen de zes en negen maanden meer geneigd zijn te leren van een volwassene met dezelfde huidskleur.

Volgens de onderzoekers werpen hun bevindingen nieuw licht op de oorzaak van raciale vooroordelen. Naiqi Xiao, betrokken bij beide studies, legt uit: “Als we bedenken waarom iemand racistisch is, denken we vaak aan een mogelijke negatieve ervaring die hij of zij met iemand van een andere afkomst heeft gehad. Maar deze bevindingen suggereren dat raciale vooringenomenheid ontstaat zonder enige ervaring met individuen van een andere achtergrond.”

Gebrek aan contacten

Professor Lee trekt deze uitleg nog wat verder en meent dat het ook goed mogelijk is dat de vooroordelen juist ontstaan door een gebrek aan verschillende contacten op jonge leeftijd. De participanten aan zijn onderzoek hadden nauwelijks tot geen contact gehad met mensen met een andere etniciteit. Volgens Lee kan het vroeg in contact brengen van kinderen met mensen van verschillende achtergronden mogelijk voorkomen dat iemand zich later racistisch gaat gedragen.

Judi Mesman, die als eerste in Nederland wetenschappelijk onderzoek doet naar vooroordelen bij jonge kinderen, meent ook dat dit kan helpen. Volgens haar is het cruciaal dat het contact tussen bevolkingsgroepen onder goede omstandigheden plaatsvindt. “Kinderen wier ouders vrienden hebben met een andere huidskleur, hebben minder negatieve meningen over zo’n groep. De boodschap die kinderen meekrijgen is dan: mensen met een andere huidskleur kunnen ook bij mij horen.”

Racistische kunstmatige intelligentie

Wereldwijd wordt er niet alleen gediscrimineerd op huidskleur, maar ook op onder andere religie, geslacht en seksuele geaardheid. Het is nu zelfs zover dat we onze kunstmatige intelligentie hebben aangeleerd racistisch te zijn. Google op ‘baby’ in afbeeldingen en er zullen bijna alleen maar blanke zuigelingen in het zoekresultaat verschijnen.

Uit een vorige week gepubliceerd onderzoek blijkt ook dat computers seksistisch stereotyperen. Net als mensen maakt kunstmatige intelligentie gebruik van stereotyperingen. Een dokter wordt bijvoorbeeld sneller met een man geassocieerd  en verpleger met een vrouw.

Veel software, zoals Google’s Interface en Apple’s Siri, maakt gebruik van machine learning algorithm. Hierbij ‘leert’ de computer van voorbeelden, zonder expliciet geprogrammeerd te worden. Het is dan dus niet mogelijk het programma bepaalde dingen – zoals kwalijke vooroordelen – niet over te laten nemen.

Het stuk gaat verder onder deze link.

Computers zijn meer bevooroordeeld (en dus menselijker) dan je denkt

Volgens Emiel van Miltenburg, PhD aan de VU, is het een goed begin om de dataset te balanceren met beelden uit andere landen dan de Verenigde Staten. Nou kunnen we ons richten op het gebalanceerd opvoeden van kunstmatige intelligentie, uiteindelijk hebben computers geen goed of slecht karakter. Ze nemen onze vooroordelen gewoon over, dus het is een stuk essentiëler daarmee te beginnen.