NL
.
Racisme bestrijd je niet met discriminatie
Racisme bestrijd je niet met discriminatie
Gezichtsherkenning benadeelt mensen van kleur.

In 1Vandaag pleitte Marjan Olffers, hoogleraar Sport & Recht, voor de introductie van gezichtsherkenningssystemen in voetbalstadions. Aanleiding zijn de racistische leuzen die geroepen werden bij de wedstrijd FC Den Bosch - Excelsior.

Er is geen plaats voor racisme of discriminatie. Niet in de samenleving, niet op straat en niet in de stadions. Dat racisme moet worden bestreden staat dus buiten kijf. Maar racisme los je niet op met discriminerende technologie.

Gezichtsherkenningstechnologie is zulke technologie. Uit onderzoek van het Massachusetts Institute of Technology en de Stanford University naar verschillende gezichtsherkenningssystemen blijkt dat het foutpercentage bij vrouwen van kleur varieert van 20,8 tot 46,8, terwijl deze bij witte mannen niet groter is dan 0,8. Dat is een enorm groot verschil.

Dit verschil zorgt ervoor dat mensen van kleur een groter risico lopen om onterecht door het systeem geïdentificeerd te worden als de verdachte die in beeld is. Het gebruik van deze technologie legt het risico op fouten dus juist onevenredig neer bij mensen van kleur. Daarom is het geen goed middel in de strijd tegen racisme.

Dat dit verschil in foutpercentage zo groot is komt doordat de technologie is getraind op basis van datasets met vooral witte mannen. In een poging van Google om deze tekortkoming op te lossen werden uitzendkrachten op pad gestuurd om zoveel mogelijk scans van gezichten te verzamelen.

Zij werden geïnstrueerd zich vooral te richten op mensen van kleur, mensen die makkelijker over te halen zouden zijn om mee te doen voor een 5 dollar cadeaukaart en mensen met weinig toegang tot de media, waaronder dakloze mensen. Het is onethisch en onacceptabel om technologische bias te bestrijden door kwetsbare groepen te targeten, en deze aanpak lost dan ook het discriminatieprobleem niet op.

Maar zelfs als deze bias uit de technologie gehaald wordt, zou gezichtsherkenningstechnologie niet ingezet moeten worden. We moeten ons ervan bewust zijn dat de risico's en de inbreuk op onze rechten en vrijheden die gepaard gaan met de inzet van dergelijke surveillancetechnologie ook onevenredig over de samenleving zijn verdeeld. Doordat kwetsbare groepen hier meer last van hebben, zal de inzet van dergelijke technologie geen oplossing vormen voor het racismeprobleem.

De boodschap moge duidelijk zijn: racisme los je niet op met discriminerende technologie.
Terug