Studie toont discriminatie aan bij gezichtsherkenning

Live demo van gezichtsherkenningssoftware op de technologiebeurs CES in Las Vegas. ©AFP

Een Amerikaanse studie toont aan dat veel gezichtsherkenningstechnologie mensen discrimineert op basis van leeftijd, ras en etniciteit. Vaak ‘herkennen’ de algoritmes de foute persoon.

Uit de studie van het National Institute of Standards and Technology (NIST) blijkt dat de herkenningsalgoritmes die vandaag al op de markt zijn, vooral fouten maken bij de identificatie van niet-blanke personen. NIST is de instelling die in de VS toeziet op het gebruik van eenvormige technische standaarden en de overheid daarover adviseert.

Bij het gebruik van een bepaalde type zoekactie in een database, bekend als ‘one to one matching’, bleek dat gezichten van Afrikaanse en Aziatische origine 10 tot 100 keer vaker fout werden herkend dan Europese gezichten. Bij een andere techniek, ‘one to many matching’, bleken vooral zwarte vrouwen meer kans te maken op een verkeerde identificatie. Die techniek wordt soms gebruikt om verdachten in een strafonderzoek te identificeren.

Het NIST testte 189 algoritmes die door 99 ontwikkelaars werden geschreven en zegt ‘empirisch bewijs’ te hebben gevonden dat kenmerken als leeftijd, geslacht en raciale afkomst de nauwkeurigheid van de meeste algoritmes beïnvloeden. Dat kan concreet betekenen dat mensen uit die bevolkingsgroepen meer kans maken om op basis van gezichtsherkenning foutief gearresteerd of ondervraagd te worden.

In de krant Washington Post, die over de studie bericht, reageren enkele Amerikaanse politici geschokt op de resultaten. Ze roepen de Amerikaanse regering op om het geplande gebruik van gezichtsherkenning voor grensbewaking te herbekijken.

Vooroordeel

Critici waarschuwen al langer dat veel gezichtsherkenningstechnologie een ingebakken ‘bias’ of vooroordeel heeft, onder meer bij het bepalen van het geslacht van personen. Nu blijken ook factoren als huidskleur een rol te spelen. Dat kan veroorzaakt worden doordat de algoritmes ‘getraind’ worden met een te kleine dataset, waarin zwarte mensen bijvoorbeeld ondervertegenwoordigd zijn. De programmeurs die de algoritmes schrijven, kunnen onbewust ook hun eigen vooroordelen in de software inbakken.

Voor Joy Buolamwini, oprichter van de actiegroep Algorithmic Justice League, snoert de studie de mond van iedereen die de risico’s van gezichtsherkenning wil minimaliseren.

Eén van de opmerkelijkste slechte prestaties in de studie kwam van het algoritme van het Chinese bedrijf SenseTime, een veelbesproken AI-startup die op meer dan 7,5 miljard dollar wordt gewaardeerd. In meer dan één op de tien gevallen produceerde het algoritme een ‘valse positieve’ melding bij het beoordelen van foto’s van Somalische mannen.

Het algoritme van Yitu, een ander Chinees bedrijf, scoorde veel beter en toonde weinig raciale bias. Het algoritme van Microsoft had dan weer veel moeite om gekleurde vrouwen van Afrikaanse origine juist te herkennen. Het bedrijf zegt de resultaten te analyseren.

Zaventem

In ons land is het gebruik van gezichtsherkenningstechnologie tot nader order verboden, al duiken af en toe berichten op dat de technologie toch al gebruikt wordt. De federale politie stopte afgelopen september met een proefproject op de luchthaven van Zaventem na kritiek van privacy-activisten. Ook in Kortrijk staan camera's die de technologie in principe kunnen  gebruiken, maar dat nog niet doen. De camera's zijn er wel in staat om mensen te identificeren op basis van andere kenmerken, zoals de kleur van hun kledij.

Lees verder

Advertentie
Advertentie

Gesponsorde inhoud