AI heeft dringend een bijsluiter nodig

Software voor gezichtsherkenning moet beter gereglementeerd worden. ©ANP

Verschillende grote techbedrijven kondigen aan niet langer software voor gezichtsherkenning te leveren aan de Amerikaanse politie. We hebben een breder regelgevend kader nodig voor het gebruik van artificiële intelligentie.

Eind 19de eeuw dook plots het gemotoriseerd rijverkeer op in ons straatbeeld. In ‘De blijde intrede van de automobiel in België 1895-1940’ schetste historicus Donald Weber hoe dat nieuwe fenomeen een steunpilaar voor de nationale welvaart werd, maar ook een groot maatschappelijk probleem met zich meebracht. De snelheidsobsessie van de eerste chauffeurs en de toenemende ongevallen veroorzaakten een sfeer van verontwaardiging. Een eeuw lang werd stap voor stap orde in die chaos gebracht: automobilisten moesten rechts rijden, de wegen werden aangepast, het rijbewijs werd ingevoerd...

In de 21ste eeuw doet artificiële intelligentie haar blijde intrede. De opkomst van dat fenomeen is misschien wat minder zichtbaar, maar de maatschappelijke uitdagingen zijn er niet minder om. Ook aan artificiële intelligentie zijn gevaren verbonden als we de technologie op een verkeerde manier inzetten.

Het US National Institute of Standards and Technology (NIST) onderzocht vorig jaar 189 algoritmen voor gezichtsherkenning. Die bleken een raciale ‘bias’ te vertonen in het aantal vals negatieven. Dat betekent dat AI-systemen slechter zijn in het herkennen van zwarte mensen, wat vooral tot ongemakken leidt. Sommige software vertoonde bovendien een bias in het aantal vals positieven: bij zwarte mensen werd vaker de verkeerde persoon herkend. Dat kan ingrijpende gevolgen hebben, zoals onterechte arrestaties.

Onder druk van de protesten na de dood van George Floyd hebben de Amerikaanse techreuzen aangekondigd tijdelijk geen gezichtsherkenningssoftware meer aan de politie te verkopen (Amazon en Microsoft) of om de ontwikkeling ervan volledig stop te zetten (IBM). De technologie blijft wel beschikbaar via gezichtsherkenningsfirma’s zoals het omstreden Clearview AI. Begin dit jaar bleek uit een gelekt klantenbestand van Clearview AI dat ook lokale politiekorpsen in ons land interesse tonen in gezichtsherkenning. De Europese Unie overwoog een verbod van vijf jaar in te voeren op het gebruik van de technologie. Dat plan lijkt nu van tafel.

Net zoals het 100 jaar geleden een slecht idee geweest zou zijn de auto te verbieden, zou een algemeen verbod op beeld- of gezichtsherkenning geen goed idee zijn. Wel hebben we meer bewustwording over en regels voor een ethisch gebruik van AI nodig. Dat is een gedeelde verantwoordelijkheid van ontwikkelaars, gebruikers en beleidsmakers.

Ontwikkelaars moeten in de eerste plaats transparant zijn en aangeven wat de mogelijke gevaren van hun AI-systemen zijn.

Ontwikkelaars moeten in de eerste plaats transparant zijn, door duidelijk aan te geven met welke datasets ze hun AI-systemen trainen, en wat de mogelijke gevaren daarvan zijn. Als gezichtsherkenning vaker fouten maakt bij een donkere huidskleur, is een mogelijke verklaring dat veel meer foto’s van witte gezichten gebruikt werden om het algoritme te trainen. Het is belangrijk dat ontwikkelaars hun datasets zo veel mogelijk controleren op bias, maar dat volstaat niet.

Een bias is niet altijd even zichtbaar. Onschuldige input zoals een e-mailadres kan iets zeggen over de leeftijd van een sollicitant. Denk maar aan scarlet.be versus gmail.be. Het is ook mogelijk dat de bias niet afkomstig is van de data, maar door het algoritme zelf wordt opgewekt. Ontwikkelaars weten ook niet altijd waar hun algoritme belandt. Een toepassing die goed werkt in de ene context, kan blunderen in de andere. Als een buitenlandse datawetenschapper een jobmatchingalgoritme moet ontwikkelen voor een Belgisch bedrijf, zal die de gevoeligheden tussen een woonplaats in Schaarbeek of Brasschaat niet begrijpen. Bovendien kan de context veranderen. Neem bijvoorbeeld een adressenlijst van Het Eilandje in Antwerpen. Die zal sinds de opwaardering een andere bias bevatten dan toen het nog een verloederde buurt was, terwijl het over dezelfde dataset gaat.

Er worden antibiastechnieken ontwikkeld, maar de bedrijven zien nog amper de bomen door het bos.

Het bepalen van wat eerlijk is, mag nooit volledig in handen van de ontwikkelaar liggen. Er rust ook een verantwoordelijkheid op de schouders van bedrijven en organisaties die gebruikmaken van AI-systemen. Er worden antibiastechnieken ontwikkeld, maar bedrijven zien nog amper de bomen door het bos. Daarom zijn de VUB en imec een project begonnen om bedrijven stap voor stap te helpen AI op een ethische manier in te zetten. Wie met een auto rijdt, moet zich bewust zijn van de gevaren op de weg en van zijn verantwoordelijkheid. Hetzelfde geldt voor wie AI-systemen gebruikt.

Tot slot ligt ook een verantwoordelijkheid bij de beleidsmakers: er zijn verkeersregels en controles nodig. Als Europa zich wil onderscheiden van de Verenigde Staten en China door ethische AI als competitieve troef uit te spelen, moet het dringend veel duidelijker worden over wat het precies van de bedrijven verwacht. AI-systemen geven steeds een antwoord met een bepaalde waarschijnlijkheid. Dat antwoord mag nooit direct het lot van een mens bepalen, het kan hoogstens dienen als advies. In plaats van te wachten tot er slachtoffers vallen, moeten we proactief een regelgevend kader vastleggen.

Lees verder

Advertentie
Advertentie

Gesponsorde inhoud