analyse

Krijgen we het werk van algoritmes nog wel uitgelegd?

©AFP

Algoritmes zullen bepalen of u verzekerd wordt en met wie u op date gaat. Maar het gevaar van een ‘black box’ loert om de hoek. De algoritmes beslissen, maar we weten niet meer waarom.

‘Er moeten mechanismen zijn om algoritmes, en wat ze produceren, ter verantwoording te roepen.’ De Europese Commissie lanceerde begin deze week haar ethisch kader voor een wereld vol artificiële intelligentie (AI).

AI is een containerbegrip en verwijst naar technologie die menselijke intelligentie op een bepaalde manier kan imiteren. Een hoofdstroom binnen AI is ‘machine learning’. Daarbij leren algoritmes op basis van aangeleverde data patronen te herkennen, om op die manier zelf beslissingen te nemen in de toekomst.

Verzekeringen

Algoritmes zullen zo in uiteenlopende sectoren mee aan de knoppen zitten. Dat is niet zonder risico’s. In een uitgebreid opiniestuk in The New York Times schetste technologiejournaliste Sarah Jeong deze week de impact van artificiële intelligentie op de verzekeringswereld. Via smartphoneapps en fitnesstrackers kunnen verzekeraars in theorie een lawine aan data verzamelen over hun klanten. Algoritmes gaan aan de slag met die data en beslissen mee of de klant verzekerd wordt of niet.

Zelflerende algoritmes zijn geen hocus pocus.
Ann Nowé
Hoofd VUB AI-lab

Het risico bestaat dat de klant geen idee meer heeft waarom zo’n beslissing er gekomen is - verzekerd worden of niet, een duur betaalde polis of niet. ‘Mensen hebben weinig toegang tot de programmeercode die belangrijke facetten van hun leven bepalen’, beargumenteerde Jeong in het artikel. ‘De lat om de logica van algoritmes te begrijpen ligt nu al hoog. Die zal alleen maar hoger komen te liggen wanneer meer sectoren zich wagen aan AI.’

Uitlegbaar

Het is een kopzorg voor beleidsmakers en academici dat die beslissingen ‘uitlegbaar’ moeten blijven. Zelfs in onze contreien loopt daar onderzoek rond. Collibra, het databeheerbedrijf dat in januari het eerste Belgische groeibedrijf werd met een waardering boven een miljard dollar, sloeg recent de handen in elkaar met de VUB. Een van de thema’s die het bedrijf, nota bene een spin-off van de universiteit, en het ‘VUB AI-lab’ willen onderzoeken, is de ‘explainability’ van artificiële intelligentie.

De inzet van zelflerende algoritmes is geen hocus pocus, benadrukt Ann Nowé, hoofd van het VUB AI-lab. ‘We begrijpen wiskundig perfect wat er gebeurt op het moment dat algoritmes hun beslissing nemen. Die conclusies zijn ook accuraat op voorwaarde dat we de juiste doelen stellen voor het algoritme, en dat vereist wel de nodige kennis.’ Alleen: de redenering van een algoritme is niet transparant voor de modale burger. ‘Je verwacht dat een expert jou als leek kan uitleggen waarom je bijvoorbeeld geen lening kreeg. En wat je kan doen om die wel te krijgen.’

Ethiek

We mogen niet in een wereld terechtkomen waarin de dingen zijn zoals ze zijn omdat ‘het algoritme het zegt’. Dat is ook voor bedrijven een werkpunt, benadrukt Pieter De Leenheer, ‘chief scientific officer’ en medestichter van Collibra. ‘We zien dat veel van onze bedrijfsklanten steeds meer nadenken op welke manier ze kunnen uitleggen hoe ze omgaan met data en algoritmes.’ Daarom wil Collibra mee die ‘uitlegbaarheid’ van artificiële intelligentie onderzoeken.

Er moeten mechanismen zijn om algoritmes, en wat ze produceren, ter verantwoording te roepen.
Europese Commissie

De lancering van een Europees ethisch kader rond AI en het onderzoek naar de ethische vraagstukken errond moeten ook het draagvlak voor AI veiligstellen. Als we de uitkomst van algoritmes niet uitgelegd krijgen aan de modale burger, kan het draagvlak snel afbrokkelen, is de vrees.

De modale burger staat veraf van artificiële intelligentie. Uit een onderzoek bij 801 Belgen bleek dat 7 op de 10 respondenten al eens gehoord hadden van het begrip. Maar slechts 3 op de 10 respondenten zegden er ‘veel’ of ‘genoeg’ van te weten.

Lees verder

Advertentie
Advertentie

Tijd Connect