interview

'Artificiële intelligentie mag geen zwarte doos zijn'

Het CiTiP werkt momenteel onder meer aan een nota over wat je met de data van ANPR-camera's (voor nummerplaatherkenning) wel en niet mag doen. ©Joris Herregods/ID

Mag een algoritme beslissen over mijn leningaanvraag? En mag een chatbot zich voordoen als een mens? Op dergelijke vragen moet een team Leuvense juristen antwoorden formuleren.

Het nieuwe Kenniscentrum Data & Maatschappij, dat maandag gelanceerd werd, moet Vlaanderen helpen klaarmaken voor het tijdperk van big data en artificiële intelligentie (AI). Het Leuvense Centre for IT & IP Law (CiTiP) krijgt de taak na te gaan hoe ‘AI-proof’ onze wetgeving is en moet concrete juridische adviezen geven. ‘We gaan er niet standaard van uit dat er voor alles een nieuwe wetgeving moet komen. Er is veel mogelijk via de interpretatie van de bestaande regels’, zeggen directeur Peggy Valcke en senior onderzoeker Jan De Bruyne, die dat onderzoek coördineren.

Op welke principes moet de AI-wetgeving gebaseerd zijn?
Peggy Valcke: ‘Daar is al over nagedacht door verschillende instanties, waaronder een expertengroep van de Europese Commissie en de internationale ingenieursvereniging IEEE. Je ziet een viertal grote principes altijd terugkomen. Het eerste is het respect voor de menselijke autonomie. De mens houdt altijd de controle over de beslissingen. Het tweede is dat je het toebrengen van schade moet vermijden. Het derde principe is dat van ‘fairness’, wat onder meer inhoudt dat beslissingen niet leiden tot verborgen of ongewenste discriminaties (wegens vertekening in de onderliggende data). Ten vierde moeten beslissingen van een AI-systeem uitlegbaar zijn.’

Is dat laatste niet moeilijk? AI is als een black box: je weet wat je erin stopt, niet wat eruit komt.
Valcke: ‘Je moet altijd kunnen reconstrueren hoe een beslissing tot stand is gekomen. Vooral overheden moeten goed beseffen hoe de algoritmes waarmee ze werken in elkaar zitten. Denk aan algoritmes die de prestaties van schoolkinderen volgen en die beslissingen nemen over studiekeuzes. Ik wil als ouder ook weten hoe dat tot stand komt.’

KORT

Het Kenniscentrum Data & Maatschappij is een samenwerking van vakgroepen van drie universiteiten: CiTiP (KU Leuven) dat vooral in recht gespecialiseerd is, imec-SMIT (VUB) dat de relatie tussen de maatschappij en de technologie in concrete situaties bestudeert, en imec-MICT (UGent) dat onderzoek doet naar hoe mensen met technologie omgaan. Het centrum maakt deel uit van het Vlaamse AI-plan dat in maart door toenmalig minister van Innovatie Philippe Muyters (N-VA) werd voorgesteld.

Hoe bewijst een consument dat hij benadeeld werd door AI? Vaak weet hij niet eens dat er een algoritme aan te pas is gekomen.
Jan De Bruyne: ‘In het aansprakelijkheidsrecht zien we een toenemende trend om die bewijslast om te keren, juist omdat het voor de consument vaak te moeilijk is om een fout aan te tonen.’

Valcke: ‘Het is een terecht punt. Denk aan mensen die geen lening krijgen van de bank, maar niet weten waarom. Ik denk dat je niet al te veel bewijslast bij de burger moet leggen. Het toont ook het belang van sterke regulatoren en consumentenorganisaties die zo’n praktijken in de aandacht brengen.’

Wie moet de regels rond AI afdwingen?
De Bruyne: ‘AI heeft een impact op heel veel rechtsgebieden, zoals mededinging, privacy en consumentenrecht. We zouden daarom eerst de regulatoren samenbrengen en versterken in plaats van meteen een nieuwe regulator op te richten. Dat gebeurt het best op Europees niveau wegens de schaalgrootte van de bedrijven die je moet reguleren.’

Welke concrete toepassingen vragen nu al meer juridische duidelijkheid?
De Bruyne: ‘Onder meer zelfrijdende auto’s en de vraag wie aansprakelijk is bij een ongeluk: de bestuurder, de autofabrikant, de softwareontwikkelaar, de beheerder van de weginfrastructuur? Kan je software beschouwen als een product waarop de klassieke aansprakelijkheidsregels van toepassing zijn? En wie moet zo’n auto in eerste instantie beschermen? De eigen passagiers of de andere weggebruikers?’

We hebben een knop voor noodsituaties nodig waarmee data in geval van misbruik vernietigd worden.
Peggy valcke
directeur Citip

Valcke: ‘Er is ook veel onzekerheid bij bedrijven over de vraag of het gebruik van AI in overeenstemming is met de Europese datawetgeving GDPR. Die garandeert onder meer het recht om, onder bepaalde voorwaarden, niet onderworpen te worden aan geautomatiseerde besluitvorming. Maar hoe ver reikt dat? Kan je die bepaling inroepen als je als sollicitant afgewezen wordt? Sommige organisaties krijgen zoveel sollicitaties dat ze alleen met algoritmes een eerste schifting kunnen doen. De datagedreven dienstverlening waarmee de VDAB al experimenteert, biedt ook voordelen, zoals de snellere koppeling van profielen aan vacatures.’

‘Een ander thema zijn chatbots, die al veelvuldig gebruikt worden. Volgens het principe van de transparantie moet het voor een gebruiker altijd duidelijk zijn dat zijn gesprekspartner een machine is.’

Er worden steeds meer data verzameld die via AI misbruikt kunnen worden. Denk aan het plan om de vingerafdrukken van alle Belgen op te slaan. Hoe beoordeelt u dat?
Valcke (voorzichtig): ‘Er zijn efficiëntievoordelen te halen met zo’n aanpak. Maar zodra je een dergelijke database hebt opgezet, is er altijd het risico dat die data ooit misbruikt worden. Net zoals de nazi’s in de Tweede Wereldoorlog bevolkingsregisters in België en Nederland misbruikten om Joodse burgers te identificeren. Eigenlijk zou je een soort knop voor noodsituaties moeten inbouwen om data in zulke gevallen te vernietigen.’

‘Het principe moet zijn dat hoe meer data je verzamelt en hoe gevoeliger die data zijn, hoe meer garanties en beveiligingen tegen misbruik je moet inbouwen. Dat kan bijvoorbeeld door data decentraal bij te houden en te analyseren, iets waar de Leuvense securityautoriteit Bart Preneel ook voor pleit. De technologie om AI-modellen te ontwikkelen op decentrale, versleutelde datasets - waarbij je geen inzage krijgt in elkaars data -gaat snel vooruit.’

Lees verder

Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Gesponsorde inhoud