Europa bestraft misbruik van artificiële intelligentie

©rv

De Europese Commissie omarmt de technologische mogelijkheden die artificiële intelligentie biedt. Maar een nieuwe, brede wetgeving moet misbruiken, zoals het traceren en controleren van mensen, op straf van hoge boetes uitsluiten.

De Commissie legt woensdag (vandaag) voor de eerste keer wetgeving op tafel voor artificiële intelligentie. Ze wil de technologie niet afremmen, wel de misbruiken en de risico's aanpakken. Als we het potentieel van de artificiële intelligentie maximaal willen benutten, moet er voldoende vertrouwen zijn in de nieuwe technologie, is de teneur. Eenvormige Europese regels moeten ook een lappendeken van nationale wetten vermijden.

Bij de ontwikkeling van artificiële intelligentie is drie tot vijf jaar al een lange termijn. Daarom focust Europa niet op de technologie, maar op de risico's. Een jaar geleden overwoog Europa nog een verbod op gezichtsherkenning. Nu opteert de Commissie voor een lijst van risico's en problemen bij het gebruik van de technologie en maatregelen die misbruik moeten voorkomen. Gelaatsherkenning kan op openbare plaatsen, als het gebruik van die gegevens beperkt blijft in tijd en in de ruimte.

De nieuwe regels gelden voor Europese en niet-Europese producenten of gebruikers. Het basisidee is dat de technologie die in Europa wordt gebruikt veilig moet zijn, de gezondheid niet in gevaar mag brengen en de fundamentele rechten en vrijheden niet mag aantasten. Het gros van de toepassingen met AI behoort tot de categorie van minimale tot nulrisico's. Ze vallen onder de normale Europese regels voor productveiligheid op de interne markt, die later dit jaar een update krijgen.

Risico's

Daarnaast zijn er drie lijsten met risico's. Op de rode lijst staan toepassingen met artificiële intelligentie die toelaten mensen heel ruim te traceren, hun gedrag in kaart te brengen en hun beslissingen te manipuleren. Ze zijn verboden. Voor militaire toepassingen geldt een uitzondering.

Een tweede lijst bevat toepassingen met een hoog risico in sleutelsectoren als gezondheid, klimaat, robotica, overheid en politie. Die moeten worden goedgekeurd voor ze op de Europese markt komen. Data van een AI-systeem kunnen vooroordelen of discriminatie versterken, bijvoorbeeld door systematisch mannen uit te pikken bij sollicitaties of een bankalgoritme dat krediet weigert aan bepaalde minderheidsgroepen. Er komen gezamenlijke criteria voor het afleveren van een conformiteitsattest voor vijf jaar en regelmatige controles.

De derde categorie is een lijst met laagrisicotoepassingen, vooral chatbots, waarvoor Europa onder meer transparantie eist. Het moet duidelijk zijn dat je met een robot spreekt en niet met een mens.

Boetes

Het is de eerste keer dat Europa gezamenlijke regels uitdoktert voor artificiële intelligentie. Dat past in de strategie van 'strategische autonomie', waarbij Europa op technologisch vlak een wereldspeler wil worden. De Commissie verkiest een aanpak die de mens centraal stelt, in tegenstelling tot de VS waar de grote techbedrijven zelf het mooie weer maken of China, waar artificiële intelligentie vooral dient om de bevolking te controleren.

De Europese Commissie heeft boetes in petto tegen de ontwikkeling en de verkoop van verboden AI-toepassingen. Ze kunnen oplopen tot 30 miljoen euro of 6 procent van de omzet. Het aanleveren van valse informatie aan de overheid of het niet willen meewerken kan leiden tot een boete van 2 procent van de omzet.

Lees verder

Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Gesponsorde inhoud