Advertentie
Advertentie
analyse

Europa wil ‘AI-monster’ als eerste in bedwang houden

©Filip Ysenbaert

Nu steeds meer topexperts de noodklok luiden over de gevaren van artificiële intelligentie, groeit de politieke consensus over de nood aan meer regulering. Europa neemt het voortouw met een AI-wet en nieuwe regels voor generatieve AI-systemen, zoals ChatGPT. Daarover wordt deze donderdag gestemd in het Europees Parlement. Toch blijft de vraag of de wetgeving al niet achterhaald is voor ze van kracht wordt.

AI is niet meer uit de media weg te slaan sinds de onverwachte publieke lancering van de gratis AI-chatbot ChatGPT ruim vijf maanden geleden. Toch gaat de aanvankelijke opwinding over wat de slimme taaltechnologie allemaal mogelijk maakt stilaan over in twijfel en waarschuwingen over het onheil dat artificiële intelligentie (AI) kan aanrichten.

De mogelijke risico’s beslaan een breed spectrum. De voorbije jaren doken voorbeelden op van discriminatie bij aanwervingen als gevolg van slecht getrainde AI-algoritmes. In de Nederlandse toeslagenaffaire werden duizenden gezinnen ten onrechte beticht van belastingfraude, omdat de belastingdienst gebruikmaakte van een dubieuze detectietool met AI. Ook cybercriminelen kunnen de technologie gebruiken om computervirussen op maat van hun slachtoffers te schrijven. De ultieme dreiging is dat autonome AI-systemen op een dag kunnen beslissen op grote schaal schade aan te richten of mensen te vermoorden.

Advertentie

Zelfs de AI-techneuten van het eerste uur stellen vragen bij de evolutie van het ‘monster van Frankenstein’ dat ze tot leven brachten. Geoffrey Hinton, een 75-jarige professor die mee aan de wieg stond van verschillende doorbraken in AI, verklaarde onlangs dat hij opstapt bij Google om in alle vrijheid te kunnen spreken over de gevaren van de nieuwe technologie. En hij is lang niet de enige onheilsprofeet. Eind maart riepen 1.000 experts in een open brief op tot een pauze in de ontwikkeling van AI, om meer onderzoek te kunnen doen naar mogelijke schadelijke gevolgen.

Paul Christiano, een voormalige ontwikkelaar bij OpenAI, het bedrijf achter ChatGPT, verklaarde in een interview dat er ‘meer dan 50 procent kans op een doemscenario is’ zodra je op het punt komt dat AI-systemen een menselijk intelligentieniveau hebben bereikt. En dat punt komt volgens veel experts, onder wie Demis Hassabis van het toonaangevende Google-bedrijf DeepMind, veel sneller dichtbij dan men eerst dacht.

De boodschap van de experts is duidelijk: het gaat zo snel en is potentieel zo gevaarlijk dat we geen tijd mogen verliezen. Er is dringend nood aan wetgeving en heldere regels om de risico’s in te dijken. Omdat de Amerikaanse regering weinig initiatief neemt, komt de Europese Unie in beeld als het enige westerse blok waar met de AI Act relatief verregaande wetgeving voor artificiële intelligentie op stapel staat.

De Unie zette wereldwijd de norm met de GDPR-regels, die de privacy van de internetgebruiker beschermen, terwijl de digitaledienstenwet (DSA) gebruikers beschermt tegen misleidende praktijken en desinformatie. Europa dwingt zo de grote onlineplatformen als Facebook, Twitter en TikTok en zoekmachines als Google en Bing in het gelid.

Het volgende front is AI. Onderhandelaars van het Europees Parlement bepalen donderdag hoe strak de technologie wordt gereglementeerd. Volgende maand stemt het voltallige Europees Parlement in met de AI-regels. Daarna beginnen onderhandelingen over de finale wettekst tussen het Europees Parlement, de lidstaten en de Europese Commissie.

De drie centrumpartijen - de centrumrechtse EVP, de centrumlinkse S&D en het liberale Renew - steunen een compromistekst die behoorlijk afwijkt van de plannen die de Europese Commissie twee jaar geleden ontvouwde en van het standpunt dat de EU-lidstaten in december goedkeurden. ChatGPT bestond toen nog niet, of bleef nog onder de radar bij het grote publiek.

Volg de AI-revolutie op tijd.be

Hoe zal artificiële intelligentie (AI) de machtsverhoudingen in Silicon Valley veranderen? En wat betekent het voor uw job en uw dagelijkse leven? Blijf op de hoogte via onze website:

Het Europees halfrond zet een nieuw regime op met aparte regels en verplichtingen voor generatieve AI-systemen, zoals ChatGPT. Generatieve AI kan nieuwe content - tekst, beelden of computercode - creëren door ze te trainen met miljarden gigabytes aan bestaande content. De extra regels moeten toelaten dat het gebruik van dergelijke tools kan blijven groeien, maar dat de gebruikers en hun basisrechten maximaal beschermd worden.

‘Dat is een belangrijke stemming over welke maatschappij we willen. Met die regels vermijden we dat AI door het brede publiek verworpen wordt en laten we toe dat de technologie en nieuwe bedrijven kunnen bloeien’, zegt Brando Benifei, die samen met Dragos Tudorache het rapport van het Europees Parlement in goede banen leidde. Ook die laatste benadrukt dat het Europees Parlement met de wetgeving ‘de ontwikkeling en innovatie van AI wil aanmoedigen’.

Onaanvaardbaar risico

De Europese Commissie stelde eerder een op risico gebaseerde aanpak voor waarbij AI-toepassingen in categorieën worden ingedeeld. Die gaan van een onaanvaardbaar risico en een verbod, bijvoorbeeld voor het gebruik van gezichtsherkenning op camera’s in de openbare ruimte, tot een minimaal risico, bijvoorbeeld voor het gebruik van spamfilters.

Daartussen liggen nog twee risicocategorieën: een hoog risico, met strenge controleverplichtingen en een audit over de veiligheid van bijvoorbeeld zelfrijdende auto’s, en een beperkt risico, met alleen een transparantieverplichting. Chatbots (computergestuurde stemmen) die vertragingen rapporteren aan luchtvaartgebruikers zouden transparant moeten zijn over hoe ze hun data genereren. Er is nog discussie over de vraag of systemen die series op Netflix of filmpjes op Facebook of Instagram aanbevelen aan gebruikers gelden als een hoog risico.

Aparte risicogroep

Het voorstel van het Europees halfrond zet generatieve AI niet in de hoogste risicogroep, maar creëert daarvoor een aparte categorie met een lange lijst specifieke verplichtingen voor veiligheid, transparantie, gegevenskwaliteit en menselijk toezicht. Dat zegt Europarlementslid Tom Vandenkendelaere (CD&V), die het dossier op de voet volgt. Providers moeten toezien op het gebruik van hun kunstmatige intelligentie en hoe met risico’s wordt omgegaan. Ze moeten ook alle voorzorgen nemen tegen de productie van illegale inhoud.

Nu weten we zelfs niet met welk materiaal de algoritmes getraind worden.

Dragos Tudorache
Rapporteur Europees Parlement

Over de omgang met auteursrechten is het laatste woord nog niet gezegd. Mag een AI-bot zoals Dall-E een nieuw beeld ontwerpen dat gebaseerd is op bestaande, beschermde foto’s? Waar begint en eindigt die bescherming? Veel juristen verwachten dat rechters die moeilijke knoop moeten doorhakken.

Het voorstel van het parlement beoogt in elk geval meer transparantie. ‘Nu weten we zelfs niet met welk materiaal de algoritmes getraind worden’, zegt Tudorache. ‘Die data zullen voortaan gepubliceerd moeten worden. Het algoritme zal er ook op getraind moeten zijn geen inbreuken te plegen op auteursrechten’, klinkt het. Als niet aan die voorwaarden of aan andere regels is voldaan, riskeert de aanbieder een boete van 2 procent van de jaaromzet of maximaal 10 miljoen euro.

Spanningen

Daarnaast vraagt het Europees Parlement nauw overleg met de Verenigde Staten, zodat de AI-wetgeving aan beide kanten van de Atlantische Oceaan op elkaar afgestemd wordt. In de VS vloeit jaarlijks 30 miljard dollar aan publieke en privémiddelen naar AI, het dubbele van Europa, blijkt uit cijfers van het statistiekbureau Eurostat. China is aan een inhaalbeweging bezig. Het is al goed voor 20 miljard dollar aan investeringen per jaar. Met de AI Act hoopt Europa de investeringen tegen 2030 op te trekken tot 20 miljard euro.

20 miljard
AI-investeringen in 2030
Europa hoopt met duidelijke wetgeving investeringen in artificiële intelligentie aan te moedigen en op te trekken tot 20 miljard euro in 2030.

De aparte verplichtingen voor generatieve artificiële intelligentie kunnen tot spanningen tussen de EU-instellingen leiden. De Europese Commissie opteerde destijds voor een aanpassing van bestaande wetgeving via uitvoeringsbesluiten. Dat is wetgeving waarover de lidstaten en het Europees Parlement wel stemmen, maar waarop ze geen amendementen kunnen indienen. Dat proces is niet alleen minder democratisch, maar ook hachelijk.

Wat als de lidstaten en de Europese Commissie in de triloog, de finale onderhandelingen met het parlement, de extra categorie voor generatieve AI uitsluiten in de definitieve wetgeving? Dan dreigt het nieuwe wettelijke kader voor artificiële intelligentie al meteen achterhaald te zijn. ‘ChatGPT is slechts het topje van de ijsberg’, zegt Ursula Pachl van de consumentenorganisatie Beuc. ‘De voorstellen van de Commissie en de Raad zijn te zwak om gebruikers adequaat te beschermen. Het parlement moet dat deze donderdag rechtzetten, anders worden onnoemelijk veel consumenten beschadigd door AI-systemen die hen manipuleren of bedriegen.’

Gezichtsherkenning

Ook de mogelijke uitzonderingen op het gebruik van gezichtsherkenning worden een moeilijk symbooldossier in de finale onderhandelingen later dit jaar. De Commissie wilde uitzonderingen inlassen voor bijvoorbeeld het opsporen van terroristen of ontvoerde kinderen, wat niet mag via het bekijken van bewakingscamera’s in realtime. Voor een dergelijk onderzoek zijn een rechterlijke beslissing en een kader nodig.

Het Europees Parlement gaat evenwel voor een volledig verbod op het identificeren van mensen op basis van cameraherkenning op publieke plekken, omdat die de fundamentele rechten van het individu schaadt. Het verzet van het parlement is ook ingegeven door plannen in onder meer Italië om dergelijke controlecamera’s aan de grenzen te zetten om migranten te weren. De consumentenorganisatie Beuc maakt zich zorgen over gezichtsherkenning die wel nog toegepast wordt in bedrijven en op niet-openbare plaatsen.

Bedenkingen

De voorstellen die de Commissie eerder op tafel legde, oogsten bij experts gemengde reacties. ‘Het is goed dat Europa het voortouw neemt en de klemtoon legt op de betrouwbaarheid van systemen en de gevolgen voor gebruikers’, zeggen de juridische experts Thomas Gils en Jan De Bruyne (Kenniscentrum Data & Maatschappij, KU Leuven CiTiP-Imec). Ze wijzen erop dat de bestaande wetgeving en rechtspraak al veel discussies kunnen beslechten.

Toch hebben beide onderzoekers ook bedenkingen bij de voorstellen. Gils merkt op dat een AI-toepassing pas onder de wetgeving valt vanaf het moment dat ze op de markt wordt gebracht, en niet in de ontwikkelingsfase. ‘Betekent dat dan dat je een verboden AI-toepassing wel mag ontwikkelen en exporteren naar andere markten? Dat is een inconsistentie in de huidige voorstellen.’

Toekomstbestendig

Ook zijn de voorstellen van de Commissie volgens Gils en De Bruyne onvoldoende toekomstbestendig, zoals nu al blijkt doordat ze te weinig rekening hielden met de opmars van de generatieve AI. ‘Wetgeving kan nooit alle mogelijke risico’s afdekken. Daarom zou het goed zijn in de wet enkele algemene principes in te schrijven. Die kan men later gebruiken om de regels juist te interpreteren.'

Wetgeving kan nooit alle mogelijke risico’s afdekken. Daarom zou het goed zijn in de wet enkele algemene principes in te schrijven. Die ka, men later gebruiken om de regels juist te interpreteren.

Thomas Gils en Jan De Bruyne
Juridische AI-experts

Men zou zich bijvoorbeeld kunnen spiegelen aan de zeven principes die een door de Commissie aangestelde deskundigengroep eerder formuleerde. Die principes gaan onder meer over de verplichting om altijd menselijke controle over AI-systemen te behouden, veiligheid, transparantie, rechtvaardigheid en het respect voor de privacy en persoonsdata.

Een ander heikel punt wordt de uitvoering en afdwinging van de nieuwe regels, zeggen de CiTiP-onderzoekers. Volgens de huidige voorstellen wordt daarvoor een lappendeken aan instanties en regulatoren bevoegd. ‘Dat staat haaks op de nood aan duidelijke aanspreekpunten en bemoeilijkt een eenduidige interpretatie.’

Zeker in ons land dreigt een moeilijke taakverdeling onder federale en regionale instanties, met de eeuwige vraag van wie de financiële middelen moeten komen. De aanstelling van een Europese scheidsrechter die kan oordelen over grensoverschrijdende gevallen en bevoegdheidsconflicten zou geen slechte zaak zijn, valt te horen.

Wat doen de VS en China?

In de VS, veruit de belangrijkste broeiplaats van AI-technologie, is de kans klein dat er in het verdeelde Congres een politieke consensus wordt gevonden voor verregaande regulering. Een topontmoeting tussen AI-bedrijven en vicepresident Kamala Harris vorige week leverde weinig meer op dan een appel aan de privésector om zijn verantwoordelijkheid op te nemen.

De messcherpe concurrentieslag die zich aftekent, vooral tussen Microsoft en Google, doet weinig goeds vermoeden. De grote techbedrijven zijn ervoor beducht zichzelf beperkingen op te leggen waardoor ze marktaandeel zouden verliezen. Zelfs als de Amerikaanse techbedrijven het eens raken over een vorm van zelfregulering worden ze nog opgejaagd door hun Chinese concurrenten.

China lijkt werk te maken van strikte regels voor AI-toepassingen. De internetregulator CAC publiceerde vorige maand voorstellen om generatieve AI-diensten te beheren. Bedrijven zouden volgens die voorstellen altijd de toelating moeten vragen aan de overheid alvorens een tool publiek te lanceren. Gebruikers zullen zich verplicht moeten identificeren.

Advertentie

De regering in Peking verklaarde eerder dat ze de grote Chinese techbedrijven wil helpen de concurrentie aan te gaan met het Amerikaanse ChatGPT. Maar ze wil wel de regie behouden. Het Chinese regime gebruikt de nieuwe technologie ook zelf voor haar verregaande surveillance van burgers en bedrijven. De overheid organiseert op grote schaal gezichtsherkenning op openbare plaatsen en Chinese burgers krijgen op basis van hun gedrag een sociale score, waarmee ze bepaalde sociale vrijheden kunnen verwerven of verliezen.

Advertentie
Advertentie
Advertentie
Advertentie
Advertentie