Advertentie

Wie betaalt de rekening van de robot?

©REUTERS

Robots en algoritmes voeren steeds meer onze taken uit, maar nemen ze daarmee ook onze verantwoordelijkheid over? De snelle technologische innovatie maakt een reboot van onze wetgeving hoognodig.

Wordt schade door robots gedekt door uw familiale verzekering? De vraag klinkt u misschien absurd in de oren, maar ze zal de komende jaren steeds meer aan de orde zijn. U hebt mogelijk al een stofzuigende of grasmaaiende robot in dienst, over enkele jaren staat een autonome wagen op de oprit en ooit laat u het schilderen van uw voorgevel misschien over aan uw multifunctionele klusrobot.

Wat als die slimme machines een steek laten vallen en materiële of zelfs fysieke schade veroorzaken? Bent u dan aansprakelijk, is dat de producent of de verkoper van de robot, of de programmeur die een foutje in de softwarecode liet staan? Of is het de robot zelf, als die op basis van zijn artificiële intelligentie volledig autonoom beslissingen kan nemen?

De problematiek is niet langer hypothetisch, want robots, big data en zelflerende algoritmes dringen door in alle lagen van de samenleving. ‘De zorgsector maakt al gebruik van robots. De Nederlandse gemeente Leidschendam-Voorburg gebruikt sinds kort een robot om bezoekers te verwelkomen, en ook enkele bedrijven experimenteren met robots aan de receptie. Een Hongkongs bedrijf, Deep Knowledge Ventures, nam onlangs zelfs een algoritme met de naam VITAL in zijn raad van bestuur op. Het heeft net als de andere bestuursleden een stem in investeringsbeslissingen’, zegt UGent-onderzoeker Jan De Bruyne, die zich in de materie verdiept heeft en aan een boek over zelfrijdende wagens werkt.

De zeldzame dodelijke slachtoffers van robots vielen tot nu toe vooral in het bedrijfsleven, door onverwachte bewegingen van robotarmen. Maar met de verwachte opmars van autonome voertuigen nemen de risico’s toe. Enkele incidenten, waarvan een met een volledig autonome testwagen van het Amerikaanse bedrijf Uber, maakten de voorbije jaren duidelijk dat ook computergestuurde voertuigen dodelijke ongevallen kunnen veroorzaken.

Zolang een ‘slimme machine’ in meerdere of mindere mate bediend wordt door een menselijke operator, kan je nog terugvallen op bestaande aansprakelijkheidsregels. De robot wordt dan beschouwd als een machine waarvoor de operator of de eigenaar verantwoordelijk zijn. Veroorzaakt de robot schade als gevolg van slecht onderhoud of een foute bediening, dan zullen zij daarvoor opdraaien.

De softwareproducent kan niet aansprakelijk worden gesteld voor gebreken die via machine learning ontstaan.
Jan De Bruyne
Onderzoeker UGent

Maar de huidige wetgeving is niet geschreven op maat van machines met zogenaamde cognitieve eigenschappen, die een zekere graad van autonomie of ‘intelligentie’ hebben. ‘In dat geval is het niet vanzelfsprekend de gebruiker van de robot aan te spreken. Maar de producent aansprakelijk stellen, is dat al evenmin’, zegt De Bruyne.

‘Zo is het nog onzeker of software als een ‘product’ kan worden beschouwd dat onder de huidige regels voor productaansprakelijkheid valt. En zelfs als dat het geval is, stelt zich een bijkomend probleem. Vandaag is een producent alleen aansprakelijk als het gebrek al bestond op het moment dat hij zijn product in het verkeer bracht, en niet voor gebreken die daarna ontstaan. Maar een voertuig dat via machine learning kan leren uit zijn ervaringen is in staat zichzelf voortdurend te veranderen. De softwareproducent kan dan niet aansprakelijk worden gesteld voor gebreken die na de inverkeerstelling ontstaan.’

Beleidsmakers denken ook best twee keer na voor ze de producenten van lerende machines aansprakelijk stellen, waarschuwt De Bruyne. Het risico bestaat dat de schrik voor grote schadeclaims die bedrijven tegenhoudt nog innovaties op de markt te brengen. Iedereen is het er nochtans over eens dat zelfrijdende wagens - ook al zijn ze niet helemaal onfeilbaar - vele malen veiliger zijn dan wagens die door mensen bestuurd worden.

Een piste die wel eens geopperd wordt, is het geven van rechtspersoonlijkheid aan de robots zelf. Ook het Europees Parlement riep in 2017 in een resolutie de Europese Commissie op daarover na te denken. Maar dat voorstel roept weer heel wat andere bezwaren op. Krijgt zo’n robot dan ook op andere vlakken dezelfde rechten en plichten als andere entiteiten met een rechtspersoonlijkheid? En waar zal een robot het geld vandaan halen om de schade aan zijn slachtoffers te vergoeden? Moet een ‘slimme machine’ dan ook recht hebben op een inkomen en een eigen bankrekening?

Een groep van 150 robotica-experts ging in een open brief in het verweer tegen het idee van ‘elektronische rechtspersonen’. Zij pleiten vooral voor het stimuleren van een cultuur van veiligheid en risicobeperking in de industrie.

Volgens filosoof en jurist Luuk van Middelaar wordt de juridische omgang met robots en AI meer en meer een onderscheidend kenmerk van samenlevingsmodellen. ‘Samenlevingen met een utilitaire opvatting over het goede, of met minder gevoel voor gelijkheid van alle mensen, ervaren kennelijk minder bezwaren tegen robot-burgers dan samenlevingen in de humanistische, postchristelijke traditie’, schreef hij daarover in de krant NRC.

Van Middelaar pleit ervoor niet het voorbeeld te volgen van Japan of Saoedi-Arabië, dat vorig jaar het staatsburgerschap verleende aan de robot Sophia, maar om een Europees model te ontwikkelen waarbij robots onder een soort voogdij worden gehouden, vergelijkbaar met de voogdij over permanent wilsonbekwamen. ‘Want als we machines tot mensen maken, ontmenselijken we onszelf.’

WAT IS AI?

In de discussie over rechtspersoonlijkheid voor robots is een belangrijke vraag hoe we begrippen als ‘robot’ of ‘AI’ juridisch definiëren. Vanaf welk punt verandert een ‘rij-assistentiesysteem’ in een ‘autonoom systeem’? Wat doe je met een drone die vanop afstand door een mens bestuurd wordt, maar tijdens zijn vlucht ook beslissingen neemt op basis van zijn sensoren?

Een heel afgelijnde definitie is niet zo’n goed idee omdat ze op termijn irrelevant kan worden door de technologische evolutie. De Stanford-onderzoekers Bryan Casey and Mark Lemley wijzen er in een paper op dat een groot aantal koelkasten in de VS technisch gesproken valt onder een wet uit 1980, die de strategisch belangrijke computers van de overheid en de financiële sector moest beschermen tegen computercriminaliteit.

Casey en Lemley suggereren terug te grijpen naar de oude definitie van Alan Turing, de Britse pionier van artificiële intelligentie. Turing stelde een functionele test voor: een machine is ‘intelligent’ als haar gedrag niet te onderscheiden is van dat van een mens. De regelgeving zou in die optiek moeten kijken naar het concrete gedrag van robots, eerder dan hun technische kenmerken. In plaats van op de wet te vertrouwen, kunnen we de robo-industrie beter laten opvolgen door een sterke regulator die normen kan opleggen en afdwingen, zeggen de onderzoekers.

 

Lees verder

Advertentie
Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Gesponsorde inhoud