Ook computers moet je opvoeden

©AFP

We laten artificiële intelligentie steeds meer beslissingen nemen, maar ze zijn niet altijd ethisch verantwoord. ‘Als we de technologie nu niet rechttrekken, gaat onze samenleving ten onder.’

‘Artificiële intelligentie (AI) komt niet op ons af als een lawine, maar zit nu al verankerd in ons leven’, zegt Nell Watson, AI-expert van de Amerikaanse Singularity University. We laten Google bepalen welke route we het best nemen naar het werk, hoe onze zinnen af te maken in sms-berichten en welke video’s we te zien krijgen. Met Googles nieuwe slimme fototoestel Clips laten we het zelfs aan machines over om te beslissen welke momenten we ons het best blijven herinneren.

Volgens marktonderzoeker Gartner zullen we tegen 2020 meer communiceren met virtuele assistenten dan met onze eigen partner. ‘Ik praat soms nu al meer met robots dan met mensen’, lacht Kriti Sharma, AI-specialist bij het accountantbedrijf Sage. Ze ontwikkelde de boekhouderbot Pegg.

De technologie biedt heel wat kansen om saaie en repetitieve taken uit handen te geven. ‘Virtuele assistenten zijn voor gewone mensen zoals de butlers en assistenten er zijn voor rijkelui’, aldus Watson. De technologie leert zichzelf zaken aan door grote datasets te analyseren. Hoe meer we op zulke systemen gaan vertrouwen, hoe belangrijker het wordt dat ze foutloos werken. Maar hier knelt het schoentje.

Fouten

Neem nu met de stem gestuurde software. Die slaagde er in zijn begindagen niet in om vrouwenstemmen goed te verstaan. Het kwam doordat het team van ontwikkelaars voornamelijk uit mannen bestond en ze de software dus enkel met mannenstemmen trainden. Het kwam bij hen niet op om het systeem bloot te stellen aan vrouwenstemmen, waardoor het de helft van de bevolking niet goed bediende.

Amerikaanse rechters gebruiken software die getraind is op basis van de data van gevangenen en veroordelingen. Hierdoor zal het systeem oordelen dat niet-blanken een veel hoger risico lopen op herval, zonder enig inzicht in de onderliggende sociale problemen en vooroordelen.

Als we het systeem met bevooroordeelde data voeden, spuwt het enkel vooroordelen uit.
Kriti Sharma
AI-expert Sage

Een ander voorbeeld is de fotoherkenningssoftware van Google. Door de software te trainen met grote hoeveelheden foto’s kan die een verjaardagsfeestje, een lachende vrouw of rennende honden herkennen. Door een tekort aan beelden van zwarte mensen, ging het hen herkennen als gorilla’s.

Zulke fouten zijn pijnlijk en leggen een cruciaal probleem van artificiële intelligentie bloot. ‘Als we het systeem bevooroordeelde data voeden, spuwt het enkel vooroordelen uit’, zegt Sharma. Bovendien hebben onderzoekers weinig controle over wat de machine allemaal leert en waarom ze bepaalde beslissingen neemt. ‘Dit wordt problematisch als een machine bepaalt wie een gevangenisstraf moet uitzitten of ongeschikt is om kinderen op te voeden’, aldus Sharma. Onderzoekers bouwen daarom aan zelflerende software die ook uitlegt waarom hij bepaalde beslissingen neemt. Maar de technologie staat nog in de kinderschoenen.

Zuurpruim

Wat kunnen we nu wel al doen? Volgens Sharma kunnen kleine maatregelen al een grote impact hebben. Ze stelt voor om teams van ontwikkelaars diverser te maken. ‘Een team van mannen en vrouwen met verschillende etniciteit en achtergrond voorkomt al heel wat problemen.’ Om software te testen stelt ze ook gedragscodes voor waaraan technologie zich moet houden.

Niet alleen ontwikkelaars, maar ook gebruikers dragen verantwoordelijkheid. Microsofts chatbot Tay veranderde binnen 24 uur van optimistische machine in een racistische en seksistische zuurpruim omdat gebruikers er een spel van maakten de robot zo snel mogelijk te breken. Volgens Sharma moeten mensen leren om zich te gedragen met technologie. ‘Dat gedrag heeft een impact op de technologie en onze relatie met anderen. We leren kinderen om een vrouwelijke stem te bevelen en af te blaffen. Daar moet je toch vraagtekens bij plaatsen’, zegt Sharma. ‘Er bestaan zo al virtuele assistenten die ophouden te helpen, nadat je hen meerdere keren uitgescholden hebt.’

Volgens Watson moeten we het veel groter aanpakken. Zij werkt aan een overkoepelend ethisch algoritme als oplossing. Zo’n algoritme zal andere systemen beoordelen en kan als ethisch adviseur optreden.

‘Het vervangt wetten en religie.’ Volgens Watson kan zo’n algoritme tegen 2020 ethische vragen op kleuterniveau beantwoorden. ‘Het gaat om waarden zoals stelen is fout, verniel andermans eigendom niet en doe een ander niet pijn.’ De volgende decennia zal de technologie een stap verder gaan. ‘Net zoals een machine nooit geziene zetten in een spel ontwikkelt zal ze ook een ethiek ontwikkelen, die het menselijk denken overstijgt.’

Lees verder

Advertentie
Advertentie

Gesponsorde inhoud