Komt een neuraal netwerk bij de psychiater

De column die alle hoeken van de wetenschap verkent.

Niet lang geleden had ik het er in deze column over hoe artificiële intelligentie soms als een black box functioneert, of zelfs een soort orakel dreigt te worden. Het kunstmatig intelligente neurale netwerk lost problemen op of beantwoordt vragen, maar geen mens begrijpt hoe het dat doet.

Dat is vervelend voor wetenschappers, die niet alleen het antwoord op een vraagstuk wensen, maar vooral willen begrijpen. En het is potentieel gevaarlijk voor de samenleving als artificiële intelligentie beslissingen gaat nemen die een impact hebben op mensen. Als ze een medische diagnose stelt bijvoorbeeld, beslist of je een lening krijgt, een rechter adviseert over schuld of onschuld, of een wapen afvuurt op het slagveld. Mensen zijn misschien wel bereid beslissingen van kunstmatige intelligentie te aanvaarden, op voorwaarde dat ze ook begrijpen hoe de machine tot haar besluit komt.

Kunstmatige intelligentie van het modieuze type werkt niet met regels die door mensen zijn geprogrammeerd. Zogeheten neurale netwerken met 'deep learning' leren zelf, uit een grote verzameling voorbeelden. Zodra het leer-proces is voltooid, kunnen we wel zien of het netwerk goede resultaten boekt, maar niet hoe. We weten nooit helemaal zeker wát het apparaat precies uit zijn lesmateriaal heeft geleerd en hoe het daaruit conclusies trekt.

De voorbeelden waar het is misgelopen, zijn legio. Een neuraal netwerk denkt dat een boomtak een vogel is, omdat alle plaatjes van vogels in zijn oefenmateriaal toevallig vogels op takken toonden. Of iets meer sinister: een netwerk aanziet een schildpad voor een geweer, omdat het patroon op zijn schild een beetje lijkt op het hout van een geweerkolf. Het netwerk had namelijk geleerd geweren te herkennen aan een irrelevant detail.

Het is dus van belang dat we begrijpen hoe kunstmatig intelligente neurale netwerken precies denken, zodat we zulke fouten kunnen voorkomen. Maar hoe kunnen we een ondoorgrondelijke slimme machine begrijpen? Juist, we sturen ze naar de psychiater. En welke soort psychiater zou een kunstmatig neuraal netwerk kunnen begrijpen? Een tweede kunstmatig neuraal netwerk, natuurlijk.

Als u dat een wat twijfelachtige strategie vindt, bent u in goed gezelschap. Het vakblad Science omschreef het onlangs als 'embracing the darkness'. Afwachten of het wat oplevert. Onder meer het Georgia Institute of Technology experimenteert ermee. Professor Mark Riedl heeft al een neuraal netwerk getraind om het antieke videogame 'Frogger' te spelen, waarin een kikker moet proberen ongedeerd een drukke straat over te steken. Een tweede netwerk trainde hij om tijdens het spel uit te leggen wat het eerste aan het doen is: 'even wachten op een opening tussen het aankomende verkeer'.

Natuurlijk wordt daarmee het zwartedoosprobleem in het beste geval verschoven, en in het slechtste geval verdubbeld. Wat het tweede netwerk doet, omschrijft Riedl als 'rationaliseren', en dat is waarschijnlijk de nagel op de kop. Het is precies wat wij mensen doen als we een goed klinkende uitleg uit onze mouw schudden voor ons eigen gedrag dat we niet begrijpen.

* Steven Stroeykens, schrijver, wetenschapsjournalist, fysicus en blogger op zandrekenaar.be

Lees verder

Advertentie
Advertentie

Gesponsorde inhoud

Partner content