Door AI gaan we er allemaal aan. Of toch niet?

Professor vakgroep Wiskunde en Data Science van VUB en gespecialiseerd in wiskunde voor digitale toepassingen

Doembeelden verkondigen dat artificiële intelligentie tot het einde van de mensheid kan leiden. Misschien schuilt het echte gevaar niet in de machines, schrijft wiskundige Ann Dooms.

De ware toedracht van Sam Altmans inmiddels teruggedraaide ontslag bij OpenAI komen we allicht nooit te weten. De meeste speculaties komen erop neer dat Altman niet meer op één lijn zat met de missie van OpenAI. Dat wil niet zozeer een überintelligente machine ontwikkelen, maar erop toezien dat de ontwikkelingen in AI ten dienste van de mens blijven. OpenAI onderzoekt dus hoe je op een veilige manier zo’n überintelligente machine kan maken. Net daarom is het een non-profitorganisatie, die de ethiek niet overboord gooit omwille van commerciële belangen.

  • De auteur
    Ann Dooms is professor vakgroep wiskunde en data science aan de Vrije Universiteit Brussel. Ze is gespecialiseerd in wiskunde voor digitale toepassingen.
  • De kwestie
    Doembeelden verkondigen dat artificiële intelligentie tot het einde van de mensheid kan leiden.
  • De conclusie
    Het gevaar schuilt niet in AI an sich, maar in mogelijk misbruik van technologie voor eigen gewin.

Op welke manier Altman die missie te buiten wou gaan, daarover lopen de speculaties uiteen. Wou hij toch munt slaan uit de producten? Of wou hij een nieuw systeem op een onverantwoorde manier openstellen? Onlangs kwamen uit de stal van OpenAI namelijk enkele onderzoeksresultaten die het taalmodel GPT proberen te versterken, zodat het de eerste stappen kan zetten in redeneren.

Wiskundige bewerkingen

OpenAI probeert het model onder andere wiskundige bewerkingen te laten ontdekken. Het huidige model kan dat niet, omdat het louter een voorspeller van een volgend woord, zin of paragraaf is. Daar is het zeer goed in, omdat het gevoed werd met enorm veel data. Maar uit bewerkingen met getallen met drie cijfers kan het niet afleiden wat moet gebeuren bij getallen met veel meer cijfers.  

Het nieuwe model kan dat mogelijk wel. Dat zou opnieuw een stap vooruit zijn in het ontwikkelen van een slimme kompaan om problemen mee op te lossen. Toch wordt het aangegrepen om Altman te voortvarend te noemen, omdat de nieuwe ontwikkelingen en de ontsluiting daarvan de mens in korte tijd in gevaar zouden brengen.

In de media duiken doembeelden op die het einde van de mensheid verkondigen, onder meer van de hand van Tomas Pueyo. Die Spaanse ondernemer in Silicon Valley kreeg bij de corona-uitbraak in 2020 wereldwijde bekendheid met zijn oproep ‘flatten the curve’. Zijn berichten bereikten meer dan 60 miljoen lezers en werden vertaald in meer dan 40 talen. Sindsdien informeert hij zijn honderdduizenden volgers via blogs, waarin hij naar eigen zeggen de grootste problemen van onze toekomst analyseert.

In mei schreef hij nog dat het naïef is om bang te zijn van technologie, maar dat het ronduit gevaarlijk is de potentiële jobvernietiging te ontkennen. Nu gaat hij een stap verder en ziet hij ook gevaar in het almaar verbeteren van de technologie. Hij stelt dat artificial general intelligence (AGI) - het soort AI-systemen dat niet alleen heel goed is in een bepaalde taak, maar dat kennis ook elders kan toepassen - niet meer veraf is en zal leiden tot wat hij instrumental convergence noemt.  

De grootste dreiging die uitgaat van misbruik van technologie is een algeheel verlies aan vertrouwen in de wetenschap.

Wat dat is, illustreert hij met het gedachte-experiment van filosoof Nick Bostrom. Stel dat AI als opdracht heeft zoveel mogelijk paperclips te maken. Het zal niet lang duren voor het beseft dat het beter af is zonder mensen, want die kunnen de AI uitschakelen en dan eindig je met minder paperclips. Mensen bestaan ook uit atomen, die kunnen worden gebruikt om paperclips te produceren. De AI zou bijgevolg streven naar een toekomst met zoveel mogelijk paperclips - en geen mensen.

Om zijn doel te bereiken zal een AGI dus mogelijk keuzes maken die de mens niet ten goede komen. Volgens Pueyo kunnen wij die keuzes niet bijsturen, omdat we meestal conflicterende belangen hebben, waardoor ons lot beslecht zal worden door machines.

Internetparasiet

Maar ligt het gevaar wel in het ontwikkelen van betere AI-systemen? De ondernemer Jake Ward pochte vorige week dat hij AI gebruikt om bezoekers naar zijn website te lokken, waardoor hij via advertentieservices zoals Google AdSense een massa geld verdient. Fier legde hij uit hoe een taalmodel zoals ChatGPT je van code en inhoud kan voorzien om automatisch een website te vullen met duizenden volledig artificiële (maar waarschijnlijk onzinnige) content over populaire onderwerpen en die hoog in de zoekresultaten van Google te laten verschijnen. Zo kan je zonder enige inspanning grof geld verdienen aan nietsvermoedende bezoekers.

Ligt het probleem dan bij de AI of bij de advertentiebusiness die zo’n gedrag uitlokt en beloont? In die zin verschilt Pueyo niet zo veel van deze internetparasiet. Probeert hij de mens voor onheil te behoeden? Of produceert hij vooral clickbait om altijd opnieuw bezoekers te lokken?

Voor mij schuilt het gevaar dus niet in AI an sich - kan een computer ooit beseffen wat een mens is? Zoals altijd schuilt het gevaar vooral in mogelijk misbruik van technologie voor eigen gewin. De grootste dreiging die daarvan uitgaat is een algeheel verlies aan vertrouwen in de wetenschap, die we zo hard nodig hebben om vooruitgang mogelijk te maken.

Misschien zagen we vorige week al een eerste teken dat OpenAI probeert te laveren tussen conflicterende belangen, toen op sociale media heel wat klachten verschenen over de dalende codeerkwaliteiten van ChatGPT. Plots geeft de bot alleen nog de grote lijnen en draagt hij de gebruiker op zelf de gaten in te vullen. Dat is jammer, want het vertraagt nieuwe ontwikkelingen. Het verzekert programmeurs dan weer wel van hun job.

Gesponsorde inhoud