opinie

Laat AI toe kunstmatig menselijk te zijn

Een verbod op AI die de illusie kan wekken menselijk te zijn is geen goed idee. Mensen zullen technologie altijd antropomorfiseren. Bovendien is die menselijkheid net het ingrediënt dat mens en machine bindt.

Heb je al eens een praatje geslagen of je (huis)werk laten maken door ChatGPT, de snelst groeiende softwaretoepassing in de geschiedenis? Dan kreeg je misschien even de indruk dat je niet met een computer, maar met een echte persoon aan het converseren was.

Het blijft een tekstvoorspeller op steroïden, die op een originele manier teksten uit het verleden repliceert.

Deze maand lanceerde Microsoft een nieuwe versie van Bing, die geholpen wordt door hetzelfde AI-systeem waaruit ook ChatGPT ontstaan is. Een journalist van The New York Times beschreef hoe de chatbot hem plots de liefde verklaarde en daarna manipulatief gedrag leek te vertonen. Het bezorgde hem slapeloze nachten. Microsoft greep in door de lengte van de conversaties in Bing te beperken. Google ontwikkelt met LaMDA een gelijkaardig AI-systeem. Een werknemer raakte er vorig jaar van overtuigd dat LaMDA zelfbewust was geworden. De man werd ontslagen. Moeten we ons zorgen maken?

De essentie
  • De auteurs
  • Bram Vanderborght is professor robotica, verbonden aan Imec en de VUB. Tony Belpaeme is professor robotica, verbonden aan Imec en de UGent en auteur van 'Op weg naar de artificiële mens?' (2019).
  • De kwestie
  • Voor sommigen mag technologie nooit de illusie wekken menselijk te zijn. Je hoort ook pleidooien dergelijke AI te verbieden.
  • Het voorstel
  • Dat is geen goed idee. Mensen zullen technologie altijd antropomorfiseren. Bovendien is die menselijkheid net het ingrediënt dat mens en machine bindt.

Mensen denken vaak ten onrechte dat artificiële intelligentie een volledig kunstmatige kopie is van menselijke intelligentie. AI-algoritmes maken gebruik van kunstmatige neurale netwerken, waarvan de werking tot op zekere hoogte geïnspireerd is op de werking van het menselijke brein. Er zijn analogieën te trekken, maar iedere metafoor stoot vroeg of laat op zijn limieten.

Als je deze tekst leest, verwerk je niet alleen de woorden op de pagina, maar probeer je ook de bedoelingen van de auteurs in te schatten. Je vraagt je misschien af hoe de onderliggende thema’s kwalitatief verband houden met je eigen leven. Computers verwerken informatie daarentegen volledig kwantitatief. Neurale netwerken doorploegen gigantische hoeveelheden data en optimaliseren hun parameters voortdurend op basis van nieuwe informatie en feedback.

Eliza

Uiteindelijk blijken ze daardoor in staat creatieve uitvoer te genereren. Wat ze doen, lijkt op intelligentie. Net omdat ze getraind zijn door miljoenen teksten die geschreven zijn door intelligente wezens. Maar het blijft een tekstvoorspeller op steroïden, die op een originele manier teksten uit het verleden repliceert.

Dat mensen zich daardoor laten bedotten, is niet verrassend en niet nieuw. In de jaren 60 ontwikkelde de AI-onderzoeker Joseph Weizenbaum de eerste chatbot, Eliza. Zijn secretaresse wist bij het uittesten dat Eliza gewoon een computerprogramma was, maar al snel werd het gesprek te persoonlijk. Ze vroeg Weizenbaum of hij haar even alleen kon laten met Eliza.

Chatbots zoals Eliza, ChatGPT en Bing leren ons wellicht meer over mensen dan over machines. De mens is een sociaal dier. We hebben het vermogen ontwikkeld elkaar te begrijpen en ons in te leven in iemand anders. We zien al snel een gezicht in een wolk of een stopcontact. Het menselijke brein heeft de neiging dingen te antropomorfiseren. Ook robots worden geregeld eigenschappen toegedicht die ze absoluut niet hebben. Mensen vinden een wuivende robot sympathiek en voelen medelijden als hij valt.

We geven technologie, zoals robots en chatbots, vaak bewust menselijke eigenschappen om een intuïtieve interactie mogelijk te maken. Duizenden jaren menselijke evolutie vormen een waardevolle inspiratiebron. Een hoofd op een robot of een chatbot die smileys gebruikt kan de communicatie met mensen vlotter maken. Maar hoever mogen we daarin gaan?

Waarschuwingssticker

Het lijkt een goed idee het ‘artificiële’ altijd duidelijk te vermelden: geef AI als het ware een waarschuwingssticker die eraan herinnert dat elke emotie die je ziet onecht is. De filosoof Mark Coeckelbergh wil klaarblijkelijk nog een stap verder gaan. Hij waarschuwt dat technologie nooit de illusie mag wekken menselijk te zijn.

Het enthousiasme voor ChatGPT toont misschien net aan dat we nood hebben aan AI die reageert als een mens, die emotie kan tonen en ons lijkt te begrijpen.

Een verbod op AI die menselijk lijkt, houdt geen steek. We zullen technologie altijd tot op zekere hoogte antropomorfiseren. Ook al weten we dat we met een computer praten, we kunnen het niet laten er menselijke eigenschappen aan toe te kennen. 

Bovendien is die menselijkheid net het ingrediënt dat mens en machine bindt. Het plaatst de mens centraal in de communicatie. Het enthousiasme voor ChatGPT toont misschien net aan dat we nood hebben aan AI die reageert als een mens, die emotie kan tonen en ons lijkt te begrijpen.

Waarom zou dat beetje artificiële menselijkheid een probleem zijn? Ook in onze dagelijkse omgang met anderen zijn we af en toe artificieel. Van de winkelbediende die ons een complimentje geeft tot de therapeut die medeleven toont. Het is niet altijd oprecht, maar wel gewenst. Waarom zouden we AI dan niet toelaten af en toe artificieel menselijk te zijn?

Lees verder
Gesponsorde inhoud