'Artificieel intelligente' porno opent doos van Pandora

Celebrity’s als Emma Watson, Daisy Ridley, Scarlett Johansson, Taylor Swift (vlnr.) worden vaak misbruikt voor deepfakes, valse pornofilmpjes. ©rv

Pornofans maken met geavanceerde artificiële intelligentie nepvideo’s met gezichten van celebrity’s. Zijn beelden straks nog geloofwaardig? ‘Zien was geloven, maar dat is nu gedaan.’

In de eerder duistere hoekjes van het internet groeit een nieuwe hobby: pornovideo’s bij elkaar knutselen waarin bekende sterren gewillig uit de kleren lijken te gaan. Populair zijn onder meer filmpjes met Emma Watson en Taylor Swift. Honderd procent nep, maar de fantasie van sommige knutselaars benadert de realiteit wel sterk. De beelden worden gemaakt door de gezichten van de celebrity’s via spitstechnologie op die van actrices in pornovideo’s te kleven.

Deepfakes heet het fenomeen, genoemd naar de alias van een overijverige gebruiker van het online forum Reddit. Die zette machine learning in, een techniek in artificiële intelligentie (AI) die sterk in opmars is. Bij machine learning wordt een algoritme op eigen houtje steeds beter in een taak door zich met data te voeden. In dit geval: beelden genereren.

Aan de hand van honderden foto’s van een beroemdheid (een zoekopdracht op Google Images volstaat) creëert de technologie een gezicht dat er heel sterk op lijkt, en plakt het het aan het lijf van een pornoactrice.

Aan de hand van honderden foto’s van een beroemdheid (een zoekopdracht op Google Images volstaat) creëert de technologie een gezicht dat er heel sterk op lijkt, en plakt het het aan het lijf van een pornoactrice.

Fakeapp

Eind vorig jaar stootte de techsite Motherboard voor het eerst op de gebricoleerde video’s. Een expert voorspelde toen dat het slechts een kwestie van enkele jaren was voor iedereen op een eenvoudige manier aan de slag kon met software die automatisch realistische video’s fabriceert. Het bleek een kwestie van weken.

Vorige maand werd op Reddit Fakeapp gelanceerd, een desktopapplicatie waarmee iedereen aan de slag kan en die intussen al ruim 100.000 keer werd gedownload. Het kanaal voor Deepfakes op Reddit telt meer dan 90.000 leden.

Tot Reddit deze week de pagina’s verbood. Zoals dat vaak gaat, hollen online platformen achter de feiten aan. Ook Twitter en Pornhub (een van de grootste websites in zijn soort) bannen deepfakes omdat het gaat om beelden die zonder toestemming zijn gemaakt.

Misbruik technologie

‘De technologie voor gezichtsherkenning via AI gaat heel snel vooruit’, zegt Tinne Tuytelaars, professor Computervisie aan de KU Leuven. ‘Het wetenschappelijk onderzoek focust op het trainen van modellen om bijvoorbeeld gezichtsemoties beter te begrijpen met het oog op de interactie tussen mens en computer. Het is standaard om die modellen te delen, dat bevordert de progressie. Tot iemand de technologie ook gaat misbruiken.’

Deepfake

Deepfake-video’s komen tot stand dankzij machine learning, een vorm van artificiële intelligentie. Door een algoritme te voeden met data – in dit geval honderden foto’s van beroemdheden – genereert het een gezicht dat wordt vermengd met het lichaam van actrices in bestaande porno-video’s. Software om dergelijke nepbeelden te maken werd op korte tijd ruim 100.000 keer gedownload.

Geknoei met beelden, stilstaande en bewegende, is zo oud als de fotografie. Dat een foto getrukeerd kan zijn, daar zijn we in tijden van Photoshop al lang voor op onze hoede. Maar om onechte videobeelden op een enigszins geloofwaardige manier te creëren en te manipuleren, daar had je tot voor kort de special effects van een Hollywood-studio voor nodig. De vrij beschikbare huis-, tuin- en keuken-AI van Deepfake brengt die vaardigheid bij iedereen die er interesse voor heeft.

Verregaande gevolgen

Je hoeft geen techpessimist te zijn om te zien waartoe dat kan leiden. Terwijl fanaten hun fantasieën botvieren, kunnen de gevolgen veel verder reiken dan porno op obscure internetfora. De technologie kan steeds meer de scheiding tussen feit en fictie verstoren. Temeer omdat het niet de eerste keer zou zijn dat vanuit de pornowereld technologische innovatie wordt gepusht die mainstream wordt in ons dagelijks leven: denk aan de VHS-cassettes of videocompressie.

‘Dit kan brede schadelijke gevolgen hebben’, zegt Jeroen van den Hoven, technologie-ethicus aan de Technische Universiteit Delft. ‘Het toont nog eens aan dat we de afgelopen decennia te naïef bezig waren met digitale technologie.’

Revenge porn

Dit toont aan dat we de afgelopen decennia te naïef bezig waren met digitale technologie.
Jeroen van den Hoven
Technologie-ethicus TU Delft

Celebrity’s zijn relatief makkelijke slachtoffers omdat hun foto’s, de grondstof voor de AI, overal te vinden zijn. Maar ook gezichten van gewone stervelingen zijn online wijd verspreid. Vorig jaar werden meer dan 24 miljard selfies geüpload via Google Photos. Nu al is ‘revenge porn’ een bijzonder kwalijke plaag op het internet: intieme foto’s of video’s worden gedeeld om een ex-geliefde voor schut te zetten. Die beelden zijn voortaan gewoon na te maken. Ook al wordt de echtheid ontkend, de schade is berokkend.

Helemaal nieuw is zo’n manipulatie niet. In 2016 experimenteerde een Duitse onderzoeksgroep met technologie waarbij je beelden in real time kan vervormen doordat een gezicht op video uitdrukkingen overneemt van een acteur.

Het softwarebedrijf Adobe, de maker van Photoshop, heeft een programma in huis dat je alles kan laten zeggen nadat het amper twintig minuten je stem heeft gehoord. Combineer dat, en we krijgen scenario’s waarin pakweg nepbeelden circuleren van Donald Trump die Noord-Korea de oorlog verklaart.

Nu al zijn er krachten genoeg die via propaganda in de vorm van nepnieuws ons doen en denken willen beïnvloeden. Als een verzonnen bericht mensen al dingen kan doen geloven die niet waar zijn, welke kant gaat het dan op met fake video en audio? ‘Het is een zeer geavanceerde aanvulling op het gamma middelen’, zegt Van den Hoven.

Instorten vertrouwen

Het softwarebedrijf Adobe heeft een programma in huis dat je alles kan laten zeggen nadat het amper twintig minuten je stem heeft gehoord. Combineer dat, en we krijgen scenario’s waarin pakweg nepbeelden circuleren van Donald Trump die Noord-Korea de oorlog verklaart

Moeten we er ons bij neerleggen dat geen enkele vorm van digitale informatie nog betrouwbaar is? Ester Keymolen, technologiefilosofe aan de Universiteit Leiden, vreest een complete instorting van wat we kunnen vertrouwen. ‘In principe zijn we nooit fundamenteel zeker of iets waar is, maar we hebben altijd waarborgen gehad om iets te geloven. Die zekerheden brokkelen af.’

Technologie kan ook oplossingen bieden, zegt Tuytelaars. En die ligt waarschijnlijk in cryptografie, het versleutelen van informatie bij elke video. ‘Dat zullen we moeten omarmen. Pas als beelden voorzien zijn van de correcte digitale handtekening, die het mogelijk maakt de oorsprong ervan te traceren, mogen we aannemen dat ze echt zijn. Lang gold het principe: zien is geloven. Dat is nu voorbij.’

Lees verder

Gesponsorde inhoud

Partner content