De hacker van morgen klinkt precies zoals uw baas

In een deepfakevideo deed Facebook-topman Mark Zuckerberg zogenaamd zijn complot voor wereldheerschappij uit de doeken. ©RV DOC

Vervalsing en photoshoppen zijn van alle tijden, maar met de opkomst van artificiële intelligentie betreden we een nieuw tijdperk. ‘De politiek en de zakenwereld zijn de volgende doelwitten.’

Stel: u werkt op het financieel departement waar u verantwoordelijk bent voor de betalingen van uw bedrijf. Wat zou u doen als uw baas u opbelt met de vraag dringend een bepaald bedrag over te schrijven? Aandringen dat hij de geijkte procedures volgt, of toch maar het geld meteen overschrijven?

Het is een menselijke reactie om de orders van hogerhand blindelings te volgen, maar u zou er goed aan doen toch maar aan te dringen op de nodige handtekeningen. Want wat als uw baas in werkelijkheid een computer is die zich perfect heeft vermomd als uw baas?

We hebben al weet van een tiental pornosites die helemaal gewijd zijn aan deepfakevideo’s, waarin de acteurs bijvoorbeeld vervangen worden door bekende personen.
Henry ajder
deeptrace

De hierboven beschreven fraude is geen vergezochte fantasie. De voorbije maanden raakten verschillende gevallen bekend van bedrijven die het slachtoffer werden van oplichting met zogenaamde ‘deepfaketelefoongesprekken’.

De krant The Wall Street Journal bracht zopas nog aan het licht dat de CEO van een Brits energiebedrijf 220.000 euro aan fraudeurs overmaakte omdat hij daartoe de opdracht had gekregen van de baas van zijn Duitse moederbedrijf. Tenminste, dat dacht hij. Pas toen hij een tweede keer gebeld werd met een gelijkaardig verzoek gingen bij de CEO alarmbellen af.

Het beveiligingsbedrijf Symantec rapporteerde afgelopen jaar een handvol incidenten waarbij bedrijven opgelicht werden met deepfakes. In een van de opmerkelijkste gevallen werd 10 miljoen dollar overgeschreven door een bediende die dacht dat zijn CEO hem daartoe hoogstpersoonlijk de opdracht had gegeven.

Geef uw gezicht niet weg

In China is de voorbije dagen opschudding ontstaan over Zao, een app die in geen tijd naar de top van de ranglijst van populairste apps is doorgestoten. Gebruikers kunnen met de app hun selfies met verschillende gezichtsuitdrukkingen uploaden. Zao produceert daarmee een deepfakevideo, waarbij het gezicht van de gebruiker geplakt wordt in bekende filmscènes of videoclips.

De app werd niet alleen miljoenen keren gedownload, maar kreeg ook een storm van kritiek te verwerken wegens een totaal gebrek aan privacywaarborgen. Wie de algemene voorwaarden van de app aanvaardde, stemde ermee in dat zijn beelden gratis en onherroepelijk de eigendom werden van Zao, dat ze zonder enige beperking mag doorverkopen of in licentie geven. Bovendien moesten gebruikers ook hun telefoonnummers afstaan aan de makers.

In reactie op de kritiek werd de app geblokkeerd door WeChat, de belangrijkste chatdienst van China die veel mensen gebruiken om apps met elkaar te delen. Zao besliste uiteindelijk de omstreden gebruiksvoorwaarden te schrappen.

De heisa doet denken aan de recente kritiek op de fotobewerkingsapp FaceApp. Gebruikers lieten de app hun gezicht bewerken, zodat ze bijvoorbeeld zien hoe ze er over tientallen jaren uitzien of als ze van het andere geslacht zouden zijn geweest. Die app is gemaakt door een Russisch bedrijf.

‘Strikt genomen spreken we van deepfakes wanneer de vervalsing volledig door een zelflerend algoritme gemaakt is. We hebben geen indicaties dat dat in die concrete gevallen is gebeurd, maar dat is slechts een kwestie van tijd. De technologie bestaat en wordt heel snel beter’, zegt Henry Ajder van Deeptrace, een start-up die beveiligingstools ontwikkelt om vervalste media tegen te houden.

Een teken aan de wand dat die ‘synthetische media’ op het punt staan mainstream te worden is hun populariteit in de pornowereld, die wel vaker een voorloper is in het gebruik van nieuwe technologie. ‘We hebben al weet van een tiental pornosites die helemaal gewijd zijn aan deepfakevideo’s, waarin de acteurs bijvoorbeeld vervangen worden door bekende personen.’ Het gaat niet alleen om celebrity’s. ‘Ook duizenden gewone vrouwen zijn het slachtoffer van vervalste video’s, die gebruikt worden om wraak te nemen of om hen af te persen.’

Het zakenleven en de politiek zijn volgens de analist de volgende doelwitten. ‘Logisch, want daar valt geld en macht te rapen.’ De voorbije maanden haalden al enkele voorbeelden van gemanipuleerde video’s het nieuws. Zo verspreidden de Vlaamse socialisten vorig jaar een filmpje waarin de Amerikaanse president Donald Trump ons land schijnbaar opriep het klimaatakkoord van Parijs op te zeggen.

Donald Trump

De echte Trump verspreidde afgelopen mei dan weer een gemanipuleerde video van Nancy Pelosi, de leidster van de Democratische fractie in het Amerikaanse Huis van Afgevaardigden. Een opname van haar persconferentie werd subtiel veranderd, waardoor het leek alsof ze dronken of mentaal gestoord was. Trump maakte dankbaar gebruik van de clip om zijn politieke tegenstander belachelijk te maken.

Ook tijdens de Braziliaanse presidentsverkiezingen, die gewonnen werden door de rechts-populist Jair Bolsonaro, kwamen meldingen van vervalste foto’s en audio-opnames waarin politieke tegenstanders gecompromitteerd werden. En in juni haalde een video het nieuws waarin Facebook-topman Mark Zuckerberg zogenaamd zijn complot voor de wereldheerschappij uit de doeken deed.

Specialisten vrezen dat we nog maar aan het begin staan van een lange mars naar ‘Peak Fake’, een wereld waarin we niet meer mogen vertrouwen wat we (digitaal) horen en zien. ‘De verspreiding van deepfakes heeft potentieel explosieve implicaties voor individuen en de maatschappij’, zei Danielle Citron, professor aan de universiteit van Maryland, in een getuigenis voor het Amerikaanse Congres. ‘Dit wordt een aanval op reputaties, de politiek, de journalistiek, de nationale veiligheid, en de waarheid als fundament van de democratie.’

Argwaan

Voor securitybedrijven zoals Deeptrace opent zich een nieuw front in de nooit aflatende oorlog tegen hackers en fraudeurs. ‘Onze technologie zoekt op pixelniveau naar de vingerafdrukken die bij de productie van deepfakes worden achtergelaten. Die zie je met het blote oog niet’, zegt Ajder. Hij voorspelt een wedloop, waarbij producenten van deepfakes en beveiligingsbedrijven elkaar de loef proberen af te steken met superieure artificiële intelligentie.

Ook digitale watermerken, waarmee de authenticiteit van een opname bevestigd wordt, kunnen een stuk van de oplossing leveren. Maar in afwachting van de ultieme beveiligingsmethode is een gezonde portie argwaan wellicht de beste beveiliging. Denk dus maar beter twee keer na als uw CEO nog eens aan de lijn hangt.

Lees verder

Advertentie
Advertentie

Tijd Connect