Je eigen gezicht op het lichaam van iemand anders fotoshoppen: dat kan al een tijdje en daar liggen maar weinig mensen wakker van. Maar nu gaat de technologie nog iets verder - en dat houdt de gemoederen wel bezig: fakeporno. Pornoplaatjes, -gifs of -filmpjes met het lijf van de één, en het hoofd van iemand anders.
Een paar dagen geleden bleek een gebruiker van reddit met de naam 'deepfakes' gehobbied te hebben met kunstmatige intelligentie-technologie. Hij maakte fakeporno met Wonder Woman-actrice Gal Gadot in de (letterlijke) hoofdrol. Best simpel, zei 'deepfakes', die anoniem wil blijven, tegen Motherboard.
Hij kreeg het voor elkaar met Google Image search, stockfoto's, YouTube én open source-technologie die iedereen met een beetje interesse in kunstmatige intelligentie en machine learning kan vinden en gebruiken.
In dit filmpje is nog redelijk te zien dat het nep is, maar de technologie verbetert snel. In de nabije toekomst zou het dus mogelijk kunnen zijn dat je níet doorhebt dat het nep is. En dat er dus regelmatig filmpjes opduiken waarin mensen dingen doen en zeggen die ze niet gedaan of gezegd hebben. Ook nieuwsvideo's.
Ik geef het een jaar voordat dit gebeurt.
Is dit de toekomst? Onze techredacteuren Joost Schellevis en Nando Kasteleijn twijfelen nog. "Dat duurt nog wel even", zegt Nando. "Ik geef het een jaar", vult Joost aan.
Met deze technologie wordt op meerdere plekken al geëxperimenteerd. "Adobe is aan het experimenteren met fake-audio", zegt Nando. "Ze kunnen teksten zo vervormen dat stemmen iets anders zeggen dan ze in eerste instantie zeiden. Dat heeft Adobe spontaan ergens gelanceerd, en toen toch maar teruggetrokken, vanwege de reacties. Het is natuurlijk niet onomstreden; je bouwt iets wat grote gevolgen kan hebben."
Joost laat een filmpje zien van de universiteit van Neurenberg, waarin de gezichten van politici visueel bewerkt zijn. Face2Face heet het, gemaakt door wetenschappers. "Maar daar begint het mee, met wetenschappers. Die heb je nodig om iets te laten maken, die de techniek mogelijk maken."
Dus hoe bang moeten we hiervoor zijn? "Als dit een commercieel product wordt, dan barst het echt los", zegt Joost.
"We gaan denk ik toe naar een samenleving waarin je op het eerste gezicht niet meer 100 procent zeker weet of een foto, audiofragment of filmpje klopt of niet. Fotoshoppen kennen we al, maar bewegend beeld is echt moeilijk te faken. Op het moment dat je met niet al te veel moeite een bewegend gezicht kunt implementeren in een video, dat is een andere koek. Dit gaat echt heel naar worden."