Deepfakes hebben effect op meningen, 'mensen trappen er vol in'
Mensen die zogeheten deepfakes, gemanipuleerde filmpjes, onder ogen krijgen van bijvoorbeeld politici, kunnen negatiever gaan denken over die persoon. Dat heeft onderzoek van de Universiteit van Amsterdam onder 278 mensen uitgewezen.
Bij deepfakes worden filmpjes met behulp van slimme algoritmes aangepast, waardoor je bijvoorbeeld een bekend persoon hele andere dingen kunt laten zeggen dan hij in werkelijkheid doet. De onderzoekers manipuleerden voor hun studie een video van voormalig CDA-leider Buma.
De groep die het nepfilmpje kreeg te zien, dacht na afloop negatiever over de politicus dan de groep die de oorspronkelijke video bekeek. De houding tegenover de hele partij bleef nagenoeg gelijk in beide situaties.
'Mensen trappen er vol in'
Overigens was de manipulatie goed gelukt, zegt UvA-onderzoeker Tom Dobber: slechts 8 van de 140 mensen die het filmpje zagen, twijfelden aan de echtheid ervan. "En deze was niet eens perfect, je zag af en toe dat de lippen gek bewogen. Het is opmerkelijk dat mensen er vol intrappen."
Verder werd er bij het inzetten van deepfakes gekeken naar de effecten van zogeheten microtargeting, het tonen van het filmpje aan een specifieke doelgroep. In dit geval ging het om christenen.
Daarbij viel op dat die groep na het zien van de gemanipuleerde video over het algemeen niet veel negatiever dacht over de CDA-politicus. Dat verschil was er wel bij specifiek CDA-stemmende, gelovige christenen: die reageerden heftiger op het filmpje.
Razend tempo
Maar het gevaar van microtargeting is moeilijk in te schatten, zegt Dobber. "We hebben aangetoond dat er een vrij groot effect is bij die zeer specifieke groep christenen, maar dat wisten we pas toen we het onderzoek gedaan hadden. We hadden verwacht dat alle christenen daar heftig op zouden reageren, maar dat was dus niet zo. Je kunt je afvragen of het reëel is dat deepfakes op die specifieke manier kunnen worden misbruikt."
Verschillende deepfakes naar meerdere mensen sturen, kan dat effect nog versterken. Maar, zeggen de wetenschappers, dat gevaar is nog niet in zicht, omdat de technologie nog niet optimaal werkt. Dat kan wel snel veranderen, omdat de technologie zich in een razend tempo ontwikkelt.
In onderstaande video zie je hoe zo'n deepfake video werkt: