Facebook-topman Mark Zuckerberg EPA

Nu het Amerikaanse verkiezingsjaar is aangebroken heeft Facebook zijn beleid omtrent het aanpakken van zogeheten deepfakes aangescherpt. Dat zijn video's die worden gemanipuleerd via kunstmatige intelligentie.

De vrees is dat partijen de technologie zullen gaan gebruiken om beelden van presidentskandidaten en andere politici te manipuleren. Als zo'n video viral gaat op Facebook, kan dat voor degene die erin voorkomt grote gevolgen hebben. In september uitte ook het Nederlandse Openbaar Ministerie zijn zorgen over de technologie.

Facebook kondigt in een blogpost aan dat het voortaan "gemanipuleerde media" gaat verwijderen die "zijn bewerkt of veranderd - afgezien van aanpassingen voor helderheid of kwaliteit - op manieren die niet te zien zijn. Zo kunnen mensen misleid worden, doordat iemand in een video iets lijkt te zeggen dat hij niet heeft gezegd."

Parodie of satire

Het tweede criterium is als het gaat om een "product is van kunstmatige intelligentie, waarin content wordt samengevoegd, vervangen of over een video heen wordt geplaatst, waardoor het beeld authentiek overkomt". Aan beide criteria moet worden voldaan om de video te laten verwijderen.

Verder benadrukt het bedrijf dat dit niet van toepassing is op parodie of satire. Daarnaast vallen video's waarin alleen woorden zijn weggelaten of veranderd niet onder het nieuwe beleid.

Een video die in dit debat vaak wordt aangehaald is een opname van Nancy Pelosi, de voorzitter van het Huis van Afgevaardigden en de machtigste Democraat in Amerika. Er verscheen in mei een video van haar op Facebook waarin het leek alsof ze niet goed uit haar woorden kwam. Die video bleek vertraagd.

Al is dit geen voorbeeld van het gebruik van deepfake-technologie, het was wel een katalysator in het debat over waar de grenzen liggen. Facebook besloot toen dat de video mocht blijven staan.

Bekijk hier de echte en bewerkte video met Nancy Pelosi:

Facebook bevestigt tegenover de NOS dat de video van Pelosi ook onder de nieuwe regels mag blijven staan. Het bedrijf stelt dat het bereik ervan is beperkt na beoordeling door een factchecker. Desondanks is de video kort na publicatie al ruim 1,4 miljoen keer bekeken.

Hany Farid, een digitaal forensisch expert aan de Universiteit van Californië, uit tegenover The Washington Post zijn zorgen over het beleid van Facebook. "Deze video's zijn gemaakt met simpele technische hulpmiddelen en zonder AI, maar ze waren net zo misleidend als een deepfake-video." Farid vraagt zich af waarom Facebook zich alleen richt op deepfakes en niet naar het bredere probleem van misleidende video's kijkt.

Facebook zegt in reactie op die kritiek dat het ontwikkelingen rond deepfakes in de gaten blijft houden en zijn beleid hierop zal afstemmen.

STER reclame