Facebook-topman Mark Zuckerberg opende de jaarlijkse ontwikkelaarsconferentie
NOS NieuwsAangepast

Het kat-en-muisspel tussen Facebook, trollen en spammers in cijfers

Nepnieuws, spam, wraakporno of propaganda. Facebook staat al tijden onder grote druk om meer te doen tegen deze vormen van ongewenste content.

Het platform heeft nu voor het eerst interne cijfers gepubliceerd die een beeld moeten geven van de hoeveelheid berichten en accounts die periodiek worden verwijderd. De cijfers maken duidelijk dat Facebook op een immense schaal te maken heeft met misbruik. Het is de bedoeling dat het netwerk voortaan elk half jaar een rapport gaat uitbrengen over dit onderwerp.

Facebook verwijderde in het eerste kwartaal 837 miljoen berichten, waarvan het grootste gedeelte bestond uit spam. De rest was bijvoorbeeld seksueel of terroristisch getint.

Snel verwijderd

Het platform verwijderde daarnaast in dezelfde periode 583 miljoen nep-accounts. Volgens Facebook worden de meesten hiervan kort na registratie al gedeletet. Dit gebeurt door te kijken naar allerlei signalen en patronen, zegt een woordvoerder.

Zo gebeurt het volgens Facebook vaak dat een persoon of organisatie in korte tijd veel accounts aanmaakt of in een keer veel gebruikers gaat volgen. Dit soort nep-accounts worden om allerlei redenen geregistreerd: bijvoorbeeld om spam te verspreiden of om fraude te plegen.

Het rapport moet daarnaast duidelijk maken dat het gebruik van kunstmatige intelligentie voor Facebook van essentieel belang is. Het bedrijf zegt dat hiermee in het eerste kwartaal van dit jaar 96 procent van de seksueel getinte content automatisch werd gesignaleerd. Bij berichten over geweld ligt dat percentage lager: 86 procent.

Niet alles is op deze manier even goed aan te pakken. Dat is vooral te merken bij haatzaaiende content, waarvan slechts 38 procent met behulp van kunstmatige intelligentie is ontdekt.

Een gevoelig punt voor Facebook. In Duitsland is sinds begin dit jaar een wet van kracht die voorschrijft dat als sociale media niet binnen 24 uur de content offline halen, een boete volgt. Maar ook vanuit de rest van Europa wordt druk uitgeoefend op Facebook en andere sociale media om hier sneller op te reageren.

In de blogpost waar deze cijfers in staan, erkent Facebook ook dat het er nog lang niet is. "We hebben veel werk te doen op dit gebied. Dit komt deels doordat het nog jaren duurt voordat technologie zoals kunstmatige intelligentie voor bijna alle vormen van content kunnen worden gebruikt." Veel sneller kan het niet; het 'lezen' en begrijpen van context is voor dit proces essentieel en dat is enorm ingewikkeld.

Transparantie

Het delen van deze informatie is voor Facebook een poging om transparanter over te komen. Dat lijkt deels te zijn gelukt, maar er blijven ook vraagtekens over.

"Het is goed dat Facebook dit doet, maar het is frustrerend dat het zolang heeft geduurd. Facebook moet nog transparanter worden over hoe het dit soort content signaleert en wat het verwijdert", zegt een woordvoerder van het EFF, een organisatie die opkomt voor burgerrechten online, tegen The New York Times.

"Waarom zou iemand Facebook geloven?", zegt Samuel Woolley van de denktank Institute for the Future tegen dezelfde krant. "Ze hebben zo'n slechte reputatie op dit vlak." Woolley zou graag zien dat onafhankelijke onderzoekers dit soort rapporten opstellen. "We vertrouwen het Facebook toe over zichzelf te rapporteren zonder onafhankelijk toezicht. Daar baart mij zorgen."

Ook al is het hier niet direct aan gelinkt, Facebook heeft vanwege het schandaal omtrent databedrijf Cambridge Analytica te maken met een vertrouwensbreuk. In 2014 kreeg het databedrijf informatie over maximaal 87 miljoen gebruikers in handen, zonder dat zij daar toestemming voor hadden gegeven. Facebook bleek hier daarnaast in 2015 van op de hoogte te zijn geweest, maar trad hierover niet naar buiten. Het bedrijf heeft hierover spijt betuigd.

Deel artikel:

Advertentie via Ster.nl