Wereldleiders werken vandaag op een top in Parijs met techbedrijven als Facebook, Twitter, Google en Microsoft aan een overeenkomst om extremisme op internet tegen te gaan. Facebookbaas Mark Zuckerberg is zelf niet aanwezig, maar sprak vorige week al wel anderhalf uur met de gastheer van de top, de Franse president Macron.
De Verenigde Staten, waar de meeste techbedrijven zijn gevestigd, zullen de intentieverklaring naar verwachting niet ondertekenen. De tech-top is een initiatief van premier Jacinda Ardern van Nieuw-Zeeland. Daar werd een terroristische aanslag op twee moskeeën in Christchurch half maart door de dader live uitgezonden op Facebook. Bij die aanval vielen 51 doden.
Zelfmoorden
De Nederlander Sjarrel de Charron is 'content-moderator' bij Facebook als het platform in 2017 de livestreamfunctie invoert. "Al mijn collega's riepen 'nee, nee, nee!'. Nu krijgen we ook nog live zelfmoorden. Doe het alsjeblieft niet."
De Charron moest extremistische berichten op het platform beoordelen en rapporteren. Hij was ondermeer live getuige van automutilatie. "De livestream van Christchurch kwam voor niemand als een verrassing. Toen ik direct al videobeelden van zelfmoorden tegenkwam, wist ik dat dit ging groeien."
Er is vaker terreur live uitgezonden op Facebook, zoals de marteling op een verstandelijk beperkte jongen, een groepsverkrachting, een moord op een baby en een moord op een achteloze voorbijganger.
Facebook heeft het beleid voor live-video's nu aangescherpt. Vanaf vandaag kunnen mensen die regels op het platform overtreden, worden geweerd van de livestream-functie. Volgens Facebook had zo ook de livestream van Christchurch kunnen worden voorkomen. Eerder omarmde Facebook-topman Mark Zuckerberg al meer regelgeving voor platforms als Facebook.
Kopieën van de recente livestream in Christchurch belandden ook op YouTube, het videoplatform van Google. Kristie Canegello is daar verantwoordelijk voor het weren van extremistische berichten.
Ze noemt het aantal keren dat gebruikers de beelden probeerden te uploaden 'zonder precedent' maar kan geen aantallen noemen. "We hebben zowel onze techniek als menselijke moderatoren ingezet om verspreiding te voorkomen."
"Voor ons is het dweilen met de kraan open" zegt De Charron. Het komt altijd maar weer terug. Korreliger of gefilmd van een scherm. De kunstmatige intelligente filter twijfelt dan, en dan geven ze het door aan de content moderators."
Radicaliseringmachine
De grote sociale mediaplatforms hebben een radicaliseringsmachine gebouwd, zegt Jonathon Morgan van New Knowledge. Hij is expert op het gebied van desinformatie en online-extremisme en was adviseur van het Amerikaanse ministerie van Binnenlandse Zaken. "Extremistische politieke meningen kunnen tot offline geweld leiden", zegt hij.
Google tracht gebruikers die naar extremistische inhoud zoeken te verwijzen naar journalistieke en wetenschappelijke bronnen. Canegallo: "We geven extra gewicht aan gezaghebbende bronnen."
Maar de praktijk blijkt weerbarstig. Als we op Google uitleg zoeken over 'omvolking', een complottheorie waarin de elite het blanke ras zou willen vervangen, is de eerste aanbevolen video van de extreemrechtse activist Lauren Southern.
"Zelfs die tienduizend moderatoren die Facebook wil inzetten, zijn niet genoeg", denkt Morgan. Ex-content-moderator De Charron is het met hem eens: "Wij lossen niets op. We zijn de schoonmakers, maar het vuil blijft terugkomen."
Volgens Morgan is er sprake van een systeemfout. "Zolang emotie, woede en polarisatie het verdienmodel van dit soort platform voeden, verandert er niets wezenlijks."
Gedragscode
De Europese Unie heeft in 2016 een gedragscode afgesproken met de grote techbedrijven. Die slagen er volgens de laatste evaluatie nu in om zeventig procent van de haatzaaiende berichten - die door autoriteiten als strafbaar werden aangemerkt - binnen een etmaal te verwijderen. Dat percentage is groter dan de jaren ervoor. Facebook is momenteel het voortvarendst.
Volgens Eurocommissaris van Justitie Vera Jourová is er te weinig draagvlak onder de lidstaten om de regels vast te leggen in wetten. Duitsland heeft daarom al eigen wetgeving ingevoerd. Daar kunnen haatberichten de platforms op miljoenenboetes komen te staan.
Ook Groot-Brittannië werkt aan een dergelijke wet. Nederland ziet vooralsnog meer in zelfregulering.
De EU gaat de platforms wél verplichten om berichten die direct aanzetten tot terreur binnen een uur na melding door autoriteiten offline te halen. De platforms hoeven terroristische content echter niet zelf te monitoren.
Jihadisme versus extreem-rechts
Gewelddadig jihadisme is nog moeilijk vinden op de platforms, maar rechts-extremisme groeit juist. In de Verenigde Staten wordt op Google tien keer zoveel gezocht naar termen die verband houden met gewelddadig rechts-extremisme dan op jihadisme.
De tienduizenden content-moderatoren van Google, Twitter en Facebook moeten niet alleen terreur modereren maar ook racisme en haatzaaierij. Het verwijderen van berichten of accounts die de gedragsregels van de platforms schenden, leidt echter vaak tot ophef.
Dat bleek recent nog toen Facebook enkele complotdenkers en antisemieten verbande. President Donald Trump nam het in een serie tweets voor enkelen van hen op.
Hij prees eerder ook de reputatie van Alex Jones van Infowars, die recent op Instagram werd geblokkeerd nadat hij eerder van Facebook werd verbannen. Jones' bizarre complottheorieen hebben ertoe geleid dat één van zijn kijkers een schot loste in een pizzeria in Washington, omdat Hillary Clinton en consorten daar in de kelder een pedofielennetwerk zouden runnen.
Ook hitste Jones zijn kijkers zo op dat ze ouders van slachtoffers van een schietpartij op een middelbare school ernstig intimideerden. Jones had gesuggereerd dat de nabestaanden acteurs zouden zijn en stond daarvoor recent terecht.
De Amerikaanse president deed onlangs ook zijn beklag bij de baas van Twitter, dat conservatieve ideeën zou censureren. Een medewerker van Twitter stelt echter dat het discussieplatform juist voorzichtiger is met het verwijderen van extreemrechtse berichten dan met het verwijderen van jihadistische propaganda. Twitter ontkent dit.
Aanbevelingssysteem
Journalist Dimitri Tokmetzis van De Correspondent deed recent samen met de Volkskrant onderzoek naar de aanbevelingsmechanismen van YouTube. Die leidden nog steeds naar extremistische content zoals holocaustontkenning en rassenleer, zo was de conclusie.
Tokmetzis: "Het gaat vaak over wit nationalisme waarin het blanke ras superieur is. Ondanks Christchurch - waar dit gedachtengoed ook naar voren kwam - is dit kennelijk geen probleem voor YouTube."
Als voorbeelden noemt hij 'Red Ice TV' de Canadees Stefan Molyneux, de gespierde Zweedse 'The Golden One' en de voor moord veroordeelde ex-neonazi Varg Vikernes. "Die vlogs zien er vaak onschuldig uit dus kunnen niet worden gefilterd door kunstmatige intelligentie", zegt Tokmetzis.
"Menselijke moderatoren moeten vaak uren kijken om echt te horen wat ze nou zeggen." Hij hekelt vooral de actieve aanbevelingen van YouTube. "Als je de één kijkt, krijg je de ander al snel aanbevolen. Er is een verschil tussen mensen een platform geven en ze ook daadwerkelijk promoten via het aanbevelingssysteem."
Zeventig procent van de bekeken filmpjes op YouTube komen voort uit die door algoritmen gegenereerde persoonlijke aanbevelingen. Google zegt de aanbevelingsmechanismen in de VS al aan te passen, Europa volgt later dit jaar.
"Er is een verschil tussen 'free speech en free reach' vindt Jonathon Morgan. Ook al heb ik vrijheid van meningsuiting, ik heb niet het recht op een gegarandeerd publiek."
- Facebook beperkt livefunctie na aanslag Christchurch
- Overheden willen internetregels na 'Christchurch', maar wat werkt?
- YouTube censureert video’s Nederlandse organisaties: 'Kanaal weer op zwart'
- Oud-medewerkers Facebook: we zijn gewoon genaaid met z'n allen
- De macht van Google: 'Paar mensen beïnvloeden mening en gedrag van miljarden'