Facebook en Google moeten terrorisme bestrijden, maar wie controleert ze?
Techbedrijven staan onder politieke druk. Na een reeks aanslagen in Europese landen is het debat aangewakkerd over wat Facebook en Google moeten doen om terroristen van hun platform te weren. De bedrijven hebben daar nu op gereageerd door te benoemen welke maatregelen ze al hebben genomen, wat direct de vraag opwerpt of die juist zijn.
De maatregelen zijn grofweg onder te verdelen in twee soorten: kunstmatige intelligentie gebruiken om terroristische berichten, foto's en filmpjes op te sporen en extra mankracht inzetten.
Facebook en Google zijn bezig om met behulp van slimme software onwenselijke content te herkennen. De reden hiervoor is simpel: mensen kunnen het niet alleen af, daarvoor is er te veel content.
Facebook maakt bijvoorbeeld gebruik van fotoherkenning zodat beelden niet nog een keer kunnen worden verspreid, als ze verwijderd zijn. Ook willen ze met software sneller nep-accounts opsporen en door het analyseren van teksten ontdekken wie sympathiseert met terroristen.
Tegelijkertijd erkennen de bedrijven dat met software veel kan, maar niet alles. En dus zijn menselijke deskundigen nodig. Deze moderatoren moeten bijvoorbeeld bijvoorbeeld beslissen welke foto's en video's verwijderd moeten worden.
"Ik ben het met Facebook en Google eens: kunstmatige intelligentie is de enige manier om dit tegen te gaan ", zegt Roy de Kleijn, die promotie-onderzoek doet naar kunstmatige intelligentie aan de Universiteit Leiden. "Sinds 2014 zijn computers beter in staat om gezichten van mensen te herkennen dan mensen zelf. Dat was toen een big deal. Dus het is niet zo raar om te denken dat computers dit werk van mensen overnemen.
De Kleijn denkt dat de software vooral de makkelijker vragen zal beantwoorden. "Ik kan me voorstellen dat voor ingewikkelde vraagstukken, bijvoorbeeld als de politie moet worden ingeschakeld, er een mens bij betrokken wordt." Maar de promovendus merkt op dat de systemen steeds slimmer worden en daardoor ook gaandeweg betere keuzes gaan maken.
Goed onderbouwd
Ook terrorismedeskundigen zijn positief over de maatregelen. "Mijn indruk is dat de bedrijven dit goed hebben onderbouwd. Daarnaast vind ik het goed dat ze ook mensen mee laten oordelen", zegt Quirine Eikman, senior-onderzoeker en docent veiligheid en rechtsstaat aan de Universiteit Leiden.
Haar collega Jelle van Buuren, terrorismedeskundige, vult aan: "Het is goed dat de grote techbedrijven erkennen dat ze een verantwoordelijkheid hebben waar het gaat om de verspreiding van terroristisch materiaal. Te lang hebben ze deze verantwoordelijkheid ontkend."
Beiden hebben wel vraagtekens bij de macht die de bedrijven hiermee naar zich toetrekken. "De beslissingen worden niet onafhankelijk getoetst bij een rechter", zegt Eikman. "Content van IS of Al-Qaida is al heel snel duidelijk terrorismegerelateerd, maar wat doe je in gevallen waar dat minder duidelijk is, zoals de oppositie in Syrië?"
Het komt neer op een vraag: wat is een geoorloofde expressie en wat niet?
"Het bepalen van de grenzen van de vrijheid van meningsuiting wordt nu deels geprivatiseerd en aan de markt overgelaten", zegt Van Buuren. "Dat is een grote stap, hoe nobel de inzet om jihadistisch materiaal te verwijderen op zich ook is." Daar komt bij dat de techbedrijven veel vertellen over maatregelen, maar hun keuzes niet inhoudelijk toelichten.
Wat mag en wat niet?
Die zorgen bestaan niet alleen bij deskundigen. Over de mate waarin techbedrijven maatregelen moeten nemen, wordt ook op politiek niveau veel gesproken. Bijvoorbeeld in Brussel, waar D66-Europarlementariër Marietje Schaake de zorgen van Eikman en Van Buuren deelt.
"Het komt uiteindelijk neer op de vraag: onder welke voorwaarden is wat een geoorloofde expressie en wat niet? Dat ik iets niet vind kunnen, betekent nog niet dat het illegaal is." Schaake zou graag zien dat hier op Europees niveau meer duidelijkheid over komt.