NOSop3

Zo bepalen algoritmes jouw wereldbeeld

NOS
Geschreven door
Anic van Damme
verslaggever, presentator NOS op 3

Alles wat je ziet of hoort op internet, wordt voor jou geselecteerd door algoritmes. En laten nou die algoritmes een grote rol spelen in ons leven, ze bepalen zelfs hoe jij de wereld ziet.

Een algoritme is een ingewikkeld wiskundig recept. Maar eigenlijk is het niet meer dan een stappenplan. Hoe het algoritme van bedrijven als Facebook en Google precies werkt, willen die bedrijven absoluut geheimhouden. Ze zijn bang dat er misbruik van gemaakt wordt of dat de concurrent ermee vandoor gaat. Hoe de algoritmes ongeveer werken, weten we wel.

En hoe werkt dat dan?

Neem Facebook bijvoorbeeld. Hun algoritme kijkt naar alle informatie die jij geeft. Als jij iets liket, een reactie plaatst, deelt of zelfs maar langer blijft hangen om een video te kijken, laat je Facebook weten dat jij dit leuk of belangrijk vindt.

Je krijgt dan een volgende keer als je inlogt wéér dat soort dingen te zien, want dat is blijkbaar voor jou relevant.

Maar dat betekent ook dat je heel veel dingen niet ziet. "Je denkt misschien dat je een compleet wereldbeeld hebt door wat je online ziet, maar eigenlijk zie je alleen maar wat er zich in je eigen bubbel afspeelt", zegt Tom van Laer. Hij is onderzoeker op het gebied van digitale marketing aan de Cass Business School van de Universiteit van Londen. 

Zo bepaalt Facebook jouw tijdlijn

Facebook kijkt naar heel veel factoren om te bepalen wat jij in je tijdlijn ziet, bijvoorbeeld deze vier:

- Wie post het? Als je op veel dingen van die ene vriend reageert, dan zul je vooralposts van die vriend zien. En updates van vrienden waar je lang geen interactie mee had, zie je dus niet.

- Wie reageren er nog meer? Als veel vrienden reageren op een post, denkt Facebook dat jij dit ook wel wil zien.

- Wat voor soort post is het? Als jij vaak video's kijkt of nieuwsartikelen leest, dan krijg je veel van dat soort posts te zien.

- Wanneer is het geplaatst? Hoe recenter iets online is gezet, hoe hoger het waarschijnlijk in je tijdlijn komt. Maar Facebook checkt ook wanneer jij voor het laatste de app opende, en kan zo een wat oudere post omhoog plaatsen als die interessant voor jou is.

Je krijgt dus alleen maar informatie die gaat over wie jij bent, wat jij leuk vindt en wat bij jou past. Stel, je speelt hockey, gaat naar musea en bent geïnteresseerd in GroenLinks. Dan kom je niet met andere geluiden in aanraking.

Je hoort dan waarschijnlijk niets over freerunnen, welke bands er in poppodium De Effenaar spelen of wat de standpunten van de PVV zijn.

123.rf

Wat zijn de gevolgen?

Op zich handig, want er staat meer op internet dan jij kan lezen. “Maar het gaat nog een stapje verder” zegt Tom. "We klikken vaak op dingen die net ietsje interessanter of iets extremer zijn." Stel, je volgt alles over hockey. Dan klik je volgende keer misschien op een filmpje over naakthockey, want dat is net iets spannender dan wat je al kent. "Zo werkt clickbait nu eenmaal."

Je bubbel verschuift een beetje, de extremere kant op. Dat kan betekenen dat je daardoor minder meekrijgt uit het midden. En dan worden de verschillen groter. "We komen dan tegenover elkaar te staan", socioloog Andreas Flache van de Rijksuniversiteit Groningen. 

Trump vs. Clinton

Neem de Amerikaanse verkiezingen. Tom legt uit: "Vanuit het honk van de Democraten werd Donald Trump eerst gewoon gezien als tegenstander. Daarna werd hij een seksist en toen de duivel."

Hetzelfde gebeurde in de bubbel aan de andere kant. Eerst was Hillary Clinton de tegenstander en uiteindelijk runde ze een kinderseksnetwerk en moest ze dood. "Naar aanleiding van dat nepnieuws vond een schietpartij plaats in een pizzeria waar Clinton haar netwerk zou runnen."

Politie bij de pizzeria EPA

Het is een vrij oud verschijnsel, zegt Andreas. De groep maakt als geheel riskantere keuzes dan het individu. "Als iemand anders een extremer standpunt inneemt, dan denkt een ander sneller, 'als hij het zegt, dan mag ik dat ook'."

Wat speelt nog meer mee?

Maar we kunnen niet alles zomaar op de algoritmes afschuiven. De tech-universiteit MIT deed onderzoek naar het gedrag van twitteraars rond de Amerikaanse verkiezingen. Daaruit bleek dat gebruikers zich juist zélf afzonderen van twitteraars die anders denken dan zij. Als anderen niet in je straatje passen, ontvolgen maar. 

Clinton-aanhangers twitteren meer met andersdenkenden dan Trump-aanhangers, die sterker in hun eigen twitterbubbel blijven hangen. The Electome, MIT Media Lab

"Groepen die steeds minder met elkaar communiceren, hebben een vertekend beeld van de werkelijkheid", zegt Andreas. En dat speelt niet alleen in de Verenigde Staten. "Kijk maar hoe er in ons land op dit moment tegen migranten en statushouders aangekeken wordt." Daar spelen politieke partijen op in. 

"Zo kan bijvoorbeeld een politieke partij die zich maar op één kant van de samenleving richt, succesvoller worden dan een partij die de hele samenleving wil bereiken."

Maar dan kan het ook een zegen zijn dat je in je bubbel zit, zegt Marijn Keijzer, onderzoeker aan de Rijksuniversiteit Groningen. "Dat je niet de hele tijd die schreeuwende idioot tegenkomt die alleen maar negatieve dingen zegt."

Vrienden zeggen de waarheid

Uit onderzoek blijkt dat we sneller geneigd zijn om te geloven wat de mensen in jouw bubbel zeggen. "Als mensen het over een bepaald onderwerp met elkaar eens zijn, dan gaan ze er nog sterker in geloven", zegt Marijn. Hij onderzoekt hoe algoritmes op sociale netwerken jou beïnvloeden.

Maar in hoeverre die algoritmes er nou écht voor zorgen dat jouw mening verandert, weten we nog niet, zegt Marijn. De komende vier jaar doet hij er onderzoek naar. "Polarisatie is heel moeilijk te meten. Komt dat door die bubbels of ook door de tijdsgeest en zijn er ook andere factoren?"

Een betoger op het Beursplein demonstreert tegen Zwarte Piet ANP

"We zien wel verharding in het debat, denk maar aan de zwartepietendiscussie. "Maar je kan dit niet zomaar in de schoenen schuiven van de algoritmes", zegt Marijn. 

Online vertrouwen

"Het is niet zo dat we gaan eindigen in haat, alleen omdat Facebook laat zien wat jij wilt. Als het echt schadelijk is voor een samenleving, dan gaan we het gewoon verhelpen", zegt Marijn. Google en Facebook kondigden al maatregelen aan tegen nep-nieuws. "Vergeet niet dat algoritmes je internetbeleving ook veel fijner maken."

Met kritisch denken kan je al heel wat ellende voorkomen, zegt Tom. "Het is heel moeilijk om face-to-face een leugen te vertellen. Online is het veel makkelijker om op share te klikken." Hij geeft mee: "Vertrouw niet zomaar alles wat je online vrienden zeggen en lees eens verder dan alleen de nieuwskoppen."