Getty Images

YouTube en moederbedrijf Google zijn de afgelopen weken flink in verlegenheid gebracht nadat advertenties van grote merken als Unilever en Coca-Cola waren verschenen bij extremistische video's. Diverse merken trokken daarna hun reclames tijdelijk terug, met financiële gevolgen voor Google.

De internetgigant belooft veel verbeteringen, waaronder het slimmer maken van de computers die de video's scannen. Die controleren al jaren op bijvoorbeeld kinderporno en auteursrechtsrechtelijk beschermd materiaal. Maar dit is ingewikkelder. Hoe leer je een computer wat extremistisch is? Daarvoor moet je de context kunnen begrijpen. YouTube gaat zijn systemen dat nu aanleren, vertelt Philipp Schindler, chief business officer bij Google, in gesprek met The New York Times

Dat gebeurt in twee stappen. Allereerst zijn er mensen ingevlogen die de video's gaan bekijken als ze worden gemarkeerd als ongewenst. Deze teams zou je kunnen zien als een groep leraren, die de systemen van YouTube duidelijk moeten maken wat wel en niet kan.

Computers context leren

"Voor computers is het veel ingewikkelder om context te kunnen begrijpen", zegt Schindler. "Daarom hebben we al onze machine learning-technieken samengebracht om hier beter toe in staat te zijn." Dit betekent dat de computers worden gevoed met informatie en daardoor steeds slimmer worden.

Deze techniek  gebruikt Google al jaren. Denk bijvoorbeeld aan de zelfrijdende auto, die hierdoor steeds beter begrijpt wat er op de weg gebeurt en op basis daarvan anticipeert. Maar ook dichter bij huis zijn resultaten zichtbaar. Googles foto-app kan een bloem onderscheiden van een boom en zien wat koffie is. Dat kan doordat het systeem miljoenen foto's heeft gezien en zo steeds beter onderscheid leert te maken.

Het idee is dat de teams de computers gaan voeden met goede en verkeerde voorbeelden. De systemen ontleden daarnaast de video's frame voor frame, analyseren de audio en kijken naar de omschrijvingen die de maker de video heeft meegegeven. Al deze signalen moeten ervoor zorgen dat de computers in hoog tempo slimmer worden en de juiste keuzes maken.

De zelfrijdende auto van Google’s zusterbedrijf Waymo Waymo

De eerste resultaten zijn positief, zegt Google. Het systeem is nu zo'n twee weken in gebruik en heeft in die tijd vijf keer zoveel video's gelabeld als ongewenst dan voorheen. Ook op bedrijven lijkt het effect te merken, farmaceut Johnson & Johnson is weer begonnen met adverteren. 

Verder benadrukt Schindler dat de reclames van grote bedrijven in combinatie met de extremistische video's heel weinig zijn gezien. "Op het totale aantal impressies die een adverteerder krijgt, is het maar een heel klein deel. Het gaat om een duizendste van één procent." Ook stelt hij dat dit probleem al lang bestaat. "Het krijgt nu zoveel aandacht omdat iemand het op de voorpagina heeft gezet." 

Niet waterdicht

Uiteindelijk wil YouTube dat de systemen zélf de lastige beslissingen kunnen nemen. "Dat is mogelijk", zegt Egon van den Broek. Hij is assistent-professor Informatica aan de Universiteit Utrecht. "Maar honderd procent waterdicht wordt het nooit, dus het is vervolgens de vraag hoe streng het filter wordt afgesteld. Je zou ervoor kunnen kiezen om de drempel heel hoog te leggen, maar dat heeft uiteraard ook nadelen."

Google erkent dat zelf ook. Schindler vergelijkt de situatie met een autoverkoper, die ook niet kan garanderen dat een bandenset de eerste 10.000 kilometer zonder problemen meegaat. 

Een woordvoerder van Google in Nederland benadrukt dat de computers alleen zelfstandig mogen beslissen over welke video's geschikt zijn voor het reclameprogramma. Dit voorkomt dat spots van een speelgoedmaker bij gewelddadige filmpjes worden getoond. Het is niet zo dat computers nu ook gaan beslissen welke filmpjes wel en niet online mogen blijven staan. Of dat ooit verandert, wilde de woordvoerder niet zeggen.

STER reclame