Van linkskritisch naar jodenhater: hoe YouTube zorgt voor rechtse radicalisering
Wie op YouTube een video kijkt, krijgt daarna vaak een video aanbevolen die net een stapje verder gaat. Drie Nederlandse journalisten onderzochten hoe dit principe ertoe leidt dat veel mensen gemakkelijk in contact komen met extremistische video’s en hoe ze hierdoor soms sterk beïnvloed worden.
'Sommige gebruikers beginnen na verloop van tijd zelfs ronduit antisemitische teksten uit te slaan'
Op videosite YouTube kunt u niet enkel terecht voor muziekclips en kattenfilmpjes, het is ook een plaats waar gebruikers in contact kunnen komen met haat, racisme en desinformatie. Wie op het verkeerde spoor terechtkomt, loopt bovendien het risico om mee te worden gezogen in steeds extremere video’s die YouTube aanbeveelt. Dat concludeert Dimitri Tokmetzis, journalist van De Correspondent, na een groot onderzoek dat hij uitvoerde met twee collega’s van de Volkskrant, waarbij ze o.a. 600 duizend video’s en 120 miljoen reacties analyseerden, en vervolgens diepte-interviews hielden met enkele Nederlandstalige gebruikers.
HUMO Waar de afgelopen jaren stevige kritiek klonk op de rol van social mediaplatformen als Facebook en Twitter in de verspreiding van nepnieuws en het creeëren van filterbubbels, bleef YouTube behoorlijk buiten schot.
Tokmetzis: «Terwijl we merkten dat YouTube wel vaak een belangrijke rol speelt in radicalisering. Bijvoorbeeld omdat vanuit allerlei extremere plekken als de websites 4Chan of GAB (een alternatief Twitter voor extreemrechts) altijd veel werd gelinkt naar YouTube. Dus besloten we uit te zoeken wat er precies gebeurt op YouTube en in hoeverre het algoritme een rol speelt in het promoten van extremistische content.
»We hebben een wijd net uitgewerkt over een aantal communities: van gematigd rechts naar zeer rechts en van gematigd links naar zeer links. Vervolgens zijn we gaan kijken naar de gebruikers. We hebben zo’n 200 Nederlandstalige gebruikers gezocht, hun hele commentgeschiedenis bekeken en geanalyseerd hoe deze zich door de tijd heeft ontwikkeld: waar hebben ze reacties achtergelaten en wat zeiden ze precies?»
HUMO En toen zagen jullie een patroon in hoe de gebruikers reageren op de aanbevelingen van YouTube.
Tokmetzis: «Er is een heel duidelijke beweging waar te nemen bij veel mensen: ze gaan door de tijd heen naar steeds extremere kanalen kijken en hun uitingen worden ook steeds extremer. Een van de dingen die wij het meest vonden opvallen daarin is het toenemende antisemitisme bij veel mensen. Je ziet dat mensen meegaan in een aantal populaire memes over joden, maar ook echt ronduit antisemitische teksten beginnen uit te slaan.»
HUMO Gebruikers kijken 70% van de tijd naar video’s die YouTube hen aanbeveelt. Dat wil zeggen dat het een behoorlijk vernuftig aanbevelingsalgoritme is.
Tokmetzis: «Ja, het werkt heel goed en meestal is daar niets mis mee. Het grote probleem van het algoritme is dat het alle content hetzelfde behandelt. Als je naar iets onschuldigs als hamsters zoekt, maakt het niet echt uit welke video's je ziet in de zoekresultaten, maar zoek je iets in een heel gevoelige context, zoals ‘Joden’, dan maakt het wel degelijk uit wat je mensen aanbeveelt. Nu is het algoritme daar niet op gebouwd, die behandelt een onschuldige historische video hetzelfde als een video van een holocaustontkenner. Als je dan als gebruiker een beetje in een verkeerde niche terechtkomt, dan blijf je maar video’s uit die niche aanbevolen krijgen.
»We spraken bijvoorbeeld met een gebruiker die een interesse had in rassen en genetica en via een aantal gesuggereerde video’s na een tijdje terecht kwam bij iemand als Jared Taylor, wat gewoon een ongelofelijk rechtsextreme racist is. Die gebruiker is vervolgens in die video’s blijven hangen.
»Het is geen gegeven dat als je naar dat soort dingen zoekt dat je dan in zo’n rabbithole terecht komt of dat je per se zou moeten radicaliseren, daarvoor moeten allerlei factoren aanwezig zijn. Het is wel zo dat wie interesse in dat soort niches toont, door YouTube op zijn wenken wordt bediend en steeds maar nieuwe content over die specifieke dingen aangeboden krijgt. Het is dan vrij makkelijk om in een bepaalde bubbel terecht te komen waar je niet zo makkelijk meer uitkomt.»
HUMO Ik keek zelf onlangs twee video’s waarin de economische plannen van de progressieve politicus Alexandria Ocasio Cortez werden doorprikt. De volgende keer dat ik naar YouTube ging waren alle filmtrailers en popmuziek op de startpagina vervangen door tientallen video’s met kritiek op Ocasio Cortez. Dat is een beetje hoe het werkt hè?
Tokmetzis: «Ja, dat is precies hoe het werkt. Je wilt niet weten hoe mijn eigen account er nu uitziet, dat is één groot bruin nazihol. Er zijn veel mensen die hier diep inraken en alleen nog maar dit soort dingen kijken omdat ze niks normaals meer gesuggereerd krijgen, dat is heel deprimerend. Het is allemaal zo haatvol. Als dat je wereldbeeld bepaalt, dan heb je een probleem.»
HUMO De aanwezigheid van extreemlinkse video’s op YouTube was eerder beperkt, zo vonden jullie in het onderzoek. Des te groter is het aanbod van extreemrechtse videos.
Tokmetzis: «Wat me opviel was dat er zo weinig variatie inzit, het gaat allemaal om hetzelfde: links deugt niet, moslims zijn slecht, media zijn niet te vertrouwen, vrouwen moeten weer een traditionele rol krijgen en joden deugen niet. Dat zijn de thema’s die je tegenkomt en die worden tot in het oneindige herhaald. Er wordt weleens gezegd: bij rechts zijn veel meer spannende ideeën te vinden dan bij links, maar dit is gewoon allemaal oude koek en allemaal hetzelfde.»
HUMO Afgelopen week bleek dat YouTube nog een ander probleem heeft: het blijkt ook een ontmoetingsplek voor pedofielen. Ze tippen elkaar filmpjes waarin kinderen onbewust suggestieve poses aannemen. Bovendien speelt ook hier het aanbevelingsalgoritme een rol, doordat gelijksoortige filmpjes vanzelf worden aangeraden. Kan YouTube dit oplossen?
Tokmetzis: «Ik benijd ze niet, het is een heel moeilijke taak die ze hebben. Ik denk dat ze vooral actiever zouden moeten zoeken. Op dit moment laten ze machines de volledige videodatabase scannen en bekijken menselijke moderators de video’s die door gebruikers zijn gerapporteerd als ‘aanstootgevend’. Wat mij opviel tijdens mijn eigen werk is dat als je die extremistische gemeenschap of die pedofielengemeenschap een beetje kent, het vrij makkelijk is om dit soort content te vinden.
»Aan de andere kant blijft het lastig: bij veel van die video’s worden geen regels overtreden. Mensen die commentaar geven onder die kindervideo’s zeggen bijvoorbeeld meestal niks dat verboden is. Het is heel onsmakelijk, zeker in die context, maar het is niet verboden.
»In ons vervolgonderzoek gaan we wel bekijken hoe YouTube hier beter tegen zou kunnen optreden. Op andere plekken worden al wel grote stappen gezet. Twitter en Reddit staan hier ondertussen bijvoorbeeld veel verder in, die hebben behoorlijk schoon schip gemaakt.»