column

Haat op sociale media

Roland Legrand

Een titel zoals '‘Full Video Terrorist Attack’ is blijkbaar niet duidelijk genoeg voor algoritmes en moderatoren.

Vrijdagochtend. Ik maak me klaar voor een column over een cultuuroorlog op het internet over de film ‘Captain Marvel’. Het feit dat een vrouw - Brie Larson - de rol van superheld speelt, ontlokt een golf van haatberichten op filmratingsites zoals Rotten Tomatoes, maar ook op YouTube. Terwijl ik me probeer in te leven in de wereld van de superhelden en hun fans, blijkt er veel ernstiger en triester nieuws te zijn: de aanslag in Nieuw-Zeeland. In en rond twee moskeeën zijn tientallen mensen vermoord door wat een ‘extreemrechtse terrorist’ wordt genoemd. De moordenaar streamde een videofeed van de gruwel live op Facebook. Plots lijkt ‘Captain Marvel’ een onbeduidend onderwerp.

Shooting Footage

Het kostte de duizenden moderatoren van Facebook naar verluidt een uur om de oorspronkelijke video te verwijderen nadat de politie het internetbedrijf had ingelicht. Uren later vond ik nog altijd zonder veel moeite de videobeelden op het sociale netwerk. ‘New Zealand Mass Shooting Footage’, was het weinig verhullende onderschrift. Op dat moment was ook de moderatiemachine van Twitter al een tijd in overdrive aan het gaan. Maar ook daar stootte ik na een tiental seconden op de video, met de bijbehorende tweet: ‘GTA X ‘God calls on you’ no cheat code New Zealand shooting’. Een kleine 86.000 keer bekeken, 245 retweets, 300 likes. Opnieuw haat, niet over een film met een superheldin, maar over het vermoorden van tientallen mensen ‘in the real world’.

Het bracht me bij de vraag waarom de algoritmes van YouTube zo’n video’s niet bliksemsnel doen verdwijnen. Is het probleem dat de beelden soms ‘moeilijk’ zijn? Om een voorbeeld te geven: een van de YouTubevideo’s is een beeld van een beeld, een video van een geanonimiseerde browser waarin de video op Facebook is te bekijken. Of verwart de software de beelden met soortgelijke video’s van shootergames? Nochtans zijn de titels erg duidelijk: ‘Full Video Terrorist Attack’ - hoe dom moet een algoritme eigenlijk zijn om dat te missen?

Ongepast

Is er dan te weinig personeel om alles tijdig te verwerken, en zijn de procedures te complex? Naar verluidt kregen de video’s op YouTube aanvankelijk het etiket ‘ongepaste inhoud’ mee, waardoor ze in principe enkel zichtbaar waren voor daarin toestemmende volwassenen. Nadien werd geprobeerd enkel nog video’s te tonen waar de ergste scenes uit verwijderd waren. De zaak werd er ook niet makkelijker op gemaakt omdat traditionele media op YouTube ook bewerkte versies van de video tonen.

Meer columns 'Legrand Inconnu' vindt u hier. 

De socialemediabedrijven spraken hun medeleven uit. Twitter verwees naar interne rigoureuze procedures en gespecialiseerde teams, YouTube verzekerde dat schokkende en gewelddadige dingen worden verwijderd zodra het bedrijf er zich bewust van wordt. Op de achtergrond speelt het debat over het al dan niet vooraf filteren van inhoud op sociale media.

Al de mooie woorden van de internetgiganten ten spijt, bleken ook zij niet in staat een gruwelijke video te weren die terreur ophemelt en aanzet tot haat.

Lees verder