Advertentie
nieuwsanalyse

Verwarrende censuurregels van Facebook gelekt

Facebook kreeg vorig jaar bakken kritiek nadat het de iconische foto van het naakte Vietnamese 'napalm-meisje' had gecensureerd. Het netwerk plaatste de foto uiteindelijk terug.

's Werelds grootse sociale netwerk verwart zijn moderatoren met zijn richtlijnen rond geweld, porno en racisme. Zo blijkt uit gelekte documenten die het debat over de rol en de ethiek van Facebook zullen aanwakkeren.

De Britse krant The Guardian geeft voor het eerst een inkijk in Facebooks trainingsbijbel voor moderatoren. Haar journalisten konden de hand leggen op meer dan honderd interne handleidingen en andere documenten met de censuurcriteria voor berichten op de sociaalnetwerksite met 2 miljard gebruikers.

En die criteria zijn op zijn zachtst gezegd heel opmerkelijk. Een greep uit de verwarrende en tegenstrijdige richtlijnen voor de moderatoren:

  • Zelfverminking mag live in beeld worden gebracht (gestreamd), omdat het volgens Facebook een maatschappelijk belang heeft.
  • De handleiding om iemand zijn nek te breken, mag passeren.
  • Foto's van dierenmishandeling zijn toegelaten - mits het label 'storend' wordt toegevoegd -, video's niet. Op die manier kunnen dierenrechtenorganisaties informatieve beelden verspreiden, luidt het.
  • De reactie 'Someone shoot Trump!' moet worden gecensureerd. 'I hope someone kills you!' mag wel passeren.
  • Afbeeldingen van naakte mensen in een concentratiekamp zijn toegelaten. Wraakporno moet worden gecensureerd.
  • Foto's van kinderen die worden gepest mogen worden getoond, tenzij ze een sadistisch karakter hebben.
  • Video's van abortus zijn toegelaten, op voorwaarde dat er geen naakte lichamen in voorkomen.
  • Iemand met meer dan 100.000 volgers is voor Facebook een publiek figuur. En die krijgt van het netwerk niet de volledige bescherming die 'gewone' mensen genieten.


De weinig consequente regels bemoeilijken de taak van de moderatoren. En zeggen dat die gemiddeld slechts tien seconden hebben om een bericht te beoordelen, blijkt uit de Facebook Files van The Guardian.

10 seconden
Een moderator heeft slechts tien seconden om een bericht te beoordelen.

Anonieme bronnen klagen dat ze het werk niet aankunnen. 'Facebook kan de inhoud niet controleren. Het is te snel te groot geworden.'

Facebook is uitgegroeid tot een netwerk met 2 miljard gebruikers. Elke minuut plaatsen zij 1,3 miljoen berichten. Uit de Facebook Files blijkt dat er elke week 6,5 miljoen nepaccounts worden aangemaakt.

Om die nepprofielen en aanstootgevende foto's en video's op te sporen doet het bedrijf van Mark Zuckerberg een beroep op 4.500 moderatoren. Begin deze maand beloofde de topman 3.000 mensen extra mensen in te zetten.

Die belofte deed 'Zuck' nadat zijn netwerk de moordvideo uit Cleveland (zie foto) en het filmpje van een Thai die zijn baby en zichzelf doodde had uitgezonden. Eerder waren er op het netwerk ook gewelddaden, verkrachtingen, dierenmishandeling en zelfdodingen van tieners te zien.

©REUTERS

En vorig jaar kwam Facebook in opspraak nadat het de iconische foto van het Vietnamese 'napalmmeisje' had verwijderd omdat het netwerk geen naakte lichamen toestaat. Na felle kritiek heeft Facebook de foto uiteindelijk weer online gezet.

'Geen journalistiek medium'

Monika Bickert, die bij Facebook het productbeleid bepaalt, erkent in The Guardian dat het binnen het bedrijf lastig is om een consensus over de regels te bereiken. 'Mensen in Europa hebben een heel ander idee van wat oké is om te delen dan mensen in Azië. Waar je de lijn ook trekt, er zal altijd wel ergens een grijze zone zijn.'

In het Verenigd Koninkrijk gaan stemmen op om Facebook te beschouwen als een journalistiek medium dat zich moet houden aan soortgelijke regels als de BBC of kranten. Facebook wil dat niet. 'We zijn geen traditioneel mediabedrijf. We schrijven geen nieuws dat mensen lezen.'

Explainer video over de Facebook Files

Lees verder

Advertentie
Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Gesponsorde inhoud