column

Extremistische algoritmes

Digitaal nieuwsmanager

Nog even rustig het grote techevent CES voorbereiden, dacht ik woensdagavond. Toen werd in de VS het Capitool bestormd. Een drama dat nauw is verbonden met grote vragen over technologie die ook op CES ter sprake komen.

Een blik op het programma van CES leert dat de grote ethische problemen niet uit de weg worden gegaan. Een van de sessies gaat over 'Section 230', een deel van de Amerikaanse internetwetgeving die zegt dat internetplatformen als Facebook en Twitter immuniteit genieten voor wat erop wordt gepost. Het is wie materiaal post die eventueel wordt vervolgd. 'We hebben het niet gezegd', kunnen de platformen aanvoeren.

Die vrijwaring is niet absoluut. De platformen moeten materiaal verwijderen dat illegaal wordt bevonden. Toch is Section 230 van groot belang. Het maakte de bloei van het internet mogelijk, wordt gezegd. Het is 'de 26 woorden die het internet creëerden', ook al dateert de wet pas uit 1996. Dat neemt niet weg dat ze onder vuur ligt vanuit alle politieke hoeken in de VS.

Naar aanleiding van de bestorming van het Capitool door aanhangers van president Donald Trump laait de kritiek op over het toelaten van haatzaaiende berichten en politieke leugens. 'We hebben het niet gezegd', kan opnieuw het antwoord zijn van de platformen. Maar de druk van de openbare opinie - en van de eigen werknemers - is groot. Verschillende platformen, waaronder Twitter en Facebook, zetten de account van de president op non-actief.

Amplificatie

Het recht op vrije meningsuitging is geen recht op het algoritmisch aanzwengelen van berichten.
Renée DiResta
Media-expert

De vraag is niet alleen of en hoe platformen inhoud moeten reguleren. Het gaat ook over de manier waarop ze die inhoud verspreiden. In 2018 schreef de media-expert Renée DiResta in het technologiemagazine Wired het artikel 'Free Speech Is Not the Same As Free Reach'. Wat we (niet) zien op de grote platformen wordt bepaald door algoritmes die proberen in te schatten wat de gebruiker wil. Het doel is ons zo lang mogelijk op het platform te houden. Hoe extremer en schokkender de inhoud, hoe meer dat lukt. Het recht op vrije meningsuiting is geen ongebreideld recht op het algoritmisch aanzwengelen van bepaalde inhoud, vindt DiResta.

In 64 procent van de gevallen dat iemand lid wordt van een extremistische Facebook-groep gebeurde dat op basis van een algoritmisch gestuurde aanbeveling van het platform. Dat blijkt uit eigen onderzoek van Facebook. Roger McNamee, de auteur van het boek 'Zucked: Waking Up to the Facebook Catastrophe', zette zich in een opiniestuk op Wired aan het rekenen. Op basis van cijfers over groepen en pagina's van QAnon, een beweging die extreemrechtse complottheorieën verspreidt, zou Facebook volgens hem zowat twee miljoen gebruikers hebben geradicaliseerd. Facebook wordt ook in politieke conflicten in andere landen met de vinger gewezen voor het polariseren van het debat.

Onveilig

McNamee, een vroege adviseur van topman Mark Zuckerberg, concludeert dat internetplatformen net als artificiële intelligentie, onveilig zijn. Omdat ze vaak worden gemaakt door mensen die er geen belang bij hebben te anticiperen op mogelijke schadelijke gevolgen.

Uiteindelijk zal blijken dat bedrijven er wel belang bij hebben de schaduwkanten van hun technologie tijdig in kaart te brengen. Onvermijdelijk volgt de kritische reactie van de overheid, politici en gebruikers. En die kan de bedrijven duur komen te staan.

Lees verder