reportage

Facebook, waar broccoli makkelijker ligt dan goed en kwaad

Op de F8-conferentie zei technologiechef Mike Schroepfer dat Facebooks algoritme sneller spamfoto’s - en het verschil tussen broccoli en wiet - herkent dan mensen. ©rv

Facebook zet zwaar in op zelflerende algoritmen (AI) om zijn platform veilig te houden. Maar technologie inzetten als antwoord op de vele problemen kan weer nieuwe vragen oproepen.

Van onze verslaggever in San Jose, Silicon Valley

Op de slotdag van de F8-conferentie in het Californische San Jose, Facebooks   jaarlijkse hoogmis, verraste chef technologie Mike Schroepfer het publiek met een opmerkelijk dilemma. Hij liet twee foto’s zien, eentje van broccoli en een van marihuana, en vroeg de zaal op welke foto wat te zien was. Dat bleek geen evidentie.

Facebook ontwikkelde een zelflerend algoritme dat de kleine verschillen in soortgelijke foto’s wel herkent. Het toont aan welke grote sprongen artificiële intelligentie maakt, en hoe een techbedrijf als Facebook die technologie ten goede kan gebruiken om zijn platform brandschoon te houden.

Het sociale netwerk klopt zich graag op de borst dat het aantal menselijke Facebook-moderatoren verdubbeld is sinds eind 2016, toen de fakenewscrisis losbarstte: van 15.000 naar 30.000. Maar op sommige domeinen schieten die nu al tekort tegenover AI. Algoritmen zijn erg goed in het opsporen van spam, fake accounts en naaktfoto’s. Ze halen die weg voor ze een gebruiker kunnen irriteren.

Maar met andere thema’s weet AI zich minder raad. Welke berichten zijn kwetsend, en welke niet? AI-directeur Joaquin Candela deelde die vraag in bij de ‘hard questions’. ‘We moeten een evenwicht vinden tussen het recht op vrije meningsuiting en onze plicht om gebruikers op Facebook te beschermen.’

Er is niet zoiets als een ‘encyclopedie over goed en kwaad’ die een algoritme kan downloaden, zodat het weet welke berichten het moet afwijzen wegens te kwetsend. In een aparte briefing ging Candela nog verder door op de uitdagingen daaromtrent. Hij gebruikte erg vaak de woorden ‘difficult questions’ en ‘hard questions’.

Er is bijvoorbeeld het risico dat het algoritme bij het maken van beslissingen vooroordelen heeft. Zelflerende algoritmes trainen zichzelf onder ‘supervisie’, waarbij een onderzoeker ze eerst hele datasets oplepelt. Een algoritme weet na tienduizend foto’s van een kat te hebben gezien dat het om een kat gaat. Het weet na oneindig veel training dat een bepaald stukje tekst scheldproza is.

Maar wat als die datasets al gekleurd zijn, of als de onderzoeker die aan de knoppen zit vooringenomen is? ‘Ik ben eigenlijk nog het meest bezorgd om de diepmenselijke vooroordelen, die we niet kunnen identificeren, en die in heel dat proces niettemin aanwezig zijn’, besloot Candela.

Lees verder

Advertentie
Advertentie

Tijd Connect