Nee, technologie is niet neutraal

Navigatieapps nemen tal van beslissingen voor ons, en niet iedereen is daar blij mee. Zo is er protest tegen het ontstaan van drukke sluipwegen nabij scholen. ©BELGAIMAGE

Wie een lening krijgt, waar de politie patrouilleert of hoe we moeten rijden. We besteden hoe langer hoe meer beslissingen uit aan algoritmes. Dat is niet zonder risico.

In de Vlaamse gemeenten Kortenberg en Steenokkerzeel waren ze het vorig jaar grondig beu. Telkens als de drukke verkeersassen waar de twee dorpen vlakbij liggen overvol liepen, stroomde de verkeersellende over naar hun bebouwde kom. In die mate dat ze vorig jaar naar een systeem van vergunningen, slimme camera’s en GAS-boetes grepen tijdens de spitsuren.

Sluipverkeer is van alle tijden, maar beide gemeenten merkten naar eigen zeggen de jongste jaren een grote stijging. Ze leggen daarvoor de verantwoordelijkheid bij navigatieapps als Waze of Google Maps, die realtime verkeersstromen in kaart brengen en alternatieve routes suggereren om tijd te winnen. Die apps zijn een godsgeschenk voor wie gehaast is, maar stilaan ook een nachtmerrie voor wie nabij de populaire alternatieve routes woont.

In een presentatie voor het Radio 1-project De Universiteit Van Vlaanderen wees VUB-prof Tias Guns er deze week nog eens op dat deze nieuwe golf sluipverkeer een gevolg is van de artificiële intelligentie die een app als Waze aandrijft. Anders dan een klassieke gps, die gewoon de kortste route van A naar B zoekt, wordt het Waze-algoritme permanent gevoed met data. Het algoritme is ‘getraind’ om zo één ding te doen: een chauffeur op de efficiëntst mogelijke manier van A naar B te krijgen, rekening houdend met de actuele verkeerscontext.

Dat die alternatieve wegen misschien populaire fietsroutes zijn, of dat er scholen op de route liggen, daar houdt het algoritme geen rekening mee. Het is een mooie illustratie van hoe we graag vertrouwen op technologie. AI wordt vaak aangeprezen als totaal objectief en neutraal. Maar de Waze-discussie maakt net duidelijk dat die neutraliteit niet bestaat, zegt Mark Coeckelbergh, technologiefilosoof aan de Universiteit van Wenen. ‘Wij mensen zijn bang van onze eigen subjectiviteit en feilbaarheid. Dat zijn eigenschappen die we niet verbinden aan machines, die niet over emoties beschikken en veel meer data kunnen verwerken. Maar dat technologie daarom volledig neutraal is, is een illusie. Ze is even feilbaar als de mens die ze heeft geprogrammeerd.’

De mens bepaalt de waarde, niet de data

‘Algoritmes zijn regels die zijn geprogrammeerd om beslissingen te maken op basis van data’, zegt ook Matthias Spielkamp, journalist en oprichter van AlgorithmWatch, een organisatie die zich heeft opgeworpen als AI-waakhond in Europa. ‘Maar om die beslissingen te kunnen maken, krijgt zo’n algoritme parameters mee waar een bepaalde waarde aan wordt verbonden. Welke waarden belangrijk worden geacht, is het resultaat van een menselijke keuze, niet van data.’

Nu we hoe langer hoe meer belangrijke beslissingen proberen te automatiseren, is dat een realiteit waar we ons te weinig bewust van zijn, meent Spielkamp. Er worden ondertussen al algoritmes gebruikt voor het toekennen van leningen, het beslissen waar politie het best patrouilleert of het rangschikken van patiënten om in aanmerking te komen voor een behandeling, om maar enkele voorbeelden te noemen. Technologie kan daarbij wel degelijk een belangrijk hulpmiddel zijn, meent Spielkamp. Maar daarbij moeten we oog durven te hebben voor de mogelijke fouten of vooroordelen die de menselijke ontwikkelaars er al dan niet bewust hebben ingebakken.

Je moet meer transparantie inbouwen in apps, zodat gebruikers het resultaat beter kunnen beoordelen. Ook moeten we ontwikkelaars stimuleren over de ethiek van hun werk na te denken.
Mark Coeckelbergh
Technologiefilosoof Universiteit van Wenen

De vraag is hoe je die risico’s opvangt, zonder het potentieel overboord te gooien. Dat is een complex vraagstuk, waar geen simpel antwoord op bestaat, zegt Coeckelbergh. ‘Je moet meer transparantie inbouwen, zodat gebruikers het resultaat beter kunnen beoordelen. Maar tegelijk moet je een kader creëren waarin ontwikkelaars proactief worden gestimuleerd over de ethiek van hun werk na te denken, bijvoorbeeld door ethiek consequent in het onderwijs aan bod te laten komen.’

En strenge regulering? ‘Daar ben ik geen grote pleitbezorger van’, verrast Spielkamp. ‘Niet om bedrijven vrij spel te geven, maar omdat dat soort wetgeving vaak moeilijk te handhaven is. Dan is het vaak efficiënter een publieke discussie aan te wakkeren als drukmiddel.’

Lees verder

Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Gesponsorde inhoud