opinie

Wie kunstmatige intelligentie gebruikt, moet zich moreel bijscholen

Artificiële intelligentie is niet in staat een eigen moreel kompas te ontwikkelen. Wij mensen moeten dat doen.

De nadruk ligt wereldwijd op het verwerven van digitale vaardigheden. Cursussen over datawetenschap en kunstmatige intelligentie (AI) winnen aan populariteit. Er zijn zelfs programmeercursussen voor kleuters. Die digitale bijscholingsinitiatieven zijn goed en nodig.

De essentie

  • De auteurs
  • David De Cremer is directeur van het Center on AI Technology for Humankind.
  • Garry Kasparov is schaakgrootmeester en voorzitter van de Human Rights Foundation.
  • De kwestie
  • Wie denkt dat kunstmatige intelligentie haar eigen morele kompas kan ontwikkelen en er zelf voor kan kiezen ethisch te handelen vergist zich.
  • Het voorstel
  • Besef dat de mens verantwoordelijk is voor de keuzes van AI.

Tegelijk zien we dat naarmate AI belangrijker wordt in onze beslissingen het onderzoek toeneemt naar de vraag of AI ethisch gebruikt wordt. Er is een consensus dat ethiek moet worden aangeleerd aan intelligente technologieën.

Wij vinden echter dat we in die discussie misleid worden als we denken dat AI haar eigen morele kompas kan ontwikkelen en zelf kan kiezen ethisch te handelen.

De bigtechindustrie draagt de idee dat technologie bijna alle problemen in onze samenleving kan oplossen hoog in het vaandel. Volgens die technosolutionmentaliteit kunnen ethische dilemma's worden opgelost met de juiste technologie. De Ethics-as-a-Serviceboodschap van Google is een voorbeeld van die praktijk, waarbij het technologische oplossingen belooft als het gebruik van algoritmes tot onethische resultaten leidt.

Autonome drone

Die mentaliteit verwacht dat AI het onderscheid kan maken tussen verkeerde en juiste beslissingen en daarom verantwoordelijk geacht moet worden voor haar beslissingen. Een mooie illustratie van die gedachtegang is het recente rapport van de VN-Veiligheidsraad over een autonome drone die - zonder een specifiek bevel ontvangen te hebben - in Libië vorig jaar mensen heeft aangevallen.

In de berichtgeving werd AI beschreven als een zelfstandige entiteit die de beslissing op een mens te vuren zelf nam. Dat soort logica is als zeggen dat een pistool zichzelf afvuurde nadat iemand de trekker had overhaald. AI handelt op basis van door mensen gecodeerde besluitvormingsregels, die in het systeem zijn ingebracht. De enige ethische verantwoordelijke voor de 'killer'-beslissing was de mens.

AI beschrijven als een zelfstandige entiteit die de beslissing om op een mens te vuren zelf neemt, is als zeggen dat een pistool zichzelf afvuurde nadat iemand de trekker had overhaald.

We kunnen niet verwachten dat AI ons corrigeert zodat we meer ethische beslissingen nemen. AI werkt als een spiegel voor onze biases. Ze imiteert alles wat ze van onze data leert. Als datasets biased zijn, zal AI dat ook zijn - zoals de drone had geleerd - en dat verder optimaliseren. Dat AI intelligent wordt genoemd, betekent niet dat ze kan leren buiten de gegeven data.

Leermiddel

We moeten stoppen te denken dat we machines kunnen ontwerpen die ethischer zijn dan wij. Net zoals een programmeur een schaakprogramma kan maken dat veel beter schaakt dan mensen. We kunnen niet verwachten dat intelligente machines meer verantwoord gedrag vertonen, maar we mogen wel verwachten dat mensen die keuzes maken met intelligente technologieën zich meer verantwoordelijk gedragen.

Als AI zich onethisch gedraagt, moeten managers worden getraind om te herkennen welke menselijke bias tot de beslissing van de machine leidt. Zo kan AI, die onze eigen vooroordelen versterkt, worden gebruikt als een leermiddel dat managers kan helpen blinde vlekken in hun organisatie te herkennen. De beslissing AI in organisaties te gebruiken om beslissingen te nemen vereist meer dan technologische kennis. Het vergt een bewustzijn van onze morele verantwoordelijkheden als we AI gebruiken.

Lees verder

Gesponsorde inhoud

Gesponsorde inhoud