column

Dodelijke zwermen

Digitaal nieuwsmanager

Drones vliegen in strakke formatie door een somber luchtruim. Met grote precisie herschikken ze zich en wordt de formatie een driehoek. De driehoek wordt daarna een zwerm die een collectieve duikvlucht inzet.

‘Kargu’ heet het product van het Turkse bedrijf STM. De video is te bekijken op YouTube. De drones kunnen worden ingezet als autonome wapens. Zonder dat een menselijke tussenkomst nodig is, kunnen ze de vijand detecteren en uitschakelen. STM oogst succes op internationale wapenbeurzen en afgrijzen bij experten in artificiële intelligentie met enige zin voor ethiek.

Tot die laatste categorie behoort Stuart Russell. De professor aan de University of California Berkeley is wereldwijd bekend als coauteur van het lijvige standaardwerk ‘Artificial Intelligence: A Modern Approach’. Autonome wapensystemen zijn volgens hem een bijzonder dringend probleem. Het is perfect denkbaar dat een zwerm van 10 miljoen killerdrones wordt losgelaten op Londen, en dat die zoeken naar doelwitten die beantwoorden aan bepaalde criteria rond geslacht, leeftijd of etnische afkomst, vertelde hij pas in de podcast TechTonic van Financial Times. De professor dringt aan op een internationaal verdrag dat zulke autonome zwermwapens verbiedt. Ze behoren niet langer tot de sciencefiction, ze zijn een realiteit en ze zijn te koop.

Kargu - The Kamikaze Drones Getting Ready For The Swarm Operation

De manipulatie van sociale media door artificiële intelligentie lijkt wat op de dodende dronezwerm. Software identificeert individuen in functie van bepaalde criteria, en bestookt die met teksten en beelden. De software verbetert zichzelf stelselmatig om kliks en impact te maximaliseren. Hoe radicaler mensen worden door de blootstelling aan bepaalde vormen van sociale media, hoe makkelijker hun gedrag te voorspellen en te beïnvloeden is. De drones doden, de manipulatie van sociale media ontwricht samenlevingen.

Superintelligentie

Maar hoe fout kan het gaan als we een superintelligentie creëren, die veel ruimer kan ‘denken’ dan pakweg autonome wapensystemen? Daar heeft Russell pas een boek over uit, ‘Human Compatible: AI and the Problem of Control’. Hij argumenteert dat ook een superintelligent systeem het bijzonder moeilijk zal hebben in te schatten wat wij mensen precies willen. Hij pleit voor nederige superintelligente systemen, die hun gebrek aan inzicht in onze doeleinden toegeven en ons regelmatig vragen wat we eigenlijk willen en er rekening mee houden dat we morgen misschien van gedacht veranderen. Systemen ook die toelaten dat we hen desnoods uitschakelen. Combineer zo’n design met een toezicht zoals dat bestaat voor geneesmiddelen, en artificiële superintelligentie kan de mensheid binnenloodsen in een tijdperk van overvloed.

Superintelligente systemen kunnen maar best van de nederige soort zijn.

Er is nog een lange weg te gaan voor we zo’n kunstmatige superintelligentie zien ontstaan, maar volgens Russell is het in principe best haalbaar. De grootste fout die we kunnen maken, is die systemen eenduidige en onveranderlijke doeleinden meegeven. Denk aan koning Midas, die wilde dat alles wat hij aanraakte in goud zou veranderen. Midas kreeg nog de kans zijn wens ongedaan te maken, met een verkeerd design krijgen we die tweede kans misschien niet bij een artificiële superintelligentie.

‘Human Compatible’ is een must-read. Het beschrijft haarscherp voor welke existentiële keuzes de mensheid staat, en het is geschreven door iemand die het vak door en door kent.

Lees verder