Waar had Mark Zuckerberg het niet over tijdens de ontwikkelaarsconferentie F8 van ‘zijn’ Facebook? Wat mij als liefhebber van sciencefiction bedroefde, was de stilte over mind-reading.

In 2017, lang voor het Cambridge Analytica-debacle, betrad ene Regina Dugan het podium. Een fascinerende vrouw. Ze was de leider van de Building 8, waar Facebook zijn stoutmoedigste techonderzoek doet, en de ex-topvrouw van DARPA, de researchinstelling van het Amerikaanse leger.

Die Regina Dugan onthulde vorig jaar dat Facebook werkt aan een ‘brain-computer speech-to-text interface’ die je gedachten rechtstreeks van je brein op het scherm overbrengt.

Dugan toonde een video van een universitair lab waar een vrouw via een elektrode die in haar hersenen was ingeplant acht woorden per minuut kon ‘typen’. Volgens haar moet het mogelijk zijn binnen enkele jaren met niet-invasieve sensors tot 100 woorden per minuut te gaan.

Dugan legde uit dat het ‘lezen’ van het brein heel specifiek inzoomt op dat deel van de hersenen waar gedachten worden omgezet in spreken. Het ging niet over de ‘stream of consciousness’ van mensen, want dat werd in 2017 al creepy gevonden.

Fastforward naar mei 2028. Dugan werkt al een tijdje niet meer voor Facebook. Over brain-computer interfaces (BCI) werden geen bevlogen presentaties gemeld. Dat betekent niet dat het niet meer op de radar staat. Op de ‘roadmap’ van Facebook staat BCI vermeld onder de hoofding Virtual & Augmented Reality. Maar toch. In tijden van schandalen over het misbruik van Facebook-data is het pr-gewijs niet verstandig vrolijk over ‘gedachtenlezen’ te toeteren.

China

Symptomatisch voor de hele toestand rond privacy en databescherming: terwijl Facebook zwijgt over opwindend maar delicaat onderzoek en Europa zich opmaakt voor de invoering van de General Data Protection Regulation (GDPR), zijn de Chinezen aanzienlijk minder terughoudend.

Het dagblad South China Morning Post bracht deze week het verhaal dat China op industriële schaal de hersenen van werknemers monitort. In veiligheidshelmen en uniformpetten worden sensoren geïnstalleerd die de hersengolven registreren.

De mogelijkheid dat een bewaker je zou kunnen zien, heeft al een disciplinerend effect.

Algoritmes analyseren de data en speuren naar emotionele pieken die wijzen op depressie, woede of angst. De technologie wordt onder meer gebruikt bij de training van nieuwe werknemers, die dan in virtuele realiteit te maken krijgen met stresserende toestanden.

Chinese researchers zijn opgetogen over de resultaten die volgens hen worden behaald in fabrieken, ziekenhuizen en het leger. Her en der is sprake van protest of spreekt een ongeruste professor zich uit over de privacy, maar China heeft blijkbaar geen regels die dit soort programma’s aan banden leggen.

Panopticon

Het is niet duidelijk of het hele systeem echt accuraat is, maar eigenlijk doet dat er niet toe. De Engelse filosoof Jeremy Bentham ontwikkelde eind 18de eeuw het Panopticon-design voor gevangenissen, dat bestond uit een centrale hal met daarrond ringen van cellen. De bewaker in de hal zou, ongezien, in elke cel kunnen kijken. Het interessante is dat de loutere mogelijkheid dat de bewaker de gevangene ziet al een disciplinerend effect heeft. Ik kan mij voorstellen dat het dragen van een met sensoren uitgerust hoofddeksel ook zo’n effect heeft.

Laat ons niet te snel denken dat dit ‘typisch Chinees’ is. Ook in het Westen zijn er voorstanders van precisiemonitoring van bijvoorbeeld leerlingen in de klas. ‘Wat ik dit jaar leerde, is dat we een bredere kijk op onze verantwoordelijkheid moeten hebben’, zei Zuckerberg. Laat duidelijk zijn dat dat niet enkel geldt voor Facebook.

Lees verder

Advertentie
Advertentie
Advertentie
Advertentie

Gesponsorde inhoud

Partner content