opinie

AI als hulpje van hr? Bezint eer ge begint

Bedrijven gebruiken almaar vaker artificiële intelligentie (AI) bij het nemen van beslissingen, ook voor hun personeelsbeleid. Die evolutie is niet te stoppen en ze is toe te juichen. Maar veronachtzaam de risico’s niet.

HR-managers en specialisten in het arbeidsrecht kunnen niet anders dan vaststellen dat het Belgische arbeidsrecht vaak meer vragen oproept dan het beantwoordt. HR-gerelateerde beslissingen worden volgens de wetgever verondersteld genomen te worden door leidinggevenden, niet door AI-technologie of algoritmes. De cao die regels voorschrijft voor het invoeren van nieuwe technologieën in een Belgische onderneming dateert van 1983. Voor wie het, net als wij, amper kan geloven: dat is 40 jaar geleden.

De cao die regels voorschrijft voor het invoeren van nieuwe technologieën in een Belgische onderneming dateert van 1983.

Advertentie

De Europese Commissie publiceerde in 2021 een complex ontwerp van Europese verordening op de artificiële intelligentie. De Europese Unie streeft ernaar in het najaar van 2023 een definitief akkoord te hebben. Daarna moeten de lidstaten er nog mee aan de slag.

Ook als ze in wetteksten zijn gegoten, zullen de verregaande vereisten voor gebruikers van AI-systemen ongetwijfeld vaak onduidelijk blijven. Wetgeving kan wel opleggen dat data representatief, foutenvrij en volledig moeten zijn, maar wij vragen ons af hoe ondernemingen aan dergelijke eisen tegemoet kunnen komen.

De essentie
  • De auteurs
  • Elke Duden is vennoot bij het advocatenkantoor CMS Belgium en specialist arbeidsrecht. Karen Dereepere is senior associate bij CMS Belgium en specialist arbeidsrecht.
  • De kwestie
  • Bedrijven zetten almaar vaker artificiële intelligentie in bij het nemen van beslissingen, ook in het personeelsbeleid.
  • Het voorstel
  • Heb meer oog voor de risico’s van het gebruik van AI-systemen. Ze lijken door het enthousiasme van menig management onder de radar te blijven.

Hopelijk geeft de nieuwe wetgeving meer stof tot nadenken over de risico’s van het gebruik van AI-systemen. Die zijn er wel degelijk, al lijken ze door het enthousiasme van menig management onder de radar te blijven.

Discriminatie

Uit verschillende studies is gebleken dat het gebruik van AI vooroordelen niet elimineert. Daarenboven is AI minder in staat rekening te houden met de beweegredenen die aan de basis van een beslissing liggen. ChatGPT gebruikt een technologie die het meest waarschijnlijke opeenvolgende woord voorspelt. De output leidt tot relatief algemene stellingen, die mogelijk vooroordelen omvatten zonder dat de gebruiker zich ervan bewust is. Die output kan de gebruiker inspireren, maar door het risico op discriminatie, en de claims die eruit kunnen voortvloeien, kan het een menselijke tussenkomst niet vervangen. Zeker niet in een hr-context.

Ook het beschermen van (gevoelige) gegevens en het waken over de kwaliteit van de via AI verzamelde informatie vergt een aangepaste risicobeoordeling om bedrijven in staat te stellen naast discriminatieclaims ook claims op basis van de privacywetgeving te vermijden.

De toekomst zal uitwijzen welke overwegingen Belgische arbeidsrechtbanken weerhouden bij de beoordeling van bijvoorbeeld de al dan niet kennelijke onredelijkheid van ontslagbeslissingen die zijn genomen op basis van AI-technologie. De Amsterdamse rechtbank oordeelde in 2021 in een zaak die was aangespannen door enkele Uber-chauffeurs dat de beslissing van Uber om de samenwerking stop te zetten niet louter op AI-technologie was gebaseerd. Er was wel degelijk sprake van een ‘betekenisvolle menselijke tussenkomst’, waardoor de chauffeurs niet waren onderworpen aan geautomatiseerde besluitvorming, wat volgens de GDPR-regelgeving verboden is.

Transparantie

Na alle terecht lovende berichten over AI in de kranten de afgelopen weken maken we de bedenking dat ondernemingen die AI implementeren in hun hr-beleid niet met de ogen dicht op die trein kunnen springen. Niet alleen is een menselijke tussenkomst vereist, ook transparantie over hoe AI wordt ingezet en wat met de via AI verkregen gegevens gebeurt. Dat wordt cruciaal in de beoordeling van eventuele latere vorderingen door Belgische arbeidsrechtbanken.

Na alle terecht lovende berichten over AI in de kranten de afgelopen weken maken wij de bedenking dat ondernemingen die AI implementeren in hun hr-beleid niet met de ogen dicht op die trein kunnen springen.

Bedrijven die gewoonlijk gemiddeld 50 werknemers tewerkstellen moeten bij de invoering van nieuwe technologieën informatie verschaffen aan en overleg plegen met werknemersvertegenwoordigers. Het inschatten van risico’s bij de implementatie van AI-systemen in het hr-beleid overlaten aan het sociaal overleg, waarbij al te vaak verschillende belangen tegen elkaar moeten worden afgewogen, lijkt ons niet te volstaan.

De uitdaging zal erin bestaan een interdisciplinair team voorafgaandelijk de AI-technologie te laten bestuderen om de mogelijke risico’s in kaart te brengen. Pas daarna kan het verduidelijken van de algoritmische besluitvorming aan zowel de vakbonden als de medewerkers beginnen.

In afwachting van een wettelijk kader kan vandaag alleen een gedegen risicoanalyse en volledige transparantie leiden tot garanties dat een hr-beleid wegblijft van discriminatoire beslissingen en inbreuken op de privacywetgeving.

Gesponsorde inhoud
Tijd Connect
Tijd Connect biedt organisaties toegang tot het netwerk van De Tijd. De partners zijn verantwoordelijk voor de inhoud.
Partnercontent
Partner Content biedt organisaties toegang tot het netwerk van De Tijd. De partners zijn verantwoordelijk voor de inhoud.