AI Act Series: gebruiksverantwoordelijke en getroffen personen

AI Act Series: gebruiksverantwoordelijke en getroffen personen

Words matter: Terminologie in de (NL vertaling van de) AI-verordening

In de meest recente Nederlandse versie van de AI-verordening (Rectificatietekst van 15 april 2024) wordt de term “exploitant” niet langer gebruikt als vertaling van de Engelse term “deployer”. De nieuwe vertaling is “gebruiksverantwoordelijke” geworden.

Wat is een “gebruiksverantwoordelijke” volgens de AI-verordening? Artikel 3 definieert deze term als “een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit”. Ter vergelijking, in de Engelse tekst wordt “deployer” gedefinieerd als “a natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal non-professional activity”.

Ik begrijp goed dat veel mensen niet tevreden waren met “exploitant” als vertaling van “deployer” uit de Engelse tekst, maar blijkbaar is ook niet iedereen tevreden met de nieuwe term “gebruiksverantwoordelijke”.

Welke alternatieven waren er geweest? Het vertalen van “deployer” als “uitvoerder” zou ook de definitie van de AI-verordening niet dekken en in dat geval kan ik begrijpen waarom er voor de term “gebruiksverantwoordelijke” is gekozen.

Maar ik was nieuwsgierig en ik wilde dit verder onderzoeken, dus heb ik naast mijn juridische pet ook mijn oude pet als taalkundige weer opgezet om te begrijpen waarom deze term de gekozen term is.

Gebruiksverantwoordelijke in andere verordeningen – Mijn analyse

Wanneer ik de term “gebruiksverantwoordelijke” opzoek in andere Europese machinerie- en veiligheidsverordeningen, kan ik deze niet vinden; maar het bekijken van de verschillende termen en definities in deze verordeningen heeft me geholpen om beter te begrijpen waarom de keuze voor de term “gebruiksverantwoordelijke” is gemaakt.

Ik heb de termen en definities van de Europese Machineverordening EU 2023/1230 en die van de Europese verordening voor medische hulpmiddelen ((EU) 2017/745 Medical Device Regulation, MDR) vergeleken in de drie talen die ik goed beheers (Nederlands, Engels en Spaans). Hier zal ik meestal refereren aan de Engelse en Nederlandse vertaling.

In de Nederlandse versie van de Europese Machineverordening EU 2023/1230 wordt de term “professionele gebruiker” gebruikt en gedefinieerd als “natuurlijke persoon die in het kader van zijn of haar beroepsactiviteit of werk een machine of verwant product gebruikt of bedient”. De tekst in het Engels definieert “professional user” als “a natural person who uses or operates machinery or a related product in the course of his or her professional activity or work”. Dus er wordt geen gebruik gemaakt van de term “deployer” maar “professional user” en geen “gebruiksverantwoordelijke” maar “professionele gebruiker”.

In de Nederlandse versie van de MDR (EU) 2017/745 wordt de term “gebruiker” gedefinieerd als “een zorgverlener of leek die een hulpmiddel gebruikt”; dit is vertaald uit de Engelse versie waar “user” is gedefinieerd als “any healthcare professional or lay person who uses a device”.

Hier ligt een verschil: in de Machineverordening en de MDR worden gebruikers gedefinieerd als eindgebruikers, degenen die daadwerkelijk de apparaten gebruiken. In de AI-verordening heeft “deployer” een bredere connotatie; het is niet alleen degene die het apparaat gebruikt, maar ook degene die verantwoordelijk is voor het gebruik van dat apparaat.

En dat zien we ook terug in het aantal verplichtingen waaraan de “gebruiksverantwoordelijke” moet voldoen volgens de AI-verordening. Enkele van deze verplichtingen zijn:

  • Het waarborgen van een adequaat niveau van AI-geletterdheid bij hun personeel en andere betrokkenen die namens hen AI-systemen exploiteren en gebruiken (art. 4).
  • Het registreren van logs van AI-systemen met een hoog risico (art. 12).
  • Het nemen van verantwoordelijkheid in de AI-waardeketen (art. 25).
  • Het registreren van het AI-systeem in de EU-databank (art. 49).
  • Het waarborgen van menselijk toezicht, het samenwerken met relevante autoriteiten, en andere vereisten zoals beschreven in artikel 26.
  • Het beoordelen van de gevolgen voor de grondrechten die het gebruik van AI-systemen met een hoog risico met zich mee kan brengen (art. 27).
  • Het voldoen aan transparantieverplichtingen (art. 50).
  • Het verstrekken van een duidelijke, inhoudelijke uitleg aan personen die worden beïnvloed door een besluit dat is genomen op basis van de output van een AI-systeem met een hoog risico (art. 86).

Het zou niet eerlijk en proportioneel zijn om van een eindgebruiker te verwachten aan deze vereisten te voldoen 😅. Daarom zijn ze bedoeld voor iemand die niet alleen verantwoordelijk is voor het gebruik van het AI-systeem, maar ook voor de veiligheid van eindgebruikers en getroffen personen.

Voor sommigen klinkt dit misschien enigszins vergelijkbaar met de rol van verwerkingsverantwoordelijke onder de AVG. Ik ben benieuwd wat jullie hiervan vinden.

En waar is de term “gebruiker” of “eindgebruiker” (“user” en “end user”) te vinden in de AI-verordening?

De term wordt een aantal keer gebruikt in sommige van de overwegingen en in bijlage XIII. We komen ook een paar keer termen zoals gebruikersvriendelijk en gebruikersinterface tegen. Maar de term is helaas niet te vinden in de lijst van definities in Artikel 3.

Opmerkelijk is dat in de Spaanse vertaling de term “gebruiksverantwoordelijk” wordt vertaald als “responsable del despliegue”, maar in sommige gevallen is het (helaas) ook als “usuario” (gebruiker) vertaald 😕.

Waarom is het concept van “deployer” of “gebruiksverantwoordelijke” nieuw in de AI-verordening in vergelijking met andere Europese machinerie- en/of veiligheidsverordeningen?

Dit heeft mogelijk te maken met de aard van de technologie. De onderscheiding tussen “gebruiker” en “gebruiksverantwoordelijke” weerspiegelt de unieke kenmerken en risico’s die verbonden zijn aan AI-systemen in vergelijking met traditionele apparaten. AI-systemen zijn vaak geen kant-en-klare apparaten; ze worden geïntegreerd in specifieke contexten en hebben vaak een dynamische aard. In tegenstelling tot statische apparaten kunnen AI-systemen in de loop van de tijd evolueren door middel van leren en aanpassing. Dit kan nieuwe risico’s en uitdagingen met zich meebrengen die verder gaan dan wat typisch is voor traditionele apparaten.

Tot slot nog iets over wie getroffen of betrokken is bij een AI-systeem…

Iets anders dat me opviel is dat de term “affected persons” 14 keer voorkomt in de Engelse Corrigendum-versie van de AI-verordening, terwijl we hier in de Nederlandse tekst geen unieke consistente vertaling voor gebruiken. In de Nederlandse Rectificatieversie wordt de term “betrokken persoon” 12 keer gebruikt en de term “getroffen personen” 10 keer. Beide termen zijn vertalingen van verschillende termen, zoals hieronder te zien is:

  • 7 keer is “affected person” vertaald als “betrokken persoon
  • 4 keer is “concerned person or persons” vertaald als “betrokken persoon
  • 1 keer is “population” vertaald als “betrokken persoon
  • 7 keer is “affected person or person” vertaald als “getroffen persoon
  • 3 keer is “person” vertaald als “getroffen persoon

Net zoals bij de term “gebruiker” is het jammer dat ook hier geen definitie in de AI-verordening gevonden kan worden van de term “getroffen of betrokken persoon”. Dit is trouwens ook het geval in de Europese Machineverordening EU 2023/1230 en de MDR (EU) 2017/745 waar we termen zoals “persoon”, “proefpersoon” en “patiënten” (“person”, “subject” en “patient” in het Engels) kunnen vinden, maar waar alleen de term “proefpersoon” (“subject”) wordt in the MDR gedefinieerd.

Ik begrijp dat bepaalde termen zo duidelijk zijn dat ze geen verdere uitleg behoeven waardoor we de moeite niet hoeven te nemen hier definities aan te wijden. Maar het gebruik van zoveel verschillende termen die (mogelijk) hetzelfde betekenen in een wettekst kan verwarrend zijn. Aangezien de AI-verordening schade aan “betrokken of getroffen personen” wil voorkomen door risico’s voor gezondheid, veiligheid en fundamentele rechten te voorkomen, zou het volgens mij prettig zijn geweest om een consistente definitie van deze specifieke termen te zien in de definitielijst van artikel 3.

Posted in AI Act