In maart stemde het Europese Parlement in met de AI Act en werd de wetgeving een feit. De wet legt onder meer transparantieverplichtingen op aan AI-systemen met een laag risico. Het overgrote deel van de AI-systemen valt binnen deze categorie en krijgt met deze regels te maken. Daarom bespreken we in deze blog uitgebreid de eisen die de AI Act stelt aan transparante kunstmatige intelligentie.
AI Act in het kort
De Artificial Intelligence Act (AI Act) is een Europese Verordening die regels oplegt aan aanbieders en gebruikers van AI-systemen en -toepassingen. De AI Act is inmiddels goedgekeurd en treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie, naar verwachting binnen 3 maanden. De regels gaan stapsgewijs gelden. Alle regels van de AI Act gelden uiterlijk twee jaar na publicatie.
De AI Act moet in Europa voor meer vertrouwen in AI-systemen zorgen door de veiligheid van gebruikers te waarborgen. Het idee achter de AI Act is om kunstmatige intelligentie te reguleren via een op risico gebaseerde aanpak. De Artificial Intelligence Act deelt systemen in 4 categorieën in:
onaanvaardbaar risico;
hoog risico;
beperkt risico;
minimaal risico.
De meeste systemen vallen binnen de laatste twee categorieën. Voor systemen met een beperkt of minimaal risico gelden enkel transparantieverplichtingen. Die verplichtingen bespreken we hieronder.
Meer weten over de gehele act en de verplichtingen voor systemen binnen de andere categorieën?
Lees dan onze blog ‘De Europese AI Act is een feit én dit zijn de regels’.
Transparantieverplichtingen voor laag risico AI
De AI Act legt transparantieverplichtingen op, die de gebruiker duidelijk moeten maken dat het systeem gebruikmaakt van kunstmatige intelligentie. Op die manier wil Europa af van het ‘black box’-gevoel dat AI-systemen vaak oproepen.
Voor systemen die directe interactie hebben met mensen, geldt dat deze de gebruiker moeten informeren dat er gebruik wordt gemaakt van AI.
Is het vanuit het oogpunt van een normaal geïnformeerde en redelijk opmerkzame en omzichtige natuurlijke persoon volledig duidelijk dat het een AI-systeem betreft?
Dan hoeft de gebruiker in de meeste gevallen niet apart geïnformeerd te worden.
AI-systemen die synthetische audio-, beeld-, video- of tekstinhoud genereren
Voor aanbieders van AI-systemen - met inbegrip van AI-systemen voor algemene doeleinden, die synthetische audio-, beeld-, video- of tekstinhoud genereren – legt de AI Act nog meer transparantieverplichtingen op.
Zij moeten er in veel gevallen namelijk voor zorgen dat de output van het AI-systeem wordt gemarkeerd in een machine leesbaar formaat. Daarnaast moet de output detecteerbaar zijn als kunstmatig gegenereerd of gemanipuleerd.
Emotieherkenningssysteem en biometrische categorisering
Deze regel geldt voor zogenaamde ‘deployers’ van AI-systemen. Hieronder verstaat de AI Act een natuurlijke of rechtspersoon, overheidsinstantie, agentschap of ander orgaan die/dat een AI-systeem onder eigen verantwoordelijkheid gebruikt, tenzij het AI-systeem wordt gebruikt in het kader van een persoonlijke niet-beroepsactiviteit.
Deployers van een emotieherkenningssysteem of een systeem voor biometrische categorisering moeten de daaraan blootgestelde natuurlijke personen informeren over de werking van het systeem. Denk hierbij aan werkgevers die een dergelijk systeem op de werkvloer gebruiken.
Let op!
De AI Act benadrukt dat deze partijen daarnaast ook aan de AVG moeten voldoen als er persoonsgegevens verwerkt worden.
Deepfake en AI-teksten voor het algemeen belang
Er gelden ook regels voor deployers die gebruikmaken van deepfake. Hierbij gaat het om door AI gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal dat een gelijkenis vertoont met bestaande personen, voorwerpen, plaatsen of andere entiteiten of gebeurtenissen, én door een persoon ten onrechte voor authentiek of waarheidsgetrouw zou worden aangezien.
Bij gebruik van deepfake moet bekend worden gemaakt dat de inhoud kunstmatig is gegenereerd of gemanipuleerd.
Bij het publiceren van door een AI-systeem gegeneerde of bewerkte tekst om het publiek te informeren over aangelegenheden van algemeen belang, moet het publiek geïnformeerd worden dat de tekst kunstmatig is gegenereerd of bewerkt.
Goed om te weten!
Deze laatste verplichting geldt niet als de door AI gegenereerde inhoud een proces van menselijke toetsing of redactionele controle heeft ondergaan en wanneer een natuurlijke of rechtspersoon redactionele verantwoordelijkheid draagt voor de bekendmaking van de inhoud.
Meer weten?
Lees hoofdstuk IV ‘Transparantieverplichtingen voor aanbieders en operatoren van bepaalde AI-systemen’ uit de AI Act vanaf pagina 282 in deze PDF voor de volledige wettekst over de transparantieverplichtingen.
Of lees één van onze eerdere blogs over de AI Act:
Europa bereikt voorlopig akkoord over Artificial Intelligence Act
Eerste Artificial Intelligence Act in zicht: ook ChatGPT ontkomt er niet aan
Zeker weten dat u niks mist?
Abonneert u zich dan op onze maandelijkse nieuwsbrief en ontvang onze blogs automatisch in uw mailbox.