“Hey Siri”, hoe vaak zegt u dit? Of gebruikt u een chat om online vragen te stellen over een product of dienst? Concrete voorbeelden van Artificial Intelligence (AI). Intelligente computers zijn meer en meer aanwezig in ons leven. Niet zonder risico. Daarom komt de EU met wetten en regels voor betrouwbare kunstmatige intelligentie.

Aritifical Intelligence: een korte toelichting

Mensen zijn grillig. Met emoties, meningen en ideeën. Computers hebben daar geen last van.

Dus vragen we steeds vaker aan computers om voor ons te ‘denken’. Computers nemen taken van ons over waar normaal gesproken menselijke intelligentie voor nodig is.

Een paar voorbeelden?

  • Zelfrijdende auto’s.

  • Een slimme thermostaat die alleen aangaat als je thuis bent.

  • Suggesties op basis van eerder bekeken films en series op Netflix.

  • Virtuele assistenten die je helpen bij het maken van een aankoop.

  • Detectie van gevaar door continue analyse van camerabeelden.

Het zijn verrijkingen van ons leven, maar brengen ook de nodige risico’s met zich mee. Zeker als dat denken van computers steeds verder gaat. De techniek staat immers niet stil. Slimme toepassingen integreren zich meer en meer in ons dagelijkse leven.

Tijd voor regels, vindt de EU. Niet zomaar regels, Europa opteert voor de strengste ter wereld…..

Concept verordening AI

artificial intelligence

De nieuwe AI-verordening moet Europeanen vertrouwen geven in de mogelijkheden van AI.

Hoe?

Door een risicogebaseerde aanpak te volgen. In het concept van de AI-verordening zijn 4 risicogroepen benoemd. Van minimaal tot onaanvaardbaar. Een korte toelichting:

Onaanvaardbaar risico

AI-systemen die een duidelijke bedreiging vormen voor de veiligheid, bestaansmiddelen en rechten van mensen worden verboden. Denk aan manipulerende systemen die aansporen tot ongewenst gedrag.

Hoog risico

Dit zijn systemen die als risicovol worden gezien en bijvoorbeeld gebruikt worden in onderwijs, kritieke infrastructuurnetwerken of wetshandhaving. Met name alle systemen voor biometrische identificatie op afstand worden als risicovol beschouwd.

De AI-systemen met het stempel ‘hoog risico’, moeten aan strenge voorwaarden voldoen voor ze op markt worden gebracht. Zo moet er onder meer passend menselijk toezicht zijn en moeten gebruikers duidelijk en adequaat geïnformeerd worden.

Beperkt risico

Voor deze AI-systemen gelden specifieke transparantieverplichtingen. Zo moet het voor de gebruiker duidelijk zijn dat hij bij gebruik van een virtuele assistent met een machine praat en niet met een mens.

gaming.jpg

Minimaal risico

Het concept van de nieuwe AI-verordening staat het vrije gebruik toe van op AI gebaseerde videospellen of spamfilters. De overgrote meerderheid van AI-systemen valt in deze categorie. Het risico voor de rechten of de veiligheid van burgers is bij deze categorie minimaal.

Toezicht op naleving

Ieder Europees land wijst een toezichthouder aan om de regels na te leven. Er komt een Europees comité voor kunstmatige intelligentie om de uitvoering van die regels te faciliteren en de ontwikkeling van normen voor AI te stimuleren.

Ook wordt er gepleit voor vrijwillige gedragscodes voor AI zonder grote risico's en voor testomgevingen voor regelgeving om verantwoorde innovatie te bevorderen.

Wanneer is de AI-verordening een feit?

Het voorstel voor de verordening volgt de gewone wetgevingsprocedure. Het Europees Parlement en de Raad moeten nog hun goedkeuring verlenen.

Uit ervaring weten we dat dit een lange procedure kan zijn met veel tussentijdse aanpassingen aan het oorspronkelijke voorstel.

Wordt vervolgd dus.

Blijf op de hoogte!

Op de hoogte blijven van deze en andere ontwikkelingen in ICT Recht? Abonneert u zich dan op onze maandelijkse nieuwsbrief.