AI-chatbots als ChatGPT en Copilot winnen nog steeds aan populariteit. Zeker op de werkvloer. Werknemers ontdekken massaal hoe hun werk eenvoudiger wordt met behulp van chatbots. Dit is echter niet zonder risico’s. Voor je het weet worden er persoonsgegevens ingevoerd en wordt de werkgever geconfronteerd met een datalek.

Datalekken door gebruik AI-chatbots

Complexe vraag van een klant?

Stel ‘m aan ChatGPT.

Een groot dossier samenvatten?

Schakel een AI-chatbot in.

Steeds vaker maken werknemers gebruik van handige AI-tools voor het uitvoeren van bepaalde werkzaamheden. Dit leidt tot efficiency, maar ook tot datalekken.

Zo wordt nog weleens vergeten dat er (gevoelige) persoonsgegevens in de vraagstukken of informatie staan, die wordt aangeboden aan een chatbot. Het kan natuurlijk ook gaan om (vertrouwelijke) bedrijfsinformatie die wordt ingevoerd. Data die terecht komt bij de eigenaar van de chatbot.

In de meeste gevallen gaat het om grote Amerikaanse techgiganten, die de ingevoerde data op eigen servers opslaat. Het is niet duidelijk wat die bedrijven vervolgens met de data doen.

Komen er inderdaad persoonsgegevens terecht in een AI-chatbot?

Dan is er sprake van een datalek.

Waar gaat het mis?

Het is aan organisaties zelf om intern afspraken te maken over het gebruik van AI-tools als ChatGPT. De meeste organisaties zijn hiermee bezig of hebben de afspraken al gemaakt.

Sommige organisaties kiezen voor een verbod. De tools worden echter zo handig bevonden dat medewerkers er vaak toch voor kiezen om de chatbots te gebruiken in hun werk, achter de rug van de werkgever om.

Aan de andere kant zijn er bedrijven die juist hebben besloten AI-chatbots te integreren in hun bedrijfsvoering. Dit kan tot problemen leiden als er bijvoorbeeld persoonsgegevens ingevoerd worden.

De Autoriteit Persoonsgegevens krijgt namelijk steeds vaker melding binnen van een datalek door gebruik van een AI-chatbot. Zo heeft een medewerker van een huisartsenpraktijk – tegen de afspraken in – medische gegevens van patiënten ingevoerd in een AI-chatbot. Bij een ander bedrijf voerde een medewerker een bestand met onder meer adressen van klanten in.

In de praktijk gaat het dus nog weleens mis.

Autoriteit Persoonsgegevens: tijd voor meer bewustwording

Medewerkers zien vooral het gemak van AI-tools als ChatGPT en verliezen de mogelijke risico’s al snel uit het oog. Verbieden is lastig en vaak ook zonde, omdat de tools zoveel voordelen bieden.

Daarom is het volgens de Autoriteit Persoonsgegevens vooral zaak om – naast duidelijke afspraken – te werken aan bewustwording rondom het gebruik van AI. Bijvoorbeeld door middel van concrete richtlijnen, trainingen en uitlegmateriaal.

Het gebruik van AI-tools resulteert namelijk niet alleen in risico’s op het gebied van de AVG en datalekken.

Er kan bijvoorbeeld ook vertrouwelijke bedrijfsinformatie gelekt worden via de tools of er wordt ongemerkt plagiaat gepleegd. Een chatbot is daarnaast niet foutloos. Het kan een foutief antwoord geven, dat een medewerker voor waar aanneemt en op zijn beurt weer deelt met een klant.

Het is voor iedere organisatie dus zaak om te bepalen hoe AI-chatbots op een goede manier ingezet kunnen worden, zodat de risico’s tot een minimum beperkt worden en er geen wet- en regelgeving wordt overtreden.

Blijf op de hoogte!

Op de hoogte blijven van de ontwikkelingen op het gebied van ICT Recht? Meldt u zich dan nu aan voor de maandelijkse nieuwsbrief van Legalz.