1. Home>
  2. Nieuws>
  3. Privacy & veiligheid >
Kaikki yrityksesi viranomaisraportointi yhdestä paikasta

ChatGPT op de werkvloer: maak duidelijke afspraken

Het gebruik van ChatGPT op de werkvloer is aantrekkelijk. Het kan heel waardevol zijn en bijdragen aan een hoge productiviteit. Toch kleven er ook risico’s aan. Een AI-chatbot kan fouten maken. Informatie die je deelt in een AI-chatbot, kan gebruikt worden voor andere gebruikers. En erger nog, het gebruik van een AI-chatbot kan leiden tot datalekken. Verbieden heeft geen zin; het is juist belangrijk om werknemers bewust te maken van het gebruik van een AI-chatbot.

Risico’s van een AI-chatbot

Het gebruik van een AI-chatbot kan tijd schelen en minder leuk werk voor werknemers besparen. Denk aan het beantwoorden van vragen of het samenvatten van grote dossiers. Dat is fijn, maar het is belangrijk om je werknemers bewust te maken van de risico’s die het met zich meebrengt.

Belangrijke risico’s zijn: 

  • Een AI-chatbot kan verkeerde informatie geven en manipuleren. 
  • Het trekken van verkeerde conclusies en acties, doordat antwoorden worden gegeven op basis van een bepaalde kansberekening.
  • Het versterken van vooroordelen, omdat er informatie wordt gebruikt uit voorbeeldgroepen waarin de verdeling onevenwichtig is.
  • Privacy-risico’s, zoals een datalek. 
     

Voorkom een datalek

De Autoriteit Persoonsgegevens heeft dit jaar meerdere meldingen binnengekregen van datalekken door het gebruik van een AI-chatbot. Werknemers deelden persoonsgegevens van patiënten of klanten met een AI-chatbot. Daardoor krijgen bedrijven die de chatbot aanbieden toegang tot die persoonsgegevens.

Bij een datalek gaat het om toegang tot persoonsgegevens zonder dat dit mag of de bedoeling is.

Voorbeelden: ‘‘Een medewerker van een Telecombedrijf heeft een bestand met adressen van klanten ingevoerd in een AI-chatbot.’’ en ‘’Een medewerker van een huisartsenpraktijk heeft medische gegevens van patiënten ingevoerd in een AI-chatbot.’’

Werknemers gebruiken een AI-chatbot vaak op eigen initiatief en tegen de afspraken van de werkgever in. Worden er dan persoonsgegevens ingevoerd? Dan is er sprake van een datalek. Als het gebruik van een AI-chatbot onderdeel is van het beleid van de organisatie, is er geen sprake van een datalek. Wettelijk is het dan vaak alsnog niet toegestaan. Zorg er dus voor dat beide situaties voorkomen worden!

Maak duidelijke afspraken 

Maak als organisatie duidelijke afspraken met werknemers over het gebruik van een AI-chatbot. Sta je het gebruik daarvan toe? Laat werknemers dan weten welke gegevens ze wel en niet mogen invoeren. Geef bijvoorbeeld een training over het gebruik van een AI-chatbot en stel richtlijnen op. De AI-chatbot kan daardoor efficiënt benut worden op de werkvloer. En werknemers weten waar zij op moeten letten.  

Tips voor het opstellen van richtlijnen: 

  • Deel geen gevoelige informatie met een AI-chatbot.
  • Werknemers blijven zelf verantwoordelijk, de AI-chatbot is een hulpmiddel.
  • Laat werknemers als expert de antwoorden van de AI-chatbot dubbelchecken, een chatbot maakt fouten. 
  • Zorg voor openheid en transparantie over het gebruik van een AI-chatbot door werknemers.
  • Bied de werknemers één of meerdere betaalde accounts aan, om zicht te houden op het gebruik van de chatbot

Let op: meld datalekken als het toch mis gaat! Dit is vaak zelfs verplicht bij de Autoriteit Persoonsgegevens.
 

    Vragen of hulp nodig? 

    Heb je vragen over het gebruik van een AI-chatbot op de werkvloer of het opstellen van een reglement? Plan een gratis digitaal kopje koffie in, mail ons op taxandlegal_nl@sdworx.com of bel naar +31 (0)76 523 1350.