FRNL | | NewsBibliotheekAgendaNewsletterJobsAdvertisingContact |
  
Home » News » 4 op 10 Belgische werknemers deelt privé-bedrijfsgegevens met ChatGPT

4 op 10 Belgische werknemers deelt privé-bedrijfsgegevens met ChatGPT

(© sinenkiy/123RF.COM)
(© sinenkiy/123RF.COM)

42% van de Belgische werknemers deelt privé-bedrijfsgegevens met ChatGPT, aldus een online onderzoek bij 500 Belgische werknemers door Kaspersky, wereldwijd actief op het gebied van cybersecurity en digital privacy. ChatGPT is een prototype van een chatbot met kunstmatige intelligentie, gespecialiseerd in het voeren van dialogen met een gebruiker. De chatbot is een groot taalmodel, verfijnd met leertechnieken voor kunstmatige intelligentie.

ChatGPT is de afgelopen maanden razend populair geworden. De vele functionaliteiten, van content genereren tot stukken tekst controleren, verleiden tot het gebruik van de tool op het werk. Door het delen van persoonlijke bedrijfsgegevens met ChatGPT op het werk, ontstaat een risico voor de beveiliging van privé en IP-gegevens en gevoelige informatie. Bij de bevraagden bleek 43% geen kennis te hebben van hoe de gegevensverwerking werkt. Voor het management moet de privacy van gegevens en de verificatie van inhoud in verband met AI-tools dringend op de prioriteitenlijst geplaatst worden!

Regulering
Van de deelnemers aan het onderzoek geeft 44% aan dat er geen richtlijnen zijn m.b.t. het gebruik van generatieve AI-tools zoals ChatGPT op de werkvloer. Voor 1 op 5 (21%) blijken die er wel te zijn, maar zijn niet duidelijk of uitgebreid genoeg. Verontrustend is verder dat 24% van mening is dat regels of richtlijnen niet eens nodig zijn, wat ertoe zou kunnen leiden dat ChatGPT wordt misbruikt vanwege privacy- en transparantieproblemen. 
Bedrijven die wel voorzien in richtlijnen m.b.t. het gebruik van ChatGPT blijken dat voor 38% mondeling te doen, hetzij in een bedrijfsvergadering (22%) of individueel (16%). Slechts 18% van de bevraagden geeft aan dat de regels formeel werden vastgelegd in een officiële e-mail. Hieruit kan afgeleid worden dat de meerderheid van de Belgische organisaties het gegeven niet ernstig neemt.

Niet blindelings vertrouwen
Een kwart van de respondenten (25%) geeft toe dat ze ChatGPT op het werk gebruiken voor tekstuele taken, zoals content genereren, vertalingen maken of teksten verbeteren. Ongeveer hetzelfde aantal (24%) gebruikt het als tijdbesparende maatregel om bijvoorbeeld lange teksten samen te vatten of notities van vergaderingen. 
Echter nauwelijks iets meer dan 1 op 5 (22%) van de bevraagden weet hoe ChatGPT zijn informatie verwerkt. Slechts een derde van de respondenten (34%) controleert het gegenereerde resultaat voor het te gebruiken, ook al is dat letterlijk gekopieerd/geplakt. Verontrustender nog is dat 57% van de ChatGPT-gebruikers antwoorden niet controleert op feiten voordat ze die op het werk gebruiken.

Verre van perfect
Vladislav Tushkanov, Data Science Lead bij Kaspersky: “Taalmodeltools zoals ChatGPT zijn nog steeds imperfect, omdat ze geneigd zijn ongefundeerde beweringen te genereren en informatiebronnen te fabriceren. Privacy is een ander groot probleem, omdat veel AI-diensten input van gebruikers kunnen hergebruiken om hun systemen te verbeteren, wat kan leiden tot datalekken. Dit is ook het geval als hackers de inloggegevens van gebruikers zouden stelen, of kopen op het dark web, omdat ze toegang zouden kunnen krijgen tot de potentieel gevoelige informatie die is opgeslagen als chatgeschiedenis".
Voor bedrijven die baat kunnen hebben bij het gebruik van ChatGPT op de werkvloer is het opstellen van een gedetailleerd beleid voor hun werknemers om het gebruik ervan te reguleren een absolute must. Enkel duidelijke richtlijnen kunnen zowel overmatig gebruik als potentiële datalekken voorkomen die zelfs de sterkste cybersecuritystrategie zouden ondermijnen. 

Eduard Codde
21-09-2023