FRNL | | NewsBibliothèqueAgendaNewsletterJobsAdvertisingContact |
  
Accueil » News » 4 employés belges sur 10 partagent des données professionnelles privées avec ChatGPT

4 employés belges sur 10 partagent des données professionnelles privées avec ChatGPT

(© sinenkiy/123RF.COM)
(© sinenkiy/123RF.COM)

42 % des employés belges partagent des données professionnelles privées avec ChatGPT, selon une enquête en ligne menée auprès de 500 employés belges par Kaspersky, une entreprise mondiale spécialisée dans la cybersécurité. ChatGPT est un prototype de chatbot à intelligence artificielle, spécialisé dans la conduite de dialogues avec un utilisateur. Le chatbot est un grand modèle linguistique, affiné avec des techniques d'apprentissage de l'intelligence artificielle.

ChatGPT est devenu très populaire ces derniers mois. Ses nombreuses fonctionnalités, de la génération de contenu à la vérification de morceaux de texte, incitent les gens à utiliser l'outil au travail. Le partage des données personnelles de l'entreprise avec ChatGPT au travail crée un risque pour la sécurité des données privées, des données IP et des informations sensibles. Parmi les personnes interrogées, 43 % n'ont aucune connaissance du fonctionnement du traitement des données. Pour la direction, la confidentialité des données et la vérification du contenu liées aux outils d'IA devraient être prioritaires de toute urgence !

Régulation
Parmi les participants à l'enquête, 44 % indiquent qu'il n'existe aucune directive concernant l'utilisation d'outils d'IA générative tels que ChatGPT sur le lieu de travail. Pour 1 sur 5 (21 %), ils semblent être là, mais ne sont pas suffisamment clairs ou détaillés. Plus inquiétant encore, 24 % pensent que les règles ou les lignes directrices ne sont même pas nécessaires, ce qui pourrait conduire à une utilisation abusive de ChatGPT en raison de problèmes de confidentialité et de transparence. 
Les entreprises qui fournissent des lignes directrices concernant l'utilisation du ChatGPT semblent, pour 38 % d'entre elles, le faire verbalement, soit lors d'une réunion d'entreprise (22 %), soit individuellement (16 %). Seules 18% des personnes interrogées ont indiqué que les règles étaient formellement définies dans un courrier électronique officiel. On peut en déduire que la majorité des organisations belges ne prennent pas le sujet au sérieux.

Ne pas faire aveuglément confiance
Un quart des personnes interrogées (25 %) admettent utiliser ChatGPT au travail pour des tâches textuelles, telles que la génération de contenu, la création de traductions ou l'amélioration de textes. Environ le même nombre (24 %) l'utilise pour gagner du temps en résumant de longs textes ou des notes de réunion, par exemple. 
Cependant, à peine plus de 1 répondant sur 5 (22 %) sait comment ChatGPT traite ses informations. Seul un tiers des répondants (34%) vérifient le résultat généré avant de l'utiliser, même s'il est littéralement copié/collé. Plus inquiétant même, 57 % des utilisateurs de ChatGPT ne vérifient pas les réponses avant de les utiliser au travail.

Loin d'être parfait
Vladislav Tushkanov, Data Science Lead chez Kaspersky : « Les outils de modélisation du langage comme ChatGPT sont encore imparfaits, car ils ont tendance à générer des affirmations non fondées et à fabriquer des sources d'informations. La confidentialité est une autre préoccupation majeure, car de nombreux services d'IA peuvent réutiliser les entrées des utilisateurs pour améliorer leurs systèmes, ce qui peut entraîner des violations de données. C'est également le cas si des pirates informatiques volent les identifiants de connexion des utilisateurs, ou achètent sur le dark web, car ils pourraient accéder aux informations potentiellement sensibles stockées dans l'historique des discussions ».
Pour les entreprises qui pourraient bénéficier de l'utilisation de ChatGPT sur le lieu de travail, il est absolument nécessaire d'établir des politiques détaillées pour leurs employés afin de réglementer son utilisation. Seules des directives claires peuvent prévenir à la fois l'utilisation excessive et les violations de données potentielles qui saperaient même la stratégie de cybersécurité la plus solide. 

Eduard Codde
21-09-2023