De plus en plus d'entreprises interdisent ChatGPT sur le lieu de travail, mais qu'y a-t-il derrière ces interdictions ?
Malgré ses capacités impressionnantes, plusieurs grandes entreprises ont interdit à leurs employés d'utiliser ChatGPT.
En mai 2023, Samsung a interdit l'utilisation de ChatGPT et d'autres outils d'IA générative. Puis, en juin 2023, la Commonwealth Bank of Australia a emboîté le pas, ainsi que des entreprises comme Amazon, Apple et JPMorgan Chase & Co. Certains hôpitaux, cabinets d'avocats et agences gouvernementales ont également interdit aux employés d'utiliser ChatGPT.
Alors, pourquoi de plus en plus d'entreprises interdisent ChatGPT? Voici cinq raisons principales.
1. Fuites de données
ChatGPT nécessite une grande quantité de données pour s'entraîner et fonctionner efficacement. Le chatbot a été formé à l'aide de quantités massives de données provenant d'Internet, et il continue d'être formé.
Selon Page d'aide d'OpenAI, chaque élément de données, y compris les détails confidentiels des clients, les secrets commerciaux et les informations commerciales sensibles les informations que vous fournissez au chatbot sont susceptibles d'être revues par ses formateurs, qui peuvent utiliser vos données pour améliorer leurs systèmes.
De nombreuses entreprises sont soumises à des réglementations strictes en matière de protection des données. Par conséquent, ils sont prudents quant au partage de données personnelles avec des entités externes, car cela augmente les risques de fuites de données.
En outre, OpenAI n'offre aucune protection infaillible des données et aucune garantie de confidentialité. En mars 2023, OpenAI confirmé un bogue permettant à certains utilisateurs de voir les titres de chat dans les historiques d'autres utilisateurs actifs. Bien que ce bogue ait été corrigé et OpenAI a lancé un programme de primes de bogues, la société ne garantit pas la sécurité et la confidentialité des données des utilisateurs.
De nombreuses organisations choisissent d'empêcher les employés d'utiliser ChatGPT pour éviter les fuites de données, ce qui peut nuire à leur réputation, entraîner des pertes financières et mettre leurs clients et leurs employés au risque.
2. Risques de cybersécurité
Alors que on ne sait pas si ChatGPT est véritablement sujet aux risques de cybersécurité, il est possible que son déploiement au sein d'une organisation introduise des vulnérabilités potentielles que les cyberattaquants peuvent exploiter.
Si une entreprise intègre ChatGPT et que le système de sécurité du chatbot présente des faiblesses, les attaquants peuvent être en mesure d'exploiter les vulnérabilités et d'injecter des codes malveillants. De plus, la capacité de ChatGPT à générer des réponses de type humain est un œuf d'or pour les attaquants de phishing qui peuvent prendre sur un compte ou usurper l'identité d'entités légitimes pour inciter les employés de l'entreprise à partager des données sensibles information.
3. Création de Chatbots personnalisés
Malgré ses fonctionnalités innovantes, ChatGPT peut produire des informations fausses et trompeuses. En conséquence, de nombreuses entreprises ont créé des chatbots IA à des fins professionnelles. Par exemple, la Commonwealth Bank of Australia a demandé à ses employés d'utiliser à la place Gen.ai, un chatbot d'intelligence artificielle (IA) qui utilise les informations de CommBank pour fournir des réponses.
Des entreprises comme Samsung et Amazon ont développé des modèles de langage naturel avancés, afin que les entreprises puissent facilement créer et déployer des chatbots personnalisés basés sur des transcriptions existantes. Avec ces chatbots internes, vous pouvez éviter les conséquences juridiques et de réputation associées à une mauvaise gestion des données.
4. Absence de réglementation
Dans les secteurs où les entreprises sont soumises à des protocoles réglementaires et à des sanctions, le manque de directives réglementaires de ChatGPT est un signal d'alarme. Sans conditions réglementaires précises régissant l'utilisation de ChatGPT, les entreprises peuvent faire face à de graves conséquences juridiques lorsqu'elles utilisent le chatbot IA pour leurs opérations.
De plus, l'absence de réglementation peut diminuer la responsabilité et la transparence d'une entreprise. La plupart des entreprises peuvent être confuses lorsqu'il s'agit d'expliquer les Processus décisionnels et mesures de sécurité du modèle de langage IA à leurs clients.
Les entreprises limitent ChatGPT, craignant d'éventuelles violations des lois sur la confidentialité et des réglementations spécifiques à l'industrie.
5. Utilisation irresponsable par les employés
Dans de nombreuses entreprises, certains employés s'appuient uniquement sur les réponses ChatGPT pour générer du contenu et effectuer leurs tâches. Cela engendre la paresse dans l'environnement de travail et freine la créativité et l'innovation.
Être dépendant de l'IA peut entraver votre capacité à penser de manière critique. Cela peut également nuire à la crédibilité d'une entreprise, car ChatGPT fournit souvent des données inexactes et peu fiables.
Bien que ChatGPT soit un outil puissant, son utilisation pour répondre à des requêtes complexes nécessitant une expertise spécifique à un domaine peut nuire au fonctionnement et à l'efficacité d'une entreprise. Certains employés peuvent ne pas se souvenir de vérifier les faits et de vérifier les réponses fournies par le chatbot IA, traitant les réponses comme une solution unique.
Pour atténuer de tels problèmes, les entreprises interdisent le chatbot afin que les employés puissent se concentrer sur leurs tâches et fournir des solutions sans erreur aux utilisateurs.
Interdictions de ChatGPT: mieux vaut prévenir que guérir
Les entreprises interdisant ChatGPT indiquent les risques de cybersécurité, les normes éthiques des employés et les défis de conformité réglementaire. L'incapacité de ChatGPT à relever ces défis tout en fournissant des solutions industrielles atteste de ses limites et doit encore évoluer.
Entre-temps, les entreprises se tournent vers des chatbots alternatifs ou empêchent simplement les employés d'utiliser ChatGPT pour éviter les violations de données potentielles et les protocoles de sécurité et de réglementation peu fiables associés à la chatbot.