Les employés de Samsung ont accidentellement divulgué des données d'entreprises privées via ChatGPT - un exemple de la raison pour laquelle l'IA est une si grande menace pour votre vie privée et votre sécurité.

ChatGPT est devenu un problème majeur de sécurité et de confidentialité car trop d'entre nous partageons distraitement nos informations privées à ce sujet. ChatGPT enregistre toutes les conversations que vous avez avec lui, y compris toutes les données personnelles que vous partagez. Pourtant, vous ne le sauriez pas à moins d'avoir parcouru la politique de confidentialité, les conditions d'utilisation et la page FAQ d'OpenAI pour les reconstituer.

Il est suffisamment dangereux de divulguer vos propres informations, mais étant donné que de grandes entreprises utilisent ChatGPT pour traiter les informations chaque jour, cela pourrait être le début d'une catastrophe de fuite de données.

Samsung a divulgué des informations confidentielles via ChatGPT

Selon Gizmodo, les employés de Samsung ont divulgué par erreur des informations confidentielles via ChatGPT à trois reprises en l'espace de 20 jours. Ce n'est qu'un exemple de la facilité avec laquelle les entreprises peuvent compromettre des informations privées.

instagram viewer

ChatGPT est publiquement critiqué pour ses problèmes de confidentialité, c'est donc un oubli considérable que Samsung ait laissé cela se produire. Certains pays ont même interdit ChatGPT pour protéger leurs citoyens jusqu'à ce qu'il améliore sa vie privée, on pourrait donc penser que les entreprises seraient plus prudentes quant à la façon dont leur personnel l'utilise.

Heureusement, il semble que les clients de Samsung soient en sécurité, du moins pour le moment. Les données piratées ne concernent que les pratiques commerciales internes, certains codes propriétaires qu'ils dépannaient et les procès-verbaux d'une réunion d'équipe, tous soumis par les employés. Cependant, il aurait été tout aussi facile pour le personnel de divulguer les informations personnelles des consommateurs, et ce n'est qu'une question de temps avant de voir une autre entreprise faire exactement cela. Si cela se produit, nous pourrions nous attendre à voir une augmentation massive des escroqueries par hameçonnage et l'usurpation d'identité.

Il y a aussi une autre couche de risque ici. Si les employés utilisent ChatGPT pour rechercher des bogues comme ils l'ont fait avec la fuite de Samsung, le code qu'ils tapent dans la boîte de discussion sera également stocké sur les serveurs d'OpenAI. Cela pourrait conduire à des violations qui ont un impact considérable sur les entreprises qui dépannent des produits et programmes inédits. Nous pouvons même finir par voir des fuites d'informations telles que des plans d'affaires non publiés, des versions futures et des prototypes, ce qui entraîne d'énormes pertes de revenus.

Comment les fuites de données ChatGPT se produisent-elles?

Politique de confidentialité de ChatGPT indique clairement qu'il enregistre vos conversations et partage les journaux avec d'autres entreprises et ses formateurs en IA. Lorsqu'une personne (par exemple, un employé de Samsung) saisit des informations confidentielles dans la boîte de dialogue, elles sont enregistrées et sauvegardées sur les serveurs de ChatGPT.

Il est très peu probable que les employés l'aient fait exprès, mais c'est ce qui fait peur. La plupart des violations de données sont causées par une erreur humaine. Souvent, cela est dû au fait que l'entreprise n'a pas informé son personnel des risques pour la vie privée liés à l'utilisation d'outils tels que l'IA.

Par exemple, s'ils collent une grande liste de contacts dans le chat et demandent à l'IA d'isoler les numéros de téléphone des clients des données, ChatGPT a alors ces noms et numéros de téléphone dans ses enregistrements. Vos informations privées sont à la merci d'entreprises avec lesquelles vous ne les avez pas partagées, ce qui peut ne pas les protéger suffisamment pour assurer votre sécurité. Il y a quelques choses que vous pouvez faire pour protégez-vous après une violation de données, mais les entreprises devraient être responsables de la prévention des fuites.

Morale de l'histoire: Ne dites pas vos secrets à ChatGPT

Vous pouvez utiliser ChatGPT en toute sécurité pour des centaines de tâches différentes, mais l'organisation d'informations confidentielles n'en fait pas partie. Vous devez faire attention à ne pas taper quoi que ce soit de personnel dans la boîte de discussion, y compris votre nom, votre adresse, votre adresse e-mail et votre numéro de téléphone. Il est facile de faire cette erreur, vous devez donc veiller à vérifier vos invites pour vous assurer que rien ne s'est accidentellement introduit.

La fuite de Samsung nous montre à quel point le risque de fuite de données liée à ChatGPT est réel. Malheureusement, nous verrons plus de ces types d'erreurs, peut-être avec des impacts beaucoup plus importants, car l'IA devient un élément central des processus de la plupart des entreprises.