Que vous utilisiez ChatGPT ou un autre chatbot, vous devez être conscient des menaces potentielles qui remettent en question la confidentialité de vos données.

Les chatbots existent depuis des années, mais la montée en puissance de grands modèles de langage, tels que ChatGPT et Google Bard, a donné un nouveau souffle à l'industrie des chatbots.

Des millions de personnes utilisent désormais des chatbots IA dans le monde, mais il existe certains risques et préoccupations importants en matière de confidentialité à garder à l'esprit si vous souhaitez essayer l'un de ces outils.

1. Collecte de données

La plupart des gens n’utilisent pas de chatbots uniquement pour dire bonjour. Les chatbots modernes sont conçus pour traiter et répondre à des questions et demandes complexes, les utilisateurs incluant souvent de nombreuses informations dans leurs invites. Même si vous ne posez qu'une question simple, vous ne voulez pas vraiment qu'elle aille au-delà de votre conversation.

Selon Section d'assistance d'OpenAI

instagram viewer
, vous pouvez supprimer les journaux de discussion ChatGPT à tout moment, et ces journaux seront ensuite définitivement supprimés des systèmes OpenAI après 30 jours. Cependant, l'entreprise conservera et examinera certains journaux de discussion s'ils ont été signalés comme contenant du contenu nuisible ou inapproprié.

Claude, un autre chatbot IA populaire, assure également le suivi de vos conversations précédentes. Centre d'assistance d'Anthropic déclare que Claude suit « vos invites et résultats dans le produit pour vous offrir une expérience produit cohérente au fil du temps, conformément à vos contrôles ». Toi peut supprimer vos conversations avec Claude, donc il oublie ce dont vous avez parlé, mais cela ne signifie pas qu'Anthropic supprimera immédiatement vos journaux de son systèmes.

Cela soulève bien sûr la question: mes données sont-elles conservées ou non? ChatGPT ou d'autres chatbots utilisent-ils mes données ?

Mais les inquiétudes ne s'arrêtent pas là.

Comment ChatGPT apprend-il ?

Afin de fournir des informations, les grands modèles de langage sont formés avec d’énormes quantités de données. Selon Objectif scientifique, ChatGPT-4 à lui seul a reçu 300 milliards de mots d'informations au cours de sa période de formation. Cela ne vient pas directement de quelques encyclopédies. Les développeurs de chatbots utilisent plutôt des masses d’informations provenant d’Internet pour former leurs modèles. Cela peut inclure des données provenant de livres, de films, d'articles, d'entrées Wikipédia, d'articles de blog, de commentaires et même de sites de critiques.

Gardez à l'esprit que, en fonction de la politique de confidentialité du développeur de chatbot, certaines des sources susmentionnées peuvent ne pas être utilisées dans la formation.

Beaucoup ont critiqué ChatGPT, affirmant qu'il s'agit d'un véritable cauchemar en termes de confidentialité, On ne peut pas faire confiance à ChatGPT. Alors, pourquoi est-ce le cas ?

C'est là que les choses deviennent un peu floues. Si vous demandez directement à ChatGPT-3.5 s'il a accès aux critiques de produits ou aux commentaires d'articles, vous obtiendrez un résultat catégoriquement négatif. Comme vous pouvez le voir dans la capture d'écran ci-dessous, GPT-3.5 indique qu'il n'a pas eu accès aux commentaires des utilisateurs sur les articles ou aux critiques de produits dans sa formation.

Au lieu de cela, il a été formé en utilisant « une gamme diversifiée de textes provenant d’Internet, y compris des sites Web, des livres, des articles et d’autres documents écrits accessibles au public jusqu’en septembre 2021 ».

Mais le cas est-il le même pour GPT-4 ?

Lorsque nous avons interrogé GPT-4, on nous a répondu que « OpenAI n'a pas utilisé d'avis d'utilisateurs spécifiques, de données personnelles ou de commentaires d'articles » pendant la période de formation du chatbot. De plus, GPT-4 nous a indiqué que ses réponses sont générées à partir de « modèles de données sur lesquels [il] a été formé, qui se composent principalement de livres, d'articles et d'autres textes provenant d'Internet ».

Lorsque nous avons approfondi nos recherches, GPT-4 a affirmé que certains contenus de médias sociaux pouvaient effectivement être inclus dans ses données de formation, mais que les créateurs resteraient toujours anonymes. GPT-4 indiquait spécifiquement que « Même si le contenu de plateformes comme Reddit faisait partie des données de formation, [il n'a pas] accès à des commentaires, des publications ou à toute donnée spécifique pouvant être liée à un individu utilisateur."

Une autre partie notable de la réponse de GPT-4 est la suivante: « OpenAI n'a pas explicitement répertorié toutes les sources de données utilisées. » De Bien sûr, il serait difficile pour OpenAI de répertorier 300 milliards de mots de sources, mais cela laisse de la place pour spéculation.

Dans un Article d'Ars Technica, il a été déclaré que ChatGPT collecte « des informations personnelles obtenues sans consentement ». Dans le même article, l'intégrité contextuelle a été mentionnée, un concept qui fait référence à l'utilisation des informations d'une personne uniquement dans le contexte dans lequel elles étaient initialement utilisé. Si ChatGPT viole cette intégrité contextuelle, les données des personnes pourraient être en danger.

Un autre point de préoccupation ici est la conformité d'OpenAI avec la Règlement Général sur la Protection des Données (RGPD). Il s'agit d'un règlement appliqué par l'Union européenne afin de protéger les données des citoyens. Divers pays européens, dont l'Italie et la Pologne, ont lancé des enquêtes sur ChatGPT en raison de préoccupations concernant sa conformité au RGPD. Pendant une courte période, ChatGPT a même été interdit en Italie pour des raisons de confidentialité.

OpenAI a menacé de se retirer de l'UE dans le passé en raison des réglementations prévues sur l'IA, mais cette menace a depuis été rétractée.

ChatGPT est peut-être le plus grand chatbot IA aujourd'hui, mais les problèmes de confidentialité des chatbots ne commencent et ne se terminent pas avec ce fournisseur. Si vous utilisez un chatbot douteux avec une politique de confidentialité terne, vos conversations peuvent être utilisées à mauvais escient ou des informations très sensibles peuvent être utilisées dans ses données de formation.

2. Le vol de données

Comme tout outil ou plateforme en ligne, les chatbots sont vulnérables à la cybercriminalité. Même si un chatbot faisait tout ce qu'il pouvait pour protéger les utilisateurs et leurs données, il y a toujours une chance qu'un pirate informatique avisé parvienne à infiltrer ses systèmes internes.

Si un service de chatbot donné stockait vos informations sensibles, telles que les détails de paiement de votre prime abonnement, données de contact ou similaires, ceux-ci pourraient être volés et exploités en cas de cyberattaque. se produire.

Cela est particulièrement vrai si vous utilisez un chatbot moins sécurisé dont les développeurs n'ont pas investi dans une protection de sécurité adéquate. Non seulement les systèmes internes de l'entreprise pourraient être piratés, mais votre propre compte risque également d'être compromis s'il ne dispose pas d'alertes de connexion ou d'une couche d'authentification.

Maintenant que les chatbots IA sont si populaires, les cybercriminels se sont naturellement rués sur cette industrie pour leurs escroqueries. Les faux sites Web et plugins ChatGPT constituent un problème majeur depuis que le chatbot d'OpenAI est devenu grand public en fin 2022, avec des gens tombant dans le piège des escroqueries et divulguant des informations personnelles sous couvert de légitimité et confiance.

En mars 2023, MUO a fait état d'un fausse extension ChatGPT Chrome volant les connexions Facebook. Le plugin pourrait exploiter une porte dérobée de Facebook pour pirater des comptes de haut niveau et voler les cookies des utilisateurs. Ce n’est qu’un exemple des nombreux faux services ChatGPT conçus pour escroquer les victimes inconscientes.

3. Infection par des logiciels malveillants

Si vous utilisez un chatbot douteux sans vous en rendre compte, vous constaterez peut-être que le chatbot vous fournit des liens vers des sites Web malveillants. Peut-être que le chatbot vous a alerté d'un cadeau tentant ou a fourni la source de l'une de ses déclarations. Si les opérateurs du service ont des intentions illicites, l’objectif même de la plateforme peut être de propager des logiciels malveillants et des escroqueries via des liens malveillants.

Alternativement, les pirates peuvent compromettre un service de chatbot légitime et l'utiliser pour propager des logiciels malveillants. Si ce chatbot concerne de nombreuses personnes, des milliers, voire des millions d’utilisateurs seront exposés à ce malware. De fausses applications ChatGPT sont même disponibles sur l'App Store d'Apple, il est donc préférable d'y aller avec prudence.

En général, vous ne devez jamais cliquer sur les liens fournis par un chatbot avant l'exécuter via un site Web de vérification de liens. Cela peut sembler irritant, mais il est toujours préférable de s'assurer que le site vers lequel vous êtes dirigé n'a pas une conception malveillante.

De plus, vous ne devez jamais installer de plugins et d’extensions de chatbot sans d’abord vérifier leur légitimité. Faites une petite recherche autour de l'application pour voir si elle a été bien évaluée, et lancez également une recherche auprès du développeur de l'application pour voir si vous trouvez quelque chose de louche.

Les chatbots ne sont pas insensibles aux problèmes de confidentialité

Comme la plupart des outils en ligne de nos jours, les chatbots ont été critiqués à plusieurs reprises pour leurs éventuels pièges en matière de sécurité et de confidentialité. Qu'il s'agisse d'un fournisseur de chatbot qui prend des raccourcis en matière de sécurité des utilisateurs ou des risques persistants de cyberattaques et d'escroqueries, il est essentiel que vous sachiez ce que votre service de chatbot collecte sur vous et s'il utilise une sécurité adéquate mesures.