Beaucoup d'entre nous utilisent ChatGPT de manière frivole, mais il s'accompagne de graves problèmes de sécurité et de confidentialité que vous devez connaître.
En janvier 2023, deux mois seulement après son lancement, ChatGPT (Generative Pre-trained Transformer) est devenu l'application à la croissance la plus rapide de tous les temps, rassemblant plus de 100 millions d'utilisateurs.
Le chatbot avancé d'OpenAI a peut-être ravivé l'intérêt du public pour l'intelligence artificielle, mais peu ont sérieusement envisagé les risques de sécurité potentiels associés à ce produit.
ChatGPT: Menaces et problèmes de sécurité
La technologie qui sous-tend ChatGPT et d'autres chatbots peut être similaire, mais ChatGPT est dans une catégorie à part. C'est une excellente nouvelle si vous avez l'intention de l'utiliser comme une sorte d'assistant personnel, mais inquiétant si vous considérez que les acteurs de la menace l'utilisent également.
Les cybercriminels peuvent utiliser ChatGPT pour écrire des logiciels malveillants
, créer des sites Web frauduleux, générer des e-mails de phishing, créer de fausses nouvelles, etc. Pour cette raison, ChatGPT peut représenter un risque de cybersécurité plus important qu'un avantage, car Ordinateur qui bipe mettez-le dans une analyse.Dans le même temps, il existe de sérieuses inquiétudes quant au fait que ChatGPT lui-même présente certaines vulnérabilités non résolues. Par exemple, en mars 2023, des rapports ont fait état de la possibilité pour certains utilisateurs de voir les titres des conversations des autres. Comme Le bord signalé à l'époque, le PDG d'OpenAI, Sam Altman, a expliqué qu'"un bogue dans une bibliothèque open source" avait causé le problème.
Cela ne fait que souligner à quel point il est important de limiter ce que vous partagez avec ChatGPT, qui collecte par défaut une quantité impressionnante de données. Le géant de la technologie Samsung l'a appris à ses dépens, lorsqu'un groupe d'employés qui utilisaient le chatbot comme assistant lui ont accidentellement divulgué des informations confidentielles.
ChatGPT est-il une menace pour votre vie privée?
La sécurité et la confidentialité ne sont pas une seule et même chose, mais ils sont étroitement liés et se croisent souvent. Si ChatGPT est une menace pour la sécurité, alors c'est aussi une menace pour la vie privée, et vice versa. Mais qu'est-ce que cela signifie concrètement? À quoi ressemblent les politiques de sécurité et de confidentialité de ChatGPT ?
Des milliards de mots ont été extraits d'Internet pour créer la vaste base de données de ChatGPT. Cette base de données est en constante expansion, car ChatGPT stocke tout ce que les utilisateurs partagent. L'organisation à but non lucratif basée aux États-Unis Bon sens a attribué à ChatGPT un score d'évaluation de la confidentialité de 61 %, notant que le chatbot collecte des informations personnelles identifiables (PII) et d'autres données sensibles. La plupart de ces données sont stockées ou partagées avec certains tiers.
Dans tous les cas, vous devez être prudent lorsque vous utilisez ChatGPT, en particulier si vous l'utilisez pour le travail, ou pour traiter des informations sensibles. En règle générale, vous ne devez pas partager avec le bot ce que vous ne voudriez pas que le public sache.
Gérer les risques de sécurité associés à ChatGPT
L'intelligence artificielle sera réglementée à un moment donné, mais il est difficile d'imaginer un monde dans lequel elle ne constitue pas une menace pour la sécurité. Comme toute technologie, elle peut – et sera – abusée.
À l'avenir, les chatbots feront partie intégrante des moteurs de recherche, des assistants vocaux et des réseaux sociaux, selon Malwarebytes. Et ils auront un rôle à jouer dans diverses industries, allant de la santé et de l'éducation à la finance et au divertissement.
Cela transformera radicalement la sécurité telle que nous la connaissons. Mais comme Malwarebytes l'a également noté, ChatGPT et des outils similaires peuvent également être utilisés par les professionnels de la cybersécurité; par exemple pour rechercher des bogues dans les logiciels ou des "modèles suspects" dans l'activité du réseau.
La sensibilisation est la clé
De quoi ChatGPT sera-t-il capable dans 5 ou 10 ans? Nous ne pouvons que spéculer, mais ce que nous savons avec certitude, c'est que l'intelligence artificielle ne va nulle part.
À mesure que des chatbots encore plus avancés émergent, des industries entières devront s'adapter et apprendre à les utiliser de manière responsable. Cela inclut l'industrie de la cybersécurité, qui est déjà façonnée par l'IA. La sensibilisation aux risques de sécurité associés à l'IA est essentielle et contribuera à garantir que ces technologies sont développées et utilisées de manière éthique.