ChatGPT peut aider les gens à faire un grand nombre de choses, y compris accéder à vos informations les plus sensibles.
Depuis son lancement, ChatGPT, le chatbot OpenAI, a été utilisé par des millions de personnes pour écrire du texte, créer de la musique et générer du code. Mais comme de plus en plus de personnes utilisent le chatbot IA, il est important de prendre en compte les risques de sécurité.
Comme toute technologie, ChatGPT peut être utilisé pour des raisons néfastes. Les pirates, par exemple, peuvent l'utiliser pour créer du contenu malveillant, comme écrire de faux e-mails pour accéder à votre PC ou même à votre compte bancaire.
ChatGPT peut aider les cybercriminels à pirater votre PC
Les pirates, y compris les script kiddies, peuvent utiliser ChatGPT pour créer de nouveaux logiciels malveillants ou d'améliorer ceux qui existent déjà. Certains cybercriminels utilisent déjà le chatbot, en particulier ses versions antérieures, pour écrire du code qui, selon eux, peut chiffrer des fichiers.
Pour contrer de tels cas d'utilisation, OpenAI a mis en place des mécanismes pour rejeter les invites demandant à ChatGPT de créer des logiciels malveillants. Par exemple, si vous demandez au chatbot "d'écrire des logiciels malveillants", il ne le fera pas. Malgré cela, les cybercriminels contournent facilement ces barrières de modération de contenu.
En agissant en tant que testeur de stylo, un acteur de la menace peut reformuler ses invites pour inciter ChatGPT à écrire du code, qu'il peut ensuite modifier et utiliser dans des cyberattaques.
UN rapport par Check Point, une société de sécurité israélienne, indique qu'un pirate aurait pu utiliser ChatGPT pour créer un logiciel malveillant Infostealer de base. La société de sécurité a également découvert un autre utilisateur qui affirme que ChatGPT l'a aidé à créer un outil de chiffrement multicouche capable de chiffrer plusieurs fichiers lors d'une attaque par ransomware.
Dans un autre incident, les chercheurs ont incité ChatGPT à générer un code VBA malveillant qui pourrait être implanté dans un fichier Microsoft Excel qui infecterait votre PC s'il était ouvert; il l'a fait avec succès. De plus, certains prétendent que ChatGPT peut coder des logiciels malveillants capables d'espionner vos frappes au clavier.
ChatGPT peut-il pirater votre compte bancaire?
De nombreuses violations de données commencent par une attaque de phishing réussie. Les attaques de phishing impliquent souvent qu'un acteur malveillant envoie à un destinataire un e-mail contenant des documents ou des liens d'apparence légitime, qui, une fois cliqués, peuvent installer des logiciels malveillants sur leur appareil. De cette façon, le code de ChatGPT n'a pas besoin de pirater directement votre compte bancaire. Quelqu'un n'a besoin d'utiliser ChatGPT que pour l'aider à vous inciter à lui donner accès.
Heureusement, vous pouvez facilement reconnaître la plupart des escroqueries par hameçonnage traditionnelles; des erreurs grammaticales, des fautes d'orthographe et des phrases étranges les caractérisent souvent. Mais ce sont toutes des erreurs que ChatGPT commet rarement, même lorsqu'il est utilisé pour composer des e-mails malveillants pour des escroqueries par hameçonnage.
Lorsqu'ils sont utilisés dans des escroqueries par hameçonnage, les messages qui semblent provenir d'une source légitime peuvent permettre aux victimes de renoncer à leurs informations personnellement identifiables, comme les mots de passe bancaires.
Si votre banque vous a envoyé un message par e-mail, envisagez de visiter directement le site Web de la banque au lieu de cliquer sur un lien intégré. Cliquer sur des liens et des pièces jointes aléatoires, en particulier ceux qui vous demandent de vous connecter quelque part, est rarement une bonne idée.
Pour le phishing, c'est surtout une question de volume. ChatGPT peut aider à stimuler les campagnes de phishing car il peut rapidement pomper d'énormes quantités de textes à consonance naturelle adaptés à des publics spécifiques.
Un autre type d'attaque de phishing impliquant l'utilisation de ChatGPT est lorsqu'un pirate crée un faux compte sur une plate-forme de chat populaire comme Discord et se fait passer pour un représentant client. Le faux représentant client contacte ensuite les clients qui ont signalé des préoccupations et propose de l'aide. Si un utilisateur tombe dans le piège, le cybercriminel le redirigera vers un faux site Web qui l'incitera à partager des informations personnelles, comme ses identifiants bancaires.
Protégez votre PC et votre compte bancaire à l'ère de l'IA
ChatGPT est un outil puissant et précieux qui peut répondre à de nombreuses questions que vous lui posez. Mais le chatbot peut également être utilisé à des fins malveillantes, comme générer des messages de phishing et créer des logiciels malveillants.
La bonne nouvelle est qu'OpenAI continue de mettre en œuvre des mesures qui empêchent les utilisateurs d'exploiter ChatGPT en demandant des invites nuisibles. Là encore, les acteurs de la menace continuent de trouver de nouvelles façons de contourner ces restrictions.
Pour minimiser les dangers potentiels des chatbots IA, il est crucial de connaître leurs risques potentiels et les meilleures mesures de sécurité possibles pour se protéger des pirates.