FraudGPT est un modèle de langage affiné pour aider les criminels dans des activités frauduleuses. Découvrez ce que c'est que de vous protéger contre les menaces potentielles.
L'essor de l'intelligence artificielle (IA) est une épée à double tranchant. Comme toute technologie transformatrice, l'IA offre un potentiel immense mais aussi des risques énormes. Malgré les efforts énergiques pour réglementer l'IA, les acteurs de la menace semblent avoir pris une longueur d'avance.
Un nouvel outil de style ChatGPT, FraudGPT, gagne du terrain parmi les cybercriminels, leur permettant d'automatiser et de mieux exécuter une grande partie de leurs opérations de fraude. N'importe qui peut devenir une victime, il est donc important de rester informé. Voici tout ce que nous savons sur FraudGPT jusqu'à présent.
Qu'est-ce que FraudGPT?
FraudGPT est un outil d'intelligence artificielle alimenté par un grand modèle de langage particulièrement adapté pour aider les cybercriminels à commettre des cybercrimes. L'outil d'IA basé sur un abonnement permet aux acteurs de la menace de faciliter leurs activités criminelles telles que le carding, le phishing et la création de logiciels malveillants.
Bien que les détails sur l'outil restent très limités, les chercheurs de Netenrich, une société de recherche en sécurité, ont découvert plusieurs publicités sur le dark web annonçant l'outil. Selon le rapport de recherche de Netenrich, les frais d'abonnement varient entre 200 $ par mois et 1 700 $ par an.
Pour mieux imaginer l'outil, vous pouvez considérer FraudGPT comme ChatGPT mais pour la fraude. Mais comment fonctionne exactement FraudGPT et comment les cybercriminels l'utilisent-ils ?
Comment fonctionne FraudGPT?
À la base, FraudGPT n'est pas significativement différent de tout outil alimenté par un grand modèle de langage. En d'autres termes, l'outil lui-même est une interface interactive permettant aux criminels d'accéder à un type particulier de modèle de langage qui a été réglé pour commettre des cybercrimes.
Vous ne comprenez toujours pas? Voici une idée approximative de ce dont nous parlons. Au début du lancement de ChatGPT, le chatbot IA pouvait être utilisé pour faire à peu près n'importe quoi, y compris aider les cybercriminels à créer des logiciels malveillants. Cela a été possible parce que le modèle de langage sous-jacent de ChatGPT a été formé sur un ensemble de données qui contenait probablement des échantillons d'un large éventail de données, y compris des données qui pourraient aider une entreprise criminelle.
Les grands modèles de langage sont généralement alimentés par tout, des bonnes choses, comme les théories scientifiques, les informations sur la santé et la politique, aux moins bons, comme des échantillons de code malveillant, des messages de campagnes de carding et de phishing, et d'autres criminels matériaux. Lorsqu'il s'agit du type d'ensembles de données nécessaires pour former des modèles de langage comme celui qui alimente ChatGPT, il est presque inévitable que le modèle contienne des échantillons de matériaux indésirables.
Malgré des efforts généralement méticuleux pour éliminer les éléments indésirables dans l'ensemble de données, certains se glissent, et ils sont généralement encore suffisants pour donner au modèle la capacité de générer des matériaux pour faciliter cybercriminalité. C'est pourquoi avec le droit ingénierie rapide, vous pouvez obtenir des outils tels que ChatGPT, Google Bard et Bing AI pour vous aider à rédiger des e-mails frauduleux ou des logiciels malveillants.
Si des outils comme ChatGPT peuvent aider les cybercriminels à commettre des crimes malgré tous les efforts pour sécuriser ces chatbots IA, pensez maintenant au alimenter un outil comme FraudGPT pourrait apporter, étant donné qu'il a été spécifiquement affiné sur des matériaux malveillants pour le rendre adapté à cybercriminalité. C'est comme le jumeau maléfique de ChatGPT mis sous stéroïdes.
Ainsi, pour utiliser l'outil, les criminels pourraient simplement inviter le chatbot comme ils le feraient avec ChatGPT. Ils pourraient lui demander, par exemple, d'écrire un e-mail de phishing pour Jane Doe, qui travaille dans la société ABC, ou peut-être lui demander d'écrire un logiciel malveillant en utilisant C++ pour voler tous les fichiers PDF d'un ordinateur Windows 10. Les criminels proposeraient simplement une mécanisation diabolique et laisseraient le chatbot faire le gros du travail.
Comment pouvez-vous vous protéger contre FraudGPT?
Bien qu'il s'agisse d'un nouveau type d'outil, la menace posée par FraudGPT n'est pas fondamentalement différente. On pourrait dire que cela introduit plus d'automatisation et d'efficacité dans les méthodes déjà établies d'exécution de la cybercriminalité.
Les criminels utilisant l'outil seraient, au moins théoriquement, capables d'écrire des e-mails de phishing plus convaincants, mieux planifier escroqueries et créer des logiciels malveillants plus efficaces, mais ils s'appuieraient principalement sur les méthodes établies pour exécuter leurs infâmes des plans. Par conséquent, les moyens établis pour vous protéger s'appliquent toujours :
- Méfiez-vous des messages non sollicités vous demandant des informations ou vous invitant à cliquer sur des liens. Ne fournissez pas d'informations ou ne cliquez pas sur les liens dans ces messages à moins que vous ne vérifiiez la source.
- Contactez directement les entreprises en utilisant un numéro indépendant et vérifié pour vérifier la légitimité. N'utilisez pas les coordonnées fournies dans les messages suspects.
- Utilisez des mots de passe forts et uniques difficiles à déchiffrer et adoptez l'authentification à deux facteurs lorsqu'elle est disponible pour tous les comptes. Ne partagez jamais les mots de passe ou les codes qui vous sont envoyés.
- Vérifiez régulièrement les relevés de compte pour toute activité suspecte.
- Maintenez les logiciels à jour et utilisez des outils antivirus ou anti-malware.
- Déchiquetez les documents contenant des informations d'identification personnelle ou financières lorsque vous n'en avez plus besoin.
Pour en savoir plus sur la façon de vous protéger, lisez notre guide sur comment se protéger à l'ère de l'IA.
Restez informé pour vous protéger
L'émergence d'outils comme FraudGPT nous rappelle que malgré tout le bien que l'IA peut nous faire, elle représente toujours un outil très puissant entre les mains des acteurs de la menace.
Alors que les gouvernements et les grandes entreprises d'IA se lancent dans une course effrénée pour adopter de meilleures façons de réglementer l'IA, il est important d'être conscient de la menace que représente actuellement l'IA et de prendre les précautions nécessaires pour protéger toi-même.