ChatGPT peut être un outil utile, que vos intentions soient bonnes ou mauvaises. Cela signifie que si vous souhaitez commettre une fraude, ChatGPT peut vous aider.

Bien que de nombreux natifs du numérique louent ChatGPT, certains craignent qu'il ne fasse plus de mal que de bien. Des reportages sur des escrocs détournant l'IA ont fait le tour d'Internet, augmentant le malaise des sceptiques. Ils considèrent même ChatGPT comme un outil dangereux.

Les chatbots IA ne sont pas parfaits, mais vous n'avez pas à les éviter complètement. Voici tout ce que vous devez savoir sur la façon dont les escrocs abusent de ChatGPT et ce que vous pouvez faire pour les arrêter.

ChatGPT compromettra-t-il vos informations personnelles?

La plupart des problèmes de sécurité frontaux concernant ChatGPT proviennent de spéculations et de rapports non vérifiés. La plateforme n'a été lancée qu'en novembre 2022, après tout. Il est naturel que les nouveaux utilisateurs aient des idées fausses sur la confidentialité et la sécurité d'outils inconnus.

instagram viewer

Selon Conditions d'utilisation d'OpenAI, voici comment ChatGPT gère les données suivantes :

Informations personnellement identifiables

Les rumeurs disent que ChatGPT vend informations personnellement identifiables (IPI).

La plate-forme a été lancée par OpenAI, un laboratoire de recherche réputé sur l'IA financé par des investisseurs technologiques comme Microsoft et Elon Musk. ChatGPT ne doit utiliser les données client que pour fournir les services indiqués dans le politique de confidentialité.

De plus, ChatGPT demande un minimum d'informations. Vous pouvez créer un compte avec juste votre nom et votre adresse e-mail.

Conversations

OpenAI sécurise les conversations ChatGPT, mais se réserve le droit de les surveiller. Les formateurs en IA recherchent en permanence des domaines d'amélioration. Étant donné que la plate-forme comprend des ensembles de données vastes mais limités, la résolution des erreurs, des bogues et des vulnérabilités nécessite des mises à jour à l'échelle du système.

Cependant, OpenAI ne peut surveiller les convos qu'à des fins de recherche. Leur distribution ou leur vente à des tiers viole ses propres conditions d'utilisation.

Information publique

Selon le Bbc, OpenAI a formé ChaGPT sur 300 milliards de mots. Il collecte des données à partir de pages Web publiques, telles que des plateformes de médias sociaux, des sites Web d'entreprises et des sections de commentaires. À moins que vous ne soyez sorti du réseau et que vous ayez effacé votre empreinte numérique, ChatGPT a probablement vos informations.

Quels risques de sécurité présente ChatGPT?

Bien que ChatGPT ne soit pas intrinsèquement dangereux, la plate-forme présente toujours des risques de sécurité. Les escrocs peuvent contourner les restrictions pour exécuter diverses cyberattaques.

1. E-mails de phishing convaincants

Au lieu de passer des heures à écrire des e-mails, les escrocs utilisent ChatGPT. C'est rapide et précis. Les modèles de langage avancés (tels que GPT-3.5 et GPT-4) peuvent produire des centaines d'e-mails de phishing cohérents et convaincants en quelques minutes. Ils adoptent même des tons et des styles d'écriture uniques.

Étant donné que ChatGPT rend plus difficile la détection des tentatives de piratage, faire très attention avant de répondre aux e-mails. En règle générale, évitez de divulguer des informations. Notez que les entreprises et organisations légitimes demandent rarement des PII confidentielles par le biais d'e-mails aléatoires.

Apprenez à repérer les tentatives de piratage. Bien que les fournisseurs de messagerie filtrent les spams, certains rusés pourraient passer entre les mailles du filet. Vous devez toujours savoir à quoi ressemblent les messages de phishing.

2. Le vol de données

ChatGPT utilise un LLM open-source, que tout le monde peut modifier. Les codeurs maîtrisant les grands modèles de langage (LLM) et l'apprentissage automatique intègrent souvent des modèles d'IA pré-formés dans leurs systèmes hérités. La formation de l'IA sur de nouveaux ensembles de données modifie les fonctionnalités. Par exemple, ChatGPT devient un pseudo-expert en fitness si vous lui donnez des recettes et des routines d'exercices.

Bien que collaboratif et pratique, l'open source rend les technologies vulnérables aux abus. Des criminels qualifiés exploitent déjà ChatGPT. Ils l'entraînent sur de gros volumes de données volées, transformant la plateforme en une base de données personnelle pour la fraude.

Rappelez-vous: vous n'avez aucun contrôle sur la façon dont les escrocs opèrent. La meilleure approche consiste à contacter la Federal Trade Commission (FTC) une fois que vous avez remarqué signes d'usurpation d'identité.

3. Production de logiciels malveillants

ChatGPT écrit des extraits de code utilisables dans différents langages de programmation. La plupart des exemples nécessitent des modifications minimes pour fonctionner correctement, en particulier si vous structurez une invite concise. Vous pouvez tirer parti de cette fonctionnalité pour développer des applications et des sites.

Étant donné que ChatGPT a été formé sur des milliards d'ensembles de données, il connaît également les pratiques illicites, comme le développement de logiciels malveillants et de virus. OpenAI interdit aux chatbots d'écrire des codes malveillants. Mais les escrocs contournent ces restrictions en restructurant les invites et en posant des questions précises.

La photo ci-dessous montre que ChatGPT rejette l'écriture de code à des fins malveillantes.

Pendant ce temps, la photo ci-dessous montre que ChatGPT vous donnera des informations nuisibles si vous formulez correctement vos invites.

4. Vol de propriété intellectuelle

Les blogueurs contraires à l'éthique diffusent du contenu à l'aide de ChatGPT. Étant donné que la plate-forme fonctionne sur des LLM avancés, elle peut rapidement reformuler des milliers de mots et éviter les balises de plagiat.

ChatGPT a reformulé le texte ci-dessous en 10 secondes.

Bien sûr, la filature est toujours classée comme plagiat. Les articles paraphrasés sur l'IA sont parfois classés par hasard, mais Google préfère généralement le contenu original provenant de sources fiables. Les astuces bon marché et les hacks SEO ne peuvent pas battre une écriture à feuilles persistantes de haute qualité.

En outre, Google publie plusieurs mises à jour principales chaque année. Il se concentrera bientôt sur la suppression des éléments générés par l'IA paresseux et non originaux des SERP.

5. Générer des réponses contraires à l'éthique

Les modèles de langage d'IA n'ont pas de biais. Ils fournissent des réponses en analysant les demandes des utilisateurs et en extrayant des données de leur base de données existante.

Prenez ChatGPT comme exemple. Lorsque vous envoyez une invite, elle répond en fonction des ensembles de données OpenAI utilisés pour la formation.

Alors que les politiques de contenu de ChatGPT bloquent les demandes inappropriées, les utilisateurs les contournent avec des invites de jailbreak. Ils lui donnent des instructions précises et astucieuses. ChatGPT produit la réponse ci-dessous si vous lui demandez de représenter un personnage fictif psychopathe.

La bonne nouvelle est OpenAI n'a pas perdu le contrôle de ChatGPT. Ses efforts continus pour resserrer les restrictions empêchent ChatGPT de produire des réponses contraires à l'éthique, quelle que soit la contribution de l'utilisateur. Jailbreaking ne sera pas aussi facile à l'avenir.

6. Quiproquo

La croissance rapide de nouvelles technologies peu familières comme ChatGPT crée des opportunités d'attaques quid pro quo. Ce sont des tactiques d'ingénierie sociale dans lesquelles les escrocs attirent les victimes avec de fausses offres.

La plupart des gens n'ont pas encore exploré ChatGPT. Et les pirates exploitent la confusion en diffusant des promotions, des e-mails et des annonces trompeurs.

Les cas les plus notoires concernent de fausses applications. Les nouveaux utilisateurs ne savent pas qu'ils ne peuvent accéder à ChatGPT que via OpenAI. Ils téléchargent sans le savoir des programmes et des extensions de spam.

La plupart veulent simplement télécharger des applications, mais d'autres volent des informations personnellement identifiables. Les escrocs les infectent avec des logiciels malveillants et des liens de phishing. Par exemple, en mars 2023, un une fausse extension Chrome ChatGPT a volé les identifiants Facebook de plus de 2 000 utilisateurs par jour.

Pour lutter contre les tentatives de quid pro quo, évitez les applications tierces. OpenAI n'a jamais publié d'application mobile, de programme informatique ou d'extension de navigateur autorisé pour ChatGPT. Tout ce qui prétend comme tel est une arnaque.

Utilisez ChatGPT de manière sûre et responsable

ChatGPT n'est pas une menace en soi. Le système présente des vulnérabilités, mais il ne compromettra pas vos données. Au lieu de craindre les technologies d'intelligence artificielle, recherchez comment les escrocs les intègrent dans des tactiques d'ingénierie sociale. De cette façon, vous pouvez vous protéger de manière proactive.

Mais si vous avez encore des doutes sur ChatGPT, essayez Bing. Le nouveau Bing comprend un chatbot alimenté par l'IA qui fonctionne sur GPT-4, extrait des données d'Internet et suit des mesures de sécurité strictes. Vous pourriez le trouver plus adapté à vos besoins.