L'intelligence artificielle peut être utilisée pour le meilleur ou pour le pire. Voici quelques façons dont il aide les pirates et les escrocs en ce moment.

De nombreux passionnés de technologie sont enthousiasmés par le potentiel de l'intelligence artificielle, mais les cybercriminels se tournent également vers cette technologie pour les aider dans leurs exploits. L'IA est un domaine fascinant, mais elle peut aussi nous inquiéter. Alors, de quelle manière l'IA peut-elle aider les cybercriminels ?

1. Écriture de logiciels malveillants

L'intelligence artificielle est un type de technologie avancée, de sorte que certains ne trouveront peut-être pas surprenant qu'elle puisse être utilisée pour écrire des logiciels malveillants. Malware est un terme désignant les programmes malveillants utilisés (un mot-valise des mots « malveillant » et « logiciel ») dans le piratage, et peut prendre de nombreuses formes. Mais pour utiliser un malware, il faut d'abord l'écrire.

Tous les cybercriminels ne sont pas expérimentés dans le codage, d'autres ne voulant tout simplement pas passer du temps à écrire de nouveaux programmes. C'est là que l'IA peut être utile.

instagram viewer

Début 2023, on a remarqué que ChatGPT pourrait être utilisé pour écrire des logiciels malveillants pour des attaques illicites. Le très populaire ChatGPT d'OpenAI est alimenté par une infrastructure d'IA. Ce chatbot peut faire beaucoup de choses utiles, mais il est également exploité par des individus illicites.

Dans un cas précis, un utilisateur a posté sur un forum de piratage affirmant qu'il avait écrit un programme malveillant basé sur Python à l'aide de ChatGPT.

ChatGPT pourrait automatiser efficacement le processus d'écriture de programmes malveillants. Cela ouvre la porte aux cybercriminels débutants qui n'ont pas beaucoup d'expertise technique.

ChatGPT (ou du moins sa dernière version) ne peut écrire que des programmes malveillants de base, et parfois bogués, plutôt que du code sophistiqué qui pose de graves menaces. Cependant, cela ne veut pas dire que l'IA ne peut pas être utilisée pour écrire des logiciels malveillants. Étant donné qu'un chatbot IA actuel peut créer des programmes malveillants de base, il ne faudra peut-être pas longtemps avant que nous voyions plus de logiciels malveillants odieux provenir des systèmes IA.

2. Craquage des mots de passe

Les mots de passe constituent souvent la seule ligne de données protégeant nos comptes et nos appareils. Ainsi, sans surprise, de nombreux cybercriminels tentent de déchiffrer les mots de passe afin d'accéder à nos données privées.

Le craquage de mot de passe est déjà populaire dans la cybercriminalité, et il existe diverses techniques qu'un acteur malveillant peut utiliser pour découvrir le mot de passe d'une cible. Différentes techniques ont des taux de réussite différents, mais l'IA pourrait augmenter encore plus les chances de déchiffrer un mot de passe.

Le concept des craqueurs de mots de passe IA n'est en aucun cas de la science-fiction. En fait, ZDNet ont rapporté que les experts en cybersécurité ont découvert que plus de la moitié des mots de passe couramment utilisés pouvaient être déchiffrés en moins d'une minute. L'article faisait référence à un Rapport sur les héros de la sécurité domestique, qui a déclaré qu'un outil de piratage basé sur l'IA appelé PassGAN pouvait casser 51 % des mots de passe courants en moins d'une minute et 71 % en moins d'une journée.

Ces chiffres montrent à quel point le piratage de mots de passe par IA peut être dangereux. Avec la possibilité de déchiffrer la plupart des mots de passe courants en moins de 24 heures, on ne sait pas ce qu'un cybercriminel pourrait faire en utilisant un tel outil.

3. Faire de l'ingénierie sociale

La tactique de la cybercriminalité connu sous le nom d'ingénierie sociale fait des hordes de victimes chaque semaine et constitue un problème majeur dans toutes les régions du monde. Cette méthode utilise la manipulation pour obliger les victimes à se conformer aux demandes de l'attaquant, souvent sans même se rendre compte qu'elles sont ciblées.

L'IA pourrait contribuer aux attaques d'ingénierie sociale en formulant le contenu utilisé dans les communications malveillantes, telles que les e-mails et les SMS de phishing. Même avec le niveau actuel d'avancement de l'IA, il ne serait pas difficile de demander à un chatbot de formuler un script convaincant ou persuasif, que le cybercriminel pourrait ensuite utiliser contre ses victimes. Cette menace n'est pas passée inaperçue et les gens s'inquiètent déjà des dangers à venir.

En ce sens, l'IA pourrait également aider à rendre les communications malveillantes plus professionnelles et officielles en corrigeant les fautes d'orthographe et de grammaire. On dit souvent que ces erreurs sont des signes possibles d'activité malveillante, donc cela peut aider les cybercriminels s'ils peuvent écrire leur contenu d'ingénierie sociale plus proprement et plus efficacement.

4. Recherche de vulnérabilités logicielles

Pour pirater des logiciels, les cybercriminels doivent souvent trouver et exploiter une faille de sécurité. Ces vulnérabilités surviennent souvent à la suite de bogues dans le code du logiciel. Si un bogue n'est pas corrigé ou si une personne ne met pas régulièrement à jour ses logiciels (ce qui corrige souvent les failles de sécurité), les vulnérabilités peuvent présenter un risque majeur.

Les cybercriminels le savent, et c'est pourquoi ils sont à la recherche de failles. Il existe déjà des outils que l'on peut utiliser pour trouver des vulnérabilités, comme un kit d'exploitation. Mais en utilisant l'IA, un acteur malveillant peut être en mesure de mettre en évidence beaucoup plus de vulnérabilités, dont certaines pourraient être utilisées pour causer beaucoup de dégâts.

Cependant, cette application d'IA pourrait également être utile aux fournisseurs de cybersécurité, car elle pourrait aide à la recherche de vulnérabilités avant qu'ils ne soient exploités. Être capable de corriger rapidement une faille peut empêcher les acteurs malveillants de l'exploiter, atténuant ainsi les attaques dans l'ensemble.

5. Analyse des données voléesDonnées sur l'écran de l'ordinateur portable

Les données sont aussi précieuses que l'or. Aujourd'hui, les données sensibles sont vendues sur les places de marché du dark web sur une base constante, avec certains acteurs malveillants prêts à payer un prix très élevé si l'information est suffisamment utile.

Mais pour que ces données deviennent disponibles sur ces places de marché, il faut d'abord qu'elles soient volées. Les données peuvent certainement être volées en petites quantités, en particulier lorsque l'attaquant cible des victimes isolées. Mais des hacks plus importants peuvent entraîner le vol d'énormes bases de données. À ce stade, le cybercriminel doit déterminer quelles informations de cette base de données sont précieuses.

Grâce à l'IA, le processus de mise en évidence d'informations précieuses pourrait être rationalisé, réduisant ainsi le temps nécessaire pour un acteur malveillant de déterminer ce qui vaut la peine d'être vendu, ou, au contraire, d'être directement exploité par lui-même main. L'intelligence artificielle, à la base, est une question d'apprentissage, il pourrait donc un jour devenir facile d'utiliser un outil alimenté par l'IA pour récupérer des données sensibles précieuses.

L'IA est prometteuse mais pose également de nombreuses menaces

Comme c'est le cas avec la plupart des technologies, l'intelligence artificielle a été et continuera d'être exploitée par les cybercriminels. L'IA ayant déjà certaines capacités illicites, on ne sait vraiment pas comment les cybercriminels pourront faire avancer leurs attaques en utilisant cette technologie dans un avenir proche. Les entreprises de cybersécurité peuvent également travailler de plus en plus avec l'IA pour lutter contre ces menaces, mais le temps nous dira comment celle-ci se déroulera.