Les gens utilisent ChatGPT pour écrire des essais, des blogs et plus encore. Mais ChatGPT peut-il également être utilisé pour écrire des logiciels malveillants ?

ChatGPT a fait des vagues importantes dans l'espace technologique, les gens l'utilisant pour à peu près tout. Ce chatbot alimenté par l'IA peut écrire des histoires, fournir des informations, traduire du texte et bien plus encore. Mais les capacités de ChatGPT pourraient-elles être exploitées à des fins plus sombres? ChatGPT peut-il être utilisé pour écrire des logiciels malveillants et, si oui, qu'est-ce que cela signifie pour notre cybersécurité ?

ChatGPT peut-il écrire des logiciels malveillants?

ChatGPT fonctionne en travaillant avec les invites que vous lui donnez. Donc, si un utilisateur demandait à ChatGPT d'écrire des logiciels malveillants pour lui, serait-il conforme ?

Il a été constaté que ChatGPT est capable d'écrire des logiciels malveillants. En janvier 2023, une histoire a émergé à propos de l'utilisation de ChatGPT par les cybercriminels pour créer des programmes malveillants

instagram viewer
. Un utilisateur du forum de piratage avait mis en ligne un article sur un voleur d'informations basé sur Python qu'il avait écrit à l'aide de ChatGPT. Les voleurs d'informations sont Programmes malveillants de type cheval de Troie spécialement conçu pour exfiltrer des données précieuses.

Ceci est sans aucun doute préoccupant, car ChatGPT est maintenant incroyablement populaire et très facile à utiliser.

UN Rapport futur enregistré a déclaré que ChatGPT "réduit la barrière à l'entrée pour les acteurs de la menace ayant des capacités de programmation ou des compétences techniques limitées", facilitant essentiellement la cybercriminalité. Le rapport note en outre que ChatGPT "peut produire des résultats efficaces avec juste un niveau élémentaire de compréhension des principes fondamentaux de la cybersécurité et de l'informatique".

De plus, Recorded Future a rapporté que ChatGPT peut également aider dans diverses autres formes de cybercriminalité, notamment "l'ingénierie sociale, la désinformation, l'hameçonnage, la publicité malveillante et les stratagèmes lucratifs".

Donner aux cybercriminels débutants la possibilité d'avoir des logiciels malveillants écrits pour eux ouvre la porte à beaucoup et automatise essentiellement le processus de création de logiciels malveillants.

ChatGPT est-il donc une menace pour la cybersécurité? La réponse, malheureusement, est oui.

Limites de ChatGPT

Bien que vous puissiez accéder au code malveillant ChatGPT via une demande de chatbot, il ne semble pouvoir écrire qu'un code malveillant très simple au moment de la rédaction. Dans le rapport Recorded Future susmentionné, il a été déclaré que le logiciel malveillant créé par ChatGPT et trouvé sur des plates-formes illicites était "bugué mais fonctionnel".

Cela ne veut pas dire qu'aucun risque n'est posé ici. ChatGPT peut toujours offrir aux cybercriminels un moyen plus simple d'escroquer et d'attaquer les victimes, et peut permettre aux pirates de découvrir différentes avenues parallèlement à leurs méthodes habituelles.

De plus, on ne sait pas si ChatGPT, ou un autre chatbot alimenté par l'IA, évoluera un jour au point où des logiciels malveillants sophistiqués pourront être produits. C'est le début, pas la fin.

Les pirates utilisent-ils ChatGPT?

Il est clair que ChatGPT est déjà abusé par des acteurs malveillants, mais la menace est actuellement assez légère. Cependant, à mesure que l'IA progresse, nous pourrions voir des chatbots plus sophistiqués utilisés par les cybercriminels pour formuler des programmes malveillants beaucoup plus dangereux. Malheureusement, seul l'avenir sait si ChatGPT jouera un rôle dans les plus grandes cyberattaques.