Les chatbots et leurs semblables peuvent sembler très amusants, mais ils sont également utiles aux pirates. Voici pourquoi nous devons tous connaître le risque de sécurité de l'IA.

L'IA a considérablement progressé ces dernières années. Des modèles de langage sophistiqués peuvent composer des romans complets, coder des sites Web de base et analyser des problèmes mathématiques.

Bien qu'impressionnante, l'IA générative présente également des risques de sécurité. Certaines personnes utilisent simplement des chatbots pour tricher aux examens, mais d'autres les exploitent carrément pour des cybercrimes. Voici huit raisons pour lesquelles ces problèmes persisteront, pas seulement malgré Les avancées de l'IA mais parce que d'eux aussi.

1. Les chatbots IA open source révèlent les codes back-end

De plus en plus d'entreprises d'IA fournissent des systèmes open source. Ils partagent ouvertement leurs modèles linguistiques au lieu de les garder fermés ou propriétaires. Prenez Meta comme exemple. Contrairement à Google, Microsoft et OpenAI, il permet à des millions d'utilisateurs d'accéder à son modèle de langage,

Lama.

Bien que les codes d'open source puissent faire progresser l'IA, c'est aussi risqué. OpenAI a déjà du mal à contrôler ChatGPT, son chatbot propriétaire, alors imaginez ce que des escrocs pourraient faire avec des logiciels libres. Ils ont un contrôle total sur ces projets.

Même si Meta retire soudainement son modèle de langage, des dizaines d'autres laboratoires d'IA ont déjà publié leurs codes. Regardons HuggingChat. Étant donné que son développeur HuggingFace est fier de la transparence, il affiche ses ensembles de données, son modèle de langage et ses versions précédentes.

2. Les invites de jailbreak trompent les LLM

L'IA est intrinsèquement amorale. Il ne comprend pas le bien et le mal, même les systèmes avancés suivent les instructions de formation, les directives et les ensembles de données. Ils reconnaissent simplement des modèles.

Pour lutter contre les activités illicites, les développeurs contrôlent les fonctionnalités et les limitations en définissant des restrictions. Les systèmes d'IA accèdent toujours à des informations nuisibles. Mais les consignes de sécurité les empêchent de les partager avec les utilisateurs.

Regardons ChatGPT. Bien qu'il réponde aux questions générales sur les chevaux de Troie, il ne traitera pas du processus de leur développement.

Cela dit, les restrictions ne sont pas infaillibles. Les utilisateurs contournent les limites en reformulant les invites, en utilisant un langage confus et en rédigeant des instructions explicitement détaillées.

Lisez ci-dessous Invite de jailbreak ChatGPT. Cela incite ChatGPT à utiliser un langage grossier et à faire des prédictions sans fondement - les deux actes violent les directives d'OpenAI.

Voici ChatGPT avec une déclaration audacieuse mais fausse.

3. L'IA compromet la sécurité pour la polyvalence

Les développeurs d'IA privilégient la polyvalence à la sécurité. Ils consacrent leurs ressources à la formation de plates-formes pour accomplir une gamme de tâches plus diversifiée, réduisant ainsi les restrictions. Après tout, le marché salue les chatbots fonctionnels.

Allons comparer ChatGPT et Bing Chat, Par exemple. Alors que Bing propose un modèle de langage plus sophistiqué qui extrait des données en temps réel, les utilisateurs affluent toujours vers l'option plus polyvalente, ChatGPT. Les restrictions rigides de Bing interdisent de nombreuses tâches. Alternativement, ChatGPT propose une plate-forme flexible qui produit des sorties très différentes en fonction de vos invites

Voici le jeu de rôle ChatGPT en tant que personnage fictif.

Et voici Bing Chat qui refuse de jouer un personnage "immoral".

Les codes open source permettent aux startups de rejoindre la course à l'IA. Ils les intègrent dans leurs applications au lieu de créer des modèles de langage à partir de zéro, économisant ainsi des ressources considérables. Même les codeurs indépendants expérimentent des codes open-source.

Encore une fois, les logiciels non propriétaires contribuent à faire progresser l'IA, mais la diffusion en masse de systèmes mal formés mais sophistiqués fait plus de mal que de bien. Les escrocs abuseront rapidement des vulnérabilités. Ils pourraient même former des outils d'IA non sécurisés pour effectuer des activités illicites.

Malgré ces risques, les entreprises technologiques continueront de publier des versions bêta instables de plates-formes pilotées par l'IA. La course à l'IA récompense la vitesse. Ils résoudront probablement les bogues plus tard que de retarder le lancement de nouveaux produits.

5. L'IA générative a de faibles barrières à l'entrée

Les outils d'IA abaissent les barrières à l'entrée pour les crimes. Les cybercriminels rédigent des spams, écrivent du code malveillant et créent des liens de phishing en les exploitant. Ils n'ont même pas besoin d'expérience technique. Étant donné que l'IA accède déjà à de vastes ensembles de données, les utilisateurs n'ont qu'à la tromper pour qu'elle produise des informations nuisibles et dangereuses.

OpenAI n'a jamais conçu ChatGPT pour des activités illicites. Il a même des lignes directrices contre eux. Encore les escrocs ont presque instantanément reçu le logiciel malveillant de codage ChatGPT et écrire des e-mails de phishing.

Bien qu'OpenAI ait rapidement résolu le problème, il souligne l'importance de la réglementation du système et de la gestion des risques. L'IA mûrit plus vite que prévu. Même les chefs de file de la technologie craignent que cette technologie super intelligente puisse causer des dommages massifs entre de mauvaises mains.

6. L'IA évolue toujours

L'IA évolue encore. Alors que l'utilisation de l'IA en cybernétique remonte à 1940, les systèmes modernes d'apprentissage automatique et les modèles de langage ne sont apparus que récemment. Vous ne pouvez pas les comparer aux premières implémentations de l'IA. Même des outils relativement avancés comme Siri et Alexa pâlissent par rapport aux chatbots alimentés par LLM.

Bien qu'elles soient innovantes, les fonctionnalités expérimentales créent également de nouveaux problèmes. Incidents très médiatisés avec les technologies d'apprentissage automatique vont des SERP Google défectueux aux chatbots biaisés crachant des insultes raciales.

Bien sûr, les développeurs peuvent résoudre ces problèmes. Notez simplement que les escrocs n'hésiteront pas à exploiter même des bogues apparemment inoffensifs - certains dommages sont irréversibles. Soyez donc prudent lorsque vous explorez de nouvelles plateformes.

7. Beaucoup ne comprennent pas encore l'IA

Alors que le grand public a accès à des modèles et des systèmes linguistiques sophistiqués, seuls quelques-uns savent comment ils fonctionnent. Les gens devraient arrêter de traiter l'IA comme un jouet. Les mêmes chatbots qui génèrent des mèmes et répondent à des anecdotes codent également des virus en masse.

Malheureusement, la formation centralisée à l'IA n'est pas réaliste. Les leaders mondiaux de la technologie se concentrent sur la publication de systèmes basés sur l'IA, et non sur des ressources éducatives gratuites. En conséquence, les utilisateurs ont accès à des outils robustes et puissants qu'ils comprennent à peine. Le public ne peut pas suivre la course à l'IA.

Prenez ChatGPT comme exemple. Les cybercriminels abusent de sa popularité en trompant les victimes avec logiciels espions déguisés en applications ChatGPT. Aucune de ces options ne provient d'OpenAI.

8. Les hackers Black-Hat ont plus à gagner que les hackers White-Hat

Les pirates au chapeau noir ont généralement plus à gagner que les hackers éthiques. Oui, les tests d'intrusion pour les leaders mondiaux de la technologie sont bien rémunérés, mais seul un pourcentage de professionnels de la cybersécurité décrochent ces emplois. La plupart travaillent en freelance en ligne. Des plateformes comme HackerOne et Foule d'insectes payer quelques centaines de dollars pour des bogues courants.

Alternativement, les escrocs gagnent des dizaines de milliers en exploitant les insécurités. Ils pourraient faire chanter les entreprises en divulguant des données confidentielles ou commettre un vol d'identité avec des Informations d'identification personnelle (PII).

Chaque institution, petite ou grande, doit mettre en œuvre correctement les systèmes d'IA. Contrairement à la croyance populaire, les pirates vont au-delà des startups technologiques et des PME. Certains des plus violations de données historiques au cours de la dernière décennie impliquent Facebook, Yahoo! et même le gouvernement américain.

Protégez-vous des risques de sécurité de l'IA

Compte tenu de ces points, devriez-vous éviter complètement l'IA? Bien sûr que non. L'IA est intrinsèquement amorale; tous les risques de sécurité proviennent des personnes qui les utilisent réellement. Et ils trouveront des moyens d'exploiter les systèmes d'IA, quelle que soit leur évolution.

Au lieu de craindre les menaces de cybersécurité qui accompagnent l'IA, comprenez comment vous pouvez les prévenir. Ne vous inquiétez pas: de simples mesures de sécurité suffisent. Se méfier des applications d'IA louches, éviter les hyperliens étranges et afficher le contenu de l'IA avec scepticisme combat déjà plusieurs risques.