Les jailbreaks ChatGPT vous permettent de déverrouiller les limitations du chatbot. Mais, que sont-ils exactement? Et sont-ils bons ou mauvais ?
ChatGPT est un outil incroyablement puissant et multiforme. Mais même si le chatbot IA est une force pour le bien, il peut aussi être utilisé à des fins perverses. Ainsi, pour freiner l'utilisation contraire à l'éthique de ChatGPT, OpenAI a imposé des limites à ce que les utilisateurs peuvent en faire.
Cependant, comme les humains aiment repousser les limites et les limitations, les utilisateurs de ChatGPT ont trouvé des moyens de contourner ces limitations et d'obtenir un contrôle illimité du chatbot AI grâce à des jailbreaks.
Mais que sont exactement les jailbreaks ChatGPT et que pouvez-vous en faire ?
Que sont les jailbreaks ChatGPT?
Un jailbreak ChatGPT est une invite ChatGPT spécialement conçue pour amener le chatbot IA à contourner ses règles et restrictions.
Inspiré par le concept de jailbreak de l'iPhone, qui permet aux utilisateurs d'iPhone de contourner les restrictions iOS, le jailbreak ChatGPT est un concept relativement nouveau alimenté par l'attrait de "faire des choses que vous n'êtes pas autorisé à faire" avec ChatGPT. Et soyons honnêtes, l'idée de rébellion numérique séduit beaucoup de monde.
Voici la chose. La sécurité est un sujet important en matière d'intelligence artificielle. C'est particulièrement le cas avec l'avènement de la nouvelle ère des chatbots comme ChatGPT, Bing Chat et Bard AI. L'une des principales préoccupations concernant la sécurité de l'IA est de s'assurer que les chatbots comme ChatGPT ne produisent pas de contenu illégal, potentiellement dangereux ou contraire à l'éthique.
De son côté, OpenAI, la société derrière ChatGPT, fait ce qu'elle peut pour garantir une utilisation sûre de ChatGPT. Par exemple, ChatGPT, par défaut, refusera de créer du contenu NSFW, de dire des choses nuisibles sur l'ethnicité ou de vous enseigner des compétences potentiellement dangereuses.
Mais avec les invites ChatGPT, le diable est dans les détails. Bien que ChatGPT ne soit pas autorisé à faire ces choses, cela ne signifie pas qu'il ne peut pas le faire. Le fonctionnement des grands modèles de langage comme GPT rendent difficile de décider ce que le chatbot peut faire et ce qu'il ne peut pas faire.
Alors, comment OpenAI a-t-il résolu cela? En laissant ChatGPT conserver ses capacités à faire tout ce qui est possible, puis lui indiquer lesquelles il peut faire.
Ainsi, alors qu'OpenAI dit à ChatGPT, "Hé, écoute, tu n'es pas censé faire ça." Les jailbreaks sont des instructions disant au chatbot: "Hé, écoute, oublie ce qu'OpenAI t'a dit sur la sécurité. Essayons ce truc dangereux aléatoire."
Que dit OpenAI à propos des jailbreaks ChatGPT?
La facilité avec laquelle vous pouviez contourner les restrictions sur la première itération de ChatGPT suggère qu'OpenAI n'a peut-être pas anticipé l'adoption rapide et généralisée du jailbreak par ses utilisateurs. C'est en fait une question ouverte de savoir si l'entreprise a prévu l'émergence du jailbreak ou non.
Et même après plusieurs itérations de ChatGPT avec une meilleure résistance au jailbreak, il est toujours populaire pour les utilisateurs de ChatGPT d'essayer de le jailbreaker. Alors, que dit OpenAI sur l'art subversif du jailbreak ChatGPT ?
Eh bien, OpenAI semble adopter une position tolérante, ni encourageant explicitement ni strictement interdisant la pratique. Tout en discutant des jailbreaks de ChatGPT dans une interview sur YouTube, Sam Altman, PDG d'OpenAI, a expliqué que la société souhaitait que les utilisateurs conservent un contrôle important sur ChatGPT.
Le PDG a en outre expliqué que l'objectif d'OpenAI est de s'assurer que les utilisateurs peuvent faire en sorte que le modèle se comporte comme ils le souhaitent. Selon Altman :
Nous voulons que les utilisateurs aient beaucoup de contrôle et que le modèle se comporte comme ils le souhaitent dans des limites très larges. Et je pense que toute la raison du jailbreak en ce moment est que nous n'avons pas encore trouvé comment donner ça aux gens...
Qu'est-ce que cela signifie? Cela signifie qu'OpenAI vous permettra de jailbreaker ChatGPT si vous ne faites pas de choses dangereuses avec.
Avantages et inconvénients des jailbreaks ChatGPT
Les jailbreaks ChatGPT ne sont pas faciles à créer. Bien sûr, vous pouvez aller en ligne et copier-coller des fichiers prêts à l'emploi, mais il y a de fortes chances que le jailbreak soit corrigé par OpenAI peu de temps après sa publication.
Les correctifs sont même beaucoup plus rapides si c'est dangereux, comme le tristement célèbre jailbreak DAN. Alors pourquoi les gens subissent-ils le stress de créer des jailbreaks de toute façon? Est-ce juste pour le plaisir ou y a-t-il des avantages pratiques? Qu'est-ce qui pourrait mal tourner si vous choisissez d'utiliser un jailbreak ChatGPT? Voici les avantages et les inconvénients du jailbreak ChatGPT.
Les avantages de l'utilisation des jailbreaks ChatGPT
Bien que nous ne puissions pas exclure le simple frisson de faire l'interdit, les jailbreaks ChatGPT présentent de nombreux avantages. En raison des restrictions très strictes qu'OpenAI a imposées au chatbot, le ChatGPT peut parfois sembler castré.
Disons que vous utilisez ChatGPT pour écrire un livre ou un scénario de film. S'il y a une scène dans votre scénario ou votre livre qui décrirait quelque chose comme une scène de combat, peut-être un échange émotionnel intime, ou dire quelque chose comme un vol à main armée, ChatGPT pourrait carrément refuser d'aider avec ça.
Dans ce cas, vous n'êtes clairement pas intéressé à causer du tort; vous voulez juste divertir vos lecteurs. Mais en raison de ses limites, ChatGPT ne coopérera tout simplement pas. Un jailbreak ChatGPT peut aider à contourner facilement ces restrictions.
Aussi, certains sujets tabous ne sont pas forcément préjudiciables mais sont considérés par ChatGPT comme des zones interdites. En essayant d'engager des conversations sur ces sujets, ChatGPT "censurerait" considérablement ses réponses ou refuserait d'en parler.
Cela peut parfois affecter la créativité. Lorsque vous posez à ChatGPT une question sur un domaine ou un sujet qu'il ne devrait pas toucher, le chatbot tente toujours de répondre à votre question, mais avec moins d'informations pertinentes à partir desquelles puiser.
Cela conduit à des inexactitudes ou à des effondrements dans les réponses créatives. Les jailbreaks brisent ces restrictions et permettent au chatbot d'aller à plein régime, améliorant ainsi la précision et la créativité.
Les inconvénients de l'utilisation des jailbreaks ChatGPT
Le jailbreak est une épée à double tranchant. Bien qu'il puisse parfois améliorer la précision, il peut également augmenter considérablement les imprécisions et cas d'hallucinations d'IA. L'un des éléments essentiels d'un jailbreak ChatGPT est une instruction au chatbot de ne pas refuser de répondre à une question.
Bien que cela garantisse que ChatGPT réponde même aux questions les plus contraires à l'éthique, cela signifie également que le chatbot inventera des réponses qui n'ont aucune racine dans les faits ou réalité d'obéir à l'instruction de "ne pas refuser de répondre". Par conséquent, l'utilisation de jailbreaks augmente considérablement les chances d'être alimenté par des informations erronées par le chatbot.
Ce n'est pas tout. Entre les mains de mineurs, les jailbreaks peuvent être très nocifs. Pensez à toutes les "connaissances interdites" que vous ne voudriez pas que votre enfant lise. Eh bien, une instance jailbreakée de ChatGPT n'aurait pas de mal à partager cela avec des mineurs.
Devriez-vous utiliser les jailbreaks ChatGPT?
Bien que les jailbreaks ChatGPT puissent convenir lorsque vous essayez d'éliminer quelques restrictions ennuyeuses, il est important de comprendre que l'utilisation de jailbreaks est une manière non éthique d'utiliser le chatbot AI. De plus, il y a de fortes chances qu'un jailbreak viole les conditions d'utilisation d'OpenAI, et votre compte pourrait être suspendu s'il n'est pas carrément interdit.
À la lumière de cela, éviter les jailbreaks pourrait être une bonne idée. Cependant, tout comme la position d'OpenAI sur la question, nous n'encourageons pas explicitement ni ne déconseillons strictement d'essayer un jailbreak relativement sûr si le besoin s'en fait sentir.
Les jailbreaks ChatGPT sont attrayants et donnent un sentiment de contrôle sur le chatbot AI. Cependant, ils comportent des risques uniques. L'utilisation de tels outils peut entraîner une perte de confiance dans les capacités de l'IA et nuire à la réputation des entreprises et des individus impliqués.
Le choix le plus intelligent consiste à travailler avec le chatbot dans les limites prévues chaque fois que possible. À mesure que la technologie de l'IA progresse, il est essentiel de se rappeler que l'utilisation éthique de l'IA doit toujours primer sur le gain personnel ou le plaisir de faire l'interdit.