Aujourd'hui, ChatGPT est utilisé par des millions de personnes comme une ressource utile, que ce soit pour le travail, le plaisir ou l'éducation. Mais pouvez-vous compter sur ce chatbot IA pour toujours fournir les faits? ChatGPT mentira-t-il ou ne vous donnera-t-il que des informations factuelles ?

D'où ChatGPT tire-t-il ses informations?

Au cours de sa période de formation, ChatGPT a reçu des données provenant de sources sur le Web, telles que des sites Web gouvernementaux et d'agences, revues scientifiques, études, articles de presse, podcasts, forums en ligne, livres, bases de données, films, documentaires et réseaux sociaux médias.

Plus précisément, ChatGPT-3 a été formé à l'aide d'une vaste base de données d'informations qui s'élevait à 570 Go de données. Comme indiqué dans un article de Orientation scientifique, 300 milliards de mots d'informations ont été introduits dans le système GPT-3 au cours de son développement.

Il convient de noter ici que ChatGPT n'a été alimenté que par des données qui existaient avant 2021. Cela signifie que le chatbot ne peut pas répondre aux questions relatives aux événements récents. ChatGPT n'a pas non plus accès à Internet. Les données qui lui ont été fournies lors de la formation sont les seules qu'il utilise pour répondre aux invites de l'utilisateur.

instagram viewer

Mais ChatGPT ne vous fournit-il que les faits, ou des informations plus ambiguës sont-elles mélangées à ses réponses? De plus, ChatGPT peut-il vous mentir ?

ChatGPT ment-il?

Bien que ChatGPT fournisse souvent des informations véridiques aux utilisateurs, il a la capacité de "mentir". Bien sûr, ChatGPT ne décide pas de mentir aux utilisateurs de manière malveillante, car il ne peut tout simplement pas le faire. Après tout, ChatGPT est un outil de traitement du langage, pas une imitation d'une personne réelle et sensible.

Cependant, ChatGPT peut techniquement encore mentir à travers un phénomène connu sous le nom d'hallucination de l'IA.

Hallucination de l'IA implique un système d'IA fournissant des informations qui semblent raisonnables ou plausibles mais qui, en réalité, ne sont pas vraies du tout. En fait, l'hallucination de l'IA peut fournir des informations sur le fait qu'elle n'a jamais été alimentée pendant sa période d'entraînement. Alternativement, cela peut se produire lorsqu'un système d'IA fournit des informations sans rapport avec l'invite ou la demande. Un système d'IA peut même prétendre être humain dans un événement d'hallucination.

Les systèmes d'IA, tels que les chatbots, tombent dans le piège de l'hallucination pour plusieurs raisons: leur manque de compréhension du monde réel, les bogues logiciels et les limitations des données fournies.

Comme indiqué précédemment, ChatGPT ne peut fournir des informations qu'à l'aide de données publiées jusqu'en 2021, ce qui limite certainement les types d'invites qu'il peut répondre.

Un des Les gros problèmes de ChatGPT est qu'il peut également être victime de préjugés lorsqu'il donne des informations aux utilisateurs. Même les créateurs de ChatGPT ont déclaré que le système d'IA a été "politiquement biaisé, offensant" et "autrement répréhensible" dans le passé. Tel que rapporté par L'indépendant, les développeurs de ChatGPT se sont engagés à résoudre ce problème, mais cela ne signifie pas qu'il ne présente plus de risque.

Lorsqu'on lui a demandé, ChatGPT a déclaré que les raisons pour lesquelles il pouvait fournir des informations inexactes étaient les suivantes :

  • Ambiguïté dans la question (invites vagues et peu claires);
  • Informations incomplètes fournies;
  • Informations biaisées ou incorrectes fournies; ou,
  • Limitations techniques (principalement dues au manque d'accès aux données actuelles).

Ainsi, ChatGPT lui-même a déclaré qu'il existe des scénarios dans lesquels il ne fournira pas d'informations précises aux utilisateurs.

Dans une autre réponse de la même conversation, ChatGPT a déclaré que "c'est toujours une bonne idée de vérifier toute information [qu'il fournit] auprès d'autres sources".

Pouvez-vous faire confiance à ChatGPT?

Parce qu'il peut fournir de fausses informations, vous clairement ne peut pas faire confiance à ChatGPT 100% du temps.

Vous pouvez réduire le risque d'hallucinations d'un chatbot IA en définissant des paramètres spécifiques sur la façon dont il peut vous répondre. Cependant, il n'y a toujours aucune garantie que certaines fausses informations ne passeront pas entre les mailles du filet.

Pour cette raison, il est préférable de vérifier toutes les informations fournies par ChatGPT, en particulier si vous demandez des informations sur des événements récents. Revérifier ces données en se référant à d'autres sources peut vous aider à déterminer si ChatGPT a raison dans ce qu'il dit et peut vous empêcher de prendre des décisions malavisées.

ChatGPT est utile mais pas toujours véridique

Malheureusement, vous ne pouvez pas compter sur ChatGPT pour fournir des informations véridiques et impartiales 100 % du temps. Ce chatbot alimenté par l'IA est indéniablement utile et peut vous aider de différentes manières, mais il vaut toujours la peine de vérifier si les informations qu'il fournit sont factuelles.