L'IA générative est géniale, mais elle présente toujours ses informations avec une autorité absolue. Ce qui est génial à moins que ce ne soit une hallucination de la vérité.

L'hallucination de l'intelligence artificielle (IA) semble perplexe. Vous pensez probablement: « L'hallucination n'est-elle pas un phénomène humain? Eh bien, oui, c'était un être uniquement humain phénomène jusqu'à ce que l'IA commence à présenter des caractéristiques humaines telles que la reconnaissance faciale, l'auto-apprentissage et la parole reconnaissance.

Malheureusement, l'IA a pris certains attributs négatifs, y compris des hallucinations. Alors, l'hallucination de l'IA est-elle similaire au type d'hallucination que les humains éprouvent ?

Qu'est-ce que l'hallucination par IA?

L'hallucination de l'intelligence artificielle se produit lorsqu'un modèle d'IA génère des sorties différentes de ce qui est attendu. Notez que certains modèles d'IA sont formés pour générer intentionnellement des sorties sans rapport avec aucune entrée (données) du monde réel.

instagram viewer

Par exemple, meilleurs générateurs de texte à l'art AI, tels que DALL-E 2, peuvent générer de manière créative de nouvelles images que nous pouvons étiqueter comme "hallucinations" car elles ne sont pas basées sur des données du monde réel.

Hallucination de l'IA dans les grands modèles de traitement du langage

Considérons à quoi ressemblerait l'hallucination de l'IA dans un grand modèle de traitement du langage tel que ChatGPT. Une hallucination ChatGPT aurait pour conséquence que le bot vous donnerait un fait incorrect avec une affirmation, de sorte que vous prendriez naturellement ces faits comme la vérité.

En termes simples, il s'agit de déclarations inventées par le chatbot artificiellement intelligent. Voici un exemple :

Sur une autre requête, ChatGPT est apparu avec ceci :

Hallucination de l'IA dans la vision par ordinateur

Considérons un autre domaine de l'IA qui peut subir des hallucinations d'IA: Vision par ordinateur. Le quiz ci-dessous montre un montage 4x4 avec deux entités qui se ressemblent tellement. Les images sont un mélange de croustilles et de feuilles de barbecue.

Le défi consiste à sélectionner les chips sans toucher aucune feuille dans le montage. Cette image peut sembler délicate à un ordinateur, et il pourrait être incapable de faire la différence entre les croustilles et les feuilles de barbecue.

Voici un autre montage avec un mélange d'images de chignon de caniche et de fil de porc. Un ordinateur serait très probablement incapable de les différencier, mélangeant ainsi les images.

Pourquoi l'IA Hallucination se produit-elle?

L'hallucination de l'IA peut se produire en raison d'exemples contradictoires - des données d'entrée qui incitent une application d'IA à les classer de manière erronée. Par exemple, lors de la formation d'applications d'IA, les développeurs utilisent des données (image, texte ou autres); si les données sont modifiées ou déformées, l'application interprète l'entrée différemment, donnant une sortie erronée.

En revanche, un humain peut toujours reconnaître et identifier les données avec précision malgré les distorsions. Nous pouvons qualifier cela de bon sens - un attribut humain que l'IA ne possède pas encore. Regardez comment l'IA est trompée par des exemples contradictoires dans cette vidéo :

En ce qui concerne les grands modèles basés sur le langage tels que ChatGPT et ses alternatives, des hallucinations peuvent résulter d'un décodage inexact du transformateur (modèle d'apprentissage automatique).

En IA, un transformateur est un modèle d'apprentissage en profondeur qui utilise l'auto-attention (relations sémantiques entre les mots dans une phrase) pour produire un texte similaire à ce qu'un humain écrirait à l'aide d'un encodeur-décodeur (entrée-sortie) séquence.

Ainsi, les transformateurs, un modèle d'apprentissage automatique semi-supervisé, peuvent générer un nouveau corps de texte (sortie) à partir du vaste corpus de données textuelles utilisées dans sa formation (entrée). Il le fait en prédisant le mot suivant dans une série basée sur les mots précédents.

En ce qui concerne l'hallucination, si un modèle de langage a été formé sur des données et des ressources insuffisantes et inexactes, on s'attend à ce que la sortie soit inventée et inexacte. Le modèle de langage peut générer une histoire ou un récit sans incohérences logiques ni connexions peu claires.

Dans l'exemple ci-dessous, ChatGPT a été invité à donner un mot similaire à "révolte" et commençant par un "b". Voici sa réponse :

En approfondissant, il a continué à donner de mauvaises réponses, avec un niveau de confiance élevé.

Alors pourquoi ChatGPT est-il incapable de donner une réponse précise à ces invites ?

Il se peut que le modèle de langage ne soit pas équipé pour gérer des invites plutôt complexes comme celles-ci ou qu'il ne peut pas interpréter l'invite avec précision, ignorant l'invite en donnant un mot similaire avec un spécifique alphabet.

Comment repérer l'hallucination de l'IA?

Il est maintenant évident que les applications d'IA ont le potentiel d'halluciner, c'est-à-dire de générer des réponses autrement à partir de la sortie attendue (fait ou vérité) sans aucune intention malveillante. Et repérer et reconnaître les hallucinations de l'IA appartient aux utilisateurs de ces applications.

Voici quelques façons de repérer les hallucinations de l'IA lors de l'utilisation d'applications d'IA courantes :

1. Grands modèles de traitement du langage

Bien que rare, si vous remarquez une erreur grammaticale dans le contenu produit par un grand modèle de traitement, tel que ChatGPT, cela devrait soulever un sourcil et vous faire suspecter une hallucination. De même, lorsque le contenu généré par du texte ne semble pas logique, ne correspond pas au contexte donné ou ne correspond pas aux données d'entrée, vous devez suspecter une hallucination.

L'utilisation du jugement humain ou du bon sens peut aider à détecter les hallucinations, car les humains peuvent facilement identifier quand un texte n'a pas de sens ou ne suit pas la réalité.

2. Vision par ordinateur

En tant que branche de l'intelligence artificielle, de l'apprentissage automatique et de l'informatique, la vision par ordinateur permet aux ordinateurs de reconnaître et de traiter des images comme les yeux humains. En utilisant réseaux de neurones convolutifs, ils s'appuient sur l'incroyable quantité de données visuelles utilisées dans leur entraînement.

Un écart par rapport aux schémas des données visuelles utilisées lors de l'entraînement entraînera des hallucinations. Par exemple, si un ordinateur n'a pas été formé avec des images d'une balle de tennis, il pourrait l'identifier comme une orange verte. Ou si un ordinateur reconnaît un cheval à côté d'une statue humaine comme un cheval à côté d'un vrai humain, alors une hallucination de l'IA s'est produite.

Donc, pour repérer une hallucination de vision par ordinateur, comparez la sortie générée à ce qu'un humain [normal] est censé voir.

3. Voitures autonomes

Crédit d'image: Gué

Grâce à l'IA, les voitures autonomes infiltrent progressivement le marché automobile. Des pionniers comme Tesla Autopilot et Ford's BlueCruise ont défendu la scène des voitures autonomes. Vous pouvez consulter comment et ce que voit le pilote automatique Tesla pour comprendre un peu comment l'IA alimente les voitures autonomes.

Si vous possédez une de ces voitures, vous voudriez savoir si votre voiture IA hallucine. Un signe sera si votre véhicule semble s'écarter de son comportement normal pendant la conduite. Par exemple, si le véhicule freine ou dévie soudainement sans raison apparente, votre véhicule IA peut avoir des hallucinations.

Les systèmes d'IA peuvent aussi halluciner

Les humains et les modèles d'IA vivent les hallucinations différemment. En ce qui concerne l'IA, les hallucinations font référence à des sorties erronées qui sont à des kilomètres de la réalité ou qui n'ont pas de sens dans le contexte de l'invite donnée. Par exemple, un chatbot IA peut donner une réponse grammaticalement ou logiquement incorrecte ou mal identifier un objet en raison du bruit ou d'autres facteurs structurels.

Les hallucinations de l'IA ne résultent pas d'un esprit conscient ou subconscient, comme vous le feriez chez les humains. Cela résulte plutôt de l'inadéquation ou de l'insuffisance des données utilisées dans la formation et la programmation du système d'IA.