Dans l'IA, des progrès sont réalisés à des niveaux sans précédent, avec de nouveaux développements effectués presque chaque semaine. Les outils d'IA générative tels que ChatGPT sont maintenant si populaires qu'ils sont intégrés partout.

Mais devrions-nous? L'utilisation de la technologie de l'IA pour la productivité, l'éducation et le divertissement est logique. Cependant, les entreprises pensent maintenant à le mettre directement dans nos applications de messagerie, et cela peut s'avérer destructeur. Voici sept raisons pour lesquelles.

1. Les chatbots IA ont tendance à halluciner

Si vous avez utilisé ChatGPT, Bing ou Bard, vous savez que les chatbots d'IA générative ont tendance à "halluciner". L'hallucination de l'IA se produit lorsque ces chatbots inventent des choses en raison d'un manque de données de formation adéquates sur la requête demandée par l'utilisateur.

En d'autres termes, ils livrent des informations erronées mais semblent confiants, comme si c'était un fait. C'est un gros problème car de nombreuses personnes ne vérifient pas les faits lorsqu'elles utilisent un chatbot et pensent qu'il est exact par défaut. C'est l'un des plus grands

erreurs à éviter lors de l'utilisation d'outils d'IA.

Lorsqu'il est placé dans des applications de messagerie, le préjudice qu'il peut causer est encore plus grand, car les gens peuvent l'utiliser (intentionnellement ou involontairement) répandre de la désinformation auprès de leurs contacts et sur les réseaux sociaux, faire proliférer la propagande et favoriser l'écho chambres.

2. Les gens n'aiment pas parler aux bots

Crédit d'image: studio graphique/Vecteezy

Pensez à quel point c'est ennuyeux lorsque vous essayez de contacter le support client d'une entreprise et que vous êtes obligé de parler à un chatbot au lieu d'un véritable cadre humain qui peut réellement comprendre les nuances de votre problème et proposer des conseils.

Il en va de même pour les conversations personnelles. Imaginez que vous parlez à votre ami et qu'à mi-parcours, vous vous rendez compte qu'il utilise l'IA pour répondre à vos messages tout ce temps au lieu de le faire par eux-mêmes en fonction de leurs pensées et des avis.

Si vous êtes comme la plupart des gens, vous vous sentirez immédiatement offensé et percevrez l'utilisation de l'IA dans une conversation privée comme insensible, effrayant et même passif-agressif, comme si l'autre personne ne considérait pas que vous valiez son temps, son attention et empathie.

L'utilisation de l'IA pour écrire des e-mails, par exemple, est compréhensible puisqu'il s'agit d'une interaction professionnelle, mais l'utiliser dans des conversations personnelles ne sera pas encouragé. Une fois que la nouveauté de la technologie s'estompera, il deviendra impoli de l'utiliser dans ce contexte.

3. L'IA ne peut pas copier votre tonalité unique

Aujourd'hui, les outils d'IA générative vous permettent déjà de changer la tonalité de votre message, comme formel, joyeux ou neutre, selon à qui vous écrivez et comment vous voulez le faire passer. Composition magique dans Google Messages, par exemple, vous permet de faire la même chose.

Bien que ce soit une bonne chose, notez que ces tonalités sont formées sur la base de données de formation définies et non de votre historique de chat personnel, de sorte qu'elles ne peuvent pas reproduire votre tonalité unique ou les emojis que vous utilisez habituellement.

Vous ne vous en souciez peut-être pas beaucoup, surtout si vous utilisez l'IA pour écrire des e-mails professionnels simples pour lesquels tout le monde utilise plus ou moins la même tonalité formelle. Mais cela compte bien plus que vous ne le pensez lorsque vous l'utilisez pour parler à vos amis et à votre famille sur une application de messagerie.

Jusqu'à ce que les outils d'IA vous permettent de former leur modèle de langue en fonction de votre historique de chat, ils ne pourront pas reproduire votre dialecte et vos excentricités uniques. Cela dit, ce défi n'est pas si difficile à résoudre, nous pourrions donc le voir bientôt mis en œuvre.

4. Écrire de bonnes invites prend du temps

L'obtention des résultats souhaités d'un chatbot IA dépend fortement de la qualité de votre invite. Si vous écrivez une mauvaise invite, vous obtiendrez une mauvaise réponse et devrez affiner l'invite jusqu'à ce que vous obteniez un résultat satisfaisant.

Ce processus est logique lorsque vous souhaitez rédiger un contenu long, mais est extrêmement inefficace lorsque vous rédigez plusieurs réponses courtes dans une conversation informelle.

Le temps nécessaire pour affiner vos invites et obtenir des réponses utilisables sera, dans la plupart des cas, supérieur au temps qu'il vous aurait fallu si vous veniez d'écrire les messages vous-même.

5. L'IA peut produire des résultats offensants

Outre la précision, le biais est l'un des les plus gros problèmes avec l'IA générative. Certaines personnes perçoivent l'IA comme impartiale car elle n'a pas ses propres motivations. Cependant, les personnes derrière ces outils d'IA sont en fin de compte des humains avec leurs propres préjugés.

En d'autres termes, la partialité est intégrée au système. L'IA ne comprend pas intrinsèquement ce qui est considéré comme offensant et ce qui ne l'est pas, elle peut donc, par exemple, être entraînée être biaisé contre certains groupes de personnes ou certaines cultures, produisant ainsi des résultats offensants dans le processus.

6. L'IA peut ne pas comprendre le sarcasme ou l'humour

La compréhension par l'IA des figures de style, telles que l'ironie et la métaphore, s'améliore avec le temps, mais elle est encore loin d'être à un point où elle peut être utilisée dans une conversation pour reconnaître l'humour. Lorsqu'on a demandé au barde de Google d'être sarcastique, par exemple, les résultats ont été aléatoires.

Dans certains cas, c'était vraiment drôle et jouait avec mon sarcasme. Mais dans d'autres cas, il est soit revenu par défaut à une réponse peu drôle à l'emporte-pièce, soit a simplement refusé de participer à la conversation en disant que, comme il ne s'agit que d'un LLM, cela ne peut pas m'aider avec mon mettre en doute.

7. La dépendance à l'IA peut entraîner une mauvaise communication

Un autre problème subtil mais substantiel lié à l'intégration de l'IA générative dans les applications de messagerie est de savoir comment cela peut affecter notre capacité à communiquer. Si nous comptons de plus en plus sur l'IA pour communiquer entre nous, cela peut entraver notre capacité à former notre intelligence émotionnelle et compétences sociales.

Le point ici est que plus nous sous-traitons nos besoins sociaux à l'IA, plus nous aurons de mal à communiquer des idées par des moyens organiques. En d'autres termes, plus vous utilisez l'IA pour parler à vos contacts, plus vous risquez de dégrader la qualité de vos relations.

Tout n'a pas besoin d'IA

Souvent, avec l'avènement de la nouvelle technologie, nous sommes tellement occupés à comprendre comment l'utiliser que nous ne parvenons pas à nous demander si nous devrions l'utiliser en premier lieu.

Bien qu'il soit tout à fait logique d'utiliser l'IA générative pour écrire des e-mails, réfléchir à des idées ou créer des images pour des présentations, son intégration dans les applications de messagerie suscite de nombreuses critiques.