À moins que vous n'ayez vécu sous un rocher, vous avez probablement entendu parler et même utilisé ChatGPT ou un chatbot AI similaire. Bien que l'utilisation de ces chatbots soit certainement amusante, cela peut aussi être dangereux si vous ne savez pas ce que vous faites.
Ces chatbots ont des limites, et il est important de les comprendre. Alors, voici six choses que vous devriez éviter de demander à un chatbot IA.
1. Diagnostic médical
Les chatbots IA sont bons dans beaucoup de choses, mais fournir des diagnostics médicaux précis n'en fait pas partie. Bien sûr, ils ne se trompent peut-être pas tout le temps, mais faire confiance à un chatbot pour diagnostiquer votre maladie au lieu d'un médecin revient à rechercher vos symptômes sur Google.
Un chatbot résumera simplement les informations qu'il a extraites d'Internet et qui pourraient ou non être vraies. Plus important encore, il ne connaît pas vos antécédents médicaux ou votre tolérance à certaines substances et ne peut donc pas juger du type de traitement qui vous conviendrait le mieux.
Internet a tendance à exagérer les choses, il n'est donc pas étonnant que de nombreuses personnes qui recherchent leurs symptômes se retrouvent dans une situation d'hypocondrie et d'anxiété sévère. L'utilisation de chatbots IA peut reproduire le même effet et aggraver les choses. Pour votre propre bien, ne consulter un chatbot pour un avis médical.
2. Avis sur les produits
Un chatbot IA peut facilement répertorier le prix et les spécifications d'un produit qui pourrait vous intéresser, mais il ne peut jamais donner d'avis sur le produit. Pourquoi? Parce qu'une évaluation de produit inclut par définition l'opinion personnelle, l'expérience et le jugement de l'évaluateur.
L'IA n'a pas la capacité de voir, de sentir, de toucher, de goûter ou d'entendre, et donc les affirmations qu'elle ferait à propos d'un produit - n'importe quel produit, pas seulement la technologie - dans son "examen" seraient malhonnêtes.
Par exemple, un chatbot IA ne peut pas ressentir la prise en main d'un téléphone, la clarté de son haut-parleur, la qualité de son moteur de vibration, la fiabilité de son capteur d'empreintes digitales, la fluidité du logiciel et la polyvalence de l'appareil photo système.
Si vous cherchez à obtenir des recommandations sur les produits à acheter, assurez-vous de demander à un chatbot de résumer les avis existants. Vous devrez utiliser un robot IA capable de rechercher sur le Web, tel que Bing avec ChatGPT intégré.
3. Conseils juridiques
Vous pourriez avoir des gros titres selon lesquels ChatGPT a passé avec succès les examens des facultés de droit américaines et que les chatbots d'IA sont sur le point d'entrer dans nos salles d'audience dans les années à venir. Cela devrait être choquant, mais une recherche rapide vous dira que nous essayons en fait d'introduire l'IA dans notre système juridique depuis 2015 !
Certaines entreprises ont déjà créé des assistants juridiques spécialisés en IA, les commercialisant même comme une alternative abordable aux avocats humains. Le concept a clairement du mérite pour les personnes qui ne peuvent pas se le permettre, mais les problèmes avec ces soi-disant avocats de l'IA sont trop réels pour être ignorés.
La différence évidente est que les chatbots IA manquent de bon sens. Les choses qui sont instinctivement évidentes pour nous, les humains, doivent être programmées dans des chatbots, ce qui les rend moins capables de raisonnement logique.
Plus important encore, un avocat humain peut rechercher de nouvelles preuves et sortir des sentiers battus pour trouver des solutions intelligentes et des échappatoires. Mais un chatbot IA ne peut utiliser que les données que vous fournissez et les traiter de manière prédéterminée. Un avocat en intelligence artificielle serait également la cible idéale pour les pirates informatiques pour voler les données sensibles de plusieurs personnes à la fois.
4. Nouvelles
L'utilisation des chatbots IA comme source d'information pose trois problèmes majeurs: la responsabilité, le contexte et le pouvoir. Tout d'abord, la responsabilité. Lorsque vous lisez un reportage, vous connaissez la publication et le journaliste derrière. Cela signifie qu'il y a quelqu'un responsable des informations qui vous sont fournies, il y a donc une incitation claire à être précis afin de maintenir sa réputation et sa crédibilité.
Mais avec un chatbot IA, aucune personne n'écrit l'actualité. Au lieu de cela, le bot résume simplement les histoires déjà disponibles sur le Web. Cela signifie qu'il n'y a pas de source principale et que vous ne savez pas d'où proviennent les informations. Par conséquent, ce n'est pas aussi fiable.
Deuxièmement, le contexte. Si les nouvelles que vous lisez ne sont qu'un résumé d'informations tirées de diverses sources, cela peut rapidement peindre un faux récit car vous perdez le contexte plus profond de chaque histoire individuelle. Le bot ne sait pas si ce qu'il prétend est vrai, il ne fait que mélanger les choses d'une manière qui semble vraie au niveau de la surface.
Et enfin, la puissance. Nous savons que ChatGPT peut être biaisé (entre autres problèmes). Donc, si nous nous tournons tous vers les chatbots IA comme source d'information, cela donne aux entreprises derrière eux le pouvoir de contenir toute couverture négative et mettre en évidence toute couverture positive sur les causes auxquelles ils croient et veulent promouvoir. Ceci est extrêmement dangereux pour des raisons évidentes.
5. Opinion politique
Il devrait être assez évident que demander à un chatbot une opinion politique est un grand non-non. Lorsque vous demandez à ChatGPT son point de vue sur une question politique, vous obtenez généralement une réponse restreinte qui ressemble à ceci: "En tant que modèle de langage d'IA, je n'ai pas de préférences personnelles ou envies..."
Cette restriction est compréhensible, mais les utilisateurs de Reddit ont déjà trouvé des moyens de "jailbreaker" le bot pour qu'il réponde de manière illimitée en utilisant toutes sortes de failles créatives. Faire cela pour le plaisir est une chose, mais demander à un chatbot IA sans restriction une opinion politique revient à laisser votre tout-petit accéder au dark web; cela ne peut pas bien se terminer pour aucune des parties impliquées.
6. Contenu commercial
Le principal argument de vente des chatbots IA est qu'ils peuvent produire du contenu instantanément. Ce qui prendrait quelques heures à écrire à un humain, ChatGPT peut le faire en quelques secondes. Sauf que ça ne peut pas.
Même si vous négligez l'éthique douteuse de l'utilisation de chatbots IA pour écrire du contenu, vous ne pouvez pas ignorer qu'ils ne sont tout simplement pas assez bons et ne peut pas remplacer les écrivains humains. Pas encore, du moins. ChatGPT, par exemple, fournit souvent un contenu inexact, obsolète et répétitif.
Étant donné que ces robots n'ont pas leurs propres opinions, jugement, imagination ou expérience antérieure, ils ne peuvent pas dessiner des conclusions intelligentes, pensez à des exemples, utilisez des métaphores et créez des récits d'une manière humaine professionnelle l'écrivain peut.
En d'autres termes, cela n'ajoute aucune nouvelle valeur à Internet. Utiliser des chatbots pour un usage personnel est parfaitement acceptable. Mais les utiliser pour écrire vos articles, reportages, légendes de médias sociaux, copies Web, etc. est probablement une très mauvaise idée.
Les chatbots IA sont amusants, mais ont encore quelques défauts
Il est difficile de dire comment les chatbots IA influenceront l'industrie technologique et la société moderne dans son ensemble. Aussi révolutionnaire que soit la technologie, les chatbots posent de nombreux problèmes qui doivent être résolus.
Ce qui est intéressant, c'est que Microsoft intègre désormais un chatbot de type ChatGPT directement dans son moteur de recherche Bing, et Google fera bientôt de même avec son propre chatbot appelé Bard. Il sera intéressant de voir comment ces nouveaux moteurs de recherche alimentés par l'IA changent Internet.