ChatGPT est utile pour de nombreuses tâches, mais il y a quelques lacunes critiques qui devraient vous faire réfléchir à deux fois avant de lui faire confiance pour un avis médical.

ChatGPT, un chatbot d'intelligence artificielle (IA) développé par OpenAI, est devenu un outil tout-en-un pour répondre à de nombreuses questions simples et difficiles, y compris les demandes d'avis médical. Il peut répondre à des questions médicales et réussir l'examen de licence médicale des États-Unis (USMLE), mais il ne peut pas remplacer un rendez-vous avec un médecin à l'hôpital.

Au fur et à mesure que ChatGPT progresse, il a le potentiel de transformer complètement le secteur de la santé. Lorsqu'il est intégré aux systèmes de santé, il peut améliorer l'accès des patients aux soins et accroître l'efficacité du travail des médecins. Cependant, parce qu'il est basé sur l'IA, il existe plusieurs inquiétudes quant à ses dangers potentiels.

1. ChatGPT a des connaissances limitées

ChatGPT ne sait pas tout. Selon OpenAI, ChatGPT a des connaissances limitées, en particulier en ce qui concerne ce qui s'est passé après septembre 2021.

instagram viewer

ChatGPT n'a pas d'accès direct aux moteurs de recherche ou à Internet. Il a été formé à l'aide d'une grande quantité de données textuelles provenant de nombreuses sources, notamment des livres, des sites Web et d'autres textes. Il ne "connaît" pas les données qu'il livre. Au lieu de cela, ChatGPT utilise le texte qu'il a lu pour créer des prédictions sur les mots à utiliser et dans quel ordre.

Par conséquent, il ne peut pas obtenir de nouvelles sur les développements dans les domaines médicaux. Oui, ChatGPT n'est pas au courant de la transplantation cardiaque de porc à l'homme ou de toute autre percée très récente dans la science médicale.

2. ChatGPT peut produire des informations incorrectes

ChatGPT peut répondre aux questions que vous posez, mais les réponses peuvent être inexactes ou biaisées. Selon un Santé numérique PLoS étude, ChatGPT effectué avec une précision d'au moins 50% dans tous les examens USMLE. Et bien qu'il ait dépassé le seuil de réussite de 60% à certains égards, il existe toujours une possibilité d'erreur.

De plus, toutes les informations utilisées pour former ChatGPT ne sont pas authentiques. Les réponses basées sur des informations non vérifiées ou potentiellement biaisées peuvent être incorrectes ou obsolètes. Dans le monde de la médecine, des informations inexactes peuvent même coûter la vie.

Parce que ChatGPT ne peut pas rechercher ou vérifier le matériel de manière indépendante, il ne peut pas faire la différence entre la réalité et la fiction. Des revues médicales respectées, dont le Journal of the American Medical Association (JAMA), ont établi des règles strictes selon lesquelles seuls les humains peuvent écrire des études scientifiques publiées dans le journal. Par conséquent, vous devez constamment vérifier les réponses de ChatGPT.

3. ChatGPT ne vous examine pas physiquement

Les diagnostics médicaux ne dépendent pas uniquement des symptômes. Les médecins peuvent mieux comprendre le schéma et la gravité d'une maladie grâce à l'examen physique d'un patient. Pour diagnostiquer les patients, les médecins utilisent aujourd'hui à la fois les technologies médicales et les cinq sens.

ChatGPT ne peut pas effectuer un bilan virtuel complet ni même un examen physique; il ne peut répondre qu'aux symptômes que vous fournissez sous forme de messages. Pour la sécurité et les soins d'un patient, les erreurs d'examen physique - ou le fait d'ignorer complètement l'examen physique - peuvent être nocives. Parce que ChatGPT ne vous a pas examiné physiquement, il proposera un diagnostic incorrect.

4. ChatGPT peut fournir de fausses informations

Une étude récente du École de médecine de l'Université du Maryland sur les conseils de ChatGPT pour le dépistage du cancer du sein ont trouvé les résultats suivants :

"Nous avons vu dans notre expérience que ChatGPT invente parfois de faux articles de journaux ou de faux consortiums de santé pour étayer ses affirmations." —Paul Yi M.D., professeur adjoint de radiologie diagnostique et de médecine nucléaire à l'UMSOM

Dans le cadre de nos tests de ChatGPT, nous avons demandé une liste de livres de non-fiction qui traitent du sujet de l'esprit subconscient. En conséquence, ChatGPT a produit un faux livre intitulé "Le pouvoir de l'inconscient" par le Dr Gustav Kuhn.

Lorsque nous nous sommes renseignés sur le livre, il a répondu que c'était un livre "hypothétique" qu'il avait créé. ChatGPT ne vous dira pas si un article de journal ou un livre est faux si vous ne vous renseignez pas davantage.

5. ChatGPT n'est qu'un modèle de langage d'IA

Les modèles de langage fonctionnent en mémorisant et en généralisant le texte plutôt qu'en examinant ou en étudiant l'état d'un patient. Malgré la génération de réponses qui correspondent aux normes humaines en termes de langage et de grammaire, ChatGPT contient encore un certain nombre de problèmes, tout comme les autres robots IA.

ChatGPT ne remplace pas votre médecin

Les médecins humains seront toujours nécessaires pour prendre la décision finale en matière de soins de santé. ChatGPT conseille généralement de parler à un professionnel de la santé agréé lorsque vous demandez un avis médical.

Des outils basés sur l'intelligence artificielle comme ChatGPT peuvent être utilisés pour planifier des rendez-vous chez le médecin, aider les patients à recevoir des traitements et conserver leurs informations de santé. Mais cela ne peut se substituer à l'expertise et à l'empathie d'un médecin.

Vous ne devriez pas vous fier à un outil basé sur l'IA pour diagnostiquer ou traiter votre santé, qu'elle soit physique ou mentale.