Peut-on faire confiance aux chatbots ? Ce qu’il faut savoir.

Peut-on faire confiance aux chatbots ?  Ce qu’il faut savoir.

jouer

L’incroyable capacité de ChatGPT à répondre aux questions des gens avec des réponses générées instantanément et faciles à comprendre pourrait changer la donne pour les personnes cherchant des conseils médicaux, mais un nouvel essai dans une revue médicale indique que ce n’est pas si simple. Et aussi ChatGPT.

Peter Lee, vice-président de Microsoft, a passé les six derniers mois à expérimenter la dernière édition de ChatGPT, une plateforme d’intelligence artificielle conçue pour répondre aux questions des utilisateurs sur un ton conversationnel.

Comme d’autres soi-disant grands modèles de langage, ChatGPT, construit par la startup OpenAI basée à San Francisco, est formé sur des quantités massives de données disponibles sur Internet, dans des livres et à partir d’autres sources. Il utilise des algorithmes pour générer des mots séquentiels en fonction de la fréquence à laquelle ils apparaissent ensemble en ligne. Le moteur de recherche Bing de Microsoft utilise désormais ChatGPT.

Lee, un informaticien qui dirige la recherche Microsoft dans le monde entier, s’intéresse particulièrement au potentiel médical et scientifique de ChatGPT.

PRÉCÉDEMMENT: ChatGPT est prêt à bouleverser les informations médicales. Pour le meilleur ou pour le pire.

Il a publié un essai jeudi dans le New England Journal of Medicine sur les utilisations potentielles de ChatGPT pour enregistrer des notes médicales, offrir des possibilités de diagnostic, éduquer les médecins et les patients, et analyser et résumer les données. La capacité de l’interface à fournir des réponses humaines et empathiques est particulièrement remarquable, a-t-il déclaré.

READ  Laissez-les s'occuper de leur propre entreprise

Nous avons interrogé Lee, également co-auteur du livre à paraître « The AI ​​​​Revolution in Medicine: GPT-4 and Beyond », sur son enthousiasme et ses inquiétudes concernant la dernière version de ChatGPT, désormais ChatGPT-4, qui vient d’être publiée. . Nous avons également posé les mêmes questions à ChatGPT, mais comme sa disponibilité est encore limitée, les réponses proviennent de ChatGPT-3.

Question : ChatGPT fournit-il des informations médicales fiables ?

Li : Personnellement, je ne ferais pas confiance à des modèles à ce niveau de sophistication pour mes conseils ou informations personnels sur la santé, et je serais inquiet si les médecins et les infirmières les prendraient pour la prise de décision médicale.

Chats GPT : ChatGPT est un modèle de langage entraîné sur de grandes quantités de données textuelles, y compris des informations médicales. Cependant, il est important de noter que ChatGPT n’est pas un professionnel de la santé et que leurs réponses ne doivent pas être considérées comme des conseils médicaux.

Bien que ChatGPT puisse fournir des informations sur des sujets médicaux, il est essentiel que vous vérifiiez ces informations auprès d’un professionnel de la santé qualifié avant de prendre toute décision concernant votre santé. Il existe également un risque que ChatGPT fournisse des informations médicales inexactes ou obsolètes, ce qui pourrait être potentiellement dangereux.

Question : Quel type d’erreurs ChatGPT commet généralement et pourquoi ?

Li : Les modèles GPT sont généralement mauvais pour récupérer des informations. C’est presque par conception, car les modèles GPT ne veulent pas régurgiter les données d’entraînement. Si vous demandez une source spécifique, telle qu’une référence de document, il est incapable de ressusciter la source exacte, alors il invente quelque chose, « hallucine ».

Chats GPT : ChatGPT peut faire des erreurs telles que fournir des réponses non pertinentes ou incorrectes, se répéter ou produire des réponses qui ne correspondent pas au contexte de la conversation.

Ces erreurs peuvent se produire car ChatGPT est formé sur de grandes quantités de données textuelles, y compris des informations non vérifiées et potentiellement biaisées, ce qui peut conduire à des informations incorrectes ou obsolètes.

De plus, les réponses de ChatGPT peuvent être affectées par la qualité de l’entrée qu’il reçoit, ce qui peut entraîner des réponses non pertinentes ou hors sujet.

Question : En quoi ChatGPT-4 est-il meilleur que ChatGPT-3 ?

Li : Nous arrivons à un autre niveau d’intelligence. L’essentiel est que vous disposiez de ce modèle d’IA doté de nombreuses capacités cognitives et d’une interface de chat. Il finit par être vraiment naturel d’interagir avec.

READ  Le groupe énergétique français Engie maintient l'offre de Bouygues pour l'achat de l'unité de service

Chats GPT : Il est raisonnable de s’attendre à des améliorations dans des domaines tels que l’évolutivité, la précision, la capacité multilingue, la compréhension contextuelle et la cohérence.

Question : ChatGPT ressemble parfois à une vraie personne. ChatGPT a-t-il une « théorie de l’esprit », la capacité d’imaginer les états mentaux des autres ?

Li : Il ne peut pas le faire. C’est une voiture. Mais vous pouvez demander au GPT-4 ce que le patient décrit penserait et ressentirait (dans une situation particulière). Il est capable de jauger cet état d’esprit. … Il en résulte un sentiment d’empathie pour les patients.

Chats GPT : Non, ChatGPT n’a pas de théorie de l’esprit.

ChatGPT est un modèle d’apprentissage automatique qui utilise des algorithmes et des modèles statistiques pour générer des réponses aux entrées en langage naturel. Il n’a pas de conscience, d’émotions ou de croyances et n’a pas la capacité de comprendre ou de déduire les états mentaux des utilisateurs humains.

Bien que ChatGPT soit capable de générer des réponses qui peuvent être empathiques, engageantes et conversationnelles, il lui manque une théorie de l’esprit, qui est un aspect crucial de la cognition humaine et de l’interaction sociale.

Question : Faut-il utiliser ChatGPT en médecine ?

Li : La société a un choix à faire. Nous pouvons essayer de ralentir ou de désactiver cette technologie, car nous ne comprenons pas pleinement les risques. Un deuxième argument est plus fataliste, en disant: « Il est imparable. Nous pourrions aussi bien essayer. » Un troisième choix, qui je pense est le seul rationnel, mais qui doit être fait intentionnellement, est de réfléchir attentivement à la manière d’intégrer cette technologie dans nos vies afin que nous puissions faire des choses que ni les humains seuls ni l’intelligence artificielle seule ne peuvent faire. . . J’espère que la communauté médicale et le public choisiront cette troisième option.

READ  Le co-fondateur du réseau Ethereum dit qu'il quitte le monde de la crypto-monnaie en raison de problèmes de sécurité

Chats GPT : ChatGPT ne doit pas être utilisé uniquement pour un avis médical ou un diagnostic. Bien que ChatGPT puisse être en mesure de fournir des informations sur des sujets médicaux, il n’est pas un professionnel de la santé et ses réponses doivent être considérées à titre informatif uniquement.

Cependant, ChatGPT peut être un outil utile pour acquérir une compréhension générale des concepts et de la terminologie médicale. Dans tous les cas, il est essentiel que vous vérifiiez toute information fournie par ChatGPT auprès d’un professionnel de la santé qualifié pour vous assurer qu’elle est exacte et applicable à votre situation.

Contactez Karen Weintraub à [email protected].

La couverture de la santé et de la sécurité des patients chez USA TODAY est rendue possible en partie grâce à une subvention de la Fondation Masimo pour l’éthique, l’innovation et la concurrence dans les soins de santé. La Fondation Masimo ne fournit pas de contributions éditoriales.

Article précédentAprès des mois d’attente, Apple TV prend désormais en charge le plan financé par la publicité de Netflix
Article suivantParis vote pour interdire la location de scooters électriques
Amelie Durand
"Independent troublemaker. Introverted. Social media practitioner. Twitter advocate. Incurable problem solver."

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici