OpenAI a récemment lancé ChatGPT Health, un nouveau produit conçu pour fournir des conseils de santé, dans un contexte d'inquiétudes croissantes quant à la fiabilité des informations médicales générées par l'IA. Ce lancement, qui a eu lieu au début du mois, intervient alors qu'environ 230 millions de personnes par semaine utilisent déjà ChatGPT pour des requêtes liées à la santé, selon OpenAI. Ce développement survient à un moment où l'utilisation de l'IA pour les conseils médicaux est soumise à un examen de plus en plus minutieux.
Le dévoilement de ChatGPT Health a été assombri par un reportage de SFGate détaillant la mort d'un adolescent, Sam Nelson, qui aurait demandé conseil à ChatGPT sur la combinaison de médicaments avant de faire une overdose l'année dernière. Cet incident a alimenté le débat parmi les journalistes et les experts concernant la sécurité et les implications éthiques du recours à l'IA pour obtenir des conseils médicaux.
ChatGPT Health n'est pas un nouveau modèle d'IA, mais plutôt une interface spécialisée construite sur des modèles OpenAI existants. Cette "surcouche", comme on l'a décrite, fournit à l'IA des instructions et des outils spécifiques adaptés aux demandes liées à la santé. Elle peut également accéder au dossier médical électronique d'un utilisateur, offrant potentiellement des conseils plus personnalisés.
La popularité de la recherche de symptômes en ligne, souvent appelée "Dr. Google", est une pratique courante depuis deux décennies. Cependant, le passage à l'utilisation de grands modèles linguistiques (LLM) comme ChatGPT soulève de nouvelles questions sur l'exactitude et la responsabilité. Contrairement aux moteurs de recherche traditionnels qui fournissent des liens vers diverses sources, les LLM synthétisent les informations et offrent des réponses directes, qui peuvent être trompeuses, voire nuisibles, si les données sous-jacentes sont erronées ou biaisées.
Les experts soulignent l'importance de comprendre les limites de l'IA dans le domaine de la santé. Bien que l'IA puisse traiter de grandes quantités de données et identifier des schémas, elle ne possède pas la pensée critique et le jugement nuancé d'un professionnel de la santé humain. Le risque de mauvais diagnostic, de recommandations de traitement incorrectes et de diffusion de fausses informations sont des préoccupations importantes.
L'état actuel de ChatGPT Health en est encore à ses débuts, et OpenAI n'a pas encore publié d'informations détaillées sur son processus de validation ou ses mesures de sécurité. L'entreprise est confrontée au défi de garantir que l'IA fournit des conseils médicaux précis, fiables et impartiaux, tout en protégeant la vie privée des utilisateurs et la sécurité des données. Les développements futurs se concentreront probablement sur l'amélioration des algorithmes de l'IA, l'intégration des commentaires des professionnels de la santé et l'établissement de directives claires pour son utilisation dans les établissements de soins.
Discussion
Join the conversation
Be the first to comment