OpenAI a récemment lancé ChatGPT Health, un nouveau produit conçu pour fournir des conseils de santé, dans un contexte d'inquiétudes croissantes concernant la fiabilité des informations médicales basées sur l'IA. Le lancement de ChatGPT Health, qui a eu lieu au début du mois, intervient alors qu'environ 230 millions de personnes par semaine utilisent déjà ChatGPT pour des requêtes liées à la santé, selon OpenAI.
Ce lancement a été assombri par un reportage de SFGate détaillant le décès de l'adolescent Sam Nelson, qui aurait eu de longues conversations avec ChatGPT au sujet de combinaisons de médicaments avant de succomber à une overdose fatale. Cet incident a alimenté un débat parmi les journalistes et les experts concernant la sécurité et les implications éthiques du recours à l'IA pour obtenir des conseils médicaux.
ChatGPT Health n'est pas un nouveau modèle d'IA, mais plutôt une interface spécialisée construite sur des modèles OpenAI existants. Cette "surcouche" fournit à l'IA des instructions et des outils spécifiques pour fournir des conseils de santé, y compris un accès potentiel aux dossiers médicaux électroniques d'un utilisateur. L'objectif est d'améliorer la précision et la pertinence des informations fournies par rapport aux chatbots d'IA à usage général.
Depuis des années, les individus se tournent vers Internet pour obtenir des informations médicales, une pratique souvent appelée "Dr. Google". Cependant, l'essor des grands modèles de langage (LLM) comme ChatGPT présente à la fois des opportunités et des risques. Bien que ces outils d'IA puissent rapidement traiter et synthétiser de vastes quantités de données médicales, ils sont également sujets aux erreurs, aux biais et à la génération de conseils trompeurs ou nuisibles.
L'incident impliquant Sam Nelson souligne les dangers potentiels du recours à l'IA pour des décisions de santé critiques. Les experts soulignent que les conseils médicaux générés par l'IA ne doivent pas remplacer les consultations avec des professionnels de la santé qualifiés. Ils insistent sur l'importance de vérifier les informations obtenues à partir d'outils d'IA auprès de sources fiables et de rechercher des conseils médicaux personnalisés auprès de médecins et d'autres prestataires de soins de santé.
OpenAI a reconnu les préoccupations concernant l'IA et les soins de santé et affirme que ChatGPT Health est conçu dans un souci de sécurité et de précision. L'entreprise affirme qu'elle s'engage à améliorer continuellement l'outil et à traiter les risques potentiels. Cependant, l'impact à long terme de ChatGPT Health et d'outils médicaux similaires basés sur l'IA sur la société reste à déterminer, et un examen continu est justifié pour garantir un développement et un déploiement responsables.
Discussion
Join the conversation
Be the first to comment