Depuis près de deux décennies, les personnes présentant de nouveaux symptômes médicaux se tournent couramment vers les recherches en ligne, une pratique souvent qualifiée de manière péjorative de « Dr. Google ». Cette approche évolue désormais, car nombreux sont ceux qui recherchent des informations médicales auprès des grands modèles de langage (LLM). OpenAI rapporte que 230 millions de personnes posent chaque semaine des questions liées à la santé à ChatGPT, ce qui prépare le terrain pour le lancement récent du produit ChatGPT Health d'OpenAI au début du mois.
Le lancement de ChatGPT Health a été assombri par un reportage de SFGate détaillant la mort de Sam Nelson, un adolescent décédé d'une overdose après avoir consulté ChatGPT au sujet de la combinaison de médicaments. Cette nouvelle a incité les journalistes à s'interroger sur la sécurité de l'utilisation d'outils d'IA pour obtenir des conseils médicaux. Bien qu'il s'agisse d'une fonctionnalité distincte au sein de ChatGPT, ChatGPT Health n'est pas un nouveau modèle d'IA, mais plutôt une application guidée des modèles existants, dotée d'outils permettant de fournir des conseils de santé, notamment l'accès aux dossiers médicaux électroniques des utilisateurs.
L'essor de « Dr. Google » reflétait un désir d'informations de santé facilement accessibles, mais il présentait également des défis, notamment la propagation de la désinformation et le risque d'erreurs de diagnostic. Les LLM comme ChatGPT Health visent à améliorer cette situation en fournissant des informations plus structurées et potentiellement personnalisées. Cependant, l'incident impliquant Sam Nelson souligne la nécessité cruciale de prudence et de surveillance.
Les experts soulignent que, bien que l'IA puisse aider dans le domaine de la santé, elle ne doit pas remplacer les conseils médicaux professionnels. L'intégration des dossiers médicaux électroniques soulève des préoccupations en matière de confidentialité et nécessite des mesures robustes de protection des données. Les implications à long terme du recours à l'IA pour obtenir des informations sur la santé sont encore en train de se développer, ce qui nécessite une évaluation continue de son impact sur les résultats pour les patients et les systèmes de santé.
OpenAI a déclaré que ChatGPT Health est conçu pour compléter, et non remplacer, les soins médicaux traditionnels. L'entreprise s'efforce d'affiner la précision et la sécurité de l'outil, mais l'incident impliquant Sam Nelson souligne l'importance d'une surveillance continue et de considérations éthiques dans le développement et le déploiement de l'IA dans le domaine de la santé. Les développements futurs se concentreront probablement sur l'amélioration de la capacité de l'outil à fournir des informations médicales fiables et sûres, tout en tenant compte des préoccupations en matière de confidentialité et d'éthique.
Discussion
Join the conversation
Be the first to comment