Selon OpenAI, environ 230 millions de personnes utilisent ChatGPT chaque semaine pour poser des questions liées à la santé. Cette augmentation des demandes de renseignements sur la santé via l'IA survient alors qu'OpenAI a récemment lancé son produit ChatGPT Health au début du mois, soulevant des questions sur les avantages et les risques potentiels de l'utilisation de grands modèles linguistiques (LLM) pour l'information médicale.
Depuis deux décennies, les personnes présentant de nouveaux symptômes médicaux se tournent couramment vers Internet pour obtenir des informations, une pratique souvent appelée « Dr. Google ». Désormais, les LLM deviennent de plus en plus une source de requêtes liées à la santé, ce qui suscite un débat sur la question de savoir si les risques inhérents à l'utilisation de l'IA dans ce contexte peuvent être atténués de manière adéquate.
L'utilisation de l'IA pour l'information sur la santé comporte des risques potentiels, notamment la génération d'informations inexactes ou trompeuses. Les experts soulignent l'importance d'évaluer attentivement la fiabilité et l'exactitude des conseils de santé générés par l'IA.
Parallèlement, les États-Unis sont confrontés à des conflits internes croissants concernant la réglementation de l'intelligence artificielle. Fin 2025, les tensions ont atteint un point critique lorsque le Congrès n'a pas adopté de loi interdisant les lois étatiques sur l'IA. Par la suite, le président de l'époque, Donald Trump, a signé un décret le 11 décembre 2025, visant à empêcher les États de réglementer l'industrie de l'IA en pleine croissance, soulignant la lutte continue pour établir une approche unifiée de la gouvernance de l'IA à travers le pays. Le décret visait à empêcher un ensemble disparate de réglementations au niveau des États qui pourraient étouffer l'innovation et créer des difficultés de conformité pour les entreprises d'IA. Cette décision a immédiatement suscité une controverse, certains États s'engageant à contester le décret devant les tribunaux, arguant qu'il outrepassait l'autorité fédérale et portait atteinte à leur droit de protéger leurs citoyens contre les risques potentiels associés à l'IA.
Discussion
Join the conversation
Be the first to comment