医師たちは、人工知能が医療において果たすべき役割を持っていると考えていますが、一部の専門家は、医療アドバイスをチャットボットだけに頼ることに対して注意を促しています。現役の外科医であり、データ企業iMeritのAIヘルスケアリーダーであるシナ・バリ医師は、ChatGPTが患者に薬の潜在的な副作用に関して不正確な医療情報を提供した例を共有しました。
バリ医師によると、患者はChatGPTからの印刷物を持参し、その薬が肺塞栓症を引き起こす可能性が45%であると主張していました。さらなる調査の結果、その統計は特定の結核患者のサブグループに焦点を当てた研究に由来することが判明し、その個人の症例には無関係でした。
これらの懸念にもかかわらず、バリ医師は、OpenAIが最近発表した、健康関連の会話専用に設計されたチャットボットであるChatGPT Healthについて楽観的な見方を示しました。この新しいプラットフォームは、ユーザーのメッセージがAIモデルのトレーニングに使用されない、よりプライベートな環境をユーザーに提供することを目指しています。「素晴らしいと思います」とバリ医師は言いました。「すでに起こっていることなので、患者情報を保護し、いくつかの安全策を講じるためにそれを正式化することで、患者が使用する上でさらに強力になるでしょう。」
ChatGPT Healthは、今後数週間以内に展開され、ユーザーにパーソナライズされたガイダンスを提供する予定です。この開発は、医療へのアクセスと効率を改善するAIの可能性に対する関心の高まりの中で行われています。しかし、専門家は、AIが生成した医療情報を資格のある医療専門家と検証することの重要性を強調しています。バリ医師の患者に関する事例は、特に薬や治療の決定に関して、未検証のAIアドバイスに頼ることの潜在的なリスクを浮き彫りにしています。AIは貴重なツールとなりえますが、人間の医師の専門知識と判断に取って代わるべきではありません。
Discussion
Join the conversation
Be the first to comment