거의 20년 동안 새로운 의학적 증상을 경험하는 사람들은 흔히 온라인 검색에 의존해 왔으며, 이러한 행태는 종종 경멸적으로 "구글 박사"라고 불립니다. 이제 많은 사람들이 대규모 언어 모델(LLM)에서 의료 정보를 찾으면서 이러한 접근 방식이 진화하고 있습니다. OpenAI는 매주 2억 3천만 명이 ChatGPT에 건강 관련 질문을 하고 있으며, 이는 이달 초 OpenAI의 ChatGPT Health 제품 출시의 발판을 마련했다고 보고합니다.
ChatGPT Health의 출시는 SFGate의 보도로 인해 가려졌는데, 이 보도는 약물 조합에 대해 ChatGPT와 상담한 후 과다 복용으로 사망한 십대 샘 넬슨의 사망을 자세히 다루었습니다. 이 소식은 언론인들로 하여금 의료 조언을 위해 AI 도구에 의존하는 것의 안전성에 의문을 제기하게 했습니다. ChatGPT Health는 ChatGPT 내의 별도 기능이지만 새로운 AI 모델이 아니라 기존 모델의 안내형 애플리케이션으로, 사용자의 전자 의료 기록에 대한 액세스를 포함하여 건강 조언을 제공하는 도구를 갖추고 있습니다.
"구글 박사"의 부상은 쉽게 접근할 수 있는 건강 정보에 대한 욕구를 반영했지만, 오보의 확산과 오진의 가능성을 포함한 문제점도 제시했습니다. ChatGPT Health와 같은 LLM은 보다 구조화되고 잠재적으로 개인화된 정보를 제공함으로써 이를 개선하는 것을 목표로 합니다. 그러나 샘 넬슨과 관련된 사건은 주의와 감독의 중요한 필요성을 강조합니다.
전문가들은 AI가 의료를 지원할 수 있지만 전문적인 의료 조언을 대체해서는 안 된다고 강조합니다. 전자 의료 기록의 통합은 개인 정보 보호 문제를 제기하고 강력한 데이터 보호 조치를 필요로 합니다. 건강 정보를 위해 AI에 의존하는 것의 장기적인 영향은 아직 밝혀지지 않고 있으며, 환자 결과 및 의료 시스템에 미치는 영향에 대한 지속적인 평가가 필요합니다.
OpenAI는 ChatGPT Health가 기존 의료를 대체하는 것이 아니라 보완하도록 설계되었다고 밝혔습니다. 회사는 도구의 정확성과 안전성을 개선하기 위해 노력하고 있지만 샘 넬슨과 관련된 사건은 의료 분야에서 AI 개발 및 배포 시 지속적인 모니터링과 윤리적 고려 사항의 중요성을 강조합니다. 향후 개발은 개인 정보 보호 및 윤리적 문제를 해결하면서 신뢰할 수 있고 안전한 의료 정보를 제공하는 도구의 능력을 향상시키는 데 중점을 둘 가능성이 높습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요