Недавно компания OpenAI запустила ChatGPT Health, новый продукт, предназначенный для предоставления медицинских консультаций, на фоне растущей обеспокоенности по поводу надежности медицинской информации, генерируемой искусственным интеллектом. Запуск, который состоялся в начале этого месяца, произошел в то время, когда, по данным OpenAI, около 230 миллионов человек еженедельно уже используют ChatGPT для запросов, связанных со здоровьем. Это событие происходит в период, когда использование ИИ для медицинских консультаций находится под пристальным вниманием.
Представление ChatGPT Health было омрачено репортажем SFGate, в котором подробно рассказывалось о смерти подростка, Сэма Нельсона, который, как сообщается, обращался к ChatGPT за советом по поводу сочетания лекарств перед передозировкой в прошлом году. Этот инцидент вызвал дебаты среди журналистов и экспертов относительно безопасности и этических последствий использования ИИ для получения медицинских рекомендаций.
ChatGPT Health – это не новая модель ИИ, а скорее специализированный интерфейс, построенный на основе существующих моделей OpenAI. Эта "обертка", как ее называют, предоставляет ИИ конкретные инструкции и инструменты, адаптированные для запросов, связанных со здоровьем. Он также может получить доступ к электронным медицинским картам пользователя, потенциально предлагая более персонализированные советы.
Рост популярности поиска симптомов в Интернете, часто называемый "Доктор Google", является распространенной практикой в течение последних двух десятилетий. Однако переход к использованию больших языковых моделей (LLM), таких как ChatGPT, поднимает новые вопросы о точности и подотчетности. В отличие от традиционных поисковых систем, которые предоставляют ссылки на различные источники, LLM синтезируют информацию и предлагают прямые ответы, которые могут быть вводящими в заблуждение или даже вредными, если исходные данные содержат ошибки или предвзяты.
Эксперты подчеркивают важность понимания ограничений ИИ в здравоохранении. Хотя ИИ может обрабатывать огромные объемы данных и выявлять закономерности, ему не хватает критического мышления и тонкого суждения, присущих врачу. Потенциал для неправильной диагностики, неверных рекомендаций по лечению и распространения дезинформации вызывает серьезные опасения.
Текущий статус ChatGPT Health находится на ранней стадии, и OpenAI еще не опубликовала подробную информацию о процессе валидации или мерах безопасности. Компания сталкивается с задачей обеспечения того, чтобы ИИ предоставлял точные, надежные и непредвзятые медицинские консультации, а также защищал конфиденциальность пользователей и безопасность данных. Будущие разработки, вероятно, будут сосредоточены на совершенствовании алгоритмов ИИ, учете отзывов медицинских работников и установлении четких правил его использования в медицинских учреждениях.
Discussion
Join the conversation
Be the first to comment