Durante casi dos décadas, las personas que experimentan nuevos síntomas médicos han recurrido comúnmente a las búsquedas en línea, una práctica a menudo llamada despectivamente "Dr. Google". Este enfoque está evolucionando ahora, ya que muchos buscan información médica en los Modelos de Lenguaje Grandes (LLM). OpenAI informa que 230 millones de personas plantean consultas relacionadas con la salud a ChatGPT cada semana, lo que prepara el terreno para el reciente lanzamiento del producto ChatGPT Health de OpenAI a principios de este mes.
El debut de ChatGPT Health se vio ensombrecido por un informe de SFGate que detallaba la muerte de Sam Nelson, un adolescente que sufrió una sobredosis después de consultar con ChatGPT sobre la combinación de drogas. Esta noticia llevó a los periodistas a cuestionar la seguridad de confiar en herramientas de IA para obtener consejos médicos. A pesar de ser una función separada dentro de ChatGPT, ChatGPT Health no es un nuevo modelo de IA, sino más bien una aplicación guiada de los modelos existentes, equipada con herramientas para proporcionar consejos de salud, incluido el acceso a los registros médicos electrónicos de los usuarios.
El auge del "Dr. Google" reflejó el deseo de obtener información de salud de fácil acceso, pero también presentó desafíos, incluida la difusión de información errónea y el potencial de diagnóstico erróneo. Los LLM como ChatGPT Health pretenden mejorar esto proporcionando información más estructurada y potencialmente personalizada. Sin embargo, el incidente relacionado con Sam Nelson destaca la necesidad crítica de precaución y supervisión.
Los expertos enfatizan que, si bien la IA puede ayudar en la atención médica, no debe reemplazar el consejo médico profesional. La integración de los registros médicos electrónicos plantea preocupaciones sobre la privacidad y exige medidas sólidas de protección de datos. Las implicaciones a largo plazo de confiar en la IA para obtener información de salud aún se están desarrollando, lo que requiere una evaluación continua de su impacto en los resultados de los pacientes y los sistemas de atención médica.
OpenAI ha declarado que ChatGPT Health está diseñado para complementar, no reemplazar, la atención médica tradicional. La compañía está trabajando para refinar la precisión y la seguridad de la herramienta, pero el incidente relacionado con Sam Nelson subraya la importancia del monitoreo continuo y las consideraciones éticas en el desarrollo y la implementación de la IA en la atención médica. Los desarrollos futuros probablemente se centrarán en mejorar la capacidad de la herramienta para proporcionar información médica confiable y segura, al tiempo que se abordan las preocupaciones éticas y de privacidad.
Discussion
Join the conversation
Be the first to comment