La ironía golpeó al mundo de la IA. GPTZero, una startup de detección de IA, encontró citas alucinadas en artículos presentados en NeurIPS, una de las principales conferencias de IA. La compañía escaneó 4.841 artículos aceptados del evento celebrado el mes pasado en San Diego. Descubrieron 100 citas falsas en 51 artículos.
NeurIPS es un lugar de investigación de IA muy respetado. El hallazgo plantea preguntas sobre el uso de modelos de lenguaje grandes (LLM) en la escritura académica. Si bien 100 citas alucinadas de entre decenas de miles son estadísticamente insignificantes, destaca un problema potencial. Una cita inexacta no invalida la investigación, pero sí socava el rigor académico.
NeurIPS reconoció el problema. Le dijeron a Fortune que incluso con referencias incorrectas, el contenido del artículo no se invalida necesariamente. La conferencia se enorgullece de sus altos estándares. El incidente genera un debate sobre el papel de la IA en la investigación y la necesidad de una cuidadosa verificación de datos.
Los LLM se entrenan con vastos conjuntos de datos. A veces pueden generar información plausible pero falsa, conocida como "alucinaciones". Este incidente subraya la importancia de la supervisión humana al utilizar herramientas de IA. Es probable que la comunidad de IA discuta estos hallazgos y explore formas de prevenir futuras ocurrencias. Se anticipa una mayor investigación y directrices actualizadas para la investigación asistida por IA.
Discussion
Join the conversation
Be the first to comment