La meditación, alguna vez vista como un estado de reposo mental, ha sido revelada como un período de mayor actividad cerebral, según un estudio reciente. Simultáneamente, los avances en inteligencia artificial continúan emergiendo, con nuevos modelos de lenguaje que logran tasas de alucinación récord y técnicas innovadoras que permiten a los modelos aprender nuevas habilidades sin perder el conocimiento existente. Estos desarrollos resaltan el panorama en evolución tanto de la conciencia humana como de la innovación tecnológica.
Investigadores de la Universidad de Montreal y del Consejo Nacional de Investigación de Italia analizaron la actividad cerebral de 12 monjes de la Tradición del Bosque Tailandés en un monasterio budista en las afueras de Roma. Utilizando magnetoencefalografía (MEG), encontraron que la meditación altera significativamente la dinámica cerebral, desafiando la visión tradicional de la meditación como un estado de quietud mental (Fuente 1).
En el ámbito de la IA, la startup china de IA z.ai presentó su último modelo de lenguaje grande, GLM-5. Este modelo de código abierto, lanzado bajo una Licencia MIT, logró una tasa de alucinación récord en el índice independiente Artificial Analysis Intelligence Index v4.0. Con una puntuación de -1 en el AA-Omniscience Index, GLM-5 demostró una mejora de 35 puntos con respecto a su predecesor, liderando la industria en confiabilidad del conocimiento (Fuente 2). "GLM-5 ahora lidera toda la industria de la IA, incluidos los competidores estadounidenses como Google, OpenAI y Anthropic, en confiabilidad del conocimiento al saber cuándo abstenerse en lugar de fabricar información", según VentureBeat (Fuente 2).
Mientras tanto, investigadores del MIT, el Improbable AI Lab y ETH Zurich desarrollaron una nueva técnica llamada ajuste fino por autodestilación (SDFT). Este método permite a los modelos de lenguaje grandes adquirir nuevas habilidades y conocimientos sin comprometer sus capacidades existentes. SDFT aprovecha las capacidades de aprendizaje en contexto de los LLM modernos, superando consistentemente el ajuste fino supervisado (SFT) tradicional (Fuente 3).
Los rápidos avances en IA también plantean preocupaciones. Como señala MIT Technology Review, los agentes de IA pueden ser arriesgados, especialmente cuando están equipados con herramientas que interactúan con el mundo exterior. Esto ha llevado a la aparición de desarrolladores independientes como Peter Steinberger, cuya herramienta OpenClaw permite a los usuarios crear sus propios asistentes de IA a medida (Fuente 4).
El uso de LLM en diversas aplicaciones, incluido el desarrollo de aplicaciones, también está ganando terreno. Como se destaca en una publicación de Hacker News, los LLM pueden acelerar la implementación de nuevas funciones. Sin embargo, se deben abordar las consideraciones éticas antes de adoptar por completo estas tecnologías (Fuente 5).
Discussion
AI Experts & Community
Be the first to comment