ROMA, ITALIA - En un estudio que desafía la sabiduría convencional, los investigadores descubrieron que la meditación no es un estado de reposo cerebral, sino más bien uno de actividad cerebral aumentada. Simultáneamente, el panorama de la IA experimentó desarrollos significativos, con una startup china de IA que logró una tasa de alucinación récord y los investigadores del MIT que presentaron un nuevo método de ajuste fino para modelos de lenguaje grandes. Sin embargo, persisten las preocupaciones sobre la seguridad de los asistentes de IA, como lo destaca la aparición de una nueva herramienta creada por un ingeniero de software independiente.
Investigadores de la Universidad de Montreal y el Consejo Nacional de Investigación de Italia analizaron la actividad cerebral de 12 monjes de la Tradición del Bosque Tailandés utilizando magnetoencefalografía (MEG), según un informe de Wired. El estudio, realizado en un monasterio budista en las afueras de Roma, reveló que la meditación altera profundamente la dinámica cerebral.
Mientras tanto, en el mundo de la IA, Zhupai (z.ai) lanzó su nuevo modelo de lenguaje grande, GLM-5, que logró una tasa de alucinación récord en el Índice de Inteligencia Artificial de Análisis Independiente v4.0, según VentureBeat. El modelo obtuvo -1 en el Índice AA-Omnisciencia, lo que representa una mejora de 35 puntos con respecto a su predecesor. Esto sitúa a GLM-5 por delante de competidores como Google, OpenAI y Anthropic en fiabilidad del conocimiento.
Los investigadores del MIT también lograron avances en el desarrollo de la IA. Desarrollaron una nueva técnica llamada ajuste fino por autodestilación (SDFT) que permite a los LLM aprender nuevas habilidades sin olvidar sus conocimientos existentes, informó VentureBeat. Este método aprovecha las capacidades de aprendizaje en contexto de los LLM modernos y supera consistentemente el ajuste fino supervisado tradicional.
Sin embargo, el rápido avance de la IA también plantea preocupaciones de seguridad. Un ingeniero de software independiente, Peter Steinberger, creó OpenClaw, una herramienta que permite a los usuarios crear sus propios asistentes de IA a medida, según MIT Technology Review. El proyecto se volvió viral a finales de enero de 2026. El artículo señala que "los agentes de IA son un negocio arriesgado" y que incluso dentro de una ventana de chatbox, los LLM pueden cometer errores.
Estos desarrollos se producen en medio de otros eventos globales, como la afirmación de Estados Unidos de que China está llevando a cabo pruebas nucleares secretas, según informó NPR Politics. Estados Unidos afirma que China podría estar desarrollando nuevas ojivas nucleares para sus armas hipersónicas.
Discussion
AI Experts & Community
Be the first to comment