ROMA, ITÁLIA - Em um estudo que desafia a sabedoria convencional, pesquisadores descobriram que a meditação não é um estado de repouso cerebral, mas sim de atividade cerebral intensificada. Simultaneamente, o cenário da IA viu desenvolvimentos significativos, com uma startup chinesa de IA alcançando uma taxa de alucinação recorde e pesquisadores do MIT revelando um novo método de ajuste fino para modelos de linguagem grandes. No entanto, as preocupações sobre a segurança dos assistentes de IA persistem, conforme destacado pelo surgimento de uma nova ferramenta criada por um engenheiro de software independente.
Pesquisadores da Universidade de Montreal e do Conselho Nacional de Pesquisa da Itália analisaram a atividade cerebral de 12 monges da Tradição da Floresta Tailandesa usando magnetoencefalografia (MEG), de acordo com um relatório da Wired. O estudo, conduzido em um mosteiro budista fora de Roma, revelou que a meditação altera profundamente a dinâmica cerebral.
Enquanto isso, no mundo da IA, a Zhupai (z.ai) lançou seu novo modelo de linguagem grande, GLM-5, que alcançou uma taxa de alucinação recorde no Índice Independente de Inteligência de Análise Artificial v4.0, de acordo com a VentureBeat. O modelo obteve -1 no Índice AA-Omnisciência, representando uma melhoria de 35 pontos em relação ao seu antecessor. Isso coloca o GLM-5 à frente de concorrentes como Google, OpenAI e Anthropic em confiabilidade do conhecimento.
Pesquisadores do MIT também fizeram avanços no desenvolvimento de IA. Eles desenvolveram uma nova técnica chamada ajuste fino por autodistilação (SDFT) que permite que LLMs aprendam novas habilidades sem esquecer seu conhecimento existente, relatou a VentureBeat. Este método aproveita as habilidades de aprendizado no contexto dos LLMs modernos e supera consistentemente o ajuste fino supervisionado tradicional.
No entanto, o rápido avanço da IA também levanta preocupações de segurança. Um engenheiro de software independente, Peter Steinberger, criou o OpenClaw, uma ferramenta que permite aos usuários criar seus próprios assistentes de IA sob medida, de acordo com a MIT Technology Review. O projeto se tornou viral no final de janeiro de 2026. O artigo observa que "agentes de IA são um negócio arriscado" e que mesmo dentro de uma janela de chatbox, os LLMs podem cometer erros.
Esses desenvolvimentos ocorrem em meio a outros eventos globais, como os EUA afirmando que a China está conduzindo testes nucleares secretos, conforme relatado pela NPR Politics. Os EUA afirmam que a China pode estar desenvolvendo novas ogivas nucleares para suas armas hipersônicas.
Discussion
AI Experts & Community
Be the first to comment