Meditação, antes vista como um estado de repouso mental, foi revelada como um período de maior atividade cerebral, de acordo com um estudo recente. Simultaneamente, os avanços em inteligência artificial continuam a surgir, com novos modelos de linguagem alcançando taxas recorde de baixa alucinação e técnicas inovadoras permitindo que os modelos aprendam novas habilidades sem perder o conhecimento existente. Esses desenvolvimentos destacam o cenário em evolução tanto da consciência humana quanto da inovação tecnológica.
Pesquisadores da Universidade de Montreal e do Conselho Nacional de Pesquisa da Itália analisaram a atividade cerebral de 12 monges da Tradição da Floresta Tailandesa em um mosteiro budista fora de Roma. Usando magnetoencefalografia (MEG), eles descobriram que a meditação altera significativamente a dinâmica cerebral, desafiando a visão tradicional da meditação como um estado de quiescência mental (Fonte 1).
No reino da IA, a startup chinesa de IA z.ai revelou seu mais recente modelo de linguagem grande, GLM-5. Este modelo de código aberto, lançado sob uma Licença MIT, alcançou uma taxa de alucinação recorde no independente Artificial Analysis Intelligence Index v4.0. Com uma pontuação de -1 no AA-Omniscience Index, o GLM-5 demonstrou uma melhoria de 35 pontos em relação ao seu antecessor, liderando a indústria em confiabilidade do conhecimento (Fonte 2). "O GLM-5 agora lidera toda a indústria de IA, incluindo concorrentes dos EUA como Google, OpenAI e Anthropic, em confiabilidade do conhecimento, sabendo quando se abster em vez de fabricar informações", de acordo com a VentureBeat (Fonte 2).
Enquanto isso, pesquisadores do MIT, do Improbable AI Lab e da ETH Zurich desenvolveram uma nova técnica chamada self-distillation fine-tuning (SDFT). Este método permite que modelos de linguagem grandes adquiram novas habilidades e conhecimento sem comprometer suas capacidades existentes. SDFT aproveita as habilidades de aprendizado no contexto dos LLMs modernos, superando consistentemente o fine-tuning supervisionado tradicional (SFT) (Fonte 3).
Os rápidos avanços em IA também trazem preocupações. Como observado pela MIT Technology Review, os agentes de IA podem ser arriscados, especialmente quando equipados com ferramentas que interagem com o mundo exterior. Isso levou ao surgimento de desenvolvedores independentes como Peter Steinberger, cuja ferramenta OpenClaw permite que os usuários criem seus próprios assistentes de IA sob medida (Fonte 4).
O uso de LLMs em várias aplicações, incluindo o desenvolvimento de aplicativos, também está ganhando força. Como destacado em um post do Hacker News, os LLMs podem acelerar a implementação de novos recursos. No entanto, considerações éticas devem ser abordadas antes de abraçar totalmente essas tecnologias (Fonte 5).
Discussion
AI Experts & Community
Be the first to comment