Um estudo recente do Google revelou que modelos avançados de IA com raciocínio melhoram significativamente a precisão em tarefas complexas ao simular debates internos envolvendo diversas perspectivas, traços de personalidade e expertise de domínio. A pesquisa, conduzida pelo Google e publicada em 30 de janeiro de 2026, demonstrou que essa abordagem de "sociedade de pensamento" aprimora o desempenho do modelo em tarefas complexas de raciocínio e planejamento, de acordo com o VentureBeat.
Os pesquisadores descobriram que modelos de raciocínio líderes, como DeepSeek-R1 e QwQ-32B, treinados por meio de aprendizado por reforço (RL), desenvolvem inerentemente a capacidade de se envolver nesses debates internos sem instrução explícita. Essas descobertas oferecem um roteiro para que os desenvolvedores construam aplicações de Modelo de Linguagem Grande (LLM) mais robustas e para que as empresas treinem modelos superiores usando seus próprios dados internos, informou o VentureBeat.
Em outras notícias de tecnologia, o Shield Android TV da Nvidia, lançado pela primeira vez em 2015, continua a receber atualizações, marcando uma década de suporte ao dispositivo. De acordo com o Ars Technica, esse suporte de longo prazo é um "trabalho de amor" para a empresa. Andrew Bell, vice-presidente sênior de engenharia de hardware da Nvidia, garantiu que a equipe da Nvidia ainda ama o Shield. Esse compromisso com atualizações de longo prazo contrasta com o suporte limitado a atualizações normalmente oferecido para dispositivos Android no passado.
Enquanto isso, o uso de IA para gerar deepfakes tem levantado preocupações éticas. Um estudo de pesquisadores de Stanford e da Indiana University descobriu que uma parcela significativa de solicitações no mercado online Civitaian, apoiado por Andreessen Horowitz, eram para deepfakes de pessoas reais, com 90% dessas solicitações tendo mulheres como alvo, de acordo com o MIT Technology Review. O estudo, que ainda não foi revisado por pares, examinou solicitações de conteúdo no site, chamadas de "recompensas", entre meados de 2023 e o final de 2024. Alguns desses arquivos foram especificamente projetados para criar imagens pornográficas banidas pelo site.
Discussion
Join the conversation
Be the first to comment