O modelo de IA Claude da Anthropic, utilizando dezesseis agentes trabalhando em conjunto, criou com sucesso um novo compilador C do zero em um período de duas semanas, de acordo com uma publicação recente no blog do pesquisador da Anthropic, Nicholas Carlini. O projeto, que custou aproximadamente $20.000 em taxas de API, demonstra as crescentes capacidades dos agentes de IA em tarefas de codificação complexas.
Os agentes de IA, rodando no modelo Claude Opus 4.6 da Anthropic, receberam supervisão mínima e foram encarregados de construir o compilador. O projeto resultou em uma base de código de 10.000 linhas. Essa conquista destaca os avanços nas ferramentas de IA multi-agente, com a Anthropic e a OpenAI lançando ferramentas semelhantes recentemente.
Em outras notícias, advogados de defesa estão buscando acesso aos arquivos de investigação relacionados ao assassinato de Renee Nicole Good pelo agente da ICE Jonathan Ross. Os advogados, representando Roberto Carlos Muñoz-Guatemala, que foi condenado por agredir Ross, estão solicitando registros de treinamento e arquivos de investigação relacionados ao tiroteio de 7 de janeiro. Os advogados de Muñoz-Guatemala estão buscando entender as circunstâncias em torno da morte de Good, pois Ross foi o mesmo oficial envolvido em ambos os incidentes.
Enquanto isso, o "momento OpenClaw" significa a primeira vez que agentes de IA autônomos passaram com sucesso do laboratório para a força de trabalho geral. Originalmente desenvolvido como "Clawdbot" pelo engenheiro Peter Steinberger, o framework evoluiu para "Moltbot" antes de se estabelecer como "OpenClaw" no final de janeiro de 2026. Ao contrário dos chatbots anteriores, o OpenClaw é projetado com a capacidade de executar comandos shell, gerenciar arquivos locais e navegar em plataformas de mensagens com permissões persistentes de nível root.
Um relatório separado detalha uma nova cadeia de ataque, apelidada de pivô de gerenciamento de identidade e acesso (IAM), que pode comprometer ambientes de nuvem em questão de minutos. De acordo com a pesquisa da CrowdStrike Intelligence publicada em 29 de janeiro, o ataque começa com uma mensagem aparentemente legítima no LinkedIn. O desenvolvedor é então enganado para instalar um pacote malicioso que exfiltra credenciais da nuvem, concedendo ao adversário acesso ao ambiente da nuvem.
Finalmente, pesquisadores da Stanford, Nvidia e Together AI desenvolveram uma nova técnica, chamada Test-Time Training to Discover (TTT-Discover), que otimiza kernels de GPU. A técnica permite que o modelo continue treinando durante o processo de inferência, atualizando seus pesos para o problema específico. Essa abordagem permitiu que os pesquisadores otimizassem um kernel de GPU crítico para rodar duas vezes mais rápido que o estado da arte anterior, que foi escrito por especialistas humanos. Isso desafia as atuais estratégias de IA empresarial que frequentemente dependem de modelos "congelados", de acordo com os pesquisadores.
Discussion
AI Experts & Community
Be the first to comment