Claude Opus 4.6 da Anthropic Desafia o Codex da OpenAI em Meio a Uma Reviravolta na Indústria de IA
A Anthropic lançou o Claude Opus 4.6 na quinta-feira, uma atualização significativa de seu principal modelo de inteligência artificial, posicionando-o como um concorrente direto do Codex da OpenAI, de acordo com a VentureBeat. O lançamento ocorre em meio a um período volátil para a indústria de IA e os mercados globais de software, com investidores atribuindo uma recente queda de US$ 285 bilhões em ações de software e serviços, em parte, aos temores de que as ferramentas de IA possam interromper os negócios de software empresarial estabelecidos.
O Claude Opus 4.6 possui uma janela de contexto de 1 milhão de tokens e "equipes de agentes", permitindo que ele planeje com mais cuidado e sustente fluxos de trabalho autônomos mais longos, informou a VentureBeat. A Anthropic afirma que seu modelo supera os concorrentes, incluindo o GPT-5.2 da OpenAI, em benchmarks empresariais importantes. Este lançamento ocorreu apenas três dias depois que a OpenAI lançou seu aplicativo de desktop Codex, desafiando diretamente o ímpeto do Claude Code da Anthropic.
Enquanto isso, a OpenAI anunciou o GPT-5.3-Codex, uma nova versão de seu modelo de codificação, acessível via linha de comando, extensão IDE, interface web e um novo aplicativo de desktop macOS, de acordo com a Ars Technica. Embora o acesso à API ainda não esteja disponível, espera-se que chegue em breve. Os testes da OpenAI indicam que o GPT-5.3-Codex supera o GPT-5.2-Codex e o GPT-5.2 em benchmarks como SWE-Bench Pro e Terminal-Bench 2.0. A Ars Technica alertou contra o exagero das capacidades do modelo, observando que as alegações de que o Codex está se construindo são um exagero. Os domínios que a OpenAI descreveu usando-o são semelhantes aos vistos em algumas outras empresas de desenvolvimento de software empresarial agora: gerenciamento de implantações, depuração.
Em avanços relacionados à IA, pesquisadores de Stanford, Nvidia e Together AI desenvolveram uma nova técnica chamada Test-Time Training to Discover (TTT-Discover) que otimiza os kernels de GPU, informou a VentureBeat. Essa técnica permite que os modelos continuem treinando durante o processo de inferência, atualizando seus pesos para o problema específico em questão. O TTT-Discover otimizou um kernel de GPU crítico para rodar duas vezes mais rápido do que o estado da arte anterior escrito por especialistas humanos.
O rápido desenvolvimento das capacidades de IA está sendo acompanhado de perto pela comunidade de IA. A METR, uma organização sem fins lucrativos de pesquisa em IA, atualiza um gráfico que sugere que certas capacidades de IA estão se desenvolvendo em um ritmo exponencial, de acordo com a MIT Technology Review. O gráfico tem desempenhado um papel importante no discurso da IA desde seu primeiro lançamento em março do ano passado. O Claude Opus 4.5, a versão anterior do modelo mais poderoso da Anthropic, superou essa tendência já impressionante.
As empresas estão adotando cada vez mais soluções de IA, muitas vezes sobrepondo-as à infraestrutura existente, de acordo com a MIT Technology Review. Isso levou a ecossistemas de TI complexos que podem ser desafiadores de gerenciar.
Discussion
AI Experts & Community
Be the first to comment