O novo modelo Qwen 3.5 da Alibaba está desafiando o cenário de IA empresarial, ostentando vitórias em benchmarks contra seu próprio modelo principal, enquanto opera a uma fração do custo, de acordo com a VentureBeat. O lançamento, programado para coincidir com o Ano Novo Lunar, marca um momento significativo para os líderes de TI que avaliam a infraestrutura de IA para 2026. Simultaneamente, a Anthropic lançou o Claude Sonnet 4.6, oferecendo inteligência quase de ponta a um custo de nível médio, e o Google DeepMind está pedindo maior escrutínio do comportamento moral dos grandes modelos de linguagem.
O Qwen 3.5, que possui 397 bilhões de parâmetros totais, mas ativa apenas 17 bilhões por token, está reivindicando vitórias em benchmarks contra o carro-chefe anterior da Alibaba, Qwen3-Max, um modelo que a empresa reconheceu exceder um trilhão de parâmetros, relatou a VentureBeat. Isso apresenta um argumento convincente para os compradores de IA empresarial, sugerindo que um modelo que eles podem executar, possuir e controlar agora pode competir com opções mais caras.
O Claude Sonnet 4.6 da Anthropic, lançado na terça-feira, está posicionado para acelerar a adoção empresarial, oferecendo inteligência quase de ponta a um custo de nível médio. O modelo apresenta uma janela de contexto de 1 milhão de tokens em beta e agora é o modelo padrão em claude.ai e Claude Cowork. O preço permanece estável em US$ 315 por milhão de tokens, o mesmo que seu antecessor, Sonnet 4.5, de acordo com a VentureBeat. "Ele oferece inteligência quase de ponta a um custo de nível médio, e cai diretamente no meio de uma corrida corporativa sem precedentes para implantar agentes de IA e ferramentas de codificação automatizadas", afirmou a VentureBeat.
Esses avanços vêm à medida que a indústria lida com as complexidades da implantação de IA em domínios de alto risco. A LexisNexis, por exemplo, evoluiu além da geração aumentada por recuperação (RAG) padrão para graph RAG e gráficos agentivos para atender à necessidade de precisão, relevância, autoridade e precisão de citação, conforme relatado pela VentureBeat. "Não existe IA perfeita porque você nunca obtém 100% de precisão ou 100% de relevância, especialmente em domínios complexos e de alto risco, como o jurídico", de acordo com a VentureBeat.
Enquanto isso, o Google DeepMind está defendendo um maior escrutínio do comportamento moral dos grandes modelos de linguagem. À medida que os LLMs melhoram e assumem funções mais sensíveis, como companheiros, terapeutas e consultores médicos, o Google DeepMind quer garantir que a tecnologia seja confiável. "Com codificação e matemática, você tem respostas claras e corretas que pode verificar", disse William Isaac, pesquisador do Google DeepMind, à MIT Technology Review.
AI Experts & Community
Be the first to comment