Новая модель Qwen 3.5 от Alibaba бросает вызов корпоративному ландшафту ИИ, демонстрируя победы в бенчмарках над собственной флагманской моделью, работая при этом за долю от стоимости, сообщает VentureBeat. Выпуск, приуроченный к Лунному Новому году, знаменует собой важный момент для ИТ-лидеров, оценивающих инфраструктуру ИИ на 2026 год. Одновременно Anthropic выпустила Claude Sonnet 4.6, предлагающую интеллект, близкий к флагманскому, по цене среднего уровня, а Google DeepMind призывает к усилению контроля за моральным поведением больших языковых моделей.
Qwen 3.5, которая содержит 397 миллиардов общих параметров, но активирует только 17 миллиардов на токен, заявляет о победах в бенчмарках над предыдущей флагманской моделью Alibaba, Qwen3-Max, моделью, которая, по признанию компании, превысила один триллион параметров, сообщает VentureBeat. Это представляет собой убедительный аргумент для покупателей корпоративного ИИ, предполагая, что модель, которую они могут запускать, владеть и контролировать, теперь может конкурировать с более дорогими вариантами.
Claude Sonnet 4.6 от Anthropic, выпущенная во вторник, призвана ускорить внедрение в корпоративной среде, обеспечивая интеллект, близкий к флагманскому, по цене среднего уровня. Модель имеет контекстное окно в 1 миллион токенов в бета-версии и теперь является моделью по умолчанию в claude.ai и Claude Cowork. Ценообразование остается стабильным на уровне 315 долларов США за миллион токенов, как и у ее предшественницы, Sonnet 4.5, сообщает VentureBeat. "Она обеспечивает интеллект, близкий к флагманскому, по цене среднего уровня, и оказывается в самом центре беспрецедентного корпоративного стремления развернуть ИИ-агентов и инструменты автоматизированного кодирования", - заявила VentureBeat.
Эти достижения происходят в то время, когда отрасль борется со сложностями развертывания ИИ в высокорискованных областях. LexisNexis, например, перешла от стандартной генерации с расширенным извлечением (RAG) к графическому RAG и агентным графам, чтобы удовлетворить потребность в точности, релевантности, авторитетности и точности цитирования, сообщает VentureBeat. "Не существует идеального ИИ, потому что вы никогда не получите 100% точности или 100% релевантности, особенно в сложных, высокорискованных областях, таких как юриспруденция", - сообщает VentureBeat.
Тем временем Google DeepMind выступает за усиление контроля за моральным поведением больших языковых моделей. По мере того, как LLM совершенствуются и берут на себя более деликатные роли, такие как компаньоны, терапевты и медицинские консультанты, Google DeepMind хочет обеспечить надежность технологии. "В кодировании и математике у вас есть четкие, правильные ответы, которые вы можете проверить", - сказал Уильям Айзек, научный сотрудник Google DeepMind, в интервью MIT Technology Review.
AI Experts & Community
Be the first to comment