अलीबाबा का नया Qwen 3.5 मॉडल उद्यम AI परिदृश्य को चुनौती दे रहा है, जो अपने ही प्रमुख मॉडल के खिलाफ बेंचमार्क जीत का दावा करता है, जबकि लागत के एक अंश पर काम करता है, वेंचरबीट के अनुसार। यह रिलीज, चंद्र नव वर्ष के साथ मेल खाने के लिए समयबद्ध है, जो 2026 के लिए AI बुनियादी ढांचे का मूल्यांकन करने वाले IT नेताओं के लिए एक महत्वपूर्ण क्षण है। साथ ही, एंथ्रोपिक ने क्लाउड सोनेट 4.6 जारी किया, जो मध्य-स्तरीय लागत पर लगभग-प्रमुख बुद्धिमत्ता प्रदान करता है, और Google DeepMind बड़े भाषा मॉडल के नैतिक व्यवहार की बढ़ती जांच की मांग कर रहा है।
Qwen 3.5, जिसमें कुल 397 बिलियन पैरामीटर हैं, लेकिन प्रति टोकन केवल 17 बिलियन सक्रिय होते हैं, अलीबाबा के पिछले प्रमुख, Qwen3-Max के खिलाफ बेंचमार्क जीत का दावा कर रहा है, एक मॉडल जिसे कंपनी ने स्वीकार किया कि एक ट्रिलियन से अधिक पैरामीटर हैं, वेंचरबीट ने रिपोर्ट किया। यह उद्यम AI खरीदारों के लिए एक सम्मोहक तर्क प्रस्तुत करता है, जो सुझाव देता है कि एक मॉडल जिसे वे चला सकते हैं, स्वामित्व कर सकते हैं और नियंत्रित कर सकते हैं, अब अधिक महंगे विकल्पों के साथ प्रतिस्पर्धा कर सकता है।
एंथ्रोपिक का क्लाउड सोनेट 4.6, मंगलवार को जारी किया गया, मध्य-स्तरीय लागत पर लगभग-प्रमुख बुद्धिमत्ता प्रदान करके उद्यम अपनाने में तेजी लाने के लिए तैयार है। मॉडल में बीटा में 1M टोकन संदर्भ विंडो है और अब claude.ai और Claude Cowork में डिफ़ॉल्ट मॉडल है। वेंचरबीट के अनुसार, मूल्य निर्धारण $315 प्रति मिलियन टोकन पर स्थिर रहता है, जो इसके पूर्ववर्ती, सोनेट 4.5 के समान है। "यह मध्य-स्तरीय लागत पर लगभग-प्रमुख बुद्धिमत्ता प्रदान करता है, और यह AI एजेंटों और स्वचालित कोडिंग टूल को तैनात करने के लिए एक अभूतपूर्व कॉर्पोरेट भीड़ के बीच में आता है," वेंचरबीट ने कहा।
ये प्रगति ऐसे समय में आई है जब उद्योग उच्च-दांव वाले डोमेन में AI को तैनात करने की जटिलताओं से जूझ रहा है। उदाहरण के लिए, लेक्सिसनेक्सिस, सटीकता, प्रासंगिकता, अधिकार और उद्धरण सटीकता की आवश्यकता को पूरा करने के लिए मानक पुनर्प्राप्ति-संवर्धित पीढ़ी (RAG) से आगे ग्राफ RAG और एजेंटिक ग्राफ में विकसित हुआ है, जैसा कि वेंचरबीट द्वारा रिपोर्ट किया गया है। वेंचरबीट के अनुसार, "परफेक्ट AI जैसी कोई चीज नहीं है क्योंकि आपको कभी भी 100 सटीकता या 100 प्रासंगिकता नहीं मिलती है, खासकर जटिल, उच्च-दांव वाले डोमेन जैसे कानूनी में।"
इस बीच, Google DeepMind बड़े भाषा मॉडल के नैतिक व्यवहार की बढ़ती जांच की वकालत कर रहा है। जैसे-जैसे LLM में सुधार होता है और वे साथियों, चिकित्सकों और चिकित्सा सलाहकारों जैसी अधिक संवेदनशील भूमिकाएँ निभाते हैं, Google DeepMind यह सुनिश्चित करना चाहता है कि तकनीक विश्वसनीय हो। Google DeepMind के एक शोध वैज्ञानिक विलियम आइजैक ने MIT टेक्नोलॉजी रिव्यू को बताया, "कोडिंग और गणित के साथ, आपके पास स्पष्ट, सही उत्तर हैं जिन्हें आप जांच सकते हैं।"
AI Experts & Community
Be the first to comment