अबू धाबी स्थित टेक्नोलॉजी इनोवेशन इंस्टीट्यूट (TII) ने Falcon H1R 7B जारी किया है, जो 7 बिलियन पैरामीटर वाला एक भाषा मॉडल है। संगठन का दावा है कि यह मॉडल तर्क संबंधी कार्यों में अपने आकार से लगभग सात गुना बड़े मॉडलों को टक्कर देता है और उनसे बेहतर प्रदर्शन करता है। यह मॉडल जेनरेटिव AI विकास में प्रचलित प्रवृत्ति को चुनौती देता है, जो काफी हद तक तर्क क्षमताओं को बेहतर बनाने के लिए मॉडल के आकार को बढ़ाने पर केंद्रित है।
TII के अनुसार, Falcon H1R 7B एक हाइब्रिड आर्किटेक्चर का उपयोग करके यह प्रदर्शन हासिल करता है, जो शुद्ध ट्रांसफॉर्मर आर्किटेक्चर से हटकर है जो इस क्षेत्र में मानक बन गया है। यह आर्किटेक्चरल बदलाव छोटे मॉडल को जटिल तार्किक कटौती और गणितीय प्रमाणों में अलीबाबा के Qwen (32B) और Nvidia के Nemotron (47B) जैसे बड़े मॉडलों के प्रदर्शन के साथ प्रतिस्पर्धा करने और यहां तक कि उनसे आगे निकलने की अनुमति देता है।
Falcon H1R 7B का जारी होना ओपन-वेट AI समुदाय के लिए एक महत्वपूर्ण विकास माना जा रहा है। यह सुझाव देता है कि आर्किटेक्चरल नवाचार और अनुमान-समय स्केलिंग तेजी से महत्वपूर्ण कारक बनते जा रहे हैं, जिससे ध्यान केवल मॉडल में पैरामीटर की संख्या बढ़ाने से हट रहा है। पूरा मॉडल कोड Hugging Face पर उपलब्ध है, और व्यक्ति Falcon Chat, एक चैटबॉट प्लेटफॉर्म पर लाइव डेमो अनुमान के माध्यम से मॉडल का परीक्षण कर सकते हैं।
पिछले दो वर्षों से, जेनरेटिव AI क्षेत्र काफी हद तक इस धारणा के तहत काम कर रहा है कि बड़े मॉडल बेहतर तर्क के बराबर होते हैं। जबकि छोटे मॉडलों (10 बिलियन पैरामीटर से कम) ने संवादी क्षमताएं प्रदर्शित की हैं, लेकिन वे अक्सर अधिक जटिल तर्क कार्यों से जूझते रहे हैं। TII का Falcon H1R 7B इस धारणा को चुनौती देता है, यह दर्शाता है कि एक छोटा, अधिक कुशलता से डिज़ाइन किया गया मॉडल तुलनीय या बेहतर प्रदर्शन प्राप्त कर सकता है।
इस विकास के दूरगामी परिणाम हो सकते हैं। यदि छोटे मॉडल बड़े मॉडलों के समान प्रदर्शन प्राप्त कर सकते हैं, तो इससे AI सिस्टम को प्रशिक्षित और तैनात करने के लिए आवश्यक कम्प्यूटेशनल संसाधनों को कम किया जा सकता है, जिससे वे अधिक सुलभ और टिकाऊ हो जाएंगे। Falcon H1R 7B का जारी होना जेनरेटिव AI के विकास में एक संभावित महत्वपूर्ण मोड़ है, यह सुझाव देता है कि आर्किटेक्चर और दक्षता में नवाचार मॉडल के आकार को बढ़ाने जितना ही महत्वपूर्ण हो सकता है।
Discussion
Join the conversation
Be the first to comment