हालिया रिपोर्टों में AI प्रगति और सुरक्षा चिंताओं पर प्रकाश डाला गया
AI क्षेत्र से हाल ही में आई रिपोर्टों और रिलीज़ों की झड़ी AI मॉडल क्षमताओं में तेजी से हो रही प्रगति और उनके साथ आने वाली उभरती सुरक्षा चुनौतियों दोनों को दर्शाती है। बेहतर दस्तावेज़ प्रसंस्करण से लेकर ओपन-सोर्स AI एजेंटों तक, परिदृश्य तेजी से विकसित हो रहा है, जिसके लिए डेवलपर्स, उद्यमों और सुरक्षा पेशेवरों से समान रूप से ध्यान देने की आवश्यकता है।
सैन फ्रांसिस्को स्थित AI लैब, Arcee ने आज तक का अपना सबसे बड़ा ओपन लैंग्वेज मॉडल, Trinity Large जारी किया, जो 400 बिलियन पैरामीटर मिश्रण-विशेषज्ञ (MoE) है। VentureBeat की एक रिपोर्ट के अनुसार, मॉडल पूर्वावलोकन में उपलब्ध है। इसके साथ ही, Arcee ने Trinity-Large-TrueBase भी जारी किया, जो एक "कच्चा" चेकपॉइंट मॉडल है, जो शोधकर्ताओं को 400B विरल MoE की जटिलताओं का अध्ययन करने की अनुमति देता है। VentureBeat के कार्ल फ्रांज़ेन ने उल्लेख किया कि Arcee पिछले साल बड़े लैंग्वेज मॉडल (LLM) को शुरू से प्रशिक्षित करने और उन्हें ओपन या आंशिक रूप से ओपन सोर्स लाइसेंस के तहत जारी करने वाली एकमात्र अमेरिकी कंपनियों में से एक होने के कारण चर्चा में रही थी।
इस बीच, जटिल दस्तावेज़ विश्लेषण के लिए AI का प्रभावी ढंग से उपयोग करने में चुनौतियाँ बनी हुई हैं। VentureBeat के अनुसार, मानक पुनर्प्राप्ति-संवर्धित पीढ़ी (RAG) सिस्टम अक्सर परिष्कृत दस्तावेज़ों के साथ संघर्ष करते हैं, उन्हें पाठ की सपाट स्ट्रिंग के रूप में मानते हैं और "निश्चित आकार के चंकिंग" का उपयोग करते हैं। यह विधि, गद्य के लिए उपयुक्त होने के दौरान, तालिकाओं, कैप्शन और दृश्य पदानुक्रमों को अलग करके तकनीकी मैनुअल के तर्क को बाधित कर सकती है। VentureBeat के बेन डिक्सन ने बताया कि PageIndex नामक एक नया ओपन-सोर्स ढांचा दस्तावेज़ पुनर्प्राप्ति को खोज समस्या के बजाय नेविगेशन समस्या के रूप में मानकर इस समस्या का समाधान करता है, और उन दस्तावेज़ों पर 98.7% सटीकता दर प्राप्त करता है जहाँ वेक्टर खोज विफल हो जाती है।
हालांकि, एजेंटिक AI के उदय से महत्वपूर्ण सुरक्षा जोखिम भी पैदा होते हैं। ओपन-सोर्स AI सहायक, OpenClaw ने 180,000 GitHub स्टार हासिल किए और एक ही सप्ताह में 2 मिलियन विज़िटर आए, इसके निर्माता पीटर स्टीनबर्गर के अनुसार। VentureBeat के लुईस कोलंबस ने बताया कि सुरक्षा शोधकर्ताओं ने 1,800 से अधिक उजागर उदाहरण पाए जिनमें API कुंजी, चैट इतिहास और खाता क्रेडेंशियल लीक हो रहे थे। यह इस बात पर प्रकाश डालता है कि कैसे जमीनी स्तर का एजेंटिक AI आंदोलन एक अप्रबंधित हमले की सतह बन सकता है, जो अक्सर पारंपरिक सुरक्षा उपकरणों के लिए अदृश्य होता है, खासकर जब एजेंट BYOD हार्डवेयर पर चलते हैं।
कोडिंग एजेंटों का विकास भी प्रगति कर रहा है, डेवलपर्स न्यूनतम और राय आधारित दृष्टिकोणों की खोज कर रहे हैं। एक डेवलपर ने इस तरह के एजेंट के निर्माण के अपने अनुभव को साझा किया, जिसमें न्यूनतम सिस्टम प्रॉम्प्ट और टूलसेट पर ध्यान केंद्रित किया गया, और अंतर्निहित टू-डू और योजना मोड जैसी सुविधाओं को छोड़ दिया गया, जैसा कि Hacker News पर बताया गया है।
ये विकास AI अपनाने के लिए एक बहुआयामी दृष्टिकोण की आवश्यकता को रेखांकित करते हैं, नवाचार को मजबूत सुरक्षा उपायों के साथ संतुलित करते हैं और जटिल जानकारी को संभालने में वर्तमान AI सिस्टम की सीमाओं को संबोधित करते हैं।
Discussion
AI Experts & Community
Be the first to comment