कृत्रिम बुद्धिमत्ता की प्रगति से सॉफ्टवेयर विकास और साइबर सुरक्षा का पुनर्गठन
कृत्रिम बुद्धिमत्ता में हो रही प्रगति की एक लहर सॉफ्टवेयर विकास और साइबर सुरक्षा को तेज़ी से बदल रही है, जिसमें उभरती चुनौतियों का समाधान करने के लिए नए उपकरण और रणनीतियाँ सामने आ रही हैं। कंपनियाँ डेवलपर्स की सहायता के लिए डिज़ाइन किए गए नए AI मॉडल जारी कर रही हैं, जबकि सुरक्षा दल साइबर खतरों की बढ़ती मात्रा को प्रबंधित करने के लिए तेजी से AI पर निर्भर हैं।
सॉफ्टवेयर विकास के क्षेत्र में, मिस्ट्रल AI, एक फ्रांसीसी कंपनी जो खुद को अमेरिकी AI दिग्गजों के लिए एक यूरोपीय चुनौतीकर्ता के रूप में स्थापित कर रही है, ने मंगलवार को मिस्ट्रल वाइब 2.0 की सामान्य उपलब्धता की घोषणा की, जो इसके टर्मिनल-आधारित कोडिंग एजेंट का एक उन्नत संस्करण है। वेंचरबीट के अनुसार, यह कंपनी का "प्रतिस्पर्धी AI-सहायता प्राप्त सॉफ्टवेयर विकास बाजार में अब तक का सबसे आक्रामक प्रयास" है। यह रिलीज़ मिस्ट्रल के अपने डेवलपर टूल को मुफ्त परीक्षण चरण में पेश करने से लेकर उन्हें सशुल्क सदस्यता योजनाओं के साथ एकीकृत करने तक के संक्रमण को दर्शाता है। यह कदम मिस्ट्रल के CEO आर्थर मेन्श के कंपनी के $1 बिलियन को पार करने की उम्मीद जताने के तुरंत बाद आया है।
इस बीच, एक चीनी कंपनी मूनशॉट AI ने अपने ओपन-सोर्स्ड किमि K2 मॉडल को किमि K2.5 में अपग्रेड किया, जिससे यह एक कोडिंग और विज़न मॉडल में बदल गया, जिसमें एक ऐसा आर्किटेक्चर है जो एजेंट स्वार्म ऑर्केस्ट्रेशन का समर्थन करता है। वेंचरबीट की एमिलिया डेविड ने बताया कि किमि K2.5 एक ऑल-इन-वन मॉडल है जो विज़ुअल और टेक्स्ट दोनों इनपुट का समर्थन करता है, जिससे उपयोगकर्ता मॉडल का लाभ अधिक विज़ुअल कोडिंग परियोजनाओं के लिए उठा सकते हैं। किमि K2 मॉडल, जिस पर किमि K2.5 आधारित है, में कुल 1 ट्रिलियन पैरामीटर और 32 बिलियन सक्रिय पैरामीटर थे।
साइबर सुरक्षा में, सुरक्षा संचालन केंद्र (SOC) दल प्रतिदिन प्राप्त होने वाले भारी संख्या में अलर्ट को प्रबंधित करने के लिए तेजी से ट्राइएज प्रक्रियाओं को स्वचालित कर रहे हैं। वेंचरबीट के लुई कोलंबस ने बताया कि एक औसत उद्यम SOC को प्रतिदिन 10,000 अलर्ट प्राप्त होते हैं, जिनमें से प्रत्येक की ठीक से जांच करने में 20 से 40 मिनट लगते हैं। हालाँकि, पूरी तरह से कर्मचारियों वाले दल भी इनमें से केवल 22 अलर्ट को ही संभाल सकते हैं। 60% से अधिक सुरक्षा दलों ने उन अलर्ट को अनदेखा करने की बात स्वीकार की है जो बाद में महत्वपूर्ण साबित हुए। नतीजतन, ट्राइएज, एनरिचमेंट और एस्केलेशन जैसे टियर-1 विश्लेषक कार्य सॉफ्टवेयर फ़ंक्शन बनते जा रहे हैं, जिसमें अधिक SOC दल वॉल्यूम को संभालने के लिए सुपरवाइज्ड AI एजेंटों की ओर रुख कर रहे हैं। मानव विश्लेषक अपनी प्राथमिकताओं को जांच, समीक्षा और एज-केस निर्णय लेने के लिए स्थानांतरित कर रहे हैं, जिससे प्रतिक्रिया समय कम हो रहा है।
हालांकि, गार्टनर का अनुमान है कि शासन सीमाओं की कमी के कारण 40% से अधिक एजेंटिक AI कार्यान्वयन विफल हो जाएंगे। कोलंबस ने लिखा, "मानव अंतर्दृष्टि और अंतर्ज्ञान को एकीकृत नहीं करने की उच्च लागत आती है।"
इन विशिष्ट अनुप्रयोगों से परे, OpenAI भी अपनी तकनीक को वैज्ञानिक अनुसंधान में एकीकृत करने के लिए एक ठोस प्रयास कर रहा है। MIT टेक्नोलॉजी रिव्यू के अनुसार, OpenAI ने अक्टूबर में "OpenAI for Science" नामक एक नई टीम लॉन्च की, जो यह पता लगाने के लिए समर्पित है कि इसके बड़े भाषा मॉडल वैज्ञानिकों की सहायता कैसे कर सकते हैं और उनके समर्थन के लिए अपने उपकरणों को कैसे ट्वीक कर सकते हैं। OpenAI के उपाध्यक्ष केविन वेल यह पता लगा रहे हैं कि विज्ञान में एक धक्का OpenAI के व्यापक मिशन के साथ कैसे फिट बैठता है और फर्म क्या हासिल करने की उम्मीद करती है।
जबकि ये AI प्रगति कर्षण प्राप्त कर रही हैं, डेवलपर्स अधिक स्थापित तकनीकों की भी खोज कर रहे हैं। एक हैकर न्यूज़ उपयोगकर्ता ने Django, एक वेब फ्रेमवर्क का उपयोग शुरू करने पर नोट्स साझा किए, जिसमें कहा गया कि जब हर समस्या पहले ही हल हो चुकी होती है तो अच्छा लगता है। उपयोगकर्ता ने यह भी नोट किया कि Django में Rails की तुलना में कम जादू है।
Discussion
Join the conversation
Be the first to comment