AI सुरक्षा अपनाने की गति से पीछे, सप्लाई चेन असुरक्षित
जैसे-जैसे उद्यम तेज़ी से AI एजेंटों को अपने कार्यों में एकीकृत कर रहे हैं, एक महत्वपूर्ण सुरक्षा अंतर उभरा है, जिससे AI सप्लाई चेन उल्लंघनों के प्रति संवेदनशील हो गई हैं और संभावित रूप से अधिकारियों को कानूनी देनदारियों के लिए उजागर कर रही हैं। स्टैनफोर्ड यूनिवर्सिटी 2025 इंडेक्स रिपोर्ट के अनुसार, केवल 6% संगठनों के पास एक उन्नत AI सुरक्षा रणनीति है।
AI खतरों की बढ़ती अप्रत्याशितता, लार्ज लैंग्वेज मॉडल (LLM) के उपयोग और संशोधन में दृश्यता की कमी के साथ मिलकर, एक महत्वपूर्ण भेद्यता पैदा कर रही है। इस दृश्यता की कमी को मॉडल सॉफ्टवेयर बिल ऑफ मैटेरियल्स (SBOM) की अनुपस्थिति से और बढ़ाया गया है, जिसे एक CISO ने VentureBeat को "शासन का वाइल्ड वेस्ट" बताया।
पालो ऑल्टो नेटवर्क्स का अनुमान है कि 2026 में पहली बड़ी मुकदमेबाजी होगी जिसमें अधिकारियों को व्यक्तिगत रूप से दुष्ट AI कार्यों के लिए उत्तरदायी ठहराया जाएगा। यह भविष्यवाणी बेहतर AI सप्लाई चेन दृश्यता और शासन की तत्काल आवश्यकता को रेखांकित करती है।
वर्तमान शासन दृष्टिकोण AI खतरों के तेजी से विकास के साथ तालमेल नहीं बिठा रहे हैं। पारंपरिक समाधान जैसे कि बढ़े हुए बजट या अतिरिक्त कर्मी AI द्वारा उत्पन्न जटिल चुनौतियों का समाधान करने में अपर्याप्त साबित हो रहे हैं।
VentureBeat की रिपोर्टिंग के अनुसार, मूल मुद्दा एक "दृश्यता अंतर" है कि LLM का उपयोग या संशोधन कैसे, कहाँ, कब और किन वर्कफ़्लो और उपकरणों के माध्यम से किया जा रहा है। इस दृश्यता के बिना, संगठन AI से जुड़े जोखिमों को प्रभावी ढंग से प्रबंधित और कम करने में असमर्थ हैं।
व्यापक AI सुरक्षा रणनीतियों की कमी और मॉडल SBOM की अनुपस्थिति शोषण के लिए एक अनुकूल वातावरण बना रही है। जैसे-जैसे AI उद्यम अनुप्रयोगों में प्रवेश करना जारी रखता है, मजबूत सुरक्षा उपायों और स्पष्ट शासन ढांचे की आवश्यकता तेजी से महत्वपूर्ण होती जा रही है।
Discussion
Join the conversation
Be the first to comment