AI सुरक्षा अपनाने से पीछे, आपूर्ति श्रृंखलाओं को असुरक्षित छोड़ रही है
कृत्रिम बुद्धिमत्ता से उद्यमों को एक बढ़ता हुआ खतरा है क्योंकि AI एजेंटों को अपनाने की गति सुरक्षा उपायों से अधिक है, जिससे AI आपूर्ति श्रृंखलाओं में महत्वपूर्ण कमजोरियाँ पैदा हो रही हैं। स्टैनफोर्ड विश्वविद्यालय की 2025 इंडेक्स रिपोर्ट के शोध के अनुसार, जहाँ इस वर्ष दस में से चार उद्यम अनुप्रयोगों में कार्य-विशिष्ट AI एजेंट होंगे, वहीं केवल 6% संगठनों के पास एक उन्नत AI सुरक्षा रणनीति है।
AI, विशेष रूप से बड़े भाषा मॉडल (LLM) के तेजी से एकीकरण ने एक "दृश्यता अंतर" पैदा कर दिया है कि ये मॉडल कैसे, कहाँ, कब और किन वर्कफ़्लो और उपकरणों के माध्यम से उपयोग या संशोधित किए जा रहे हैं, VentureBeat ने रिपोर्ट किया। पारदर्शिता की यह कमी, मॉडल सॉफ्टवेयर बिल ऑफ मैटेरियल्स (SBOM) की अनुपस्थिति के साथ मिलकर, संगठनों को अप्रत्याशित AI खतरों के प्रति उजागर करती है।
पालो ऑल्टो नेटवर्क्स का अनुमान है कि 2026 में पहली बड़ी मुकदमेबाजी होगी जिसमें कार्यकारी अधिकारियों को दुष्ट AI कार्यों के लिए व्यक्तिगत रूप से उत्तरदायी ठहराया जाएगा, जो बेहतर AI शासन की तात्कालिकता को उजागर करता है। AI खतरों की बढ़ती और अप्रत्याशित प्रकृति का मतलब है कि पारंपरिक शासन दृष्टिकोण, जैसे कि बढ़े हुए बजट या कर्मचारियों की संख्या, अपर्याप्त हैं।
एक CISO ने मॉडल SBOM को "आज शासन का वाइल्ड वेस्ट" बताया, जो इस महत्वपूर्ण क्षेत्र में मानकीकरण और निरीक्षण की वर्तमान कमी को रेखांकित करता है। विशेषज्ञ संभावित जोखिमों को कम करने और कानूनी नतीजों से बचने के लिए संगठनों को AI आपूर्ति श्रृंखला दृश्यता को प्राथमिकता देने की आवश्यकता पर जोर देते हैं।
Discussion
Join the conversation
Be the first to comment