अक्टूबर 2025 में प्रकाशित एक अध्ययन के अनुसार, शोधकर्ताओं ने कृत्रिम बुद्धिमत्ता सुरक्षा की भेद्यता का प्रदर्शन किया, और उन्होंने परीक्षण किए गए प्रत्येक सिस्टम को सफलतापूर्वक भंग कर दिया। "The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against LLM Jailbreaks and Prompt Injections" शीर्षक वाले पेपर से पता चला कि 12 AI सुरक्षा, जिनमें से कई ने लगभग शून्य अटैक सफलता दर का दावा किया था, को अधिकांश मामलों में 90% से अधिक की सफलता दर के साथ बाईपास किया गया। यह शोध OpenAI, Anthropic और Google DeepMind की एक टीम द्वारा किया गया था।
निष्कर्ष AI सुरक्षा उत्पादों की प्रभावशीलता के बारे में गंभीर चिंताएं बढ़ाते हैं जिन्हें वर्तमान में उद्यमों द्वारा तैनात किया जा रहा है। लुई कोलंबस ने 23 जनवरी, 2026 को बताया कि इनमें से कई उत्पादों का परीक्षण उन हमलावरों के खिलाफ किया जाता है जो वास्तविक दुनिया के खतरों का सटीक प्रतिनिधित्व नहीं करते हैं।
अनुसंधान दल ने अनुकूली हमले की स्थितियों के तहत प्रॉम्प्टिंग-आधारित, प्रशिक्षण-आधारित और फ़िल्टरिंग-आधारित सुरक्षा का मूल्यांकन किया। दुर्भावनापूर्ण प्रॉम्प्ट को AI मॉडल में हेरफेर करने से रोकने के लिए डिज़ाइन की गई प्रॉम्प्टिंग सुरक्षा में 95% और 99% के बीच अटैक सफलता दर का अनुभव हुआ। प्रशिक्षण-आधारित विधियाँ, जिसका उद्देश्य विशिष्ट प्रशिक्षण डेटा के माध्यम से AI मॉडल को हमलों के खिलाफ मजबूत करना है, का प्रदर्शन भी समान रूप से खराब रहा, जिसमें बाईपास दर 96% से 100% तक थी।
शोधकर्ताओं ने AI सुरक्षा प्रणालियों द्वारा किए गए दावों को मान्य करने के लिए एक कठोर पद्धति का इस्तेमाल किया। इसमें 14 लेखकों की एक टीम और सफल हमलों को प्रोत्साहित करने के लिए $20,000 का पुरस्कार पूल शामिल था। अध्ययन में चार श्रेणियों में सुरक्षा का परीक्षण किया गया, जिनमें से सभी ने शुरू में लगभग शून्य अटैक सफलता दर का दावा किया था।
इस शोध के निहितार्थ तत्काल सुरक्षा चिंताओं से परे हैं। वित्त से लेकर स्वास्थ्य सेवा तक विभिन्न क्षेत्रों में AI को व्यापक रूप से अपनाने के लिए मजबूत सुरक्षा उपायों की आवश्यकता है। वर्तमान AI सुरक्षा की प्रदर्शित भेद्यता AI सुरक्षा के लिए अधिक सक्रिय और अनुकूली दृष्टिकोण की आवश्यकता पर प्रकाश डालती है।
इन निष्कर्षों को देखते हुए, AI सुरक्षा समाधानों की खरीद करने वाले उद्यमों को अपने परीक्षण पद्धतियों और अनुकूली हमले के लचीलेपन के बारे में विक्रेताओं से महत्वपूर्ण प्रश्न पूछने चाहिए। इन प्रश्नों में शामिल होना चाहिए:
1. सिस्टम का परीक्षण करने के लिए किस प्रकार के अनुकूली हमलों का उपयोग किया गया है?
2. अनुकूली हमले की स्थितियों के तहत प्रलेखित अटैक सफलता दर क्या है?
3. नई अटैक वैक्टर के खिलाफ सिस्टम का पुनर्मूल्यांकन कितनी बार किया जाता है?
4. वास्तविक दुनिया के हमलावर व्यवहार को अनुकरण करने के लिए किन विधियों का उपयोग किया जाता है?
5. सिस्टम प्रॉम्प्ट इंजेक्शन और जेलब्रेकिंग प्रयासों को कैसे संभालता है?
6. नई खोजी गई कमजोरियों के जवाब में सिस्टम को अपडेट करने की प्रक्रिया क्या है?
7. क्या विक्रेता सिस्टम के सुरक्षा दावों का स्वतंत्र सत्यापन प्रदान कर सकता है?
यह शोध विकसित हो रहे AI खतरों के सामने निरंतर निगरानी और अनुकूलन के महत्व को रेखांकित करता है। जैसे-जैसे AI तकनीक आगे बढ़ती है, वैसे-वैसे दुर्भावनापूर्ण अभिनेताओं से बचाव के लिए रणनीतियाँ भी विकसित होनी चाहिए। निष्कर्ष AI डेवलपर्स, सुरक्षा शोधकर्ताओं और उद्यमों के बीच अधिक मजबूत और लचीला AI सुरक्षा समाधान विकसित करने के लिए अधिक सहयोग की आवश्यकता का सुझाव देते हैं।
Discussion
Join the conversation
Be the first to comment