xAI ने Grok Business और Grok Enterprise लॉन्च किए हैं, जो उसके AI सहायक के नए स्तर हैं, जिन्हें संगठनात्मक उपयोग के लिए डिज़ाइन किया गया है। यह लॉन्च प्लेटफ़ॉर्म के सार्वजनिक उपयोग के दौरान गैर-सहमति वाली डीपफेक उत्पन्न करने के विवाद के बीच हुआ है। नए ऑफ़रिंग में Grok 3, Grok 4 और Grok 4 Heavy सहित xAI के सबसे उन्नत मॉडलों तक स्केलेबल एक्सेस प्रदान किया गया है, और इन्हें मजबूत प्रशासनिक नियंत्रण, गोपनीयता गारंटी और Enterprise Vault नामक एक प्रीमियम आइसोलेशन लेयर के साथ लागत प्रभावी समाधान के रूप में विपणन किया गया है।
Grok Business की कीमत $30 प्रति सीट प्रति माह है और यह छोटी टीमों को लक्षित करता है, जबकि Grok Enterprise बड़ी आवश्यकताओं वाली बड़ी संस्थाओं के लिए अनुकूलित समाधान प्रदान करता है। xAI के अनुसार, Enterprise Vault सुविधा संवेदनशील डेटा प्रोसेसिंग के लिए एक अलग वातावरण प्रदान करती है, जिसका उद्देश्य उद्यम ग्राहकों की सख्त सुरक्षा आवश्यकताओं को पूरा करना है। कंपनी का दावा है कि ये नए स्तर उन व्यवसायों के लिए एक सुरक्षित और विश्वसनीय AI प्लेटफ़ॉर्म प्रदान करते हैं जो बड़े भाषा मॉडल की शक्ति का लाभ उठाना चाहते हैं।
हालांकि, लॉन्च प्लेटफ़ॉर्म के सार्वजनिक उपयोग से संबंधित चिंताओं से ढका हुआ है, जिसकी आलोचना गैर-सहमति वाली, AI-जनित छवि हेरफेर के निर्माण और प्रसार को सक्षम करने के लिए की गई है। कथित तौर पर इन छवियों में महिलाएं, प्रभावशाली व्यक्ति और नाबालिग शामिल हैं, जिससे सार्वजनिक प्रतिक्रिया और नियामक जांच शुरू हो गई है। विवाद xAI की प्रभावी सुरक्षा उपायों को लागू करने और उपयोगकर्ता विश्वास बनाए रखने की क्षमता के बारे में सवाल उठाता है, खासकर जब वह उद्यम बाजार में खुद को स्थापित करने की कोशिश कर रहा है।
डीपफेक, या AI-जनित मीडिया जो ठोस रूप से व्यक्तियों को ऐसी चीजें करते या कहते हुए चित्रित करता है जो उन्होंने नहीं कीं, गोपनीयता और प्रतिष्ठा के लिए एक महत्वपूर्ण खतरा पैदा करते हैं। विशेषज्ञों का कहना है कि इस तकनीक का उपयोग दुर्भावनापूर्ण उद्देश्यों के लिए किया जा सकता है, जिसमें गलत सूचना फैलाना, मानहानिकारक सामग्री बनाना और उत्पीड़न में शामिल होना शामिल है। Grok से जुड़ी घटना AI तकनीक के दुरुपयोग को रोकने की चुनौतियों को उजागर करती है, भले ही डेवलपर्स सुरक्षा उपाय लागू करें।
स्टैनफोर्ड विश्वविद्यालय में AI नैतिकता की प्रोफेसर डॉ. एमिली कार्टर ने कहा, "AI के साथ यथार्थवादी छवियां उत्पन्न करने की क्षमता तेजी से बढ़ रही है, और यह महत्वपूर्ण है कि xAI जैसी कंपनियां नैतिक विचारों को प्राथमिकता दें और दुरुपयोग को रोकने के लिए मजबूत सुरक्षा उपाय लागू करें।" "नुकसान की संभावना महत्वपूर्ण है, और स्पष्ट दिशानिर्देशों और जवाबदेही तंत्रों का होना आवश्यक है।"
Grok की डीपफेक क्षमताओं से जुड़े विवाद ने नियामकों का ध्यान आकर्षित किया है, जो अब xAI की आंतरिक सुरक्षा और सामग्री मॉडरेशन नीतियों की जांच कर रहे हैं। इन जांचों के परिणाम AI विकास और तैनाती के भविष्य के लिए महत्वपूर्ण निहितार्थ हो सकते हैं, जिससे संभावित रूप से सख्त नियम और AI कंपनियों की बढ़ी हुई जांच हो सकती है।
xAI ने कहा है कि वह चिंताओं को गंभीरता से ले रहा है और इस मुद्दे को संबोधित करने के लिए प्रतिबद्ध है। कंपनी ने अपनी सामग्री मॉडरेशन सिस्टम को बढ़ाने, अपने डिटेक्शन एल्गोरिदम में सुधार करने और प्लेटफ़ॉर्म का दुरुपयोग करने वालों की पहचान करने और उन पर मुकदमा चलाने के लिए कानून प्रवर्तन के साथ काम करने की योजना की घोषणा की है। इन उपायों की प्रभावशीलता अभी देखी जानी बाकी है, और कंपनी को जिम्मेदार AI विकास के साथ नवाचार को संतुलित करने में चुनौती का सामना करना पड़ रहा है। कंपनी ने अभी तक प्लेटफ़ॉर्म से बनाई या हटाई गई डीपफेक की संख्या पर कोई विशिष्ट डेटा जारी नहीं किया है।
Discussion
Join the conversation
Be the first to comment