OpenAI ने उपयोगकर्ता शिकायतों और कानूनी चुनौतियों के बाद अपने GPT-4o मॉडल तक पहुंच बंद कर दी, जबकि एक बीबीसी रिपोर्टर के लैपटॉप को एक AI कोडिंग प्लेटफ़ॉर्म के माध्यम से हैक कर लिया गया, जिससे AI सुरक्षा और नैतिक निहितार्थों के बारे में बढ़ती चिंताएं उजागर हुईं। टेकक्रंच और बीबीसी सहित कई स्रोतों द्वारा रिपोर्ट की गई इन घटनाओं से AI का तेजी से विकास और इसकी संभावित जोखिमों के प्रबंधन की चुनौतियाँ रेखांकित होती हैं।
टेकक्रंच के अनुसार, GPT-4o मॉडल को वापस लेने का OpenAI का निर्णय, कम उपयोग प्रतिशत के बावजूद, AI मॉडल विकास और तैनाती से जुड़े जटिल नैतिक विचारों को दर्शाता है। यह कदम मॉडल के व्यवहार से संबंधित उपयोगकर्ता शिकायतों और कानूनी चुनौतियों के जवाब में उठाया गया था।
इसी समय, एक बीबीसी रिपोर्टर के लैपटॉप को Orchids के माध्यम से सफलतापूर्वक हैक कर लिया गया, जो एक AI कोडिंग प्लेटफ़ॉर्म है जिसका उपयोग एक मिलियन उपयोगकर्ताओं द्वारा किया जाता है, जिसमें प्रमुख कंपनियां भी शामिल हैं। बीबीसी द्वारा रिपोर्ट की गई इस घटना ने "वाइब-कोडिंग" टूल में एक महत्वपूर्ण साइबर सुरक्षा भेद्यता का खुलासा किया, जो बिना कोडिंग अनुभव वाले उपयोगकर्ताओं को ऐप बनाने की अनुमति देता है। विशेषज्ञों ने इस सुरक्षा दोष के निहितार्थों के बारे में चिंता व्यक्त की, प्लेटफ़ॉर्म के व्यापक उपयोग और कंपनी की ओर से कोई प्रतिक्रिया न मिलने के कारण।
ये घटनाएँ AI से जुड़ी साइबर सुरक्षा चिंताओं और नैतिक बहसों की व्यापक प्रवृत्ति का हिस्सा हैं। हैकर न्यूज़ द्वारा रिपोर्ट के अनुसार, ब्लॉकफिल्स के निलंबन सहित क्रिप्टोकरेंसी में बाजार की अस्थिरता ने भी सप्ताह की खबरों में योगदान दिया। इसके अतिरिक्त, चीनी AI स्टार्टअप मिनीमैक्स के ओपन-सोर्स M2.5 भाषा मॉडल की रिलीज़ ने ओपन-सोर्स सॉफ़्टवेयर की प्रकृति और उपयोगकर्ता अपेक्षाओं के बारे में चर्चा शुरू कर दी, इस बात पर ज़ोर देते हुए कि उपयोगकर्ता ओपन-सोर्स परियोजनाओं के भीतर बदलावों को प्रभावित करने या मांग करने के हकदार नहीं हैं।
संबंधित समाचारों में, अमेज़ॅन के रिंग ने Flock Safety के साथ अपनी साझेदारी रद्द कर दी, जो एक AI-संचालित निगरानी कैमरा कंपनी है, शुरू में रिंग उपयोगकर्ताओं को कानून प्रवर्तन एजेंसियों के साथ फुटेज साझा करने की योजना बना रही थी। टेकक्रंच द्वारा रिपोर्ट किए गए इस निर्णय के बाद रिंग की AI-संचालित सुविधाओं, जैसे कि इसकी "सर्च पार्टी" सुविधा और AI-संचालित निगरानी में नस्लीय पूर्वाग्रह की संभावना को लेकर सार्वजनिक चिंताएँ और विवाद हुए।
इन घटनाक्रमों के बीच, IronClaw जैसी परियोजनाओं का उदय, जो गोपनीयता और सुरक्षा पर केंद्रित एक ओपन-सोर्स AI सहायक है, एक वैकल्पिक दृष्टिकोण प्रदान करता है। हैकर न्यूज़ पर वर्णित IronClaw, इस सिद्धांत पर आधारित है कि AI सहायक को उपयोगकर्ता के लिए काम करना चाहिए, उनके खिलाफ नहीं, जिसमें सभी डेटा स्थानीय रूप से संग्रहीत, एन्क्रिप्टेड और कभी भी उपयोगकर्ता के नियंत्रण से बाहर नहीं जाता है।
Discussion
AI Experts & Community
Be the first to comment