चीन ने कृत्रिम बुद्धिमत्ता (एआई) विकास को लक्षित करते हुए नए नियमों का प्रस्ताव रखा है, जिसमें बच्चों की सुरक्षा और आत्महत्या और हिंसा से संबंधित हानिकारक सामग्री को रोकने पर ध्यान केंद्रित किया गया है। चीन के साइबरस्पेस प्रशासन (सीएसी) ने सप्ताहांत में मसौदा नियमों को प्रकाशित किया, जिसमें ऐसे उपायों की रूपरेखा दी गई है, जिनके तहत एआई फर्मों को व्यक्तिगत सेटिंग्स और उपयोग के लिए समय सीमा लागू करने के साथ-साथ नाबालिगों को भावनात्मक साहचर्य सेवाएं प्रदान करने से पहले अभिभावक की सहमति प्राप्त करने की आवश्यकता होगी।
प्रस्तावित नियम एआई से जुड़े संभावित जोखिमों, विशेष रूप से चैटबॉट के बारे में बढ़ती चिंता को दूर करते हैं, जो चीन और विश्व स्तर पर तेजी से फैले हैं। नियमों का उद्देश्य यह सुनिश्चित करना है कि एआई मॉडल ऐसी सामग्री उत्पन्न न करें जो जुए को बढ़ावा दे, और वे आत्महत्या या आत्म-नुकसान से जुड़ी चैटबॉट वार्तालापों में मानवीय हस्तक्षेप को अनिवार्य करते हैं। सीएसी के अनुसार, ऐसे मामलों में, ऑपरेटरों को तुरंत उपयोगकर्ता के अभिभावक या आपातकालीन संपर्क को सूचित करना होगा।
एक बार अंतिम रूप दिए जाने के बाद, ये नियम चीन के भीतर संचालित होने वाले सभी एआई उत्पादों और सेवाओं पर लागू होंगे, जो तेजी से विकसित हो रही तकनीक को विनियमित करने की दिशा में एक महत्वपूर्ण कदम है। यह कदम दुनिया भर में एआई सुरक्षा और नैतिक विचारों की बढ़ती जांच के बीच आया है।
ये नियम एआई से जुड़े संभावित नुकसानों को कम करने के लिए एक सक्रिय दृष्टिकोण दर्शाते हैं, विशेष रूप से बच्चों जैसी कमजोर आबादी के संबंध में। माता-पिता की सहमति और उपयोग सीमा निर्धारित करने की आवश्यकता के द्वारा, चीनी सरकार का लक्ष्य एआई-संचालित इंटरैक्शन के संभावित नकारात्मक प्रभावों के खिलाफ सुरक्षा की एक परत प्रदान करना है।
मसौदा नियम सार्वजनिक टिप्पणी के लिए खुले हैं, और सीएसी से नियमों को अंतिम रूप देने से पहले प्रतिक्रिया की समीक्षा करने की उम्मीद है। कार्यान्वयन के लिए विशिष्ट समयरेखा अभी भी अस्पष्ट है, लेकिन घोषणा चीन में एआई विकास के लिए एक नियामक ढांचा स्थापित करने के स्पष्ट इरादे का संकेत देती है। यह कदम एआई को नियंत्रित करने और इसके जिम्मेदार उपयोग को सुनिश्चित करने की चुनौतियों से जूझ रहे अन्य देशों के लिए एक मिसाल कायम कर सकता है।
Discussion
Join the conversation
Be the first to comment