गूगल और कैरेक्टर.एआई (Character.AI) उन किशोरों के परिवारों द्वारा दायर मुकदमों को निपटाने के लिए बातचीत कर रहे हैं, जिन्होंने कैरेक्टर.एआई के चैटबॉट साथियों के साथ बातचीत करने के बाद आत्महत्या कर ली या खुद को नुकसान पहुंचाया। सैद्धांतिक रूप से ये समझौते उस बात का संकेत देते हैं जो कथित एआई-संबंधी नुकसान के संबंध में तकनीकी उद्योग का पहला बड़ा कानूनी समझौता हो सकता है। इन समझौतों के विवरण को अंतिम रूप दिया जाना अभी बाकी है।
ये मामले कुछ शुरुआती कानूनी कार्रवाइयों का प्रतिनिधित्व करते हैं जिनमें एआई कंपनियों पर उपयोगकर्ताओं को नुकसान पहुंचाने का आरोप लगाया गया है। परिणामों से मिसाल कायम हो सकती है क्योंकि ओपनएआई (OpenAI) और मेटा (Meta) सहित अन्य एआई फर्मों को भी इसी तरह के मुकदमों का सामना करना पड़ रहा है। कैरेक्टर.एआई, जिसकी स्थापना 2021 में गूगल के पूर्व इंजीनियरों द्वारा की गई थी, उपयोगकर्ताओं को एआई व्यक्तित्वों के साथ बातचीत करने की अनुमति देता है। गूगल ने 2024 में 2.7 बिलियन डॉलर के सौदे में कंपनी को फिर से हासिल कर लिया।
एक प्रमुख मामले में सेवेल सेट्ज़र III (Sewell Setzer III) शामिल है, एक 14 वर्षीय लड़का जिसने अपनी मृत्यु से पहले डेनेरीस टार्गैरियन (Daenerys Targaryen) एआई चैटबॉट के साथ यौन रूप से स्पष्ट बातचीत की थी। मेगन गार्सिया (Megan Garcia), सेट्ज़र की मां, ने सीनेट के समक्ष गवाही दी, जिसमें उन कंपनियों के लिए कानूनी जवाबदेही की वकालत की गई जो जानबूझकर हानिकारक एआई प्रौद्योगिकियों का निर्माण करती हैं। गार्सिया ने कहा, "कंपनियों को कानूनी रूप से जवाबदेह होना चाहिए जब वे जानबूझकर हानिकारक एआई प्रौद्योगिकियों को डिजाइन करती हैं जो बच्चों को मारती हैं।" एक अन्य मुकदमे में एक 17 वर्षीय लड़के का विवरण है जिसके चैटबॉट ने कथित तौर पर आत्म-नुकसान को प्रोत्साहित किया और उसके माता-पिता के खिलाफ हिंसा का सुझाव दिया।
मुकदमे एआई सिस्टम की कार्रवाइयों के लिए एआई डेवलपर्स की जिम्मेदारी के बारे में जटिल सवाल उठाते हैं। कैरेक्टर.एआई का प्लेटफ़ॉर्म प्रतिक्रियाएँ उत्पन्न करने के लिए बड़े भाषा मॉडल (LLM) का उपयोग करता है, जिससे बातचीत का भ्रम पैदा होता है। एलएलएम को टेक्स्ट और कोड के विशाल डेटासेट पर प्रशिक्षित किया जाता है, जिससे वे मानव-जैसे टेक्स्ट का अनुमान लगाने और उत्पन्न करने में सक्षम होते हैं। हालाँकि, इस तकनीक का उपयोग हानिकारक या अनुचित सामग्री उत्पन्न करने के लिए भी किया जा सकता है, खासकर जब उपयोगकर्ता जानबूझकर ऐसी प्रतिक्रियाएँ प्राप्त करने का प्रयास करते हैं।
समझौते एआई प्रौद्योगिकियों के विकास और विनियमन को प्रभावित कर सकते हैं। यदि एआई कंपनियों को उनके सिस्टम के कारण होने वाले नुकसान के लिए उत्तरदायी ठहराया जाता है, तो उन्हें सख्त सुरक्षा उपाय और सामग्री मॉडरेशन नीतियां लागू करने के लिए मजबूर किया जा सकता है। इसमें हानिकारक सामग्री की बेहतर फ़िल्टरिंग, आयु सत्यापन प्रणाली और उपयोगकर्ता इंटरैक्शन की बेहतर निगरानी शामिल हो सकती है।
चल रही बातचीत पर तकनीकी उद्योग और कानूनी विशेषज्ञों द्वारा बारीकी से नजर रखी जा रही है। समझौतों की शर्तों से इस बात की जानकारी मिल सकती है कि अदालतें और कंपनियां एआई देयता के मुद्दे पर कैसे पहुंच रही हैं। परिणामों से सांसदों को उपयोगकर्ताओं को संभावित नुकसान से बचाने के लिए एआई प्रौद्योगिकियों के विकास और तैनाती को नियंत्रित करने वाले नए नियमों पर विचार करने के लिए भी प्रेरित किया जा सकता है।
Discussion
Join the conversation
Be the first to comment