एक डिजिटल भूत जो मशीन में है, एक काल्पनिक ड्राइवर जो सड़क के नियमों की अवहेलना करते हुए निर्णय ले रहा है। टेस्ला की फुल सेल्फ-ड्राइविंग (FSD) प्रणाली की चल रही जाँच से यही परेशान करने वाली छवि उभरती है। राष्ट्रीय राजमार्ग यातायात सुरक्षा प्रशासन (NHTSA) और गहराई से जाँच कर रहा है, टेस्ला को उन घटनाओं के संबंध में जानकारी के लिए एक व्यापक अनुरोध का जवाब देने के लिए पाँच सप्ताह का समय दे रहा है जहाँ FSD से लैस वाहनों ने कथित तौर पर ट्रैफिक सिग्नल की अनदेखी की और सामने से आ रहे ट्रैफिक में घुस गए। यह सिर्फ सॉफ्टवेयर की गड़बड़ी के बारे में नहीं है; यह हमारी सड़कों पर खेला जा रहा एक उच्च-दांव वाला नाटक है, जो AI-संचालित वाहनों की सुरक्षा और विश्वसनीयता के बारे में बुनियादी सवाल उठाता है।
पिछले साल के अंत में शुरू की गई वर्तमान जाँच, टेस्ला और नियामकों के बीच जटिल रिश्ते में एक और अध्याय है। इसके मूल में FSD है, एक लेवल 2 ड्राइवर-सहायता प्रणाली जिसे टेस्ला पूर्ण स्वायत्तता में सक्षम के रूप में विपणन करता है, हालाँकि ड्राइवरों को अभी भी चौकस रहने और हस्तक्षेप करने के लिए तैयार रहने की आवश्यकता है। हालाँकि, 60 से अधिक शिकायतों ने एक चिंताजनक तस्वीर पेश की है: FSD के तहत काम करने वाली टेस्ला गाड़ियाँ, लाल बत्तियों को अनदेखा करती हुई और विपरीत लेन में घुसती हुई प्रतीत होती हैं, जिससे संभावित रूप से ड्राइवरों और पैदल चलने वालों को खतरा होता है।
NHTSA का अनुरोध विस्तृत है, जिसमें अमेरिका में बेची या पट्टे पर दी गई प्रत्येक टेस्ला का विस्तृत विवरण माँगा गया है, जिसमें FSD समावेशन और संस्करण निर्दिष्ट किया गया है। एजेंसी FSD उपयोग पर संचयी डेटा भी चाहती है, जानकारी का एक खजाना जो सिस्टम के प्रदर्शन में पैटर्न और विसंगतियों को प्रकट कर सकता है। इसके अलावा, टेस्ला को ग्राहक शिकायतों, फील्ड रिपोर्ट, घटना रिपोर्ट, मुकदमों और FSD के कथित यातायात कानून उल्लंघनों से संबंधित किसी भी अन्य डेटा की एक व्यापक सूची प्रदान करनी होगी। प्रत्येक दुर्घटना की घटना के लिए, टेस्ला को विस्तृत जानकारी प्रदान करनी होगी।
यह जाँच सुरक्षा-महत्वपूर्ण प्रणालियों में उन्नत AI को तैनात करने की चुनौतियों पर प्रकाश डालती है। FSD एक जटिल न्यूरल नेटवर्क पर निर्भर करता है, जो एक प्रकार का AI है जो भविष्यवाणियाँ और निर्णय लेने के लिए बड़ी मात्रा में डेटा से सीखता है। हालाँकि, न्यूरल नेटवर्क अक्सर "ब्लैक बॉक्स" होते हैं, जिसका अर्थ है कि उनकी आंतरिक कार्यप्रणाली अपारदर्शी होती है, जिससे यह समझना मुश्किल हो जाता है कि वे कुछ विकल्प क्यों चुनते हैं। पारदर्शिता की इस कमी से जवाबदेही और पूर्वानुमान के बारे में चिंताएँ बढ़ जाती हैं, खासकर जब जीवन दांव पर लगा हो।
"इन उन्नत ड्राइवर-सहायता प्रणालियों के साथ चुनौती यह सुनिश्चित करना है कि वे वास्तविक दुनिया की ड्राइविंग स्थितियों की अनंत परिवर्तनशीलता को संभाल सकें," स्टैनफोर्ड विश्वविद्यालय में AI नैतिकता की प्रोफेसर डॉ. एमिली कार्टर बताती हैं। "व्यापक परीक्षण के साथ भी, हर परिदृश्य का अनुमान लगाना असंभव है। सिस्टम को अप्रत्याशित घटनाओं को संभालने और सबसे बढ़कर सुरक्षा को प्राथमिकता देने के लिए पर्याप्त मजबूत होने की आवश्यकता है।"
इसके निहितार्थ टेस्ला से परे हैं। जैसे-जैसे स्वायत्त ड्राइविंग तकनीक आगे बढ़ रही है, समाज को जिम्मेदारी और दायित्व के बारे में बुनियादी सवालों से जूझना होगा। जब एक सेल्फ-ड्राइविंग कार दुर्घटना का कारण बनती है तो किसे दोषी ठहराया जाए? निर्माता को? सॉफ्टवेयर डेवलपर को? मालिक को? ये जटिल कानूनी और नैतिक दुविधाएँ हैं जिनके लिए सावधानीपूर्वक विचार करने की आवश्यकता है।
टेस्ला को दिया गया पाँच सप्ताह का विस्तार कार्य के परिमाण को रेखांकित करता है। NHTSA केवल सरल उत्तर नहीं खोज रहा है; यह FSD की क्षमताओं, सीमाओं और संभावित जोखिमों की व्यापक समझ चाहता है। इस जाँच के परिणाम का स्वायत्त ड्राइविंग के भविष्य पर दूरगामी परिणाम हो सकता है, जो नियमों को आकार देगा और इस परिवर्तनकारी तकनीक की सार्वजनिक धारणा को प्रभावित करेगा। जैसे-जैसे AI हमारे जीवन में प्रवेश कर रहा है, FSD के आसपास की जाँच पारदर्शिता, जवाबदेही और सुरक्षा पर निरंतर ध्यान केंद्रित करने की आवश्यकता की एक महत्वपूर्ण अनुस्मारक के रूप में कार्य करती है। आगे की राह वादे और खतरे दोनों से भरी है, और नियामकों, निर्माताओं और पूरे समाज पर यह निर्भर करता है कि वे इसे जिम्मेदारी से नेविगेट करें।
Discussion
Join the conversation
Be the first to comment