एलन मस्क के डिपार्टमेंट ऑफ़ गवर्नमेंट एफ़िशिएंसी (DOGE) ने सरकार में 2 ट्रिलियन डॉलर की धोखाधड़ी का पता नहीं लगाया, जैसा कि मस्क ने शुरू में सुझाव दिया था कि संभव है, लेकिन मस्क के सहयोगियों का मानना है कि यह प्रयास अभी भी सार्थक था। DOGE की सफलता का आकलन स्रोत के आधार पर अलग-अलग होता है, लेकिन सबूत बताते हैं कि इस पहल से संघीय खर्च में उल्लेखनीय कमी नहीं आई, जो इसका प्राथमिक उद्देश्य था।
मस्क ने हाल ही में एक पॉडकास्ट पर DOGE की उपलब्धियों को कम करके आंका, और इसे केवल "थोड़ा सफल" बताया। यह परियोजना के संभावित प्रभाव के बारे में उनकी पहले की, अधिक आशावादी घोषणाओं से एक प्रस्थान था। हाल ही में, मस्क ने निराधार दावों को पुनर्जीवित किया, जिसमें व्यापक और अनियंत्रित सरकारी धोखाधड़ी का आरोप लगाया, जो DOGE के किसी भी सकारात्मक प्रभाव का खंडन करता प्रतीत होता है। X पर, उन्होंने अनुमान लगाया कि "राष्ट्रीय स्तर पर धोखाधड़ी की मात्रा के लिए मेरा निचला अनुमान संघीय बजट का लगभग 20 प्रतिशत है, जिसका अर्थ है प्रति वर्ष 1.5 ट्रिलियन। शायद बहुत अधिक।"
पूर्व राष्ट्रपति डोनाल्ड ट्रम्प के साथ असहमति के बाद मई में DOGE के साथ मस्क की भागीदारी समाप्त हो गई, जिसमें चिंता जताई गई कि एक ट्रम्प बजट विधेयक DOGE के काम को कमजोर कर देगा। मस्क के वर्तमान बयान सरकारी दक्षता प्रयासों में उनके प्रवेश के मूल्य में आत्मविश्वास की कमी का सुझाव देते हैं।
सरकार के खर्च में धोखाधड़ी और अपशिष्ट की पहचान करने के लिए AI का उपयोग करने की अवधारणा, यहां तक कि DOGE जैसे सीमित दायरे में भी, एक बढ़ती प्रवृत्ति को दर्शाती है। AI एल्गोरिदम धोखाधड़ी वाली गतिविधि के संकेत देने वाले विसंगतियों और पैटर्न का पता लगाने के लिए विशाल डेटासेट का विश्लेषण कर सकते हैं, एक ऐसा कार्य जिसे मनुष्य मैन्युअल रूप से पूरा नहीं कर सकते हैं। हालांकि, ऐसी प्रणालियों की प्रभावशीलता डेटा की गुणवत्ता और पूर्णता के साथ-साथ उपयोग किए गए एल्गोरिदम की परिष्कार पर बहुत अधिक निर्भर करती है।
AI-संचालित धोखाधड़ी का पता लगाने के निहितार्थ सरकार से परे हैं। वित्तीय संस्थान, स्वास्थ्य सेवा प्रदाता और अन्य संगठन धोखाधड़ी का मुकाबला करने और दक्षता में सुधार के लिए तेजी से AI को अपना रहे हैं। हालांकि, AI एल्गोरिदम में पूर्वाग्रह की संभावना और उनके परिनियोजन में पारदर्शिता और जवाबदेही की आवश्यकता के बारे में चिंताएं बनी हुई हैं। इस क्षेत्र में नवीनतम विकास में फ़ेडरेटेड लर्निंग का उपयोग शामिल है, जो AI मॉडल को गोपनीयता से समझौता किए बिना विकेंद्रीकृत डेटा पर प्रशिक्षित करने की अनुमति देता है, और व्याख्या योग्य AI (XAI) तकनीकों का विकास, जिसका उद्देश्य AI निर्णय लेने को अधिक पारदर्शी और समझने योग्य बनाना है।
Discussion
Join the conversation
Be the first to comment