AI जांच के दायरे में: एचएचएस द्वारा डीईआई स्क्रीनिंग के लिए Palantir का उपयोग, एपस्टीन फाइल्स जारी, और AI सत्य संबंधी चिंताएं बढ़ीं
स्वास्थ्य और मानव सेवा विभाग (एचएचएस) ने पूर्व राष्ट्रपति डोनाल्ड ट्रम्प के विविधता, इक्विटी और समावेशन (डीईआई) पहलों और लिंग विचारधारा को लक्षित करने वाले कार्यकारी आदेशों के अनुपालन के लिए अनुदान और नौकरी विवरणों की जांच करने के लिए Palantir से कृत्रिम बुद्धिमत्ता उपकरणों का उपयोग किया, एचएचएस के 2025 में AI उपयोग की हाल ही में प्रकाशित सूची के अनुसार। यह रहस्योद्घाटन तब हुआ है जब न्याय विभाग ने दोषी यौन अपराधी जेफरी एपस्टीन से संबंधित लगभग 3.5 मिलियन पृष्ठों की फाइलें जारी कीं, जिसमें तकनीकी उद्योग में प्रमुख हस्तियों के साथ संबंध सामने आए, और AI की सामाजिक विश्वास को कम करने की क्षमता के बारे में चिंताएं बढ़ रही हैं।
Wired के अनुसार, एचएचएस ने मार्च 2025 से अनुदान, अनुदान आवेदनों और नौकरी विवरणों का ऑडिट करने के लिए Palantir के AI उपकरणों का उपयोग किया। Palantir या एचएचएस दोनों ने कंपनी के सॉफ्टवेयर के इस उपयोग की सार्वजनिक रूप से घोषणा नहीं की। ट्रम्प के दूसरे कार्यकाल के दौरान, Palantir को एचएचएस से $35 मिलियन से अधिक का भुगतान और दायित्व प्राप्त हुआ, हालांकि इन लेनदेन के विवरण में डीईआई या लिंग विचारधारा को लक्षित करने का उल्लेख नहीं किया गया था।
19 नवंबर, 2025 के एपस्टीन फाइल्स ट्रांसपेरेंसी एक्ट द्वारा अनिवार्य एपस्टीन फाइलों की रिहाई ने एपस्टीन और तकनीकी दुनिया के व्यक्तियों के बीच संबंधों पर नए सिरे से जांच की है। जबकि कुछ, जैसे माइक्रोसॉफ्ट के सह-संस्थापक बिल गेट्स, लंबे समय से एपस्टीन से जुड़े रहे हैं, अन्य, जैसे एलोन मस्क, की रिहाई से पहले कम स्थापित संबंध थे, Wired ने बताया। यह ध्यान रखना महत्वपूर्ण है कि एपस्टीन फाइलों में किसी नाम की उपस्थिति का मतलब जरूरी नहीं कि गलत काम हो।
इस बीच, AI की "सत्य संकट" में योगदान करने की क्षमता के बारे में चिंताएं बढ़ रही हैं। MIT Technology Review ने बताया कि अमेरिकी गृह सुरक्षा विभाग सार्वजनिक खपत के लिए सामग्री बनाने के लिए Google और Adobe से AI वीडियो जनरेटर का उपयोग कर रहा है। इस खबर ने AI-जनित सामग्री द्वारा जनता को धोखा देने, विश्वासों को आकार देने और सामाजिक विश्वास को कम करने की क्षमता के बारे में चिंताएं बढ़ा दी हैं। लेख में यह भी उल्लेख किया गया है कि इस संकट से निपटने के लिए शुरू में बनाए गए उपकरण अपर्याप्त साबित हो रहे हैं।
उद्यम AI क्षेत्र में, VentureBeat की रिपोर्ट है कि कंपनियां तेजी से बड़े भाषा मॉडल (LLM) को मालिकाना डेटा में ग्राउंड करने के लिए रिट्रीवल-ऑगमेंटेड जनरेशन (RAG) को अपना रही हैं। हालांकि, कई संगठनों को पता चल रहा है कि रिट्रीवल मॉडल अनुमान पर बोल्ट किए गए एक फीचर के बजाय एक मूलभूत सिस्टम निर्भरता बन गया है। रिट्रीवल में विफलताएं विश्वास, अनुपालन और परिचालन विश्वसनीयता को कमजोर कर सकती हैं। "बासी संदर्भ, अनियंत्रित एक्सेस पाथ और खराब मूल्यांकन वाले रिट्रीवल पाइपलाइन न केवल उत्तर की गुणवत्ता को कम करते हैं; वे विश्वास, अनुपालन और परिचालन विश्वसनीयता को कमजोर करते हैं," VentureBeat ने नोट किया।
Asana के सीपीओ अर्नब बोस ने एक उद्यम के भीतर सफल AI एजेंटों के लिए साझा मेमोरी और संदर्भ के महत्व पर जोर दिया। उन्होंने सैन फ्रांसिस्को में हाल ही में हुए VB कार्यक्रम में कहा कि AI एजेंटों को विस्तृत इतिहास और सीधी पहुंच प्रदान करना, साथ ही गार्डरेल चेकपॉइंट और मानव निरीक्षण, उन्हें सक्रिय टीम के सदस्यों के रूप में कार्य करने की अनुमति देता है। "इस तरह, जब आप कोई कार्य सौंपते हैं, तो आपको इस बारे में सभी संदर्भों को फिर से प्रदान करने की आवश्यकता नहीं होती है कि आपका व्यवसाय कैसे काम करता है," बोस ने कहा। Asana ने पिछले साल Asana AI Teammates लॉन्च किया था, जिसका उद्देश्य एक सहयोगी प्रणाली बनाना है जहां AI एजेंट सीधे टीमों और परियोजनाओं में एकीकृत हों।
Discussion
AI Experts & Community
Be the first to comment