تدقيق الذكاء الاصطناعي: وزارة الصحة والخدمات الإنسانية تستخدم بالانتير للفحص المتعلق بالتنوع والمساواة والشمول، ونشر ملفات إبستين، وتصاعد المخاوف بشأن حقيقة الذكاء الاصطناعي
استخدمت وزارة الصحة والخدمات الإنسانية (HHS) أدوات الذكاء الاصطناعي من بالانتير لفحص المنح والأوصاف الوظيفية للتأكد من امتثالها للأوامر التنفيذية للرئيس السابق دونالد ترامب التي تستهدف مبادرات التنوع والمساواة والشمول (DEI) والأيديولوجية الجنسانية، وفقًا لجرد نُشر مؤخرًا لاستخدام وزارة الصحة والخدمات الإنسانية للذكاء الاصطناعي في عام 2025. يأتي هذا الكشف في الوقت الذي نشرت فيه وزارة العدل ما يقرب من 3.5 مليون صفحة من الملفات المتعلقة بالمجرم الجنسي المدان جيفري إبستين، وكشفت عن صلات بشخصيات بارزة في صناعة التكنولوجيا، ومع تزايد المخاوف بشأن احتمال تسبب الذكاء الاصطناعي في تآكل الثقة المجتمعية.
وفقًا لمجلة Wired، استخدمت وزارة الصحة والخدمات الإنسانية أدوات الذكاء الاصطناعي الخاصة ببالانتير منذ مارس 2025 لتدقيق المنح وطلبات المنح والأوصاف الوظيفية. لم تعلن بالانتير ولا وزارة الصحة والخدمات الإنسانية علنًا عن هذا الاستخدام لبرامج الشركة. خلال فترة ولاية ترامب الثانية، تلقت بالانتير أكثر من 35 مليون دولار من المدفوعات والالتزامات من وزارة الصحة والخدمات الإنسانية، على الرغم من أن أوصاف هذه المعاملات لم تذكر استهداف التنوع والمساواة والشمول أو الأيديولوجية الجنسانية.
أدى نشر ملفات إبستين، الذي فرضه قانون شفافية ملفات إبستين الصادر في 19 نوفمبر 2025، إلى تجديد التدقيق في العلاقات بين إبستين والأفراد في عالم التكنولوجيا. في حين أن البعض، مثل المؤسس المشارك لشركة مايكروسوفت بيل غيتس، ارتبطوا منذ فترة طويلة بإبستين، إلا أن آخرين، مثل إيلون ماسك، كانت لديهم علاقات أقل رسوخًا قبل الإصدار، حسبما ذكرت Wired. من المهم ملاحظة أن وجود اسم في ملفات إبستين لا يعني بالضرورة ارتكاب مخالفات.
وفي الوقت نفسه، تتصاعد المخاوف بشأن احتمال مساهمة الذكاء الاصطناعي في "أزمة الحقيقة". ذكرت مجلة MIT Technology Review أن وزارة الأمن الداخلي الأمريكية تستخدم مولدات الفيديو التي تعمل بالذكاء الاصطناعي من Google و Adobe لإنشاء محتوى للاستهلاك العام. أثارت هذه الأخبار مخاوف بشأن احتمال أن يخدع المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي الجمهور، ويشكل المعتقدات، ويؤدي إلى تآكل الثقة المجتمعية. وأشار المقال أيضًا إلى أن الأدوات التي كانت تهدف في الأصل إلى مكافحة هذه الأزمة أثبتت عدم كفايتها.
في مجال الذكاء الاصطناعي للمؤسسات، تفيد VentureBeat أن الشركات تتبنى بشكل متزايد الاسترجاع المعزز بالتوليد (RAG) لترسيخ نماذج اللغة الكبيرة (LLMs) في البيانات المسجلة الملكية. ومع ذلك، تجد العديد من المؤسسات أن الاسترجاع أصبح اعتمادًا أساسيًا للنظام، بدلاً من كونه ميزة إضافية للاستدلال النموذجي. يمكن أن يؤدي الفشل في الاسترجاع إلى تقويض الثقة والامتثال والموثوقية التشغيلية. "السياق القديم ومسارات الوصول غير المنظمة وخطوط أنابيب الاسترجاع التي تم تقييمها بشكل سيئ لا تقلل فقط من جودة الإجابة؛ بل تقوض الثقة والامتثال والموثوقية التشغيلية"، حسبما أشارت VentureBeat.
أكد أرناب بوز، كبير مسؤولي المنتجات في Asana، على أهمية الذاكرة والسياق المشتركين لوكلاء الذكاء الاصطناعي الناجحين داخل المؤسسة. وذكر في حدث VB الأخير في سان فرانسيسكو أن تزويد وكلاء الذكاء الاصطناعي بتاريخ مفصل ووصول مباشر، إلى جانب نقاط تفتيش الحماية والرقابة البشرية، يسمح لهم بالعمل كزملاء فريق نشطين. قال بوز: "بهذه الطريقة، عندما تقوم بتعيين مهمة، لن تضطر إلى المضي قدمًا وإعادة تقديم كل السياق حول كيفية عمل عملك". أطلقت Asana برنامج Asana AI Teammates العام الماضي بهدف إنشاء نظام تعاوني يتم فيه دمج وكلاء الذكاء الاصطناعي مباشرة في الفرق والمشاريع.
Discussion
AI Experts & Community
Be the first to comment