لم يكشف قسم الكفاءة الحكومية التابع لإيلون ماسك (DOGE) عن مبلغ الـ 2 تريليون دولار من الاحتيال الحكومي الذي أشار ماسك في البداية إلى أنه ممكن، لكن حلفاء ماسك يؤكدون أن هذا الجهد لا يزال يحمل قيمة على الرغم من عدم تحقيقه لأهدافه الطموحة. يختلف تقييم نجاح DOGE، ولكن من الصعب بشكل متزايد القول بأن المبادرة قللت بشكل كبير من الإنفاق الفيدرالي، وهو هدفها الأساسي.
قلل ماسك نفسه مؤخرًا من تأثير DOGE، واصفًا إياه بأنه "ناجح قليلاً" فقط في بودكاست. يمثل هذا اعترافًا نادرًا من ماسك بأن DOGE لم يحقق غرضه المقصود بالكامل. لاحقًا، يوم الاثنين، كرر ماسك ادعاءات لا أساس لها من الصحة كان قد أدلى بها سابقًا أثناء دعمه لدونالد ترامب، مؤكدًا أن الاحتيال الحكومي واسع النطاق لا يزال قائماً على الرغم من جهود DOGE.
في منشور على X، قدر ماسك أن "تقديري الأدنى لمقدار الاحتيال الموجود على المستوى الوطني يبلغ حوالي 20 بالمائة من الميزانية الفيدرالية، مما يعني 1.5 تريليون دولار سنويًا. ربما أعلى من ذلك بكثير." كان ماسك قد ترك DOGE سابقًا في مايو، مشيرًا إلى خلافات مع ترامب حول مشروع قانون الميزانية الذي اعتقد ماسك أنه سيقوض عمل DOGE. يبدو الآن أقل ثقة في قيمة مشاركته في مبادرات الكفاءة الحكومية.
يعتمد مفهوم استخدام الذكاء الاصطناعي، مثل ذلك الذي يُحتمل تصوره لـ DOGE، للكشف عن الاحتيال على التعرف على الأنماط واكتشاف الحالات الشاذة. يمكن تدريب خوارزميات الذكاء الاصطناعي على مجموعات بيانات واسعة من المعاملات المالية والسجلات الحكومية لتحديد الأنشطة المشبوهة التي قد يغفل عنها المدققون البشريون. غالبًا ما تستخدم هذه الأنظمة تقنيات التعلم الآلي، مما يسمح لها بالتكيف وتحسين دقتها بمرور الوقت عند مواجهة بيانات جديدة. ومع ذلك، تعتمد فعالية هذه الأنظمة بشكل كبير على جودة واكتمال البيانات التي يتم تدريبها عليها، بالإضافة إلى مدى تطور الخوارزميات المستخدمة.
تعتبر الآثار المترتبة على الذكاء الاصطناعي في الرقابة الحكومية كبيرة. إذا كان الذكاء الاصطناعي قادرًا على تحديد ومنع الاحتيال بنجاح، فقد يؤدي ذلك إلى توفير كبير في التكاليف وتحسين الكفاءة في العمليات الحكومية. ومع ذلك، هناك أيضًا مخاوف بشأن التحيز في خوارزميات الذكاء الاصطناعي، مما قد يؤدي إلى نتائج غير عادلة أو تمييزية. بالإضافة إلى ذلك، يثير استخدام الذكاء الاصطناعي في الحكومة تساؤلات حول الشفافية والمساءلة، حيث قد يكون من الصعب فهم كيف توصل نظام الذكاء الاصطناعي إلى قرار معين.
ركزت التطورات الأخيرة في الذكاء الاصطناعي على تحسين قابلية الشرح والجدارة بالثقة لأنظمة الذكاء الاصطناعي. يعمل الباحثون على تقنيات لجعل خوارزميات الذكاء الاصطناعي أكثر شفافية وتقديم تفسيرات لقراراتهم. هناك أيضًا اهتمام متزايد بتطوير أنظمة الذكاء الاصطناعي التي تتماشى مع القيم الإنسانية والمبادئ الأخلاقية.
على الرغم من أوجه القصور الظاهرة في DOGE، يجادل بعض المراقبين بأن المبادرة ساعدت في زيادة الوعي بشأن الهدر الحكومي وعدم الكفاءة. يقترح آخرون أن جهود DOGE ربما مهدت الطريق لمبادرات مستقبلية لتحسين المساءلة الحكومية. لا يزال التأثير طويل المدى لـ DOGE غير واضح، لكنه أثار بلا شك نقاشًا حول دور التكنولوجيا وخبرة القطاع الخاص في الرقابة الحكومية.
Discussion
Join the conversation
Be the first to comment