Департамент правительственной эффективности (DOGE) Илона Маска не обнаружил 2 триллиона долларов государственных хищений, о возможности которых Маск изначально заявлял, но союзники Маска утверждают, что эти усилия все равно были полезными. Оценка успеха DOGE варьируется в зависимости от источника, но имеющиеся данные свидетельствуют о том, что инициатива не смогла существенно сократить федеральные расходы, что было ее основной целью.
Сам Маск недавно преуменьшил достижения DOGE, назвав его лишь "немного успешным" в подкасте. Это ознаменовало отход от его более ранних, более оптимистичных заявлений о потенциальном влиянии проекта. Совсем недавно Маск возобновил необоснованные утверждения, заявив о широко распространенном и неконтролируемом государственном мошенничестве, что, по-видимому, противоречит любому положительному влиянию, которое мог оказать DOGE. В X он оценил, что "моя нижняя граница оценки того, сколько мошенничества существует в масштабах страны, составляет около 20 процентов федерального бюджета, что означает 1,5 триллиона в год. Вероятно, намного больше".
Участие Маска в DOGE закончилось в мае после разногласий с бывшим президентом Дональдом Трампом, со ссылкой на опасения, что законопроект о бюджете Трампа подорвет работу DOGE. Текущие заявления Маска свидетельствуют об отсутствии уверенности в ценности его вторжения в усилия по повышению эффективности правительства.
Концепция использования ИИ, даже в ограниченном масштабе, как DOGE, для выявления мошенничества и растрат в государственных расходах отражает растущую тенденцию. Алгоритмы ИИ могут анализировать огромные наборы данных для выявления аномалий и закономерностей, указывающих на мошенническую деятельность, задачу, которую было бы невозможно выполнить вручную. Однако эффективность таких систем во многом зависит от качества и полноты данных, а также от сложности используемых алгоритмов.
Последствия обнаружения мошенничества с помощью ИИ выходят за рамки правительства. Финансовые учреждения, поставщики медицинских услуг и другие организации все чаще используют ИИ для борьбы с мошенничеством и повышения эффективности. Однако сохраняются опасения по поводу потенциальной предвзятости в алгоритмах ИИ и необходимости прозрачности и подотчетности при их развертывании. Последние разработки в этой области включают использование федеративного обучения, которое позволяет обучать модели ИИ на децентрализованных данных без ущерба для конфиденциальности, и разработку методов объяснимого ИИ (XAI), которые направлены на то, чтобы сделать процесс принятия решений ИИ более прозрачным и понятным.
Discussion
Join the conversation
Be the first to comment