ИИ под пристальным вниманием: Министерство здравоохранения и социальных служб США использует Palantir для проверки DEI, опубликованы файлы Эпштейна, и растут опасения по поводу правдивости ИИ
Согласно недавно опубликованному отчету об использовании ИИ Министерством здравоохранения и социальных служб США (HHS) в 2025 году, министерство использовало инструменты искусственного интеллекта от Palantir для проверки грантов и должностных инструкций на соответствие указам бывшего президента Дональда Трампа, направленным против инициатив в области разнообразия, равенства и инклюзивности (DEI) и гендерной идеологии. Это откровение появилось на фоне того, как Министерство юстиции опубликовало около 3,5 миллионов страниц файлов, связанных с осужденным за сексуальные преступления Джеффри Эпштейном, раскрывающих связи с видными деятелями в технологической индустрии, и на фоне растущих опасений по поводу потенциала ИИ в подрыве доверия общества.
Как сообщает Wired, HHS использовало инструменты ИИ Palantir с марта 2025 года для аудита грантов, заявок на гранты и должностных инструкций. Ни Palantir, ни HHS публично не объявляли об использовании программного обеспечения компании. Во время второго срока Трампа Palantir получила от HHS более 35 миллионов долларов в виде платежей и обязательств, хотя в описаниях этих транзакций не упоминалось о таргетинге на DEI или гендерную идеологию.
Публикация файлов Эпштейна, предписанная Законом о прозрачности файлов Эпштейна от 19 ноября 2025 года, вновь привлекла внимание к отношениям между Эпштейном и лицами из мира технологий. В то время как некоторые, такие как соучредитель Microsoft Билл Гейтс, уже давно связаны с Эпштейном, другие, такие как Илон Маск, имели менее прочные связи до публикации, сообщает Wired. Важно отметить, что присутствие имени в файлах Эпштейна не обязательно подразумевает правонарушение.
Тем временем растут опасения по поводу потенциала ИИ в содействии "кризису правды". MIT Technology Review сообщило, что Министерство внутренней безопасности США использует генераторы видео на основе ИИ от Google и Adobe для создания контента для общественного потребления. Эта новость вызвала обеспокоенность по поводу потенциала контента, созданного ИИ, в обмане общественности, формировании убеждений и подрыве доверия общества. В статье также отмечалось, что инструменты, первоначально предназначенные для борьбы с этим кризисом, оказываются неадекватными.
В сфере корпоративного ИИ, как сообщает VentureBeat, компании все чаще используют Retrieval-Augmented Generation (RAG) для привязки больших языковых моделей (LLM) к проприетарным данным. Однако многие организации обнаруживают, что извлечение стало фундаментальной системной зависимостью, а не функцией, прикрепленной к выводу модели. Сбои в извлечении могут подорвать доверие, соответствие требованиям и операционную надежность. "Устаревший контекст, неконтролируемые пути доступа и плохо оцененные конвейеры извлечения не просто ухудшают качество ответов; они подрывают доверие, соответствие требованиям и операционную надежность", - отмечает VentureBeat.
Директор по продуктам Asana Арнаб Бозе подчеркнул важность общей памяти и контекста для успешных агентов ИИ внутри предприятия. На недавнем мероприятии VB в Сан-Франциско он заявил, что предоставление агентам ИИ подробной истории и прямого доступа, а также контрольных точек и надзора со стороны человека позволяет им функционировать в качестве активных членов команды. "Таким образом, когда вы назначаете задачу, вам не нужно заново предоставлять весь контекст о том, как работает ваш бизнес", - сказал Бозе. Asana запустила Asana AI Teammates в прошлом году с целью создания системы совместной работы, в которой агенты ИИ непосредственно интегрированы в команды и проекты.
Discussion
AI Experts & Community
Be the first to comment