IA Sob Escrutínio: HHS Usa Palantir para Triagem de DEI, Arquivos de Epstein Divulgados e Preocupações com a Verdade da IA Aumentam
O Departamento de Saúde e Serviços Humanos (HHS) usou ferramentas de inteligência artificial da Palantir para rastrear subsídios e descrições de cargos em busca de conformidade com as ordens executivas do ex-presidente Donald Trump, visando iniciativas de diversidade, equidade e inclusão (DEI) e ideologia de gênero, de acordo com um inventário recentemente publicado do uso de IA pelo HHS em 2025. Essa revelação ocorre no momento em que o Departamento de Justiça divulgou aproximadamente 3,5 milhões de páginas de arquivos relacionados ao criminoso sexual condenado Jeffrey Epstein, revelando conexões com figuras proeminentes na indústria de tecnologia, e à medida que crescem as preocupações sobre o potencial da IA para corroer a confiança da sociedade.
De acordo com a Wired, o HHS usou as ferramentas de IA da Palantir desde março de 2025 para auditar subsídios, pedidos de subsídios e descrições de cargos. Nem a Palantir nem o HHS anunciaram publicamente esse uso do software da empresa. Durante o segundo mandato de Trump, a Palantir recebeu mais de US$ 35 milhões em pagamentos e obrigações do HHS, embora as descrições dessas transações não mencionassem o direcionamento de DEI ou ideologia de gênero.
A divulgação dos arquivos de Epstein, exigida pela Lei de Transparência dos Arquivos de Epstein de 19 de novembro de 2025, trouxe um novo escrutínio às relações entre Epstein e indivíduos no mundo da tecnologia. Embora alguns, como o cofundador da Microsoft, Bill Gates, estejam associados a Epstein há muito tempo, outros, como Elon Musk, tinham conexões menos estabelecidas antes da divulgação, informou a Wired. É importante notar que a presença de um nome nos arquivos de Epstein não implica necessariamente em irregularidades.
Enquanto isso, as preocupações estão aumentando sobre o potencial da IA para contribuir para uma "crise da verdade". A MIT Technology Review informou que o Departamento de Segurança Interna dos EUA está usando geradores de vídeo de IA do Google e da Adobe para criar conteúdo para consumo público. Esta notícia levantou preocupações sobre o potencial do conteúdo gerado por IA para enganar o público, moldar crenças e corroer a confiança da sociedade. O artigo também observou que as ferramentas inicialmente destinadas a combater esta crise estão se mostrando inadequadas.
No espaço de IA empresarial, a VentureBeat relata que as empresas estão adotando cada vez mais a Geração Aumentada por Recuperação (RAG) para fundamentar Grandes Modelos de Linguagem (LLMs) em dados proprietários. No entanto, muitas organizações estão descobrindo que a recuperação se tornou uma dependência fundamental do sistema, em vez de um recurso adicionado à inferência do modelo. Falhas na recuperação podem minar a confiança, a conformidade e a confiabilidade operacional. "Contexto obsoleto, caminhos de acesso não regulamentados e pipelines de recuperação mal avaliados não apenas degradam a qualidade da resposta; eles minam a confiança, a conformidade e a confiabilidade operacional", observou a VentureBeat.
O CPO da Asana, Arnab Bose, enfatizou a importância da memória e do contexto compartilhados para agentes de IA bem-sucedidos dentro de uma empresa. Ele afirmou em um evento recente da VB em São Francisco que fornecer aos agentes de IA histórico detalhado e acesso direto, juntamente com pontos de verificação de proteção e supervisão humana, permite que eles funcionem como colegas de equipe ativos. "Desta forma, quando você atribui uma tarefa, você não precisa fornecer novamente todo o contexto sobre como sua empresa funciona", disse Bose. A Asana lançou o Asana AI Teammates no ano passado com o objetivo de criar um sistema colaborativo onde os agentes de IA são integrados diretamente em equipes e projetos.
Discussion
AI Experts & Community
Be the first to comment