De acordo com uma listagem recentemente publicada pela Wired sobre os casos de uso de IA do HHS em 2025, o Departamento de Saúde e Serviços Humanos (HHS) usou ferramentas de inteligência artificial da Palantir Technologies para examinar subsídios, pedidos de subsídios e descrições de cargos em busca de não conformidade com as ordens executivas do ex-presidente Donald Trump que visavam iniciativas de diversidade, equidade e inclusão (DEI) e ideologia de gênero. As ferramentas de IA foram implementadas a partir de março de 2023.
Nem a Palantir nem o HHS anunciaram publicamente o uso do software da Palantir para esses fins específicos. Durante o segundo mandato de Trump, a Palantir recebeu mais de US$ 35 milhões em pagamentos e obrigações do HHS, mas as descrições dessas transações não mencionaram o trabalho relacionado a DEI ou ideologia de gênero, de acordo com a Wired.
Essa revelação ocorre quando a Palantir reportou fortes resultados financeiros, com a empresa se declarando "um n de 1 no mercado de software de inteligência artificial", informou a Fortune. As ações do grupo de análise de dados subiram quase 8% no final do pregão após a divulgação de resultados trimestrais recordes. A Palantir reportou uma receita de US$ 1,41 bilhão no quarto trimestre, superando as expectativas dos analistas, e um lucro ajustado por ação de 25 centavos, dois centavos acima do consenso, de acordo com a Fortune.
O uso de IA por agências governamentais está atraindo maior escrutínio. A MIT Technology Review informou que o Departamento de Segurança Interna dos EUA está usando geradores de vídeo de IA do Google e da Adobe para criar conteúdo para consumo público. Esta notícia surge à medida que as agências de imigração aumentaram sua presença nas redes sociais.
Enquanto isso, a rápida proliferação da IA levou ao surgimento de novas plataformas e experimentos. Matt Schlicht, um tecnólogo, lançou o Moltbook, uma rede social exclusiva para chatbots de IA, informou a Fortune. Em dois dias, mais de 10.000 "Moltbots" aderiram à plataforma, transformando-a em um fenômeno do Vale do Silício. O New York Times chamou o Moltbook de "um teste de Rorschach para avaliar a crença no estado atual da inteligência artificial", de acordo com a Fortune.
Muitas organizações estão agora tentando descobrir a melhor forma de utilizar a IA para alcançar resultados mensuráveis. A Mistral AI faz parceria com empresas para co-criar soluções de IA personalizadas. Sua metodologia começa identificando um "caso de uso icônico", que serve de base para futuras soluções de IA, de acordo com a MIT Technology Review.
Discussion
AI Experts & Community
Be the first to comment