KI unter Beschuss: HHS nutzt Palantir für DEI-Screening, Epstein-Akten veröffentlicht und Bedenken hinsichtlich der KI-Wahrheit nehmen zu
Das Department of Health and Human Services (HHS) nutzte künstliche Intelligenz-Tools von Palantir, um Zuschüsse und Stellenbeschreibungen auf die Einhaltung der Durchführungsverordnungen des ehemaligen Präsidenten Donald Trump zu Diversität, Gleichberechtigung und Inklusion (DEI) sowie zur Geschlechterideologie zu überprüfen, wie aus einem kürzlich veröffentlichten Inventar der KI-Nutzung des HHS im Jahr 2025 hervorgeht. Diese Enthüllung erfolgt, nachdem das Justizministerium etwa 3,5 Millionen Seiten an Akten im Zusammenhang mit dem verurteilten Sexualstraftäter Jeffrey Epstein freigegeben hat, die Verbindungen zu prominenten Persönlichkeiten der Technologiebranche aufdecken, und angesichts wachsender Bedenken hinsichtlich des Potenzials von KI, das gesellschaftliche Vertrauen zu untergraben.
Laut Wired nutzte das HHS die KI-Tools von Palantir seit März 2025, um Zuschüsse, Zuschussanträge und Stellenbeschreibungen zu prüfen. Weder Palantir noch das HHS haben diese Nutzung der Software des Unternehmens öffentlich bekannt gegeben. Während Trumps zweiter Amtszeit erhielt Palantir über 35 Millionen Dollar an Zahlungen und Verpflichtungen vom HHS, obwohl in den Beschreibungen dieser Transaktionen die Ausrichtung auf DEI oder Geschlechterideologie nicht erwähnt wurde.
Die Freigabe der Epstein-Akten, die durch den Epstein Files Transparency Act vom 19. November 2025 vorgeschrieben ist, hat die Beziehungen zwischen Epstein und Personen aus der Tech-Welt erneut in den Fokus gerückt. Während einige, wie Microsoft-Mitbegründer Bill Gates, schon lange mit Epstein in Verbindung gebracht wurden, hatten andere, wie Elon Musk, vor der Veröffentlichung weniger etablierte Verbindungen, wie Wired berichtete. Es ist wichtig zu beachten, dass die Nennung eines Namens in den Epstein-Akten nicht zwangsläufig ein Fehlverhalten impliziert.
Inzwischen wachsen die Bedenken, dass KI zu einer "Wahrheitskrise" beitragen könnte. Die MIT Technology Review berichtete, dass das US-Heimatschutzministerium KI-Videogeneratoren von Google und Adobe verwendet, um Inhalte für den öffentlichen Konsum zu erstellen. Diese Nachricht hat Bedenken hinsichtlich des Potenzials von KI-generierten Inhalten geweckt, die Öffentlichkeit zu täuschen, Überzeugungen zu formen und das gesellschaftliche Vertrauen zu untergraben. Der Artikel wies auch darauf hin, dass sich Instrumente, die ursprünglich zur Bekämpfung dieser Krise gedacht waren, als unzureichend erweisen.
Im Bereich der Enterprise-KI berichtet VentureBeat, dass Unternehmen zunehmend Retrieval-Augmented Generation (RAG) einsetzen, um Large Language Models (LLMs) in proprietären Daten zu verankern. Viele Unternehmen stellen jedoch fest, dass Retrieval zu einer grundlegenden Systemabhängigkeit geworden ist und nicht mehr nur ein Feature ist, das an die Modellinferenz angehängt wird. Fehler beim Retrieval können das Vertrauen, die Compliance und die betriebliche Zuverlässigkeit untergraben. "Veralteter Kontext, unkontrollierte Zugriffspfade und schlecht evaluierte Retrieval-Pipelines beeinträchtigen nicht nur die Antwortqualität, sondern untergraben auch das Vertrauen, die Compliance und die betriebliche Zuverlässigkeit", bemerkte VentureBeat.
Asana CPO Arnab Bose betonte die Bedeutung von gemeinsamem Gedächtnis und Kontext für erfolgreiche KI-Agenten innerhalb eines Unternehmens. Er erklärte auf einer kürzlich stattgefundenen VB-Veranstaltung in San Francisco, dass die Bereitstellung detaillierter Historie und direktem Zugriff für KI-Agenten, zusammen mit Leitplanken-Checkpoints und menschlicher Aufsicht, es ihnen ermöglicht, als aktive Teammitglieder zu fungieren. "Auf diese Weise müssen Sie nicht den gesamten Kontext darüber, wie Ihr Unternehmen funktioniert, erneut bereitstellen, wenn Sie eine Aufgabe zuweisen", sagte Bose. Asana hat letztes Jahr Asana AI Teammates auf den Markt gebracht, mit dem Ziel, ein kollaboratives System zu schaffen, in dem KI-Agenten direkt in Teams und Projekte integriert sind.
Discussion
AI Experts & Community
Be the first to comment