Tech-Giganten kämpfen mit KI, Sicherheit und ethischen Bedenken
Die Technologiebranche erlebte eine Woche der Abrechnung, als Unternehmen Herausforderungen bewältigten, die von KI-Management und Sicherheitslücken bis hin zu ethischen Erwägungen rund um Datennutzung und Identitätsprüfung reichten. Neue Entwicklungen gab es im Bereich KI-Agenten-Management, Website-Zensur, Gesichtserkennungstechnologie und Social-Media-Forschungspraktiken.
KI-Unternehmen wie Anthropic und OpenAI verlagern sich von KI als Gesprächspartner hin zu KI als delegierte Arbeitskraft. Am Donnerstag brachten beide Unternehmen Produkte auf den Markt, die sich auf die Verwaltung von Teams von KI-Agenten konzentrieren, die Arbeit aufteilen und parallel laufen, so Ars Technica. Diese Verschiebung wirft Fragen nach der Effektivität des Aufsichtsmodells und dem Grad der menschlichen Intervention auf, die zur Korrektur von Fehlern erforderlich ist. Das Konzept der KI als Arbeitskraft trug Berichten zufolge auch zu einem Rückgang der Softwareaktien um 285 Milliarden Dollar in dieser Woche bei, berichtete Ars Technica.
In der Zwischenzeit wurde eine Sicherheitslücke in LinkedIn aufgedeckt, bei der ein bösartiges Paket, das über eine Recruiter-Nachricht installiert wurde, Cloud-Zugangsdaten exfiltrieren konnte, wodurch Angreifer innerhalb von Minuten Zugriff auf AWS-Administratorrechte erhielten, berichtete VentureBeat. Diese Angriffskette, bekannt als Identity and Access Management (IAM) Pivot, verdeutlicht eine Lücke in der Art und Weise, wie Unternehmen identitätsbasierte Angriffe überwachen, so eine am 29. Januar veröffentlichte Studie von CrowdStrike Intelligence.
In anderen Nachrichten berichtete Neocities-Gründer Kyle Drake, dass Bing auf unerklärliche Weise etwa 1,5 Millionen unabhängige Websites blockiert hatte, die auf Neocities gehostet werden, berichtete Ars Technica. Neocities, gegründet im Jahr 2013, ermöglicht es Benutzern, kostenlose Websites ohne standardisierte Vorlagen zu gestalten.
Bedenken kamen auch hinsichtlich des Einsatzes von Gesichtserkennungstechnologie durch Einwanderungsbehörden auf. Laut von WIRED eingesehenen Aufzeichnungen startete das Department of Homeland Security im Frühjahr 2025 Mobile Fortify, um die Identität von Personen zu bestimmen oder zu überprüfen, die von DHS-Beamten während Bundesoperationen angehalten oder festgenommen wurden. Die App ist jedoch nicht dafür ausgelegt, Personen auf der Straße zuverlässig zu identifizieren, und wurde ohne angemessene Prüfung eingesetzt, berichtete WIRED. Das DHS brachte die Einführung ausdrücklich mit einer von Präsident Donald Trump unterzeichneten Executive Order in Verbindung, die ein hartes Durchgreifen gegen undokumentierte Einwanderer forderte.
Meta-CEO Mark Zuckerberg erwog, die Art und Weise zu ändern, wie Meta soziale Probleme untersucht, nachdem ein Artikel des Wall Street Journal die eigenen Erkenntnisse des Unternehmens über die psychische Gesundheit von Teenager-Mädchen auf Instagram hervorgehoben hatte, berichtete The Verge. Zuckerberg merkte an, dass Apple Kritik anscheinend vermeidet, indem es ein niedriges Profil wahrt, so The Verge.
Discussion
AI Experts & Community
Be the first to comment