KI-gestützte Bedrohungen nehmen zu, wobei Open-Source-KI-Agenten sich rasant in Geschäftsumgebungen ausbreiten und Schwachstellen von böswilligen Akteuren ausgenutzt werden, so mehrere Berichte. Die rasche Verbreitung von Tools wie OpenClaw, das autonomen Agenten Shell-Zugriff, Dateisystemprivilegien und Zugriff auf sensible Daten gewährt, beunruhigt Sicherheitsverantwortliche. Gleichzeitig wirft der Einsatz von KI in sensiblen Operationen, wie beispielsweise der gemeldete Einsatz von Anthropics Claude durch das US-Militär, weitere ethische und sicherheitsrelevante Fragen auf.
VentureBeat berichtete, dass die öffentlich exponierten Einsätze von OpenClaw, einem Open-Source-KI-Agenten, in weniger als einer Woche von etwa 1.000 auf über 21.000 anstiegen. Diese rasche Akzeptanz, gepaart mit der einfachen Installation über Einzeilenbefehle, hat dazu geführt, dass Mitarbeiter den Agenten auf Unternehmensrechnern einsetzen. Die Telemetrie von Bitdefender's GravityZone bestätigte, dass Mitarbeiter OpenClaw auf Unternehmensrechnern einsetzten und so Zugriff auf sensible Daten gewährten. Dieselbe Quelle hob hervor, dass eine Ein-Klick-Remote-Code-Ausführungs-Schwachstelle, CVE-2026-25253, mit einem CVSS-Wert von 8,8, es Angreifern ermöglicht, Authentifizierungstoken zu stehlen und eine vollständige Gateway-Kompromittierung zu erreichen. Eine separate Command-Injection-Schwachstelle existiert ebenfalls.
Die Abkehr von Googles mobilem Ökosystem stellt zusätzliche Herausforderungen dar, da datenschutzorientierte Alternativen oft nicht über die volle Funktionalität verfügen, so VentureBeat und Wired. Während der Ersatz von Google-Diensten relativ einfach ist, ist die Abkehr von Googles mobilem Betriebssystem schwieriger. Optionen wie de-googlete Android-basierte Systeme und Linux-basierte Systeme sind verfügbar, obwohl iOS die funktionsreichste Alternative bleibt. Diese Alternativen priorisieren den Datenschutz durch die Entfernung von Google-Diensten, gehen aber oft mit Einschränkungen in der Funktionalität einher.
The Guardian berichtete, dass das US-Militär Anthropics KI-Modell Claude während einer Razzia in Venezuela einsetzte, obwohl Anthropic seinen Einsatz nicht bestätigt hat. Das Wall Street Journal berichtete, dass Claude durch Anthropics Partnerschaft mit Palantir Technologies eingesetzt wurde, trotz der Richtlinien von Anthropic, die die Verwendung des Tools für gewalttätige oder Überwachungszwecke verbieten.
Der Anstieg von KI-gestützten Bedrohungen geht über Unternehmensumgebungen hinaus. VentureBeat wies auch auf Schwachstellen in KI-Plattformen hin, darunter der Hack eines Laptops eines BBC-Reporters über ein KI-Coding-Tool und Android-Malware, die als gefälschte Antiviren-App auf Hugging Face gehostet wurde.
Hacker News hob die Bedeutung der überprüfbaren Korrektheit in der LLM-gestützten Softwareentwicklung hervor und nannte die Verwendung von farbigen Petri-Netzen (CPNs) als potenzielle Lösung für den Aufbau robusterer und sicherer KI-Systeme. CPNs, eine Erweiterung von Petri-Netzen, bieten einen Rahmen für die Erstellung überprüfbarer Systeme.
Discussion
AI Experts & Community
Be the first to comment