KI-Agenten revolutionieren Unternehmensabläufe, doch Governance-Bedenken werden laut
Unternehmen setzen zunehmend KI-Agenten ein, um komplexe Aufgaben zu automatisieren, doch laut aktuellen Berichten wachsen die Bedenken hinsichtlich potenzieller Risiken und der Notwendigkeit einer robusten Governance. Der Wandel kommt, da Unternehmen mit einer überwältigenden Anzahl von Sicherheitswarnungen zu kämpfen haben und versuchen, Abläufe in technisch anspruchsvollen Bereichen zu rationalisieren.
Der Aufstieg der KI-Agenten wird durch die Notwendigkeit getrieben, die stetig wachsende Anzahl von Sicherheitswarnungen zu verwalten. Das durchschnittliche Security Operations Center (SOC) eines Unternehmens erhält laut VentureBeat 10.000 Warnungen pro Tag, von denen jede 20 bis 40 Minuten zur Untersuchung benötigt. Selbst voll besetzte Teams können jedoch nur 22 dieser Warnungen bearbeiten. Dies hat zu Situationen geführt, in denen über 60 % der Sicherheitsteams zugegeben haben, Warnungen zu ignorieren, die sich später als kritisch erwiesen.
Um diese Herausforderung zu bewältigen, automatisieren SOC-Teams Aufgaben wie Triage, Anreicherung und Eskalation, wobei sich menschliche Analysten auf Untersuchung, Überprüfung und Entscheidungen in Grenzfällen konzentrieren, berichtete VentureBeat. Contextual AI, ein Startup, das von Bezos Expeditions und Bain Capital Ventures unterstützt wird, hat kürzlich Agent Composer auf den Markt gebracht, eine Plattform, die Ingenieuren helfen soll, KI-Agenten für wissensintensive Arbeit in Branchen wie Luft- und Raumfahrt und Halbleiterfertigung zu entwickeln, so VentureBeat.
Moonshot AI, ein chinesisches Unternehmen, hat sein Open-Source-Modell Kimi K2 auf Kimi K2.5 aufgerüstet und es in ein Coding- und Vision-Modell verwandelt, das die Orchestrierung von Agentenschwärmen unterstützt, berichtete VentureBeat. Dies ermöglicht es Unternehmen, Agenten zu erstellen, die Aktionen automatisch weitergeben können, anstatt sich auf einen zentralen Entscheidungsträger zu verlassen. Das Kimi K2-Modell, auf dem Kimi K2.5 basiert, hatte laut VentureBeat insgesamt 1 Billion Parameter und 32 Milliarden aktivierte Parameter.
Die zunehmende Abhängigkeit von KI-Agenten birgt jedoch auch neue Sicherheitsrisiken. MIT Technology Review berichtete, dass die Nötigung von agentischen Aktionen mit menschlicher Beteiligung und vollständig autonome agentische Workflows zu einem neuen Angriffsvektor für Hacker werden. Der Gemini Calendar Prompt-Injection-Angriff von 2026 und ein staatlich geförderter Hack im September 2025, bei dem der Claude-Code von Anthropic als automatisierte Intrusion Engine verwendet wurde, sind Beispiele für solche Angriffe.
Im Fall Anthropic nutzten Angreifer KI, um 80 bis 90 % der Operation durchzuführen, einschließlich Aufklärung, Exploit-Entwicklung, Credential Harvesting, laterale Bewegung und Datenexfiltration, wobei Menschen nur an einer Handvoll wichtiger Entscheidungspunkte eingriffen, so MIT Technology Review. Der Angriff betraf etwa 30 Organisationen aus den Bereichen Technologie, Finanzen, Fertigung und Regierung.
Gartner prognostiziert, dass über 40 % der agentischen KI-Initiativen aufgrund mangelnder Integration von menschlicher Einsicht und Intuition scheitern werden, so VentureBeat. Dies unterstreicht die Bedeutung der Festlegung von Governance-Grenzen, um sicherzustellen, dass KI-Agenten effektiv und ethisch eingesetzt werden.
Discussion
Join the conversation
Be the first to comment