KI-Agenten und ihre Auswirkungen auf Cybersicherheit und Web-Browsing machen Schlagzeilen. Googles neuer Auto Browse Agent, Teil von Chrome, wird an AI Pro- und AI Ultra-Abonnenten ausgerollt, während Sicherheitsprobleme im Zusammenhang mit KI-Assistenten von Experten hervorgehoben werden. Gleichzeitig entstehen Fortschritte bei KI-Modellen wie z.ai's GLM-5, das eine rekordniedrige Halluzinationsrate aufweist, neben der Entwicklung von sichereren Versionen von Open-Source-KI-Assistenten wie NanoClaw.
Googles Auto Browse Agent, der es der KI ermöglicht, im Namen eines Benutzers im Web zu surfen, befindet sich laut Ars Technica derzeit in der Vorschau für AI Pro- und AI Ultra-Abonnenten. Diese Entwicklung erfolgt, während sich die KI-Landschaft vom Chatbot-Dominanz zu den Fähigkeiten von KI-Agenten verschiebt. Der Artikel merkt jedoch an, dass KI-Agenten noch "holprig" sind, was darauf hindeutet, dass es verfrüht sein könnte, sich auf sie für kritische Aufgaben zu verlassen.
Inzwischen hat die rasche Einführung des Open-Source-KI-Assistenten OpenClaw Sicherheitsbedenken aufgeworfen. OpenClaw, entwickelt von Peter Steinberger, ermöglicht es Benutzern, Aufgaben auf ihren Geräten autonom mit natürlichen Sprachaufforderungen zu erledigen. Seine "erlaubnisfreie" Architektur veranlasste jedoch die Entwicklung von NanoClaw, einer sichereren Version. NanoClaw, das unter einer Open-Source-MIT-Lizenz debütierte, behebt diese Sicherheitslücken laut VentureBeat.
Im Bereich der KI-Modelle hat z.ai's GLM-5 laut VentureBeat eine rekordniedrige Halluzinationsrate erreicht. Das Modell, das eine Open-Source-MIT-Lizenz behält, erzielte -1 auf dem AA-Omniscience Index, eine Verbesserung um 35 Punkte gegenüber seinem Vorgänger. Diese Leistung platziert GLM-5 vor Wettbewerbern wie Google, OpenAI und Anthropic in Bezug auf die Wissenszuverlässigkeit.
Die Fortschritte in der KI überschneiden sich auch mit der Cybersicherheit. KI macht Online-Verbrechen bereits einfacher, so der MIT Technology Review. Hacker nutzen KI, um den Zeit- und Arbeitsaufwand für die Durchführung von Angriffen zu reduzieren und die Hürden für weniger erfahrene Angreifer zu senken. Einige Experten warnen vor dem Potenzial für vollautomatische Angriffe, während andere die unmittelbaren Risiken von KI-gestützten Betrügereien betonen. "Kriminelle werden zunehmend", bemerkte der MIT Technology Review.
Discussion
AI Experts & Community
Be the first to comment