Anthropics Claude-KI-Modell, das mit sechzehn Agenten zusammenarbeitete, hat in einem Zeitraum von zwei Wochen erfolgreich einen neuen C-Compiler von Grund auf neu erstellt, wie aus einem kürzlichen Blogbeitrag des Anthropic-Forschers Nicholas Carlini hervorgeht. Das Projekt, das etwa 20.000 US-Dollar an API-Gebühren kostete, demonstriert die wachsenden Fähigkeiten von KI-Agenten bei komplexen Programmieraufgaben.
Die KI-Agenten, die auf Anthropics Claude Opus 4.6 Modell liefen, erhielten minimale Aufsicht und wurden mit dem Bau des Compilers beauftragt. Das Projekt resultierte in einer 10.000 Zeilen umfassenden Codebasis. Diese Leistung unterstreicht die Fortschritte bei Multi-Agenten-KI-Tools, wobei sowohl Anthropic als auch OpenAI kürzlich ähnliche Tools veröffentlicht haben.
In anderen Nachrichten fordern Verteidiger Zugang zu Ermittlungsakten im Zusammenhang mit der Tötung von Renee Nicole Good durch den ICE-Agenten Jonathan Ross. Die Anwälte, die Roberto Carlos Muñoz-Guatemala vertreten, der wegen der Körperverletzung von Ross verurteilt wurde, fordern Ausbildungsunterlagen und Ermittlungsakten im Zusammenhang mit der Schießerei vom 7. Januar an. Muñoz-Guatemalas Anwälte wollen die Umstände um Goods Tod verstehen, da Ross derselbe Beamte war, der in beide Vorfälle verwickelt war.
Unterdessen kennzeichnet der "OpenClaw-Moment" das erste Mal, dass autonome KI-Agenten erfolgreich über das Labor hinaus in die allgemeine Arbeitswelt vorgedrungen sind. Ursprünglich als "Clawdbot" vom Ingenieur Peter Steinberger entwickelt, entwickelte sich das Framework zu "Moltbot", bevor es Ende Januar 2026 zu "OpenClaw" wurde. Im Gegensatz zu früheren Chatbots ist OpenClaw so konzipiert, dass es Shell-Befehle ausführen, lokale Dateien verwalten und Messaging-Plattformen mit dauerhaften Berechtigungen auf Root-Ebene navigieren kann.
Ein separater Bericht beschreibt eine neue Angriffskette, die als Identity and Access Management (IAM)-Pivot bezeichnet wird und Cloud-Umgebungen innerhalb von Minuten kompromittieren kann. Laut einer am 29. Januar veröffentlichten CrowdStrike Intelligence-Recherche beginnt der Angriff mit einer scheinbar legitimen LinkedIn-Nachricht. Der Entwickler wird dann dazu verleitet, ein bösartiges Paket zu installieren, das Cloud-Anmeldeinformationen exfiltriert und dem Angreifer Zugriff auf die Cloud-Umgebung gewährt.
Schließlich haben Forscher von Stanford, Nvidia und Together AI eine neue Technik namens Test-Time Training to Discover (TTT-Discover) entwickelt, die GPU-Kernel optimiert. Die Technik ermöglicht es dem Modell, während des Inferenzprozesses weiter zu trainieren und seine Gewichte für das spezifische Problem zu aktualisieren. Dieser Ansatz ermöglichte es den Forschern, einen kritischen GPU-Kernel so zu optimieren, dass er doppelt so schnell läuft wie der bisherige Stand der Technik, der von menschlichen Experten geschrieben wurde. Dies stellt die aktuellen Unternehmens-KI-Strategien in Frage, die sich oft auf "eingefrorene" Modelle verlassen, so die Forscher.
Discussion
AI Experts & Community
Be the first to comment