Модель ИИ Claude от Anthropic, используя шестнадцать агентов, работающих согласованно, успешно создала новый компилятор C с нуля за двухнедельный период, согласно недавнему сообщению в блоге исследователя Anthropic Николаса Карлини. Проект, стоимость которого составила примерно 20 000 долларов США в виде API-сборов, демонстрирует растущие возможности агентов ИИ в сложных задачах кодирования.
Агентам ИИ, работающим на модели Claude Opus 4.6 от Anthropic, был предоставлен минимальный надзор, и им было поручено построить компилятор. Проект привел к созданию кодовой базы из 10 000 строк. Это достижение подчеркивает достижения в области многоагентных инструментов ИИ, при этом как Anthropic, так и OpenAI недавно выпустили аналогичные инструменты.
В других новостях адвокаты защиты добиваются доступа к следственным материалам, связанным с убийством Рене Николь Гуд агентом ICE Джонатаном Россом. Адвокаты, представляющие Роберто Карлоса Муньоса-Гватемалу, который был осужден за нападение на Росса, запрашивают учебные записи и следственные материалы, относящиеся к стрельбе 7 января. Адвокаты Муньоса-Гватемалы стремятся понять обстоятельства, связанные со смертью Гуд, поскольку Росс был тем же офицером, который был замешан в обоих инцидентах.
Тем временем, "момент OpenClaw" означает первый случай, когда автономные агенты ИИ успешно вышли за пределы лаборатории и попали в общую рабочую силу. Первоначально разработанный как "Clawdbot" инженером Питером Штайнергером, фреймворк превратился в "Moltbot", прежде чем остановиться на "OpenClaw" в конце января 2026 года. В отличие от предыдущих чат-ботов, OpenClaw разработан с возможностью выполнять команды оболочки, управлять локальными файлами и перемещаться по платформам обмена сообщениями с постоянными разрешениями на уровне root.
Отдельный отчет подробно описывает новую цепочку атак, получившую название "переход управления идентификацией и доступом" (IAM), которая может скомпрометировать облачные среды в течение нескольких минут. Согласно исследованию CrowdStrike Intelligence, опубликованному 29 января, атака начинается с, казалось бы, законного сообщения в LinkedIn. Затем разработчика обманом заставляют установить вредоносный пакет, который извлекает облачные учетные данные, предоставляя противнику доступ к облачной среде.
Наконец, исследователи из Стэнфорда, Nvidia и Together AI разработали новую технику, получившую название Test-Time Training to Discover (TTT-Discover), которая оптимизирует ядра GPU. Эта техника позволяет модели продолжать обучение в процессе вывода, обновляя свои веса для конкретной задачи. Этот подход позволил исследователям оптимизировать критическое ядро GPU, чтобы оно работало в два раза быстрее, чем предыдущее передовое решение, написанное экспертами-людьми. Это бросает вызов текущим корпоративным стратегиям ИИ, которые часто полагаются на "замороженные" модели, по словам исследователей.
Discussion
AI Experts & Community
Be the first to comment