El modelo de IA Claude de Anthropic, utilizando dieciséis agentes trabajando en conjunto, creó con éxito un nuevo compilador C desde cero en un período de dos semanas, según una publicación reciente en el blog del investigador de Anthropic, Nicholas Carlini. El proyecto, que costó aproximadamente $20,000 en tarifas de API, demuestra las crecientes capacidades de los agentes de IA en tareas de codificación complejas.
Los agentes de IA, ejecutándose en el modelo Claude Opus 4.6 de Anthropic, recibieron una supervisión mínima y se les encomendó la tarea de construir el compilador. El proyecto resultó en una base de código de 10,000 líneas. Este logro destaca los avances en las herramientas de IA multi-agente, con Anthropic y OpenAI lanzando herramientas similares recientemente.
En otras noticias, los abogados defensores están solicitando acceso a los archivos de investigación relacionados con el asesinato de Renee Nicole Good por el agente de ICE Jonathan Ross. Los abogados, que representan a Roberto Carlos Muñoz-Guatemala, quien fue condenado por agredir a Ross, están solicitando registros de capacitación y archivos de investigación relacionados con el tiroteo del 7 de enero. Los abogados de Muñoz-Guatemala buscan comprender las circunstancias que rodearon la muerte de Good, ya que Ross fue el mismo oficial involucrado en ambos incidentes.
Mientras tanto, el "momento OpenClaw" significa la primera vez que los agentes de IA autónomos han pasado con éxito del laboratorio a la fuerza laboral general. Originalmente desarrollado como "Clawdbot" por el ingeniero Peter Steinberger, el marco evolucionó a "Moltbot" antes de establecerse en "OpenClaw" a finales de enero de 2026. A diferencia de los chatbots anteriores, OpenClaw está diseñado con la capacidad de ejecutar comandos de shell, administrar archivos locales y navegar por plataformas de mensajería con permisos persistentes a nivel de raíz.
Un informe separado detalla una nueva cadena de ataque, denominada pivote de gestión de identidad y acceso (IAM), que puede comprometer entornos en la nube en cuestión de minutos. Según la investigación de CrowdStrike Intelligence publicada el 29 de enero, el ataque comienza con un mensaje de LinkedIn aparentemente legítimo. Luego, el desarrollador es engañado para que instale un paquete malicioso que extrae credenciales de la nube, otorgando al adversario acceso al entorno de la nube.
Finalmente, investigadores de Stanford, Nvidia y Together AI han desarrollado una nueva técnica, llamada Entrenamiento en Tiempo de Prueba para Descubrir (TTT-Discover), que optimiza los kernels de GPU. La técnica permite que el modelo continúe entrenando durante el proceso de inferencia, actualizando sus pesos para el problema específico. Este enfoque permitió a los investigadores optimizar un kernel de GPU crítico para que se ejecutara el doble de rápido que el estado del arte anterior, que fue escrito por expertos humanos. Esto desafía las estrategias actuales de IA empresarial que a menudo se basan en modelos "congelados", según los investigadores.
Discussion
AI Experts & Community
Be the first to comment