Un juez federal de Nueva York tomó la rara medida de terminar un caso esta semana debido al uso indebido repetido de la IA por parte de un abogado en la redacción de documentos, mientras que, simultáneamente, las guerras de codificación de IA se intensificaron con OpenAI y Anthropic lanzando modelos competidores y preparándose para anuncios del Super Bowl. Además, se descubrió que paquetes maliciosos en los repositorios npm y PyPI robaban credenciales de billeteras, y los investigadores desarrollaron una nueva técnica para optimizar los núcleos de GPU.
La jueza de distrito Katherine Polk Failla dictaminó que se justificaban sanciones extraordinarias contra el abogado Steven Feldman después de que presentara repetidamente documentos que contenían citas falsas y "prosa conspicuamente florida", según Ars Technica. La decisión del juez destaca las crecientes preocupaciones sobre el uso indebido de la IA en contextos legales.
En el mundo de la tecnología, la competencia entre los gigantes de la IA OpenAI y Anthropic se intensificó. OpenAI lanzó GPT-5.3-Codex, su agente de codificación más capaz hasta la fecha, coincidiendo con la presentación de Claude Opus 4.6, la versión mejorada de Anthropic. Este lanzamiento sincronizado marcó la apertura de lo que los observadores de la industria llaman las "guerras de codificación de IA", una batalla para capturar el mercado de desarrollo de software empresarial, según informó VentureBeat. Las empresas también están preparadas para emitir anuncios competitivos en el Super Bowl.
Mientras tanto, los investigadores de seguridad descubrieron paquetes maliciosos en los repositorios npm y PyPI que robaban credenciales de billeteras de los desarrolladores y sistemas backend de dYdX, y en algunos casos, dispositivos con puertas traseras, informó Ars Technica. Los paquetes comprometidos pusieron en riesgo a las aplicaciones que los utilizaban, lo que podría conducir a un compromiso completo de la billetera y al robo irreversible de criptomonedas.
Otro desarrollo involucró a investigadores de Stanford, Nvidia y Together AI, quienes desarrollaron una nueva técnica llamada Test-Time Training to Discover (TTT-Discover). Esta técnica permite que un modelo continúe entrenando durante el proceso de inferencia, actualizando sus pesos para el problema específico. Lograron optimizar un núcleo de GPU crítico para que funcionara el doble de rápido que el estado del arte anterior escrito por expertos humanos, según VentureBeat.
En un incidente separado, un desarrollador recibió un mensaje de LinkedIn de un reclutador, lo que llevó a una evaluación de codificación que requería la instalación de un paquete. Este paquete luego exfiltró credenciales de la nube, incluidos tokens de acceso personal de GitHub y claves de API de AWS, lo que otorgó al adversario acceso al entorno de la nube en cuestión de minutos, informó VentureBeat. Esta cadena de ataque se está conociendo como el pivote de gestión de identidades y acceso (IAM), lo que representa una brecha fundamental en la forma en que las empresas monitorean los ataques basados en la identidad.
Discussion
AI Experts & Community
Be the first to comment