La industria de la IA cambia su enfoque hacia la gestión de la IA; el reconocimiento facial bajo escrutinio
El panorama de la inteligencia artificial está experimentando una transformación significativa, con empresas como Anthropic y OpenAI pasando de la IA como socio conversacional a la IA como fuerza laboral delegada. Simultáneamente, la tecnología de reconocimiento facial utilizada por el Servicio de Inmigración y Control de Aduanas (ICE) y la Oficina de Aduanas y Protección Fronteriza (CBP) se enfrenta a un mayor escrutinio, incluido un proyecto de ley propuesto para prohibir su uso.
Esta semana, Anthropic y OpenAI lanzaron productos centrados en la gestión de equipos de agentes de IA que dividen el trabajo y se ejecutan en paralelo, según Ars Technica. Estos lanzamientos señalan un cambio gradual en toda la industria, aunque la eficacia de este modelo de supervisión sigue siendo una pregunta abierta. "Los agentes de IA actuales todavía requieren una fuerte intervención humana para detectar errores", señaló Ars Technica.
OpenAI también anunció GPT-5.3-Codex, una nueva versión de su modelo de codificación, disponible a través de la línea de comandos, la extensión IDE, la interfaz web y una nueva aplicación de escritorio para macOS. Según la compañía, GPT-5.3-Codex supera a las versiones anteriores en puntos de referencia como SWE-Bench Pro y Terminal-Bench 2.0. Si bien algunos titulares sugirieron que Codex se construyó a sí mismo, Ars Technica moderó las expectativas, afirmando que esto era una exageración. OpenAI describió su uso para la gestión de implementaciones y la depuración, de forma similar a otras empresas de desarrollo de software empresarial.
Mientras tanto, algunos demócratas del Senado presentaron la "Ley ICE Fuera de Nuestras Caras", que prohibiría a ICE y CBP el uso de tecnología de reconocimiento facial, informó Ars Technica. El proyecto de ley haría ilegal que los funcionarios de inmigración adquieran, posean, accedan o utilicen cualquier sistema de vigilancia biométrica o información derivada de dicho sistema. La prohibición propuesta se extiende más allá del reconocimiento facial para cubrir otras tecnologías de vigilancia biométrica, como el reconocimiento de voz. Todos los datos recopilados de dichos sistemas en el pasado tendrían que ser eliminados.
Wired informó que la aplicación de reconocimiento facial Mobile Fortify, utilizada por los agentes de inmigración de los Estados Unidos, no está diseñada para identificar de manera fiable a las personas y se implementó sin el escrutinio adecuado. Según los registros revisados por Wired, el Departamento de Seguridad Nacional lanzó Mobile Fortify en la primavera de 2025 para determinar o verificar las identidades de las personas detenidas por los funcionarios del DHS. El DHS vinculó explícitamente el lanzamiento a una orden ejecutiva firmada por el presidente Donald Trump, que pedía una represión contra los inmigrantes indocumentados.
En un incidente no relacionado, Bing inexplicablemente comenzó a bloquear aproximadamente 1,5 millones de sitios web independientes alojados en Neocities, informó Ars Technica. Neocities, fundado en 2013 para archivar sitios web de GeoCities, permite a los usuarios diseñar sitios web gratuitos sin plantillas estandarizadas.
Discussion
AI Experts & Community
Be the first to comment