Indústria de IA Muda o Foco para a Gestão de IA; Reconhecimento Facial Sob Análise
O panorama da inteligência artificial está a passar por uma transformação significativa, com empresas como a Anthropic e a OpenAI a mudarem o foco da IA como parceiro de conversação para a IA como força de trabalho delegada. Simultaneamente, a tecnologia de reconhecimento facial utilizada pelo Serviço de Imigração e Alfândega (ICE) e pela Alfândega e Proteção de Fronteiras (CBP) está a enfrentar um escrutínio crescente, incluindo um projeto de lei proposto para proibir a sua utilização.
Esta semana, a Anthropic e a OpenAI lançaram produtos centrados na gestão de equipas de agentes de IA que dividem o trabalho e funcionam em paralelo, de acordo com a Ars Technica. Estes lançamentos sinalizam uma mudança gradual em toda a indústria, embora a eficácia deste modelo de supervisão permaneça uma questão em aberto. "Os agentes de IA atuais ainda exigem uma forte intervenção humana para detetar erros", observou a Ars Technica.
A OpenAI também anunciou o GPT-5.3-Codex, uma nova versão do seu modelo de codificação, disponível através de linha de comandos, extensão IDE, interface web e uma nova aplicação de ambiente de trabalho macOS. De acordo com a empresa, o GPT-5.3-Codex supera as versões anteriores em benchmarks como o SWE-Bench Pro e o Terminal-Bench 2.0. Embora algumas manchetes sugerissem que o Codex se construiu a si próprio, a Ars Technica atenuou as expectativas, afirmando que isso era um exagero. A OpenAI descreveu a sua utilização para gerir implementações e depurar, semelhante a outras empresas de desenvolvimento de software empresarial.
Entretanto, alguns Senadores Democratas apresentaram o "ICE Out of Our Faces Act", que proibiria o ICE e o CBP de utilizarem tecnologia de reconhecimento facial, noticiou a Ars Technica. O projeto de lei tornaria ilegal para os agentes de imigração adquirir, possuir, aceder ou utilizar qualquer sistema de vigilância biométrica ou informação derivada de tal sistema. A proibição proposta estende-se para além do reconhecimento facial, abrangendo outras tecnologias de vigilância biométrica, como o reconhecimento de voz. Todos os dados recolhidos por esses sistemas no passado teriam de ser apagados.
A Wired noticiou que a aplicação de reconhecimento facial Mobile Fortify, utilizada por agentes de imigração dos Estados Unidos, não foi concebida para identificar pessoas de forma fiável e foi implementada sem o devido escrutínio. De acordo com os registos analisados pela Wired, o Departamento de Segurança Interna lançou o Mobile Fortify na primavera de 2025 para determinar ou verificar as identidades de indivíduos parados ou detidos por agentes do DHS. O DHS ligou explicitamente o lançamento a uma ordem executiva assinada pelo Presidente Donald Trump, que apelava a uma repressão contra os imigrantes indocumentados.
Num incidente não relacionado, o Bing começou inexplicavelmente a bloquear cerca de 1,5 milhões de websites independentes alojados no Neocities, noticiou a Ars Technica. O Neocities, fundado em 2013 para arquivar websites GeoCities, permite aos utilizadores criar websites gratuitos sem modelos padronizados.
Discussion
AI Experts & Community
Be the first to comment