Um juiz federal de Nova York tomou a rara medida de encerrar um caso esta semana devido ao uso repetido de IA por um advogado na elaboração de documentos, enquanto, simultaneamente, as guerras de codificação de IA esquentavam com a OpenAI e a Anthropic lançando modelos concorrentes e se preparando para anúncios do Super Bowl. Além disso, pacotes maliciosos em repositórios npm e PyPI foram descobertos roubando credenciais de carteira, e pesquisadores desenvolveram uma nova técnica para otimizar kernels de GPU.
A juíza distrital Katherine Polk Failla decidiu que sanções extraordinárias eram justificadas contra o advogado Steven Feldman após ele ter repetidamente apresentado documentos contendo citações falsas e "prosa conspicuamente florida", de acordo com a Ars Technica. A decisão da juíza destaca as crescentes preocupações sobre o uso indevido de IA em contextos legais.
No mundo da tecnologia, a competição entre as gigantes da IA OpenAI e Anthropic se intensificou. A OpenAI lançou o GPT-5.3-Codex, seu agente de codificação mais capaz até o momento, coincidindo com a apresentação do Claude Opus 4.6 atualizado da Anthropic. Este lançamento sincronizado marcou a abertura do que observadores da indústria estão chamando de "guerras de codificação de IA", uma batalha para capturar o mercado de desenvolvimento de software empresarial, conforme relatado pela VentureBeat. As empresas também estão programadas para veicular anúncios concorrentes no Super Bowl.
Enquanto isso, pesquisadores de segurança descobriram pacotes maliciosos nos repositórios npm e PyPI que roubavam credenciais de carteira de desenvolvedores dYdX e sistemas de backend e, em alguns casos, dispositivos com backdoor, relatou a Ars Technica. Os pacotes comprometidos colocaram em risco os aplicativos que os utilizam, potencialmente levando ao comprometimento completo da carteira e ao roubo irreversível de criptomoedas.
Outro desenvolvimento envolveu pesquisadores da Stanford, Nvidia e Together AI, que desenvolveram uma nova técnica chamada Test-Time Training to Discover (TTT-Discover). Essa técnica permite que um modelo continue treinando durante o processo de inferência, atualizando seus pesos para o problema específico. Eles otimizaram com sucesso um kernel de GPU crítico para rodar duas vezes mais rápido do que o estado da arte anterior escrito por especialistas humanos, de acordo com a VentureBeat.
Em um incidente separado, um desenvolvedor recebeu uma mensagem do LinkedIn de um recrutador, o que levou a uma avaliação de codificação que exigia a instalação de um pacote. Este pacote então exfiltrou credenciais da nuvem, incluindo tokens de acesso pessoal do GitHub e chaves de API da AWS, concedendo ao adversário acesso ao ambiente da nuvem em questão de minutos, relatou a VentureBeat. Essa cadeia de ataque está se tornando conhecida como a rota de identidade e gerenciamento de acesso (IAM), representando uma lacuna fundamental na forma como as empresas monitoram ataques baseados em identidade.
Discussion
AI Experts & Community
Be the first to comment