O desenvolvimento da IA está avançando rapidamente, mas a cooperação global em medidas de segurança enfrenta desafios. Um novo Relatório Internacional de Segurança da IA, divulgado antes da Cúpula de Impacto da IA em Delhi, de 19 a 20 de fevereiro, destaca o ritmo crescente de aprimoramento da IA e a crescente evidência de riscos associados. Os Estados Unidos, no entanto, recusaram-se a apoiar o relatório deste ano, ao contrário do ano anterior, de acordo com Yoshua Bengio, presidente do relatório e cientista vencedor do Prêmio Turing.
O relatório, orientado por 100 especialistas e apoiado por 30 países e organizações internacionais, incluindo o Reino Unido, a China e a União Europeia, visava dar um exemplo de colaboração internacional em desafios de IA. O relatório concluiu que as técnicas atuais de gestão de riscos estão melhorando, mas permanecem insuficientes.
Enquanto isso, dentro da empresa, o foco está mudando para a implementação prática da IA. Arnab Bose, CPO da Asana, enfatizou a importância da memória compartilhada e do contexto para agentes de IA bem-sucedidos. Falando em um evento recente da VentureBeat em São Francisco, Bose afirmou que fornecer aos agentes de IA histórico detalhado e acesso direto, juntamente com pontos de verificação de proteção e supervisão humana, permite que eles funcionem como colegas de equipe ativos. A Asana lançou o Asana AI Teammates no ano passado com o objetivo de integrar a IA diretamente em equipes e projetos.
A Mistral AI também está trabalhando com líderes globais do setor para co-projetar soluções de IA personalizadas. De acordo com a MIT Technology Review, a Mistral AI faz parceria com empresas como Cisco, Stellantis e ASML para personalizar sistemas de IA para enfrentar desafios específicos. Sua metodologia envolve a identificação de um "caso de uso icônico" para servir como base para futuras soluções de IA.
No entanto, permanecem as preocupações sobre o potencial uso indevido da IA. Um estudo de pesquisadores de Stanford e da Indiana University, destacado pela MIT Technology Review, examinou um mercado online civil apoiado por Andreessen Horowitz que permite aos usuários comprar arquivos de instruções personalizados para gerar deepfakes de celebridades. O estudo descobriu que alguns arquivos foram especificamente projetados para criar imagens pornográficas, apesar das proibições do site. Os pesquisadores analisaram solicitações de conteúdo, chamadas de "recompensas", entre meados de 2023 e o final de 2024.
Em outra frente, os desenvolvedores estão trabalhando em ferramentas para otimizar o gerenciamento da configuração da IA. O Hacker News relatou sobre o LNAI, um CLI de gerenciamento de configuração de IA unificado desenvolvido por Krystian Jonca. O LNAI visa simplificar o processo de gerenciamento de configurações para várias ferramentas de codificação de IA, permitindo que os usuários definam as configurações uma vez em um arquivo ".ai" e, em seguida, sincronizem-nas em diferentes ferramentas. As ferramentas suportadas incluem Claude, Codex, Cursor, Gemini CLI, GitHub Copilot, OpenCode e Windsurf. A ferramenta está disponível via npm e inclui recursos para validação e limpeza automática de arquivos órfãos.
Discussion
AI Experts & Community
Be the first to comment