O Problema de Contexto da IA: Especialistas Destacam Desafios na Entrega de Resultados em Tempo Real e na Segurança de Sistemas Agênticos
Modelos de linguagem grandes (LLMs) estão enfrentando desafios significativos na entrega de resultados em tempo real e na segurança de sistemas agênticos, de acordo com relatórios recentes e opiniões de especialistas. Embora os LLMs se destaquem no raciocínio, eles frequentemente lutam com o contexto, dificultando sua capacidade de fornecer experiências verdadeiramente assistivas, particularmente em ambientes dinâmicos como sistemas de pedidos em tempo real. Simultaneamente, as preocupações estão crescendo em torno da segurança dos sistemas agênticos, provocando apelos por governança robusta e controles de fronteira.
O "problema da receita de brownie", como o CTO da Instacart, Anirban Kundu, descreveu, exemplifica o desafio do contexto. De acordo com a VentureBeat, não é suficiente para um LLM simplesmente entender um pedido para fazer brownies. Para ser verdadeiramente útil, o modelo deve levar em consideração as preferências do usuário, a disponibilidade do mercado (ovos orgânicos vs. regulares) e as restrições geográficas para garantir a capacidade de entrega e evitar a deterioração dos alimentos. A Instacart pretende conciliar a latência com a combinação certa de contexto para fornecer experiências em menos de um segundo.
Essa falta de contexto se estende além dos sistemas de pedidos. Raju Malhotra, da Certinia, na VentureBeat, argumentou que o fracasso de muitos programas piloto de IA em entregar os resultados prometidos decorre de uma falta de contexto, e não de uma falta de inteligência nos próprios modelos. Ele atribuiu isso a "Franken-stacks" de soluções pontuais desconectadas, APIs frágeis e integrações repletas de latência que prendem o contexto dentro de tecnologias díspares.
Adicionando à complexidade, a MIT Technology Review destacou a taxa exponencial em que certas capacidades de IA estão se desenvolvendo, conforme rastreado pela organização sem fins lucrativos de pesquisa em IA, METR. Embora os avanços sejam rápidos, a necessidade de uma implementação segura permanece primordial.
A crescente sofisticação dos agentes de IA levantou preocupações sobre os riscos potenciais. A MIT Technology Review relatou sobre a primeira campanha de espionagem orquestrada por IA e o fracasso do controle em nível de prompt. Em resposta, os especialistas estão defendendo o tratamento de agentes como usuários poderosos e semiautônomos e a aplicação de regras nos limites onde eles interagem com identidade, ferramentas, dados e saídas. A Protegrity, na MIT Technology Review, delineou um plano de oito etapas para os CEOs implementarem e relatarem, com foco na governança de sistemas agênticos no limite por meio de três pilares de controle.
Além disso, as demandas de energia da IA também estão entrando em foco. A MIT Technology Review observou o investimento sem precedentes em data centers massivos para suportar o apetite computacional da IA. Usinas nucleares de próxima geração estão sendo consideradas como uma fonte potencial de eletricidade para essas instalações, oferecendo construção potencialmente mais barata e operação mais segura em comparação com modelos mais antigos. Este foi um tópico chave discutido em uma recente discussão de Mesas Redondas exclusivas para assinantes sobre data centers de IA de hiperescala e energia nuclear de próxima geração.
Os desafios em torno do desenvolvimento da IA, desde a compreensão contextual até a segurança e o consumo de energia, destacam a necessidade de uma abordagem multifacetada. À medida que a IA continua a evoluir, abordar essas questões será crucial para realizar todo o seu potencial, mitigando os riscos potenciais.
Discussion
AI Experts & Community
Be the first to comment