A pesquisa da DeepSeek sobre "memória condicional" visa abordar o uso ineficiente da computação de GPU em grandes modelos de linguagem (LLMs) ao acessar informações estáticas. O estudo recém-lançado introduz um módulo chamado Engram, projetado para separar a recuperação de padrões estáticos do raciocínio dinâmico, potencialmente economizando recursos computacionais significativos.
De acordo com a pesquisa, os LLMs empresariais frequentemente usam computação de GPU cara, projetada para raciocínio complexo, para simplesmente recuperar informações estáticas, como nomes de produtos, especificações técnicas ou cláusulas contratuais padrão. Essas pesquisas ocorrem milhões de vezes diariamente, desperdiçando ciclos computacionais e inflando os custos de infraestrutura. A equipe da DeepSeek, incluindo o coautor e fundador Liang Wenfeng, procurou otimizar esse processo.
Por meio de experimentação sistemática, a DeepSeek determinou que alocar 75% da capacidade do modelo esparso para raciocínio dinâmico e 25% para pesquisas estáticas forneceu o equilíbrio ideal entre computação e memória. Os resultados indicaram que este sistema de memória melhorou as capacidades de raciocínio de forma mais significativa do que a recuperação de conhecimento. As pontuações de benchmark de raciocínio complexo, medidas usando Big-Bench Hard, saltaram de 70% para 74% de precisão, enquanto os testes focados em conhecimento melhoraram de 57% para 61%.
As implicações desta pesquisa vão além de meros ganhos de eficiência. Ao otimizar como os LLMs acessam e processam informações, o trabalho da DeepSeek desafia as suposições fundamentais sobre o papel da memória em redes neurais. O módulo Engram permite uma abordagem mais matizada para a alocação de memória, potencialmente abrindo caminho para sistemas de IA mais eficientes e poderosos.
O desenvolvimento ocorre em um momento em que o consumo de energia e o impacto ambiental de grandes modelos de linguagem estão sob crescente escrutínio. Ao reduzir a sobrecarga computacional associada à recuperação de informações estáticas, a abordagem de memória condicional da DeepSeek pode contribuir para um desenvolvimento de IA mais sustentável. Mais pesquisas são necessárias para explorar a escalabilidade e a generalização do Engram em diferentes arquiteturas e aplicações de LLM.
Discussion
Join the conversation
Be the first to comment