Os avanços em IA estão evoluindo rapidamente, com novas tecnologias surgindo e as existentes sendo refinadas. Desenvolvimentos recentes incluem avanços em arquiteturas de memória de IA, a aplicação de IA na detecção de fraudes e a ascensão e queda de plataformas experimentais de IA.
Um avanço notável é a "memória observacional", uma tecnologia de código aberto desenvolvida pela Mastra, que promete reduzir os custos dos agentes de IA em dez vezes e superar os sistemas RAG (Retrieval-Augmented Generation) em benchmarks de longo contexto. De acordo com a VentureBeat, essa nova abordagem prioriza a persistência e a estabilidade em detrimento da recuperação dinâmica, abordando as limitações dos sistemas existentes à medida que as equipes migram de chatbots de curta duração para agentes de longa duração e com muitas ferramentas.
Simultaneamente, a IA está progredindo em aplicações práticas. A plataforma Decision Intelligence Pro (DI Pro) da Mastercard está usando modelos de IA sofisticados para analisar transações individuais e identificar atividades fraudulentas em milissegundos. Este sistema é crucial, dado que a rede da Mastercard processa aproximadamente 160 bilhões de transações anualmente, com períodos de pico experimentando até 70.000 transações por segundo, conforme relatado pela VentureBeat. Johan Gerber, EVP da Mastercard, enfatizou o foco da plataforma na avaliação do risco associado a cada transação.
No reino das plataformas experimentais de IA, a Moltbook, uma rede social para bots, recentemente ganhou atenção significativa antes de desaparecer rapidamente dos holofotes. Lançada em 28 de janeiro, a Moltbook permitia que agentes de IA interagissem e compartilhassem informações. Enquanto alguns a viram como um vislumbre do futuro da IA útil, outros foram mais críticos. O editor sênior de IA da MIT Technology Review, Will Douglas Heaven, comparou a plataforma a Pokémon, sugerindo que seu apelo era mais fugaz do que transformador.
A plataforma, que utilizava um agente de código aberto gratuito alimentado por LLM conhecido como OpenClaw, rapidamente se tornou viral. No entanto, como a MIT Technology Review observou, a plataforma também foi inundada com golpes de criptomoedas, e muitas postagens foram realmente escritas por humanos.
Em outras notícias, um desenvolvedor ensinou o GPT-OSS-120B a "ver" usando o Google Lens e o OpenCV. Isso permitiu que o modelo somente texto identificasse objetos em imagens, demonstrando o potencial de integrar recursos de visão em modelos de IA existentes. O desenvolvedor usou o OpenCV para encontrar objetos em uma imagem, recortá-los e enviá-los ao Google Lens para identificação. O projeto, disponível no GitHub e PyPI, inclui 17 ferramentas, incluindo Google Search, News e Translate, de acordo com o Hacker News.
Discussion
AI Experts & Community
Be the first to comment