As preocupações com a segurança em torno da inteligência artificial e dos dispositivos inteligentes estão a aumentar, com relatos de vulnerabilidades e a rápida implantação de tecnologias potencialmente perigosas. Um recente aumento no uso do agente de IA de código aberto OpenClaw, juntamente com uma vulnerabilidade de acesso remoto num popular aspirador robô, destacou os riscos associados à integração da IA em ambientes corporativos e de consumo.
De acordo com a VentureBeat, o agente OpenClaw, que concede aos agentes autónomos acesso ao shell, privilégios do sistema de arquivos e tokens OAuth, viu suas implantações expostas publicamente saltarem de aproximadamente 1.000 instâncias para mais de 21.000 em menos de uma semana. Essa rápida adoção deixou os líderes de segurança preocupados, pois os funcionários estão implantando o agente em máquinas corporativas usando comandos de instalação de uma linha. A VentureBeat também relatou sobre o CVE-2026-25253, uma falha de execução de código remoto de um clique com classificação CVSS 8.8, que permite que invasores roubem tokens de autenticação e obtenham o comprometimento total do gateway.
Simultaneamente, um pesquisador de segurança descobriu uma vulnerabilidade no aspirador robô DJI Romo, permitindo o acesso e controle remoto de aproximadamente 7.000 dispositivos em todo o mundo. A The Verge relatou que esse acesso incluía feeds de câmeras ao vivo, recursos de mapeamento e rastreamento de localização, levantando sérias preocupações sobre a segurança dos dispositivos domésticos inteligentes.
O rápido avanço da IA também está impactando o local de trabalho. A Fortune observou que, à medida que a IA se torna mais integrada nas organizações, os líderes estão a debater como o desempenho é medido, como os funcionários são apoiados durante a mudança e como os valores da empresa são mantidos. Essa mudança está forçando os executivos a confrontar o contrato social entre a empresa e seus funcionários.
Em outras notícias de tecnologia, pesquisadores da Nvidia desenvolveram uma técnica chamada sparsificação de memória dinâmica (DMS) que pode reduzir os custos de memória do raciocínio de modelos de linguagem grandes em até oito vezes, de acordo com a VentureBeat. Experimentos mostram que o DMS permite que os LLMs "pensem" por mais tempo e explorem mais soluções sem aumentar o uso de memória.
Enquanto isso, o desenvolvimento de novas tecnologias continua. O Hacker News relatou que as implementações iouring e Grand Central Dispatch std.Io foram lançadas no branch principal Zig em 13 de fevereiro de 2026. Essas implementações, baseadas na troca de pilha do espaço do usuário, agora estão disponíveis para experimentação.
Discussion
AI Experts & Community
Be the first to comment