AI 기반 위협이 급증하고 있으며, 오픈 소스 AI 에이전트가 비즈니스 환경에 빠르게 배포되고, 악의적인 행위자에 의해 취약점이 악용되고 있다고 여러 보고서에서 밝히고 있습니다. 자율 에이전트에게 셸 접근 권한, 파일 시스템 권한, 민감한 데이터 접근 권한을 부여하는 OpenClaw와 같은 도구의 급속한 확산은 보안 리더들을 우려하게 만들었습니다. 동시에, 미국 군이 Anthropic의 Claude를 배포했다는 보고와 같이 민감한 작전에 AI를 사용하는 것은 추가적인 윤리적 및 보안 문제를 제기합니다.
VentureBeat는 오픈 소스 AI 에이전트인 OpenClaw의 공개 노출 배포가 일주일도 안 되어 약 1,000개에서 21,000개 이상으로 급증했다고 보도했습니다. 이러한 빠른 채택과 단일 명령줄을 통한 쉬운 설치는 직원들이 회사 컴퓨터에 해당 에이전트를 배포하도록 이끌었습니다. Bitdefender의 GravityZone 원격 측정은 직원들이 OpenClaw를 회사 컴퓨터에 배포하여 민감한 데이터에 접근 권한을 부여하고 있음을 확인했습니다. 동일한 소스는 CVSS 8.8 등급의 원클릭 원격 코드 실행 결함인 CVE-2026-25253을 통해 공격자가 인증 토큰을 훔치고 전체 게이트웨이 손상을 달성할 수 있음을 강조했습니다. 별도의 명령 주입 취약점도 존재합니다.
VentureBeat와 Wired에 따르면, Google의 모바일 생태계에서 벗어나는 것은 추가적인 과제를 제시하며, 개인 정보 보호에 중점을 둔 대안은 종종 완전한 기능을 갖추지 못합니다. Google 서비스를 대체하는 것은 비교적 간단하지만, Google의 모바일 운영 체제에서 벗어나는 것은 더 어렵습니다. de-Googled Android 기반 시스템 및 Linux 기반 시스템과 같은 옵션을 사용할 수 있지만, iOS가 가장 기능적인 대안으로 남아 있습니다. 이러한 대안은 Google 서비스를 제거하여 개인 정보를 우선시하지만, 기능에 제한이 있는 경우가 많습니다.
The Guardian은 미국 군이 베네수엘라에서 급습 작전 중에 Anthropic의 AI 모델인 Claude를 사용했다고 보도했지만, Anthropic은 그 사용을 확인하지 않았습니다. The Wall Street Journal은 Anthropic이 폭력 또는 감시 목적으로 도구 사용을 금지하는 정책에도 불구하고 Palantir Technologies와의 파트너십을 통해 Claude가 배포되었다고 보도했습니다.
AI 기반 위협의 증가는 기업 환경을 넘어섭니다. VentureBeat는 또한 AI 코딩 도구를 통해 BBC 기자의 노트북이 해킹당하고, Hugging Face에 호스팅된 가짜 백신 앱으로 위장한 Android 맬웨어가 발견되는 등 AI 플랫폼의 취약점을 지적했습니다.
Hacker News는 LLM(대규모 언어 모델) 기반 소프트웨어 개발에서 검증 가능한 정확성의 중요성을 강조하며, 보다 강력하고 안전한 AI 시스템 구축을 위한 잠재적 솔루션으로 컬러 페트리 넷(CPN)의 사용을 언급했습니다. 페트리 넷의 확장인 CPN은 검증 가능한 시스템을 만들기 위한 프레임워크를 제공합니다.
Discussion
AI 전문가 & 커뮤니티
첫 댓글을 남겨보세요