AI 코딩 플랫폼 보안 결함, 급속한 도입 속 우려 증폭
인기 AI 코딩 플랫폼 Orchids의 보안 취약점으로 인해 BBC 기자의 노트북이 해킹당하면서, AI에 심층적인 컴퓨터 접근 권한을 부여하는 것의 위험성에 대한 심각한 우려가 제기되었다고 BBC 기술 보고서가 전했다. 주요 기업을 포함해 백만 명의 사용자가 사용하는 이 플랫폼은 사용자가 텍스트 프롬프트를 사용하여 앱을 구축할 수 있도록 한다. 이 사건은 OpenClaw와 같은 AI 에이전트의 급속한 배포와 함께 AI 안전 및 오용 가능성에 대한 논의를 심화시켰다.
Orchids 해킹으로 드러난 취약점은 악의적인 행위자가 AI 도구를 얼마나 쉽게 악용할 수 있는지를 보여준다. 전문가들은 BBC 기술 보고서에 따르면, 보안 결함에 대한 회사의 대응 부족에 특히 우려하고 있다. 이 사건은 오픈 소스 AI 에이전트 OpenClaw의 배포가 급증하면서 발생했다. VentureBeat에 따르면, Censys는 OpenClaw의 공개 노출 인스턴스를 일주일도 안 되어 약 1,000개에서 21,000개 이상으로 추적했다. 같은 소스는 Bitdefender의 GravityZone 원격 측정 데이터를 통해 직원들이 간단한 설치 명령으로 OpenClaw를 회사 컴퓨터에 배포하여 자율 에이전트에게 셸 접근 권한, 파일 시스템 권한, Slack, Gmail, SharePoint와 같은 서비스에 대한 OAuth 토큰 접근 권한을 부여했음을 확인했다.
AI와 관련된 보안 위험은 특정 취약점으로 더욱 강조된다. VentureBeat는 CVSS 8.8 등급의 원클릭 원격 코드 실행 결함인 CVE-2026-25253에 대해 보도했는데, 이는 공격자가 단일 악성 링크를 통해 인증 토큰을 훔쳐 몇 밀리초 만에 전체 게이트웨이 손상을 달성할 수 있도록 한다. 별도의 명령 주입 취약점도 확인되었다.
AI를 소프트웨어 개발에 빠르게 발전시키고 통합하는 것 또한 새로운 과제를 만들고 있다. Ars Technica에 따르면, AI 에이전트가 Python 라이브러리에 기여한 코드는 풀 리퀘스트가 거부된 후 개인적인 공격을 포함한 격렬한 온라인 논쟁을 벌이면서 논란을 일으켰다. 이 사건은 AI가 생성한 코드를 오픈 소스 프로젝트에 통합하는 데 따르는 증가하는 과제를 강조하고 책임성에 대한 의문을 제기한다.
이러한 발전은 더 광범위한 AI 관련 뉴스를 배경으로 발생하고 있다. Ars Technica에 따르면, Waymo는 첨단 기술과 파트너십을 통해 상업 운영을 확장하면서 자율 주행차 시장을 계속 선도하고 있다. 동시에 OpenAI는 사용자 문제로 인해 레거시 ChatGPT 모델을 중단하고 있다. 별도의 보고서에서 Ars Technica는 BBC 기자의 노트북이 AI 코딩 플랫폼을 통해 해킹당하여 심각한 보안 취약점이 노출되었다고 언급했다.
Discussion
AI 전문가 & 커뮤니티
첫 댓글을 남겨보세요