AI의 맥락 문제: 전문가들은 실시간 결과 제공 및 에이전트 시스템 보안의 어려움을 강조합니다.
최근 보고서와 전문가 의견에 따르면, 대규모 언어 모델(LLM)은 실시간 결과 제공 및 에이전트 시스템 보안에 있어 상당한 어려움에 직면하고 있습니다. LLM은 추론에 탁월하지만 맥락 이해에 어려움을 겪어 실시간 주문 시스템과 같은 역동적인 환경에서 진정으로 도움이 되는 경험을 제공하는 데 어려움을 겪습니다. 동시에 에이전트 시스템의 보안에 대한 우려가 커지면서 강력한 거버넌스 및 경계 제어에 대한 요구가 높아지고 있습니다.
Instacart의 CTO인 Anirban Kundu가 설명한 "브라우니 레시피 문제"는 맥락 문제의 대표적인 예입니다. VentureBeat에 따르면 LLM이 단순히 브라우니를 만드는 요청을 이해하는 것만으로는 충분하지 않습니다. 진정으로 도움이 되려면 모델은 사용자 선호도, 시장 가용성(유기농 대 일반 계란), 지리적 제약 조건을 고려하여 배송 가능성을 보장하고 식품 손상을 방지해야 합니다. Instacart는 1초 이내에 경험을 제공하기 위해 지연 시간과 적절한 맥락의 조합을 조절하는 것을 목표로 합니다.
이러한 맥락 부족은 주문 시스템에만 국한되지 않습니다. Certinia의 Raju Malhotra는 VentureBeat에서 많은 AI 파일럿 프로그램이 약속된 결과를 제공하지 못하는 것은 모델 자체의 지능 부족이 아니라 맥락 부족 때문이라고 주장했습니다. 그는 이를 분리된 포인트 솔루션, 취약한 API, 이질적인 기술 내에 맥락을 가두는 지연 시간이 긴 통합으로 구성된 "프랑켄슈타인 스택" 때문이라고 설명했습니다.
MIT Technology Review는 특정 AI 기능이 개발되는 속도가 AI 연구 비영리 단체인 METR에서 추적한 바와 같이 기하급수적이라는 점을 강조하면서 복잡성을 더했습니다. 발전 속도는 빠르지만 안전한 구현의 필요성은 여전히 가장 중요합니다.
AI 에이전트의 정교함이 증가하면서 잠재적인 위험에 대한 우려가 제기되었습니다. MIT Technology Review는 최초의 AI 기반 간첩 캠페인과 프롬프트 수준 제어 실패에 대해 보도했습니다. 이에 대응하여 전문가들은 에이전트를 강력하고 반자동적인 사용자로 취급하고 ID, 도구, 데이터 및 출력과 상호 작용하는 경계에서 규칙을 시행할 것을 옹호하고 있습니다. Protegrity는 MIT Technology Review에서 CEO가 구현하고 보고해야 하는 8단계 계획을 간략하게 설명했으며, 세 가지 제어 축을 통해 경계에서 에이전트 시스템을 관리하는 데 중점을 두었습니다.
또한 AI의 에너지 수요도 주목받고 있습니다. MIT Technology Review는 AI의 컴퓨팅 수요를 지원하기 위해 대규모 데이터 센터에 대한 전례 없는 투자가 이루어지고 있다고 언급했습니다. 차세대 원자력 발전소는 이러한 시설에 전기를 공급할 수 있는 잠재적인 공급원으로 고려되고 있으며, 기존 모델에 비해 잠재적으로 저렴한 건설 비용과 더 안전한 운영을 제공합니다. 이는 최근 하이퍼스케일 AI 데이터 센터 및 차세대 원자력에 대한 구독자 전용 라운드 테이블 토론에서 주요 주제였습니다.
맥락 이해부터 보안 및 에너지 소비에 이르기까지 AI 개발을 둘러싼 과제는 다각적인 접근 방식의 필요성을 강조합니다. AI가 계속 발전함에 따라 이러한 문제를 해결하는 것은 잠재적인 위험을 완화하면서 AI의 잠재력을 최대한 실현하는 데 매우 중요할 것입니다.
Discussion
AI 전문가 & 커뮤니티
첫 댓글을 남겨보세요