Carl Franzen 2026년 1월 30일 출처: VentureBeat, fal.ai의 Flux-1로 제작샌프란시스코에 기반을 둔 AI 연구소 Arcee는 작년에 대규모 언어 모델(LLM)을 처음부터 훈련하고 오픈 소스 또는 부분적으로 오픈 소스 라이선스로 대중에게 공개하는 유일한 미국 회사 중 하나로 파란을 일으켰습니다. 이를 통해 개발자, 개인 사업가, 심지어 중대형 기업까지 강력한 AI 모델을 무료로 사용하고 마음대로 사용자 정의할 수 있습니다.이제 Arcee는 이번 주에 가장 크고 성능이 뛰어난 오픈 언어 모델인 Trinity Large를 출시하며 다시 돌아왔습니다. Trinity Large는 4천억 개의 파라미터 혼합 전문가(MoE) 모델로 현재 미리 보기로 제공됩니다.주력 릴리스와 함께 Arcee는 연구자들이 명령어 튜닝 및 강화 학습이 적용되기 전에 4천억 개의 희소 MoE가 원시 데이터에서 무엇을 학습하는지 연구할 수 있도록 하는 "원시" 체크포인트 모델인 Trinity-Large-TrueBase를 제공합니다.Arcee는 10조 토큰 마크에서 깨끗한 상태를 제공함으로써 규제가 엄격한 산업 분야의 AI 구축자가 일반적인 목적의 채팅 모델의 "블랙 박스" 편향이나 형식적 특성을 상속하지 않고도 진정한 감사를 수행하고 자체적인 특수 정렬을 수행할 수 있도록 합니다. 이러한 투명성을 통해 모델의 고유한 추론 능력과 사후 훈련의 마지막 단계에서 조정된 유용한 행동 간의 차이를 더 깊이 이해할 수 있습니다.이번 출시는 Alibaba(Qwen), z.AI(Zhipu), DeepSeek, Mo와 같은 강력한 중국 오픈 소스 LLM 대안이 등장하는 시점에 이루어졌습니다.
Discussion
대화에 참여하세요
첫 댓글을 남겨보세요