알리바바 클라우드, 추론 모델 포함 ‘큐원3’ 공개
알리바바클라우드는 대규모언어모델(LLM) 제품군의 최신 세대인 큐원3(Qwen3)를 7일 공개했다.
큐원3 시리즈는 6개의 밀집(dense) 모델과 2개의 전문가 혼합(MoE) 모델로 구성됐으며, 모바일 기기, 스마트 글래스, 자율주행차, 로보틱스 등 차세대 애플리케이션 개발을 위한 유연성을 제공한다.
밀집 모델(0.6B, 1.7B, 4B, 8B, 14B, 32B 파라미터)과 MoE 모델(3B 활성 30B, 22B 활성 235B)을 포함한 모든 큐원3 모델은 현재 전 세계 누구나 이용할 수 있다.
큐원3는 알리바바 클라우드의 첫 하이브리드 추론 모델로, 기존 LLM 기능과 고급형 동적 추론을 결합했다. 큐원3 모델은 수학, 코딩, 논리적 추론과 같은 복잡한 다단계 작업을 위한 사고 모드와 빠른 범용 응답을 위한 비사고 모드 간에 원활하게 전환할 수 있다.
API를 통해 큐원3에 접근하는 개발자는 최대 3만8000개의 토큰까지 사고 지속 시간을 세밀하게 조정할 수 있어, 지능형 성능과 컴퓨팅 효율성 간 최적화된 균형을 유지할 수 있다. 큐원3-235B-A22B MoE 모델은 다른 최신 모델 대비 도입 비용을 크게 낮췄다.
이전 모델인 큐원2.5의 두 배 규모인 총 36조 개에 달하는 방대한 데이터 셋을 학습했고, 추론, 지시 수행, 도구 활용, 다국어 작업 등 여러 분야에서 성능이 크게 향상됐다.
119개의 언어 및 방언을 지원하며, 번역 및 다국어 지시 수행 부문에서 최고 수준 성능을 기록했다. 모델 컨텍스트 프로토콜(MCP) 지원 및 강력한 함수 호출 기능을 통해 복잡한 에이전트 기반 작업에서도 선도적인 성능을 제공한다.
수학, 코딩, 논리적 추론 벤치마크에서 이전 큐원 모델(사고 모드의 QwQ 및 비사고 모드의 큐원2.5)을 능가했다. 창의적 글쓰기, 롤플레잉, 다중 턴 대화 등에서 보다 자연스럽고 몰입감 있는 대화 경험을 제공한다.
큐원3는 모델 아키텍처 개선, 학습 데이터 확충, 효과적인 학습 기법을 통해 AIME25(수학적 추론), LiveCodeBench(코딩 역량), BFCL(도구 및 함수 호출 능력), Arena-Hard(지시 최적화 LLM 평가) 등 다양한 업계 벤치마크에서 최고 수준의 결과를 달성했다. 하이브리드 추론 모델 개발을 위해 긴 사고사슬(COT), 초기학습(cold start), 추론 기반 강화 학습(RL), 사고 모드 융합, 일반 강화 학습을 포함하는 4단계 학습 과정을 구현했다.
큐원3 모델은 현재 허깅페이스, 깃허브, 모델스코프 등에서 무료로 다운로드 가능하다. 알리바바의 AI 모델 개발 플랫폼인 모델 스튜디오를 통해 곧 API 접근이 가능해질 예정이다. 큐원3는 알리바바의 플래그십 AI 슈퍼 어시스턴트 애플리케이션 쿼크(Quark)를 구동한다.
큐원 모델 시리즈는 출시 이후 전 세계적으로 3억회 이상 다운로드됐으며, 허깅페이스에서 10만 개 이상의 큐원 기반 파생 모델이 개발됐다.
글. 바이라인네트워크
<김우용 기자>yong2@byline.network