포스트

Qwen3.6-35B-A3B: 350억 파라미터 MoE 모델, 30억만 활성화하는 에이전틱 코딩 오픈소스

목차

  1. 개요
  2. 아키텍처와 설계 철학
  3. 벤치마크 성능
  4. 의미와 시사점
  5. 결론
  6. Reference

개요

알리바바 Qwen 팀이 2026년 4월 Qwen3.6-35B-A3B를 공개했다. 총 350억 개 파라미터 중 추론 시 30억 개(약 8.6%)만 활성화하는 MoE(Mixture-of-Experts) 아키텍처를 채택한 오픈소스 대규모 언어모델이다. 에이전틱 코딩 분야에서 최강 수준의 성능을 보이면서도, 적은 GPU 메모리와 전력 소비로 소규모 환경에서도 구동할 수 있다는 점이 핵심이다.

아키텍처와 설계 철학

MoE 구조의 효율성

Qwen3.6-35B-A3B는 350억 개의 전체 파라미터를 보유하지만, 실제 추론 시에는 30억 개의 파라미터만 활성화한다. 이는 전체 파라미터의 약 8.6%에 해당하는 수치로, GPU 메모리와 연산 자원을 대폭 절약할 수 있다. MoE 아키텍처 덕분에 대규모 모델의 지식 용량은 유지하면서도 실행 비용은 소형 모델 수준으로 낮출 수 있다. 소규모 하드웨어 환경에서도 실행 가능하다는 점이 오픈소스 커뮤니티에서 큰 관심을 끌고 있다.

멀티모달 통합

이 모델은 텍스트뿐 아니라 이미지, 영상까지 통합 처리하는 멀티모달 능력을 갖추고 있다. 단일 모델로 다양한 입력 형식을 처리할 수 있어 에이전트 파이프라인 구축 시 별도의 비전 모델 없이도 활용 가능하다.

벤치마크 성능

주요 평가 결과

벤치마크점수
SWE-bench Verified73.4
Terminal-Bench 2.051.5
AIME 202692.7

SWE-bench Verified에서 73.4점을 기록하며 에이전틱 코딩 분야에서 강력한 성능을 입증했다. AIME 2026에서는 92.7점으로 수학 추론 능력도 우수한 수준을 보여준다. 멀티모달 영역에서는 Claude Sonnet 4.5를 다수 항목에서 초과하는 결과를 보였다.

강점과 약점

강점:

  • 적은 연산 자원으로 높은 코딩 성능 달성
  • 에이전틱 코딩 특화 최강 수준
  • 텍스트, 이미지, 영상 통합 멀티모달 처리
  • 완전 오픈소스로 공개

약점:

  • 범용 에이전트 작업에서는 이전 모델 대비 성능이 다소 저하
  • 고난이도 학술 추론 영역에서 약세
  • API는 아직 “coming soon” 상태로 미제공

의미와 시사점

Qwen3.6-35B-A3B는 “큰 모델의 지식, 작은 모델의 비용”이라는 MoE의 핵심 가치를 실현한 사례다. 350억 파라미터급 모델을 30억 파라미터급 비용으로 운용할 수 있다는 것은 로컬 개발 환경이나 엣지 디바이스에서의 AI 활용 가능성을 크게 넓힌다. 특히 에이전틱 코딩 분야에 특화된 성능은 AI 코딩 에이전트 구축 시 비용 효율적인 선택지를 제공한다. 다만 범용 에이전트 작업이나 학술 추론에서의 약세는 특화 모델로서의 한계를 보여주며, 용도에 맞는 모델 선택이 중요하다는 점을 시사한다.

결론

Qwen3.6-35B-A3B는 MoE 아키텍처를 활용해 350억 파라미터의 지식을 30억 파라미터의 추론 비용으로 제공하는 오픈소스 모델이다. 에이전틱 코딩에서 SWE-bench 73.4점의 강력한 성능을 보이며, 멀티모달 처리까지 지원한다. 소규모 환경에서도 구동 가능한 효율성과 완전한 오픈소스 공개로 AI 코딩 에이전트 생태계에 의미 있는 선택지를 추가했다.

Reference