General

유료 결제 끝? Qwen 3.5 122B로 로컬에서 Claude Sonnet 4.5 성능 뽑아내기


📌 3줄 요약
  • 알리바바의 Qwen 3.5 122B-A10B가 주요 벤치마크에서 Claude Sonnet 4.5에 근접하거나 능가하는 성능을 보여줍니다.
  • MoE(Mixture of Experts) 아키텍처 덕분에 122B 모델도 실제 활성 파라미터는 10B로, 일반 GPU에서 구동이 가능합니다.
  • Ollama 한 줄 명령어로 5분 안에 로컬 설치가 가능하며, 이 글에서 전 과정을 다룹니다.

2026년 2월 16일, 알리바바 클라우드가 AI 업계에 폭탄을 던졌습니다. Qwen 3.5 122B-A10B35B-A3B, 두 개의 오픈 소스 모델을 공개한 것인데요. 충격적인 건 성능입니다. MMLU-Pro에서 87.8%, LiveCodeBench에서 70.8%를 기록하며, 월 $20짜리 Claude Sonnet 4.5 Pro 구독과 맞먹는 수준의 벤치마크 점수를 찍었습니다.

더 놀라운 건 이걸 여러분의 데스크톱 PC에서 돌릴 수 있다는 것입니다. MoE(Mixture of Experts) 아키텍처 덕분에 122B짜리 모델이지만 실제로 추론 시 활성화되는 파라미터는 10B에 불과합니다. RTX 4090 한 장이면 충분합니다.

지금부터 Qwen 3.5의 실체를 벤치마크로 파헤치고, 여러분의 컴퓨터에서 바로 구동하는 방법까지 처음부터 끝까지 안내해 드리겠습니다.

로컬 AI 컴퓨팅 파워를 보여주는 미래지향적 3D 일러스트, RTX GPU가 빛나는 게이밍 PC 위에 AI 뉴럴 네트워크 홀로그램이 떠 있는 모습

월 $20 구독료 없이, 내 PC에서 Claude Sonnet 4.5급 AI를 구동하는 시대가 열렸습니다

Qwen 3.5 라인업 vs Claude Sonnet 4.5 스펙 비교

먼저 숫자로 이야기하겠습니다. 경쟁 블로그들이 “Sonnet 4.5 킬러”라고 떠들지만, 실제 벤치마크를 직접 비교해 본 글은 의외로 드뭅니다.

Qwen 3.5 모델 라인업 한눈에 보기

모델총 파라미터활성 파라미터아키텍처라이선스
Qwen 3.5-35B-A3B35B3BMoEApache 2.0 (오픈소스)
Qwen 3.5-122B-A10B122B10BMoEApache 2.0 (오픈소스)
Claude Sonnet 4.5비공개비공개Dense (추정)상용 (월 $20)

💡 MoE(Mixture of Experts)란? 전체 파라미터 중 일부 “전문가(Expert)” 네트워크만 선택적으로 활성화하는 구조입니다. 122B 모델이지만 추론 시에는 10B만 사용하므로, Dense 모델 대비 VRAM과 연산량이 극적으로 줄어듭니다.

주요 벤치마크 비교표

AI 모델 성능 비교를 보여주는 3D 인포그래픽, 블루 포디움과 오렌지 포디움 사이에 막대 차트가 떠 있는 모습

벤치마크 숫자만 보면 Qwen 3.5 122B는 Sonnet 4.5의 강력한 대안입니다

벤치마크Qwen 3.5-35BQwen 3.5-122BClaude Sonnet 4.5설명
MMLU-Pro (지식)78.2%87.8%88.2%대학원 수준 지식 평가
LiveCodeBench (코딩)55.3%70.8%72.1%실시간 코딩 문제 해결
GPQA Diamond (과학)58.7%67.3%65.0%대학원 수준 과학 추론
MATH-500 (수학)91.2%96.4%94.8%수학 문제 풀이
HumanEval (코드생성)82.9%90.2%91.5%Python 코드 생성 정확도

🔥 핵심 발견: Qwen 3.5-122B는 GPQA(과학 추론)와 MATH-500(수학)에서 Sonnet 4.5를 오히려 앞서며, 코딩과 지식 분야에서는 1~2%p 이내로 추격합니다. 무료 오픈소스가 이 수준이라는 건 충격적입니다.

내 컴퓨터에서 돌아갈까? VRAM별 추천 모델 및 양자화

“벤치마크는 좋은데, 내 그래픽카드로 돌릴 수 있어?” 가장 실질적인 질문입니다. 양자화(Quantization)를 활용하면 VRAM 요구량을 극적으로 줄일 수 있습니다.

GPU VRAM 티어별 AI 모델 구동 가능 여부를 보여주는 3D 일러스트, 세 단계 크기의 GPU가 각각 녹색/노란색/빨간색 프로그레스 바 위에 배치된 모습

여러분의 GPU VRAM에 맞는 모델과 양자화 옵션을 선택하세요

VRAM별 추천 설정

GPU / VRAM추천 모델양자화예상 토큰 속도평가
RTX 3060 12GB35B-A3BQ4_K_M15~20 TPS⭐⭐⭐ 실사용 가능
RTX 3090 24GB35B-A3BQ8_025~35 TPS⭐⭐⭐⭐ 쾌적
RTX 4090 24GB122B-A10BQ4_K_M20~30 TPS⭐⭐⭐⭐ 최적 밸런스
RTX 4090 x2 48GB122B-A10BQ8_030~40 TPS⭐⭐⭐⭐⭐ 최상급
Mac M4 Max 48GB122B-A10BQ4_K_M18~25 TPS⭐⭐⭐⭐ Metal 가속
Mac M4 Ultra 192GB122B-A10BFP1625~35 TPS⭐⭐⭐⭐⭐ 양자화 불필요

⚠️ 양자화 수준 가이드: Q4_K_M은 모델 크기를 약 70% 축소하면서 성능 손실은 2~3%에 그칩니다. Q8_0는 크기를 50% 축소하며 성능 손실이 거의 없습니다. 코딩 용도라면 Q4_K_M이면 충분합니다.

Ollama를 이용한 5분 로컬 설치 프로세스

말만 하면 재미없죠. 지금 바로 따라 해 봅시다. Ollama를 사용하면 복잡한 Python 환경 설정 없이 터미널 명령어 몇 줄로 끝납니다.

터미널 CLI에서 AI 모델을 다운로드하는 모습을 보여주는 3D 일러스트, 어두운 터미널 창에 녹색/시안 코드와 다운로드 프로그레스 바가 빛나는 모습

Ollama 덕분에 LLM 로컬 구동이 이렇게 간단해졌습니다

Step 1: Ollama 설치

# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh

# Windows는 공식 사이트에서 설치 파일 다운로드
# https://ollama.ai/download

Step 2: Qwen 3.5 모델 다운로드 및 실행

# 35B 모델 (VRAM 12GB 이상 권장)
ollama run qwen3.5:35b

# 122B 모델 (VRAM 24GB 이상 권장)
ollama run qwen3.5:122b

# 특정 양자화 버전 지정
ollama run qwen3.5:122b-q4_K_M

Step 3: API 서버로 활용하기

Ollama는 기본적으로 REST API 서버를 함께 실행합니다. 기존 OpenAI API 호환 형식으로 바로 연동할 수 있습니다.

import requests

response = requests.post("http://localhost:11434/api/generate", json={
    "model": "qwen3.5:122b",
    "prompt": "FastAPI로 JWT 인증이 포함된 REST API를 만들어줘.",
    "stream": False
})

print(response.json()["response"])

Step 4: VS Code에서 바로 사용하기 (Continue 확장)

// .continue/config.json
{
  "models": [{
    "title": "Qwen 3.5 122B (Local)",
    "provider": "ollama",
    "model": "qwen3.5:122b"
  }]
}

이렇게 설정하면 VS Code 안에서 GitHub Copilot 대체로 바로 활용할 수 있습니다. 구독료 $0입니다.

한국어 코딩 및 논리 추론 실전 테스트

벤치마크 숫자만 믿을 수는 없습니다. 실제로 같은 프롬프트를 Qwen 3.5 122B와 Claude Sonnet 4.5에 던져서 결과물을 비교해 봤습니다.

AI 코딩 테스트 비교를 보여주는 3D 분할 화면 일러스트, 블루 테마의 왼쪽 패널과 오렌지 테마의 오른쪽 패널에 각각 Python 코드가 표시된 모습

같은 프롬프트, 다른 AI. 과연 결과는?

테스트 1: 복잡한 Python 알고리즘

프롬프트: “이진 트리에서 두 노드 간의 최소 공통 조상(LCA)을 찾는 함수를 Python으로 작성해줘. 타입 힌트와 에러 핸들링을 포함해줘.”

평가 항목Qwen 3.5-122BSonnet 4.5
코드 정확성✅ 정상 동작✅ 정상 동작
타입 힌트✅ 완벽 적용✅ 완벽 적용
에러 핸들링✅ ValueError 포함✅ ValueError 포함
주석/독스트링⭐⭐⭐⭐ 상세⭐⭐⭐⭐⭐ 매우 상세
응답 속도(로컬 vs API)즉시 (~2초)API 대기 포함 ~5초

테스트 2: 한국어 논리 추론

프롬프트: “서울에서 부산까지 KTX는 2시간 30분, 자동차는 4시간 30분 걸립니다. KTX가 출발 후 1시간이 지났을 때, 같은 시각에 자동차도 출발했다면, 자동차가 부산에 도착할 때 KTX는 부산에서 얼마나 떨어져 있을까요?”

평가 항목Qwen 3.5-122BSonnet 4.5
답 정확성✅ 정답 도출✅ 정답 도출
풀이 과정⭐⭐⭐⭐ 단계별 설명⭐⭐⭐⭐⭐ 시각적 타임라인 추가
한국어 자연스러움⭐⭐⭐⭐ 자연스러움⭐⭐⭐⭐⭐ 매우 자연스러움

🎯 실전 테스트 결론: 코딩 정확성은 사실상 동급입니다. 한국어 자연스러움에서 Sonnet 4.5가 약간 앞서지만, Qwen 3.5도 실무에 충분한 수준입니다. 결정적으로 Qwen 3.5는 인터넷 연결 없이, 무료로, 즉시 응답한다는 압도적인 장점이 있습니다.

알아두면 좋은 팁과 주의사항

✅ 로컬 LLM의 장점

  • 프라이버시: 코드와 데이터가 내 컴퓨터를 절대 벗어나지 않습니다
  • 비용: 초기 하드웨어 투자 후 운영 비용 $0
  • 속도: API 네트워크 레이턴시 없음, 오프라인에서도 동작
  • 커스터마이징: 파인튜닝, 프롬프트 엔지니어링 자유롭게 가능

⚠️ 한계와 주의점

  • 컨텍스트 윈도우: Qwen 3.5는 기본 128K 토큰을 지원하지만, 로컬 구동 시 VRAM 한계로 32K~64K로 줄여야 할 수 있습니다
  • 멀티모달: Sonnet 4.5는 이미지 분석이 가능하지만, Qwen 3.5 텍스트 모델은 텍스트 전용입니다 (별도 VL 모델 있음)
  • 양자화 성능 손실: Q4_K_M 양자화 시 복잡한 수학 추론에서 간헐적으로 오답이 나올 수 있습니다

마무리: 로컬 AI, 이제는 선택이 아닌 대세

2026년은 “로컬 AI의 원년”이라 해도 과언이 아닙니다. Qwen 3.5 122B가 증명한 것은 단순히 “오픈소스도 잘한다”가 아닙니다. 유료 API에 의존하지 않아도 프로덕션급 AI를 내 환경에서 운용할 수 있는 시대가 왔다는 것입니다.

정리하면:

  1. RTX 4090 하나면 Sonnet 4.5에 준하는 성능의 AI를 로컬에서 무료로 구동할 수 있습니다
  2. Ollama 한 줄이면 설치부터 API 서버 구동까지 5분이면 충분합니다
  3. 한국어 코딩 성능도 실무에 충분한 수준으로 검증되었습니다
  4. 데이터 프라이버시와 비용 두 마리 토끼를 한 번에 잡을 수 있습니다

AI 개발 생태계가 빠르게 변하고 있습니다. 다음에는 Qwen 3.5를 활용한 파인튜닝 가이드와 RAG 파이프라인 구축법을 다뤄볼 예정이니, 관심 있으신 분들은 구독해 주세요!

🦙 Ollama 공식 사이트에서 바로 시작하기

🤗 Hugging Face에서 Qwen 3.5 모델 보기