오픈소스 LLM 다운로드 센터
주요 오픈소스 LLM 10종: 다운로드 링크·설치 가이드·GPU 하드웨어 권장사양
🚀 빠른 시작: Ollama를 설치하고 3단계로 모델 실행하기
계정 불필요, 데이터는 로컬 저장 · MacBook / Mac mini / Windows / Linux 지원
1
brew install ollama
curl -fsSL https://ollama.com/install.sh | sh
irm https://ollama.com/install.ps1 | iex
2
ollama pull qwen3
3
ollama run qwen3
사용 목적별 필터
추천 오픈소스 모델
하드웨어 구성 참고
GPU VRAM에 맞게 모델을 선택하세요. VRAM이 클수록 더 큰 모델을 실행할 수 있습니다.
| GPU VRAM | 추천 모델 |
|---|---|
| 4 GB | Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B |
| 8 GB | Qwen3-8B Phi-4 (14B量化) GLM-9B |
| 16 GB | DeepSeek-R1-14B Qwen3-14B Yi-34B量化 |
| 24 GB+ | DeepSeek-R1-32B Qwen3-32B Mistral-22B |
팁: 모든 모델은 Ollama 으로 손쉽게 다운로드 및 실행할 수 있습니다. 명령어 형식:ollama pull <모델명>
모델 성능 티어 리스트
2026년 3월 · 통일 기준 벤치마크 비교 · 바 최대 = 해당 지표 최고점
| 模型 |
MMLU-Pro
종합 지식
|
GPQA Diamond
과학 추론
|
SWE-Bench
코드 수정
|
Arena Elo
인간 선호도
|
VRAM | |
|---|---|---|---|---|---|---|
|
S
S티어 — 최고 수준의 클로즈드소스 모델과 동등
|
||||||
| S |
Qwen 3.5
397B/17B · 阿里巴巴
|
84.6%
|
82.1%
|
62.5%
|
1451
|
8GB+ |
| S |
DeepSeek-R1
685B/37B · 深度求索
|
84.0%
|
85.3%
|
49.2%
|
1420
|
16GB+ |
| S |
智谱 GLM-5
744B/40B · 智谱AI
|
70.4%
|
86.0%
|
77.8%
|
1452
|
24GB+ |
|
A
A티어 — 플래그십급 성능, 비교적 낮은 하드웨어 요구사항
|
||||||
| A |
Llama 4 Maverick
400B/17B · Meta
|
83.2%
|
78.5%
|
55.8%
|
1320
|
8GB+ |
| A |
Mistral Large 3
675B/41B · Mistral AI
|
82.8%
|
79.3%
|
54.1%
|
1315
|
24GB+ |
|
B
B티어 — 소비자용 GPU 1장으로 실행 가능, 종합 성능 우수
|
||||||
| B |
Llama 4 Scout
109B/17B · Meta · 10M上下文
|
78.5%
|
74.2%
|
48.5%
|
1280
|
8GB |
| B |
Gemma 3 27B
27B · Google
|
67.5%
|
42.4%
|
35.2%
|
1220
|
16GB |
|
C
C티어 — 4~8GB VRAM으로 실행, 엣지/저사양 기기 최적
|
||||||
| C |
Phi-4
14B · Microsoft · MIT
|
75.2%
|
56.1%
|
41.3%
|
1200
|
8GB |
| C |
Yi-1.5-34B
34B · 零一万物
|
63.1%
|
40.2%
|
31.5%
|
1140
|
16GB |
| C |
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
|
58.3%
|
38.5%
|
28.1%
|
1150
|
6GB |
MMLU-Pro 종합 지식 추론
GPQA Diamond 박사 수준 과학 추론
SWE-Bench 코드 수정(최대=77.8%)
Arena Elo 인간 선호도 투표(최대=1500)
数据来源:Artificial Analysis · LMSYS Chatbot Arena · 각 모델 공식 보고서(2026년 3월) · 일부 점수는 커뮤니티 테스트 추정치
S
S티어
최고 수준의 클로즈드소스 모델과 동등하거나 초과, 하드웨어 요구 높음
智谱 GLM-5
Apache 2.0
744B 总 / 40B 激活 · 24GB+
Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
코딩 1위
중국 칩 지원
DeepSeek-R1
MIT
685B 总 / 37B 激活 · 16GB+
MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
추론 최강
수학 1위
Qwen 3.5
Apache 2.0
397B 总 / 17B 激活 · 8GB+
Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
중국어 1위
201개 언어
A
A티어
플래그십급 성능, 비교적 낮은 하드웨어 요구사항
Llama 4 Maverick
Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M 컨텍스트
최대 생태계
Mistral Large 3
Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
EU 준수
다국어 강점
B
B티어
소비자용 GPU 1장으로 실행 가능, 종합 성능 우수
Llama 4 Scout
Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
컨텍스트
10M
10M 초장 컨텍스트
GPU 1장으로 실행
Gemma 3 27B
Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
소비자 GPU 최강
多模态
LLM 다운로드엔 빠른 네트워크가 필수
Hugging Face에서 수십 GB 모델 파일을 다운로드하려면 안정적이고 빠른 해외 네트워크가 필요합니다
¥9/月
저렴한 월정액
1000Mbps
기가비트 대역폭
70+国家
全球节点
30일
환불 보장
관련 튜토리얼
Qwen 3.5
모델 비교
Qwen3.5 397B vs ChatGPT vs Claude: 2026 최강 AI 비교
코딩·수학·비전·에이전트 4개 분야 벤치마크 실측. 어떤 AI가 당신에게 맞는지 완벽 분석.
자세히 보기 →
Qwen 3.5
iOS 가이드
Qwen3.5 아이폰 설치 가이드: 오프라인 AI 완전 실행
Off Grid 앱·MLX 프레임워크 설치부터 2B/4B 모델 선택까지. 인터넷 없이 아이폰에서 AI 사용.
자세히 보기 →
Qwen 3.5
Android 가이드
Qwen3.5 안드로이드 설치: 갤럭시·픽셀 무료 AI 로컬 실행
Q Chat 앱·MNN·Termux 설치 방법. 갤럭시·픽셀에서 오프라인 Qwen3.5 AI 사용법 총정리.
자세히 보기 →
Qwen 3.5
PC 설치 가이드
Qwen3.5 소형 모델 PC 설치: 2B·4B·9B Ollama 활용법
Windows·macOS·Linux에서 Ollama로 Qwen3.5 소형 모델 설치. 하드웨어 요구사항과 무료 로컬 AI 실행법.
자세히 보기 →