오픈소스 LLM 다운로드 센터

주요 오픈소스 LLM 10종: 다운로드 링크·설치 가이드·GPU 하드웨어 권장사양

🚀 빠른 시작: Ollama를 설치하고 3단계로 모델 실행하기

계정 불필요, 데이터는 로컬 저장 · MacBook / Mac mini / Windows / Linux 지원

1
brew install ollama
2
ollama pull qwen3
3
ollama run qwen3

사용 목적별 필터

추천 오픈소스 모델

DeepSeek-R1

DeepSeek AI
MIT
671B
파라미터
16GB+
최소 VRAM
★★★★★
추론 성능

세계 최고 추론 모델. 수학·코딩 성능이 클로즈드소스 플래그십에 필적. MoE 아키텍처로 효율적 배포.

일상 대화 코드 개발 문서 처리
ollama pull deepseek-r1

Qwen 3.5

Alibaba
Apache 2.0
0.6B~235B
파라미터
4GB+
최소 VRAM
★★★★★
중국어 성능

중국어 이해 세계 1위. 0.6B~235B 다양한 크기로 모든 하드웨어 환경 지원.

일상 대화 코드 개발 문서 처리 저사양 기기
ollama pull qwen3

MiniMax M2

MiniMax
CC-BY-NC
456B
파라미터
24GB+
최소 VRAM
★★★★☆
추론 속도

Sparse MoE 초고속 추론, 저전력. OpenClaw와 함께 24시간 로컬 AI 어시스턴트 구현.

일상 대화 문서 처리
huggingface-cli download MiniMaxAI/MiniMax-M1-40k

智谱 GLM

Zhipu AI
Apache 2.0
9B~32B
파라미터
8GB+
최소 VRAM
★★★★☆
코딩 능력

칭화대 계열 플래그십 오픈소스 모델. 코딩과 도구 호출이 뛰어나며 국내 배포 생태계가 완성되어 있음.

일상 대화 코드 개발 문서 처리
ollama pull glm4

Llama 4

Meta
Llama 4
17B~400B
파라미터
8GB+
최소 VRAM
★★★★★
생태계

Meta 플래그십 오픈소스 시리즈. 세계 최대 오픈 생태계. Scout/Maverick 등 다양한 크기 선택 가능.

일상 대화 코드 개발
ollama pull llama4

Mistral Large 2

Mistral AI
MRL 2.0
123B
파라미터
24GB+
최소 VRAM
★★★★☆
다국어

유럽 최고 오픈소스 모델. 코딩과 다국어 능력이 뛰어나며 개인정보 보호 규정 준수 우수.

일상 대화 코드 개발
ollama pull mistral-large

Gemma 3

Google
Gemma ToU
1B~27B
파라미터
4GB+
최소 VRAM
★★★★☆
경량 고효율

Google 경량 오픈소스 모델. 4GB VRAM으로 1B 버전 실행 가능. 저사양 기기 최우선 추천.

일상 대화 저사양 기기
ollama pull gemma3

Phi-4

Microsoft
MIT
14B
파라미터
8GB
최소 VRAM
★★★★★
가성비

Microsoft 정밀 소형 모델. 14B 파라미터로 동급 경쟁 모델 능가. MIT 라이선스로 상업적 사용 가능.

코드 개발 저사양 기기
ollama pull phi4

MiniCPM

Tsinghua / ModelBest
Apache 2.0
3B~4B
파라미터
4GB
최소 VRAM
★★★★☆
엣지 배포

스마트폰에서도 실행 가능한 초경량 대형 모델. 엣지 배포 최우선 선택. 중국어 최적화 우수.

일상 대화 저사양 기기
ollama pull minicpm-v

Yi-34B

01.AI
Apache 2.0
34B
파라미터
16GB+
최소 VRAM
★★★★☆
중영 이중언어

01.AI 플래그십 오픈소스 모델. 중영 이중언어 균형이 뛰어나며 긴 문서 이해와 작성 능력이 탁월.

일상 대화 문서 처리
ollama pull yi:34b

하드웨어 구성 참고

GPU VRAM에 맞게 모델을 선택하세요. VRAM이 클수록 더 큰 모델을 실행할 수 있습니다.

GPU VRAM 추천 모델
4 GB Gemma 3 (1B/4B) MiniCPM-3B Qwen3-0.6B
8 GB Qwen3-8B Phi-4 (14B量化) GLM-9B
16 GB DeepSeek-R1-14B Qwen3-14B Yi-34B量化
24 GB+ DeepSeek-R1-32B Qwen3-32B Mistral-22B

팁: 모든 모델은 Ollama 으로 손쉽게 다운로드 및 실행할 수 있습니다. 명령어 형식:ollama pull <모델명>

모델 성능 티어 리스트

2026년 3월 · 통일 기준 벤치마크 비교 · 바 최대 = 해당 지표 최고점

模型 MMLU-Pro
종합 지식
GPQA Diamond
과학 추론
SWE-Bench
코드 수정
Arena Elo
인간 선호도
VRAM
S S티어 — 최고 수준의 클로즈드소스 모델과 동등
S
Qwen 3.5
397B/17B · 阿里巴巴
84.6%
82.1%
62.5%
1451
8GB+
S
DeepSeek-R1
685B/37B · 深度求索
84.0%
85.3%
49.2%
1420
16GB+
S
智谱 GLM-5
744B/40B · 智谱AI
70.4%
86.0%
77.8%
1452
24GB+
A A티어 — 플래그십급 성능, 비교적 낮은 하드웨어 요구사항
A
Llama 4 Maverick
400B/17B · Meta
83.2%
78.5%
55.8%
1320
8GB+
A
Mistral Large 3
675B/41B · Mistral AI
82.8%
79.3%
54.1%
1315
24GB+
B B티어 — 소비자용 GPU 1장으로 실행 가능, 종합 성능 우수
B
Llama 4 Scout
109B/17B · Meta · 10M上下文
78.5%
74.2%
48.5%
1280
8GB
B
Gemma 3 27B
27B · Google
67.5%
42.4%
35.2%
1220
16GB
C C티어 — 4~8GB VRAM으로 실행, 엣지/저사양 기기 최적
C
Phi-4
14B · Microsoft · MIT
75.2%
56.1%
41.3%
1200
8GB
C
Yi-1.5-34B
34B · 零一万物
63.1%
40.2%
31.5%
1140
16GB
C
MiniCPM-o 4.5
9B · 清华/面壁 · 多模态
58.3%
38.5%
28.1%
1150
6GB
MMLU-Pro 종합 지식 추론
GPQA Diamond 박사 수준 과학 추론
SWE-Bench 코드 수정(최대=77.8%)
Arena Elo 인간 선호도 투표(최대=1500)

数据来源:Artificial Analysis · LMSYS Chatbot Arena · 각 모델 공식 보고서(2026년 3월) · 일부 점수는 커뮤니티 테스트 추정치

S
S티어 최고 수준의 클로즈드소스 모델과 동등하거나 초과, 하드웨어 요구 높음
智谱 GLM-5 Apache 2.0
744B 总 / 40B 激活 · 24GB+ Elo 1452
SWE-Bench
77.8%
GPQA
86.0%
MMLU-Pro
70.4%
코딩 1위 중국 칩 지원
DeepSeek-R1 MIT
685B 总 / 37B 激活 · 16GB+ MATH 97.3%
AIME 2025
79.8%
GPQA
85.3%
MMLU-Pro
84.0%
추론 최강 수학 1위
Qwen 3.5 Apache 2.0
397B 总 / 17B 激活 · 8GB+ Elo 1451
SWE-Bench
62.5%
GPQA
82.1%
MMLU-Pro
84.6%
중국어 1위 201개 언어
A
A티어 플래그십급 성능, 비교적 낮은 하드웨어 요구사항
Llama 4 Maverick Llama 4
400B 总 / 17B 激活 · 8GB+
SWE-Bench
55.8%
GPQA
78.5%
MMLU-Pro
83.2%
1M 컨텍스트 최대 생태계
Mistral Large 3 Apache 2.0
675B 总 / 41B 激活 · 24GB+
SWE-Bench
54.1%
GPQA
79.3%
MMLU-Pro
82.8%
EU 준수 다국어 강점
B
B티어 소비자용 GPU 1장으로 실행 가능, 종합 성능 우수
Llama 4 Scout Llama 4
109B 总 / 17B 激活 · 单H100
MMLU-Pro
78.5%
컨텍스트
10M
10M 초장 컨텍스트 GPU 1장으로 실행
Gemma 3 27B Gemma ToU
27B · 16GB 消费显卡
HumanEval
78.5%
MMLU-Pro
67.5%
GPQA
42.4%
소비자 GPU 최강 多模态

LLM 다운로드엔 빠른 네트워크가 필수

Hugging Face에서 수십 GB 모델 파일을 다운로드하려면 안정적이고 빠른 해외 네트워크가 필요합니다

¥9/月
저렴한 월정액
1000Mbps
기가비트 대역폭
70+国家
全球节点
30일
환불 보장

관련 튜토리얼

월 $1.5 · 10년 운영
무료 체험 VPN07