VPN07

MiniCPM 설치 가이드: PC·안드로이드·아이폰 초경량 AI 완전 실행 2026

2026-03-05 읽기 약 13분 MiniCPM 설치 가이드 초경량 AI

오픈소스 LLM 다운로드 센터

MiniCPM 외 DeepSeek-R1·Llama 4·Gemma 3 등 10개 모델을 한곳에서 확인하세요

모델 보기 →

핵심 요약: MiniCPM은 중국 칭화대학교 NLP 연구팀이 개발한 초경량 AI 모델 시리즈입니다. 불과 2~3B 파라미터로 훨씬 큰 모델과 견줄 수 있는 성능을 발휘하는 것이 특징입니다. 특히 MiniCPM-o 3B 버전은 2GB 메모리에서도 실행 가능하여 구형 스마트폰, 저사양 PC, 라즈베리파이 등 다양한 기기에서 인터넷 없이 AI를 사용할 수 있습니다.

MiniCPM이란? 2GB로 실행하는 기적의 AI

MiniCPM은 "Mini Continual Pre-training Model"의 약자로, 칭화대 KEG 연구실과 ModelBest Inc.가 공동 개발한 초경량 언어 모델 시리즈입니다. 일반적인 AI 모델이 수십에서 수백 GB의 저장 공간과 고사양 GPU를 요구하는 것과 달리, MiniCPM은 스마트폰의 RAM에도 충분히 들어가는 크기로 설계되었습니다.

가장 주목받는 버전인 MiniCPM-o 3B는 3B 파라미터를 가지고 있지만 텍스트·이미지·음성을 동시에 처리하는 멀티모달 능력을 갖추고 있습니다. 특히 iPhone 15 Pro나 갤럭시 S24와 같은 최신 스마트폰에서 완전 오프라인으로 실행할 수 있어 "주머니 속 AI"라는 별명이 붙었습니다.

MiniCPM 핵심 강점

  • 초경량: 2GB 메모리로 실행 가능
  • 멀티모달: 텍스트·이미지·음성 지원
  • 완전 오프라인: 인터넷 없이 실행
  • 배터리 효율: 저전력 NPU 최적화
  • 다국어: 한국어 포함 30+ 언어

MiniCPM 모델 라인업

MiniCPM-o 3B 멀티모달 · 2GB RAM
MiniCPM-V 2.6 비전 특화 · 8B
MiniCPM 3.0 텍스트 특화 · 4B
MiniCPM-Llama3-V 비전 + Llama3 기반
2GB
최소 RAM
(3B Q4 버전)
~1.7GB
모델 파일 크기
(GGUF Q4)
30+
지원 언어
(한국어 포함)
오프라인
인터넷 없이
완전 실행

Windows 설치 방법 — 3가지 방법 비교

Windows에서 MiniCPM을 설치하는 방법은 세 가지입니다. 초보자라면 Ollama나 LM Studio를 사용하는 것이 가장 간편하고, 개발자라면 Python 환경에서 직접 실행하는 방법도 있습니다.

방법 1: Ollama (가장 간편 - 추천)

# PowerShell에서 실행 # 1. ollama.com에서 Windows 버전 설치 후 # MiniCPM-o 설치 및 실행 ollama pull minicpm-v ollama run minicpm-v # 또는 더 작은 버전 ollama pull minicpm ollama run minicpm

설치 시간: 약 3분 · 파일 크기: ~1.7GB · RAM: 4GB면 충분

방법 2: LM Studio GUI

① lmstudio.ai에서 설치

② 검색창에 "MiniCPM" 입력

③ MiniCPM-o-3B-GGUF 선택

④ Chat 탭에서 바로 사용

방법 3: Python 직접 실행

pip install torch transformers pip install timm from transformers import AutoModelForCausalLM model = AutoModelForCausalLM.from_pretrained( "openbmb/MiniCPM-o-3B", trust_remote_code=True )

macOS 설치 방법 (M1/M2/M3 칩 최적화)

MacBook Air(8GB 메모리)에서도 MiniCPM-o 3B를 놀라울 정도로 빠르게 실행할 수 있습니다. Apple Silicon의 Metal GPU 가속 덕분에 초당 50토큰 이상의 속도를 경험할 수 있습니다.

# macOS Terminal에서 실행

# Homebrew가 없다면 먼저 설치 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" # Ollama 설치 brew install ollama # 백그라운드로 서비스 시작 brew services start ollama # MiniCPM 다운로드 및 실행 ollama pull minicpm-v ollama run minicpm-v # 이미지와 함께 질문하기 # "이 이미지를 분석해주세요: [이미지 첨부]"

macOS Apple Silicon 성능

52 tok/s
MacBook Air M2
8GB RAM
78 tok/s
MacBook Pro M3 Pro
18GB RAM
95 tok/s
Mac Mini M4
24GB RAM

Linux 설치 방법 (Ubuntu·Raspberry Pi 포함)

MiniCPM의 가장 놀라운 특징 중 하나는 라즈베리파이와 같은 초저전력 기기에서도 실행된다는 점입니다. Raspberry Pi 5(8GB RAM)에서 MiniCPM-o 3B를 실행해보면 약 3~5 tok/s의 속도를 경험할 수 있습니다.

# Linux/Ubuntu/Raspberry Pi 설치

# Ollama 원라인 설치 curl -fsSL https://ollama.com/install.sh | sh # MiniCPM 설치 ollama pull minicpm-v # 실행 ollama run minicpm-v # Raspberry Pi용 llama.cpp 빌드 (CPU only) git clone https://github.com/ggerganov/llama.cpp cd llama.cpp mkdir build && cd build cmake .. -DLLAMA_NATIVE=ON cmake --build . --config Release -j4 # MiniCPM GGUF 모델 실행 ./llama-cli -m minicpm-o-3b.Q4_K_M.gguf \ -p "안녕하세요! 한국어로 대화해봅시다." \ --ctx-size 2048 -n 512

지원 플랫폼

  • • Ubuntu 20.04 / 22.04 / 24.04
  • • Debian 11 / 12
  • • CentOS 8 / Rocky Linux 9
  • • Raspberry Pi OS (64bit)
  • • Jetson Nano / Orin

엣지 디바이스 활용

  • • 스마트 홈 로컬 AI 어시스턴트
  • • 오프라인 번역 기기
  • • 개인 정보 보호 AI 챗봇
  • • 내장형 AI 제품 개발

Android 설치 방법 — 스마트폰 오프라인 AI

MiniCPM의 가장 혁신적인 활용은 Android 스마트폰에서의 오프라인 실행입니다. 갤럭시 S23 이상, 픽셀 7 이상의 스마트폰에서 별도의 Wi-Fi나 데이터 통신 없이 AI와 대화할 수 있습니다.

방법 1: MLC Chat 앱 (권장)

1

GitHub 릴리즈 페이지에서 MLC Chat APK 다운로드

2

설치 후 모델 목록에서 MiniCPM-o-3B 선택

3

Wi-Fi로 모델 다운로드 (~1.7GB) — 이후 오프라인 사용 가능

4

항공기 모드에서도 한국어 AI 대화 가능!

방법 2: Termux llama.cpp (고급 사용자)

# Termux에서 실행 pkg update && pkg install git cmake clang wget # llama.cpp 빌드 git clone https://github.com/ggerganov/llama.cpp cd llama.cpp cmake -B build && cmake --build build # MiniCPM GGUF 다운로드 후 실행 wget https://huggingface.co/openbmb/MiniCPM-o-3B-gguf/resolve/main/MiniCPM-o-3B-Q4_K_M.gguf ./build/bin/llama-cli -m MiniCPM-o-3B-Q4_K_M.gguf \ -p "안녕하세요!" --ctx-size 1024

iPhone / iPad 설치 방법

iPhone 15 Pro 이상은 A17 Pro 칩과 8GB RAM을 탑재하여 MiniCPM-o 3B를 완전히 로컬에서 실행할 수 있습니다. iPad Pro M4는 16GB RAM으로 훨씬 더 빠른 속도를 경험할 수 있습니다.

방법 1: Pocket Paladin 앱

① App Store에서 "Pocket Paladin" 검색

② 앱 설치 후 모델 추가 버튼 클릭

③ MiniCPM-o 3B GGUF 선택 및 다운로드

④ 오프라인 AI 채팅 시작!

방법 2: LLM Farm 앱

① App Store에서 "LLM Farm" 설치 (무료)

② 새 모델 → Hugging Face URL 입력

③ openbmb/MiniCPM-o-3B-gguf 다운로드

④ 한국어 설정 후 바로 사용 가능

MiniCPM 초경량 AI 활용 사례

모바일 활용

  • • 해외여행 중 인터넷 없는 번역
  • • 지하철·비행기에서 오프라인 AI 학습
  • • 개인 일기·메모 AI 분석
  • • 실시간 이미지 텍스트 추출(OCR)

개인정보 보호 활용

  • • 클라우드 전송 없는 민감 문서 분석
  • • 기업 내부 자료 AI 요약
  • • 의료·법률 정보 비공개 처리
  • • 오프라인 코드 리뷰

MiniCPM 모델 다운로드 팁

MiniCPM 모델은 Hugging Face의 openbmb 계정에서 다운로드할 수 있습니다. 한국에서 Hugging Face 접속이 느리거나 불안정하다면 VPN07로 접속하면 1000Mbps 고속 연결로 수 분 내에 다운로드를 완료할 수 있습니다. MiniCPM-o 3B GGUF Q4 파일 기준 약 1.7GB로, VPN07 연결 시 약 15초면 다운로드 완료됩니다.

MiniCPM 경쟁 모델 비교 및 선택 가이드

2~3B 파라미터 초경량 AI 시장에는 MiniCPM 외에도 Phi-3.5-mini, Gemma 2B 등 다양한 모델이 경쟁하고 있습니다. 각 모델의 특성을 비교하여 본인의 사용 환경에 맞는 모델을 선택해보세요.

🥇

MiniCPM-o 3B - 모바일 AI 1위

2GB RAM · 멀티모달(텍스트+이미지+음성) · 완전 오프라인 · 스마트폰 최적화

Phi-3.5-mini (3.8B)

Microsoft

수학·코딩에서 강점. 모바일 실행 가능하나 멀티모달 기능 없음.

Gemma 2 2B

Google

구글의 소형 모델. 텍스트 처리에 집중. MiniCPM보다 멀티모달 능력 부족.

어떤 모델을 선택해야 할까요?

스마트폰에서 오프라인 AI: MiniCPM-o 3B (최강 선택)

수학·코딩 전문: Phi-4 14B (더 강력한 수학 능력)

개인정보 보호 AI: MiniCPM (모든 데이터 로컬 처리)

이미지+텍스트 분석: MiniCPM-V 2.6 (8B 비전 특화)

라즈베리파이 IoT AI: MiniCPM-o 3B (저전력 엣지 최적)

오래된 스마트폰 재활용: MiniCPM Q2 버전으로 갤럭시 S21에서도 실행 가능

여행 중 언어 지원: 인터넷 없이 현지 언어 번역 및 소통 도우미

오픈소스 LLM 다운로드 센터

MiniCPM 외 DeepSeek-R1·Llama 4·Gemma 3·Phi-4 등 10개 모델을 한곳에서 비교 확인

모델 보기 →

VPN07 - AI 모델 다운로드 최적 VPN

Hugging Face 고속 접속 · 1000Mbps 기가급 대역폭 · 30일 환불 보장

$1.5/월
초저가 월정액
1000Mbps
기가급 속도
70+개국
글로벌 서버
30일
환불 보장

MiniCPM 모델은 Hugging Face에서 다운로드합니다. VPN07의 1000Mbps 고속 연결로 1.7GB 파일을 약 15초, 더 큰 MiniCPM-V 2.6(8B) 모델도 수 분 내에 다운로드할 수 있습니다. 10년 이상 안정적으로 운영된 VPN07은 스마트폰 AI, 로컬 AI 개발, 해외 AI 서비스 접속에 최적화되어 있습니다. 월 $1.5, 30일 환불 보장.

관련 글 추천

월 $1.5 · 10년 운영
VPN07 무료 체험