VPN07

MiniCPM 全平台安裝:手機也能跑的超輕量本地 AI 2026

2026-03-05 閱讀約 18 分鐘 MiniCPM 清華開源 手機AI

尋找 MiniCPM 及更多開源大模型?

前往 VPN07 開源大語言模型下載中心,精選 10 款主流 LLM,一鍵複製安裝命令

前往模型庫 →

教學說明:MiniCPM 是清華大學 KEG 實驗室和面壁智能聯合研發的超輕量大語言模型,是 2026 年在移動設備和邊緣計算領域最受矚目的開源 AI 之一。僅 3-4B 參數的 MiniCPM 在許多任務上超越了更大規模的競品,且可在手機、樹莓派等低規設備上流暢執行。本教學完整覆蓋所有平台。

MiniCPM 是什麼?清華系輕量 AI 的驚人能力

MiniCPM(Mini Continuous Pre-training Model)由清華大學知識工程實驗室(KEG)和北京面壁智能科技共同研發。這個名字中的「Mini」體現了其核心設計理念:在盡可能少的參數量下,實現盡可能強的智能能力。

MiniCPM 的最新版本 MiniCPM-o 4.5(Multi-modal)支援圖片、語音和文字的多模態輸入,在 9B 參數規模下達到了令人驚歎的效能。而最受歡迎的 MiniCPM-3B 版本僅需 4GB 記憶體,連樹莓派 5 都能執行。中文優化出色,繁體中文表現也相當流暢。

3B
核心版本
4GB RAM可跑
4B
多模態版
支援圖片輸入
9B
旗艦多模態
圖片+語音+文字
Apache
授權類型
2.0 免費商用

硬體需求:幾乎任何設備都能跑

版本 記憶體需求 典型設備 特色
MiniCPM-3B 4GB RAM 手機、樹莓派 5、舊電腦 最輕量,隨身 AI
MiniCPM-o 4B 6GB RAM 中高階手機、入門筆電 支援圖片多模態
MiniCPM-o 9B 8GB VRAM RTX 3060 / M2 Mac 圖片+語音+文字

Windows 安裝 MiniCPM 完整教學

方法一:Ollama 安裝(最簡單)

從 ollama.com 安裝 Ollama 後,在 PowerShell 執行:

# 下載 MiniCPM(視覺多模態版)
ollama pull minicpm-v

# 或下載純文字版(更快)
ollama pull minicpm

# 執行
ollama run minicpm-v

minicpm-v 支援傳入圖片進行識別,功能更強大

方法二:LM Studio(圖形介面)

從 lmstudio.ai 下載 LM Studio,在搜索框輸入「minicpm」,選擇合適的量化版本下載即可。LM Studio 提供直觀的聊天介面,完全不需要命令列操作。

方法三:Python 原生執行(進階)

pip install torch transformers
huggingface-cli download openbmb/MiniCPM-o-3B
python -c "from transformers import AutoModelForCausalLM; m=AutoModelForCausalLM.from_pretrained('openbmb/MiniCPM-o-3B'); print('Success')"

macOS 安裝 MiniCPM 完整教學

# Homebrew 安裝 Ollama
brew install ollama
brew services start ollama

# 下載 MiniCPM(視覺多模態版)
ollama pull minicpm-v

# 開始對話,可傳入圖片
ollama run minicpm-v

Apple Silicon 特別提示

MiniCPM-3B 在 M1/M2/M3/M4 Mac 上幾乎瞬間啟動,8GB 記憶體的入門款 MacBook Air 也能流暢執行 MiniCPM-o 4B 視覺版本。這讓 MiniCPM 成為 Mac 用戶體驗多模態 AI 的最低門檻選擇。

Linux 安裝 MiniCPM 完整教學

# 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl enable --now ollama

# 下載 MiniCPM
ollama pull minicpm-v

# 樹莓派 5 用戶(ARM 架構)也完全支援!
# Ollama 原生支援 ARM64,樹莓派 5 執行 MiniCPM-3B 約每秒 5-8 tokens

邊緣計算場景:MiniCPM 是目前最適合部署在 NAS、樹莓派、工業電腦等邊緣設備上的 AI 模型。面壁智能官方提供了樹莓派的完整部署教程,4GB RAM 的樹莓派 5 即可執行。

Android 手機安裝 MiniCPM(重點!)

MiniCPM 最令人興奮的特點是真正支援手機原生執行,這是它有別於其他模型的最大優勢:

方法一:MLC Chat(最推薦,官方支援)

MLC Chat 是面壁智能官方推薦的手機 AI 應用:

  1. 從 Google Play 或 GitHub Release 下載 MLC Chat APK
  2. 打開 App,選擇「Add model」
  3. 搜索「MiniCPM」,選擇 3B 或 4B 版本下載
  4. 下載完成後即可本機離線使用
支援 Qualcomm、MediaTek、Apple 晶片的 NPU 加速

方法二:Termux + Ollama

pkg update && pkg install curl
curl -fsSL https://ollama.com/install.sh | sh
ollama pull minicpm # 3B 版本約 2GB
ollama run minicpm

8GB RAM 的 Android 旗艦機可流暢執行,6GB 設備也能使用但速度較慢

方法三:面壁智能官方 App(持續更新中)

面壁智能正在開發官方 Android App,支援一鍵下載 MiniCPM 系列模型。關注面壁智能官方網站(modelbest.cn)獲取最新資訊。

📱 手機執行 MiniCPM 的推薦配置

最佳體驗

Snapdragon 8 Elite / Dimensity 9400,12GB+ RAM,可流暢執行 MiniCPM-o 4B

基本體驗

Snapdragon 8 Gen 2 或以上,8GB+ RAM,執行 MiniCPM 3B 可用

iPhone / iOS 安裝 MiniCPM

方法一:MLC Chat(iOS 版本)

MLC Chat 也有 iOS 版本,在 App Store 搜索「MLC Chat」即可找到。下載後選擇 MiniCPM 模型,可在 iPhone 上本機執行。iPhone 15 Pro 的 A17 Pro 晶片可流暢執行 MiniCPM 3B。

方法二:Enchanted App(連接電腦端)

在電腦安裝 Ollama + MiniCPM,iPhone 使用 Enchanted 連接,通過 Wi-Fi 調用電腦端的 MiniCPM 服務。

MiniCPM 多模態功能實戰:看圖說話

MiniCPM-o(視覺版)最令人驚豔的是其圖片理解能力,即使在手機上也能流暢使用:

📸 圖片內容分析

拍攝照片後直接詢問 MiniCPM,它可以識別圖中的物件、文字、場景,適合旅遊識別、學習輔助等場景。

📋 文件照片 OCR

對紙本文件拍照後,讓 MiniCPM 提取文字內容,支援中英文混合文檔,準確率不輸專業 OCR 工具。

🛒 商品識別詢問

拍攝商品照片詢問成分、使用方法、價格比較等,讓購物更聰明。

💻 程式碼截圖分析

截取錯誤訊息的截圖,讓 MiniCPM 直接分析圖片中的程式碼問題並提供解決方案。

MiniCPM 與其他輕量模型的比較

在輕量型本地 AI 模型中,MiniCPM 有哪些獨特優勢?以下是與同類模型的客觀比較:

MiniCPM vs Gemma 3 1B

兩者都能在手機上執行,但 MiniCPM 的中文優化更出色,適合繁體中文用戶。Gemma 3 的英文能力更強,Google 生態整合更佳。若主要使用中文,MiniCPM 是更好的選擇。

MiniCPM vs Phi-4

Phi-4 的推理能力更強(14B vs 3B),但需要更多記憶體(8GB VRAM vs 4GB RAM)。MiniCPM 的優勢在於真正的邊緣部署能力,手機、樹莓派都能跑,而 Phi-4 基本只能在電腦上運行。

MiniCPM 多模態的獨特優勢

MiniCPM-o 支援語音輸入和圖片理解,這在同量級輕量模型中非常罕見。你可以對著手機說話,讓 AI 即時回應,實現真正的語音 AI 助手體驗,且完全離線運行。

MiniCPM 進階設定:讓 AI 更懂你

通過自訂 Modelfile,可以讓 MiniCPM 更好地適應你的使用習慣:

建立繁體中文優化版 MiniCPM

# 建立 Modelfile
cat > Modelfile.minicpm << 'EOF'
FROM minicpm-v
SYSTEM """
你是一個繁體中文 AI 助手。請始終以繁體中文回答,
使用台灣的用語習慣。回答要簡潔清晰,直接切入重點。
"""
PARAMETER temperature 0.7
PARAMETER top_p 0.9
EOF

# 建立自訂模型
ollama create minicpm-tw -f Modelfile.minicpm

# 使用自訂模型
ollama run minicpm-tw

這樣設定後,MiniCPM 每次都會用繁體中文回應,完全貼合台灣用戶的使用習慣。

下載資源與網路加速

MiniCPM 的模型文件主要託管在 Hugging Face 和面壁智能的模型庫(modelbest.cn)上。3B 版本約 2GB,多模態版本約 3-4GB,下載速度取決於網路品質。在亞太地區訪問 Hugging Face 可能面臨速度瓶頸,有時甚至無法正常訪問。

VPN07 在美國、日本、新加坡等地設有高速節點,1000Mbps 千兆頻寬讓你下載 MiniCPM 的幾個 GB 文件只需數分鐘。更重要的是,VPN07 確保 Hugging Face 可以正常訪問,讓你瀏覽各版本並選擇最適合自己設備的量化版本。十年穩定服務,30 天退款保障,$1.5/月超低月費。VPN07 是目前台灣用戶在下載和使用開源 AI 模型過程中,公認的最佳網路加速工具,千兆頻寬讓 AI 部署工作事半功倍。

想在本機執行更多開源 AI 大模型?

VPN07 精選 10 款主流 LLM,含 DeepSeek R1、Qwen3.5、Llama 4 等,下載連結與安裝命令一應俱全

前往模型庫 →

VPN07 — MiniCPM 部署最佳加速搭檔

千兆頻寬加速下載 · 70+國家節點 · 十年穩定服務

MiniCPM 的模型下載需要訪問 Hugging Face,VPN07 千兆頻寬讓訪問順暢無阻。70+ 國家節點覆蓋全球,手機、電腦、伺服器全端適用。十年穩定服務,30 天退款保障,$1.5/月輕鬆享用國際大牌 VPN。

$1.5/月
超低月費
1000Mbps
千兆頻寬
70+
國家節點
30天
退款保障

相關文章推薦

月費$1.5 · 運營十年
免費試用 VPN07