VPN07

MiniMax M2 本地安裝 2026 全攻略:Windows / Mac / Linux / 手機完整部署指南

2026-03-05 閱讀約 18 分鐘 MiniMax M2 本地部署 MoE 模型
開源大語言模型下載中心
MiniMax M2 / DeepSeek / Qwen3.5 一站下載
立即下載模型 →

教學說明:MiniMax M2(前稱 MiniMax-Text-01/M1)是由 MiniMax 公司發布的混合專家架構(MoE)開源大語言模型,以支援超長上下文(最高 1M Token)和卓越的中文理解能力著稱。本教學涵蓋 Windows、macOS、Linux、Android、iOS 五大平台的完整安裝流程,包含 Hugging Face 下載和本地推理的全部步驟。

MiniMax M2 是什麼?超長上下文的王者

MiniMax M2 是 MiniMax 公司推出的新一代開源大語言模型,採用混合專家(MoE)架構,總參數量達 4560 億,但活躍參數僅 456 億,兼顧了模型能力和執行效率。其最大特色是支援高達 100 萬 Token 的超長上下文窗口,遠超大多數競品,非常適合處理超長文件、完整程式庫代碼審查,以及需要持續追蹤大量資訊的複雜任務。

MiniMax M2 在多語言理解方面同樣出色,特別是中文(含繁體中文)的表現在同量級開源模型中名列前茅。其推理速度相較同規模稠密模型快 3-5 倍,讓消費級硬體也能體驗到旗艦級 AI 的能力。對於需要分析超長文件、進行多輪複雜對話或處理整個程式碼庫的使用者,MiniMax M2 是目前開源市場最強的選擇之一。

📄

100萬 Token 上下文

可一次處理超過 750,000 個中文字的超長文件

MoE 高效架構

456B 活躍參數,推理速度比稠密模型快 3-5 倍

🌏

中文能力卓越

繁簡中文理解和生成在開源模型中頂尖水準

硬體需求:MiniMax M2 需要什麼配置?

MiniMax M2 的完整版本體積較大,以下是不同部署方式的硬體需求:

部署方式 VRAM / RAM 推薦硬體 備註
完整版(FP16) ≥ 80GB VRAM H100 / A100 多卡 最高品質,適合企業部署
量化版(INT4) ≥ 48GB VRAM 4×RTX 4090 / M2 Ultra 高端消費硬體可行
API 雲端調用 無需本地 GPU 任何電腦 / 手機 推薦一般用戶使用
小型蒸餾版 ≥ 8GB VRAM RTX 3060 / M1 Mac 縮小版,保留主要能力

一般用戶最佳策略:API + 本地結合

由於 MiniMax M2 完整版對硬體要求較高,一般消費者建議採用雲端 API(MiniMax API 提供免費額度)體驗完整能力,同時在本地部署輕量蒸餾版。這樣既可享受完整版的強大性能,又能在本地處理隱私敏感的任務。

Windows 安裝 MiniMax M2 完整教學

Windows 用戶有兩種主要安裝方式:使用 Ollama 安裝量化版本,或透過 Python 環境調用 Hugging Face 版本:

方法一:Ollama 安裝(最簡便)

1

安裝 Ollama

前往 ollama.com 下載 Windows 版 Ollama,安裝後在 PowerShell 中執行下列命令。

2

透過 Ollama 下載 MiniMax

# 從 Ollama 模型庫搜尋 MiniMax 可用版本
ollama search minimax

# 下載量化版(若 Ollama 有提供)
ollama pull minimax-text

若 Ollama 尚未收錄 MiniMax M2,可直接使用 MiniMax 官方 API,詳見方法二。

方法二:Hugging Face + transformers 安裝

1

安裝 Python 環境和依賴套件

pip install transformers torch huggingface_hub accelerate
2

下載 MiniMax M2 模型文件

huggingface-cli download MiniMaxAI/MiniMax-M1-40k --local-dir ./minimax-m2

建議搭配 VPN07 千兆頻寬下載,模型文件較大,高速網路可大幅縮短等待時間。

3

執行推理腳本

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_path = "./minimax-m2"
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_path, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True)

inputs = tokenizer("請用繁體中文介紹 MiniMax M2 的特色", return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

macOS 安裝 MiniMax M2 完整教學

macOS 用戶特別是 Apple Silicon(M 系列晶片)用戶,可以利用統一記憶體架構高效執行量化版 MiniMax M2:

安裝 Homebrew 和 Python 環境

# 安裝 Homebrew(如尚未安裝)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

# 安裝 Python 和必要套件
brew install [email protected]
pip3 install transformers torch huggingface_hub accelerate

下載並執行 MiniMax M2

# 設定 Hugging Face 快取目錄
export HF_HOME=~/minimax_models

# 下載模型
huggingface-cli download MiniMaxAI/MiniMax-M1-40k

# 執行推理(Apple Silicon 自動使用 MPS 加速)
python3 minimax_run.py

Apple Silicon Mac(M2/M3/M4)會自動啟用 Metal Performance Shaders(MPS)加速,比純 CPU 執行快約 3-5 倍。

使用 LM Studio 圖形介面(推薦非開發者)

LM Studio 是 macOS 上最受歡迎的本地 AI 圖形介面工具。前往 lmstudio.ai 下載,安裝後在搜尋欄輸入 "MiniMax" 即可找到並下載量化版本,無需任何命令列操作。

M4 Max
128GB 可跑完整版
M2 Ultra
192GB 旗艦體驗
M3 Pro
蒸餾版流暢執行
API 調用
任何 Mac 可用

Linux 安裝 MiniMax M2 完整教學

Linux 配合 NVIDIA GPU 是執行大型 MoE 模型最推薦的環境,CUDA 加速可以最大化 MiniMax M2 的推理效能:

Ubuntu 完整安裝流程

# 更新系統
sudo apt update && sudo apt upgrade -y

# 安裝 Python 和 pip
sudo apt install python3 python3-pip python3-venv -y

# 建立虛擬環境
python3 -m venv minimax_env
source minimax_env/bin/activate

# 安裝 PyTorch(CUDA 12.1 版本)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

# 安裝其他套件
pip install transformers accelerate huggingface_hub sentencepiece

多 GPU 平行部署(大型版本)

MiniMax M2 的完整版需要多張高端 GPU,可利用 device_map="auto" 自動分配:

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

# 自動分配至多張 GPU
model = AutoModelForCausalLM.from_pretrained(
"MiniMaxAI/MiniMax-M1-40k",
torch_dtype=torch.bfloat16,
device_map="auto", # 自動分配多 GPU
trust_remote_code=True
)

vLLM 高速推理部署(生產環境推薦)

如果需要高並發推理服務,vLLM 是最佳選擇:

pip install vllm

# 啟動 vLLM 服務(OpenAI 相容 API)
python -m vllm.entrypoints.openai.api_server \
--model MiniMaxAI/MiniMax-M1-40k \
--tensor-parallel-size 4 \ # 使用 4 張 GPU
--port 8000

Android 和 iPhone 使用 MiniMax M2

由於 MiniMax M2 完整版對硬體要求較高,手機用戶主要透過以下方式使用:

Android:API 方式連線使用

在 Android 手機上透過 MiniMax 官方 API 調用完整 M2 能力,使用支援自定義 API 的聊天應用(如 OpenCat、ChatX 等):

1

前往 api.minimax.chat 註冊帳號,取得 API Key(有免費額度)

2

在 AI 聊天 App 中填入 API Key 和模型名稱 MiniMax-Text-01,即可調用完整 M2 能力

iPhone:Enchanted + 本地伺服器連線

如果你在家中的電腦或伺服器上已部署 MiniMax M2,可以使用 Enchanted(iOS 免費 App)遠端連線,享受流暢的聊天介面體驗。在家中主機啟動服務後,iPhone 透過 Wi-Fi 或 VPN 連線即可使用。

官方 App:Talkie(海外版)

MiniMax 官方推出的 Talkie AI 對話 App(部分地區提供)支援直接在手機上調用 MiniMax M2 的能力,無需本地部署,是最簡便的體驗方式。

MiniMax API 快速入門(通用方案)

不論使用哪種設備,MiniMax 官方 API 是體驗完整 M2 能力最便捷的方式:

Python 調用 MiniMax API

import requests

url = "https://api.minimax.chat/v1/text/chatcompletion_v2"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "MiniMax-Text-01",
"messages": [
{"role": "user", "content": "請用繁體中文分析人工智慧的未來發展趨勢"}
],
"max_tokens": 2048
}
response = requests.post(url, headers=headers, json=data)
print(response.json()['choices'][0]['message']['content'])

善用 MiniMax M2 的超長上下文能力

MiniMax M2 最強大的特性是其超長上下文窗口,以下是幾個實際應用場景:

📄 整本書籍摘要與分析

MiniMax M2 的 100萬 Token 上下文可以一次載入超過 700 頁的完整書籍,進行深度分析、角色梳理或主題提取,不再需要分段處理。

💻 完整程式庫代碼審查

可以一次輸入整個 GitHub 倉庫的所有程式碼,讓 M2 理解全貌後進行架構建議、Bug 排查或文檔生成,避免了分段輸入的上下文丟失問題。

📊 超長報告生成

一次輸入數十份參考文件,MiniMax M2 可以整合所有資訊,生成條理清晰的長篇分析報告,適合學術研究和商業決策場景。

為什麼下載大模型需要優質網路連線?

MiniMax M2 的完整模型文件高達數百 GB,即使是量化版本也在 40GB 以上。在網路品質不穩定的環境下,下載可能因中斷而失敗,需要重新下載。VPN07 提供 1000Mbps 千兆頻寬和穩定的全球連線,是確保大型模型順利下載的最佳方案。

🚀 VPN07 讓你的 AI 工具更強大

1000Mbps
千兆下載速度
70+
全球節點
10年
穩定運營
$1.5
每月費用

常見問題 FAQ

Q:MiniMax M2 和 DeepSeek-R1 哪個更強?

兩者各有優勢。MiniMax M2 的超長上下文(100萬 Token)是其獨特優勢,非常適合長文件處理;DeepSeek-R1 的推理鏈能力更強,適合數學和邏輯問題。對於繁體中文使用者,兩者的中文能力都相當出色,建議根據具體需求選擇。

Q:MiniMax M2 支援繁體中文輸出嗎?

支援。MiniMax M2 在訓練語料中包含大量繁體中文內容,可以直接以繁體中文輸入和輸出。若模型預設以簡體回應,可在提示詞中明確要求:「請用繁體中文回答」。

Q:普通筆電可以執行 MiniMax M2 嗎?

完整版需要高端硬體,但透過 MiniMax 官方 API(有免費額度)或蒸餾量化版,普通筆電完全可以使用 M2 的大部分能力。建議搭配 VPN07 確保 API 請求順暢。

Q:MiniMax M2 的授權是否允許商業使用?

MiniMax M1/M2 系列採用 MiniMax Model License 授權,允許研究用途和有限度的商業使用,具體使用限制請參閱 Hugging Face 頁面上的授權條款。

還想體驗更多開源大模型?
MiniMax M2 / DeepSeek / Llama 4 / Qwen 一站下載
查看全部模型 →

VPN07 — AI 模型下載首選加速工具

千兆頻寬加速下載 · 70+ 國家節點 · 十年穩定服務

MiniMax M2 模型文件體積龐大,穩定的高速網路是成功部署的前提。VPN07 提供 1000Mbps 千兆頻寬,確保你能從 Hugging Face 快速下載模型,API 請求也低延遲無阻礙。全球 70+ 節點保障隨時可用,穩定運營十年口碑有保障,30 天退款保障讓你零風險試用,$1.5/月輕鬆體驗頂級網路服務。

$1.5/月
超低月費
1000Mbps
千兆頻寬
70+
國家節點
30天
退款保障

相關文章推薦

月費$1.5 · 運營十年
免費試用 VPN07