智谱 GLM 全平台安裝教學:清華系開源 AI 本地部署指南 2026
教學說明:智谱 AI(清華大學技術衍生公司)研發的 GLM 系列是中文 AI 領域最重要的開源模型之一,在工具呼叫(Function Calling)和 Agent 任務上擁有全球領先的能力。GLM-5 旗艦版的 SWE-Bench 得分高達 77.8%,是目前工具呼叫能力最強的開源模型。本教學完整覆蓋所有平台的安裝方式。
智谱 GLM 是什麼?清華 AI 的旗艦開源之作
智谱 AI 是清華大學知識工程研究室(KEG Lab)孵化的 AI 公司,GLM(General Language Model)系列是其最重要的開源成果。GLM 採用獨特的自回歸空白填充預訓練目標,在理解和生成任務上均有出色表現。
GLM-5 在 SWE-Bench(程式碼修復基準)上得分 77.8%,超越了包括 GPT-4 在內的眾多競品,成為工具呼叫和 Agent 任務的標杆模型。對於需要 AI 自動操作工具、執行複雜任務流的用戶,GLM 是目前開源世界最強的選擇。Apache 2.0 授權確保免費商業使用。
🏆 GLM-5 關鍵效能數據
數據來源:Artificial Analysis · LMSYS Chatbot Arena · 智谱 AI 官方技術報告(2026年3月)
GLM 版本選擇與硬體需求
智谱 GLM 系列有多個版本,從輕量版到旗艦版均有開源:
| 版本 | 參數量 | VRAM | 適用場景 |
|---|---|---|---|
| glm4:9b | 9B | 8GB+ | 日常對話、程式輔助,RTX 3060 可跑 |
| glm4:32b | 32B | 20GB+ | 高品質 Agent 任務,RTX 3090/4080 |
| glm4-v:9b | 9B | 10GB+ | 視覺多模態版本,支援圖片理解 |
| codegeex4:9b | 9B | 8GB+ | 專為程式碼優化的 GLM 衍生版 |
Windows 安裝智谱 GLM 完整教學
方法一:Ollama(最推薦)
從 ollama.com 安裝 Ollama 後,在 PowerShell 執行:
# 下載 GLM-4 9B(最常用版本)
ollama pull glm4
# 或下載程式碼專用版
ollama pull codegeex4
# 開始對話
ollama run glm4
glm4 預設下載 9B 版本,約 6GB,確保磁碟空間充足
方法二:GLM 官方 API + 本地前端
智谱 AI 提供官方 API,你可以用本地的 Open WebUI 連接雲端 GLM,無需下載龐大模型文件:
// Open WebUI 設定
API Base URL: https://open.bigmodel.cn/api/paas/v4/
API Key: [從 bigmodel.cn 獲取]
Model: glm-4-flash # 免費版本
智谱 AI 提供 glm-4-flash 免費版本,適合試用體驗
方法三:LM Studio
從 lmstudio.ai 下載 LM Studio,搜索「glm」或「zhipu」,選擇量化版本下載。LM Studio 提供完整的圖形介面,適合新手。
macOS 安裝智谱 GLM 完整教學
# 安裝 Ollama
brew install ollama
brew services start ollama
# 下載 GLM-4
ollama pull glm4
# 啟動對話
ollama run glm4
# 如果需要視覺版本
ollama pull glm4v
ollama run glm4v
M2/M3/M4 用戶:GLM-4 9B 在 16GB 統一記憶體的 Mac 上執行流暢,Metal GPU 加速自動啟用,推理速度比 CPU 快 3-5 倍。M4 MacBook Pro 甚至可以流暢執行 GLM-4 32B 的量化版本。
Linux 安裝智谱 GLM 完整教學
# 安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
sudo systemctl enable --now ollama
# 下載 GLM-4 9B
ollama pull glm4
# 下載 CodeGeeX4(程式專用)
ollama pull codegeex4
# 以 API 服務方式啟動(其他應用調用)
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Linux 伺服器部署 GLM-4 後,可透過 API 為整個辦公室提供本地 AI 服務,替代付費的 API 費用。
Android / iOS 安裝智谱 GLM
GLM-4 的 9B 版本對手機記憶體要求較高,以下是適合手機用戶的方案:
方法一:遠端連線電腦端 GLM(最推薦)
在電腦安裝 GLM-4 後,讓手機通過 Wi-Fi 連線:
# 電腦端開啟遠端連線
OLLAMA_HOST=0.0.0.0:11434 ollama serve
Android 安裝 Maid 或 ChatAll,iOS 安裝 Enchanted,填入電腦 IP 即可連線
方法二:Android Termux 本機執行
pkg update && pkg install curl
curl -fsSL https://ollama.com/install.sh | sh
# 使用量化版降低記憶體需求
ollama pull glm4:q4_0
ollama run glm4:q4_0
需要 12GB+ RAM 旗艦機,Snapdragon 8 Elite 或 Dimensity 9400 最佳
方法三:使用智谱 AI 官方 App(最簡單)
智谱 AI 推出了「智谱清言」官方 App(Android/iOS 均有),可直接使用雲端 GLM 模型,無需任何技術設定。適合只想體驗 GLM 能力、不需要完全本地部署的用戶。
GLM 的殺手鐧:工具呼叫與 Agent 任務
GLM 最值得關注的特性是其超強的工具呼叫(Function Calling)能力,這讓它特別適合構建 AI Agent 應用:
🔧 函數呼叫示例(天氣查詢)
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather",
"parameters": {"type": "object", "properties": {"location": {"type": "string"}}}
}
}]
# GLM 會自動決定何時調用工具
🤖 Browser Use 自動化操作
GLM 搭配 browser-use 框架,可以自動操作瀏覽器完成訂票、搜索、填表等任務,是構建個人 AI 助理的理想選擇。
📊 資料分析自動化
讓 GLM 調用 Python 代碼工具,自動分析 Excel、CSV 數據,生成圖表,撰寫分析報告,完全替代手動操作。
CodeGeeX4:面向程式開發者的 GLM 版本
CodeGeeX4 是智谱 AI 針對程式碼任務優化的 GLM 衍生版本,已有 VS Code 和 JetBrains 系 IDE 的官方外掛:
CodeGeeX4 安裝與整合
# 下載 CodeGeeX4
ollama pull codegeex4
# 在 VS Code 安裝 CodeGeeX 外掛
# 外掛市集搜索「CodeGeeX」,在設定中切換為 Local 模式
# 填入 Ollama 端點:http://localhost:11434
# 選擇模型:codegeex4
設定完成後,VS Code 會出現 AI 程式碼補全、解釋、Debug 等功能,完全免費本地執行。
模型下載與網路加速
GLM-4 9B 版本約 6GB,32B 版本更達 20GB 以上。從 Ollama 模型庫下載這些文件時,良好的網路連線能節省大量等待時間。智谱 AI 的模型也有部分版本在 Hugging Face 上,同樣需要穩定的國際網路訪問。
VPN07 提供 1000Mbps 千兆頻寬,是 AI 工程師下載大型模型文件的最佳夥伴。70+ 國家節點覆蓋全球主流 AI 資源聚集地,美國、日本、德國節點對 Ollama 和 Hugging Face 連線速度極佳。十年穩定服務,$1.5/月的超低月費,讓你下載 GLM-4 32B 這樣的大文件也省時省心。30 天退款保障,完全無購買風險。
用 GLM 構建個人 AI Agent:實戰案例
GLM 的工具呼叫能力讓它特別適合構建自動化 AI Agent。以下是幾個實際可以部署的案例:
📧 郵件自動分類助手
讓 GLM 連接 Gmail API,自動為收件匣中的郵件分類、標記重要郵件、草擬回覆,每天節省大量時間。
📊 每日新聞摘要生成
GLM 每天自動抓取你關注的新聞來源,生成繁體中文摘要,推送到 Telegram,讓你快速掌握重要資訊。
🛒 電商比價助手
告訴 GLM 你想買的商品,它自動在多個電商平台搜索比較價格,找出最優惠的方案並回報給你。
📋 會議記錄整理
上傳會議錄音或文字記錄,GLM 自動提取關鍵決議、待辦事項,生成結構化的會議紀要,大幅提升辦公效率。
🌐 GLM + VPN07 = 最強 AI 基礎設施
本地 GLM 模型搭配 VPN07 的 1000Mbps 千兆頻寬,讓你的 AI Agent 在調用外部 API、搜索網路資訊時都能以最快速度完成任務。VPN07 的 70+ 個全球節點確保你的 AI 助理不論連接哪個地區的服務都能暢通無阻,打造完整的個人 AI 基礎設施。月費僅 $1.5,十年穩定服務,是 AI 時代性價比最高的網路投資。
常見問題 FAQ
Q:GLM vs Qwen3.5,哪個更適合台灣用戶?
兩者中文都很強,但各有側重。Qwen3.5 的繁體中文更流暢,適合日常對話。GLM 的工具呼叫能力更強,適合需要 AI 自動操作工具的開發者。如果你需要構建 AI Agent,GLM 是更好的選擇。
Q:GLM-4 支援繁體中文嗎?
GLM-4 對繁體中文有良好支援,直接用繁體中文提問即可得到繁體中文回答。若想確保始終使用繁體中文,可在系統提示中加入「請使用繁體中文回答」。
Q:GLM 和 GLM-4 有什麼區別?
在 Ollama 中,ollama pull glm4 下載的就是 GLM-4 系列(9B 版本)。GLM-5 是更新的旗艦版,目前部分版本已開源,可通過 Hugging Face 下載。
Q:CodeGeeX4 和 GitHub Copilot 哪個好?
功能上 CodeGeeX4 接近 Copilot,但 CodeGeeX4 完全本地執行,無需訂閱費用,且程式碼不會傳送到外部伺服器。對於需要保護程式碼智慧財產權的企業開發者,CodeGeeX4 是更好的選擇。
VPN07 — GLM 下載最佳加速搭檔
千兆頻寬加速下載 · 70+國家節點 · 十年穩定服務
GLM-4 32B 版本超過 20GB,需要優質網路才能快速下載。VPN07 提供 1000Mbps 千兆頻寬,Ollama 模型庫、Hugging Face 下載飛速。70+ 國家節點,十年穩定服務,30 天退款保障,$1.5/月輕鬆享用,是 AI 工程師和開發者的最佳網路夥伴。