VPN07

LM Studio 免程式碼教學 2026:Windows / Mac 圖形介面本機跑開源 AI 完整指南

2026-03-06 閱讀約 20 分鐘 LM Studio 本地 AI 零基礎
開源大語言模型下載中心
LM Studio 支援全部主流開源模型下載與執行
立即下載模型 →

教學說明:LM Studio 是目前最適合非技術背景用戶的本地 AI 工具,完全圖形化操作,不需要輸入任何命令列指令,拖拉點選就能下載和執行包括 DeepSeek-R1、Qwen3.5、Gemma 3、Phi-4 在內的所有主流開源大模型。本教學覆蓋 Windows 和 macOS 的完整安裝流程、模型搜尋與下載、對話設定,以及如何開啟 API 讓其他應用程式使用你的本地 AI。

LM Studio 是什麼?為什麼它比 Ollama 更適合初學者?

LM Studio 是一款桌面應用程式,提供完整圖形介面來下載、管理和執行開源大語言模型(LLM)。與 Ollama 主要透過命令列操作不同,LM Studio 所有功能都能用滑鼠點選完成,就像在使用 Spotify 選歌一樣直覺。對於不熟悉命令列的用戶來說,LM Studio 是進入本地 AI 世界最低門檻的選擇。

LM Studio 背後使用的是 llama.cpp 推理引擎,支援 NVIDIA GPU、AMD GPU 以及 Apple Silicon 的 Metal 加速,效能優秀。同時它也提供 OpenAI 相容的本地 API 服務,讓其他應用程式可以把你的本地 AI 當成 ChatGPT API 來呼叫。

🖱️

全圖形化操作

無需命令列,點選即完成所有操作

🔍

內建模型搜尋

直接在 App 內搜尋並下載 HuggingFace 模型

GPU 自動偵測

自動啟用 NVIDIA/AMD/Apple Metal 加速

🔌

OpenAI 相容 API

一鍵開啟本地 API,替換 ChatGPT 端點

系統需求:你的電腦夠格嗎?

規格項目 最低需求 建議規格
作業系統 Windows 10 / macOS 12 Windows 11 / macOS 14+
RAM(系統記憶體) 8 GB 16 GB+
VRAM(顯示卡) 4 GB(執行 7B 量化版) 8 GB+(執行 14B)
儲存空間 10 GB 可用空間 50 GB+(多模型)
GPU 支援 無 GPU 也可(純 CPU,速度較慢) NVIDIA RTX / Apple M 系列

LM Studio 安裝教學:Windows 完整步驟

Windows 安裝步驟(圖解)

1

下載 LM Studio 安裝程式

前往 lmstudio.ai 官方網站,點選「Download for Windows」按鈕,下載 .exe 安裝程式(約 300MB)。若下載緩慢,建議先開啟 VPN07 再下載,1000Mbps 千兆頻寬讓安裝程式秒速完成。

2

執行安裝程式

雙擊下載的 LMStudio-Setup.exe,接受授權條款,選擇安裝位置(建議保留預設路徑),點選「安裝」等待完成,整個過程約 1-2 分鐘。

3

首次啟動設定

啟動 LM Studio 後,程式會自動偵測你的 GPU 並顯示支援的加速方式。如果你有 NVIDIA 顯示卡,會看到「NVIDIA CUDA」選項已啟用。建議在「設定」中設定模型儲存路徑為空間較大的磁碟。

4

搜尋並下載模型

點選左側「Search」(放大鏡圖示),在搜尋框輸入模型名稱(如 DeepSeek-R1、Qwen3、Gemma-3),選擇合適的量化版本(推薦 Q4_K_M),點選「Download」開始下載。

💡 下載速度提示:LM Studio 從 Hugging Face 下載模型,建議搭配 VPN07 加速。開啟 VPN07 後下載速度可從 5 MB/s 提升至 100 MB/s 以上。

5

載入模型開始對話

下載完成後,點選左側「Chat」(對話泡泡圖示),在頂部選單選擇剛下載的模型,點選「Load Model」,等待模型載入(約 10-30 秒),然後就可以在對話框輸入問題了!

LM Studio 安裝教學:macOS 完整步驟

macOS 安裝步驟

1

下載對應版本

前往 lmstudio.ai,點選「Download for Mac」。注意:M 系列晶片(M1/M2/M3/M4)請選 Apple Silicon 版,Intel Mac 請選 Intel 版,兩者不相容。

2

安裝應用程式

打開下載的 .dmg 檔案,將 LM Studio 拖拉到 Applications 資料夾。首次開啟時 macOS 可能提示「無法驗證開發者」,前往「系統設定 → 隱私權與安全性」點選「仍要開啟」即可。

3

Apple Silicon 加速確認

M 系列 Mac 用戶在設定中確認「Metal GPU Acceleration」已啟用。Apple Silicon 的統一記憶體架構讓 LM Studio 效能出色,16GB 記憶體的 M2 MacBook 可流暢執行 Qwen3.5 14B 量化版。

M4 Max
32B 流暢
M2/M3 Pro
14B 最佳
M1/M2
7B Q4 順暢
Metal
自動 GPU 加速

推薦下載模型清單:哪些模型最值得試?

以下是 2026 年最推薦在 LM Studio 上執行的開源模型,在搜尋框輸入這些關鍵字找到對應模型:

DS

DeepSeek-R1-Distill 系列

推理最強

搜尋關鍵字:bartowski/DeepSeek-R1,選 Q4_K_M 版本。7B 版本只需 4GB 顯存,推理能力遠超同量級競品。

VRAM 需求:4GB(7B)| 8GB(14B)| 20GB(32B)
QW

Qwen3 系列(通義千問 3.5)

繁中最強

搜尋關鍵字:Qwen/Qwen3,選 Q4_K_M 版本。繁體中文理解能力在開源模型中排名第一,台灣用戶首選。

VRAM 需求:4GB(8B)| 8GB(14B)| 24GB(32B)
GM

Gemma 3(Google)

低規首選

搜尋關鍵字:google/gemma-3,選 Q4_K_M 版本。1B 版本只需 1.5GB,4GB 顯存可輕鬆執行 4B 版本,低規設備最佳選擇。

VRAM 需求:2GB(2B)| 4GB(4B)| 8GB(12B)
Φ4

Phi-4(Microsoft)

程式碼強

搜尋關鍵字:microsoft/phi-4,選 Q4_K_M 版本。14B 參數但性能超越眾多 30B 模型,程式設計任務特別出色,8GB 顯存就能執行。

VRAM 需求:8GB(14B Q4_K_M)| 16GB(14B Q8)

LM Studio 進階設定:讓你的對話更精準

LM Studio 提供豐富的模型參數設定,掌握這些設定可以大幅提升輸出品質:

重要參數說明

Temperature

控制輸出的隨機性。0.0 = 完全確定性(適合程式碼);0.7 = 平衡(日常對話);1.0 = 高創造性(創意寫作)。建議從 0.7 開始調整。

Context Length

對話記憶長度。數值越大記得越多上下文,但需要更多記憶體。一般對話建議 4096,長文章處理建議 8192。

GPU Layers

分配到 GPU 執行的模型層數。數值越高速度越快,但需要更多 VRAM。設為 -1 可讓系統自動決定最優值。

System Prompt

設定 AI 的角色和行為準則。例如:「你是一個繁體中文程式設計助理,回答時使用繁體中文,並提供程式碼範例。」

開啟 LM Studio 本地 API 服務

LM Studio 內建 OpenAI 相容的本地 API 伺服器,讓你可以把本地 AI 整合到任何支援 ChatGPT API 的應用程式中:

啟動本地 API 步驟

1

點選左側「Local Server」(伺服器圖示)分頁

2

在頂部選擇要作為 API 後端的模型

3

點選「Start Server」按鈕,API 服務啟動在 http://localhost:1234

# 測試 API 是否正常運作
curl http://localhost:1234/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1-distill-qwen-7b",
"messages": [{"role": "user", "content": "你好!"}]
}'

# Python 使用範例
from openai import OpenAI
client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")
response = client.chat.completions.create(
model="deepseek-r1-distill-qwen-7b",
messages=[{"role": "user", "content": "請介紹台灣最好玩的地方"}]
)
print(response.choices[0].message.content)

下載模型慢是最大痛點?VPN07 幫你解決

LM Studio 從 Hugging Face 下載模型,台灣直連速度受限,通常只有 3-10 MB/s。一個 DeepSeek-R1 7B 的 Q4_K_M 版本(4GB)需要 7-20 分鐘,14B 版本(8GB)更需要 15-40 分鐘。VPN07 擁有 1000Mbps 千兆頻寬,連接最佳路線後下載速度可達 80-120 MB/s,讓你等待時間縮短至不到 1/10。VPN07 擁有 70+ 國家節點,穩定運營十年,30 天退款保障,月費僅 $1.5,一杯咖啡的錢讓你的 AI 之旅從此飛速啟航。

LM Studio 常見問題排除

問題:模型下載到一半失敗或特別慢

解決方案:開啟 VPN07 後重新嘗試。LM Studio 支援斷點續傳,重新下載會從中斷處繼續,不需要重頭來過。若仍有問題,可以嘗試切換 VPN07 的不同節點。

問題:載入模型後電腦記憶體爆滿

解決方案:選擇更小的量化版本(從 Q8 改成 Q4_K_M,或換更小的模型),或在設定中減少 Context Length(從 8192 降為 2048)。關閉其他高記憶體的應用程式也有幫助。

問題:GPU 沒有被使用,推理非常慢

解決方案:確認在模型載入設定中「GPU Layers」沒有設為 0。對於 NVIDIA 用戶,確認已安裝最新 CUDA 驅動。可以在任務管理員的效能標籤觀察 GPU 使用率確認是否有啟用。

問題:在搜尋框找不到想要的模型

解決方案:確認搜尋時 VPN07 是開啟狀態,否則 HuggingFace 搜尋可能超時。嘗試用不同關鍵字搜尋,例如搜尋作者名稱(bartowski、unsloth 等都是知名的量化發布者)。

還想體驗更多開源大模型?
DeepSeek-R1 / Qwen3.5 / Gemma 3 / Phi-4 一站下載
查看全部模型 →

VPN07 — LM Studio 下載加速必備工具

千兆頻寬加速 · 70+ 國家節點 · 十年穩定運營

LM Studio 從 HuggingFace 下載模型,沒有 VPN 速度極慢。VPN07 提供 1000Mbps 千兆頻寬,讓 DeepSeek-R1 14B(8GB)3 分鐘內下載完成,讓你把時間花在使用 AI 而不是等待。70+ 國家節點、穩定運營十年、30 天退款保障,$1.5/月讓本地 AI 體驗從此飛快。

$1.5/月
超低月費
1000Mbps
千兆頻寬
70+
國家節點
30天
退款保障

相關文章推薦

月費$1.5 · 運營十年
免費試用 VPN07