LM Studio安裝Qwen3.5教學:零代碼圖形介面本機AI完整指南2026
適合對象:本教學專為不熟悉命令列操作的用戶設計,使用 LM Studio 的全圖形介面,從下載安裝到開始對話,全程點擊操作,無需輸入任何程式碼。覆蓋 Windows 11 和 macOS Sequoia 兩大平台,並說明如何啟用本機 API 伺服器供開發者使用。
什麼是 LM Studio?最適合新手的本機 AI 工具
LM Studio 是一款專為一般用戶設計的本機大語言模型執行工具,以美觀的圖形介面著稱。不同於 Ollama 需要使用命令列,LM Studio 提供完全視覺化的操作體驗:安裝軟體 → 在內建模型瀏覽器搜尋 Qwen3.5 → 點擊下載 → 點擊執行,整個流程無需輸入任何命令。
2026 年初,LM Studio 在 X.com 和 Reddit 的 AI 社群中收到大量好評,特別是在 Qwen3.5 發布後,大量用戶分享了使用 LM Studio 運行 Qwen3.5 的截圖和評測。LM Studio 的模型瀏覽器直接整合了 Hugging Face,讓用戶可以在一個介面內完成搜尋、比較、下載所有工作。
完全圖形介面
零代碼,滑鼠點擊即可完成所有操作
內建模型搜尋
整合 Hugging Face 模型庫直接搜尋下載
本機 API 伺服器
OpenAI 相容 API,開發者也能輕鬆使用
效能監控
即時顯示 GPU/CPU 使用率和推理速度
系統需求與最佳配置
LM Studio 支援 Windows 10/11 和 macOS 12 以上版本,對硬體的要求視你想執行的模型大小而定:
Windows 推薦配置
macOS 推薦配置
第一步:下載並安裝 LM Studio
安裝步驟
前往官網下載安裝程式
打開瀏覽器前往 lmstudio.ai,點擊對應你作業系統的下載按鈕。Windows 版為 .exe 安裝程式,macOS 版為 .dmg 磁碟映像檔。建議搭配 VPN07 下載以獲得最快速度。
執行安裝程式
Windows:雙擊下載的 LM-Studio-Setup.exe,選擇安裝路徑,完成安裝。安裝目錄建議選擇有足夠空間的磁碟(模型檔案可能佔用數十 GB)。
macOS:開啟 .dmg 後拖拉 LM Studio 到應用程式資料夾,首次開啟可能需要在「系統偏好設定 → 安全性」中允許執行。
首次啟動設定
開啟 LM Studio 後,首次啟動會出現歡迎畫面和簡短引導教學。選擇你的硬體類型(NVIDIA GPU / AMD GPU / Apple Silicon / CPU only),LM Studio 會根據你的硬體推薦適合的模型配置。
第二步:搜尋並下載 Qwen3.5 模型
LM Studio 最強大的功能之一是內建的模型瀏覽器(Model Explorer),整合了 Hugging Face 的完整模型庫,讓你可以在 App 內直接搜尋、比較、下載任何開源模型:
搜尋並下載 Qwen3.5 步驟
點擊左側「搜尋(Search)」圖示,進入模型瀏覽器
LM Studio 的左側導覽列有多個功能圖示,放大鏡圖示(或標示「Discover」)就是模型瀏覽器入口。
在搜尋欄輸入「Qwen3.5」
搜尋結果會列出所有相關的 Qwen3.5 量化版本,包含不同參數大小(2B、4B、9B、27B 等)和不同量化精度(Q4、Q5、Q8)。
選擇適合的版本並下載
根據你的硬體選擇適合的版本(見下方選擇指南)。點擊「Download」按鈕後,LM Studio 會在背景自動下載,可以繼續瀏覽其他模型。
等待下載完成(可查看進度)
下載進度顯示在底部狀態列。Qwen3.5-9B Q4 版本約 6.6GB,使用 VPN07 加速後通常在 5-10 分鐘內完成。下載完成後模型出現在「My Models」列表中。
Qwen3.5 量化版本選擇指南
| 模型 + 量化 | 檔案大小 | 推薦配置 | 品質 |
|---|---|---|---|
| Qwen3.5-2B Q4_K_M | ~1.5GB | 任何電腦(4GB RAM) | ★★★ |
| Qwen3.5-9B Q4_K_M | ~5.5GB | 16GB RAM,RTX 3060 6GB | ★★★★ |
| Qwen3.5-9B Q8_0 | ~9.5GB | 16GB RAM,RTX 4060 8GB | ★★★★+ |
| Qwen3.5-27B Q4_K_M | ~16GB | 32GB RAM,RTX 4090 24GB | ★★★★★ |
第三步:開始 AI 對話
模型下載完成後,就可以開始對話了。LM Studio 的 Chat 介面類似 ChatGPT,使用起來直覺簡單:
開始對話流程
- 1點擊左側「AI Chat」圖示(對話泡泡)
- 2在頂部下拉選單選擇「Qwen3.5-9B Q4_K_M」
- 3等待模型載入(進度條顯示在介面上方,約 3-10 秒)
- 4在「System Prompt」欄位輸入:「你是一個專業的繁體中文助理,請用繁體中文回覆所有問題」
- 5在底部輸入欄輸入問題,按 Enter 或點擊送出按鈕
進階設定:調整推理參數
LM Studio 右側面板提供豐富的推理參數調整,讓你在不改變模型的情況下控制輸出風格:
常用參數說明
控制輸出的創意程度。0=確定性輸出,1=平衡,2=高度創意但可能不連貫
對話記憶長度(Token 數)。值越大記憶越長但需要更多 RAM
詞彙選擇的多樣性。值越低輸出越集中,值越高越多樣
單次回應的最大長度。-1 表示不限制
Qwen3.5 推薦設定組合
📝 文案/內容創作
Temperature: 0.8, Top P: 0.9
💻 代碼生成
Temperature: 0.2, Top P: 0.95
🔍 資料分析/問答
Temperature: 0.3, Top P: 0.9
💬 日常對話
Temperature: 0.7, Top P: 0.85
啟用本機 API 伺服器(開發者功能)
LM Studio 的一個強大功能是可以將本機執行的 Qwen3.5 模型包裝成與 OpenAI API 相容的 HTTP 伺服器,讓你的應用程式、Python 腳本、甚至其他 AI 工具都能直接呼叫本機模型,完全免費且隱私。
啟用 API 伺服器步驟
1. 點擊左側導覽「Local Server」(伺服器圖示)
2. 在頂部下拉選單選擇要使用的模型(如 Qwen3.5-9B)
3. 點擊「Start Server」按鈕,等待伺服器啟動(約 5-15 秒)
4. 看到「Server is running on port 1234」表示成功啟動
# Python 呼叫本機 LM Studio API 範例
from openai import OpenAI
client = OpenAI(
base_url="http://localhost:1234/v1",
api_key="lm-studio" # 任意字串即可
)
response = client.chat.completions.create(
model="qwen3.5-9b",
messages=[{"role":"user","content":"請介紹Qwen3.5的特色"}]
)
print(response.choices[0].message.content)
LM Studio vs Ollama:如何選擇?
| 比較項目 | LM Studio | Ollama |
|---|---|---|
| 操作介面 | ✓ 完整圖形介面 | 命令列為主 |
| 新手友善度 | ★★★★★ 極高 | ★★★ 中等 |
| 模型瀏覽/搜尋 | ✓ 內建搜尋介面 | 命令列搜尋 |
| 推理速度 | 良好 | ✓ 更快(CLI 直接呼叫) |
| API 伺服器 | ✓ 內建,GUI 一鍵啟動 | ✓ 內建,自動啟動 |
| 推薦對象 | 一般用戶、設計師、非開發者 | 開發者、進階用戶、伺服器 |
常見問題排解
❓ LM Studio 下載速度很慢?
LM Studio 從 Hugging Face 下載模型,台灣直連速度有時較慢。建議開啟 VPN07 選擇美國或日本節點再進行下載,VPN07 的 1000Mbps 千兆頻寬可讓下載速度大幅提升,原本需要 1 小時的下載縮短到 5-10 分鐘。
❓ 模型載入後 LM Studio 沒有回應?
可能是 GPU 記憶體不足導致載入失敗。嘗試換用更小的量化版本(Q4 → Q2),或切換到 CPU Only 模式(在設定中修改)。同時確保 GPU 驅動是最新版本。
❓ 繁體中文輸出品質不佳?
在 System Prompt 中明確指定「你是一個專業的繁體中文助理,必須使用繁體中文(Traditional Chinese)回覆,不得使用簡體中文」,這通常能大幅改善輸出品質。Qwen3.5 對繁體中文的支援很好,明確的指令很有幫助。
❓ API 伺服器啟動後無法從其他 App 連接?
確認防火牆未封鎖 1234 埠。Windows 用戶在「Windows 安全性 → 防火牆 → 進階設定」中新增允許規則。預設監聽位址是 127.0.0.1(僅本機),如需要從其他裝置連接,在 LM Studio 設定中改為 0.0.0.0。
LM Studio 實測效能:Qwen3.5 各版本速度報告
我們在多個硬體平台上測試了 LM Studio 執行 Qwen3.5 不同版本的推理速度,以下是實際測量結果:
Qwen3.5-35B
Qwen3.5-27B Q4
Qwen3.5-9B Q4
Qwen3.5-9B Q4
速度解讀:多快算夠快?
人類閱讀速度約為每秒 5-7 個繁體中文字,而 30 tok/s 以上的推理速度意味著 AI 生成速度超過人類閱讀速度,整個使用體驗非常流暢。20 tok/s 以上也屬於舒適的使用範圍。只有在 10 tok/s 以下時,等待感才會比較明顯。
LM Studio 整合其他工具:打造完整 AI 工作站
LM Studio 的本機 API 伺服器讓它可以輕鬆與其他工具整合,形成強大的本機 AI 生態:
整合 VS Code(Cursor / Continue.dev)
在 Continue.dev 或 Cursor AI 的設定中,將 API 端點設為 http://localhost:1234/v1,就能讓你的 IDE 使用本機 Qwen3.5 提供代碼補全和 AI 助手功能。完全免費,代碼不離開本機,對開發者而言是絕佳的 GitHub Copilot 替代方案。
// Continue.dev config.json 設定範例
{
"models": [{
"title": "Qwen3.5 Local",
"provider": "openai",
"model": "qwen3.5-9b",
"apiBase": "http://localhost:1234/v1",
"apiKey": "lm-studio"
}]
}
整合 n8n / Make 自動化工作流
在 n8n 或 Make(前 Integromat)的 AI 節點中,使用 OpenAI 相容設定,指向 LM Studio 的本機 API。這樣你的自動化工作流(如定時生成報告、自動回覆郵件等)就可以使用本機 Qwen3.5,無需每月支付高昂的 API 費用。
整合 Raycast(macOS)
macOS 用戶可以透過 Raycast 的 AI 插件,設定自訂 AI 提供商為 LM Studio 的本機 API。這樣在任何應用程式中按下快捷鍵,就能呼叫本機 Qwen3.5 進行文字改寫、翻譯、摘要等操作,工作效率大幅提升。
搭配 VPN07:加速模型下載,暢用 AI 服務
LM Studio 從 Hugging Face 下載模型需要良好的國際網路,而台灣直連 Hugging Face 的速度受國際頻寬限制,特別是在下班高峰時段往往只有幾 Mbps 的速度。VPN07 是解決這個問題的最佳選擇。
VPN07 是業界真正的國際大牌,擁有遍布全球 70 個以上國家的高速節點網路,提供高達 1000Mbps 的千兆頻寬。連接 VPN07 的日本或美國節點後,Hugging Face 下載速度可以輕鬆達到 50-100Mbps 甚至更高,讓 Qwen3.5-27B 這樣的大模型也能在半小時內完成下載。運營超過十年的穩定記錄,加上每月僅 $1.5 的超低月費和 30 天退款保障,是每一位 AI 愛好者必備的工具。
LM Studio + Qwen3.5 總結
LM Studio 和 Qwen3.5 的組合是 2026 年最適合非技術用戶的本機 AI 方案。零代碼操作、美觀介面、強大的繁體中文能力,三者的結合讓本機 AI 部署真正變得「人人可用」。
立即開始的三步驟
整個設置過程在良好網路環境下不超過 20 分鐘,之後你就擁有了一個完全屬於你的、永久免費的、離線可用的繁體中文 AI 助理。結合 VPN07 的 1000Mbps 千兆頻寬,無論是下載 AI 模型、存取各種 AI API,還是使用其他國際 AI 服務,都能保持最佳速度和穩定性。
給不同用戶的最終建議
VPN07 — LM Studio 最佳加速搭配
千兆頻寬加速下載 · 70+國家節點 · 十年穩定
LM Studio 下載 Qwen3.5 模型需要穩定快速的國際網路。VPN07 提供業界頂尖的 1000Mbps 千兆頻寬,70 個以上國家節點自由選擇,讓你的 AI 模型下載飛速完成。十年品牌信譽,$1.5/月超低月費,30 天退款保障讓你零風險體驗。