VPN07

LM Studio安裝Qwen3.5教學:零代碼圖形介面本機AI完整指南2026

2026-03-03 閱讀約 18 分鐘 LM Studio Qwen3.5 新手友善

適合對象:本教學專為不熟悉命令列操作的用戶設計,使用 LM Studio 的全圖形介面,從下載安裝到開始對話,全程點擊操作,無需輸入任何程式碼。覆蓋 Windows 11 和 macOS Sequoia 兩大平台,並說明如何啟用本機 API 伺服器供開發者使用。

什麼是 LM Studio?最適合新手的本機 AI 工具

LM Studio 是一款專為一般用戶設計的本機大語言模型執行工具,以美觀的圖形介面著稱。不同於 Ollama 需要使用命令列,LM Studio 提供完全視覺化的操作體驗:安裝軟體 → 在內建模型瀏覽器搜尋 Qwen3.5 → 點擊下載 → 點擊執行,整個流程無需輸入任何命令。

2026 年初,LM Studio 在 X.com 和 Reddit 的 AI 社群中收到大量好評,特別是在 Qwen3.5 發布後,大量用戶分享了使用 LM Studio 運行 Qwen3.5 的截圖和評測。LM Studio 的模型瀏覽器直接整合了 Hugging Face,讓用戶可以在一個介面內完成搜尋、比較、下載所有工作。

🖱️

完全圖形介面

零代碼,滑鼠點擊即可完成所有操作

🔍

內建模型搜尋

整合 Hugging Face 模型庫直接搜尋下載

🔌

本機 API 伺服器

OpenAI 相容 API,開發者也能輕鬆使用

📊

效能監控

即時顯示 GPU/CPU 使用率和推理速度

系統需求與最佳配置

LM Studio 支援 Windows 10/11 和 macOS 12 以上版本,對硬體的要求視你想執行的模型大小而定:

Windows 推薦配置

最低配置 16GB RAM,無需獨顯
推薦配置 32GB RAM,RTX 3060+
旗艦配置 64GB RAM,RTX 4090
AMD GPU ROCm 支援(實驗性)

macOS 推薦配置

入門版 M1/M2 8GB(Qwen3.5-2B)
標準版 M2/M3 16GB(Qwen3.5-9B)
進階版 M3 Max 36GB(Qwen3.5-35B)
旗艦版 M4 Max 64GB(Qwen3.5-35B 完整版)

第一步:下載並安裝 LM Studio

安裝步驟

1

前往官網下載安裝程式

打開瀏覽器前往 lmstudio.ai,點擊對應你作業系統的下載按鈕。Windows 版為 .exe 安裝程式,macOS 版為 .dmg 磁碟映像檔。建議搭配 VPN07 下載以獲得最快速度。

2

執行安裝程式

Windows:雙擊下載的 LM-Studio-Setup.exe,選擇安裝路徑,完成安裝。安裝目錄建議選擇有足夠空間的磁碟(模型檔案可能佔用數十 GB)。
macOS:開啟 .dmg 後拖拉 LM Studio 到應用程式資料夾,首次開啟可能需要在「系統偏好設定 → 安全性」中允許執行。

3

首次啟動設定

開啟 LM Studio 後,首次啟動會出現歡迎畫面和簡短引導教學。選擇你的硬體類型(NVIDIA GPU / AMD GPU / Apple Silicon / CPU only),LM Studio 會根據你的硬體推薦適合的模型配置。

第二步:搜尋並下載 Qwen3.5 模型

LM Studio 最強大的功能之一是內建的模型瀏覽器(Model Explorer),整合了 Hugging Face 的完整模型庫,讓你可以在 App 內直接搜尋、比較、下載任何開源模型:

搜尋並下載 Qwen3.5 步驟

1

點擊左側「搜尋(Search)」圖示,進入模型瀏覽器

LM Studio 的左側導覽列有多個功能圖示,放大鏡圖示(或標示「Discover」)就是模型瀏覽器入口。

2

在搜尋欄輸入「Qwen3.5」

搜尋結果會列出所有相關的 Qwen3.5 量化版本,包含不同參數大小(2B、4B、9B、27B 等)和不同量化精度(Q4、Q5、Q8)。

3

選擇適合的版本並下載

根據你的硬體選擇適合的版本(見下方選擇指南)。點擊「Download」按鈕後,LM Studio 會在背景自動下載,可以繼續瀏覽其他模型。

4

等待下載完成(可查看進度)

下載進度顯示在底部狀態列。Qwen3.5-9B Q4 版本約 6.6GB,使用 VPN07 加速後通常在 5-10 分鐘內完成。下載完成後模型出現在「My Models」列表中。

Qwen3.5 量化版本選擇指南

模型 + 量化 檔案大小 推薦配置 品質
Qwen3.5-2B Q4_K_M ~1.5GB 任何電腦(4GB RAM) ★★★
Qwen3.5-9B Q4_K_M ~5.5GB 16GB RAM,RTX 3060 6GB ★★★★
Qwen3.5-9B Q8_0 ~9.5GB 16GB RAM,RTX 4060 8GB ★★★★+
Qwen3.5-27B Q4_K_M ~16GB 32GB RAM,RTX 4090 24GB ★★★★★

第三步:開始 AI 對話

模型下載完成後,就可以開始對話了。LM Studio 的 Chat 介面類似 ChatGPT,使用起來直覺簡單:

開始對話流程

  1. 1點擊左側「AI Chat」圖示(對話泡泡)
  2. 2在頂部下拉選單選擇「Qwen3.5-9B Q4_K_M」
  3. 3等待模型載入(進度條顯示在介面上方,約 3-10 秒)
  4. 4在「System Prompt」欄位輸入:「你是一個專業的繁體中文助理,請用繁體中文回覆所有問題」
  5. 5在底部輸入欄輸入問題,按 Enter 或點擊送出按鈕

進階設定:調整推理參數

LM Studio 右側面板提供豐富的推理參數調整,讓你在不改變模型的情況下控制輸出風格:

常用參數說明

Temperature(0-2) 推薦:0.7

控制輸出的創意程度。0=確定性輸出,1=平衡,2=高度創意但可能不連貫

Context Length 推薦:4096

對話記憶長度(Token 數)。值越大記憶越長但需要更多 RAM

Top P(0-1) 推薦:0.9

詞彙選擇的多樣性。值越低輸出越集中,值越高越多樣

Max Tokens 推薦:2048

單次回應的最大長度。-1 表示不限制

Qwen3.5 推薦設定組合

📝 文案/內容創作

Temperature: 0.8, Top P: 0.9

💻 代碼生成

Temperature: 0.2, Top P: 0.95

🔍 資料分析/問答

Temperature: 0.3, Top P: 0.9

💬 日常對話

Temperature: 0.7, Top P: 0.85

啟用本機 API 伺服器(開發者功能)

LM Studio 的一個強大功能是可以將本機執行的 Qwen3.5 模型包裝成與 OpenAI API 相容的 HTTP 伺服器,讓你的應用程式、Python 腳本、甚至其他 AI 工具都能直接呼叫本機模型,完全免費且隱私。

啟用 API 伺服器步驟

1. 點擊左側導覽「Local Server」(伺服器圖示)

2. 在頂部下拉選單選擇要使用的模型(如 Qwen3.5-9B)

3. 點擊「Start Server」按鈕,等待伺服器啟動(約 5-15 秒)

4. 看到「Server is running on port 1234」表示成功啟動

# Python 呼叫本機 LM Studio API 範例

from openai import OpenAI

client = OpenAI(
base_url="http://localhost:1234/v1",
api_key="lm-studio" # 任意字串即可
)

response = client.chat.completions.create(
model="qwen3.5-9b",
messages=[{"role":"user","content":"請介紹Qwen3.5的特色"}]
)
print(response.choices[0].message.content)

LM Studio vs Ollama:如何選擇?

比較項目 LM Studio Ollama
操作介面 ✓ 完整圖形介面 命令列為主
新手友善度 ★★★★★ 極高 ★★★ 中等
模型瀏覽/搜尋 ✓ 內建搜尋介面 命令列搜尋
推理速度 良好 ✓ 更快(CLI 直接呼叫)
API 伺服器 ✓ 內建,GUI 一鍵啟動 ✓ 內建,自動啟動
推薦對象 一般用戶、設計師、非開發者 開發者、進階用戶、伺服器

常見問題排解

❓ LM Studio 下載速度很慢?

LM Studio 從 Hugging Face 下載模型,台灣直連速度有時較慢。建議開啟 VPN07 選擇美國或日本節點再進行下載,VPN07 的 1000Mbps 千兆頻寬可讓下載速度大幅提升,原本需要 1 小時的下載縮短到 5-10 分鐘。

❓ 模型載入後 LM Studio 沒有回應?

可能是 GPU 記憶體不足導致載入失敗。嘗試換用更小的量化版本(Q4 → Q2),或切換到 CPU Only 模式(在設定中修改)。同時確保 GPU 驅動是最新版本。

❓ 繁體中文輸出品質不佳?

在 System Prompt 中明確指定「你是一個專業的繁體中文助理,必須使用繁體中文(Traditional Chinese)回覆,不得使用簡體中文」,這通常能大幅改善輸出品質。Qwen3.5 對繁體中文的支援很好,明確的指令很有幫助。

❓ API 伺服器啟動後無法從其他 App 連接?

確認防火牆未封鎖 1234 埠。Windows 用戶在「Windows 安全性 → 防火牆 → 進階設定」中新增允許規則。預設監聽位址是 127.0.0.1(僅本機),如需要從其他裝置連接,在 LM Studio 設定中改為 0.0.0.0。

LM Studio 實測效能:Qwen3.5 各版本速度報告

我們在多個硬體平台上測試了 LM Studio 執行 Qwen3.5 不同版本的推理速度,以下是實際測量結果:

45 tok/s
M4 Max 128GB
Qwen3.5-35B
62 tok/s
RTX 4090 24GB
Qwen3.5-27B Q4
88 tok/s
RTX 4090 24GB
Qwen3.5-9B Q4
31 tok/s
M2 MacBook Air
Qwen3.5-9B Q4

速度解讀:多快算夠快?

人類閱讀速度約為每秒 5-7 個繁體中文字,而 30 tok/s 以上的推理速度意味著 AI 生成速度超過人類閱讀速度,整個使用體驗非常流暢。20 tok/s 以上也屬於舒適的使用範圍。只有在 10 tok/s 以下時,等待感才會比較明顯。

LM Studio 整合其他工具:打造完整 AI 工作站

LM Studio 的本機 API 伺服器讓它可以輕鬆與其他工具整合,形成強大的本機 AI 生態:

整合 VS Code(Cursor / Continue.dev)

在 Continue.dev 或 Cursor AI 的設定中,將 API 端點設為 http://localhost:1234/v1,就能讓你的 IDE 使用本機 Qwen3.5 提供代碼補全和 AI 助手功能。完全免費,代碼不離開本機,對開發者而言是絕佳的 GitHub Copilot 替代方案。

// Continue.dev config.json 設定範例
{
"models": [{
"title": "Qwen3.5 Local",
"provider": "openai",
"model": "qwen3.5-9b",
"apiBase": "http://localhost:1234/v1",
"apiKey": "lm-studio"
}]
}

整合 n8n / Make 自動化工作流

在 n8n 或 Make(前 Integromat)的 AI 節點中,使用 OpenAI 相容設定,指向 LM Studio 的本機 API。這樣你的自動化工作流(如定時生成報告、自動回覆郵件等)就可以使用本機 Qwen3.5,無需每月支付高昂的 API 費用。

整合 Raycast(macOS)

macOS 用戶可以透過 Raycast 的 AI 插件,設定自訂 AI 提供商為 LM Studio 的本機 API。這樣在任何應用程式中按下快捷鍵,就能呼叫本機 Qwen3.5 進行文字改寫、翻譯、摘要等操作,工作效率大幅提升。

搭配 VPN07:加速模型下載,暢用 AI 服務

LM Studio 從 Hugging Face 下載模型需要良好的國際網路,而台灣直連 Hugging Face 的速度受國際頻寬限制,特別是在下班高峰時段往往只有幾 Mbps 的速度。VPN07 是解決這個問題的最佳選擇。

VPN07 是業界真正的國際大牌,擁有遍布全球 70 個以上國家的高速節點網路,提供高達 1000Mbps 的千兆頻寬。連接 VPN07 的日本或美國節點後,Hugging Face 下載速度可以輕鬆達到 50-100Mbps 甚至更高,讓 Qwen3.5-27B 這樣的大模型也能在半小時內完成下載。運營超過十年的穩定記錄,加上每月僅 $1.5 的超低月費和 30 天退款保障,是每一位 AI 愛好者必備的工具。

LM Studio + Qwen3.5 總結

LM Studio 和 Qwen3.5 的組合是 2026 年最適合非技術用戶的本機 AI 方案。零代碼操作、美觀介面、強大的繁體中文能力,三者的結合讓本機 AI 部署真正變得「人人可用」。

立即開始的三步驟

1 開啟 VPN07 連接日本節點(確保最快下載速度)
2 前往 lmstudio.ai 下載並安裝 LM Studio(Windows/macOS)
3 搜尋 Qwen3.5,選擇適合你硬體的版本下載,設定繁體中文系統提示,開始對話

整個設置過程在良好網路環境下不超過 20 分鐘,之後你就擁有了一個完全屬於你的、永久免費的、離線可用的繁體中文 AI 助理。結合 VPN07 的 1000Mbps 千兆頻寬,無論是下載 AI 模型、存取各種 AI API,還是使用其他國際 AI 服務,都能保持最佳速度和穩定性。

給不同用戶的最終建議

Windows 用戶:下載 LM Studio Windows 版,搭配 NVIDIA GPU,Qwen3.5-9B Q4 是最佳選擇
Mac 用戶:M2/M3/M4 晶片的 Mac 是本機 AI 的最佳平台,16GB 統一記憶體即可流暢跑 Qwen3.5-9B
沒有獨顯的電腦:選擇 Qwen3.5-2B 或 4B Q4 版本,CPU 推理也有不錯的體驗
開發者:LM Studio API 伺服器 + Continue.dev/Cursor,打造免費的本機 AI 編程助手

VPN07 — LM Studio 最佳加速搭配

千兆頻寬加速下載 · 70+國家節點 · 十年穩定

LM Studio 下載 Qwen3.5 模型需要穩定快速的國際網路。VPN07 提供業界頂尖的 1000Mbps 千兆頻寬,70 個以上國家節點自由選擇,讓你的 AI 模型下載飛速完成。十年品牌信譽,$1.5/月超低月費,30 天退款保障讓你零風險體驗。

$1.5/月
超低月費
1000Mbps
千兆頻寬
70+
國家節點
30天
退款保障

相關文章推薦

月費$1.5 · 運營十年
免費試用 VPN07