Yi-34B ローカルLLM全プラットフォーム導入ガイド 2026
この記事について:Yi-34Bは01.AI(零一万物)が開発した34Bパラメータの大規模言語モデルです。元GoogleとBaiduのトップエンジニアが設立したチームによって開発され、特に日本語・中国語・英語の多言語対応と長文理解に優れています。本記事ではWindows・macOS・Linux・Android・iPhoneへの全インストール手順を解説します。
Yi-34Bとは?元Google・Baidu エリートが作った高性能LLM
Yi(易)シリーズは、元GoogleとBaiduの研究者たちが創業した01.AI(零一万物)が開発したオープンソースLLMです。創業者のKai-Fu Li(李開復)は人工知能分野の世界的権威であり、Yi-34Bはその技術力の集大成として公開されました。
Yi-34Bは200Kトークンという超長大なコンテキストウィンドウを持つバリアント(Yi-34B-200K)も公開されており、通常版の32Kと合わせて用途に応じて選択できます。34Bというサイズながら量子化によって一般的なデスクトップGPUでも動作可能です。
💡 Yi-34Bシリーズの主なバリアント
Yi-34Bの動作要件とモデル選択ガイド
| 量子化形式 | 必要VRAM | ファイルサイズ | 推奨GPU |
|---|---|---|---|
| Yi-34B FP16(全精度) | ~68GB | ~68GB | A100×2 / H100 |
| Yi-34B-Chat Q8_0 | ~36GB | ~34GB | RTX 4090×2 |
| Yi-34B-Chat Q4_K_M | ~20GB | ~19GB | RTX 3090(24GB) |
| Yi-34B-Chat Q2_K | ~13GB | ~12GB | RTX 3080(12GB)+RAM |
| Yi-6B-Chat Q4_K_M | ~5GB | ~4GB | RTX 3060(6GB)以上 |
💡 一般ユーザーへの推奨
個人ユーザーにはYi-34B-Chat Q4_K_M(RTX 3090 24GB)またはYi-6B-Chat(低スペック向け)をお勧めします。RTX 3090やRTX 4090をお持ちの場合、Yi-34B Q4版で高品質な推論が可能です。GPUがない場合はYi-6BのQ4版をCPUで動かすのが現実的です。
WindowsへのYi-34Bインストール手順
WindowsでYi-34Bを使う最も手軽な方法はOllamaです。OllamaはYi-34BをGGUF形式で提供しており、コマンド一発でダウンロード・実行できます。
1 Ollamaでインストール(推奨)
irm https://ollama.com/install.ps1 | iex
# Yi-34Bダウンロード(約19GB、時間がかかります)
ollama pull yi:34b
# 軽量版(6B)は先にテスト用として使う
ollama pull yi:6b
ollama run yi:34b
2 HuggingFaceから直接ダウンロード(GGUF)
pip install huggingface_hub
huggingface-cli download 01-ai/Yi-34B-Chat-GGUF Yi-34B-Chat.Q4_K_M.gguf --local-dir ./yi34b
# llama.cppで実行
.\llama-cli.exe -m Yi-34B-Chat.Q4_K_M.gguf -p "日本語で挨拶してください" --color
3 LM Studio(GUI)で使う
コマンドラインが苦手な方はLM Studioがおすすめです。GUIでYi-34BのGGUFをダウンロードして、ChatGPT風のインターフェースで利用できます。
💡 LM StudioでYi-34Bを使う手順
- lmstudio.aiからインストーラーをダウンロード・実行
- 検索バーで「Yi-34B」を入力してモデルを検索
- Q4_K_M版を選択してダウンロード(約19GB)
- 「Chat」タブに切り替えてYi-34Bを選択し会話開始
macOSへのYi-34Bインストール(M2 Ultra推奨)
Yi-34BはApple SiliconのMacでも動作しますが、34Bモデルはメモリ要件が高いため、M2 Ultra(64GB以上)またはM3 Max以上の構成を推奨します。メモリが少ない場合はYi-6Bを使いましょう。
brew install ollama
ollama pull yi:34b
ollama run yi:34b "日本語の長文を要約してください:..."
🔵 M1/M2 MacBook(8〜16GB)
- Yi-6B Q4版を推奨
- Yi-34B Q4は16GB必要で非推奨
- Yi-34Bはスワップで動くが非常に遅い
🟣 M2 Ultra / M3 Max(32GB以上)
- Yi-34B Q4版で快適動作
- 推論速度:約20〜35 tok/s
- Metal最適化で高速推論
Linux(Ubuntu)へのYi-34Bインストール
curl -fsSL https://ollama.com/install.sh | sh
# Yi-34Bダウンロード(NVIDIA GPU必須、VRAM 20GB以上推奨)
ollama pull yi:34b && ollama run yi:34b
pip install vllm
python -m vllm.entrypoints.openai.api_server --model 01-ai/Yi-34B-Chat --dtype auto --tensor-parallel-size 2
AndroidへのYi-34Bインストール
Yi-34BはAndroidスマートフォンで直接動かすには大きすぎるモデルです。ただしYi-6Bの軽量版なら、ハイエンドAndroid(RAM 12GB以上)で動作します。34Bを使いたい場合はPC上のOllamaサーバーとスマホを接続する方式が現実的です。
📱 スタンドアロン:Yi-6B(軽量版)
pkg install python cmake clang
pip install llama-cpp-python
# Yi-6B Q4 GGUFを実行
python -m llama_cpp.server --model Yi-6B-Q4.gguf
Snapdragon 8 Gen 2以上のスマートフォンで約15〜20tok/sで動作。
🌐 リモート:PC上のYi-34Bに接続
# PC側でOllamaを起動
OLLAMA_HOST=0.0.0.0 ollama serve
# スマホのブラウザから接続
http://[PC_IP]:11434
同一Wi-Fi環境でPCのパワーをスマホから活用できます。
iPhoneへのYi-34Bインストール
iPhoneでYi系モデルを使う方法は2つです。①Yi-6Bの軽量版をアプリ経由でローカル実行、または②Mac上のYi-34BにEnchantedアプリで接続する方法です。
方法①:PocketPal AI でYi-6Bをローカル実行
App StoreからPocketPal AIをインストール → アプリ内でYi-6B Q4版を選択してダウンロード(約4GB)→ チャット開始。iPhone 15 Pro以降推奨。
方法②:Enchanted でMac上のYi-34Bにアクセス
Mac(M2 Ultra以上推奨)でOllamaを起動してyiをpull → App StoreからEnchantedをインストール → MacのIPアドレスを設定してYi-34Bを選択。同じWi-Fi内でMacのパワーをiPhoneから活用できます。
Yi-34Bの実践活用シーン
📚 超長文ドキュメント要約(200K版)
Yi-34B-200Kは200,000トークンのコンテキストを持ち、分厚いマニュアル・法律文書・論文全体を一度に入力して要約・分析できます。長文処理ではトップクラスの性能を誇ります。
🌐 日中英三言語のコンテンツ制作
Yi-34Bは日本語・中国語・英語の処理精度が高く、三言語間の翻訳・リライト・コンテンツ生成を高品質で実行できます。東アジアビジネスでの活用に最適です。
💻 大規模コードの分析・リファクタリング
34Bの大きなモデルサイズにより、複雑なコードの理解と生成が高精度で行えます。GitHubリポジトリ全体の品質改善提案や、レガシーコードの最新言語への移植にも対応。
🔒 プライバシー重視のエンタープライズAI
社内の機密データをクラウドに送ることなく、自社サーバー上で34Bクラスの高性能AIを活用できます。金融・医療・法律など、データセキュリティが重要な分野に最適です。
Yi-34Bモデルの高速ダウンロード方法
Yi-34B Q4_K_Mは約19GBという大容量です。HuggingFaceサーバーへの接続品質によってダウンロード時間が大きく変わります。スムーズにダウンロードするためのコツを紹介します。
💡 19GB大容量モデルを効率よくダウンロードするコツ
- VPN07の1000Mbps専用回線でHuggingFaceへのアクセスを高速化(19GBを数分で完了)
- Ollamaは中断からの再開に対応:
ollama pull yi:34bを再実行するだけ - まずYi-6B(約4GB)で環境テスト後に34Bへ移行することを推奨
- 夜間のダウンロードで国際回線の混雑を避ける
HF_ENDPOINT=https://hf-mirror.comでミラーサーバーを活用
大容量LLMダウンロード向けVPN比較
VPN07 - 大容量LLMダウンロード最速VPN
HuggingFaceへの接続が圧倒的に安定。Yi-34Bの19GBモデルも高速でダウンロード完了。IEPL専用回線で速度低下なし。
2. Windscribe
7.3/10月10GBまで無料で使えるが、大容量ダウンロードには不向き。有料版は月$5.5程度。VPN07の1000Mbps専用回線の速度には及ばない。
3. Mullvad
7.0/10プライバシー重視のVPN。月5€(約800円)と比較的高め。HuggingFaceへの接続は可能だが、VPN07のIEPL専用回線ほどの速度は出ない。
VPN07:Yi-34Bを高速・安全にダウンロード
10年以上の実績・IEPL専用回線・世界70カ国対応
Yi-34BのQ4量子化版は約19GBという大容量です。HuggingFaceサーバーへの安定した接続がなければ、ダウンロードに数時間かかることも。VPN07の1000Mbps超高速IEPL専用回線なら、海外AIサーバーへの接続を大幅に安定・高速化できます。世界70カ国以上のサーバーを10年以上安定運用している実績。月額$1.5・30日間返金保証で安心してお試しください。
まとめ:Yi-34Bインストールのクイックリファレンス
Windows
irm https://ollama.com/install.ps1 | iex
ollama pull yi:6b # テスト用(軽量)
ollama pull yi:34b # 本番用(高性能)
macOS
brew install ollama
ollama pull yi:6b
ollama run yi:34b # M2 Ultra以上推奨
Linux
curl -fsSL https://ollama.com/install.sh | sh
ollama pull yi:34b
ollama run yi:34b
Android / iPhone
Yi-6B(軽量版): PocketPal AI / LLM Farm でGGUFを直接実行。Yi-34B: PC上のOllamaサーバーにChatterUI(Android)/ Enchanted(iOS)で接続。
Yi-34Bについてよくある質問
Q. Yi-34BとYi-6Bのどちらを選ぶべきですか?
RTX 3090(24GB VRAM)以上のGPUがある場合はYi-34B Q4_K_Mを選択してください。それ以下の場合はYi-6B Q4を推奨します。MacではM2 Ultra(64GB)以上でYi-34Bが快適に動作します。
Q. Yi-34B-200Kとはどういうモデルですか?
200,000トークン(約15万字)という超長大なコンテキストウィンドウを持つバリアントです。通常版(32K)と比べてより多くのVRAMが必要ですが、分厚い文書全体を一度に処理できます。
Q. 商用利用は可能ですか?
Yi-34BはApache 2.0ライセンスで公開されており、商用利用が可能です。ただし、具体的な利用条件については最新のライセンス文書をご確認ください。
Yi-34B vs 他の34B/70Bクラスモデル比較
| モデル | パラメータ | コンテキスト | 日本語 |
|---|---|---|---|
| Yi-34B | 34B | 200K(特殊版) | ◎ 優秀 |
| Llama 3.3 70B | 70B | 128K | △ 普通 |
| Mistral Large 2 | 123B | 128K | ○ 良好 |
| GLM-4 9B | 9B | 128K | ◎ 優秀 |