VPN07

Mistral Small 3.1 インストール完全ガイド!Windows・Mac・Android・iPhone全対応【2026年最新版】

2026-03-06 約14分で読める Mistral Small 3.1 多言語AI ローカルAI
オープンソース大規模言語モデル ダウンロードセンター
Mistral / Kimi K2.5 / DeepSeek V3 / Llama 4 一覧はこちら
モデルを見る →

この記事について:フランスのMistral AIが2026年に公開したMistral Small 3.1は、24Bパラメータの多言語対応オープンソースモデルです。前世代のMistral Large 2(123B)とは異なり、Smallシリーズは一般のGPU・MacBook・スマートフォンでも動作する軽量高性能モデルとして設計されています。128Kトークンの超長文コンテキストに対応し、日本語・英語・フランス語を含む80以上の言語で高品質な出力が得られます。Apache 2.0ライセンスで商用利用も完全無料です。本記事では全プラットフォームへのインストール手順を詳細に解説します。

Mistral Small 3.1とは?Large 2との違いと2026年の位置づけ

Mistral Small 3.1は、Mistral AIが「エッジAI」と「ローカル実行」に特化して開発した最新シリーズです。競合の同サイズモデルと比較して際立つのは多言語性能の高さinstruction-followingの精度です。コーディング・数学・マルチターン対話・関数呼び出し(Function Calling)に対応し、企業向けエージェントアプリケーションの基盤モデルとして採用が急増しています。

24B
パラメータ数
128K
コンテキスト長
80+言語
多言語対応
Apache 2.0
ライセンス

Mistral Small 3.1が特に優れているのは効率的なサイズ対性能比です。24Bパラメータながら、多くのベンチマークでGPT-4o-mini・Claude 3 Haiku・Gemini 2.0 Flashを上回る結果を示しています。また、Function CallingのサポートによりLangChain・LlamaIndex・AutoGenなどのAIエージェントフレームワークとのシームレスな連携が可能です。

🥇

Mistral Small 3.1 - 24B最高の多言語ローカルAI

9.0/10点(24B部門)
80+
対応言語数
128K
コンテキスト長
対応
Function Calling
14GB
GGUF Q4サイズ

プラットフォーム別 推奨スペック一覧

Mistral Small 3.1 デバイス別動作環境

デバイス VRAM/RAM 推奨設定 応答速度
RTX 4090 (24GB) 24GB VRAM BF16 フルモデル 80+tok/s
RTX 3080/4080 (10-16GB) 10-16GB Q4_K_M量子化 40+tok/s
MacBook Pro M3/M4 Pro (18-24GB) 18-24GB Q4版(MLX) 35+tok/s
一般PC (16GB RAM) 16GB RAM Q4量子化(CPU) 10-20tok/s
Android (RAM 12GB+) 12GB+ Termux/PocketPal 5-10tok/s
iPhone 15 Pro以降 8GB RAM Off Grid(Q4版) 10-15tok/s

WindowsへのMistral Small 3.1インストール

WindowsへのMistral Small 3.1インストールはOllamaを使う方法が最もシンプルです。24BモデルのQ4量子化版は約14GBで、RTX 3080以上のGPUがあれば快適に動作します。

1 Ollamaをインストール

ollama.comからWindows版インストーラーをダウンロード。インストール後、タスクバーにOllamaアイコンが表示されます。

必要環境:Windows 10/11(64ビット)、RAM 16GB以上推奨(CPU実行の場合)、NVIDIA GPU(VRAM 16GB推奨)、ストレージ 20GB以上

2 PowerShellでMistral Small 3.1を起動

# Mistral Small 3.1をダウンロード・起動
ollama run mistral-small3.1

# 別バリアントを指定する場合
ollama pull mistral-small3.1:24b
ollama run mistral-small3.1:24b

# 日本語システムプロンプトを設定
ollama run mistral-small3.1 \
"あなたは優秀な日本語AIアシスタントです。常に日本語で回答してください。"

ダウンロードサイズ:Q4量子化版で約14GB。1000Mbps回線なら約2分で完了します。

3 Open WebUIでGUI環境を構築

# DockerでOpen WebUIを起動
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
ghcr.io/open-webui/open-webui:main

# http://localhost:3000 でアクセス
# モデル選択:mistral-small3.1

Open WebUIはDocument RAG(ファイルを読み込んで質問応答)にも対応。Mistral Small 3.1の長文コンテキスト128Kと組み合わせると、長大な文書を一度に処理できます。

macOSへのインストール方法(Apple Silicon最適化)

MacのM3 Pro(18GB統合メモリ)以上であれば、Mistral Small 3.1のQ4量子化版(14GB)を完全にメモリ内で実行できます。MLXフレームワークを使うとApple Siliconに最適化された高速推論が可能です。

1 Ollamaでインストール(推奨)

# Homebrewでollamaをインストール
brew install ollama
brew services start ollama

# Mistral Small 3.1を起動
ollama run mistral-small3.1

# 日本語特化プロンプト
# >>> 日本語で、プログラミングの質問に答えてください。

M3/M4 Max(36-128GB)

完全VRAM内実行。約35-50tok/s。128K文脈も快適処理

M3 Pro(18-36GB)

14GBモデルが完全格納可能。約25-35tok/s

2 MLXフレームワークでの高速実行

# mlx-lmをインストール
pip install mlx-lm

# Mistral Small 3.1をMLX量子化版で実行
mlx_lm.generate \
--model mlx-community/Mistral-Small-3.1-24B-Instruct-4bit \
--max-tokens 2000 \
--prompt "日本語で詳しく解説してください:機械学習とは"

# チャットモード
mlx_lm.chat \
--model mlx-community/Mistral-Small-3.1-24B-Instruct-4bit

MLXはApple Siliconに最適化されており、Ollamaより10-20%高速に動作する場合があります。

Linux(Ubuntu)へのインストール

LinuxはMistral Small 3.1の商用APIサーバーを構築する際に最もよく使われる環境です。vLLMを使ったOpenAI互換APIサーバーを構築すれば、社内の複数ユーザーが同時に利用できるプライベートAIサービスを提供できます。

Ubuntu/Debian系での完全セットアップ

# Step 1: Ollamaでシンプルに起動
curl -fsSL https://ollama.com/install.sh | sh
ollama run mistral-small3.1

# Step 2: vLLMで高スループットAPIサーバーを構築
pip install vllm
vllm serve mistralai/Mistral-Small-3.1-24B-Instruct-2503 \
--tensor-parallel-size 2 \
--max-model-len 65536 \
--port 8000

# Step 3: Function Calling APIテスト
curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "mistral-small3.1",
"messages": [{"role":"user","content":"東京の天気は?"}],
"tools": [{"type":"function","function":{"name":"get_weather"}}]
}'

RTX 4090(24GB)単体でBF16フルモデルが動作します。Function Calling機能はCUDA環境での実行推奨。

AndroidスマートフォンへのMistral Small 3.1インストール

24Bモデルながら量子化版(Q4)は約14GBとAndroスマートフォンでも扱いやすいサイズです。RAM 12GB以上の最新フラッグシップ機ならTermuxやPocketPal AIアプリでのローカル実行が可能です。

方法1 PocketPal AIアプリ(初心者向け・推奨)

Google PlayでPocketPal AIをインストールします。アプリ内でMistral Small 3.1を検索してダウンロードするだけです。GUI付きのチャット画面で日本語会話が楽しめます。

✅ 推奨デバイス
  • ・Galaxy S25 Ultra (12GB RAM)
  • ・Pixel 9 Pro XL (16GB RAM)
  • ・Xiaomi 14 Ultra (16GB RAM)
⚠️ 注意点
  • ・ストレージ 20GB以上必要
  • ・初回DLにWi-Fi推奨
  • ・発熱制御に注意

方法2 Termux + Ollamaでローカル実行

# F-DroidからTermuxをインストール
pkg update && pkg upgrade
pkg install ollama

# Mistral Small 3.1をダウンロード・起動
ollama pull mistral-small3.1
ollama run mistral-small3.1

# 日本語で会話開始
# >>> 日本語でプログラミングのコードをレビューしてください。

Galaxy S25 Ultra(12GB RAM、Snapdragon 8 Elite)でMistral Small 3.1が5-10トークン/秒で動作します。

iPhoneへのMistral Small 3.1インストール方法

iPhone 15 Pro(A17 Pro、8GB RAM)以降でMistral Small 3.1のQ4量子化版(14GB)をローカル実行できます。App Storeで配信されているOff GridやLLM Farmを使えば簡単に利用開始できます。

1 Off Grid(最も簡単)

App Storeで「Off Grid」を検索してインストールします。「Mistral」カテゴリからMistral Small 3.1を選択してダウンロードするだけです。

推奨iPhone
15 Pro以降
8GB RAM
モデルサイズ
約14GB
Q4量子化
速度
10-15tok/s
iPhone 16 Pro

iPhone 15 Pro(8GB RAM)でQ4版(14GB)は動作するものの、iPhoneの利用可能メモリ制約から非常に低速になる場合があります。iPhone 16 Pro Max(8GB)または将来のiPhone 17 Pro(推定16GB RAM)での使用を推奨します。

2 Mistral API経由での利用(軽量・推奨)

ローカル実行が難しい場合は、App Storeの「OpenCat」や「Chathub」アプリからMistral APIに接続する方法が最適です。

APIエンドポイント: https://api.mistral.ai/v1
モデル名: mistral-small-latest

Mistral APIは1Mトークンあたり入力0.1ドル・出力0.3ドルと非常に安価。月500万トークン使っても約2ドルです。

Mistral Small 3.1の日本語活用テクニック

Mistral Small 3.1は80以上の言語に対応しており、日本語での出力品質も非常に高いです。以下のシステムプロンプトを活用することで、さらに高品質な日本語出力が得られます。

💡 日本語高精度化システムプロンプト

あなたは優秀な日本語AIアシスタントです。以下のガイドラインに従ってください:
1. 常に自然な日本語(です・ます調)で回答する
2. 専門用語には必要に応じて補足説明を加える
3. コードの説明は日本語のコメントを含む
4. 長文回答は見出しと箇条書きで整理する

🔧 Function Calling(ツール呼び出し)の活用例

Mistral Small 3.1はFunction Callingに完全対応。天気API・データベース・カレンダーなどの外部ツールを自動的に呼び出すAIエージェントを構築できます。LangChainやLlamaIndexと組み合わせると、日本語RAGシステムの構築が可能です。

よくあるトラブルと解決方法

❌ 問題:ollama run mistral-small3.1 が見つからない

Ollamaのバージョンが古い可能性があります。ollama listでインストール済みモデルを確認後、ollama search mistralで利用可能なモデルを検索してください。

⚠️ 問題:ダウンロードが遅い・接続が切れる

HuggingFaceやOllamaのCDNへの接続が不安定な場合に発生します。VPN07の1000Mbps専用高速回線に切り替えることで安定したダウンロードが可能になります。14GBのモデルが1000Mbps回線で約2分以内に完了します。

✅ 問題:Mistral Small 3.1とMistral Large 2の使い分けは?

Small 3.1(24B):一般PC・MacBookで快適動作。日常的なコーディング支援・翻訳・要約・チャットボット構築に最適。Large 2(123B):ハイエンドGPUサーバー向け。複雑な法的文書分析・高度な推論が必要な場合に使用。

AIモデルを高速ダウンロードするための接続最適化

Mistral Small 3.1のモデルファイルはHuggingFaceサーバーから配信されます。14GBのファイルは中規模のサイズですが、接続品質が悪いと途中で失敗することがあります。特にHuggingFaceへのアクセスが制限されている環境では安定した接続ツールが必要です。

💡 安定・高速ダウンロードのヒント

  • 有線LAN接続でWi-Fiより安定した速度を確保
  • VPN07の1000Mbps専用高速回線でHuggingFace・Ollamaへの接続を安定化
  • 深夜帯のダウンロードで回線混雑を回避
  • ModelScopeミラー:HF_ENDPOINT=https://hf-mirror.com ollama pull mistral-small3.1
さらに多くのオープンソースLLMをチェック
Mistral / Kimi K2.5 / DeepSeek V3 / Llama 4 一覧はこちら
全モデルを見る →

VPN07:AIモデルを安定・超高速にダウンロード

10年以上の実績・IEPL専用回線・世界70カ国対応

Mistral Small 3.1などのLLMモデルのダウンロードにはHuggingFaceやOllamaへの安定接続が不可欠です。VPN07の1000Mbps超高速専用回線なら、14GBモデルもわずか2分でダウンロード完了。海外のAI APIへの接続も最適化されます。月額$1.5という業界最安値・30日間返金保証・世界70カ国以上のサーバーネットワークで、あなたのAI活用をサポートします。

$1.5/月
業界最安値
1000Mbps
超高速帯域
70+国
グローバル対応
30日
返金保証

関連記事

月額$1.5 · 10年の実績
VPN07を無料で試す