「Claude Codeを使いたいけど、API費用が気になる…」
「社内のコードを外部に送りたくない…」
「チームでAI開発環境を共有したい…」
そんな悩みを解決するのが、Ollama 0.14で追加されたAnthropic API互換機能です。
この記事では、社内GPUサーバーにOllamaをセットアップし、Claude Codeからローカルモデルを使う方法を、実際の構築経験をもとに詳しく解説します。
Windows環境での構築手順、チームで共有する設定、セキュリティ対策まで、すぐに実践できる内容をお届けします。
この記事でわかること
- ローカルLLMを使うメリット(コスト・プライバシー・可用性)
- Windows環境でのOllamaサーバー構築手順
- 別端末からの接続設定(チーム共有)
- Claude Codeとの連携方法
- セキュリティを考慮した運用のポイント
- よくあるトラブルと解決方法
ローカルLLMを使うメリット
Claude CodeをローカルのOllamaで動かすことで、以下のメリットが得られます。
1. API費用ゼロ
| 項目 | Claude API | ローカルOllama |
|---|---|---|
| 月額費用 | 使用量に応じて課金 | 電気代のみ |
| トークン制限 | あり | なし |
| 予算管理 | 必要 | 不要 |
一度環境を構築すれば、どれだけ使っても追加費用はかかりません。
2. プライバシー保護
- ソースコードが外部に送信されない
- 機密情報を含むプロジェクトでも安心
- 企業のセキュリティポリシーに準拠しやすい
3. 可用性
- オフライン環境でも動作
- ネットワーク障害時も継続利用可能
- API側の障害に左右されない
4. チーム共有
- 1台のGPUサーバーを複数人で利用
- 環境構築の手間を削減
- 統一された開発環境を提供
今回の構築環境
ハードウェア
| 項目 | スペック |
|---|---|
| GPU | NVIDIA Quadro RTX 8000 × 2 |
| VRAM | 合計96GB |
| OS | Windows 11 |
💡 Note: 家庭用GPUでも動作しますが、大規模モデルを快適に使うには16GB以上のVRAMを推奨します。
ソフトウェア
| 項目 | バージョン |
|---|---|
| Ollama | 0.14.2 |
| Claude Code | 最新版 |
Ollamaサーバーのセットアップ(Windows)
Step 1: Ollamaのインストール
- Ollama公式サイトからWindows版をダウンロード
- インストーラーを実行:以下のようにDIRでパスを指定するとインストール場所を指定することができます
- OllamaSetup.exe /DIR=C:¥ollama
- インストール先を設定(推奨:
C:¥ollama)
推奨ディレクトリ構成:
C:¥ollama¥
├── ollama.exe
└── models¥
Step 2: 環境変数の設定
システム環境変数として以下を設定します。
PowerShellで設定する場合
# 外部接続を許可(重要)
[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', '0.0.0.0:11434', 'Machine')
# CORS設定(すべてのオリジンを許可)
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'Machine')
# モデル保存先
[System.Environment]::SetEnvironmentVariable('OLLAMA_MODELS', 'C:\ollama\models', 'Machine')
# GPU設定(複数GPUの場合)
[System.Environment]::SetEnvironmentVariable('CUDA_VISIBLE_DEVICES', '0,1', 'Machine')
設定値の解説
| 環境変数 | 値 | 意味 |
|---|---|---|
OLLAMA_HOST | 0.0.0.0:11434 | すべてのネットワークからの接続を許可 |
OLLAMA_ORIGINS | * | すべてのオリジンからのCORSリクエストを許可 |
OLLAMA_MODELS | C:¥ollama¥models | モデルファイルの保存先 |
CUDA_VISIBLE_DEVICES | 0,1 | 使用するGPUを指定 |
Step 3: 自動起動の設定(タスクスケジューラ)
サーバーを常時稼働させるため、タスクスケジューラで自動起動を設定します。
設定手順
- Win+R->タスクスケジューラを開く(
taskschd.msc) - 「基本タスクの作成」をクリック
- 以下の設定を行う
| 項目 | 設定値 |
|---|---|
| タスク名 | Ollama Server |
| トリガー | コンピューター起動時 |
| 操作 | プログラムの開始 |
| プログラム | C:¥ollama¥ollama.exe |
| 引数 | serve |
| 実行ユーザー | SYSTEM |
ポイント
- SYSTEM権限で実行することで、ユーザーがログアウトしても動作継続
- 実行時間制限を「無制限」に設定して24時間稼働
Step 4: ファイアウォール設定
ポート11434を開放します。
# 受信規則を追加
New-NetFirewallRule -DisplayName "Ollama Server" `
-Direction Inbound `
-LocalPort 11434 `
-Protocol TCP `
-Action Allow
Step 5: 動作確認
# サーバーが起動しているか確認
netstat -ano | findstr 11434
# 期待される出力:
# TCP 0.0.0.0:11434 LISTENING (PID)
別端末からの接続設定(チーム共有)
他のマシンからOllamaサーバーに接続する設定です。
クライアント側の環境変数設定
Windows(PowerShell)
# 永続的に設定
[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', 'http://[サーバーIP]:11434', 'User')
# 一時的に設定(現在のセッションのみ)
$env:OLLAMA_HOST="http://[サーバーIP]:11434"
Mac / Linux
# 永続的に設定(~/.bashrc または ~/.zshrc に追加)
echo 'export OLLAMA_HOST=http://[サーバーIP]:11434' >> ~/.zshrc
source ~/.zshrc
# 一時的に設定
export OLLAMA_HOST=http://[サーバーIP]:11434
接続確認
# モデル一覧を表示
ollama list
# APIバージョン確認
curl http://[サーバーIP]:11434/api/version
# チャットテスト
ollama run llama3.2:1b "Hello, World!"
Claude Codeとの連携設定
環境変数の設定
Claude Codeからローカルモデルを使うには、以下の環境変数を設定します。
# Mac / Linux
export ANTHROPIC_BASE_URL="http://[サーバーIP]:11434"
export ANTHROPIC_AUTH_TOKEN="ollama"
# Windows PowerShell
$env:ANTHROPIC_BASE_URL="http://[サーバーIP]:11434"
$env:ANTHROPIC_AUTH_TOKEN="ollama"
推奨モデル
Claude Codeと連携する場合、64K以上のコンテキスト長を持つモデルを推奨します。
| モデル | 特徴 |
|---|---|
| qwen3-coder | コーディング特化、高性能 |
| gpt-oss:20b | バランス型、汎用性高い |
| gpt-oss:120b | 大規模モデル、複雑なタスクの実行 |
モデルのダウンロード
# 推奨モデルをダウンロード
ollama pull qwen3-coder
ollama pull gpt-oss:20b
ollama pull gpt-oss:120b
パフォーマンスと実用性
パフォーマンスチューニング
大容量VRAMを活用するための設定:
# 複数モデルの同時ロードを許可
[System.Environment]::SetEnvironmentVariable('OLLAMA_MAX_LOADED_MODELS', '2', 'Machine')
# 並列リクエスト数を増やす
[System.Environment]::SetEnvironmentVariable('OLLAMA_NUM_PARALLEL', '4', 'Machine')
実用的な使用感
| 項目 | ローカルOllama | Claude API |
|---|---|---|
| 応答速度 | GPUスペック依存 | 安定して高速 |
| 精度 | モデル依存 | 最高品質 |
| コスト | 電気代のみ | 使用量課金 |
| プライバシー | 完全ローカル | 外部送信 |
向いている用途
- プロトタイピング・学習用途
- 機密性の高いプロジェクト
- オフライン環境での開発
- 大量のコード生成
向いていない用途
- 最高精度が必要な本番環境
- 複雑な推論が必要なタスク
セキュリティ考慮事項
現在の設定のリスク
| 設定 | リスク |
|---|---|
OLLAMA_ORIGINS=* | すべてのオリジンからアクセス可能 |
OLLAMA_HOST=0.0.0.0 | ネットワーク全体からアクセス可能 |
推奨セキュリティ対策
1. オリジン制限
# 特定のオリジンのみ許可
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', 'http://localhost:3000,http://trusted-app.example.com', 'Machine')
2. ファイアウォールでIP制限
# 特定のIPアドレスのみ許可
New-NetFirewallRule -DisplayName "Ollama Allow Specific IPs" `
-Direction Inbound `
-LocalPort 11434 `
-Protocol TCP `
-RemoteAddress 192.168.1.0/24 `
-Action Allow
3. 認証プロキシの導入(高度)
Nginxなどのリバースプロキシを使用してBasic認証を追加することも可能です。
よくある質問(FAQ)
Q1. ollama list で “Error: something went wrong” と表示される
A. クライアント側でOLLAMA_HOST環境変数が設定されていない可能性があります。
# 環境変数を設定
$env:OLLAMA_HOST="http://[サーバーIP]:11434"
Q2. 外部から接続できない
A. 以下をチェックしてください:
- サーバー側でポート11434がリスニングしているか
netstat -ano | findstr 11434
- ファイアウォールでポート11434が開放されているか
- サーバー側の
OLLAMA_HOSTが0.0.0.0:11434になっているか
Q3. GPUが認識されない
A. 以下を確認してください:
# GPU状態確認
nvidia-smi
# 環境変数確認
echo %CUDA_VISIBLE_DEVICES%
CUDAドライバーが最新かどうかも確認してください。
Q4. モデルのダウンロードが遅い
A. プロキシ環境の場合、プロキシ設定が必要です:
[System.Environment]::SetEnvironmentVariable('HTTP_PROXY', 'http://proxy:port', 'Machine')
[System.Environment]::SetEnvironmentVariable('HTTPS_PROXY', 'http://proxy:port', 'Machine')
まとめ
- Ollama 0.14でClaude Codeのローカル実行が可能に
- API費用ゼロでAIコーディング環境を構築できる
- Windows環境でも簡単にセットアップ可能
- チーム共有で環境構築の手間を削減
- セキュリティ対策を忘れずに運用する
ローカルLLMは、API版と使い分けることで、より柔軟な開発環境を実現できます。

コメント