Ollama × Claude Code:API費用ゼロでAIコーディング環境を構築する完全ガイド【Windows対応】

「Claude Codeを使いたいけど、API費用が気になる…」
「社内のコードを外部に送りたくない…」
「チームでAI開発環境を共有したい…」

そんな悩みを解決するのが、Ollama 0.14で追加されたAnthropic API互換機能です。

この記事では、社内GPUサーバーにOllamaをセットアップし、Claude Codeからローカルモデルを使う方法を、実際の構築経験をもとに詳しく解説します。

Windows環境での構築手順、チームで共有する設定、セキュリティ対策まで、すぐに実践できる内容をお届けします。


目次

この記事でわかること

  • ローカルLLMを使うメリット(コスト・プライバシー・可用性)
  • Windows環境でのOllamaサーバー構築手順
  • 別端末からの接続設定(チーム共有)
  • Claude Codeとの連携方法
  • セキュリティを考慮した運用のポイント
  • よくあるトラブルと解決方法

ローカルLLMを使うメリット

Claude CodeをローカルのOllamaで動かすことで、以下のメリットが得られます。

1. API費用ゼロ

項目Claude APIローカルOllama
月額費用使用量に応じて課金電気代のみ
トークン制限ありなし
予算管理必要不要

一度環境を構築すれば、どれだけ使っても追加費用はかかりません。

2. プライバシー保護

  • ソースコードが外部に送信されない
  • 機密情報を含むプロジェクトでも安心
  • 企業のセキュリティポリシーに準拠しやすい

3. 可用性

  • オフライン環境でも動作
  • ネットワーク障害時も継続利用可能
  • API側の障害に左右されない

4. チーム共有

  • 1台のGPUサーバーを複数人で利用
  • 環境構築の手間を削減
  • 統一された開発環境を提供

今回の構築環境

ハードウェア

項目スペック
GPUNVIDIA Quadro RTX 8000 × 2
VRAM合計96GB
OSWindows 11

💡 Note: 家庭用GPUでも動作しますが、大規模モデルを快適に使うには16GB以上のVRAMを推奨します。

ソフトウェア

項目バージョン
Ollama0.14.2
Claude Code最新版

Ollamaサーバーのセットアップ(Windows)

Step 1: Ollamaのインストール

  1. Ollama公式サイトからWindows版をダウンロード
  2. インストーラーを実行:以下のようにDIRでパスを指定するとインストール場所を指定することができます
    • OllamaSetup.exe /DIR=C:¥ollama
  3. インストール先を設定(推奨: C:¥ollama
推奨ディレクトリ構成:
C:¥ollama¥
  ├── ollama.exe
  └── models¥

Step 2: 環境変数の設定

システム環境変数として以下を設定します。

PowerShellで設定する場合

# 外部接続を許可(重要)
[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', '0.0.0.0:11434', 'Machine')

# CORS設定(すべてのオリジンを許可)
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', '*', 'Machine')

# モデル保存先
[System.Environment]::SetEnvironmentVariable('OLLAMA_MODELS', 'C:\ollama\models', 'Machine')

# GPU設定(複数GPUの場合)
[System.Environment]::SetEnvironmentVariable('CUDA_VISIBLE_DEVICES', '0,1', 'Machine')

設定値の解説

環境変数意味
OLLAMA_HOST0.0.0.0:11434すべてのネットワークからの接続を許可
OLLAMA_ORIGINS*すべてのオリジンからのCORSリクエストを許可
OLLAMA_MODELSC:¥ollama¥modelsモデルファイルの保存先
CUDA_VISIBLE_DEVICES0,1使用するGPUを指定

Step 3: 自動起動の設定(タスクスケジューラ)

サーバーを常時稼働させるため、タスクスケジューラで自動起動を設定します。

設定手順

  1. Win+R->タスクスケジューラを開く(taskschd.msc
  2. 「基本タスクの作成」をクリック
  3. 以下の設定を行う
項目設定値
タスク名Ollama Server
トリガーコンピューター起動時
操作プログラムの開始
プログラムC:¥ollama¥ollama.exe
引数serve
実行ユーザーSYSTEM

ポイント

  • SYSTEM権限で実行することで、ユーザーがログアウトしても動作継続
  • 実行時間制限を「無制限」に設定して24時間稼働

Step 4: ファイアウォール設定

ポート11434を開放します。

# 受信規則を追加
New-NetFirewallRule -DisplayName "Ollama Server" `
  -Direction Inbound `
  -LocalPort 11434 `
  -Protocol TCP `
  -Action Allow

Step 5: 動作確認

# サーバーが起動しているか確認
netstat -ano | findstr 11434

# 期待される出力:
# TCP    0.0.0.0:11434    LISTENING    (PID)

別端末からの接続設定(チーム共有)

他のマシンからOllamaサーバーに接続する設定です。

クライアント側の環境変数設定

Windows(PowerShell)

# 永続的に設定
[System.Environment]::SetEnvironmentVariable('OLLAMA_HOST', 'http://[サーバーIP]:11434', 'User')

# 一時的に設定(現在のセッションのみ)
$env:OLLAMA_HOST="http://[サーバーIP]:11434"

Mac / Linux

# 永続的に設定(~/.bashrc または ~/.zshrc に追加)
echo 'export OLLAMA_HOST=http://[サーバーIP]:11434' >> ~/.zshrc
source ~/.zshrc

# 一時的に設定
export OLLAMA_HOST=http://[サーバーIP]:11434

接続確認

# モデル一覧を表示
ollama list

# APIバージョン確認
curl http://[サーバーIP]:11434/api/version

# チャットテスト
ollama run llama3.2:1b "Hello, World!"

Claude Codeとの連携設定

環境変数の設定

Claude Codeからローカルモデルを使うには、以下の環境変数を設定します。

# Mac / Linux
export ANTHROPIC_BASE_URL="http://[サーバーIP]:11434"
export ANTHROPIC_AUTH_TOKEN="ollama"

# Windows PowerShell
$env:ANTHROPIC_BASE_URL="http://[サーバーIP]:11434"
$env:ANTHROPIC_AUTH_TOKEN="ollama"

推奨モデル

Claude Codeと連携する場合、64K以上のコンテキスト長を持つモデルを推奨します。

モデル特徴
qwen3-coderコーディング特化、高性能
gpt-oss:20bバランス型、汎用性高い
gpt-oss:120b大規模モデル、複雑なタスクの実行

モデルのダウンロード

# 推奨モデルをダウンロード
ollama pull qwen3-coder
ollama pull gpt-oss:20b
ollama pull gpt-oss:120b

パフォーマンスと実用性

パフォーマンスチューニング

大容量VRAMを活用するための設定:

# 複数モデルの同時ロードを許可
[System.Environment]::SetEnvironmentVariable('OLLAMA_MAX_LOADED_MODELS', '2', 'Machine')

# 並列リクエスト数を増やす
[System.Environment]::SetEnvironmentVariable('OLLAMA_NUM_PARALLEL', '4', 'Machine')

実用的な使用感

項目ローカルOllamaClaude API
応答速度GPUスペック依存安定して高速
精度モデル依存最高品質
コスト電気代のみ使用量課金
プライバシー完全ローカル外部送信

向いている用途

  • プロトタイピング・学習用途
  • 機密性の高いプロジェクト
  • オフライン環境での開発
  • 大量のコード生成

向いていない用途

  • 最高精度が必要な本番環境
  • 複雑な推論が必要なタスク

セキュリティ考慮事項

現在の設定のリスク

設定リスク
OLLAMA_ORIGINS=*すべてのオリジンからアクセス可能
OLLAMA_HOST=0.0.0.0ネットワーク全体からアクセス可能

推奨セキュリティ対策

1. オリジン制限

# 特定のオリジンのみ許可
[System.Environment]::SetEnvironmentVariable('OLLAMA_ORIGINS', 'http://localhost:3000,http://trusted-app.example.com', 'Machine')

2. ファイアウォールでIP制限

# 特定のIPアドレスのみ許可
New-NetFirewallRule -DisplayName "Ollama Allow Specific IPs" `
  -Direction Inbound `
  -LocalPort 11434 `
  -Protocol TCP `
  -RemoteAddress 192.168.1.0/24 `
  -Action Allow

3. 認証プロキシの導入(高度)

Nginxなどのリバースプロキシを使用してBasic認証を追加することも可能です。


よくある質問(FAQ)

Q1. ollama list で “Error: something went wrong” と表示される

A. クライアント側でOLLAMA_HOST環境変数が設定されていない可能性があります。

# 環境変数を設定
$env:OLLAMA_HOST="http://[サーバーIP]:11434"

Q2. 外部から接続できない

A. 以下をチェックしてください:

  1. サーバー側でポート11434がリスニングしているか
   netstat -ano | findstr 11434
  1. ファイアウォールでポート11434が開放されているか
  2. サーバー側のOLLAMA_HOST0.0.0.0:11434になっているか

Q3. GPUが認識されない

A. 以下を確認してください:

# GPU状態確認
nvidia-smi

# 環境変数確認
echo %CUDA_VISIBLE_DEVICES%

CUDAドライバーが最新かどうかも確認してください。

Q4. モデルのダウンロードが遅い

A. プロキシ環境の場合、プロキシ設定が必要です:

[System.Environment]::SetEnvironmentVariable('HTTP_PROXY', 'http://proxy:port', 'Machine')
[System.Environment]::SetEnvironmentVariable('HTTPS_PROXY', 'http://proxy:port', 'Machine')

まとめ

  • Ollama 0.14でClaude Codeのローカル実行が可能に
  • API費用ゼロでAIコーディング環境を構築できる
  • Windows環境でも簡単にセットアップ可能
  • チーム共有で環境構築の手間を削減
  • セキュリティ対策を忘れずに運用する

ローカルLLMは、API版と使い分けることで、より柔軟な開発環境を実現できます。



参考リンク

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次