GPUなし・無料でClaude Codeを体験する方法|Ollamaクラウドモデル完全ガイド

「AIコーディングツールを使ってみたい。でも月額20ドルは高い。」

Claude Codeの名前を聞いて興味を持ったものの、Anthropic公式のProプラン(月額20ドル)に踏み切れない。そんな経験はないだろうか。

あるいはこう。「ローカルで動かせるらしいけど、RTX 4090とか持ってないし……」

前回のPart 2では、RTX 8000を2枚搭載した96GB VRAMの環境でOllamaのローカルモデルを検証した。結論としては「動くが、ハードウェアの壁が高すぎる」だった。72GBクラスのモデルを動かすには、一般的なPCでは到底足りないVRAMが必要になる。

しかし2025年後半、Ollamaに大きな変化があった。クラウドモデルの登場だ。

自分のPCにGPUがなくても、Ollamaのクラウドインフラでモデルが実行される。つまり、ノートPC1台あれば、480Bパラメータのコーディング特化モデルすら動かせる。しかも無料枠がある。

この記事では、GPUを持たない環境でOllamaのクラウドモデルを使い、Claude Codeを体験する方法を、実際のセットアップ手順から注意点まで詳しく解説する。


目次

この記事が解決する悩み

  • Claude Codeを試したいが、月額20ドルのサブスクに踏み切れない
  • ローカルLLMに興味があるが、高性能GPUを持っていない
  • ChatGPTとClaude Codeの違いがわからず、どちらに投資すべきか判断できない

自分がこの検証に至った背景

筆者はこれまで、ローカルLLM環境の構築を繰り返してきた。企業環境でのセキュリティ制約から「データを外部に出さずにAIを活用する」ことが命題だったからだ。

Part 2の検証では、RTX 8000を2枚(合計96GB VRAM)という環境でOllamaのローカルモデルを動かし、Claude Codeとの連携を試みた。結果は「技術的には動くが、ハードウェアコストが現実的でない」というものだった。

そこにOllamaのクラウドモデルが登場した。ローカルとクラウドのハイブリッドという、まさに求めていた選択肢だ。

ただし、筆者の本業は「データを外に出さない」ことを重視するローカルLLM志向だ。クラウドモデルは便利だが、データの取り扱いには注意が必要になる。この記事では、その両面を正直に伝える。

あわせて読みたい
【実践検証】Claude Code × Ollama Part2|72GBモデルで実際に開発してみた結果 前回の記事では、Ollama × Claude Codeの環境構築方法を解説しました。 👉 前回: Ollama × Claude Code:API費用ゼロでAIコーディング環境を構築する完全ガイド 「環境...

Ollamaクラウドモデルとは何か

Ollamaのクラウドモデルは、2025年9月にプレビューとして導入された機能だ。通常のOllamaはモデルをローカルPCにダウンロードして実行するが、クラウドモデルではOllamaのデータセンター側のGPUでモデルが実行される。

ユーザーから見ると、使い方はローカルモデルと全く同じ。ollama runollama launchのコマンド体系も変わらない。違うのは、モデル名に:cloudというタグが付いている点だけだ。

ローカルモデルとクラウドモデルの比較

項目ローカルモデルクラウドモデルAnthropic公式API
GPU要件高性能GPU必須(23GB VRAM以上推奨)なし(ノートPCでOK)なし
ストレージモデル分(数十GB)ほぼ不要不要
コスト電気代のみ無料枠あり(Pro: $20/月)Pro: $20/月
応答速度GPU性能に依存データセンター級GPU高速
データ完全ローカルOllamaサーバーを経由Anthropicサーバーを経由
利用制限なし無料枠は軽量利用向けプランに依存
使えるモデルオープンソースモデルオープンソースの大規模モデルClaude(Sonnet/Opus)

利用可能なクラウドモデル(主要なもの)

モデルパラメータ特徴
qwen3-coder:480b-cloud480Bコーディング特化。最高性能
deepseek-v3.1:671b-cloud671B汎用。高い推論能力
gpt-oss:120b-cloud120B汎用性が高くバランス良好
glm-4.7:cloud非公開バランス型。日本語にも対応
minimax-m2.1:cloud非公開軽量で高速

ポイントは、480Bや671Bといった超大規模モデルをGPUなしで動かせること。ローカルでこれらを動かすには、数百GBのVRAMが必要になるが、クラウドモデルなら一般的なノートPCで利用できる。


セットアップ手順:4ステップで完了

前提条件

  • OS: macOS / Windows / Linux
  • Ollama: v0.15以上(ollama launchコマンド対応)
  • Node.js: v18以上(Claude Codeの実行に必要)
  • Claude Code: 最新版(npm install -g @anthropic-ai/claude-code

Step 1: Ollamaのインストール・アップデート

Ollamaが未インストールの場合は、公式サイトからダウンロードしてインストールする。

既にインストール済みの場合は、v0.15以上であることを確認する。

ollama --version
# ollama version is 0.15.x 以上であること

v0.15未満の場合は、公式サイトから最新版をダウンロードして上書きインストールする。

Step 2: ollama launch claude を実行

ターミナルで以下のコマンドを実行する。

ollama launch claude

これだけで、対話的なセットアップウィザードが起動する。モデルの選択、環境変数の設定、Claude Codeの起動まで全て自動でガイドされる。

Step 3: クラウドモデルを選択

ウィザードが表示するモデル一覧から、クラウドモデル(:cloudタグ付き)を選択する。

コーディング用途であれば、qwen3-coder:480b-cloud が最もおすすめだ。480Bパラメータのコーディング特化モデルで、コード生成・修正・リファクタリングに高い性能を発揮する。

初回はOllamaアカウントへのサインインが求められる。Googleアカウントで認証できる。

# サインインが必要な場合
ollama signin

Step 4: 動作確認

Claude Codeが起動したら、簡単なタスクを試してみよう。

> このディレクトリの構造を教えて

ファイル一覧が表示され、プロジェクト構造の説明が返ってくれば成功だ。

トラブルシューティング

起動しない場合の確認ポイント:

  1. Ollamaのバージョン: ollama --versionでv0.15以上か確認
  2. Claude Codeのインストール: claude --versionで確認
  3. ネットワーク: クラウドモデルはインターネット接続が必須
  4. 認証: ollama signinでサインイン済みか確認

手動セットアップ(仕組みを理解したい人向け)

ollama launchは便利だが、裏側で何が起きているか理解しておくと、トラブル時に役立つ。

Claude Codeは本来、Anthropic APIと通信する。Ollamaはv0.14.0以降、Anthropic Messages APIと互換性のあるエンドポイントを提供している。つまり、Claude Codeの接続先をOllamaに向けるだけで連携できる仕組みだ。

手動で設定する場合、以下の3つの環境変数を設定する。

# 環境変数を設定
export ANTHROPIC_BASE_URL=http://localhost:11434
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""

その後、使いたいクラウドモデルをpullして起動する。

# クラウドモデルをpull(初回のみ)
ollama pull qwen3-coder:480b-cloud

# Ollamaサーバーを起動(バックグラウンド)
ollama serve

# Claude Codeを起動
claude

重要な設定として、Claude Codeは最低64,000トークンのコンテキストウィンドウを必要とする。Ollamaのデフォルトは4,096トークンなので、コンテキスト長を明示的に設定する必要がある。

# コンテキスト長を設定して実行
OLLAMA_CONTEXT_LENGTH=65536 ollama serve

ollama launchを使えば、これらの設定が全て自動で行われる。手動設定は「仕組みを理解したい」「既存の環境と統合したい」場合に有用だ。


ChatGPTとの違い:「指示待ち」vs「能動的」

Ollamaクラウドモデルを通じてClaude Codeを使うと、ChatGPTとの違いが体感できる。

比較項目ChatGPTClaude Code(Ollama経由)
起動方式ブラウザでチャット画面を開くターミナルでclaudeと入力
データ認識チャットに貼り付けたテキストのみプロジェクト全体のファイル構造を自動認識
対話スタイルユーザーの指示に応答プロジェクトの文脈を読み、提案・修正を能動的に行う
ファイル操作コード生成は手動コピペ直接ファイルを読み書き・修正
適した作業単発の質問、コードスニペット生成プロジェクト横断のリファクタリング、設計レビュー

具体例:CSVが入ったフォルダを渡した場合

ChatGPTの場合:

  1. CSVファイルをアップロードする
  2. 「このデータを分析して」と指示する
  3. 分析結果がチャット上に表示される
  4. 追加の分析が必要なら、再度指示する

Claude Code(Ollama経由)の場合:

  1. CSVファイルがあるディレクトリでClaude Codeを起動する
  2. Claude Codeがディレクトリ内のファイルを自動認識する
  3. 「このデータの傾向を分析するスクリプトを作って」と言えば、Pythonスクリプトを生成し、実行し、結果をまとめてくれる
  4. 「グラフも出力して」と追加すれば、既存のスクリプトを修正してグラフ生成機能を追加する

この違いは「指示を出す → 結果を受け取る」のChatGPTに対し、Claude Codeは「文脈を理解して一緒にプロジェクトを進める」という体験だ。

ただし重要な注意点がある。Ollama経由で使うモデルはClaude(Anthropicのモデル)ではない。qwen3-coderやgpt-ossなどのオープンソースモデルだ。Claude Codeというツール(CLI)を使ってはいるが、中のモデルが異なる。そのため、Anthropic公式のClaude Sonnet/Opusと完全に同じ性能は期待できない。


知っておくべき注意点

1. 無料枠の制限

Ollamaの無料プラン(Free tier)は「軽量利用向け」と位置づけられている。具体的なトークン数やリクエスト数の上限は公開されていないが、長時間の連続コーディングセッションには制限がかかる可能性がある。

日常的に使い込むなら、Proプラン(月額20ドル)への移行が現実的だ。「それならAnthropicの公式に課金した方がよいのでは?」という判断も正しい。あくまでも「まず無料で体験し、AIコーディングツールの価値を見極める」ためのステップと捉えるのがよい。

2. データの取り扱い

クラウドモデルを使う場合、プロンプト(入力テキスト)はOllamaのサーバーに送信される。Ollamaは「データは保持しない」と表明しているが、ローカル実行と比べるとデータの外部送信が発生する点は理解しておく必要がある。

企業の機密コードや個人情報を含むプロジェクトでの利用は推奨しない。 個人の学習プロジェクトや公開リポジトリでの利用が適切だ。

3. Anthropic公式版との違い

繰り返しになるが、Ollama経由で動くのはオープンソースモデルだ。Claude Code(CLI)の機能(ファイル操作、Git連携、コマンド実行)は使えるが、モデルの性能はClaude Sonnet/Opusとは異なる。

具体的に異なる点:

  • コード生成精度: 公式Claudeの方が高い傾向
  • 日本語理解: モデルによってばらつきがある(glm-4.7は比較的良好)
  • コンテキスト理解: 大規模プロジェクトでの文脈把握は公式Claudeが優位

4. コンテキストウィンドウの制約

Claude Codeは最低64,000トークンのコンテキストを要求する。クラウドモデルではこの要件を満たすが、以前のバージョンではクラウドモデルの出力が16,384トークンに制限されるバグが報告されていた(現在は修正済み)。常に最新版のOllamaを使うことを推奨する。


3段階のステップアップ戦略

この記事で紹介したクラウドモデルは、AIコーディングツールを「試す」ための入口だ。筆者が推奨するステップアップの流れを示す。

Step 1: 無料で体験(今回の記事)

  • Ollamaクラウドモデル + Claude Code
  • コスト: 0円
  • 目的: AIコーディングツールの体験、自分のワークフローとの相性確認

Step 2: ローカルで本格運用(Part 2の内容)

  • Ollama + ローカルモデル + 高性能GPU
  • コスト: GPU購入費(中古RTX 3090で約5-8万円)
  • 目的: データを外部に出さない完全プライベート環境

Step 3: 公式版で最高性能(Anthropic APIまたはProプラン)

  • Claude Code + Claude Sonnet/Opus
  • コスト: 月額20ドル
  • 目的: 最高精度のAIコーディング、業務レベルの生産性向上

どのステップが最適かは、用途とデータの機密性に依存する。セキュリティ最優先なら Step 2、性能最優先なら Step 3、まずは試したいなら Step 1 だ。


まとめ:今すぐできる最小アクション

Ollamaのクラウドモデルにより、GPUなし・無料でAIコーディングを体験するハードルは劇的に下がった。

今すぐやるべきことは3つだけだ。

  1. Ollama v0.15以上をインストールする(ollama.com
  2. ollama launch claude をターミナルで実行する
  3. クラウドモデル(qwen3-coder:480b-cloud推奨)を選択して、自分のプロジェクトで試す

5分で環境は整う。

ただし、無料枠には制限がある。使い込んで「これは業務に使える」と確信したら、Anthropic公式のProプランへの移行を検討する価値がある。AIコーディングツールの真価は、継続的に使い込んで初めて実感できるものだ。

まずは無料で体験し、自分の目で価値を判断してほしい。


関連リンク

内部リンク(シリーズ記事)

あわせて読みたい
【実践検証】Claude Code × Ollama Part2|72GBモデルで実際に開発してみた結果 前回の記事では、Ollama × Claude Codeの環境構築方法を解説しました。 👉 前回: Ollama × Claude Code:API費用ゼロでAIコーディング環境を構築する完全ガイド 「環境...

外部リンク(公式ドキュメント・出典)


よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次