Goose完全ガイド|Ollama×ローカルLLMで実機検証【2026年】

AIコーディングエージェントを使いたいけど、月額コストが気になっていませんか?

Block社(旧Square)がApache 2.0ライセンスで公開した「Goose」なら、Ollamaと組み合わせて完全無料・完全ローカルで動かせます。

この記事は以下のような方に向けて書いています:

  • Claude CodeやCursorの月額コストを抑えたい方
  • ローカルLLMでAIコーディングエージェントを試したい方
  • Gooseという名前は聞いたことがあるけど、実際の使用感が知りたい方

この記事を読むことで、Gooseのセットアップから実際のコーディングタスクでの性能まで、率直な評価がわかります。

この記事のポイント

  • Gooseは5分でセットアップ完了。Ollamaなら完全無料・完全ローカル
  • 簡単なタスク(ファイル生成、コマンド実行)は問題なく動作する
  • 複雑なタスク(バグ修正、リファクタリング)はローカルモデルだと限界がある
  • クラウドAPI接続なら本来の実力を発揮。「第三の選択肢」として十分有力

目次

Gooseとは — Block社が本番で使うOSSコーディングエージェント

GooseはBlock社が開発し、Apache 2.0で公開した完全自律型のAIコーディングエージェントです。

Block社は旧Square、Jack Dorsey率いる時価総額約400億ドル規模の決済テクノロジー企業です。Cash App、Square、Afterpayなどを運営しており、数千人規模のエンジニアが週次でGooseを利用しています。つまり、個人のサイドプロジェクトではなく「プロダクショングレード」のツールです。

2025年12月にはAAIF(Linux Foundation傘下)に移管され、オープンガバナンスのもとで開発が続けられています。GitHub上で38,000以上のスターを獲得しており、コミュニティも活発に成長しています。

主要な特徴

特徴説明
完全オープンソースApache 2.0。商用利用含め自由に利用可能
LLM非依存Claude、GPT、Gemini、Ollama等、任意のLLMで動作
MCP統合Anthropic策定のModel Context Protocolで外部ツールと接続
Rust製高速・軽量。起動が速くメモリ効率が良い
非対話モードgoose run でCI/CDパイプラインに組み込める

Claude Code / Cursorとの違い

最大の違いはLLMプロバイダーに縛られない点です。

Claude CodeはAnthropic専用、CursorもクラウドAPI依存です。一方、Gooseは15以上のプロバイダーに対応しており、Ollamaを使えばデータをクラウドに送ることなく完全ローカルで動作します。

機密性の高いコードを扱う企業にとって、これは大きなメリットです。


インストールと初期設定(5分で完了)

Goose + Ollamaの環境構築は5分で終わります。

インストール手順がシンプルなので、すぐに試せます。

Goose CLIのインストール

macOS / Linuxの場合、公式スクリプトを実行するだけです:

curl -fsSL https://github.com/aaif-goose/goose/releases/download/stable/download_cli.sh | bash

~/.local/bin/goose にインストールされます。バージョン確認で動作チェックしましょう:

goose --version
# 出力例: 1.30.0

Ollamaの準備とモデル選び

Ollamaがまだの方は公式サイトからインストールしてください。

モデルをダウンロードします。Gooseのtool-calling(関数呼び出し)に対応したモデルが必要です:

# 推奨: Qwen3シリーズ(tool-calling対応が良好)
ollama pull qwen3:4b    # 2.5GB — バランス型
ollama pull qwen3:1.7b  # 1.4GB — 軽量・高速

Gooseの設定ファイル ~/.config/goose/config.yaml にプロバイダーを追加します:

GOOSE_PROVIDER: ollama
GOOSE_MODEL: qwen3:4b

これだけです。APIキーは不要。Ollamaが起動していれば自動接続します。

動作確認しましょう:

goose run -t "What is 2+2?"

以下のような出力が表示されれば成功です:

    __( O)>  ● new session · ollama qwen3:4b
   \____)    goose is ready
The result of 2 + 2 is 4.

このように、セットアップは非常にシンプルです。


実機検証 — Ollamaのローカルモデルでどこまで使えるか

ここからが本題です。Goose + Ollamaの組み合わせで実際のコーディングタスクを検証しました。

率直に言うと、簡単なタスクは実用的、複雑なタスクには限界があるという結論です。

簡単なタスク → 問題なく動作

以下のタスクはqwen3:1.7b(1.4GB)でも安定して動作しました。

ファイル生成 + 実行:

goose run -t "Create hello.py that prints 'Hello from Goose!' and run it"

Gooseはwriteツールでファイルを作成し、shellツールでPythonを実行します。2つのツールを自動的に連鎖させて、期待通りの結果を返しました。

ディレクトリ分析:

goose run -t "List all files in the current directory"

shellツールで ls -la を実行し、結果を分かりやすく整理して報告します。

簡単なタスクに関しては、Claude Codeと同等の体験です。

複雑なタスク → ローカルモデルの限界

3つの複雑なタスクで検証しました。

テスト1: Pythonバグ修正(3箇所のバグを特定・修正)

バグのあるCalculatorクラスを渡し、修正を指示しました。

  • qwen3:1.7b: バグを3つとも検出したが、修正時にクラス構造を破壊
  • qwen3:4b: 正しい修正案を提示したが、ファイルに書き込まなかった

テスト2: JavaScriptリファクタリング(index/id混同バグ)

TODOアプリのremoveTodo関数がarray indexをIDとして使うバグの修正を指示しました。

  • qwen3:1.7b: ファイルを読まずにtodoメモだけ書いて終了
  • qwen3:4b: バグを正確に理解し、findIndexを使った正しい修正案を出したが、やはりファイルに書き込まなかった

テスト3: Flask REST API生成(ゼロから構築)

ブックマーク管理APIの作成を指示しました。

  • qwen3:1.7b: 基本構造は正しいが、IDの自動採番にバグ
  • qwen3:4b: auto-increment、例外処理、型指定まで備えたプロダクション級コードを出力。しかしtool-callのJSONパースに失敗し、ファイル未作成

モデル別比較

観点qwen3:1.7b (1.4GB)qwen3:4b (2.5GB)gemma4 (7.2GB)
tool-calling安定性★★★★☆★★☆☆☆❌ 非対応
コード品質★★☆☆☆★★★★☆
速度10-30秒2-5分
総合軽作業向け分析は優秀だが実行が不安定Goose非対応

興味深いパターンが見えました。qwen3:4bは「頭はいいが手が動かない」状態です。コードの理解・分析は正確ですが、tool-callingでファイル操作を実行する段階で失敗します。


Gooseが本領を発揮する場面

ローカルモデルの限界はGoose自体の限界ではありません。

クラウドAPIのモデル(Claude Sonnet、GPT-4o等)を設定すれば、Claude Codeと同等以上のパフォーマンスが期待できます。Gooseならではの強みは以下の場面で発揮されます。

非対話モード(goose run)でCI/CDに組み込む

goose run -t "Run all tests and report any failures"

goose run はCLI引数でタスクを渡し、完了後に自動終了します。GitHub Actionsなどに組み込めば、PRごとの自動レビューやテスト実行が可能です。

Recipes — 再利用可能なエージェント設定

GooseのRecipesは、チーム全体で共有できるエージェント設定テンプレートです:

name: code-review
description: "コードレビューを実行"
instructions: |
  - コードの品質、セキュリティ、パフォーマンスを評価
  - 改善点を具体的に提案
  - OWASP Top 10の脆弱性をチェック
extensions:
  - developer

YAMLファイルとしてリポジトリに含めておけば、チームメンバーが同じ品質基準でレビューを実行できます。

MCP拡張で機能を無限に拡張

GooseはAnthropicのMCP(Model Context Protocol)を全面採用しています。70以上の公式MCP拡張が利用可能で、GitHub、Jira、Slack、データベースなどとシームレスに接続できます。

goose session --with-extension "npx -y @modelcontextprotocol/server-github"

Claude CodeもMCPに対応していますが、GooseはLLM非依存なので「社内のプライベートモデル + 社内ツールのMCPサーバー」という構成が可能です。エンタープライズ環境での柔軟性はGooseの方が上です。


まとめ — Gooseは「第三の選択肢」になり得るか

今回はBlock社のOSSコーディングエージェント「Goose」を、Ollamaのローカルモデルで実機検証しました。

この記事のポイント

  • Goose + Ollamaは5分でセットアップ完了。完全無料・完全ローカルで動く
  • 簡単なタスク(ファイル生成、コマンド実行)は実用的
  • 複雑なタスク(バグ修正、リファクタリング)はローカルモデルだと限界がある
  • クラウドAPI接続 + Recipes + MCPが本来の強み

結論: Gooseは十分に「第三の選択肢」です。

ただし「ローカルモデルだけで完結」を期待すると、現時点ではやや厳しい結果でした。Gooseの真価はLLM非依存のアーキテクチャにあります。「今日はOllamaで軽いタスク、重いタスクはClaudeに切り替え」という使い分けがconfig.yamlの1行変更でできる。この柔軟性こそがGoose最大の魅力です。

ぜひ今日からGooseを試してみてください。インストールは1コマンド、設定は2行です。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次