AIコーディングエージェントを使いたいけど、月額コストが気になっていませんか?
Block社(旧Square)がApache 2.0ライセンスで公開した「Goose」なら、Ollamaと組み合わせて完全無料・完全ローカルで動かせます。
この記事は以下のような方に向けて書いています:
- Claude CodeやCursorの月額コストを抑えたい方
- ローカルLLMでAIコーディングエージェントを試したい方
- Gooseという名前は聞いたことがあるけど、実際の使用感が知りたい方
この記事を読むことで、Gooseのセットアップから実際のコーディングタスクでの性能まで、率直な評価がわかります。
この記事のポイント
- Gooseは5分でセットアップ完了。Ollamaなら完全無料・完全ローカル
- 簡単なタスク(ファイル生成、コマンド実行)は問題なく動作する
- 複雑なタスク(バグ修正、リファクタリング)はローカルモデルだと限界がある
- クラウドAPI接続なら本来の実力を発揮。「第三の選択肢」として十分有力
Gooseとは — Block社が本番で使うOSSコーディングエージェント
GooseはBlock社が開発し、Apache 2.0で公開した完全自律型のAIコーディングエージェントです。
Block社は旧Square、Jack Dorsey率いる時価総額約400億ドル規模の決済テクノロジー企業です。Cash App、Square、Afterpayなどを運営しており、数千人規模のエンジニアが週次でGooseを利用しています。つまり、個人のサイドプロジェクトではなく「プロダクショングレード」のツールです。
2025年12月にはAAIF(Linux Foundation傘下)に移管され、オープンガバナンスのもとで開発が続けられています。GitHub上で38,000以上のスターを獲得しており、コミュニティも活発に成長しています。
主要な特徴
| 特徴 | 説明 |
|---|---|
| 完全オープンソース | Apache 2.0。商用利用含め自由に利用可能 |
| LLM非依存 | Claude、GPT、Gemini、Ollama等、任意のLLMで動作 |
| MCP統合 | Anthropic策定のModel Context Protocolで外部ツールと接続 |
| Rust製 | 高速・軽量。起動が速くメモリ効率が良い |
| 非対話モード | goose run でCI/CDパイプラインに組み込める |
Claude Code / Cursorとの違い
最大の違いはLLMプロバイダーに縛られない点です。
Claude CodeはAnthropic専用、CursorもクラウドAPI依存です。一方、Gooseは15以上のプロバイダーに対応しており、Ollamaを使えばデータをクラウドに送ることなく完全ローカルで動作します。
機密性の高いコードを扱う企業にとって、これは大きなメリットです。
インストールと初期設定(5分で完了)
Goose + Ollamaの環境構築は5分で終わります。
インストール手順がシンプルなので、すぐに試せます。
Goose CLIのインストール
macOS / Linuxの場合、公式スクリプトを実行するだけです:
curl -fsSL https://github.com/aaif-goose/goose/releases/download/stable/download_cli.sh | bash
~/.local/bin/goose にインストールされます。バージョン確認で動作チェックしましょう:
goose --version
# 出力例: 1.30.0
Ollamaの準備とモデル選び
Ollamaがまだの方は公式サイトからインストールしてください。
モデルをダウンロードします。Gooseのtool-calling(関数呼び出し)に対応したモデルが必要です:
# 推奨: Qwen3シリーズ(tool-calling対応が良好)
ollama pull qwen3:4b # 2.5GB — バランス型
ollama pull qwen3:1.7b # 1.4GB — 軽量・高速
Gooseの設定ファイル ~/.config/goose/config.yaml にプロバイダーを追加します:
GOOSE_PROVIDER: ollama
GOOSE_MODEL: qwen3:4b
これだけです。APIキーは不要。Ollamaが起動していれば自動接続します。
動作確認しましょう:
goose run -t "What is 2+2?"
以下のような出力が表示されれば成功です:
__( O)> ● new session · ollama qwen3:4b
\____) goose is ready
The result of 2 + 2 is 4.
このように、セットアップは非常にシンプルです。
実機検証 — Ollamaのローカルモデルでどこまで使えるか
ここからが本題です。Goose + Ollamaの組み合わせで実際のコーディングタスクを検証しました。
率直に言うと、簡単なタスクは実用的、複雑なタスクには限界があるという結論です。
簡単なタスク → 問題なく動作
以下のタスクはqwen3:1.7b(1.4GB)でも安定して動作しました。
ファイル生成 + 実行:
goose run -t "Create hello.py that prints 'Hello from Goose!' and run it"
Gooseはwriteツールでファイルを作成し、shellツールでPythonを実行します。2つのツールを自動的に連鎖させて、期待通りの結果を返しました。
ディレクトリ分析:
goose run -t "List all files in the current directory"
shellツールで ls -la を実行し、結果を分かりやすく整理して報告します。
簡単なタスクに関しては、Claude Codeと同等の体験です。
複雑なタスク → ローカルモデルの限界
3つの複雑なタスクで検証しました。
テスト1: Pythonバグ修正(3箇所のバグを特定・修正)
バグのあるCalculatorクラスを渡し、修正を指示しました。
- qwen3:1.7b: バグを3つとも検出したが、修正時にクラス構造を破壊
- qwen3:4b: 正しい修正案を提示したが、ファイルに書き込まなかった
テスト2: JavaScriptリファクタリング(index/id混同バグ)
TODOアプリのremoveTodo関数がarray indexをIDとして使うバグの修正を指示しました。
- qwen3:1.7b: ファイルを読まずにtodoメモだけ書いて終了
- qwen3:4b: バグを正確に理解し、
findIndexを使った正しい修正案を出したが、やはりファイルに書き込まなかった
テスト3: Flask REST API生成(ゼロから構築)
ブックマーク管理APIの作成を指示しました。
- qwen3:1.7b: 基本構造は正しいが、IDの自動採番にバグ
- qwen3:4b: auto-increment、例外処理、型指定まで備えたプロダクション級コードを出力。しかしtool-callのJSONパースに失敗し、ファイル未作成
モデル別比較
| 観点 | qwen3:1.7b (1.4GB) | qwen3:4b (2.5GB) | gemma4 (7.2GB) |
|---|---|---|---|
| tool-calling安定性 | ★★★★☆ | ★★☆☆☆ | ❌ 非対応 |
| コード品質 | ★★☆☆☆ | ★★★★☆ | — |
| 速度 | 10-30秒 | 2-5分 | — |
| 総合 | 軽作業向け | 分析は優秀だが実行が不安定 | Goose非対応 |
興味深いパターンが見えました。qwen3:4bは「頭はいいが手が動かない」状態です。コードの理解・分析は正確ですが、tool-callingでファイル操作を実行する段階で失敗します。
Gooseが本領を発揮する場面
ローカルモデルの限界はGoose自体の限界ではありません。
クラウドAPIのモデル(Claude Sonnet、GPT-4o等)を設定すれば、Claude Codeと同等以上のパフォーマンスが期待できます。Gooseならではの強みは以下の場面で発揮されます。
非対話モード(goose run)でCI/CDに組み込む
goose run -t "Run all tests and report any failures"
goose run はCLI引数でタスクを渡し、完了後に自動終了します。GitHub Actionsなどに組み込めば、PRごとの自動レビューやテスト実行が可能です。
Recipes — 再利用可能なエージェント設定
GooseのRecipesは、チーム全体で共有できるエージェント設定テンプレートです:
name: code-review
description: "コードレビューを実行"
instructions: |
- コードの品質、セキュリティ、パフォーマンスを評価
- 改善点を具体的に提案
- OWASP Top 10の脆弱性をチェック
extensions:
- developer
YAMLファイルとしてリポジトリに含めておけば、チームメンバーが同じ品質基準でレビューを実行できます。
MCP拡張で機能を無限に拡張
GooseはAnthropicのMCP(Model Context Protocol)を全面採用しています。70以上の公式MCP拡張が利用可能で、GitHub、Jira、Slack、データベースなどとシームレスに接続できます。
goose session --with-extension "npx -y @modelcontextprotocol/server-github"
Claude CodeもMCPに対応していますが、GooseはLLM非依存なので「社内のプライベートモデル + 社内ツールのMCPサーバー」という構成が可能です。エンタープライズ環境での柔軟性はGooseの方が上です。
まとめ — Gooseは「第三の選択肢」になり得るか
今回はBlock社のOSSコーディングエージェント「Goose」を、Ollamaのローカルモデルで実機検証しました。
この記事のポイント
- Goose + Ollamaは5分でセットアップ完了。完全無料・完全ローカルで動く
- 簡単なタスク(ファイル生成、コマンド実行)は実用的
- 複雑なタスク(バグ修正、リファクタリング)はローカルモデルだと限界がある
- クラウドAPI接続 + Recipes + MCPが本来の強み
結論: Gooseは十分に「第三の選択肢」です。
ただし「ローカルモデルだけで完結」を期待すると、現時点ではやや厳しい結果でした。Gooseの真価はLLM非依存のアーキテクチャにあります。「今日はOllamaで軽いタスク、重いタスクはClaudeに切り替え」という使い分けがconfig.yamlの1行変更でできる。この柔軟性こそがGoose最大の魅力です。
ぜひ今日からGooseを試してみてください。インストールは1コマンド、設定は2行です。

コメント