本記事は紹介記事です。
私はAcompany セキュアコードの実機検証を行っておらず、公開情報をもとに技術概要と選択肢の整理をお伝えする内容です。
会社でこの技術が使える環境が整った際には、可能な限り実際の検証結果も記事にしたいと考えています。
AIコーディングツールとセキュリティの壁
Claude Code、GitHub Copilot、Codex――AIコーディングツールは開発現場の生産性を大きく変えつつあります。
しかし、これらのツールには共通する前提があります。自社のソースコードをクラウド上のAIモデルに送信するということです。
SaaS企業や個人開発者にとっては大きな問題にならないかもしれません。しかし製造業の制御ソフトウェア、金融機関の取引アルゴリズム、防衛関連の組込みシステムなど、ソースコードそのものが競争力の源泉である企業にとっては、「クラウドにコードを送る」という行為自体がセキュリティポリシーに抵触します。
結果として、「最も高度な開発を行う企業ほど、AIコーディングの恩恵を受けられない」という逆説的な状況が生まれています。
ローカルLLMという選択肢とその限界
この壁に対する現実的な回答のひとつが、ローカルLLMです。
Ollamaなどを使えば、手元のGPUマシンでLLMを動かせます。ソースコードが外部に出ないので、セキュリティポリシーをクリアしやすい。私自身もOllamaでローカルモデルを動かし、GPU搭載マシンで試す実験を何度かしてきました。
個人利用や小規模チームなら、ローカルLLMは手軽でセキュアな良い選択肢です。
ただし、規模が大きくなると壁にぶつかります。
- GPU環境の確保: チーム全員分のGPUマシンを用意するコストと運用負荷
- モデル性能の制約: ローカルで動かせるモデルサイズには限界がある(VRAMとの戦い)
- レスポンスと安定性: 個人マシンでの推論速度は、クラウドAPIと比べると差がある
- 全社展開の非現実性: 数百人の開発者全員にGPU環境を配布するのは現実的ではない
「個人で使うぶんには最高だけど、チームや組織全体に広げるのは厳しい」――これがローカルLLMの現在地です。
第3の選択肢: Acompany セキュアコード
2026年3月、名古屋のプライバシーテック企業・株式会社Acompanyが「セキュアコード」のベータ版を発表しました。
これはConfidential Computing(秘密計算)という技術を使ったAIコーディングサービスです。ひとことで言うと、「クラウドに送るけど、誰にも見られない」という仕組みです。
Confidential Computing(秘密計算)とは
従来のクラウドセキュリティは「ポリシーベース」――つまり「アクセスしないと約束する」という規約・契約による保護です。理論上、クラウド管理者はデータにアクセスできる状態にあります。
Confidential Computingは「アーキテクチャベース」――「アクセスできない」をハードウェア設計で保証するという考え方です。
具体的には、CPU内にTEE(Trusted Execution Environment)と呼ばれる隔離領域を設け、その中でデータを処理します。OSやハイパーバイザーですらTEE内のデータにはアクセスできず、クラウド事業者もAcompany自身もデータを閲覧できません。
「アクセスしない」ではなく「アクセスできない」。この違いは、機密コードを扱う企業にとって本質的な安心材料になります。
セキュアコードの概要
| 項目 | 内容 |
|---|---|
| 提供元 | 株式会社Acompany(愛知県名古屋市) |
| 発表日 | 2026年3月13日(ベータ版) |
| ベースOSS | OpenCode(GitHub Stars 120,000+) |
| 対応モデル | GPT-OSS、Qwen3.5、Qwen3-Coder-Next等(オープンウェイトモデル) |
| セキュリティ基盤 | Confidential Computing(TEE) |
| 利用形態 | ターミナルベース(CLI) |
| 料金 | 非公開(ベータ版・問い合わせ制) |
ベースとなるOpenCodeはオープンソースのAI Coding Agentで、公式サイトによると月間500万人以上の開発者に利用されているとのことです。Acompanyはこれを秘密計算インフラ上で動作させることで、「OSSの透明性」と「ハードウェアレベルのセキュリティ」を両立しています。
なお、ガートナー社は「2026年の戦略的テクノロジーのトップ・トレンド」にハードウェア型秘密計算を選出しており、2029年には信頼できないインフラ上で処理される業務の75%以上がConfidential Computingによる保護下で実行されると予測しています。技術としての将来性も裏付けがあります。
3つの選択肢を整理する
ここまでの内容を、比較表で整理します。
| 比較軸 | クラウドAI(Claude Code等) | ローカルLLM(Ollama等) | 秘密計算(Acompany セキュアコード) |
|---|---|---|---|
| セキュリティ | △ ポリシーベース(契約・規約) | ○ データが外部に出ない | ◎ TEEで構造的に保護 |
| モデル性能 | ◎ 最新プロプライエタリモデル | △ オープンウェイト(VRAM制約) | ○ オープンウェイト(大型モデル対応) |
| チーム利用 | ◎ SaaS型で即導入 | △ GPU環境の確保が課題 | ○ クラウド型でスケーラブル |
| 導入コスト | ○ サブスクリプション | △〜○ GPU購入またはレンタル | △ 要問い合わせ(エンタープライズ) |
| 監査対応 | △ 限定的 | × 自前構築が必要 | ○ リモートアテステーション標準搭載 |
| 適用規模 | 個人〜大規模 | 個人〜小規模チーム | 中〜大規模エンタープライズ |
どれかひとつが「正解」ではありません。 自社のセキュリティ要件、チーム規模、予算に応じて使い分けるものです。
- セキュリティ規定が緩やかで最新モデルを使いたい → クラウドAI
- 個人や小規模チームで手軽にセキュアに使いたい → ローカルLLM
- エンタープライズ規模で機密コードを扱いつつAI活用したい → 秘密計算
まとめ: 選択肢が広がったことが重要
「セキュリティが厳しいからAIコーディングは使えない」――この諦めに対して、ローカルLLMに続く第3の選択肢が登場しました。
私としては、ローカルLLMもクラウドAIもそれぞれの良さがあると考えています。Ollamaで気軽にモデルを試せる環境は素晴らしいし、Claude Codeの生産性は圧倒的です。そこに「秘密計算」という新しいアプローチが加わったことで、セキュリティ要件の厳しい企業にも選択肢が生まれたのがポイントです。
もしあなたが「うちの会社ではAIコーディングツールは使えない」と感じているなら、Acompany セキュアコードの存在を知っておいて損はないでしょう。情シス部門や上長への提案材料として、「こういう技術がある」と伝えられるだけでも価値があります。
私自身、会社でこの技術が使える環境が整えば、実際にソースコードを投入しての検証記事もぜひ書きたいと思っています。その日が来ることを楽しみにしつつ、まずは「こんな選択肢がある」というご紹介でした。
Acompany セキュアコードの詳細・ベータ版への参加はAcompany公式サイトをご確認ください。

コメント