ローカルLLM
bitnet.cpp完全ガイド — GPUなしでLLMを動かす1ビット推論フレームワーク
Microsoft発のbitnet.cppで、GPUなし・CPUだけでLLMを動かす方法を完全解説。1ビット推論の仕組み、対応モデル、インストール手順、llama.cppとの比較まで網羅。 AIツール
VibeVoice完全ガイド — Microsoftの無料音声AIで議事録を自動化する方法【2026年最新】
Microsoft発の無料OSS音声AI「VibeVoice-ASR」の使い方を徹底解説。60分の音声を一発で文字起こし+話者識別。インストールからWhisperとの比較、日本語活用Tipsまで網羅。 AI-Tools
Goose完全ガイド|Ollama×ローカルLLMで実機検証【2026年】
Block社製OSSコーディングエージェント「Goose」をOllamaのローカルLLMで実機検証。5分でセットアップ、完全無料で動くAI開発環境の実力と限界を率直にレビューします。 AI・機械学習
【実機検証】Ollama MLX対応で何が変わった?M2 Air 8GBで最新モデル3つを動かしてみた
Ollama 0.20のMLX対応をM2 MacBook Air 8GBで実機検証。Qwen3(1.7B/4B)とGemma4 E2Bの応答速度をGIF動画付きで比較し、8GBメモリの限界と最適モデルを解説します。 AIツール
M2 MacBook Air(8GB)でVision AIは動くのか? — mlx-vlm v0.4.3 実測レポート
M2 MacBook Air(8GB)でmlx-vlm v0.4.3の5モデルを実測。Falcon-OCR、Qwen2.5-VL-3B、Gemma 4の動作検証結果とメモリ使用量を公開。 AIツール
ローカルLLMだけがセキュアな選択肢? 秘密計算×AIコーディング「Acompany セキュアコード」という第3の選択肢
セキュリティ規定でAIコーディングツールが使えない企業向けに、ローカルLLM・クラウドAI・秘密計算(Confidential Computing)の3つの選択肢を比較。Acompanyセキュアコードの技術概要と使い分けを解説。 ローカルLLM
【2026年完全版】ローカルLLM完全ガイド|API費用ゼロ・プライバシー安全なAI開発環境の構築方法
ローカルLLMの導入から活用まで完全解説。Ollama・LM Studio・Claude Codeとの連携、Windows環境セットアップ、よくある質問まで網羅。API費用ゼロでAI開発を始める方法を製造業SEエンジニアが実機検証。 Claude Code
【2026年最新】Claude Codeのdangerously-skip-permissionsとautoモードは何が違う?6つのパーミッションモード完全解説
Claude Codeの--dangerously-skip-permissionsとautoモードの違いを徹底解説。2026年3月登場のautoモードはAIが危険度を判断する新世代モード。plan/default/acceptEdits/dontAsk/bypassPermissionsも含む6モードをユースケース別に比較。 AIツール比較
🔬【2026年最新】Alibaba Page Agent vs Claude in Chrome — ブラウザ自動化エージェント実機比較
AlibabaのPage Agent(MIT・6.9k stars)とClaude in ChromeをWebフォーム入力・テーブル抽出・複数ステップ操作の3タスクで実機比較。速度・精度・使い分けをデータで解説。 ツール選定・技術検証
agent-browser 実機検証レポート — 動くコマンド・動かないコマンド一覧【v0.5.0】
Vercel agent-browserの全コマンドを実機検証。ドキュメントとの差異13個を致命的/要注意/軽微に分類し、回避策とともに解説する。
さぁ、始めよう。

















