ローカルLLM– tag –
-
AI・ローカルLLM
【2026年最新】Apple Silicon で Gemma 4 E2B は Whisper を置き換えられるか — 4モデル日本語CER実測と選定ガイド
Apple Silicon Mac で Gemma 4 E2B/E4B と Whisper large-v3/turbo の4モデルを日本語CER・速度・メモリで実測。結論は Whisper turbo 第一選択、E4BはGPU Timeoutで動かず、E2Bは音声理解用途に限る -
AI-Tools
Goose完全ガイド|Ollama×ローカルLLMで実機検証【2026年】
Block社製OSSコーディングエージェント「Goose」をOllamaのローカルLLMで実機検証。5分でセットアップ、完全無料で動くAI開発環境の実力と限界を率直にレビューします。 -
AI・機械学習
【実機検証】Ollama MLX対応で何が変わった?M2 Air 8GBで最新モデル3つを動かしてみた
Ollama 0.20のMLX対応をM2 MacBook Air 8GBで実機検証。Qwen3(1.7B/4B)とGemma4 E2Bの応答速度をGIF動画付きで比較し、8GBメモリの限界と最適モデルを解説します。 -
AIツール
ローカルLLMだけがセキュアな選択肢? 秘密計算×AIコーディング「Acompany セキュアコード」という第3の選択肢
セキュリティ規定でAIコーディングツールが使えない企業向けに、ローカルLLM・クラウドAI・秘密計算(Confidential Computing)の3つの選択肢を比較。Acompanyセキュアコードの技術概要と使い分けを解説。 -
ローカルLLM
【2026年完全版】ローカルLLM完全ガイド|API費用ゼロ・プライバシー安全なAI開発環境の構築方法
ローカルLLMの導入から活用まで完全解説。Ollama・LM Studio・Claude Codeとの連携、Windows環境セットアップ、よくある質問まで網羅。API費用ゼロでAI開発を始める方法を製造業SEエンジニアが実機検証。 -
実践事例・現場レポート
OllamaをデュアルGPU環境で社内PCから使えるようにするまでの完全トラブルシューティング
生成AIを業務適用に向けて様々な検証を行っていた最中、過去に他部門で利用していたお下がりPCが手に入り、RTX8000(メモリ48GB)2枚を搭載したすごいマシンを業務で利用可能になりました。 Windows 11 + Quadro RTX 8000 × 2 のマシンで、Chrome拡張「Pa... -
ツール選定・技術検証
LM Studio v0.3.23アップデート完全ガイド|新機能と改善点を徹底解説【2025年最新】
はじめに LM Studio v0.3.23が2025年8月にリリースされ、ローカルLLM活用の実用性が飛躍的に向上しました。今回のLM Studioアップデートは単なる機能追加ではなく、ビジネス活用における根本的な課題を解決する重要なバージョンアップです。 本記事では、L...
1