MENU
  • 導入戦略・はじめ方
  • 実践事例・現場レポート
  • AI
「このサイトでは広告を利用しています」 | AI技術ラボ - 現場目線の本音レビュー
AI技術ラボ - 現場目線の本音レビュー
  • 導入戦略・はじめ方
  • 実践事例・現場レポート
  • AI
AI技術ラボ - 現場目線の本音レビュー
  • 導入戦略・はじめ方
  • 実践事例・現場レポート
  • AI
  1. ホーム
  2. ローカルAI

ローカルAI– tag –

  • ローカルLLM

    bitnet.cpp完全ガイド — GPUなしでLLMを動かす1ビット推論フレームワーク

    Microsoft発のbitnet.cppで、GPUなし・CPUだけでLLMを動かす方法を完全解説。1ビット推論の仕組み、対応モデル、インストール手順、llama.cppとの比較まで網羅。
    2026年4月13日
  • AIツール

    M2 MacBook Air(8GB)でVision AIは動くのか? — mlx-vlm v0.4.3 実測レポート

    M2 MacBook Air(8GB)でmlx-vlm v0.4.3の5モデルを実測。Falcon-OCR、Qwen2.5-VL-3B、Gemma 4の動作検証結果とメモリ使用量を公開。
    2026年4月4日
  • ツール選定・技術検証

    Moonshine Voice v2 vs Whisper 実測比較|11モデルベンチマーク2026

    話題のMoonshine Voice v2とWhisper/Faster-Whisperを、Teams会議の録画データで実測比較。レイテンシ・精度・メモリを11モデルで計測した結果と、用途別の使い分けを解説。
    2026年3月3日
1

Recent Posts

  • bitnet.cpp完全ガイド — GPUなしでLLMを動かす1ビット推論フレームワーク
  • VibeVoice完全ガイド — Microsoftの無料音声AIで議事録を自動化する方法【2026年最新】
  • Goose完全ガイド|Ollama×ローカルLLMで実機検証【2026年】
  • 【実機検証】Ollama MLX対応で何が変わった?M2 Air 8GBで最新モデル3つを動かしてみた
  • M2 MacBook Air(8GB)でVision AIは動くのか? — mlx-vlm v0.4.3 実測レポート

Recent Comments

表示できるコメントはありません。

ご支援お待ちしております