ローカルLLM– tag –
-
OllamaをデュアルGPU環境で社内PCから使えるようにするまでの完全トラブルシューティング
生成AIを業務適用に向けて様々な検証を行っていた最中、過去に他部門で利用していたお下がりPCが手に入り、RTX8000(メモリ48GB)2枚を搭載したすごいマシンを業務で利用可能になりました。 Windows 11 + Quadro RTX 8000 × 2 のマシンで、Chrome拡張「Pa... -
LM Studio v0.3.23アップデート完全ガイド|新機能と改善点を徹底解説【2025年最新】
はじめに LM Studio v0.3.23が2025年8月にリリースされ、ローカルLLM活用の実用性が飛躍的に向上しました。今回のLM Studioアップデートは単なる機能追加ではなく、ビジネス活用における根本的な課題を解決する重要なバージョンアップです。 本記事では、L...
1