PR

ローカル環境で手軽に大規模言語モデルを体験できる「Ollama」の魅力

AI

近年、ChatGPTに代表される大規模言語モデル(LLM)が大きな注目を集めています。

しかし、クラウドAPIを利用するには料金がかかります。

API利用することで、マシンスペックに依存せずにAIの性能を最大限活かせる魅力は当然ありますが、個人的にはせっかくAI用にGPU(RTX3060 12GB)を買ったので有効活用したいと思っていました。

そこで、LLMをローカル環境で手軽に体験できるオープンソースツール「Ollama」の魅力に迫ります。

インストール方法

Ollamaは、MacやLinux、Windowsなど主要なOSに対応しており、簡単にインストールできます。

今回は3月にプレビュー版としてリリースされたWindowsでのインストール方法について紹介します。

Download Ollama on Windows
Download Ollama on Windows

Windowsのインストーラーをダウンロード、実行します。

Ollamaダウンロード
Ollamaインストーラー

インストールボタンをクリックして、しばらく待ったら完了です。

コマンドプロンプトまたはPowerShellを起動します。

以下のコマンドを実行して、バージョンが出力されればOKです。

ollama -v
ollamaバージョン確認コマンド

多様なモデルをサポート

Ollamaは、Llama、Gemma、Mistral、Dolphin Phiなど、多様なオープンソースのLLMをサポートしています。

現在公開されているモデルは以下のリンクからご確認してください。

library
Get up and running with large language models.

モデルサイズもさまざまありますので、マシンスペックに合わせて利用することができます。

ハードウェアアクセラレーションにも対応

GPUを搭載したマシンでは、NVIDIAのGPUアクセラレーションを利用してパフォーマンスを引き出せます。

CPU命令セットのIntel AVX/AVX2にも対応しており、幅広いハードウェア環境で効率的に動作します。

プレビュー版ですが、Windowsで簡単にセットアップできるようになりました。

オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開
Ollama Projectは、オープンソースの大規模言語モデルをローカル環境で実行できる「Ollama」のWindow...

動作確認

今回はLlama3がリリースされたばかりなので、早速使ってみたいと思います。

ollama run llama3

コマンドを実行すると、最新のllama3を取得します。

約4.7GBあるのでダウンロードには少し時間がかかります。

Ollama Llama3ダウンロード

セットアップが完了したら、そのままコマンドプロンプト上で会話ができます。

Llama3は日本語に少し弱いと言われていますが、日本語で喋ってみたところ、そのようです。

Ollama llama3チャット

まとめ

Ollamaを使えば、大規模言語モデルの力を、誰でも手軽にローカル環境で体験できます。

シンプルなインターフェース、多様なモデルのサポート、ハードウェアアクセラレーション、柔軟な開発オプションが魅力です。AIの民主化が進む中、Ollamaのようなオープンソースツールの重要性は今後ますます高まっていくでしょう。

他システムDifyと連携したいので、Dockerを使った環境構築方法も紹介したいと思います。

コメント

タイトルとURLをコピーしました