DifyとOllamaを使って最新LLM Llama3を使ってみた

こんにちは!

今回は話題の大型言語モデル(LLM)「Llama3」を、Dify と Ollama というツールを使って試してみました。最先端のAIがどんな反応を見せるのか、一緒に確かめていきましょう。

目次

Llama3とは?

Llama3は、Meta社が開発した最新鋭のオープンソースLLMです。現在公開されているモデルの中でも最高クラスの性能を誇ると評価されています。Llama3の特徴は以下の通りです。

  • 8Bと70Bパラメータの高性能な事前学習済みモデル
  • 業界ベンチマークで実証された最先端の性能
  • 推論性能改善などの新機能提供とマルチモーダル対応計画
  • オープンソース化とコミュニティ主導の開発
  • 責任あるAI開発をリードし、オープンなエコシステム発展に注力

Meta AIアシスタントの基盤としても活用され、より賢く速く楽しいAI体験の提供が期待されています。オープンかつ高性能なLLMとして、AIの民主化とイノベーション加速に貢献するでしょう

DifyとOllamaでLlama3を動かす

Llama3を手軽に使うために、今回は Dify と Ollama という2つのツールを試しました。

Ollamaのセットアップ方法

Ollamaのセットアップ方法については、以下の記事を参考にしてください

あわせて読みたい
ローカル環境で手軽に大規模言語モデルを体験できる「Ollama」の魅力 近年、ChatGPTに代表される大規模言語モデル(LLM)が大きな注目を集めています。 しかし、クラウドAPIを利用するには料金がかかります。 API利用することで、マシンスペ...
Ollamaの魅力と使い方

Difyのセットアップ方法

Difyの特徴やセットアップ方法については、以下の記事を参考にしてください

あわせて読みたい
大規模言語モデルの可能性が「すごい」ほど広がる!Difyの魅力に迫る はじめに  AIやデジタル技術の進化に伴い、企業活動の在り方も大きな変革を迎えています。私自身、日々新しいLLMやAIを活用したツールがどんどん出てきており、業務活...
Difyの魅力と使い方

DifyでのOllama Llama3接続方法

Ollama Llama3の起動確認

コマンドプロンプトでOllamaのLLMのリストにLlama3が存在することを確認します。

ollama list

llama3が表示されればOKです。

前提条件について

今回はDocker desktopで起動しているDify、Windowsプレビュー版のOllamaを使った組み合わせになっています。

この条件を明示的にした理由としては、Difyから見たときのOllamaのサービスのアドレスが変わってくるためです。

この条件を前提にした場合に、Dify側からホストに接続するときのIPアドレスはlocalhostではエラーになってしまいます。DockerのコンテナからホストのIPはアドレスを指定する場合には、「host.docker.internal」を使います。

設定

Difyの設定->モデルプロバイダーを開きます。

LLMの候補からOllamaを選び、「+ Add Model」をクリック

モデルプロバイダー Ollama

以下の画像のようにパラメータを入力します。

Ollama llama3設定画面

保存ボタンをクリックして、「成功」と表示されれば設定完了です。

Llama3を試してみた

実際にLlama3と会話してみました。

先に結果をお伝えすると、8Bの場合は話しかけている内容は理解してくれていますが、話す方の日本語は苦手なようです。

例:プログラミングの質問

私「PythonでFizzBuzzを実装するコードを書いてください」

まとめ

DifyとOllamaを使って最新LLM Llama3を試してみました。

今回はLlama3を試してみましたが、DifyとOllamaを組み合わせることでAPI利用料をかけることなく、ローカルLLMを簡単に利用できる環境を構築できます。

LLMの進化も早くどんどん新しいLLMが登場しています。それをすぐに試すことができ、利用料などもかからないのは魅力的ではないでしょうか。

今後はローカルLLMを色々試してみたいと思います。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次