ローカルLLM

AI

DifyとOllamaを連携させ、ローカルチャットボット環境を作る

前回はLM StudioとDifyの連携でしたが、今回は、Ollamaと連携させてみました。どちらもそれぞれ特徴があるので、使い分けてもいいと思います。私的には、スタンドアローンで使うならLM Studio。Difyとの連携であればOllama かな?と思っています。
AI

ローカルでDifyとLM_Studio を連携させ、ローカルでチャットボットを作る。

LM StudioとDifyをローカルで連携させたのでレポートします。記事を書いている時に、Dify設定にLM Studioのプラグインを発見したので、そちらの設定も追加してます。
AI

LM Studio、ChatGPTのような大規模言語モデル(LLM)をローカルで簡単に動かせる時代が来た

LM Studio を体験してみました。簡単に、ローカルPCでAiとチャットできます。機密性の情報を扱う場合には、ローカルなので安全性は高まります文章を要約したり、レポート作成してもらったり、正確な回答が必要でない場合には、使えそうです。プログラムなど正確性が必要な場合には、オンラインのほうがよさそうです。
広告