Comfyui_llm_partyは、comfyuiという非常にシンプルなUIインターフェースを基に、LLMワークフロー構築のための完全なノードライブラリを開発することを目指しています。これにより、ユーザーは自身のLLMワークフローをより便利かつ迅速に構築でき、自身の画像ワークフローに接続することも容易になります。
EN.mp4
ComfyUI LLM Partyは、最も基本的なLLMの多ツール呼び出しやキャラクター設定によって、専属のAIアシスタントを迅速に構築することから、業界に適用可能な単語ベクトルRAG、GraphRAGを用いた知識ベースのローカル管理までを行います。単一のエージェントパイプラインから、複雑なエージェント間の放射状および環状の相互作用モードの構築まで、個人ユーザーのためのSNSアプリ(QQ、Feishu、Discord)への接続から、ストリーミングメディアの作業者が必要とするワンストップLLM+TTS+ComfyUIワークフローまで、普通の学生が必要とする最初のLLMアプリケーションの簡単な導入から、研究者が一般的に使用するさまざまなパラメータ調整インターフェースやモデル適応に至るまで、これらすべての答えはComfyUI LLM Partyの中にあります。
- もしあなたがcomfyuiを使用したことがなく、comfyuiでLLMパーティをインストールする際に依存関係の問題が発生した場合は、こちらをクリックして、LLMパーティを含むcomfyui windows ポータブルパッケージをダウンロードしてください。ご注意ください!このポータブルパッケージにはpartyと管理者の2つのプラグインのみが含まれており、windowsシステム専用となっています。(既にcomfyuiがインストールされている場合、LLM partyのインストール手順は省略できます。)
- 以下のワークフローをcomfyuiにドラッグし、comfyui-Managerを使用して不足しているノードをインストールします。
- APIを使用してLLMを呼び出す:start_with_LLM_api
- aisuiteを使用してLLMを呼び出します:start_with_aisuite
- ollamaを使用してローカルLLMを管理する:start_with_Ollama
- 分散形式のローカルLLMを使用する:start_with_LLM_local
- GGUF形式のローカルLLMを使用する:start_with_LLM_GGUF
- 分散形式のローカルVLMを使用する:start_with_VLM_local(テスト中、現在はLlama-3.2-Vision-Instructのみサポート)
- GGUF形式のローカルVLMを使用する:start_with_VLM_GGUF
- APIを使用する場合、API LLMローダーノードに
base_url
(リレーAPIでも可、末尾は/v1/
であることを確認)とapi_key
を入力します。例:https://api.openai.com/v1/
- ollamaを使用する場合、API LLMローダーノードで
is_ollama
オプションをオンにし、base_url
とapi_key
を入力する必要はありません。 - ローカルモデルを使用する場合、ローカルモデルローダーノードにモデルパスを入力します。例:
E:\model\Llama-3.2-1B-Instruct
。また、ローカルモデルローダーノードにHuggingfaceのモデルrepo idを入力することもできます。例:lllyasviel/omost-llama-3-8b-4bits
- このプロジェクトは使用の敷居が高いため、クイックスタートを選択した場合でも、プロジェクトのホームページをじっくり読んでいただけると幸いです。
-
新しい画像ホスティングノードが追加されました。現在、https://sm.ms の画像ホスティング(中国のドメインは https://smms.app)および https://imgbb.com の画像ホスティングをサポートしています。将来的には、より多くの画像ホスティングをサポートする予定です。サンプルワークフロー:画像ホスティング
-
partyがデフォルトで互換性のあるimgbbの画像ホスティングはimgbbというドメインに更新されましたが、以前の画像ホスティングは中国本土のユーザーに対してあまり親切ではなかったため、変更されました。大変申し訳ございませんが、 https://imgbb.io の画像ホスティングAPIサービスは停止しているようですので、コードは元の https://imgbb.com にロールバックされました。皆様のご理解に感謝いたします。今後、より多くの画像ホスティングをサポートするノードを更新する予定です。 -
更新されたMCPツールでは、partyプロジェクトフォルダ内の'mcp_config.json'ファイルの設定を変更することで、接続するMCPサーバーを調整できます。さまざまなMCPサーバーの設定パラメーターは、こちらでご確認いただけます:modelcontextprotocol/servers。本プロジェクトでは、デフォルト設定としてEverythingサーバーが用意されており、MCPサーバーが正常に機能するかのテストに使用されます。ワークフローの参照:start_with_MCP。開発者向けの注意:MCPツールノードは、設定済みのMCPサーバーに接続でき、その後サーバー内のtoolsをLLMが直接使用可能なツールに変換します。異なるローカルサーバーやクラウドサーバーを設定することで、世界中のすべてのLLMツールを体験することができます。
-
ノードの使用説明については、以下を参照してください:ノードの使用方法
-
プラグインに問題がある場合や他に疑問がある場合は、ぜひQQ群にご参加ください:931057213 |discord:discord.
-
さらに多くのワークフローはworkflowフォルダーをご覧ください。
- 画像内のテキストと位置を認識するためのEasyOCRノードを追加しました。対応するマスクを生成し、LLMが表示するためのJSON文字列を返すことができます。標準版とプレミアム版が選択可能です!
- すべてのOpenAI形式のAPI呼び出しをサポートしています(oneapiを組み合わせることで、ほぼすべてのLLM APIを呼び出すことができ、中継APIもサポートしています)。base_urlの選択はconfig.ini.exampleを参考にしてください。現在、テスト済みのものは以下の通りです:
- openai(すべてのOpenAIモデルに完全に対応しており、4oおよびo1シリーズを含みます!)
- ollama(おすすめ!ローカルで呼び出す場合は、ollama方式を使用してローカルモデルをホストすることを強くお勧めします!)
- Azure OpenAI
- llama.cpp(おすすめ!ローカルgguf形式のモデルを使用したい場合は、llama.cppプロジェクトのAPIを使用してこのプロジェクトにアクセスできます!)
- Grok
- 通義千问/qwen
- 智谱清言/glm
- deepseek
- kimi/moonshot
- doubao
- 讯飞星火/spark
- Gemini(従来のGemini API LLM ローダーノードは新しいバージョンで廃止されましたので、LLM APIローダーノードをご利用ください。base_urlは以下を選択してください:https://generativelanguage.googleapis.com/v1beta/)
- aisuite互換のすべてのAPI呼び出しをサポート:
- トランスフォーマーライブラリのほとんどのローカルモデルと互換性があります(ローカルLLMモデルチェーンノードのモデルタイプは、LLM、VLM-GGUF、およびLLM-GGUFに変更され、LLMモデルの直接ロード、VLMモデルのロード、およびGGUF形式のLLMモデルのロードに対応します)。VLMまたはGGUF形式のLLMモデルでエラーが発生した場合は、llama-cpp-pythonから最新バージョンのllama-cpp-pythonをダウンロードしてください。現在テストされているモデルには次のものが含まれます:
- ClosedCharacter/Peach-9B-8k-Roleplay(推奨!ロールプレイモデル)
- lllyasviel/omost-llama-3-8b-4bits(推奨!豊富なプロンプトモデル)
- meta-llama/Llama-2-7b-chat-hf
- Qwen/Qwen2-7B-Instruct
- openbmb/MiniCPM-V-2_6-gguf
- lmstudio-community/Meta-Llama-3.1-8B-Instruct-GGUF
- meta-llama/Llama-3.2-11B-Vision-Instruct
- モデルのダウンロード:
- クォーククラウドアドレス
- 百度云アドレス、抽出コード:qyhu
以下のいずれかの方法でインストールしてください。
- comfyuiマネージャーで
comfyui_LLM_party
を検索し、一回のクリックでインストールします。 - comfyuiを再起動します。
- ComfyUIのルートフォルダー内の
custom_nodes
サブフォルダーに移動します。 - このリポジトリをクローンします。
git clone https://github.com/heshengtao/comfyui_LLM_party.git
- 右上の
CODE
をクリックします。 download zip
をクリックします。- ダウンロードした圧縮ファイルをComfyUIのルートフォルダー内の
custom_nodes
サブフォルダーに解凍します。
comfyui_LLM_party
のプロジェクトフォルダーに移動します。- ターミナルで
pip install -r requirements.txt
を入力し、本プロジェクトに必要なサードパーティライブラリをcomfyuiの環境にデプロイします。comfyuiの環境でインストールしているかどうかに注意し、ターミナルのpip
エラーにも留意してください。 - comfyuiランチャーを使用している場合は、ターミナルに
ランチャー設定のパス\python_embeded\python.exe -m pip install -r requirements.txt
を入力してインストールを行ってください。python_embeded
フォルダーは通常ComfyUI
フォルダーと同じ階層にあります。 - 環境設定に関する問題が発生した場合は、
requirements_fixed.txt
内の依存関係を使用することを検討してください。
config.ini
において言語を設定できます。現在は中国語(zh_CN)と英語(en_US)の2種類があり、デフォルトはシステム言語です。- 以下のいずれかの方法でAPIKEYを設定できます。
comfyui_LLM_party
のプロジェクトフォルダ内のconfig.ini
ファイルを開きます。config.ini
にあなたのopenai_api_key
、base_url
を入力します。- ollamaモデルを使用する場合は、
base_url
にhttp://127.0.0.1:11434/v1/
を入力し、openai_api_key
にollama
を、model_name
にはあなたのモデル名(例:llama3)を入力します。 - Google検索またはBing検索ツールを使用する場合は、
config.ini
にあなたのgoogle_api_key
、cse_id
またはbing_api_key
を入力します。 - 画像入力LLMを使用する場合は、画像ホスティングサービスのimgbbを推奨し、
config.ini
にあなたのimgbb_api
を入力します。 - 各モデルは
config.ini
ファイル内で個別に設定でき、config.ini.example
ファイルを参考に記入できます。設定が完了したら、ノードにmodel_name
を入力するだけで済みます。
- comfyuiインターフェースを開きます。
- 大規模言語モデル(LLM)ノードを新規作成し、ノード内に直接あなたの
openai_api_key
、base_url
を入力します。 - ollamaモデルを使用する場合は、LLM_apiノードを使用し、ノードの
base_url
にhttp://127.0.0.1:11434/v1/
を入力し、api_key
にollama
を、model_name
にはあなたのモデル名(例:llama3)を入力します。 - 画像入力LLMを使用する場合は、画像ホスティングサービスのimgbbを推奨し、ノードにあなたの
imgbb_api_key
を入力します。
- さらなるモデル適応;
- さらなるエージェント構築方法;
- さらなる自動化機能;
- さらなるナレッジベース管理機能;
- さらなるツール、さらなるペルソナ。
本オープンソースプロジェクトおよびその内容(以下「プロジェクト」といいます)は、参考用に提供されるものであり、明示または暗示の保証を意味するものではありません。プロジェクトの貢献者は、プロジェクトの完全性、正確性、信頼性または適用性に対して一切の責任を負いません。プロジェクトの内容に依存する行為は、すべて自己の責任において行うものとします。いかなる場合においても、プロジェクトの貢献者は、プロジェクトの内容の使用に起因して生じた間接的、特別または付随的な損失または損害について、一切の責任を負いません。
本プロジェクトのいくつかのノードは以下のプロジェクトを参考にしており、オープンソースコミュニティへの貢献に感謝します!
プラグインに問題がある場合や他の質問がある場合は、ぜひ私たちのコミュニティに参加してください。
- QQグループ:
931057213
-
WeChatグループ:
we_glm
(小助手のWeChatを追加した後にグループに参加してください) -
discord:discordリンク
- このプロジェクトの最新機能を継続的にフォローしたい方は、Bilibiliアカウントをフォローしてください:派对主持BB机
- youtube@comfyui-LLM-party
私の仕事があなたに価値をもたらしたなら、ぜひ私にコーヒーをおごってください!あなたのサポートはプロジェクトに活力を与えるだけでなく、クリエイターの心を温めます。☕💖 一杯一杯が意義深いです!