GLM大模型助力comfyui出图:提高出图效率和质量 Flux结合GLM大模型,为ComfyUI出图提供了强大的支持。无论你是艺术家、设计师还是摄影爱好者,GLM大模型都能帮助你提高出图效率和质量,让你的作品更具个性。 翻译|扩写|修复|错误双击轻松搞定:简化出图流程 通过Flux的功能,GLM大模型能够帮助你轻松实现翻译、扩写、修复和错误双击处理。
一、ComfyUI-GLM4 插件介绍
ComfyUI-GLM4 是一个 ComfyUI 自定义节点,让您可以在 ComfyUI 中直接使用智谱AI的 GLM-4 大语言模型,为您的图像生成或自动化流程提供智能文本支持。
单纯的图像反推节点有很多,比如joy3、janus,但是这种就只是简单的反推图片描述,如果想结合提示词让AI分析图片再给出我满意的提示词,这就要结合大模型的思考能力。
现在有一个非常不错的大模型插件,完全符合我的要求,使用下来感觉还不错,今天特意给大家推荐一下。
二、安装说明
插件地址: https://github.com/msola-ht/ComfyUI-GLM4
使用命令
git clone https://github.com/msola-ht/ComfyUI-GLM4.git
安装好了重启即可,然后我们需要去获取下智谱AI 的API key。 访问官网:https://www.bigmodel.cn/
注册好了后,进入到个人中心,左侧的项目管理下面的API keys这里添加一个新的API Key就行。
重要提示:新用户注册得 2000万 Tokens
在 ComfyUI-GLM4 节点的 model_name 参数中,您可以选择不同的 GLM 模型。为了免费使用,请优先选择以下模型:
- GLM-4-Flash (或其最新版本如 GLM-4-Flash-250414)
- GLM-4V-Flash (如果您需要多模态能力,例如图像理解)
这些是智谱AI提供的免费或有大量免费额度的模型,可以满足大部分日常使用需求。
三、使用说明
反推
扩写
- ComfyUI 内置 GLM-4: 直接在 ComfyUI 工作流中调用 GLM-4 模型。
- 智能文本生成: 视频提示词扩写,反推提示词
- 简单易用: 只需填入智谱AI API Key 即可开始。
GLM大模型一般用法无非就是这两大类,文本类以及图像类
把我们刚才申请到的api_key填写到参数里面即可。
我们来说说可以用来干嘛:
- 文生图智能扩写
- 文生视频智能扩写
- 文本中英文翻译
- 图像反推提示词
- 图生视频扩写提示词
说白了,这个插件就是不错的辅助小插件,方便我们日常写提示词的时候提效用的。
- 拖出节点:
- 启动 ComfyUI。
- 在工作流画布中右键点击,选择
Add Node
->ComfyUI-GLM4
(或类似名称)。
- 配置 API Key:
-
- 在 ComfyUI-GLM4 节点上,找到
api_key
输入框。 - 将您在智谱AI平台获取到的 API Key 粘贴到此框中(替换
YOUR_ZHIPU_AI_API_KEY_HERE
)。
- 在 ComfyUI-GLM4 节点上,找到
- 环境变量设置 ZHIPUAI_API_KEY:"YOUR_ZHIPUAI_API_KEY_HERE"
- Config 设置 KEY
-
- 连接并运行:
- 将您的文本输入(Prompt)连接到
text_input
端。 - 将节点的
text_output
端连接到需要接收文本的节点(例如:CLIP Text Encode
用于图像生成,或Text
节点用于显示结果)。 - 点击 ComfyUI 的
Queue Prompt
按钮,即可看到 GLM-4 生成的文本。
- 将您的文本输入(Prompt)连接到