-
Comfyui模型目录迁移工具及教程
导言: 你是否也遇到了这样的困扰?主力ComfyUI环境积累了庞大的模型库(几十GB甚至上百GB),但同时又需要使用轻便的便携版ComfyUI。重复下载模型耗时耗力,而默认必须放在软件目录下又限制了存储灵活性。别担心!这里有一个极其简单、安全、零空间占用的终极方案,不仅能让便携版共享已有模型库,更能将模型文件存放在你指定的任意位置!操作只需几步,释放你的存储自由。 方法一、模型迁移官方原版教程: …- 2.6k
- 2.6k
-
第二集:ComfyUI基础概念讲解新手轻松搭建工作流—【Comfyui教程从零基础到精通】
1.更适合零基础学员:0基础从你适不适合开始讲起。 本视频讲解了从零开始搭建ComfyUI工作流的过程,重点介绍了最基础的纹身图工作流的搭建步骤。首先通过添加采样器节点作为核心,连接大模型加载器、Clip文本编码器和VAE解码器等节点,完成输入与输出端的配置。接着设置参数,如CFG、采样器调度器,并输入正负提示词。最后通过执行生成预览图像,展示了工作流的运行效果。视频还强调了一个输出端可连接多个输…- 2.7k
- 2.7k
-
Qwen位置偏移Comfyui-QwenEditUtils:轻松搞定位置偏移与一致性编辑难题
一、Qwen-Image-edit简介 在之前文章已经多次介绍过最新阿里团队开源的一致性图像编辑框架:Qwen-Image-edit框架(阿里Qwen图像编辑:一致性显著提升修复方案!20B国产图像编辑模型经典案例集锦)。但由于在图像编辑中存在位置偏移很大程度的影响一致性图像编辑质量,因此在开源社区一直生态未迅速发展起来。今天的文章将介绍来自社区的大佬小志Jason开源了个人研究实践心得,并封装为…- 6.3k
- 6.3k
-
王炸!阿里开源Wan Animate!电影级动作迁移及主体替换
Wan2.2更新记录 2025年9月19日: 💃 我们推出了**Wan2.2-Animate-14B**,这是一个统一的角色动画和替换模型,具有整体动作和表情复制功能。我们发布了模型权重和推理代码。现在您可以在wan.video、ModelScope Studio或HuggingFace Space上尝试它! 2025年8月26日: 🎵 我们推出了**Wan2.2-S2V-14B**,这是一个音频…- 16.3k
- 16.3k
-
【Comfyui】Wan 2.1 图片转360°视频-360度产品动画旋转展示
通过可控旋转变换(建议5°步长),可将静态图像转化为多视角数据序列。该技术利用插值算法生成连续帧,系统化采集人物0°-360°的标准角度图像。经测试,仅需采集8个基准视角(0°/45°/90°/...)即可满足LoRA模型的训练需求,显著降低3D建模的数据采集成本。首先通过图生视频工作流生成360度旋转视频,提取关键帧图片,再利用在线工具统一尺寸。基于Wan2.1生成,其功能是使生成的图片实现36…- 6.1k
- 6.1k
-
字节开源OneReward模型: 最新重绘神器
一、OneReward模型介绍 OneReward 是一种基于Qwen2.5-VL生成式奖励模型的全新视觉领域RLHF方法,通过增强多任务强化学习显著提升策略模型在多项子任务中的生成能力。基于OneReward,开发出Seedream 3.0 Fill 统一图像编辑模型,能高效处理图像填充、延展、物体消除和文字渲染等多样化任务,其表现超越Ideogram、Adobe Photoshop和FLUX …- 8.4k
- 8.4k
-
字节USO模型打破AI绘画‘二选一’困境,完美融合主体与风格生成
一、USO模型介绍 USO (Unified Style-Subject Optimized) 是字节跳动 UXO 团队开发的Lora模型,统一了风格驱动和主体驱动生成任务。 基于 FLUX.1-dev 架构构建,该模型通过解耦学习和风格奖励学习 (SRL) 实现了风格相似性和主体一致性。USO能够处理单个任务及其自由组合,同时在主体一致性、风格保真度和文本可控性方面表现出卓越的性能。 模型亮点 …- 5.1k
- 5.1k
-
2025年9月秋叶大佬最新Comfyui整合包:ComfyUI-aki-V1.7和V2.7-史诗级更新
本文持续更新秋叶大神最新发布的ComfyUI整合包。ComfyUI是一个非常便利的AI绘画工具,拥有节点式和工作流式的AI绘画界面,并支持多种节点的使用。秋叶大神发布ComfyUI整合包主要是为了改善国内ComfyUI的入门生态,使新手更轻松入门。尽管ComfyUI以其高度可定制和自定义的编辑方式而受到广泛使用,但对于新手来说却具有一定的难度。此外,快速的更新速度、不兼容的更新、以及社区化松散等问…- 2.5m
- 2.5m
-
ComfyUI 通义万相Wan2.2-S2V:革命性技术突破,一键对口型+姿态复刻
一、Wan2.2-S2V介绍 ComfyUI官方宣布,高性能音频驱动视频生成模型Wan2.2-S2V已实现原生适配—无需额外插件,即可直接在ComfyUI中调用该模型,将静态图片与音频结合,生成对话、唱歌、角色表演等动态视频内容。无论是追求电影级画质,还是需要分钟级长视频创作,这个工作流都能满足多场景需求。 Wan2.2-S2V模型的核心优势 在开始操作前,先明确该模型的核心能力,以便根据需求调整…- 17.4k
- 17.4k
-
如何排查和解决 ComfyUI 中模型相关的问题
模型架构不匹配 症状: 生成过程中出现张量维度错误,特别是在 VAE 解码阶段常见错误消息: Given groups=1, weight of size [64, 4, 3, 3], expected input[1, 16, 128, 128] to have 4 channels, but got 16 channels instead Given groups=1, weight of s…- 6.3k
- 6.3k
-
Qwen-Image的Controlnet精准控制图像生成:depth、Canny与Inpaint局部重绘
一、Qwen-Image下Controlnet介绍 Qwen-Image的Controlnet控制模型 是一个控制预训练图像扩散模型的神经网络。它允许输入调节图像,然后使用调节图像来控制图像生成。这里的调节图像类型有很多,比如涂鸦、边缘图、姿势关键点、深度图、法线图、分割图等。这些输入条件都可以作为条件输入来指导生成图像的内容。目前ComfyUI官方已经支持了这块功能,支持了depth、canny…- 30k
- 30k
-
阿里通义千问:推出图像编辑模型Qwen-Image-Edit
8月19日,通义千问宣布,推出 Qwen-Image-Edit,Qwen-Image的图像编辑版本。Qwen-Image-Edit基于20B的Qwen-Image模型进一步训练,将Qwen-Image的文本渲染能力延展至图像编辑领域,实现了对图片中文字的精准编辑。这个超强模型不仅能对图片中的文字进行精准编辑,还支持元素的添加(inpainting)、删除(outpainting)、修改、IP 创作…- 94.6k
- 94.6k
-
instandID换脸comfyui工作流,实现换脸自由,进阶版
一、Stand-In介绍 Stand-In 是一个专注于身份保留的文本到视频生成框架。该框架采用了极其高效的训练方式,仅需比基础视频生成模型多训练1%的参数,就能够在面部相似度和自然度上实现先进的效果,超越了多种全参数训练的方法。Stand-In 不仅在保证身份一致性的同时,还能生成出高质量的视频。它还可以无缝集成到其他视频生成任务中,如:主题驱动的视频生成、姿态控制视频生成、视频风格化、以及人脸…- 27.8k
- 27.8k
-
Comfyui数字人开源项目:MultiTalk图片+音频多人对话视频生成!
一、MultiTalk简介 本文介绍了一款最近的数字人对话框架:MultiTalk,这是一款专注于音频驱动的多人对话、歌唱、互动控制以及卡通风格的数字人视频生成,能够提供更高效和精准的数字人视频创作。优势包括: 支持单人与多人生成 、可互动角色控制、真人、动物和卡通题材泛化性能卓越、以及能够支持480和720多分辨率与最长15秒视频灵活生成。 但是由于要求显存大,RunningHUB插件还未开源,…- 10.4k
- 10.4k
-
Qwen-image 8步加速LORA!GGUF+8步LORA起飞!速度快一半!推荐使用
一、Qwen-Image 8步加速介紹 前面介绍过阿里的王炸图像生成模型qwen-image:这是目前开源里面可以生成中文海报的模型,并且出图能力也很强,直接对比即梦豆包。8G 可玩GGUF版本。时间上大概4分钟出图。我等社区加速方法久矣。早上发现lightx2v团队更新了,推出了一个Qwen-Image的8步lora的支持,今天迎来lightx2v团队开源的lightx2v/Qwen-Image…- 18.4k
- 18.4k
-
Wan2.2史上最快速度:最新Wan2.2-Lighting 4 步提速 40%,最新LightX2V官方/KJ新版模型
一、Wan2.2-lighting模型介绍 超棒,发现 lightx2v 团队最近发布了新模型 Wan2.2-Lighting,这是wan2.2视频生成模型系列的蒸馏版本,让我们视频生成大大加速,有如下几个特点: 快速 :视频生成现在只需 4 个步骤,无需 CFG 技巧,从而将速度提升 20 倍 高质量 :在大多数情况下,蒸馏模型提供的视觉效果与基础模型相当,有时甚至更好。 复杂运动生成 :尽管减…- 54.2k
- 54.2k
-
Wan2.2 KJ版工作流:文生视频超流畅速度更快
一、KJ版Wan2.2介绍 Wan2.2 此次开源的文生视频模型和图生视频模型均为业界首个使用 MoE 架构的视频生成模型,总参数量为 27B,激活参数 14B,均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善。之前一直分享的是Wan2.2官方版本的工作流,KJ这边的其实也已经同步支持了,今天就来分享下KJ版本的Wan2.2的工作流,听说会比官版的消耗更低的显存,效果更好。我…- 53.4k
- 53.4k
-
最新Flux v3版本Controlnet:XLabs ControlNet:X-flux-comfyui
一、Flux ControlNet 介绍 近日,XLabs-AI团队进一步推出了两款新的ControlNet模型,分别是深度(Depth)模型和线稿(HED)模型。同时,团队还对之前发布的硬边缘(Canny)模型进行了进一步的优化和改进。这些新模型的发布和现有模型的改进大大丰富了Flux模型的应用场景,提升了其在图像处理和生成任务中的灵活性和效果。 自从官方发布了LORA模型,在上一篇文章中有介绍…- 13.2k
- 13.2k
-
通义万相wan2.1全家桶模型整合(含kijai版):文生视频+ 图生视频+首尾帧ComfyUI视频
前段时间,阿里开源了万相视频生成大模型Wan2.1系列,在评测集VBench中,万相2.1超越了Sora、Luma、Pika等国内外开源模型。 万相2.1可以在comfyui上自由调用,支持文生视频、图生视频和视频生视频,而且现在还出现了很多wan2.1的lora,今天我们一起来学习wan2.1的本地部署。 一、安装插件 在comfyui中调用万相2.1模型需要用到WanVideoWrapper插…- 13.6k
- 13.6k
❯
个人中心
购物车
优惠劵
今日签到
有新私信
私信列表
搜索
客服
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!