Tag Archives: AI

AIGC

玩转StableDiffusion.8——借助lora:Pixel生成动画序列图

接触StableDiffusion这么久,昨天终于看到了一个和自己本行接近的应用:通过专用Lora做动画序列图,这是C站给出的效果:

于是马上下载了对应的大模型和Lora。具体做法并不复杂,大模型选择counterfeitxl_v25,Lora选择Pixel_Xl_V1,正向提示词基本也是照葫芦画瓢:“1Girl,red short “hair,purple_sailor_dress,((((((side view, running, sequence frames)))))),,masterpiece,best,quality,White background,”,其他保持默认

然后启用一个ControlNet,选择OpenPose,上传以前项目里的动画序列作为动作模版,预处理获取姿态,但实际运行预处理效果并不好,预处理出来,总是得不到正确的动作姿态,换了几个也都不行~~
换个思路:把示例图换成真人会怎么样?于是找了一段跑步视频,截几张图拼起来~~~~StableDiffusion果然更多还是给真人用的,姿态一下只就出来了:

来看运行效果:


~~实话说,效果不算好。不过,这个方向是对的,以AIGC的发展速度,相信用不了多久,就能炼出作为生产力的专用大模型和Lora ^_^
——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.7——InstantId制作风格化照片

上次提到使用InstantId做换脸,这次就试试其官方突出推广的“风格化照片”功能,先来看看成果,第一组是原图,下面是各种风格转化效果







有点感觉吧~~有几个其实并不理想,如果多跑几张,应该会有更好的效果,无奈InstantId对显存要求很高,我的10G显卡跑着有点吃力,每张图基本都要5-10分钟以上(⊙o⊙)…
废话不错说,下面是基本的操作步骤~~其实和之前使用图生图做换脸是一样的:


——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.6——任意更换电商图背景

无意间看到了使用StableDiffusion更换商品图背景的方法,这里分享出来,比ps来的要简单些,而且融入更好。首先,需要安装一个名为“rembg”的插件,然后切换到“后期处理”界面,上传一个淘宝找来的香水图片,选择最下面“移除背景”、选择“u2net”、“回送蒙版”,点击”生成”按钮,即可得到一张黑白的蒙版图。这里注意,第一次运行可能会需要下载模型,时间会比较久:

下载蒙版图,(我这个示例图找的不太好,前景的标签也被加进去了,可以到ps里处理一下,把左边标签留下的白框涂掉)。切换到“图生图”、“上传重绘蒙版”,分别上传刚才的商品图、和蒙版图,提示词输入你想要的效果,如下图设置,比较重要的是,因为我们是要整个换背景,所以最下方“重绘幅度”设置为1。ok,点击“生成”,稍等片刻,既可以看到效果。

可以看出,输出图自然给了原图瓶子立体和阴影效果,还是很不错的。

当然,有时因为对提示词理解的原因,输出图会多出一个“瓶子”,比如下面这样…这时可以尝试换换提示词,或者点生成几张。

当然,同样的方法也可以给人换背景,不过效果不如“规则的商品”更容易控制,大家感受一下:

——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.5——用InstantId换脸

“InstantID 是由InstantX项目组推出的一种SOTA的tuning-free方法,只需单个图像即可实现 ID 保留生成,并支持各种下游任务”。它的项目主页在这里:https://github.com/InstantID/InstantID,下面是官方效果图

相对之前玩过的easyphoto,InstantID最大的优势是省去了训练Lora的步骤,今天,我们先来试用InstantId的换脸功能。InstantID目前是通过ControlNet集成到StableDiffusion内,具体需要以下几个步骤:
1. 检查ControlNet版本不低于1.441、StableDiffusion版本不低于1.8.0
2. 下载模型、预处理器和配置文件,并放入对应目录,下载地址:https://github.com/Mikubill/sd-webui-controlnet/discussions/2589,需要下载的下列七个文件:1k3d68.onnx、glintr100.onnx、scrfd_10g_bnkps.onnx、genderage.onnx、2d106det.onnx、ip-adapter_instant_id_sdxl.bin、control_instant_id_sdxl.safetensors。5个onnx配置文件放入:webui根目录/extensions/sd-webui-controlnet/annototort/downloads/insightface/models/antelopev2。另外两个文件放入:webui根目录/extensions/sd-webui-controlnet/models
ok,重启webui后,开始操作
1. 切换到图生图,大模型选择SDXL或SDXLTurbo类模型,上传模仿图片。为了得到相对更好的效果,如果是Turbo模型,Steps设置为5-7即可、CFG设置为1.5左右;非Trubo模型Steps保持默认20,CFG设置为3-5;输入一组符合模仿图特征的提示词
2. 打开一个ControlNet单元,上传脸模图片,按下图设置

3. 再打开一个ControlNet单元,上传与图生图相同的模仿图图片

ok,点击“生成”按钮,稍等片刻,看看效果:

换一组,再来一次:

——over
转载请注明出处: 昆仑的山头

AIGC

ComfyUI学习笔记.2——ComfyUI&AnimateDiff制作动画

互联网的存在让学习变成了一个成本极低的事情,以前是各种图文教程,这几年视频网站兴起,B站、油管都有大量的教学视频,就连开源项目也都自带方便的学习入口,只要你想学,各种资源随手一抓一大把。首先,开始正题之前,先让我们来赞美上帝、赞美共享和开源精神…阿门…
ComfyUI版AnimateDiff项目地址:https://github.com/Kosinkadink/ComfyUI-AnimateDiff-Evolved。在项目说明后面,还提供了几个漂亮的示例,这些示例都是带ComfyUI工作流图的…只要将你感兴趣的工作流拖到你的ComfyUI界面,即可在本地运行这个工作流~~当然,前提是你要补上缺失的节点插件和模型。我们还是从开始一步一步说说怎么通过提示词生成动画片段:
首先,点击右侧导航条“清除”清理工作区、“加载默认”,然后按一下几步得到AnimateDiff的工作流
1. 添加新节点“CLIP停止层”,连接到大模型与提示词节点之间,数值设置为-2
2. 添加“VAE加载器”节点到“VAE解码节点”,根据大模型版本是否是XL,选择VAE模型的版本
3. 添加“AnimateDiff Evo -> AnimateDiff加载器”节点,连接到大模型和采样器两个模型之间
4. 从输出端“VAE解码器 – 图像”拉出、新建“合并为视频”节点,保持默认帧率8,可以选择输出格式为gif,或是mp4
5. 在画面尺寸节点,调整批次大小到16,16÷8=2,将输出长度为2秒的视频
——-至此,简单输入一个关键字,看能否正常输出视频。(我这里工作流里还加了一个“墨心”Lora)

输出结果

上面演示视频只有两秒,如果大家尝试加大批次数到超过32,会发现报错,提示说最多只能生成32帧视频,要突破这个限制,需要在加入一个上下文节点,下面我们顺道把另外几个辅助点也一起都加上:
6. 新建“上下文设置”节点,连接到“AnimateDiff加载器”上面的“上下文设置”。
7. 新建“动态Lora”节点,连接到“AnimateDiff加载器”上面的“动态LORA”,选择对应的Lora,可以控制镜头运动;另外,动态LORA节点可以串联多个,实现更多动态运动。
——这里可以再点击生成按钮,试试镜头运动和提高时长的输出效果。
8. 安装FizzNodes插件节点,新建“Fiz添加节点 -> 提示词调度”,添加提示词调度节点,替换原有的正向提示词节点
9. 在提示词调度的第一个文本框可以定义每一帧的动作,第二个文本框输入正常的提示词;注意,这里第一个文本框的格式虽然没有花括号方括号,但类似json格式,也就是需要英文双引号、冒号、行逗号
10. 将批次增加到48,也就是6秒,同时忽略Lora节点(一方面为了能看到帧序列关键字是否生效,另一方面加了Lora以后,输出会更“稀碎”^_^)
ok,试试最终输出效果

素材结果

后记:可以看到输出视频非常“丝滑”…仅此而已,很明显角色的一致性是有问题的…只能说,还要继续努力、提高可控性。其实,现阶段无论是StableDiffusion,还是ComfyUI,生成的视频都相对前不久OpenAI新发布的Sora,都是小儿科,可控性很低。(当然,也是因为我刚入门,对很多控制手段都还不了解。而且,Sora也只是发布了一段演示视频,外界还不知道它的具体做法。)不过,现阶段开源免费的做的最好的也就是StableDiffusion和ComfyUI,而且,以这两年AIGC发展的速度,相信用不了多久,开源领域也会出现Sora同级别的产品

——over
转载请注明出处: 昆仑的山头