Monthly Archives: 三月 2024

AIGC

玩转StableDiffusion.4——用EasyPhoto实现丝滑换脸

EasyPhoto是一个集模型训练、文生图、图生图、文生视频、图生视频于一体的SD插件,功能强大,操作简便,今天就来看看如果用它来做AI换脸。
安装好EasyPhoto以后,SD的webui的上导航就会出现EasyPhoto选项卡,点进去以后,默认就是“训练”Lora的界面。这里可以选择不少于5张面部图片,尽量包含各种表情、各种角度。我们就来请出一位和蔼可亲的大叔来做模特,把图片上传到“训练”内

右边“高级选项”中,选择“人物Lora”、选一个比较通用的写实大模型。“max train steps”和“max steps per photos”,分别是训练步数,和每张图片训练多少次,如果不想训练过程太久,可以保持默认选项,下面的验证选项“Validation”建议取消勾选,否则不仅训练过程会变慢,而且还很容易报错、中断训练过程。ok,点击橙色的“Start Training”按钮,输入Lora名称,开始训练
16张图,按上图的设置,手头这台电脑显卡是10G3080,训练时间大概是20~30分钟
~~训练完成,切换到“Photo Inference”选项,测试一下训练效果。先使用“Photo2Photo – Template Gallery”,选一张easyphoto自带的模版图片,下侧大模型,尽量和训练Lora时保持一致,Num of Faceid选1,user_0 id选择刚才训练的Lora(如果没有,点一下右侧的刷新按钮),点击橙色按钮,稍等片刻,既可以看到换脸效果

下方“高级选项”,可输入更多提示词,对输出结果进行更多调整。勾选选择“Display Face Similarity Scores”,可以看到当前输出结果,是参考自哪张训练图。
换一种同性别的证件照:

可以看出easyphoto并非简单换脸,而是会做一定程度的融合,具体的融合参数,可通过“高级选项”进行设置。
切换到“Sing Image Upload”,上传几张自定义图片试试效果:


另外试了一下easyphoto的图生视频选项,效果很渣,等调整好了,再拿出来展示o(* ̄︶ ̄*)o
——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.3——使用tile把随手涂鸦变成美图

ControlNet的出现,在很大程度上弥补了StableDiffusion出图的不可控性,今天就来试试使用里面的tile预处理器,来将随手画的一个草图变成一棵逼真的老树,先看原图:

首先确保已经安装了ControNet插件,模型下载地址:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
“文生图”,输入关键字:1tree,masterpiece,best quality,选择ControNet,“启用”,上传上面的草图,预处理器选择“tile_resample”,模型选择“control_v11file_sd15_tile”,其他保持默认设置

点击“生成”,成品图:

怎么样,纹理细节补充的很完美吧^_^
有人说,同样的功能,“图生图”也能完成。那么,咱们就来比较一下,同样一张草图,“图生图”的输出结果

——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.2——拒绝脸崩,ADtailer的使用

初试StableDiffusion,最容易碰到的问题就是成品脸部异常,表情诡异、甚至不是人脸。特别是当画面中人物较多,或清晰度较低时,出现这种问题的概率更高…比如下面

这时,可以把图片导入到“图生图”,然后逐个“局部重绘”,选中面部后重新渲染。缺点是,这样做太麻烦。那么,有没有更高效的解决方案?有的,插件ADtailer就可以解决这种问题。
ADtailer插件安装地址:https://github.com/bing-su/adetailer.git。安装后,还需要去huggingface下载对应的模型,地址:https://huggingface.co/Bingsu/adetailer/tree/main,下载里面的*.pt文件,放入stable-diffusion-webui/models/adetailer目录,“应用更改并重启”,回到“文生图”界面,选择“启用After Detailer”,“After Detailer模型”选择“face_yolov8n_v2.pt”,如下图

同样的关键字,点“生成”。这次,在图片初稿出现以后,会看到预览区域人物面部出现红框“face 0.x”的字样,这就是插件正在对面部做矫正:

成品:

除了矫正面部,ADtailer还可以选择多个单元,选择对应的模型,修复手部、身体
——over
转载请注明出处: 昆仑的山头

AIGC

玩转StableDiffusion.1 ——安装与试运行

去年曾经用手头mac本装过一次StableDiffusion,当时运行也成功了,但过了一段时间,突然就不行了。因当时忙于别事,没再深究。春节闲来无事,便准备在手头的windows台式机上试试。由于这台windows之前只用来玩游戏,比较“纯洁”,所以安装过程基本顺利。网上有很多StableDiffusion的安装教程,这里只说一下自己碰到的坑吧:python的版本要求。
开始没多想,直接先去python官网找最新版本的python安装,然后下载stable-diffusion-webui安装包,在已打开科学上网的前提下,启动里面的webui.bat,居然失败了…后来发现问题:StableDiffusion所使用的pytorch,python版本不能大于3.10.6。于是回头一路找python降级的方法~~看大家评价,好像不太容易。
那就换个思路吧,用conda装多版本~~安装conda以后,单独create一个AICG专用的python环境,然后将下面的语句加到webui.bat的靠前位置:
set PYTHON=C:/Dev/conda/envs/aipy3.10/python.exe
再次启动,OK,安装成功、web界面成功打开!
(后来才知道,国内有大神做的“秋叶安装包”,里面集成了环境、安装、模型管理等各种功能,NB到掉渣,大家有需要的,可以拿它试试)
~~测试效果,简单提示词这里就不放了,给个复杂点的:best quality,1girl,((color hair)),[pink:blue:pink:blue] hair,purple long dress,(1dog),flowers meadows,[red flower:0.5],[yellow flower::0.6],出来效果:


这里用的大模型是majicmixRealistic_v7,比较写实,效果还不错吧^_^
不过也有瑕疵,可能因为要素过多,裙子颜色、狗,都不太稳定,定义的花海颜色的生效时间也不太对
好在,脸比较完美o(* ̄︶ ̄*)o
~~当然,这么完美的脸,是用了魔法的,具体是什么,下次再说^_^
————
对了,补充一句:相对mac的m1max,StableDiffusion在3080显卡上的出图速度提升了不下5倍,小分辨率的基本都是秒出!!
——over
转载请注明出处: 昆仑的山头