前言:
在AI绘画领域,风格复刻一直是创作者追求的目标。Stable Diffusion推出的IP-Adapter功能,彻底改变了这一过程——无需繁琐的LoRA训练,仅凭一张参考图即可轻松复刻风格。这款“垫图神器”不仅大幅降低了技术门槛,更为创意表达提供了无限可能。快来探索IP-Adapter,开启你的高效创作之旅!
ip-adapter是什么?
ip-adapter是腾讯Ai工作室发布的一个controlnet模型,可以通过stable
diffusion的webui使用,这个新的功能简单来说,他可以识别参考图的艺术风格和内容,然后生成相似的作品,并且还可以搭配其他控制器使用。可以说SD已经学会临摹大师的绘画并且运用到自己的作品上了。
腾讯ai实验室 论文资料:https://ip-
adapter.github.io/
IP-adapter的github地址(文末可自行扫描获取)
2.ip-adapter生成效果
官方对ip-adapter进行了测试,如下图,第一列是输入的图片参考,第二列是输入的其他控制参数。最后一列是使用ip-
adapter生成的效果,看测试效果能明显看出,ip-adapter的方法不仅在图像质量方面优于其他方法,而且生成的图像与参考图像更好地对齐。
ip-adapter使用SD1.5的模型效果明显优于SDXL模型的效果,不知道是不是由于官方训练时使用的基本都是SD1.5模型的原因。
这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
3.ip-adapter如何使用?
首先,我们打开webui界面,在controlnet选择ip-
adapter,选择一张参考图,我上传了原神八重神子,然后,我们选择一个和参考图片风格类似的二次元大模型,调整预处理器和图片尺寸,最后点击生成按钮。
生成效果对比:
从生成图可以看到人物的形象,姿态复刻得很接近了。
再使用卡通头像作为试验:受大模型以及提示词影响,相识度略有下降。
4.如何在SD WEIUI 下载使用ip-adapter呢?
环境要求:
1.将本地的stable diffusion整合包(比如秋叶版本的)webui的版本更新到v1.6。
2.将controlnet更新到v1.1.4之后的版本。
controlnet模型安装:准备好环境之后,需要下载controlnet最新的ip-adapter模型, 放到stable-diffusion-
webui根目录extensionssd-webui-controlnet’models。
5.ip-adapter出现错误,如何解决?
检查webui版本是否是v1.6及以后的版本。
controlnet的ip-adapter模型是否安装并启用。
如果未安装,请使用上方的网盘链接进行下载。
3.检查webui根目录extensionssd-webui-controlnetannotatordownl oadsclip_vision
目录里有没有这两个模型:【clip_g.pth】【clip_h.pth】
4.如果以上都不能解决问题,请更新一下pytorch版本。打开启动器,在“高级选项”-“环境维护”-选择至少torch2.0.0版本及以后的版本安装更新。
总结,在人物形象和画风复刻的2个层面上,ip-
adapter的效果可圈可点。优势就是不需要训练lora,能达到基本的一致性效果。在商业应用层面,可以精准捕捉客户对整体氛围的需求,快速生成AI效果图供客户选择。
这份完整版的SD整合包已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
评论(0)