本篇重点
Stable Diffusion-webui-forge的整合包下载,安装,基础知识和软件的使用技巧,webui-forge在原有的webui的基础上进行了升级,支持sd3.5和flux生图,FLUX需要的F1模型,双clip,VAE已放置到相应文件夹内,下载后可以直接调用,演示所使用的麦橘写实大模型和冰雪奇缘lora也放到了对应文件夹下,下载后可以直接调用,演示的提示词搭配大模型及lora可以在软件上直接复刻
评测
演示所使用的是笔记本4070显卡,8G显存,FLUX会爆显存,没办法测试,所以演示的是使用麦橘写实大模型完成绘图,参数可以参照我的进行调整,如果结束绘图显示黑色的图片,大概率是爆显存了,调整图片大小再尝试,如果出现了噪点图,可能是VAE的问题,VAE栏空置再尝试。出一张1024*1024的图大概需要12.3秒左右
效果展示
右滑查看更多
整合包获取
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

一:整合包下载及安装
将整合包解压到无中文路径的文件夹内,如图所示
二:基础配置
基本保持默认即可,如果你使用的是comfyui,可以在高级选项>Forge设置>选择comfyui的models,使两个软件共用一套模型
三:模型放置(常用的放置地址)
大模型:根目录modelsStable-diffusion
lora:根目录modelsLora
VAE:根目录modelsVAE
clip:根目录modelstext_encoder
ControlNet:根目录modelsControlNet
四:实操演示
1:配置完后,点击控制台,一键启动,等待加载,加载完后会自动跳转网页
2:UI选择全部,大模型,VAE(有些大模型自带VAE,可以不选)
3:输入提示词添加Lora,并且修改权重
正向提示词
girl,solo,black hair,(blue dress:1.5),looking at viewer,(snow:1.2),snowing,(ice castle:1.2),red lips,blurry background,wind,outdoors,tiara,realistic,(upper part of the body:1.2),snowflakes,(stairs:1.2),long hair,lora:frozen:0.5,
负面提示词
drawing,painting,crayon,sketch,blurry,deformed,ugly,(deformed iris, deformed pupils, semi-realistic, cgi, 3d, render, sketch, cartoon, drawing, anime:1.4),text,close up,cropped,out of frame,low quality,jpeg artifacts,ugly,duplicate,mutated hands,poorly drawn hands,poorly drawn face,mutation,deformed,blurry,bad anatomy,bad proportions,disfigured,malformed limbs,missing arms,extra arms,extra legs,fused fingers,too many fingers,long neck,((nsfw)),sketches,tattoo,(beard:1.3),(low quality:2),(normal quality:2),normal quality,facing away,looking away,text,error,fewer digits,cropped,jpeg artifacts,signature,watermark,username,blurry,skin spots,acnes,skin blemishes,bad anatomy,fat,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,extra legs,too many fingers,long neck,cross-eyed,mutated hands,bad body,bad proportions,text,error,missing fingers,extra arms,missing fingers,(Worst quality,low quality,lowres:1.2),error,cropped,jpeg artifacts,out of frame,watermark,signature,
4:调节参数
5:点击生成
五:客户端问题解答
问题 | 备注 |
---|---|
embedding提示词集合 | 常用在反向提示词,防止崩坏等,省去了填写大量提示词的问题, |
反向提示词 | nsfw降低不该出现的图概率,图片崩坏建议使用embedding(例如NG-DeepNegative-V1-75T崩坏的人体结构,badhandv4改善手部细节) |
CFG | Classifier Free Guidance scale(分类器自由指导比例)是一个参数,用于控制模型应尊重你的提示的程度。如果CFG值太低,稳定扩散将忽略你的提示。太高时图像的颜色会饱和。 1–大多忽略你的提示。3–更有创意。7–遵循提示和自由之间的良好平衡。15–更加遵守提示,图片的对比度和饱和度增加。30–严格按照提示操作,但图像的颜色会过饱和。 CFG在4-10之间都非常适合,但最佳的还是建议将迭代步数还有采样方法结合起来看。 |
图片无损放大 | 二次元算法采用:R-ESRGAN 4X+Anime6B;处理真人 高清化/extras |
<>尖括号 | 主要用来调用lora,lora:文件触发:权重 |
clip终止层数 | ClipSkip为1:处理到最后一层(即所有层)ClipSkip为2:处理到倒数第二层(忽略最后一层)ClipSkip为3:处理到倒数第三层(忽略最后和倒数第二层)值较小,生成含有丰富提示词的插图;ClipSkip的值较大,生成忽略提示词的插图(被丢掉的提示词就越多) |
放大模型 | 相片类的:LDSR(但速度很慢),或者ESRGAN_4x(如果你想要超级清晰的细节和/或速度)。绘画类的:ESRGAN_4x(写实)提供高油漆纹理和细节,General-WDN提供更好的整体外观动漫类的:Anime6B,也适合将某些东西变成动画。 |
Tiled diffusion | 方案:指的是两种算法以供选择;覆盖图像尺寸:指的是能够做出超出原有SD模型的限制,做出更大的图像(比如类似于清明上河图的那种超宽影像)潜空间分块宽/高度:就是那个图里面的小框宽高度,一般来说选64-160之间的值(最佳的数值选取其实取决于你选的潜空间分块单批数量,以及你所用模型的最佳生成图片大小【模型最好使用未剪枝的】,一般的建议选择是96或128)潜空间分块单批数量:类似于生成图中的“单批数量”参数,这个看显卡性能,一般来说越大越快,这里的可供选择区间是1到8。潜空间分块重叠:重叠数值提高会减少融合中的接缝。显然,较大的重叠值意味着更少接缝,但会显著降低速度,因为需要重新绘制更多的小块。(一般建议使用MultiDiffusion时选择32或48,使用MixtureofDiffusers选择16或32) |
Tiled VAE | 这个是有关电脑性能的选项,勾选这个将会极大降低VAE编解大图所需的显存开销,几乎无成本的降低显存使用。以highres.fix为例,如果你之前只能进行1.5倍的放大,则现在可以使用2.0倍的放大。 不过一般来说你不需要更改默认参数,只有在以下情况下才需要更改参数: 一是当生成之前或之后看到CUDA内存不足错误时,请降低tile大小;二是当你使用的tile太小且图片变得灰暗和不清晰时,请启用编码器颜色修复。 |
采样器 | 老牌采样器经典Euler a (加a的是在每一次去操的时候增加一点新的噪点进去,每次生成都会变动,不收敛,去掉a的画面生成最后会趋近于稳定,可收敛)Euler DPM采样器DPM2算法的画面有提升,但是时长增加一倍,不推荐,带有Karras算法的采样器,8步后噪点更少,所以直接选择带有Karras的算法即可2S和2M的区别:S代表单步算法,M代表多步算法增加了相邻层之间的信息传递,所以选择带有M算法的即可,所以最后筛选:DMP++2M Karras 最推荐的算法,收敛,速度快,质量不错DMP++SDE Karras 随机微分方程,不收敛,高品质,速度慢,真实系追求画面可以选DMP++2M SDE Karras 2M和SDE的这种算法,不收敛,速度有所提升DMP++2M SDE Exponential 指数算法,不收敛,细节少一些,但是画面更柔和干净, DPM++3M SDE Karras DPM++3M SDE Exponential 这两个3M速度和2M一样,需要更多采样步数,调低CFG采样步数>30步效果更好,也就是采样步数超过30,可以尝试使用这一类算法 2023采样器Unipc 2023新采样器,统一预测矫正器,兼容性很好,收敛,10步左右就能生成可用画面Restart 每步渲染时间长些,但只需很少的采样步数,就能生成质量相当不错的图片,有潜力 如果你想使用快速且质量不错的东西,那么最好的选择是DPM++2M Karras,UniPC如果你想要高质量的图像并且不关心收敛,那么不错的选择是DPM++SDE Karras如果你喜欢稳定、可重复的图像,请避免使用任何ancestral samplers(加a的东西)。如果你喜欢简单的东西,Euler和Heun是不错的选择。 |
六:使用技巧及案例展示
脸崩的问题 |
---|
采样分配不够,近景可以得到更多的采样分配,脸崩概率小,远景的采样分配少,所以会出现脸崩的情况, 解决方法1:图片分辨率保持较低合理的范围,然后开启高清修复,图片放大两倍,图片分辨率就上来了,可以解决脸崩的问题,但不是最优解,因为高清修复是提高了整体的分辨率,脸部只是增加了一点,但是会大幅增加渲染时间 解决方法2:发送到图生图,利用蒙版把脸遮住,然后选择仅蒙版区域,可以高效解决脸崩问题(适合单个人脸,如果出现很多,则会大大增加工作量) 解决方案3:拓展安装(从网站下载):https://github.com/Bing-su/adetailer.git插件,然后到https://huggingface.co/Bingsu/adetailer/tree/main中下载face_yolov8m.pt,face_yolov8n.pt,face_yolov8n_v2.pt,face_yolov8s.pt,这几个用来修复人脸的模型had是修复手部的模型,person是用来增加人物整体细节的模型,放到SD目录/models/adetailer中,使用的时候勾选启用ADetailer,选择修复模型(mediapipe_face_full只能对真人生效),选择后下方框框输入detail face即可修复脸部(关键词如果增加微笑,生气,闭眼等,图片也会进行微调),也可以组合使用,单元1增加人物整体细节,单元2mediapipe_face_full下方框框输入detail face,单元3选择手部修复不加词, |
关于AI绘画技术储备
学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!
对于0基础小白入门:
如果你是零基础小白,想快速入门AI绘画是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案
包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!
需要的可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

1.stable diffusion安装包 (全套教程文末领取哈)
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。
2.stable diffusion视频合集
我们在学习的时候,往往书籍代码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入门stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

评论(0)