Stable Diffusion web UI是由AUTOMATIC1111开发的一个基于Gradio库的Stable Diffusion网页界面,它为用户提供了强大而灵活的AI图像生成体验。在AI225导航,我们致力于为用户提供最全面的AI工具使用指南,本文将详细介绍如何充分利用Stable Diffusion web UI的强大功能。
项目GitHub地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui
什么是Stable Diffusion web UI?¶
Stable Diffusion web UI是一个开源项目,为Stable Diffusion模型提供了用户友好的网页界面。它最初由AUTOMATIC1111创建,现在由活跃的社区共同维护,是目前最受欢迎的Stable Diffusion界面之一。该项目具有以下特点:
- 基于Gradio库实现的网页界面
- 支持txt2img(文本到图像)和img2img(图像到图像)两种基本模式
- 提供丰富的图像处理功能和参数调整选项
- 支持多种扩展和自定义脚本
- 活跃的社区支持和持续的更新迭代
- 跨平台支持(Windows、Linux、macOS)
- 支持多种硬件配置(NVIDIA、AMD、Intel、Apple Silicon)
主要功能¶
基础功能¶
- txt2img模式:根据文本提示生成图像
- img2img模式:基于参考图像生成新图像
- Outpainting(外绘):扩展图像边界
- Inpainting(内绘):修改图像特定区域
- Color Sketch(色彩草图):基于草图生成彩色图像
- 一键安装和运行脚本(但仍需安装python和git)
高级功能¶
- Prompt Matrix(提示矩阵):同时测试多个提示词组合
- Stable Diffusion Upscale(放大):提高图像分辨率
- Attention(注意力):控制模型对提示词特定部分的关注度
- 使用
((关键词))增加注意力 - 使用
(关键词:1.21)语法调整权重 - 选择文本并按
Ctrl+Up或Ctrl+Down(在MacOS上为Command+Up或Command+Down)自动调整选中文本的注意力(由匿名用户贡献的代码) - Loopback(循环处理):多次运行img2img处理
- X/Y/Z plot:绘制不同参数的三维图像图表
- Composable-Diffusion(可组合扩散):一次使用多个提示词的方法
- 使用大写
AND分隔提示词 - 也支持提示词权重:
a cat :1.2 AND a dog AND a penguin :2.2 - 无提示词令牌限制(原始Stable Diffusion最多允许使用75个令牌)
- Clip skip:跳过CLIP模型的最后几层
- xformers支持:对选定显卡大幅提升速度(在命令行参数中添加
--xformers) - 通过扩展:历史记录选项卡:在UI内方便地查看、直接和删除图像
- 永久生成选项
- 支持RunwayML的专用内绘模型
- 通过扩展:美学梯度:使用CLIP图像嵌入生成具有特定美学的图像
- Stable Diffusion 2.0支持
- Alt-Diffusion支持
- 放宽分辨率限制:生成图像的尺寸必须是8的倍数而不是64
- 可以从设置屏幕重新排序UI中的元素
- 支持多种采样方法:
- 调整采样器eta值(噪声乘数)
- 更高级的噪声设置选项
- 随时中断处理
- 4GB显卡支持(也有2GB工作的报告)
- 批次的正确种子
- 实时提示词令牌长度验证
- 设置页面
- 从UI运行任意Python代码(必须使用
--allow-code运行以启用) - 大多数UI元素的鼠标悬停提示
- 可以通过文本配置更改UI元素的默认值/最小值/最大值/步长值
- 平铺支持:创建可以像纹理一样平铺的图像的复选框
- 进度条和实时图像生成预览
- 可以使用单独的神经网络生成预览,几乎不需要VRAM或计算要求
- 进度条中显示预计完成时间
- 一个单独的UI:您可以选择并预览要添加到提示词中的嵌入、超网络或Lora
- API支持:允许通过编程方式访问功能
- 支持safetensors格式的检查点
- Segmind Stable Diffusion支持
模型与训练功能¶
- Textual Inversion(文本反转):训练自定义文本嵌入
- 可以拥有任意数量的嵌入并使用任何您喜欢的名称
- 使用每个令牌不同向量数的多个嵌入
- 支持半精度浮点数
- 可以在8GB显存上训练(也有6GB显存工作的报告)
- Hypernetworks(超网络):训练自定义网络以改变输出风格
- Loras:类似于超网络但更美观的风格控制方法
- 训练选项:预处理图像、裁剪、镜像、自动标记等
- Checkpoint Merger:一个选项卡,允许您将最多3个检查点合并为一个
- 动态重新加载检查点
- 支持加载不同VAE:可以从设置屏幕选择加载不同的VAE
- 支持safetensors格式的检查点
- Segmind Stable Diffusion支持
图像处理功能¶
- Extras标签页:
- GFPGAN:修复面部的神经网络
- CodeFormer:GFPGAN的替代面部修复工具
- RealESRGAN:神经网络放大器
- ESRGAN:支持多种第三方模型的神经网络放大器
- SwinIR和Swin2SR(参见这里:https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2092):神经网络放大器
- LDSR:潜在扩散超分辨率放大
其他实用功能¶
- Negative Prompt(负面提示):指定不希望在图像中看到的内容
- Styles(样式):保存部分提示词并通过下拉菜单轻松应用
- Variations(变化):生成微小差异的相似图像
- Seed resizing(种子调整):以略微不同的分辨率生成相同图像
- CLIP interrogator:尝试从图像中猜测提示词的按钮
- Prompt Editing(提示词编辑):在生成过程中更改提示词
- Batch Processing(批处理):处理一组文件的img2img操作
- Img2img Alternative:反向欧拉方法的交叉注意力控制
- Highres Fix:一键生成高分辨率图片而不会出现通常的失真
- API支持:允许通过编程方式访问功能
- 进度条和实时预览:显示生成进度和预览图像
- DeepDanbooru集成:为动漫提示创建danbooru风格标签
- 生成参数保存:生成图像时使用的参数会随图像一起保存
- PNG保存在PNG块中,JPEG保存在EXIF中
- 可以将图像拖到PNG信息选项卡来恢复生成参数并自动复制到UI中
- 可以在设置中禁用
- 可以将图像/文本参数拖放到提示框
安装与运行¶
在安装前,请确保满足所需的依赖项(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Dependencies),并按照以下说明进行操作:
- NVIDIA(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs)(推荐)
- AMD(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs) GPU
- Intel CPU、Intel GPU(集成和独立)(https://github.com/openvinotoolkit/stable-diffusion-webui/wiki/Installation-on-Intel-Silicon)(外部wiki页面)
- Ascend NPU(https://github.com/wangshuai09/stable-diffusion-webui/wiki/Install-and-run-on-Ascend-NPUs)(外部wiki页面)
或者使用在线服务(如Google Colab):
- 在线服务列表(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Online-Services)
Windows系统安装(NVIDIA显卡)¶
方法一:使用发布包¶
- 从v1.0.0-pre(https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre)下载
sd.webui.zip并解压 - 运行
update.bat - 运行
run.bat更多详情请参见Install-and-Run-on-NVidia-GPUs(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs)
方法二:自动安装¶
- 安装Python 3.10.6(https://www.python.org/downloads/release/python-3106/)(注意:更新版本的Python不支持torch),勾选"Add Python to PATH"
- 安装git(https://git-scm.com/download/win)
- 通过运行
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git下载stable-diffusion-webui仓库 - 以普通用户身份从Windows资源管理器运行
webui-user.bat
注意:必须使用Python 3.10.6版本,更新的Python版本存在PyTorch兼容性问题
Linux系统安装¶
- 安装依赖:
# Debian-based:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# Red Hat-based:
sudo dnf install wget git python3 gperftools-libs libglvnd-glx
# openSUSE-based:
sudo zypper install wget git python3 libtcmalloc4 libglvnd
# Arch-based:
sudo pacman -S wget git python3
如果系统较新,需要安装python3.11或python3.10:
# Ubuntu 24.04
sudo add-apt-repository ppa:deadsnakes/ppa
sudo apt update
sudo apt install python3.11
# Manjaro/Arch
sudo pacman -S yay
yay -S python311 # 不要与python3.11包混淆
# 仅针对3.11版本
# 然后在启动脚本中设置环境变量
export python_cmd="python3.11"
# 或在webui-user.sh中
python_cmd="python3.11"
- 导航到您想要安装webui的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
或者直接在任何您想要的位置克隆仓库:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
- 运行
webui.sh - 查看
webui-user.sh获取选项
注意:某些Linux发行版可能需要额外的依赖项,具体请参考官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs)
Apple Silicon安装¶
Apple Silicon的安装说明可以在官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon)找到。
注意:Apple Silicon用户需要特别注意依赖项的安装和配置
使用技巧¶
1. 提示词技巧¶
基本提示词结构:
[主体], [细节描述], [风格], [构图], [ lighting/光照], [color/色彩]
示例:
a beautiful woman, detailed face, long brown hair, blue eyes, wearing a red dress, standing in a garden, photorealistic, 8k, sharp focus, studio lighting, vibrant colors
使用负面提示词:
low quality, worst quality, blurry, deformed, disfigured, poorly drawn face, mutation, mutated
2. 注意力控制¶
使用括号控制模型对提示词不同部分的关注度:
(keyword):增加1.1倍注意力((keyword)):增加1.21倍注意力(keyword:1.5):增加1.5倍注意力[keyword]:减少注意力
3. 提示词编辑¶
在生成过程中更改提示词:
a watermelon, [to:anime girl:when 10]
这会在生成过程的第10步将主题从西瓜改为动漫女孩。
您也可以使用更复杂的语法:
[from:to:when]
[from:to:when:to:when]
例如:
a watermelon, [to:anime girl:when 10], [to:with cat:when 15]
这会在第10步将主题从西瓜改为动漫女孩,然后在第15步添加一只猫。
4. 使用多个提示词¶
使用AND组合多个提示词:
a cat :1.2 AND a dog AND a penguin :2.2
5. 图像参数调整¶
- Sampling steps(采样步数):通常20-30步即可获得良好效果
- CFG Scale(提示词相关性):通常7-12之间,值越高越遵循提示词
- Resolution(分辨率):建议使用512×512或768×768的倍数
- Batch count(批次数)和Batch size(批量大小):控制生成图像数量
高级应用¶
1. 模型合并¶
使用Checkpoint Merger选项卡可以合并最多3个模型:
1. 选择主模型(Primary model)
2. 选择要合并的第二个模型(Secondary model)
3. 可选:选择第三个模型(Tertiary model)
4. 调整合并比例(Multiplier)和插值方法
5. 选择保存格式(ckpt或safetensors)
6. 点击合并按钮
2. 自定义脚本¶
Stable Diffusion web UI支持多种自定义脚本(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Scripts),包括:
- 提示词矩阵:同时测试多个提示词组合
- X/Y/Z图表:绘制不同参数的三维图像图表
- 彩色草图:基于草图生成彩色图像
- 循环处理:多次运行img2img处理
- 分层合成:将多个图像合成为一个
- 等等
您可以通过在txt2img或img2img选项卡的底部脚本下拉菜单中选择这些脚本。
3. 扩展安装¶
通过扩展选项卡可以安装各种社区开发的扩展,增强功能:
1. 点击"Available"选项卡
2. 选择要安装的扩展
3. 点击"Install"按钮
4. 安装完成后,进入"Installed"选项卡
5. 点击"Apply and restart UI"按钮应用更改
一些推荐的扩展:
- 历史记录选项卡:方便地查看、直接和删除图像
- 美学梯度:使用CLIP图像嵌入生成具有特定美学的图像
- 额外的预处理器和训练选项:增强训练功能
4. 使用LoRA和Hypernetworks¶
- 将LoRA文件放入
models/Lora目录 - 将Hypernetwork文件放入
models/hypernetworks目录 - 在界面中选择要使用的模型
- 调整权重以控制效果强度
- 可以同时使用多个LoRA或Hypernetworks
您也可以使用专门的UI来选择、预览和管理这些模型:
1. 在主界面中找到LoRA或Hypernetworks选项卡
2. 浏览可用模型并预览效果
3. 点击添加按钮将其应用到当前提示词
常见问题解答¶
Q: 我的显卡只有4GB内存,可以使用Stable Diffusion web UI吗?¶
A: 是的,Stable Diffusion web UI支持4GB显卡(甚至有报告称2GB也能工作)。您可能需要使用--lowvram或--medvram参数启动。对于低显存显卡,还可以考虑使用--xformers参数来提高性能。
重要提示:低显存用户建议同时使用
--medvram --xformers参数以获得最佳性能
Q: 如何提高生成图像的质量?¶
A: 尝试以下方法:
- 增加采样步数(20-30)
- 调整CFG Scale(7-12)
- 使用高清修复(Highres fix)
- 尝试不同的采样器
- 使用更好的模型
- 使用负面提示词排除不想要的元素
- 尝试不同的提示词结构和关键词顺序
Q: 如何保存和重用生成参数?¶
A: 生成图像时,参数会自动保存在图像的PNG信息块或JPEG的EXIF中。您可以将图像拖到PNG信息选项卡来恢复参数并自动复制到UI中。也可以使用"读取生成参数"按钮将参数加载到UI中。
Q: 如何更新Stable Diffusion web UI?¶
A: 在Windows上运行update.bat,在Linux上运行git pull。如果您使用的是发布包,请下载最新版本。
更新建议:建议定期更新以获得最新功能和安全修复,但在更新前请备份重要模型和配置
Q: 我可以使用Stable Diffusion 2.0模型吗?¶
A: 是的,Stable Diffusion web UI支持Stable Diffusion 2.0。有关详细说明,请参阅wiki中的Stable Diffusion 2.0支持(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#stable-diffusion-20)部分。
Q: 如何训练自己的Textual Inversion或Hypernetwork?¶
A: 您可以使用训练选项卡来训练Textual Inversion嵌入或Hypernetworks。首先,准备一组训练图像,然后在训练选项卡中选择模型类型、设置参数并开始训练过程。训练完成后,您的新模型将自动出现在相应的选择列表中。
Q: 如何安装和使用扩展?¶
A: 在扩展选项卡中,您可以浏览可用扩展,点击安装,然后应用并重启UI。安装后,扩展的功能通常会出现在新的选项卡或现有选项卡的附加选项中。
Q: 为什么我的生成速度很慢?¶
A: 生成速度慢可能由以下原因导致:
- 没有使用--xformers参数(如果您的显卡支持)
- 使用了高分辨率设置
- 采样步数设置过高
- 系统资源不足
- 尝试使用--medvram或--lowvram参数优化内存使用
Q: 如何解决CUDA内存不足的错误?¶
A: 尝试以下方法:
- 使用--lowvram或--medvram参数启动
- 降低生成分辨率
- 减少批量大小
- 关闭其他占用GPU内存的应用程序
- 使用--xformers参数减少内存使用
- 考虑使用CPU模式(添加--use-cpu参数)
- 检查系统是否有足够的虚拟内存
最佳实践¶
1. 模型管理¶
- 将模型文件放在
models/Stable-diffusion目录中 - 将VAE文件放在
models/VAE目录中 - 将LoRA文件放在
models/Lora目录中 - 将Hypernetwork文件放在
models/hypernetworks目录中 - 将Textual Inversion嵌入放在
embeddings目录中 - 定期清理不需要的模型以节省空间
- 为模型创建子文件夹以便更好地组织
- 使用有意义的文件名,包含模型名称、版本和创作者信息
- 定期备份您的重要模型和配置文件
2. 提示词优化¶
- 从简单提示开始,逐步添加细节
- 使用负面提示词排除不想要的元素
- 尝试不同的提示词结构和关键词顺序
- 保存有效的提示词以便将来使用
- 使用注意力机制强调重要元素
- 尝试不同的采样器和参数设置
- 使用样式功能保存和应用常用的提示词组合
- 使用提示词编辑功能在生成过程中调整提示词
3. 硬件优化¶
- 使用
--xformers参数(支持的显卡)可显著提高速度 - 考虑使用
--medvram或--lowvram参数以减少VRAM使用 - 关闭不必要的应用程序以释放系统资源
- 确保有足够的磁盘空间用于模型和输出图像
- 使用SSD存储模型以提高加载速度
- 考虑增加系统RAM以提高整体性能
- 监控GPU温度,确保不会过热
4. 安全考虑¶
- 从可信来源下载模型和扩展
- 定期更新软件以获取安全补丁
- 注意生成内容的版权和使用限制
- 尊重模型和数据的许可协议
- 不要在公共网络上共享敏感的生成内容
- 谨慎处理可能生成不当内容的提示词
- 考虑使用内容过滤器来避免生成不当内容
- 了解并遵守您所在地区的AI生成内容相关法规
5. 工作流程优化¶
- 创建标准化的提示词模板
- 建立模型和参数的测试流程
- 使用批处理功能提高效率
- 组织输出文件夹以便于管理和查找
- 定期备份重要的生成结果和配置
- 使用版本控制管理您的自定义脚本和配置
- 建立质量评估标准以筛选最佳结果
- 记录成功的生成参数和提示词组合
项目状态说明¶
重要提醒:Stable Diffusion web UI是一个活跃的开源项目,由全球开发者社区共同维护。项目持续更新,新功能和修复会定期发布。建议用户:
- 关注项目的GitHub仓库(https://github.com/AUTOMATIC1111/stable-diffusion-webui)获取最新信息
- 定期查看官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki)了解新功能
- 参与社区讨论,分享使用经验和技巧
- 及时更新到最新版本以获得最佳体验
总结¶
Stable Diffusion web UI是一个功能强大、灵活且用户友好的AI图像生成工具。通过掌握其核心功能和高级技巧,您可以创建令人惊叹的AI艺术作品。关键要点包括:
- 了解基础功能:熟悉txt2img和img2img模式,掌握基本参数调整
- 学习提示词技巧:编写有效的提示词是获得高质量图像的关键
- 探索高级功能:尝试LoRA、Hypernetworks和自定义脚本以扩展创作可能性
- 优化硬件使用:根据您的系统配置调整设置以获得最佳性能
- 参与社区:加入社区讨论,学习他人的技巧和经验
Stable Diffusion web UI为AI艺术创作提供了无限可能。通过不断实践和探索,您将能够充分发挥这一强大工具的潜力,创作出独特的数字艺术作品。
最后提醒:AI技术发展迅速,本指南基于当前版本编写。建议定期查看官方文档获取最新信息。
想了解更多AI工具使用技巧?请访问AI225导航,我们提供最全面的AI工具使用指南和资源。
