LogoAI225导航
AI项目

Stable Diffusion web UI完全指南:功能、安装与使用技巧

详细介绍AUTOMATIC1111的Stable Diffusion web UI项目,包括主要功能、安装方法、使用技巧和最佳实践

Stable Diffusion web UI是由AUTOMATIC1111开发的一个基于Gradio库的Stable Diffusion网页界面,它为用户提供了强大而灵活的AI图像生成体验。在AI225导航,我们致力于为用户提供最全面的AI工具使用指南,本文将详细介绍如何充分利用Stable Diffusion web UI的强大功能。

项目GitHub地址https://github.com/AUTOMATIC1111/stable-diffusion-webui

什么是Stable Diffusion web UI?

Stable Diffusion web UI是一个开源项目,为Stable Diffusion模型提供了用户友好的网页界面。它最初由AUTOMATIC1111创建,现在由活跃的社区共同维护,是目前最受欢迎的Stable Diffusion界面之一。该项目具有以下特点:

  • 基于Gradio库实现的网页界面
  • 支持txt2img(文本到图像)和img2img(图像到图像)两种基本模式
  • 提供丰富的图像处理功能和参数调整选项
  • 支持多种扩展和自定义脚本
  • 活跃的社区支持和持续的更新迭代
  • 跨平台支持(Windows、Linux、macOS)
  • 支持多种硬件配置(NVIDIA、AMD、Intel、Apple Silicon)

主要功能

基础功能

  • txt2img模式:根据文本提示生成图像
  • img2img模式:基于参考图像生成新图像
  • Outpainting(外绘):扩展图像边界
  • Inpainting(内绘):修改图像特定区域
  • Color Sketch(色彩草图):基于草图生成彩色图像
  • 一键安装和运行脚本(但仍需安装python和git)

高级功能

  • Prompt Matrix(提示矩阵):同时测试多个提示词组合
  • Stable Diffusion Upscale(放大):提高图像分辨率
  • Attention(注意力):控制模型对提示词特定部分的关注度
  • 使用((关键词))增加注意力
  • 使用(关键词:1.21)语法调整权重
  • 选择文本并按Ctrl+UpCtrl+Down(在MacOS上为Command+UpCommand+Down)自动调整选中文本的注意力(由匿名用户贡献的代码)
  • Loopback(循环处理):多次运行img2img处理
  • X/Y/Z plot:绘制不同参数的三维图像图表
  • Composable-Diffusion(可组合扩散):一次使用多个提示词的方法
  • 使用大写AND分隔提示词
  • 也支持提示词权重:a cat :1.2 AND a dog AND a penguin :2.2
  • 无提示词令牌限制(原始Stable Diffusion最多允许使用75个令牌)
  • Clip skip:跳过CLIP模型的最后几层
  • xformers支持:对选定显卡大幅提升速度(在命令行参数中添加--xformers
  • 通过扩展:历史记录选项卡:在UI内方便地查看、直接和删除图像
  • 永久生成选项
  • 支持RunwayML的专用内绘模型
  • 通过扩展:美学梯度:使用CLIP图像嵌入生成具有特定美学的图像
  • Stable Diffusion 2.0支持
  • Alt-Diffusion支持
  • 放宽分辨率限制:生成图像的尺寸必须是8的倍数而不是64
  • 可以从设置屏幕重新排序UI中的元素
  • 支持多种采样方法
  • 调整采样器eta值(噪声乘数)
  • 更高级的噪声设置选项
  • 随时中断处理
  • 4GB显卡支持(也有2GB工作的报告)
  • 批次的正确种子
  • 实时提示词令牌长度验证
  • 设置页面
  • 从UI运行任意Python代码(必须使用--allow-code运行以启用)
  • 大多数UI元素的鼠标悬停提示
  • 可以通过文本配置更改UI元素的默认值/最小值/最大值/步长值
  • 平铺支持:创建可以像纹理一样平铺的图像的复选框
  • 进度条和实时图像生成预览
  • 可以使用单独的神经网络生成预览,几乎不需要VRAM或计算要求
  • 进度条中显示预计完成时间
  • 一个单独的UI:您可以选择并预览要添加到提示词中的嵌入、超网络或Lora
  • API支持:允许通过编程方式访问功能
  • 支持safetensors格式的检查点
  • Segmind Stable Diffusion支持

模型与训练功能

  • Textual Inversion(文本反转):训练自定义文本嵌入
  • 可以拥有任意数量的嵌入并使用任何您喜欢的名称
  • 使用每个令牌不同向量数的多个嵌入
  • 支持半精度浮点数
  • 可以在8GB显存上训练(也有6GB显存工作的报告)
  • Hypernetworks(超网络):训练自定义网络以改变输出风格
  • Loras:类似于超网络但更美观的风格控制方法
  • 训练选项:预处理图像、裁剪、镜像、自动标记等
  • Checkpoint Merger:一个选项卡,允许您将最多3个检查点合并为一个
  • 动态重新加载检查点
  • 支持加载不同VAE:可以从设置屏幕选择加载不同的VAE
  • 支持safetensors格式的检查点
  • Segmind Stable Diffusion支持

图像处理功能

  • Extras标签页
  • GFPGAN:修复面部的神经网络
  • CodeFormer:GFPGAN的替代面部修复工具
  • RealESRGAN:神经网络放大器
  • ESRGAN:支持多种第三方模型的神经网络放大器
  • SwinIR和Swin2SR(参见这里:https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/2092):神经网络放大器
  • LDSR:潜在扩散超分辨率放大

其他实用功能

  • Negative Prompt(负面提示):指定不希望在图像中看到的内容
  • Styles(样式):保存部分提示词并通过下拉菜单轻松应用
  • Variations(变化):生成微小差异的相似图像
  • Seed resizing(种子调整):以略微不同的分辨率生成相同图像
  • CLIP interrogator:尝试从图像中猜测提示词的按钮
  • Prompt Editing(提示词编辑):在生成过程中更改提示词
  • Batch Processing(批处理):处理一组文件的img2img操作
  • Img2img Alternative:反向欧拉方法的交叉注意力控制
  • Highres Fix:一键生成高分辨率图片而不会出现通常的失真
  • API支持:允许通过编程方式访问功能
  • 进度条和实时预览:显示生成进度和预览图像
  • DeepDanbooru集成:为动漫提示创建danbooru风格标签
  • 生成参数保存:生成图像时使用的参数会随图像一起保存
  • PNG保存在PNG块中,JPEG保存在EXIF中
  • 可以将图像拖到PNG信息选项卡来恢复生成参数并自动复制到UI中
  • 可以在设置中禁用
  • 可以将图像/文本参数拖放到提示框

安装与运行

在安装前,请确保满足所需的依赖项(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Dependencies),并按照以下说明进行操作:

  • NVIDIA(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs)(推荐)
  • AMD(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs) GPU
  • Intel CPU、Intel GPU(集成和独立)(https://github.com/openvinotoolkit/stable-diffusion-webui/wiki/Installation-on-Intel-Silicon)(外部wiki页面)
  • Ascend NPU(https://github.com/wangshuai09/stable-diffusion-webui/wiki/Install-and-run-on-Ascend-NPUs)(外部wiki页面)

或者使用在线服务(如Google Colab):

  • 在线服务列表(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Online-Services)

Windows系统安装(NVIDIA显卡)

方法一:使用发布包

  1. 从v1.0.0-pre(https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre)下载sd.webui.zip并解压
  2. 运行update.bat
  3. 运行run.bat

    更多详情请参见Install-and-Run-on-NVidia-GPUs(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs)

方法二:自动安装

  1. 安装Python 3.10.6(https://www.python.org/downloads/release/python-3106/)(注意:更新版本的Python不支持torch),勾选"Add Python to PATH"
  2. 安装git(https://git-scm.com/download/win)
  3. 通过运行git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git下载stable-diffusion-webui仓库
  4. 以普通用户身份从Windows资源管理器运行webui-user.bat

注意:必须使用Python 3.10.6版本,更新的Python版本存在PyTorch兼容性问题

Linux系统安装

  1. 安装依赖:
# Debian-based:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# Red Hat-based:
sudo dnf install wget git python3 gperftools-libs libglvnd-glx
# openSUSE-based:
sudo zypper install wget git python3 libtcmalloc4 libglvnd
# Arch-based:
sudo pacman -S wget git python3

如果系统较新,需要安装python3.11或python3.10:

# Ubuntu 24.04
sudo add-apt-repository ppa:deadsnakes/ppa
sudo apt update
sudo apt install python3.11

# Manjaro/Arch
sudo pacman -S yay
yay -S python311 # 不要与python3.11包混淆

# 仅针对3.11版本
# 然后在启动脚本中设置环境变量
export python_cmd="python3.11"
# 或在webui-user.sh中
python_cmd="python3.11"
  1. 导航到您想要安装webui的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh

或者直接在任何您想要的位置克隆仓库:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
  1. 运行webui.sh
  2. 查看webui-user.sh获取选项

注意:某些Linux发行版可能需要额外的依赖项,具体请参考官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs)

Apple Silicon安装

Apple Silicon的安装说明可以在官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon)找到。

注意:Apple Silicon用户需要特别注意依赖项的安装和配置

使用技巧

1. 提示词技巧

基本提示词结构

[主体], [细节描述], [风格], [构图], [ lighting/光照], [color/色彩]

示例

a beautiful woman, detailed face, long brown hair, blue eyes, wearing a red dress, standing in a garden, photorealistic, 8k, sharp focus, studio lighting, vibrant colors

使用负面提示词

low quality, worst quality, blurry, deformed, disfigured, poorly drawn face, mutation, mutated

2. 注意力控制

使用括号控制模型对提示词不同部分的关注度:

  • (keyword):增加1.1倍注意力
  • ((keyword)):增加1.21倍注意力
  • (keyword:1.5):增加1.5倍注意力
  • [keyword]:减少注意力

3. 提示词编辑

在生成过程中更改提示词:

a watermelon, [to:anime girl:when 10] 

这会在生成过程的第10步将主题从西瓜改为动漫女孩。

您也可以使用更复杂的语法:

[from:to:when] 
[from:to:when:to:when] 

例如:

a watermelon, [to:anime girl:when 10], [to:with cat:when 15]

这会在第10步将主题从西瓜改为动漫女孩,然后在第15步添加一只猫。

4. 使用多个提示词

使用AND组合多个提示词:

a cat :1.2 AND a dog AND a penguin :2.2

5. 图像参数调整

  • Sampling steps(采样步数):通常20-30步即可获得良好效果
  • CFG Scale(提示词相关性):通常7-12之间,值越高越遵循提示词
  • Resolution(分辨率):建议使用512×512或768×768的倍数
  • Batch count(批次数)Batch size(批量大小):控制生成图像数量

高级应用

1. 模型合并

使用Checkpoint Merger选项卡可以合并最多3个模型:
1. 选择主模型(Primary model)
2. 选择要合并的第二个模型(Secondary model)
3. 可选:选择第三个模型(Tertiary model)
4. 调整合并比例(Multiplier)和插值方法
5. 选择保存格式(ckpt或safetensors)
6. 点击合并按钮

2. 自定义脚本

Stable Diffusion web UI支持多种自定义脚本(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Scripts),包括:
- 提示词矩阵:同时测试多个提示词组合
- X/Y/Z图表:绘制不同参数的三维图像图表
- 彩色草图:基于草图生成彩色图像
- 循环处理:多次运行img2img处理
- 分层合成:将多个图像合成为一个
- 等等

您可以通过在txt2img或img2img选项卡的底部脚本下拉菜单中选择这些脚本。

3. 扩展安装

通过扩展选项卡可以安装各种社区开发的扩展,增强功能:
1. 点击"Available"选项卡
2. 选择要安装的扩展
3. 点击"Install"按钮
4. 安装完成后,进入"Installed"选项卡
5. 点击"Apply and restart UI"按钮应用更改

一些推荐的扩展:
- 历史记录选项卡:方便地查看、直接和删除图像
- 美学梯度:使用CLIP图像嵌入生成具有特定美学的图像
- 额外的预处理器和训练选项:增强训练功能

4. 使用LoRA和Hypernetworks

  1. 将LoRA文件放入models/Lora目录
  2. 将Hypernetwork文件放入models/hypernetworks目录
  3. 在界面中选择要使用的模型
  4. 调整权重以控制效果强度
  5. 可以同时使用多个LoRA或Hypernetworks

您也可以使用专门的UI来选择、预览和管理这些模型:
1. 在主界面中找到LoRA或Hypernetworks选项卡
2. 浏览可用模型并预览效果
3. 点击添加按钮将其应用到当前提示词

常见问题解答

Q: 我的显卡只有4GB内存,可以使用Stable Diffusion web UI吗?

A: 是的,Stable Diffusion web UI支持4GB显卡(甚至有报告称2GB也能工作)。您可能需要使用--lowvram--medvram参数启动。对于低显存显卡,还可以考虑使用--xformers参数来提高性能。

重要提示:低显存用户建议同时使用--medvram --xformers参数以获得最佳性能

Q: 如何提高生成图像的质量?

A: 尝试以下方法:
- 增加采样步数(20-30)
- 调整CFG Scale(7-12)
- 使用高清修复(Highres fix)
- 尝试不同的采样器
- 使用更好的模型
- 使用负面提示词排除不想要的元素
- 尝试不同的提示词结构和关键词顺序

Q: 如何保存和重用生成参数?

A: 生成图像时,参数会自动保存在图像的PNG信息块或JPEG的EXIF中。您可以将图像拖到PNG信息选项卡来恢复参数并自动复制到UI中。也可以使用"读取生成参数"按钮将参数加载到UI中。

Q: 如何更新Stable Diffusion web UI?

A: 在Windows上运行update.bat,在Linux上运行git pull。如果您使用的是发布包,请下载最新版本。

更新建议:建议定期更新以获得最新功能和安全修复,但在更新前请备份重要模型和配置

Q: 我可以使用Stable Diffusion 2.0模型吗?

A: 是的,Stable Diffusion web UI支持Stable Diffusion 2.0。有关详细说明,请参阅wiki中的Stable Diffusion 2.0支持(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#stable-diffusion-20)部分。

Q: 如何训练自己的Textual Inversion或Hypernetwork?

A: 您可以使用训练选项卡来训练Textual Inversion嵌入或Hypernetworks。首先,准备一组训练图像,然后在训练选项卡中选择模型类型、设置参数并开始训练过程。训练完成后,您的新模型将自动出现在相应的选择列表中。

Q: 如何安装和使用扩展?

A: 在扩展选项卡中,您可以浏览可用扩展,点击安装,然后应用并重启UI。安装后,扩展的功能通常会出现在新的选项卡或现有选项卡的附加选项中。

Q: 为什么我的生成速度很慢?

A: 生成速度慢可能由以下原因导致:
- 没有使用--xformers参数(如果您的显卡支持)
- 使用了高分辨率设置
- 采样步数设置过高
- 系统资源不足
- 尝试使用--medvram--lowvram参数优化内存使用

Q: 如何解决CUDA内存不足的错误?

A: 尝试以下方法:
- 使用--lowvram--medvram参数启动
- 降低生成分辨率
- 减少批量大小
- 关闭其他占用GPU内存的应用程序
- 使用--xformers参数减少内存使用
- 考虑使用CPU模式(添加--use-cpu参数)
- 检查系统是否有足够的虚拟内存

最佳实践

1. 模型管理

  • 将模型文件放在models/Stable-diffusion目录中
  • 将VAE文件放在models/VAE目录中
  • 将LoRA文件放在models/Lora目录中
  • 将Hypernetwork文件放在models/hypernetworks目录中
  • 将Textual Inversion嵌入放在embeddings目录中
  • 定期清理不需要的模型以节省空间
  • 为模型创建子文件夹以便更好地组织
  • 使用有意义的文件名,包含模型名称、版本和创作者信息
  • 定期备份您的重要模型和配置文件

2. 提示词优化

  • 从简单提示开始,逐步添加细节
  • 使用负面提示词排除不想要的元素
  • 尝试不同的提示词结构和关键词顺序
  • 保存有效的提示词以便将来使用
  • 使用注意力机制强调重要元素
  • 尝试不同的采样器和参数设置
  • 使用样式功能保存和应用常用的提示词组合
  • 使用提示词编辑功能在生成过程中调整提示词

3. 硬件优化

  • 使用--xformers参数(支持的显卡)可显著提高速度
  • 考虑使用--medvram--lowvram参数以减少VRAM使用
  • 关闭不必要的应用程序以释放系统资源
  • 确保有足够的磁盘空间用于模型和输出图像
  • 使用SSD存储模型以提高加载速度
  • 考虑增加系统RAM以提高整体性能
  • 监控GPU温度,确保不会过热

4. 安全考虑

  • 从可信来源下载模型和扩展
  • 定期更新软件以获取安全补丁
  • 注意生成内容的版权和使用限制
  • 尊重模型和数据的许可协议
  • 不要在公共网络上共享敏感的生成内容
  • 谨慎处理可能生成不当内容的提示词
  • 考虑使用内容过滤器来避免生成不当内容
  • 了解并遵守您所在地区的AI生成内容相关法规

5. 工作流程优化

  • 创建标准化的提示词模板
  • 建立模型和参数的测试流程
  • 使用批处理功能提高效率
  • 组织输出文件夹以便于管理和查找
  • 定期备份重要的生成结果和配置
  • 使用版本控制管理您的自定义脚本和配置
  • 建立质量评估标准以筛选最佳结果
  • 记录成功的生成参数和提示词组合

项目状态说明

重要提醒:Stable Diffusion web UI是一个活跃的开源项目,由全球开发者社区共同维护。项目持续更新,新功能和修复会定期发布。建议用户:

  • 关注项目的GitHub仓库(https://github.com/AUTOMATIC1111/stable-diffusion-webui)获取最新信息
  • 定期查看官方wiki(https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki)了解新功能
  • 参与社区讨论,分享使用经验和技巧
  • 及时更新到最新版本以获得最佳体验

总结

Stable Diffusion web UI是一个功能强大、灵活且用户友好的AI图像生成工具。通过掌握其核心功能和高级技巧,您可以创建令人惊叹的AI艺术作品。关键要点包括:

  1. 了解基础功能:熟悉txt2img和img2img模式,掌握基本参数调整
  2. 学习提示词技巧:编写有效的提示词是获得高质量图像的关键
  3. 探索高级功能:尝试LoRA、Hypernetworks和自定义脚本以扩展创作可能性
  4. 优化硬件使用:根据您的系统配置调整设置以获得最佳性能
  5. 参与社区:加入社区讨论,学习他人的技巧和经验

Stable Diffusion web UI为AI艺术创作提供了无限可能。通过不断实践和探索,您将能够充分发挥这一强大工具的潜力,创作出独特的数字艺术作品。

最后提醒:AI技术发展迅速,本指南基于当前版本编写。建议定期查看官方文档获取最新信息。


想了解更多AI工具使用技巧?请访问AI225导航,我们提供最全面的AI工具使用指南和资源。

相关文章

ComfyUI完整指南:强大的模块化视觉AI引擎

详细介绍ComfyUI的功能特点、安装方法、使用技巧以及应用场景,帮助用户掌握这一先进的AI图像生成工具

2025-09-26

Fooocus:简化AI图像生成的开源工具

详细介绍Fooocus这款开源AI图像生成工具,包括其特点、安装方法、使用技巧和应用场景

2025-09-24

AI绘画提示词工程指南:从入门到精通

一份通用的AI绘画提示词编写指南,适用于Midjourney, Stable Diffusion, DALL-E 3等主流工具,涵盖核心结构、风格控制、镜头语言和高级技巧

2025-09-04

Stable Diffusion完全使用指南:开源AI绘画的无限可能

详细介绍如何使用Stable Diffusion进行AI绘画创作,包括安装配置、模型选择、参数调优和高级技巧

2025-08-28

TrendRadar:1分钟部署的全网热点追踪神器

详细介绍TrendRadar热点追踪工具的功能特性、部署方法和使用场景,帮助你告别无效刷屏,精准获取关注的热点资讯

2025-11-20