Stable Diffusion 是什么?
Stable Diffusion 是由 Stability AI 开发、于 2022 年开源的 AI 图像生成模型,是目前全球最流行的本地 AI 绘图工具。与 Midjourney 等在线服务不同,Stable Diffusion 可以完全在本地电脑运行,无需联网、完全免费、无内容审查限制,拥有数以百万计的用户和极其活跃的开源生态。
本教程从零开始,带你完成 Stable Diffusion 的安装配置,掌握核心使用技巧,最终能够生成高质量 AI 图像。
Stable Diffusion 主要界面:WebUI vs ComfyUI
Stable Diffusion 本身是底层模型,用户通过前端界面来使用它。目前主流有两种:
AUTOMATIC1111 WebUI
最经典、使用最广泛的 Stable Diffusion 前端。特点:
- 界面直观,适合新手快速上手
- 插件生态丰富(ControlNet、ADetailer、Adetailer 等均支持)
- 一键安装包,Windows 用户门槛极低
- 社区教程最多,遇到问题容易找到解决方案
推荐人群:新手、对工作流灵活性要求不高的用户。
ComfyUI
基于节点(Node)工作流的 Stable Diffusion 前端,近两年快速崛起。特点:
- 工作流可视化,每一步操作都透明可见
- 内存占用更低,运行更高效
- 支持更复杂的 AI 工作流(如 FLUX、视频生成)
- 学习曲线稍陡,但掌握后灵活性极强
推荐人群:有一定基础、追求工作流精细控制的进阶用户。
安装教程:Windows 环境搭建
第一步:确认硬件要求
Stable Diffusion 对显卡(GPU)有要求:
- 最低配置:NVIDIA 显卡,显存 4GB(VRAM)
- 推荐配置:NVIDIA 显卡,显存 8GB 以上(RTX 3060 / 4060 及以上)
- AMD 显卡:可通过 DirectML 或 ROCm 运行,但稳定性稍差
- CPU 运行:无独显也可运行,但速度极慢(出一张图需数分钟)
- 苹果 M 系芯片:支持运行,通过 MPS 加速,效果良好
第二步:安装 WebUI(推荐新手)
最简便的方式是使用整合包,省去繁琐的环境配置:
- 访问 软件工具合集 下载推荐的 Stable Diffusion 整合包
- 解压到空间充足的硬盘(建议预留 20GB 以上)
- 双击运行
启动器.exe或run.bat - 首次启动会自动下载依赖,需等待 5-15 分钟
- 浏览器自动打开
http://127.0.0.1:7860即安装成功
第三步:下载基础模型(Checkpoint)
安装完界面后,你需要下载 AI 绘图的大脑——Checkpoint 模型。
主要下载渠道:
- Civitai(civitai.com):最大的 Stable Diffusion 模型社区,需要科学上网
- Hugging Face(huggingface.co):官方开源模型库
- 国内镜像站:可参考 资源合集 中的国内可用下载地址
下载后将 .safetensors 文件放入 models/Stable-diffusion/ 文件夹,刷新 WebUI 即可使用。
核心概念详解
Checkpoint、LoRA、VAE 的区别
| 类型 | 作用 | 文件大小 | 使用方式 |
|---|---|---|---|
| Checkpoint | 基础模型,决定整体画风和能力 | 2-7GB | 在主模型选项选择 |
| LoRA | 风格/角色微调模型,叠加在 Checkpoint 上 | 50-300MB | 提示词中 <lora:name:weight> |
| VAE | 图像解码器,影响色彩饱和度和细节 | 300-800MB | Settings 中选择或提示词后缀 |
| Embedding | 文本嵌入,用于特定风格或负向词组合 | <100KB | 提示词中直接写文件名 |
关键参数解读
- CFG Scale(提示词引导系数):控制 AI 跟随提示词的程度。7-9 是常用范围,越高越忠实于提示词但可能过于生硬,越低越有创意但可能偏离。
- Steps(采样步数):AI 绘图的迭代次数,一般 20-30 步效果与质量平衡最好,过高收益递减。
- Sampler(采样器):影响生成算法。DPM++ 2M Karras 是新手首选,速度快质量好。DDIM 适合需要精确复现的场景。
- Seed(随机种子):固定 seed 可以复现完全相同的图片,用于对比不同参数效果。
提示词(Prompt)写法完全指南
正向提示词结构
高质量提示词通常包含以下几个部分(从重要到次要排列):
质量词, 主体描述, 风格/画风, 场景/背景, 光线/色调, 摄影参数
示例:
masterpiece, best quality, 1girl, solo, long hair, blue dress,
standing in a flower field, soft sunlight, golden hour,
bokeh background, detailed face, 8k uhd
常用质量词
masterpiece, best quality— 通用质量提升词highly detailed, ultra detailed— 提升细节8k, 4k uhd, highres— 分辨率提示photorealistic, hyperrealistic— 写实风格cinematic lighting— 电影级光线
负向提示词(Negative Prompt)
负向提示词告诉 AI 不要生成什么,是保证图片质量的重要手段:
worst quality, low quality, normal quality, lowres, blurry,
ugly, bad anatomy, bad hands, extra fingers, missing limbs,
watermark, text, logo, username, signature
提示词权重调节
用括号控制关键词的权重:
(keyword)— 权重 ×1.1((keyword))— 权重 ×1.21(keyword:1.5)— 权重精确设为 1.5[keyword]— 权重 ×0.9(降低)
进阶功能:ControlNet 使用指南
ControlNet 是 Stable Diffusion 最重要的扩展插件之一,它允许你通过参考图像精确控制生成图像的结构、姿态、线条等。
常用 ControlNet 模型
- Canny(边缘检测):提取图像轮廓线,适合保持物体形状
- OpenPose(姿态控制):识别人物姿态骨架,精确控制人物动作
- Depth(深度图):基于深度信息重构空间结构
- Lineart(线稿上色):给手绘线稿填色,动漫风格最常用
- Inpaint(局部重绘):只修改图像中指定区域
使用 OpenPose 控制人物姿态
- 在 ControlNet 插件中选择 OpenPose 模型
- 上传参考姿态图片(或使用内置姿态编辑器)
- 调整 Control Weight(建议 0.8-1.0)和 Guidance Start/End
- 正常填写提示词,生成图片
Stable Diffusion 学习资源整理
以下是燕紫苑小站精选的 Stable Diffusion 学习资源:
- 模型下载:参考 精选资源下载 中的 Stable Diffusion 模型合集
- 提示词参考:PromptHero、Lexica.art(需科学上网)
- 插件安装:通过 WebUI 的 Extensions 选项卡直接安装
- 最新资讯:关注 Telegram 频道导航 中的 Stable Diffusion 相关频道
常见问题与报错解决
Q:出图质量很差/画面模糊怎么办?
检查以下几点:(1)是否使用了质量提升词(masterpiece, best quality);(2)Steps 是否至少 20 步以上;(3)分辨率是否设置合理(建议 512×512 或 768×768 起步);(4)是否选择了合适的 VAE;(5)Hires fix 功能是否开启。
Q:CUDA out of memory 报错怎么办?
显存不足时:(1)降低图片分辨率;(2)在启动参数中添加 --medvram 或 --lowvram;(3)关闭其他占用显存的程序;(4)使用更小的模型。
Q:生成的人物手部经常畸形怎么办?
这是 Stable Diffusion 的常见问题。解决方案:(1)在负向提示词中加入 bad hands, extra fingers, mutated hands;(2)安装 ADetailer 插件自动修复手部;(3)使用 img2img 局部重绘手部区域。
Q:如何提升 Stable Diffusion 出图速度?
(1)使用更快的采样器(DPM++ SDE Karras);(2)开启 xFormers 内存优化;(3)使用 LCM LoRA 将步数降至 4-8 步;(4)升级显卡或使用云 GPU(如 AutoDL)。
总结:开始你的 AI 绘图之旅
Stable Diffusion 的学习曲线比普通软件稍陡,但一旦掌握核心概念,你会拥有一个几乎可以生成任何类型图像的 AI 绘图工作室。从安装整合包开始,先生成几张测试图,再逐步探索 ControlNet、LoRA 等进阶功能,是最高效的学习路径。
想了解更多 AI 工具?访问 AI 教程大全,探索 ChatGPT、Cursor、DeepSeek 等更多主流 AI 工具的完整学习路径。