17B 参数的国产文生图新星,16GB 显存即可流畅运行
🎯 项目概述
HiDream-I1 是由智象未来于 2025 年 4 月开源的 17B 参数文生图基础模型,在多项基准测试中表现优异,排名超越 FLUX,成为开源图像生成领域的新标杆。
170 亿参数
DiT + MoE
MIT(可商用)
最高 2K
✨ 核心架构亮点
🔄 双流 MMDiT 模块
高效处理多模态信息,实现文本与图像的深度语义对齐
🎯 单流 DiT 模块
优化全局一致性,确保生成图像的细节与整体和谐统一
⚡ 稀疏扩散 Transformer
显著降低显存需求,让 16GB 显卡也能运行 17B 模型
🧠 MoE 混合专家系统
提升模型表达能力,实现更高质量的图像生成
📊 模型版本对比
🔹 官方版本
| 版本 | 推理步数 | 质量 | 速度 | 适用场景 |
|---|---|---|---|---|
| HiDream-I1-Full | 50 步 | ⭐⭐⭐⭐⭐ | 较慢 | 追求最佳质量 |
| HiDream-I1-Dev | 28 步 | ⭐⭐⭐⭐ | 中等 | 平衡质量与速度 |
| HiDream-I1-Fast | 16 步 | ⭐⭐⭐ | 最快 | 快速预览、批量生成 |
🔹 量化版本(低显存推荐)
| 量化格式 | 显存需求 | 质量损失 | 推荐显卡 |
|---|---|---|---|
| FP16 原版 | ~20GB | 无 | RTX 3090/4090 (24GB) |
| FP8 版本 ✅ | ~16GB | 极小 | RTX 4060Ti 16GB |
| GGUF Q8 | ~14GB | 很小 | 16GB 显卡 |
| GGUF Q6 | ~12GB | 小 | 12GB 显卡 |
| NF4 量化 | <16GB | 可接受 | 8-12GB 显卡 |
💡 16GB 显存推荐方案
- 首选:FP8 版本 — 质量最佳,显存刚好够用
- 备选:GGUF Q8 — 留更多显存余量
- 备选:GGUF Q6 — 可同时运行其他程序
🚀 ComfyUI 部署教程
步骤 1:安装 ComfyUI
# 克隆 ComfyUI
git clone https://github.com/comfyanonymous/ComfyUI
cd ComfyUI
创建虚拟环境
python -m venv venv
source venv/bin/activate # Linux/Mac
或 venv\Scripts\activate # Windows
安装依赖
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
pip install -r requirements.txt
步骤 2:下载模型文件(FP8 版本)
# 进入模型目录
cd ComfyUI/models/diffusion_models/
下载 FP8 Dev 版本(推荐)
或 GGUF 量化版本(需先安装 ComfyUI-GGUF 插件)
wget https://huggingface.co/city96/HiDream-I1-Dev-gguf/resolve/main/hidream-i1-dev-Q8_0.gguf
步骤 3:下载文本编码器
cd ComfyUI/models/clip/
下载 4 个文本编码器(约 10GB)
wget https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI_repackaged/resolve/main/text_encoders/clip_l.safetensors
wget https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI_repackaged/resolve/main/text_encoders/t5xxl_fp8.safetensors
wget https://huggingface.co/Comfy-Org/HiDream-I1_ComfyUI_repackaged/resolve/main/text_encoders/llama_3.1_encoder_fp8.safetensors
步骤 4:启动并使用
# 启动 ComfyUI
python main.py --listen 0.0.0.0 --port 8188
浏览器访问 http://localhost:8188
拖入工作流 JSON 或图片即可开始生成
🐍 Diffusers 部署(备选方案)
# 安装依赖
pip install torch diffusers transformers accelerate sentencepiece
pip install git+https://github.com/huggingface/diffusers
Python 推理代码
import torch
from diffusers import HiDreamImagePipeline
pipe = HiDreamImagePipeline.from_pretrained(
"HiDream-ai/HiDream-I1-Dev",
torch_dtype=torch.float16,
variant="fp8"
)
pipe.to("cuda")
prompt = "A majestic lion in a mystical forest, ultra detailed, 8k"
image = pipe(prompt, guidance_scale=5.0, num_inference_steps=28).images[0]
image.save("output.png")
📈 性能参考(RTX 4060Ti 16GB)
| 配置 | 生成速度 | 分辨率 | 质量 |
|---|---|---|---|
| FP8 Dev | ~30秒/张 | 1024×1024 | ⭐⭐⭐⭐⭐ |
| GGUF Q8 | ~25秒/张 | 1024×1024 | ⭐⭐⭐⭐ |
| GGUF Q6 | ~20秒/张 | 1024×1024 | ⭐⭐⭐ |
🔗 资源链接
✨ 总结
RTX 4060Ti 16GB 完全可以流畅运行 HiDream-I1!
推荐使用 FP8 Dev 版本 + ComfyUI
获得最佳的图像质量和生成体验 🎨