update README (batch 1/1)

This commit is contained in:
Cherrytest
2025-11-24 16:32:02 +00:00
parent 9d296ee5e3
commit 726390b72a
2 changed files with 44 additions and 14 deletions

View File

@ -26,10 +26,11 @@ HunyuanVideo-1.5作为一款轻量级视频生成模型仅需83亿参数即
<a href=https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5 target="_blank"><img src= https://img.shields.io/badge/Page-bb8a2e.svg?logo=github height=22px></a>
<a href="https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5/blob/report/HunyuanVideo_1_5.pdf" target="_blank"><img src=https://img.shields.io/badge/Report-b5212f.svg?logo=arxiv height=22px></a>
<a href=https://x.com/TencentHunyuan target="_blank"><img src=https://img.shields.io/badge/Hunyuan-black.svg?logo=x height=22px></a>
<a href="https://doc.weixin.qq.com/doc/w3_AXcAcwZSAGgCNACVygLxeQjyn4FYS?scode=AJEAIQdfAAoSfXnTj0AAkA-gaeACk" target="_blank"><img src=https://img.shields.io/badge/📚-PromptHandBook-blue.svg?logo=book height=22px></a> <br/>
<a href="https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5/blob/main/assets/HunyuanVideo_1_5_Prompt_Handbook_EN.md" target="_blank"><img src=https://img.shields.io/badge/📚-PromptHandBook-blue.svg?logo=book height=22px></a> <br/>
<a href="./ComfyUI/README.md" target="_blank"><img src=https://img.shields.io/badge/ComfyUI-blue.svg?logo=book height=22px></a>
<a href="https://github.com/ModelTC/LightX2V" target="_blank"><img src=https://img.shields.io/badge/LightX2V-yellow.svg?logo=book height=22px></a>
<a href="https://tusi.cn/models/933574988890423836" target="_blank"><img src=https://img.shields.io/badge/吐司-purple.svg?logo=book height=22px></a>
<a href="https://tensor.art/models/933574988890423836" target="_blank"><img src=https://img.shields.io/badge/TensorArt-cyan.svg?logo=book height=22px></a>
</div>
@ -39,7 +40,8 @@ HunyuanVideo-1.5作为一款轻量级视频生成模型仅需83亿参数即
</p>
## 🔥🔥🔥 最新动态
👋 2025年11月20日: 我们开源了 HunyuanVideo-1.5的代码和推理权重
* 🚀 Nov 24, 2025: 我们现已支持 cache 推理,可实现约两倍加速!请 pull 最新代码体验。
* 👋 Nov 20, 2025: 我们开源了 HunyuanVideo-1.5的代码和推理权重
## 🎥 演示视频
<div align="center">
@ -151,6 +153,7 @@ pip install -i https://mirrors.tencent.com/pypi/simple/ --upgrade tencentcloud-s
```bash
git clone https://github.com/Tencent-Hunyuan/flex-block-attn.git
cd flex-block-attn
git submodule update --init --recursive
python3 setup.py install
```
@ -175,7 +178,7 @@ pip install -i https://mirrors.tencent.com/pypi/simple/ --upgrade tencentcloud-s
提示词增强在我们的模型生成高质量视频方面起着至关重要的作用。通过撰写更长、更详细的提示词,生成的视频质量将得到显著改善。我们鼓励您编写全面且描述性的提示词,以获得最佳的视频质量。我们建议社区伙伴参考我们的官方指南,了解如何撰写有效的提示词。
**参考:** **[HunyuanVideo-1.5 提示词手册](https://doc.weixin.qq.com/doc/w3_AXcAcwZSAGgCNhei2zzNUS8O4mKop?scode=AJEAIQdfAAoE1dhviFAAkA-gaeACk)**
**参考:** **[HunyuanVideo-1.5 提示词手册](https://github.com/Tencent-Hunyuan/HunyuanVideo-1.5/blob/main/assets/HunyuanVideo_1_5_Prompt_Handbook_EN.md)**
### 自动提示词增强的系统提示词
@ -216,9 +219,10 @@ OUTPUT_PATH=./outputs/output.mp4
N_INFERENCE_GPU=8 # 并行推理 GPU 数量
CFG_DISTILLED=true # 使用 CFG 蒸馏模型进行推理2倍加速
SPARSE_ATTN=false # 使用稀疏注意力进行推理(仅 720p 模型配备了稀疏注意力)。请确保 flex-block-attn 已安装
SAGE_ATTN=false # 使用 SageAttention 进行推理
SAGE_ATTN=true # 使用 SageAttention 进行推理
REWRITE=true # 启用提示词重写。请确保 rewrite vLLM server 已部署和配置。
OVERLAP_GROUP_OFFLOADING=true # 仅在组卸载启用时有效,会显著增加 CPU 内存占用,但能够提速
ENABLE_CACHE=true # 启用特征缓存进行推理。显著提升推理速度
MODEL_PATH=ckpts # 预训练模型路径
torchrun --nproc_per_node=$N_INFERENCE_GPU generate.py \
@ -230,6 +234,7 @@ torchrun --nproc_per_node=$N_INFERENCE_GPU generate.py \
--cfg_distilled $CFG_DISTILLED \
--sparse_attn $SPARSE_ATTN \
--use_sageattn $SAGE_ATTN \
--enable_cache $ENABLE_CACHE \
--rewrite $REWRITE \
--output_path $OUTPUT_PATH \
--overlap_group_offloading $OVERLAP_GROUP_OFFLOADING \
@ -241,6 +246,11 @@ torchrun --nproc_per_node=$N_INFERENCE_GPU generate.py \
> ```bash
> export PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True,max_split_size_mb:128
> ```
>
> **Tips:** 如果您有 CPU 内存有限并且遇到推理时的 OOM 错误,可以尝试禁用重叠组卸载,通过添加以下参数:
> ```bash
> --overlap_group_offloading false
> ```
### 命令行参数
@ -268,6 +278,11 @@ torchrun --nproc_per_node=$N_INFERENCE_GPU generate.py \
| `--use_sageattn` | bool | 否 | `false` | 启用 SageAttention使用 `--use_sageattn` 或 `--use_sageattn true/1` 来启用,`--use_sageattn false/0` 来禁用) |
| `--sage_blocks_range` | str | 否 | `0-53` | SageAttention 块范围(例如:`0-5` 或 `0,1,2,3,4,5` |
| `--enable_torch_compile` | bool | 否 | `false` | 启用 torch compile 以优化 transformer使用 `--enable_torch_compile` 或 `--enable_torch_compile true/1` 来启用,`--enable_torch_compile false/0` 来禁用) |
| `--enable_cache` | bool | 否 | `false` | 启用 transformer 缓存(使用 `--enable_cache` 或 `--enable_cache true/1` 来启用,`--enable_cache false/0` 来禁用) |
| `--cache_start_step` | int | 否 | `11` | 使用缓存时跳过的起始步数 |
| `--cache_end_step` | int | 否 | `45` | 使用缓存时跳过的结束步数 |
| `--total_steps` | int | 否 | `50` | 总推理步数 |
| `--cache_step_interval` | int | 否 | `4` | 使用缓存时跳过的步数间隔 |
**注意:** 使用 `--nproc_per_node` 指定使用的 GPU 数量。例如,`--nproc_per_node=8` 表示使用 8 个 GPU。
@ -285,8 +300,8 @@ torchrun --nproc_per_node=$N_INFERENCE_GPU generate.py \
| 480p I2V cfg 蒸馏 | 1 | None | 5 | 50 |
| 720p T2V cfg 蒸馏 | 1 | None | 9 | 50 |
| 720p I2V cfg 蒸馏 | 1 | None | 7 | 50 |
| 720p T2V cfg 蒸馏稀疏 | 1 | None | 7 | 50 |
| 720p I2V cfg 蒸馏稀疏 | 1 | None | 9 | 50 |
| 720p T2V cfg 蒸馏稀疏 | 1 | None | 9 | 50 |
| 720p I2V cfg 蒸馏稀疏 | 1 | None | 7 | 50 |
| 480→720 超分 步数蒸馏 | 1 | None | 2 | 6 |
| 720→1080 超分 步数蒸馏 | 1 | None | 2 | 8 |