“视频生成的革命性进展:WAN 2.1与Hunyuan图像转视频模型的最新更新”
过去的两周发生了非常有趣的事情,三大视频模型相继发布:WAN 2.1、Hunyuan图像转视频以及LTXV。以下是其中两个模型的原生工作流程更新。
WAN 2.1的fp16版本
我们注意到,这些模型在使用 fp16 进行推理时表现优于 bf16。与我们最初上传的 bf16 版本相比,这是一个质的提升,其结果更接近于使用原始 fp32 权重进行全精度计算的效果。这一提升在使用小型 1.3B 模型时尤为明显,但在 14B 模型上也能看到明显的改进。如果您正在使用 bf16 文件,我们强烈建议您升级到 fp16 版本。
对于那些显存不足以支持 16 位权重的用户,我们上传了一些 fp8_scaled 权重。这些权重的速度比常规 fp8 权重略慢,但应该比常规 fp8 权重的结果更好。
请访问示例页面以查看更新后的工作流程及如何下载这些新文件:https://comfyanonymous.github.io/ComfyUI_examples/wan/
HunyuanVideo v2版本的图像转视频模型
在万众期待的HunyuanVideo图像转视频模型发布仅一天后,该团队就发布了一个新的“修复”版本。
v2模型似乎比v1模型更紧密地遵循引导图像,但v1模型可能在运动和提示跟随方面表现更佳。两者都很有趣,根据您的需求可能各有用途。
您可以在示例页面上找到原始v1“连接”模型和新v2“替换”模型的工作流程:https://comfyanonymous.github.io/ComfyUI_examples/hunyuan_video/
其他新闻
如果您觉得这些模型运行速度太慢,并且错过了上周发布的新LTXV模型,可以在以下链接找到相关工作流程:https://comfyanonymous.github.io/ComfyUI_examples/ltxv/
此外,对于希望保存WebM文件的用户,核心的SaveWEBM节点现在可以在节点上显示视频,并且前端可以从保存的webm文件中加载工作流程。