文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等

来源:新智元

作者:谭炜达

编辑:LRS 好困

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图1

图片来源:由无界AI 生成

Latent Consistency Models(潜一致性模型)是一个以生成速度为主要亮点的图像生成架构。

和需要多步迭代传统的扩散模型(如Stable Diffusion)不同,LCM仅用1 – 4步即可达到传统模型30步左右的效果。

由清华大学交叉信息研究院研究生骆思勉和谭亦钦发明,LCM将文生图生成速度提升了5-10倍,世界自此迈入实时生成式AI的时代。

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图3

LCM-LoRA: https://huggingface.co/papers/2311.05556

项目主页:https://latent-consistency-models.github.io/

Stable Diffusion杀手:LCM

在LCM出现之前, 不同团队在各种方向探索了五花八门的SD1.5和SDXL替代方案。

这些项目各有特色,但都存在着不兼容LoRA和不完全兼容Stable Diffusion生态的硬伤。按发布时间顺序,比较重要的项目有:

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图5

这时,LCM-LoRA出现了:将SD1.5、SSD1B、SDXL蒸馏为LCM的LoRA,将生成5倍加速生成能力带到所有SDXL模型上并兼容所有现存的LoRA,同时牺牲了小部分生成质量; 项目迅速获得了Stable Diffusion生态大量插件、发行版本的支持。

LCM同时也发布了训练脚本,可以支持训练自己的LCM大模型(如LCM-SDXL)或LCM-LoRA,做到兼顾生成质量和速度。只要一次训练,就可以在保持生成质量的前提下提速5倍。

至此,LCM生态体系具备了完整替代SD的雏形。

截止至2023/11/22,已支持LCM的开源项目:

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图7

计划中添加支持的项目:

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图9

随着生态体系的逐渐发展,LCM有潜力作为新一代图像生成底层完整替代Stable Diffusion。

未来展望

自Stable Diffusion发布至今,生成成本被缓慢优化,而LCM的出现使得图像生成成本直接下降了一个数量级。每当革命性的技术出现,都会带来重塑产业的大量机会。LCM至少能在图像生成成本消失、视频生成、实时生成三大方面给产业格局带来重大变化。

1. 图像生成成本消失

To C产品端,免费替代收费。受高昂的GPU算力成本限制,以Midjourney为代表的大量文生图服务选择免费增值作为商业模型。LCM使手机客户端、个人电脑CPU、浏览器(WebAssembly)、更容易弹性扩容的CPU算力都可能在未来满足图像生成的算力需求。简单的收费文生图服务如Midjourney会被高质量的免费服务替代。

To B服务端,减少的生成算力需求会被增长的训练算力需求替代。

AI图片生成服务对算力的需求在峰值和谷底涨落极大,购买服务器闲置时间通常超过50%。这种特点促进了大量函数计算GPU(serverless GPU)如美国Replicate、中国阿里云的蓬勃发展。

硬件虚拟化方面如国内的瑞云、腾讯云等也在浪潮中推出了图像模型训练相关虚拟桌面产品。随着生成算力下放到边缘、客户端或更容易扩容的CPU算力,AI生图将普及到各类应用场景中,图像模型微调的需求会大幅上涨。在图像领域,专业、易用、垂直的模型训练服务会成为下一阶段云端GPU算力的主要消费者。

2. 文生视频

文生视频目前极高的生成成本制约了技术的发展和普及,消费级显卡只能以缓慢的速度逐帧渲染。以AnimateDiff WebUI插件为代表的一批项目优先支持了LCM,使得更多人能参与到文生视频的开源项目中。更低的门槛必然会加速文生视频的普及和发展。

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图11

3分钟快速渲染:AnimateDiff Vid2Vid + LCM

3. 实时渲染

速度的增加催生了大量新应用,不断拓展着所有人的想象空间。

RT-LCM与AR

以RealTime LCM为先导,消费级GPU上第一次实现了每秒10帧左右的实时视频生成视频,这在AR领域必然产生深远的影响。

目前高清、低延时捕捉重绘视线内整个场景需要极高算力,所以过去AR应用主要以添加新物体、提取特征后低清重绘部分物体为主。LCM使得实时重绘整个场景成为可能,在游戏、互动式电影、社交等场景中都有无限的想象空间。

未来游戏场景不需新建,带上AR眼镜,身处的街道立刻转换为霓虹闪烁的赛博朋克未来风格供玩家探索;看未来的互动式恐怖电影时带上AR眼镜,家中熟悉的一切可以无缝融入场景,吓人的东西就藏在卧室门后。虚拟和现实将无缝融合,真实和梦境让人愈发难以区分。而这一切底层都可能会有LCM的身影。

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图13

RT-LCM视频渲染

交互方式 – 所想即所得(What you imagine is what you get)

由Krea.ai、ilumine.ai首先产品化的实时图像编辑UI再次降低了创作的门槛、扩大了创意的边界,让更多人在精细控制的基础上获得了最终画作的实时反馈。

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图15

Krea.ai实时图像编辑

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图17

实时图像编辑

建模软件 + LCM探索了3D建模的新方向,让3D建模师在所见即所得基础上更进一步,获得了所想即所得的能力。

文生图10倍速,视频实时渲染!清华发布LCM:兼容全部SD大模型、LoRA、插件等插图19

LCM实时空间建模渲染

手是人类最没用的东西,因为手永远跟不上脑子的速度。所见即所得(What you see is what you get)太慢,所想即所得(What you imagine is what you get)会成为未来的创意工作的主流。

LCM第一次让展示效果跟上了灵感创意产生的速度。新的交互方式持续涌现,AIGC革命的终点是将创意的成本、技术门槛降低至无限接近于0。不分行业,好的创意将会从稀缺变为过剩。LCM将我们向未来又推进了一步。

欢迎对LCM有兴趣的朋友们加入LCM中文群: https://wx.hlcode.com.cn/?id=NKVa55S

参考资料:

https://latent-consistency-models.github.io/

叮当号免责声明:

1.本网站所提供的所有信息仅供参考,不构成任何投资建议。

2.用户在使用本网站的信息时应自行判断和承担风险。

3.叮当号不对用户因使用本网站信息而导致的任何损失负责。

4.用户在进行任何投资活动前应自行进行调查和研究。

5.叮当号不对用户基于本网站信息做出的任何投资决策负责。

6.用户在本网站发布的任何内容均由其个人负责,与叮当号无关。

文章来自互联网,只做分享使用。发布者:走不完的路,转转请注明出处:https://www.dingdanghao.com/article/50192.html

(0)
上一篇 2023-11-24 11:55
下一篇 2023-11-24

相关推荐

联系我们

在线咨询: QQ交谈

邮件:442814395@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信公众号