新知榜官方账号
2023-10-16 02:10:20
Runway发布了一款名为Gen2的AI视频编辑工具,用户可以通过输入提示词和参考图像,生成自然美景、宇宙奇观、微观细胞等高清视频。目前官网可免费体验Gen2的功能是文生视频(TexttoVideo),但Gen1也开放了视频生视频(VideotoVideo)的功能。
Gen2于今年3月20日正式发布,经历了两个多月的内测,现在终于正式上线。它的前代Gen1只比它早了一个多月(2月发布),所以说迭代速度相当快。作为一个基于扩散的生成模型,Gen1通过在预训练图像模型中引入时间层,并在图像和视频数据上进行联合训练,完成了潜扩散模型到视频生成领域的扩展。其中也包括使用一种全新的引导方法完成了对生成结果时间一致性的精确控制。
在训练阶段,先用固定编码器将输入视频x编码为z0,并扩散为zt。然后对MiDaS获得的深度图进行编码,提取出结构表示s;再用CLIP对其中一个帧进行编码来获取内容表示c。接着,在s的帮助下,模型学习反转潜空间中的扩散过程(其中s与c以及通过交叉注意块生成的c相连)。在推理阶段,模型以相同的方式提供输入视频的结构s。为了通过文本生成内容,作者还通过一个prior将CLIP文本嵌入转换为图像嵌入。最终,Gen1可以生成细粒度可控的视频,也能对一些参考图像进行定制。
不过,一开始对公众发布的Gen1只能对已有视频进行编辑,Gen2才直接完成了文生视频的“蜕变”。并且一口气带来了另外7大功能,包括文本+参考图像生视频、静态图片转视频、视频风格迁移等等。这样的Gen2,也在内测阶段就被网友称赞“视频界的Midjourney”。而根据官方的调研数据,Gen2确实更受用户欢迎:用户得分比StableDiffusion1.5要高73.53%,比Text2Live则高上了88.24%。
如果你想要生成效果更好,可以多使用“inthestyleofxxx”的形式,比如:Apalmtreeonatropicalbeachinthestyleofprofessionalcinematography,shallowdepthoffield,featurefilm.或者直接去它的灵感库,选择一个你喜欢的视频然后点击“tryit”即可查看它的提示词是怎么写的,然后在上面进行编辑或模仿就好了。
需要注意的是,免费试用的额度为105秒(右上角显示剩余额度),每个视频为4秒,也就是大约可免费生成26个Gen2视频。额度用完或者你想体验去水印、提升分辨率等额外功能,就需要买会员,标准版为15美元一个月,Pro版35美元,年付更便宜一些。
PC、手机都能玩网页端和移动端(仅限iOS系统)现在均可正式开始体验。以网页端为例,进入Runway官方主页(文末链接[1]),点击上方“TRYNOW”并注册账号,就可以进入下面的界面:点击右方的“IntroducingGen2”,我们就可以正式开玩了。首先,输入提示词,最多320个字符,然后在左边的设置菜单里进行一些基础配置(包括种子参数、插值等),点击“Generate”。(当然,你也可以为视频提供一张参考图像,点击右边的图像图标即可。)不到1分钟的功夫,视频就出来了。点击下方播放按钮即可查看效果,视频可以直接保存到本地,也可以只保存在你的账户中。当然,如果你不满意,还能在下方的提示词框中继续修改。
就连物种、性别,都可以随随便便地切换。在看完Gen2生成的这波“大秀”之后,网友们不淡定了,直呼:娱乐圈要被生成式AI重新定义了。
相关工具
相关文章
推荐
用Deepseek写AI绘图提示词,像呼吸一样简单!
2025-02-19 16:12
你以为AI绘画是黑科技?其实早成了“路边摊生意”!
2025-02-19 10:15
Flux爆火,全网最全面最详细的Flux使用教程!
2025-02-18 14:19
用AI如何创作音乐,实战教学来啦!
2025-02-17 17:23
MidJourney让你秒变绘画大神,从零开始画哪吒!
2025-02-17 14:56
AI应用新境界:让人工智能成为你的得力助手
2025-02-14 15:45
AI短片革命:当创作遇上智能,人人都能成为导演
2025-02-14 14:53
AI狂潮下的人类职场:是失业危机还是进化契机?
2025-02-13 16:53
开启影视创作新纪元,效率提升 10 倍的神器来了!
2025-02-13 15:11
深度解析DeepSeek:当AI技术照进创作产业的未来
2025-02-12 17:16