新知榜官方账号
2023-10-06 22:40:15
Stablediffusion现在可以生成动图并控制镜头运动方向了。只需打开WebUl,选择你喜欢的模型,提示词描述你想要的动画内容,其他参数选择常用的就好。接着打开AnimateDiff模型选择最新的v2模型,勾选启用。总帧数除以帧率就是最终生成的视频长度。最新版已经解除总帧数限制,可以生成更长的视频动画。选择要保存的视频格式,根据需要选择gif动图或者mp4,其他保持默认。
如果要控制镜头运动方向,就需要启用AnimateDiff配套的lora模型。v2.lora._Ro包括上下左右旋转远近共8个镜头运动模型,跟使用其他lora一样。配置好后直接点击调用,权重一般0.7左右。
最后要配置AnimateDiff,只需在WebUI扩展中进行安装就行。将作者项目中提到的vr模型放到该扩展目录下的model文件内即可。网络不好的小伙伴,可以加入作者的粉丝群获取安排。另外,想更好的体验AnimateDifff,推荐使用ComfyUI版。
作者橘大,专注分享更多AI干货。
微信扫码咨询
相关工具
相关文章
相关快讯
推荐
阿里Accio中文版上线!一键搞定复杂采购
2025-08-19 09:13
视频“用嘴编辑”的时代来了,但钱包顶得住吗?
2025-08-15 17:59
智谱新模型GLM-4.5V全面开源,玩家们有福啦!
2025-08-12 17:56
扎心文案+AI插画=爆款!揭秘8万赞视频的制作全流程
2025-08-12 10:08
GPT-5没你想的那么好,附实测体验~
2025-08-11 11:07
一站式搞定AI绘图+视频,AI短片效率飙升的秘密在这儿!
2025-08-08 09:26
打工人新神器!10款国产AI,让你告别996!
2025-08-08 09:24
豆包视觉推理深度体验,AI也能“边看边想”了!
2025-08-08 09:19
300美元的AI男友来了!马斯克的情感生意从女友做到男友
2025-08-01 17:56
Agent智能体:2025年企业新员工,月薪仅需一度电?
2025-07-30 17:49