Midjourney 那个图生视频的功能到底怎么样?
这事儿听起来挺玄乎,但操作上……挺傻瓜的。
你登录 Midjourney 官网,找到你之前画的那些图。随便点开一张,右下角有个“Animate”按钮,按下去,AI 就开始自己“脑补”了。等一会儿,一段大概 5 秒的视频就出来了。
是的,就这么简单,简单到有点空虚。感觉自己像个流水线工头,按下开关,然后等待一个“惊喜”或者“惊吓”。
光会按按钮没用,真正干活的是那几个藏在提示词后面的参数。这才是你唯一能施加“控制”的地方。
--motion low / --motion high
这是在告诉你希望画面“动静多大”。low
就是文静一点,风吹草动,岁月静好。high
呢?就是打了鸡血,镜头乱晃,角色抽搐……当然,运气好的时候也能出来点动态感强的神片。但我劝你悠着点,high motion
经常会给你一些奇形怪状的“惊喜”,比如人物的胳膊突然长出三节。
--raw
这个参数我挺喜欢的。简单说就是“让 AI 闭嘴,听我的”。它会关掉 Midjourney 自以为是的一些“美学优化”,让你的提示词变得更直接,效果也更……耿直。有时候那些自作聪明的“润色”,反而会毁掉你想要的东西。
--loop
/ --end
--loop
能生成一个无限循环的短视频,开头和结尾无缝衔接,适合做些氛围动态图。
--end
后面可以跟另一张图的链接,理论上能实现 A 图到 B 图的平滑过渡。(但实际上效果好不好,纯看 AI 心情。)
默认生成的 5 秒视频,刚够干啥的?讲不了故事。
所以 Midjourney 给了个 “Extend” (延长)按钮,每次能给你续 4 秒,最多续 4 次,加起来总共 21 秒。你可以用 Extend Auto 让 AI 自动续,也可以用 Extend Manual 自己改改提示词再续。
听起来不错,但别高兴太早。每次延长,都是一次新的赌博。故事走向会不会崩,全看天意。
写视频的提示词,和你画静态图的思路完全不一样。你不再是描述一幅画,而是在给一个脑子不太好使的“虚拟演员”写一个三秒钟的微型剧本。
多用动作词(Action Verbs)别光说“一个男人”,要说“一个男人正在 run
(奔跑)”、“一个女人在 blink
(眨眼)”。镜头也一样,告诉它 pan left
(向左平移)。
用上顺序词(Sequence Words)这很重要。用 first
(首先)、then
(然后)、while
(与此同时)这种词,把微小的动作串起来。比如:“first she stands up, then walks to the door
”(她先站起来,然后走向门口)。
求求了,别再加那些没用的画质词什么 “8K、HDR、ArtStation trending”……这些在视频模型里纯属噪音,AI 不仅看不懂,还可能被带跑偏。省省吧。
举个例子,你想让AI画这个:
“一只猫穿过屋顶,镜头向左移动,同时月亮升起。
就得这么写:
“
A cat darts across the rooftop. Camera pans left while the moon rises.
动画,是 AI 基于你给它的那张静态图“即兴表演”出来的。
你想让一个人拿起桌上的杯子?那你的起始图里,必须得同时有这个人,和那个杯子。少一个,AI 都不知道你想干嘛,它没法凭空变出东西来。你的开始,就决定了它的全部可能。
目前这视频生成到底行不行?
最后扯两句公道话。
优点?
--sref
)” 或者 “个性化代码 (--p
)” ,至少能让你的几个短片看起来像同一个爹生的。缺点呢?(这才是重点)
high motion
极易翻车,画面抖动、人物变形是家常便饭。说到底,玩这个,心态得变。
别再把自己当成一个许愿的甲方,对着机器念咒语。你得把自己当成一个预算紧张、演员还不太聪明的导演。
你得给角色写行为,比如 mouth closed
(闭着嘴)、silent
(保持安静)。 你得给镜头写指令,比如 static shot
(静态镜头)、camera pans right
(镜头向右摇)。
你得接受它的不完美,然后在这些限制里,找到一点点创作的乐趣。
就这样吧。这就是关于 Midjourney 视频功能,我能说的大实话了。
--loop
)/ 结束帧 End frame(--end
)--raw
)--motion low/high
)--sref
,先用来做起始图)