共计 1319 个字符,预计需要花费 4 分钟才能阅读完成。
AI 视频领域两大巨头展开激烈竞争
几乎在同一时刻,AI 视频领域迎来了两项重大更新,这一领域的竞争可谓是白热化。
Runway 率先发布了图像生成基础模型 Frames,显著提升了 AI 生图的质量。随后不到半小时,另一巨头 Luma 也迅速推出了全新的 DreamMachine。这一竞争态势堪比谷歌与 OpenAI 之间的精彩较量。
先来看 Runway 的 Frames,它在风格控制和视觉真实度方面取得了重大突破,能够在保持风格一致性的同时,支持广泛的创意探索。借助 Frames,用户可以为自己的项目确立独特的视觉风格,稳定生成符合审美标准的各种变体,精确设计出所要创造的世界的外观、质感和氛围。目前,Runway 正在逐步向 Gen-3 Alpha 用户开放 Frames 的访问权限。
Luma 紧接着推出的交互流程令人眼前一亮,文字、图像、视频都融合在一个流程中,为创意提供全方位服务。用户无需专业的提示工程,只需通过自然交互,DreamMachine 就能将脑海中的想法转化为现实。
Runway 的 Frames 能够创造出丰富多彩的世界。例如,通过经典电影的视觉语言重新诠释数字肖像,展现 1980 年代特效化妆的魅力,重现 1970 年代专辑封面的风格,融合复古动漫美学与梦幻科幻的日本小刊物风格,以及当代肖像艺术与对称性建筑和电影级色彩相结合的数字影像风格等。
Runway 研究员 Nicolas Neubert 展示了更多由 Frames 生成的具有电影级质感的图片。Frames 就像一个神奇的纽带,将所有创意工具无缝连接,串联起 Runway 平台上的各种创作环节,让用户能够大胆展开想象,探索故事世界的雏形。
Luma 的 DreamMachine 强调创意的自然流畅,无需复杂的提示工程,用户只需用最自然的方式与 Dream Machine 对话,就能轻松探索、创作和修改作品。它基于 Luma Photon 模型打造,被认为是当今最具创造力、最智能、最快速的图像 AI 模型,能够以其他同类模型 8 倍的效率和速度生成高分辨率、高精细度、创意合成的图像。
DreamMachine 能够实现许多创意想法。比如,用户说一句“我可以把花放在生态玻璃中吗?”,它就能立即生成多种多样的玻璃花园,还可以让花长在沙园、悬挂式花盆、共生装置等任何地方。用户说“我能让这片沙漠下雨吗?”,它也能瞬间让雨降落。
DreamMachine 支持图像自由参考和随心重组,用户通过导入专属图像、风格和角色,就能完美呈现创意。它还实现了角色一致性的开创性突破,用户只需一张图片,即可通过角色参考功能创建专属角色,让其在图片和视频中栩栩如生。此外,通过运用强大的 DM 1.6 视频模型,配合镜头动作和起止帧设置,用户能够精确编排每个镜头,打造完美视频,还可以通过简单说声“循环”来延长视频时长。令人惊艳的 Brainstorm 功能能够为用户开启无限创意之门,激发无限创意方向。
在 Luma 的留言区,网友们对 Dream Machine 赞不绝口,纷纷表示已经测试了好几天,感觉非常棒。用户可以混合任何元素,基于它构建自己的创作。
总之,Runway 的 Frames 和 Luma 的 DreamMachine 都展示了强大的图像生成能力,为 AI 视频领域带来了新的活力和可能性。