关于ZAKER 合作
量子位 3小时前

57.1% 的人分不清真假!Runway 新视频模型太爆炸

不 er,这个世界还有什么是真的?反正我是已经分不清了 ...

短短 3 秒,连续切了 3 个镜头,从人物脸上的皮肤纹理,到满天纷飞的大雪,细节真实到有点离谱!

再看看这个,湿漉逼真的头发、肉眼可见的面部雀斑、超自然的景深,有点好莱坞大片内味儿了嗷:

还没完,咱再来看这个,机械义体与人脸的融合,以及构图处理都非常到位,妥妥滴赛博大片即视感!

你就说逼真不逼真吧…

不卖关子,就是 Runway 刚刚发布的——全新「Gen 4.5」模型。

这次更新主打的是图生视频,在镜头控制和故事叙事上,明显往 next level 推了一步~

这波效果一出来,网友当场坐不住了,直呼:感觉都能吊打好莱坞制作团队了好吧?太逼真!(doge)

甚至逼真到,在 Runway 做的一项 1000 人参与的调查中,结果只有约一半的人能分辨出该模型和真实视频的区别……

问题来了,那这超超超逼真的—— Gen 4.5 模型效果到底咋样?咱一起来看!

模型更会讲故事了、细节处理也更到位了

咱先来说说,这次全新的 Gen 4.5 在模型能力上的有啥亮点看头~

长故事表达能力:能承载更长时序的内容结构,视频的完整度和长度大大提升。

精准的镜头控制能力:镜头的景别、角度、运动轨迹以及切换节奏都更可控,输出效果更接近真实摄影语言。

连贯的叙事能力:多个镜头之间的情节逻辑性更强,叙事表达比上个版本更到位。

更稳的角色一致性:图像参考 + 模型内部一致性优化,主体在不同镜头中的跨帧效果更稳定。

咱直接边看效果边细细道来~

从官方给出的效果看,在镜头控制上,Gen 4.5 能在 5 秒的时间内快速生成包含「近景」「中景」「远景」的三个镜头。

即便镜头不断晃动,人物面部依旧保持了较高的一致性。

哪怕骑在快速飞行的章鱼身上,小女孩依旧「面不改色」,面部细节完全没崩~

还有下面这个让巨型毛绒大猩猩走在纽约街头徘徊的视频,不论是镜头比例、透视逻辑,还是主体与城市背景的光影一致性,都处理得相当稳:

我们再来看看模型「讲故事」的能力。

下面这个 Runway CEO 用 Gen 4.5 生成的两分多钟剧情视频,在叙事完整性和场景一致性上,已经接近一条可用的短片水准:

即便在同一个车厢环境中,多次切换主体的镜头位置和动作,画面之间的空间关系和镜头衔接依旧保持连贯,没有出现明显的跳轴或场景漂移问题。

再来看看下面这位网友制作的超有「镜头漂移感」的视频,镜头一拖一拽,给到每个人的特写,再恢复远景镜头,感觉就差一段超热血的 bgm 了!!!

怎么说呢,如果你跟我说这不是 AI 做的,我真会以为是哪个影视公司的新片片段。(真 · 脑子宕机了)

甚至,真实到什么程度呢?

连 Runway 自家公司里的《员工》,都已经分不清哪条是他们模型生成的,哪条是真拍的了……

于是乎,灵机一动的 Runway 索性直接找了 1000 个人来测一把,看看 Gen 4.5 到底能把人「骗」到什么程度,其规则是:

Runway 把自家 AI 生成的视频和真实视频放在同样的分辨率和时长条件下,让参与者在 10 秒内判断,哪些是真人拍的,哪些是 AI 做的。

结果您猜怎么着?

这一千个人里头,只有 57% 的人能成功识别出哪条是 AI 生成的。(天塌啦!)

是的,在这场「安能辨我是 AI」的大戏里,AI 的生成水平,已经和人类的肉眼辨别能力打到了势均力敌的程度。

(好好好,这个世界到底还有什么是真的啊!!!)

没准哈,下一步可能真得靠 AI 去鉴别 AI 了……

视频模型能力,正在进入新一轮升级期

Runway 这波模型更新,确实有亿点点不一般,与此同时带给我们的还有一个感受是:诶?这模型能力感觉好熟悉…

其实细细盘算一下,从去年年底到现在,市面上的视频模型一波接一波地更新,虽然各家厂商走的路线不完全一样,但整体看下来也有一些明显的共同趋势。

我也帮大家浅浅概括了一下:

真实度 / 物理一致性大幅增强:模型在光影逻辑、动作规律、面部控制等方面越来越接近物理世界的表现。

声画同步能力提升:模型可以直接生成配套音频,唇形同步精度明显提高。

局部控制精细化:局部编辑能力成为重要趋势,越来越多模型支持单独局部面区域,无需重新生成整段视频。

支持更久的生成时长:10 – 60 秒的视频生成区间变得越来越常见,竖屏原生视频逐步占据主流。

视频生成方式更加多元:从图生视频,到音频生视频,视频生成方式越来越多,创作路径也变得更加灵活。

直接拿俩个大家感受比较深的模型能力趋势和大家聊聊。

首先,就是真实度一致性的要求被整体抬高。

具体指的主要是纹理与细节保真、光影与氛围、整体画面质感等等,能体现物理世界的细节地方。

也就是说,现在的视频模型越来越注重 AI 是否能理解并遵守现实世界的物理规律,能否在「跨帧」这事儿上表现得更自然。

像 Veo 3.1 上一波的升级,就在视觉保真度和电影级打磨上大幅提升,许多官方 demo 的细节处理上已经接近电影级:

咱们再来看看声画同步能力。

给我们最直接的感受就是:视频终于不只是画面更真了,声音也终于安排到位了,哪怕是侧脸、极端角度,或者多人对话场景,声画方面也不太容易崩。

各厂商们都确实都在想着怎么让 AI 视频开始真正具备做带台词的短剧 、广告 、社交内容的可用性。

就在昨天,马斯克也官宣了 Grok Imagine 的最新成果,原生声画同步能力同样迎来了一波明显升级~

(这波热闹凑的好啊,好热闹啊)

总的来说,现在的主流视频模型,已经明显越来越接近可商业化应用、具备普适性的能力了。

当然了,各大厂商的发布节奏越来越「密」,说不定到了明天,又一个「新趋势」就会被端上台面。

但不管怎么说,Runway 这波 Gen 4.5 的更新,确实有点出乎意料,也是真 · 一代更比一代强了。

感兴趣的朋友,可以直接上手搓搓试试~

参考链接:

[ 1 ] https://x.com/elonmusk/status/2014112911783084046?s=20

[ 2 ] https://x.com/runwayml/status/2014090404769976744

[ 3 ] https://www.youtube.com/watch?v=cOcsxd5mC8k

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

年度「AI 100」产品榜单正式发布!

量子位智库通过三大板块——最强综合实力的「旗舰 AI 100」、最具未来潜力的「创新 AI 100」和十大热门赛道代表产品,全面梳理 2025 年度国内 C 端 AI 产品的发展脉络与创新成果。

一键关注 点亮星标

科技前沿进展每日见

相关标签