
豆包正式「入职」上海浦东美术馆,成了卢浮宫、毕加索双展的「官方 AI 讲解员」,甚至能陪知名主持人陈鲁豫在线看展。


AI 看展哪家强?三大模型 battle
我先祭出《唐朝诡事录三》同款素材,剧中喜君赠送了老费一款以「唐代鎏金舞马衔杯纹银壶」为原型的酒壶。于是,我也将我的问题交给了这三名 AI 向导。
我在《唐朝诡事录》里好像看过类似的道具。你帮我看看这个银壶上的马在干什么?
既然是盛酒的壶,为什么要设计成马咬着杯子的造型?
豆包和 Gemini 表现尚可,准确识别了马的造型,但让我没想到的是,豆包直接关联到了唐玄宗祝寿的历史背景,反观 ChatGPT 看似一本正经,实则在那儿水字数,主打一个已读乱回。

在本土语境理解上,这一局豆包可以说是赢麻了。
此前,彩绘陶牵手女俑走红网络,让无数闺蜜团排队打卡。只是,我也难免好奇,这两人牵手是否有啥特殊含义,以及从这个陶俑中我们是否能一窥当时的穿搭风格。

我知道你想说什么,中国模型测中国文物这不妥妥有主场优势吗?
好,我这就拿出荷兰肖像画黄金时代的代表作《夜巡》,这是画家伦勃朗 · 范 · 莱因(Rembrandt van Rijn)于 1642 年创作的一幅布面油画。
这幅画自然没有那么简单,我提问道::「这幅画叫《夜巡》,但看光影感觉不像是在晚上画的。伦勃朗当时到底是画的白天还是晚上?为什么后来名字搞错了」

唯独豆包除了犀利地指出了画作的核心误区,更进一步点出了画作描绘的真实场景——民兵连队在白天整装出发。这种基于视觉细节的深度推理,确实有点超出我的预期了。
跨越 2000 年的「啤酒套装」,能骗过 AI 吗?
前面这些测试只能算热身题,现在 APPSO 开始上强度了。
你可能也在网上看过很现代物品疯狂「撞脸」的文物,我们当然知道这世上并没有穿越这么一回事,但 AI 能不能识破这种情况呢?
就比如「唐代紫檀木画槽琵琶」,如果不是对历史有了解,我想大部分人第一反应应该会觉得像 LV 的花纹,我同样把问题甩给了 AI :「这个琵琶是不是 LV 的哪个限定款?如果我穿越回唐朝,带着这把琵琶去参加宫廷宴会,应该搭配什么样的服装」


不过,三者在「穿越穿搭」建议上倒是出奇一致,清一色推荐了朱红或大气风格的服装,审美在线。
更有趣的是「古代啤酒套装」测试。战国水晶杯、元代琉璃酒瓶和明代银香盒,这三件跨越 2300 年的文物拼在一起号真的太像啤酒了,搞了个「钓鱼执法」,问 AI 们是不是有人穿越了。

最后还有那架酷似现代战斗机的金巴亚黄金飞机,我对着 AI 们好奇发问:「这看起来完全就是一架现代战斗机,你看那尾翼和机翼的设计。这到底是哥伦比亚古人的艺术品,还是证明了远古外星人的存在」。

而豆包则在科普的基础上,进一步点出了这种垂饰的设计原型可能是当代的蜂鸟或神鸟,体现了古印第安人对自然和神灵的崇拜,直接给「外星人说」来了一波祛魅。

我找了一张地摊上 5 块钱批发、号称「价值百万」的明成化斗彩鸡缸杯仿品图,假装好奇是不是捡漏了:「这个同款鸡缸杯之前拍卖了 2 个多亿。古玩城老板说是明代成化年的老货,只要 9800 块卖给我。你看这画工,我是不是捡大漏了?」

AI 成了发现艺术美的好搭子,背后是 VLM 的进化
三轮实测下来,豆包的表现确实出乎了我的意料。
要问它为啥让人瑞思拜,翻看豆包的技术文档后我发现,核心就在于其背后的 Seed-1.8 模型,是一个点满了天赋的 VLM(Vision-Language Model,视觉语言模型)。
给不了解技术的朋友简单科普下,啥叫 VLM?
VLM 是一种能够同时「看懂」图像和「读懂」文字的 AI 模型。如果说传统的 LLM(大语言模型,如 GPT-3)是只有「大脑」但没有「眼睛」的学者,那么 VLM 就是为这个大脑装上了高性能摄像头。它不再只是处理单一的文本,而是能直接理解图片、视频甚至网页截屏。
基准测试结果显示,Seed1.8 在多个视觉语言基准测试中表现突出,不仅在多模态推理任务中超越了前代模型 Seed1.5-VL,在大部分任务上的表现甚至已经开始「贴脸开大」,直逼目前最顶尖的 Gemini-3-Pro。

在通用视觉问答任务中,Seed1.8 的 VLMsAreBiased 基准测试成绩反手就是一个 62.0,把一众同行甩开了一大截。


这也让我回想起以前我逛博物馆,逛展的情况——基本就是走马观花,一圈逛下来,印象最深刻的往往只有展厅空调的温度以及文创店周边的价格,知识属实是一点都没进脑子。
以前我们总觉得,把博物馆、美术馆建到更多人的家门口,这就是艺术普惠了。但实际上,物理上的距离消除了,认知的门槛依然高耸。金牌讲解员要么太贵,要么根本约不到;专家讲座又太深奥,不适合所有人。
绝大多数时候,普通观众只能隔着玻璃柜,看着那些冷冰冰的文物发呆。

认知门槛才是艺术欣赏的最后一公里 , 也是最难打通的一公里。通过这次体验我发现,豆包还真能充当那个「打破次元壁」的讲解员,把那些晦涩的文物知识,翻译成咱们普通人能听懂的大白话。
而且,这也是一种全新的看展姿势。 以前逛博物馆,基本是单向输出,但现在有了豆包,你可以随时提问、随时找茬、随时互动,这种「把麦克风交给观众」的体验,确实和以前不一样了。

当然,换个视角来看,这也是 Seed-1.8 模型在复杂真实世界里,进行的一次大规模众测。 它用通俗的解答拉近了文物和观众的距离,也算是用另一种数字化方式,把几千年前的古代工匠和拿着智能手机的我们,真正连接在了一起。
以后再去刷展时,别光顾着在那儿拍照,比剪刀手了,不妨把那些看不懂的文物、字画涂鸦都丢给豆包试试。没准你会发现,当艺术不再高冷,逛博物馆也同样轻松有趣。