关于ZAKER 合作
极客公园 16分钟前

为什么谷歌搜不到「没有条纹的衬衫」|AI 上新

你有没有过类似这样的经历:在谷歌图片搜索「没有条纹的衬衫」,然后屏幕上铺满了各式各样的 …… 条纹衬衫。

熟练使用关键词搜索的人可能对这个场景已经习以为常,但这恰恰暴露了我们每天使用的搜索引擎的问题——其最底层的运作逻辑:核心机制是匹配关键词,它们识别并抓取网页中的「衬衫」和「条纹」这两个词,但通常会忽略「没有」这个否定词所承载的复杂逻辑。它们匹配字符,但不理解意图。

关键词「没有条纹的衬衫」,谷歌图片搜索结果

这就引出了一个核心问题:我们已经进入了能够与人工智能进行复杂对话的时代,为什么最基础的信息获取工具——搜索引擎,其核心逻辑似乎仍停留在关键词匹配的阶段?

极客公园最近体验了一款叫做 Websets 的 AI 搜索工具。与谷歌搜索不同,Websets 试图理解人类的复杂意图。它并非为日常查询设计,而是专门处理传统搜索引擎难以完成的复杂任务,例如寻找具备特定复合经验的专业人士,或筛选符合多重标准的公司实体。

栏目作者召集

极客公园的新栏目「AI 上新」,将带大家体验最新的 AI 应用和硬件,让你成为 AI 时代「最靓的仔」!

现在,我们也向所有喜欢尝鲜和体验 AI 的同学发出召集,只要你发现并体验了新的 AI 应用或者功能,按照格式(参考案例:这款 AI 调研神器,让我一键产生 1000 个「种子用户」|AI 上新)向栏目投稿,在极客公园公众号发布,不仅能获得相应稿费,且会为你「报销」AI 应用的订阅费用。

同时,优秀作者还有机会进入极客公园 AI 体验群,获得最新 AI 应用和工具的内测资格,参加极客公园专属相关 AI 活动,和 AI 应用创始人一对一沟通。

AGI 太久,只争朝夕,让一部分人先 AI 起来吧!投稿、进群请扫描下方二维码添加极客小助手微信

01

魔镜魔镜,谁是世界上最漂亮的女人?

我觉得魔镜就是最完美的搜索引擎。

在童话《白雪公主》中,王后问魔镜:「魔镜魔镜,谁是世界上最漂亮的女人?」魔镜给出了一个明确的回答。这面魔镜,可以视为理想搜索引擎的终极形态:

它能理解复杂、主观、且包含绝对性条件的查询,并给出精准、唯一的答案。

假如我们认真评估回答「谁是世界上最漂亮的女人」这个问题的可行性,就会发现其难度极高。

首先,它需要构建一个「美」的通用标准。这本身就是一个非常主观的问题——世界上并不存在唯一的美的标准。其次,它需要一个覆盖全球所有女性、并包含各项可量化特征的实时数据库。

这两个条件在现实中都无法实现。

不过,我们倒是可以借这个极端问题来观察:不同搜索引擎,是如何应对那些模糊、带有强烈主观色彩的提问的。

当我向谷歌提出「谁是世界上最漂亮的女人」时,它返回了海量的链接。排在前面的,是各类文章、榜单和视频,内容涵盖了「2024 年全球最美女性」、「全球最美女星榜单」以及一部 Netflix 的同名电影。

谷歌没有直接回答问题,而是提供了与「漂亮」和「女人」这两个关键词高度相关、且在网络上拥有高点击率和高权重的链接。这是关键词搜索的核心逻辑:不直接解答,而是提供最受欢迎的相关信息索引。

Websets 的应对方式则不同。由于它被设计为处理结构化查询,面对这样一个开放式问题,它会试图将其转化为一个可执行的、基于数据的检索任务。

这项操作失败了,因为正如上文所说,要回答「谁是世界上最漂亮的女人」的两个条件在现实中都无法实现。

Websets 告诉我:

无法根据查询内容构建搜索:「谁是世界上最漂亮的女人?」。请尝试重新组织您的查询语句,或手动选择实体类型并在下方添加搜索条件。

Webstes 拒绝回答问题,并返回了一个红色警告|图片来源:Websetes

这并不是一次失败的搜索,而是一次失败的提问。系统并没有尝试去寻找答案然后失败了,而是在搜索开始之前,就判定你的问题无法被转化为一个可执行的数据查询任务。

实际上,你可以把 Websets 当成一个数据工程师,它的工作不是「理解」你的哲学问题,而是把你这句话翻译成一行精确的数据库查询代码,然后去一个巨大的、装满了「人」、「公司」等实体的数据库里进行筛选。

这个对比揭示了新旧两种搜索引擎的核心差别:

谷歌把「定义和判断」的责任留给了用户。它给你海量信息,让你自己去定义谁最漂亮。它善于处理事实类查询(「法国的首都是哪里?」),但面对需要深度理解和多重条件过滤的任务时,就会退化为提供一堆相关度不高的链接。

Websets 把「定义和判断」的责任前置给了用户。它要求你必须先把「漂亮」的定义想清楚,并转化为一组机器能懂的、客观的筛选指令,然后它才能为你执行。

这种差别,来源于 Websets 运作的底层逻辑与传统搜索不同。它不依赖于关键词索引,而是采用一种被称为「嵌入」(Embeddings)的技术。

可以这样理解:

首先,它使用一个深度学习模型,读取并理解一个网页的全部内容,包括其核心论点、上下文和语境,然后将这些复杂的「含义」压缩成一个由数百个数字组成的独特列表。这可以被称为该网页的「语义指纹」。

当用户输入一个查询时,即便是长句或复杂问题,系统也会用同样的模型将其转换为一个代表用户真实意图的「语义指纹」。

搜索的过程,就变成了在数十亿个网页的「语义指纹」库中,通过计算,找出与用户查询的「语义指纹」最相似的那些。

这个方法在技术上原生支持对复杂逻辑的理解,因为它处理的是整体含义而非孤立的词汇,所以它能分辨「有条纹」和「没有条纹」这两个「指纹」之间存在的巨大差异。

02

重生之我在西贝当贾总

为了更具体地展示 Websets 对复杂语义的理解能力,我们设定一个高压商业场景:

假设你是某餐饮连锁品牌的 CEO,公司因「预制菜」问题陷入了一场全国性的公关风暴。你需要立即找到具备特定经验的专业人士来应对危机。

你向 Websets 发出指令:

「寻找在大型餐饮连锁集团担任过品牌公关总监或以上职位(条件 1)、且有处理创始人个人言论引发的公关危机经验的消费品牌公关专家(条件 2)。」

Websets 返回了一份结构化的电子表格,按照条件一和条件二在 LinkedIn 上筛选出符合条件的候选人,并按照满足程度排列优先级。

Websets 返回的结果是一份结构化的电子表格|图片来源:Websetes

对于条件一,系统准确地从公开信息中找到了在德州公路扒房(Texas Roadhouse)、麦当劳(McDonald's)、棒约翰(Papa John's)等大型餐饮连锁集团中,担任「高级公关总监」、「企业传播副总裁」等符合条件的高管。这部分任务,它完成得相当精确。

条件二就颇有一些难度,因为「处理创始人个人言论引发的公关危机经验」是一个相对难验证的事情。系统并没有给出简单的「是」或「否」。相反,它在右侧生成了额外的验证列,并给出了「Match」(匹配)或「Unclear」(不明确)的标注。

事实也是如此,同时满足两个条件的只有 Travis Dorster。他在德州公路扒房担任传播与公共事务高级总监。在新冠疫情期间,他处理过创始人因为新冠后遗症自杀的而引发的公共事件。

Websets 会给出满足条件的理由,以及相应的参考文献|图片来源:Websetes

这个过程揭示了 Websets 的核心价值。Websets 在此场景下扮演的,并非信息入口的角色,而是决策支持工具。它没有提供一份需要用户自行研究的「阅读清单」,而是直接交付了一份经过初步分析和验证的「候选人短名单」。它将原本需要数天人工筛选的工作,压缩进了几分钟的机器执行时间里。

但是,这个结果也显示了 Websets 的局限性。列表中的信息来源 URL 全部指向领英(LinkedIn),存在数据源的偏向性。如果一位顶尖专家没有详尽的、公开的领英档案,或者其关键经验体现在非文本的采访视频中,系统就可能无法发现他。

更重要的是,这种对特定数据源的依赖,也使其在处理中国市场相关查询时效果大打折扣。中国的候选人更多使用脉脉等本土化的职业社交平台,或者根本不使用。因此,用同样的指令去寻找一位符合条件的中国专家,其结果的可靠性和全面性将远低于这个案例所展示的水平。

但这并非其算法的失败,而是其数据基础的局限。

03

另一种搜索路径

截至目前,Websets 的公司主体 Exa 声称其索引了「数十亿」级别的网页。这个数字本身虽然可观,但与谷歌宣称的「万亿」级别索引相比,仍有几个数量级的差距。

这意味着 Websets 的搜索结果可能是「更精确」的,却不一定是「最全面」的。它或许在一个经过筛选的高质量信息池中找到了最优解,但用户无法确定在更广阔的、未被索引的互联网中是否存在更好或更重要的信息。

这是一个与成本高度相关的「缺陷」。语义计算是资源密集型任务,将海量网页和复杂查询转化为「语义指纹」并进行大规模比对,需要庞大的算力支持,其背后是高昂的硬件投入与运营开销。

2021 年,Exa 获得了 500 万美元(约合 3560 万元人民币)的种子轮融资,他们把一半的钱,都花在了建设第一个 GPU 集群上,

另一方面,Websets 使用的「嵌入」技术本身存在信息损失的风险。这项技术的核心是将一篇长文甚至一部巨著的全部信息,压缩成一个固定长度的数字列表。这个过程必然是有损的。

正如 Diffbot 公司 CEO Mike Tung 在面对《MIT 科技评论》时所指出的,「将一本《战争与和平》压缩成单个的嵌入,几乎会丢失书中所有具体的事件,最终只留下关于其类型和时代的模糊感觉」。

这意味着,该方法在把握宏观主题上表现出色,但在需要无损检索文本内部具体细节时,存在天然的技术缺陷。

因此,Websets 及其代表的语义搜索范式,并非谷歌的替代品。它更像是一种为特定目的,如深度行业研究、人才挖掘或学术分析而设计的「重型装备」。

它的出现,其重要性不在于它本身能否颠覆市场,而在于揭示了搜索技术演进的另一种可能性。

04

回归本质——我们为什么要搜索?

谷歌(Alphabet)每年从关键词搜索及其相关广告业务获得的收入大约在 1750 亿– 2000 亿美元,大致占其总收入的 55 – 60%。正是靠着这台由全球用户无数次点击驱动的印钞机,支撑起了谷歌那些近乎科幻的探索:从自动驾驶汽车(Waymo),到用人工智能(DeepMind)破解蛋白质的折叠奥秘,甚至尝试通过 Calico 项目延长人类的寿命。

这一切的背后,都源于那个我们每天都在使用的、看似简单的搜索框。这就让我们回到一个更根本的问题:如果搜索这个行为能支撑起如此庞大的商业帝国和对未来的探索,那么对我们个人而言,搜索究竟意味着什么?我们到底为什么要搜索?

1998 年,谷歌第一天上线时的页面|图片来源:Business Insider

要理解搜索的本质,必须先回到它的起点。人类之所以需要搜索,最底层的是一种生存本能。远古的祖先必须在环境中搜索食物、水源、庇护所以及危险的信号,搜索是活下去的前提。

当生存需求得到基本满足,驱动力便转向内在的认知延伸。人类的大脑似乎天然厌恶「信息真空」,当我们遇到知识的空白或矛盾时,会产生一种认知张力,我们称之为「好奇心」。搜索,便是缓解这种张力、填补认知缺口的行为。

这些动机恒久未变,但实现它们的方式却因技术而发生了两次剧烈的变革。

在前互联网时代,搜索是一种「路径式学习」。信息被安放在物理或逻辑的结构中:图书馆的杜威十进制分类法、百科全书的条目索引、学术期刊的卷宗。获取信息需要遵循既定的路径,你必须先理解这个知识体系的「地图」,然后亲自「行走」在这张地图上。

从产生一个问题,到查阅卡片目录,再到从书架上取下那本书,翻到对应的页码——这个过程本身就是学习的一部分。你不仅获得了知识,更重要的是,你理解了知识是如何被组织和验证的,抵达答案的路径清晰可见。

20 世纪 60 年代,在加拿大阿尔伯塔省埃德蒙顿的一家图书馆里,孩子们正在学习杜威十进制分类法|图片来源:Wikipedia

互联网,特别是以谷歌为代表的现代搜索引擎,则开启了「结果式消费」的时代。信息不再是稀缺的、结构化的,而是过剩的、碎片化的。你无需再理解复杂的知识地图,只需在输入框中敲下几个关键词,算法就会在瞬间为你呈现一个看似最优的结果。

它极大地降低了信息获取的门槛,但整个搜索过程被彻底「黑箱化」了。我们得到了答案,却完全不知道这个答案是如何从海量数据中被筛选、排序并最终呈现在我们面前的。构建知识和获取信息的差别正在于此,

更进一步,商业模式的介入不可避免地扭曲了信息的呈现。广告、搜索引擎优化(SEO)和对点击率的无尽追逐,使得我们最终看到的,往往不是最真实或最权威的结果,而是那个最希望被我们看到的结果。

如今,生成式 AI 的出现,并未创造一个全新的问题,它更像是一个催化剂,将「结果式消费」的趋势推向了极致。AI 承诺的,是一个连「结果列表」都无需我们筛选的世界,它将直接提供那个唯一的、完美的「答案」。

很多人会幻想存在一种更理想的搜索工具,它能将控制权交还给我们,过程透明,鼓励探究。但这或许忽略了一个根本性的事实:「黑箱」并非一个需要修复的缺陷,它本身就是被市场验证过的、最受欢迎的功能。现代搜索的整个演进史,都指向一个清晰的商业规律:对效率和便利的追求,其优先级远高于对过程和本源的探究。

本质上,这是一种交易。我们用探寻过程的精力,换取了即时获得结果的便利。这并非工具的缺陷,因为追求便利是人性的自然延伸。

关键在于,每个人都应该清楚地明白自己需要付出什么,可以自主做出自己的选择,并且不为此感到后悔。

* 头图来源:Wikipedia

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

极客公园

极客公园

这里汇聚着优秀的产品观察报道、高质量的线下活动

订阅

觉得文章不错,微信扫描分享好友

扫码分享