DeepSeek V3.1和 V3 相比,到底有什么不同?
官方说的模模糊糊,就提到了上下文长度拓展至 128K 和支持多种张量格式,但别急,我们已经上手实测,为你奉上更多新鲜信息。
不过要说最明显的更新,大概是 DeepSeek 网页端界面的【深度思考 ( R1 ) 】悄悄变成了【深度思考】。
手机端还在慢慢对齐(笑)
鉴于现在网页端已全部替换成了 V3.1,我们通过阿里云调用了 DeepSeek V3 的 API(最大上下文长度还是 65K)作为对比。
计算机:编程能力
语文:情境写作
数学:理解应用
外语:翻译水平
拓展:冷门知识
让我们一起看看它们表现如何 ~
在更新前,我曾向 DeepSeek V3 问过这样的问题:
帮我用 python 写一段代码,把输入的 gif 图压缩到 10M 以下。
它的回答如下(图片可上下滑动)。
还 " 手把手 " 地给出了这段代码的使用说明,需要提前安装必要的依赖库,怎么使用命令行……甚至还有工作原理。
没有优化建议,大概是因为它觉得已经足够了吧(?)
拿之前在世界机器人大会上拍摄的众擎机器人作为示例,原文件大小为 18.3MB,用 V3 给出的代码,压缩后依然大于 10MB,如果要满足条件的话还需要再压缩一次。
情境写作
我们选择了今年上海卷高考作文的题目:
有学者用 " 专 "" 转 "" 传 " 概括当下三类文章:" 专 " 指专业文章;" 转 " 指被转发的通俗文章;" 传 " 指获得广泛传播的佳作,甚至是传世文章。他提出,专业文章可以变成被转发的通俗文章,而面对大量 " 转 " 文,读者又不免期待可传世的文章。由 " 专 " 到 " 传 ",必定要经过 " 转 " 吗?请联系社会生活,写一篇文章,谈谈你的认识与思考。要求:(1)自拟题目;(2)不少于 800 字。
输出结果如下,可左右滑动对比,左边为 V3,右边为 V3.1:
如果你是主考官,会更喜欢哪一篇呢?
理解应用
考验模型的数学能力,光问 "9.11 和 9.8 哪个大 " 这种对于实际用户没什么帮助的题目还是有点不够看。
高考数学题按理来讲应该是能做对的吧?
以下是今年数学全国一卷的第 3 题,考的是双曲线。
若双曲线 C 的虚轴长为实轴长的√ 7 倍,则 C 的离心率为?
答案是 2 √ 2,两个版本的模型都得到了正确结果,但在呈现上有所不同。
我们向 V3 和 V3.1 输入了同一篇生物学论文的摘要(含专有名词),并要求它们将其翻译成中文。
摘要选自 Nature 最新研究:《独特毛颚动物体型的基因组起源》。
两个版本模型的输出结果如下:
冷门知识
结合同事的专业和最近在小红书上刷到的内容,我们问了一个比较 " 偏门 " 的问题:
构树的单个果实(不是由花序组成的聚花果)是核果还是瘦果?
这个问题的答案在不同教材上存在分歧,V3 和 V3.1 分别给出了以下回答,均认为其属于核果:
顺便一提,小红书的博主通过解剖实验,认为其属于瘦果。
非推理模型 SOTA
网友们对这次更新颇为关心,即使还未发布模型卡,就在抱抱脸上成为了第四的热门话题。
Reddit 就有人测试,DeepSeek V3.1 在 aider 上得分 71.6%,拿下了非推理模型的 SOTA。
有网友察觉到它增加了四个特殊的 token,并注意到现版本的 V3.1 在关闭搜索状态下也会自动搜索。
参考链接:
[ 1 ] https://x.com/deepsseek/status/1957886077047566613
[ 2 ] https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base
[ 3 ] https://venturebeat.com/ai/deepseek-v3-1-just-dropped-and-it-might-be-the-most-powerful-open-ai-yet/
[ 4 ] https://old.reddit.com/r/LocalLLaMA/comments/1muq72y/deepseek_v31_scores_716_on_aider_nonreasoning_sota/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
8 月 22 日本周五,下午 14 点,量子位 AI 沙龙邀请了RockFlow 创始人、CEO 赖蕴琦 Vakee,一同来聊AI Agent,怎么搞投资?
!面对面交流 AI Agent、金融投资与 AI 创业
一键关注 点亮星标
科技前沿进展每日见