众所周知,"AI" 已然成为了近年来最大的风口之一。一方面,只要与 AI 扯上关系的行业基本都能 " 原地起飞 ",就算不是真的飞起来,起码也能吸引到不少的关注。
那么以上这些问题的根源,到底是什么呢?
当然,从技术的角度来说,可以讲这是时代的局限性,是现在的 AI 还不够完善,是模型的训练量还不够大,所用的硬件算力还不够高。
但从非技术这个角度来看,事情或许就没有这么复杂了。因为纵观到目前为止的各种 "AI 事故(和故事)",问题的症结似乎都可以归纳为" 信任 "二字。
有时候我们三易生活内部进行讨论时也会感叹,由于现在部分用户对于 AI 十分盲信,所以那些互联网搜索引擎公司不如干脆停掉传统广告业务,直接在 AI 回答里植入广告得了。反正只要说成是 "AI 说的 " 就会有人信,真出了事甚至也能甩锅给 AI,还搞什么传统的搜索竞价排名呢。
当然,用户盲信 AI,AI 是不是也盲信用户呢?是的,而且实际上程度可能还要更加严重。
但这还不是最糟糕的情况。由于 AI 对用户存在着盲目的信任,而且对于大语言模型来说,他们其实是没法区分自己 " 对话 " 的对象究竟是开发者、还是一般用户。所以这就造成了另一个问题,也就是所谓的 " 提示词注入攻击 "。
比如在刚发布的一款 AI 助手类软件 "Claude" 的使用说明里,就可以看到其开发者对于注入式攻击的警告。因为这款 AI 助手能够帮助用户阅读网页、填写表单、撰写和发送邮件,所以它可能会被网页里隐藏的命令语句 " 蛊惑 ",向攻击者发送包含用户隐私的邮件。而这,便是 AI 盲信用户所可能导致糟糕结果的其中一种极端体现。
那么除了用户和 AI 之间的 " 互相盲信 ",还有没有其他情况呢?当然有,那就是 AI 和 AI 之间糟糕的 " 信赖关系 "。
如果说用户盲信 AI 是出于 " 对威权的崇拜 "、AI 对用户的盲信则是出于商业利益的 " 刻意逢迎 ",那么 AI 和 AI 之间的 " 信任关系 ",绝大多数就只能解释为开发者的纯粹偷懒行为了。
当然,大多数时候,"AI 教坏 AI" 的例子影响力没有 DeepSeek 这次那么大,但其 " 错 " 的程度绝对可以比这更离谱。
比如大家都知道,现在不少网站的文章实际上都是靠 "AI 生成 "。而当今那些 AI 助手服务,很多实际又要靠互联网上的公开内容抓取来生成观点和信息。于是乎,如果 AI 抓取了 AI 生成的文章,然后产出的观点又被 AI 拿去写成了新的文章,结果会变成什么样呢?
不过这个看起来很好的举措并非强制性的,而是要靠网站自愿,所以真正的效果怎样,就只能是大家自求多福了。
【本文图片来自网络】