看到今年的毕业季,估计王勃会气得从地里爬出来,把开发 AIGC 检测模型的人电脑插头拔了。
事情是这样的,今年很多学校为了防止学生用 AI 写毕业论文,在论文送审时加了一项 "AIGC 检测 ",意思就是检测你文章里多少内容是由 AI 生成的。
但直到最近,大伙的论文都接近尾声了,才发现这玩意儿让大伙的毕业季变成了走马灯。
" 我写的内容会被识别成 AI,而 AI 写的反而不会被识别成 AI,因此 AI 检测论文就是在检测谁能把话说的更不像人话。"25 届毕业生小蛋如是说,此处内含脏话过滤器。
大伙发在网上的评论,更是一个比一个离谱。
因为自己写得太专业,被检测成 AI 写的。
我估计是因为,这文章写得太华丽了,对仗工整,用典密集,信息密度巨大,跟现在的 AI 文章确实是有点相似之处的。。
而且,你猜怎么着?AI 生成疑似度的检测,也是由 AI 进行的。
这活儿,别说碳基生物了,硅基生物都想不到,自己被设计出来,要帮人写文章,改文章,还要帮你猜猜这文章是不是人写的??早知道上辈子烂在服务器里了。
但从过程来看,就有点搞笑了。
所以说,要是同事毕业那年有这指标,还真得开骂,这结果根本就不准啊。
更何况一共四万多字,就要了我 84 块。。如果有人 AI 生成疑似度死活降不下去的话,我能感受到一种砸锅卖铁的绝望。
而之前,咱也就试了一下论文这种专业性强的东西,我就很好奇啊,它是不是啥也不准。于是我当场手码了一段文字,让 AI 给我检测下。
看这无敌的逻辑性,就知道 AI 肯定写不出来。
所以,检测 AI 生成疑似度的原理到底是啥?不能 AI 说啥就是啥吧?
没想到吧,还真是。
当你把文字输入检测工具时,它会分析这段文字的各种语言特征,包括词汇、句子结构、段落衔接方式等等。。然后,它会将这些特征与 AI 的写作模式进行对比。
对比分析后,检测工具就会得出一个判断,并不是绝对地告诉你 " 是 " 或 " 不是 ",而是一个基于语言特征的概率推断。
像 OpenAI 在 ChatGPT 刚发布时,就推出了自己的 AI 文本识别工具 AI Text Classifier。但准确性就很拉了,只有约 26%,还把莎士比亚的作品当成 AI 生成的。。
当 AI 写出的文本越来越像人类,分类器也越来越难跟上这种变化,导致它的判断完全不准确,甚至比瞎蒙还不准确。。就算它看出来了,你随便加一点,它也就看不出来了。
再说了,刨去准不准的事儿不提,AI 本身就是用来模仿人的写作风格的。。把人类的文章拿来训练 AI,再把 AI 拿来检验人类写出的文章像不像 AI,本身就有一种 " 爸爸像儿子 " 般的荒谬。
意思是 AI 学会了我的写作风格,我就再也不能用这种风格了吗?那留给人类的时间不多了。
而且,拥有不确定性,就意味着一定会导致误伤。拿这个作为毕业指标,是不是有点拼运气了?这一整,没有大保底,非酋怕是毕不了业了,肄业原因是脸太黑。
于是,大家只能费尽心思,把自己的文章改得越来越不像人。
写过论文的朋友们都知道,很多大学都有自己的检测系统,却不喜欢给学生试用,为了顺利毕业,学生只能自掏腰包去第三方网站自查。
查重降重这种东西本来就要花钱。。而现在又多了一项指标,就意味着要花钱的地方又多了一头。
但有个非常奇特的现象,用不同网站测同一篇文章,AI 生成疑似度完全不一样,甚至相同网站不同时间的结果也不一样。
这导致学生被迫成了无头苍蝇——谁主张谁举证,这些网站都在主张你疑似使用 AI,但根本没有证据,甚至没有一个统一的标准。所以,到底要怎么改呢?
所以,理论上只要把活老老实实干完,保证实验严谨,数据真实,就达到要求了。用 AI 把我的工作,用学术风格写出来又怎么了?
AI 的发明就是用来减轻人类负担的,它们早已成为很多研究者工作中的一部分。
中科院理化研究所的杨晓涛博士就曾表示过,单位和导师都鼓励科学家学习使用 AI 工具,也会让他们思考如何与科研结合。而高校却不允许我们的学生使用 AI,又怎么能接近真正的研究者呢。
但,这其实也很好解决。AI 用多了,你就会发现,肉眼辨 AI 基本上就够用了。
太离谱的文章,一眼能看出来是 AI 一作的,肯定是过不了关的。但一眼看不出来的,说明和人写的已经所差无几了——只要内容详实,又何必在意词句?
与其纠结 AI 生成疑似度,不如把目光放到内容真实性上来,一篇论文中包含的努力和汗水,才是其中最宝贵的东西。
总之,AI 被发明的初衷是服务人类,现在让大家和 AI 斗智斗勇,属实是有点没事找事了。
处在 AIGC 元年的大伙,在此刻也终于理解了王勃——时运不齐,命途多舛;三尺微命,一介书生。
撰文:不咕