Py学习  »  aigc

AI 检测沦为学术酷刑,聊聊近期高校推行的 AIGC 检测制度

程序员好物馆 • 5 月前 • 197 次点击  

来源 | 飞天小牛肉
作者 | 小牛肉

最近看到很多 25 届的小伙伴毕业论文被加上了 AIGC 检测率的指标,比如四川大学在 4 月 9 日 发布的《关于开展2025届本科毕业论文(设计)学术不端行为检测工作的通知》中,就明确提到了,20% 和 15% 这两个比例,应该是部分学校本科生试点,还没有大规模铺开,不过小红书上搜 “AIGC 查重” 铺天盖地除了广告就是骂,痛,太痛了。

图片
图片

一个 AI 来评定这篇论文是不是另一个 AI 写的,将文本生成概率作为人类学术不端的确凿证据,真的荒谬至极,这是一场赤裸裸的技术霸凌,赤裸裸的技术霸凌

我扒了下知网现行的 AIGC 检测算法,2023 年 8 月 29 日,知网发布了第一版 AIGC 检测专利算法《一种AI生成文本的检测方法、装置、介质及设备》(CN202311099348.6),2024 年 9 月 18 日,知网发布了第二版 AIGC 检测专利算法《AI生成学术文本的判断方法、装置及相关产品》(CN202411300646.1),总结下来,现行 AIGC 查重流程如下:

  1. 第一阶段:信息量差值检测(基于第一个专利)
  • 输入文章:将待检测的文章输入系统。
  • 学科分类:判断文章属于哪个学科领域(如物理、计算机等)。
  • 改写文章:用大语言模型对文章进行改写,生成多个改写版。
  • 计算信息量差值:比较原文和改写版的信息量,计算差值。
  • 初步判断:如果信息量差值较小,初步判断文章可能是AI生成的;如果差值较大,初步判断文章可能是人类写的。
  • 第二阶段:多特征分析(基于第二个专利)
    • 文本分类模型:将文章输入文本分类模型,得到文章是AI生成的概率值。
    • 偏离度特征:分析文章的逻辑是否连贯,是否有不符合常理的地方。
    • 扩散度特征:分析文章的用词是否多样,是否有重复使用某些词的情况。
    • 句子长度特征:统计文章中的句子长度,看看是否过于均匀或变化太大。
    • 字词分布特征:分析文章中高频词的分布情况,看看是否有异常。
    • 综合判断:根据概率值和多个特征,综合判断文章的来源。
  • 第三阶段:最终判定
    • 结合两阶段结果:将第一阶段的信息量差值结果和第二阶段的多特征分析结果结合起来,进行最终判定。
    • 输出结果:如果两阶段的结果都指向 AI 生成,则判定文章是AI生成的;否则,判定文章是人类写的。

    现行 AI 判定系统基本都是这套流程,流程其实没有问题,问题在于决策者过于信赖 AI 技术,这就跟很多人说要裁掉程序员用 AI 来代替一样。"首先、其次、最后" 这种具有递进关系的连词基本 100% 会被认定为 AI 生成,大家可以任意找一篇大牛的论文或者长篇古诗词扔给知网 AI 检测试试,大部分的 AI 率都比较高。

    所以真正的危机其实不在于 AI 技术局限,而在于决策者的认知偏差。将 AI 检测率等同于学术诚信度,本质上是用技术确定性掩盖教育复杂性,这种做法既违背"疑罪从无"的法治精神,也摧毁了教育最宝贵的信任基石

    学术机构将技术指标奉为圭臬,忽视学生的主观能动性,我觉得技术在此时此刻便异化为了压迫工具,教育培养的也不再是具有独立人格和独立思想的人,而是制造规避 AI 检测的学术傀儡。

    技术本应服务于人文,而非凌驾于人性之上

    图片
    好啦,今天的内容分享就到这,感觉不错的同学记得分享点赞哦!
    PS:程序员好物馆 持续分享程序员学习、面试相关干货,不见不散!
    图片
    点分享
    图片
    点收藏
    图片
    点点赞
    图片
    点在看

    Python社区是高质量的Python/Django开发社区
    本文地址:http://www.python88.com/topic/183026