v2.567.6752 安卓版
v1.335 安卓最新版
v8.588 安卓版
v6.5.2853 PC版
v8.57.7165.442559 PC版
v9.103 安卓版
v5.927 最新版
v6.465.5135.50832 安卓最新版
v5.575.6703.275690 安卓汉化版
v8.358 IOS版
v3.81.5613.518200 PC版
v2.381 安卓最新版
v8.54.5645.48618 最新版
v5.709 安卓汉化版
v6.51.3258.173491 安卓版
v8.643.9358.194096 最新版
v3.769 安卓免费版
v1.756.4107 安卓汉化版
v3.196 安卓汉化版
v1.300.893 安卓版
v3.127.2899 PC版
v2.610.609 IOS版
v6.336.4351 PC版
v7.751.4122.652085 安卓汉化版
v2.965 IOS版
v3.889.4823.885706 最新版
v6.805.6725 PC版
v7.373.3899.830402 安卓汉化版
v6.10 安卓免费版
v6.661.9250 最新版
v4.42.6439.566068 安卓版
v1.386.4058.943365 安卓版
v3.490.9315 最新版
v7.501.8849.592377 最新版
v6.716.6011 IOS版
v2.777.2053 最新版
v9.41.2231.746152 PC版
v8.848.4056.755031 最新版
v9.149.2560.136446 最新版
v1.455 安卓版
v3.648.1574.308137 安卓免费版
v6.574.4188.88453 安卓汉化版
v8.895.3859 安卓版
v1.100.1738 安卓免费版
v4.130 安卓汉化版
v1.806 安卓版
v1.774 最新版
v4.552 PC版
v9.654 PC版
v1.350 PC版
v8.954.633.875386 安卓免费版
v5.473.384.16146 安卓免费版
v9.117.147.543198 安卓免费版
v1.451 安卓汉化版
v4.923.7919 PC版
v4.377.8409 安卓版
v9.376 安卓版
v5.391.5340 安卓最新版
v5.975.8880 最新版
v4.372 安卓最新版
v4.819.1483 IOS版
v1.248.485 安卓免费版
v9.479 安卓版
v3.937.310 安卓最新版
v8.915 安卓最新版
v7.202 安卓汉化版
v8.944.7293.69874 最新版
v3.148.9113 最新版
v2.703 安卓免费版
v1.617.3702 IOS版
v6.432 PC版
v4.688 安卓版
v9.280.9370.61275 安卓汉化版
v6.64.7803.156847 IOS版
v4.571 最新版
v5.705 IOS版
v7.623.6724 安卓免费版
v3.747 安卓汉化版
v7.668.7116 安卓版
v9.887.9899 安卓免费版
SG新霸电子财神宝宝
衡宇 发自 凹非寺量子位 | 公众号 QbitAI
ICLR 2026,居然有21%的评审是纯纯由AI生成的?!
上面这个相当扎心的答案,来自Pangram实验室的分析报告。
这件事被发现的起因颇具戏剧色彩:CMU的AI研究员Graham Neubig,感觉自己收到的同行评审AI味超级重。
他之所以起疑心,是因为这些评审内容“非常冗长,且包含大量符号”,并且所要求的分析方式并非“审稿人通常在AI或ML论文中所要求的那种标准统计分析方式”。
做事嘛,不能光靠直觉,要真凭实据啦。
Graham Neubig自己干不了这个事儿,就在上发布了一个悬赏令,希望有人能做一轮系统性的检测,看ICLR的论文和审稿中到底夹杂了多少AI文本。
我愿意悬赏50美元,给第一个做了这件事的人~
Pangram实验室就是那个接黄榜的。
这个实验室的业务之一,正好是开发检测AI生成文本的工具。
结论简单粗暴:
75800条评审中,15899条高度疑似完全由AI生成,占比21%。大量论文正文中也检测出AI参与的痕迹,有的论文甚至大半字数都是AI的产出。
一个顶级AI学术会议,审稿和投稿两头都出现大规模AI代写……
是怎么测出“AI味”的?
Pangram这次对ICLR的全部提交论文和所有评审做了系统分析,并且在博客中公开了全过程。
他们先在OpenReview上,把ICLR 2026的数据全部拉了下来,总计约19490篇论文投稿,以及75800条审稿意见。
这些论文多为PDF格式,普通PDF解析工具面对公式、图表、行号、表格等内容时容易抽风,会干扰后续的文本分析。所以常规的PDF解析器,比如PyMuPDF就用不了了。
于是Pangram用OCR模型(他们用的是Mistral OCR) 把PDF转成Markdown,再统一转成纯文本,尽量减少格式噪音。
检测两类文本时,Pangram实验室用了两种不同的模型——
检测论文正文时,用的是extended text classifier。
具体流程是先把整篇论文按段落或语义片段切分成若干segment,判断每个segment“更像人写”还是“更像AI写”。
之后汇总结果,得到整篇论文中AI生成内容的大致比例,最后标记出“人类为主”“混合写作”“几乎完全AI生成”“极端outlier”等类别。
为了验证模型的准确程度,Pangram还拿2022年之前的ICLR论文和NeurIPS论文做了测试。
结果显示,这些论文由AI生成的概率是0%(尽管有部分论文用于模型训练)。
检测评审内容时,使用了新模型EditLens。
这个模型除了判断评审内容是否为AI生成外,还尝试判断AI在其中的参与程度。
分为五个级别:完全人工撰写、AI润色、中等程度AI编辑/辅助、AI重度参与、完全由AI生成。
在一个已知完全由人类撰写的对照语料上,EditLens把纯人类写作内容错判成AI润色过的内容的误报率,差不多是1/1000;错判成中等程度AI编辑/辅助内容的误报率是1/50000;错判成AI重度参与的错误率是1/100000。
回到实验室对ICLR 2026论文和评审的检测,结果如下。
有15899篇评审完全由AI生成,占评审总数的21%。
此外,超过一半的评审涉及不同程度的AI参与行为。
此外,61%的ICLR 2026论文是人工撰写的,但有199篇论文(占总数量的1%)完全由AI生成。
但实验室提到,部分完全由AI生成的论文,可能在此前已经被ICLR拒稿了,不会出现在OpenReview中。
AI顶会审稿正陷入一种奇妙的恶性循环
Pangram表示,他们做这个事情当然是因为有个悬赏贴在(doge),但并不是为了“点人名、批判某几个个体”,而是希望揭示一个趋势,一种现象。
ICLR 2026高级项目主席、康奈尔大学伊萨卡分校副教授Bharath Hariharan表示,这是ICLR首次大规模遇到此类问题。
ICLR开始用自动化工具,来评估提交的论文和同行评审是否违反了会议规定。
是的,其实ICLR对论文和评审中使用AI/禁止使用AI有非常清晰和详细的规定。
首先,如果使用了AI,必须披露,需要遵循“所有对研究的贡献都必须得到承认”和“贡献者应该期望……获得对其工作的认可”的道德准则政策。
其次,ICLR作者和评审者最终对其贡献负责,遵循“研究人员不得故意做出虚假或误导性声明,编造或篡改数据,或歪曲结果”的道德准则政策。
同时,ICLR还规定了作者在使用AI撰写论文和进行评审时应遵循的指南。
总结来说,论文作者可以用AI帮自己撰写论文,或者配合自己做研究,但必须声明自己使用了AI,并对论文的科学性和诚信负责。
同行可以用AI润色自己的评审,但纯用AI写评审可能违反道德准则,因为这既不是同行本人的观点而是外部意见,也违反了保密原则。
值得一提的是,Pangram实验室还把“AI 使用程度”和“评审分数”做了关联。
结果呈现出来的是两个相当微妙的趋势:
第一,论文中AI内容越多,平均收到的审稿评分就越低。
这可能意味着现阶段的AI写作,还是无法代替人类原创的论文的质量。
第二,审稿中AI参与程度越高,给出的评分就会越高。
换句话说,AI审稿更倾向于宽松友好的态度,评分就会偏高。
此外,AI生成的审稿内容往往字数较多,但信息密度低,建设性建议少,评论很多都很空洞,要不就是一堆车轱辘话。
这和以前 “长审稿=高质量审稿” 的情况完全相反。
而且论文作者们为了更好地rebuttal,一定会很认真地看评审意见。结果可能就是读了一些又长又没用的屁话,摊手。
这真的很消耗同行之间的信任。
怎么判断你得到的review是不是AI生成的?
Pangram实验室总结了一些AI生成的评审内容的特点,供大家参考,判断自己得到的review人工含量高不高。
先说标题。
AI生成的同行评审喜欢用粗体章节标题,标题往往由2-3个摘要标签组成,后面会跟冒号。
一个例子:
整体内容上,AI生成的评审内容总是吹毛求疵,没给出啥真正的分析。
这些评审基本都在关注表面问题。典型的AI评审内容包括提出让论文作者做更多已展示的消融实验、要求增加测试集大小或控制数量,或要求提供更多示例。
当然,最明显的就是说一些没啥用的片汤话,让人听君一席话,如听一席话那种。
不过,一个新的问题出现了。
正如芝加哥大学经济学家 Alex Imas最近一条推文中说的那样:
我们是否希望在同行评审中包含人类判断?
One More Thing
又有坑惨阶跃AI研究员的苹果论文,又有双盲评审制度一夜失效的bug,现在还有这么大规模的AI评审内容被揪出来……
今年的ICLR真的是抓马十足,而且开盒事件的余波还没有完全平息。
能理解大家知道是谁给自己的论文打低分后,情感上绝对会感觉到被背刺。
但事后值得关注的重中之重,还是“如何保证双盲评审能继续按规则施行”,任何顶会都不要再有这种惊天bug发生。
这关乎到整个学术共同体,是大家要一起面对的问题。
就像谢赛宁说的那样,“请务必善待我们的社区。它已经如此脆弱,请不要让它消亡。”
参考链接:[1]https://www.pangram.com/blog/pangram-predicts-21-of-iclr-reviews-are-ai-generated[2]https://www.nature.com/articles/d41586-025-03506-6
相关版本
多平台下载
查看所有0条评论>网友评论