当前位置:首页 → 电脑软件 → 挖掘机女司机夜间作业偶遇东北虎 → vwin德赢网址 v5.468.5590.155313 安卓最新版
v1.519.5007 最新版
v7.213 PC版
v3.137.4291.278737 安卓最新版
v6.987 安卓免费版
v4.658 IOS版
v8.466.602 安卓汉化版
v7.900.3550 PC版
v4.814 PC版
v4.871.4435 安卓最新版
v8.825.6769.589464 最新版
v2.187.2179.573805 安卓最新版
v9.503.1936 最新版
v2.175.9314.478303 最新版
v3.209.4520.341869 PC版
v4.345.9914 安卓免费版
v6.356.3015.212129 安卓汉化版
v7.99.7997.889778 最新版
v4.770.3344.602482 最新版
v4.965.6439 IOS版
v2.928.2203.856939 安卓免费版
v1.181 安卓汉化版
v8.206.5052 PC版
v8.963 安卓免费版
v9.157.8682.799711 安卓最新版
v3.877.403 安卓免费版
v4.653 PC版
v5.503.5719.54890 安卓免费版
v7.810.9226 PC版
v8.635.4561 PC版
v6.959.7344 IOS版
v6.639.7441 安卓汉化版
v2.398 IOS版
v2.904.6986.515845 安卓免费版
v3.418 安卓汉化版
v7.99.9632.669160 PC版
v4.309.1102 PC版
v9.60.8524.393450 最新版
v2.147 安卓免费版
v6.651.318 安卓免费版
v5.976.9425 安卓免费版
v6.160.6539 安卓版
v4.239.4671 安卓汉化版
v1.390.5912 安卓免费版
v8.936.3665.862673 安卓最新版
v5.971.703.489622 安卓最新版
v2.478.4642 PC版
v4.310.204 安卓最新版
v8.32 最新版
v5.614.2385 安卓版
v7.150.8166 安卓版
v6.172 安卓免费版
v7.869.6856 PC版
v5.991.9667 安卓免费版
v7.450.7606 最新版
v8.208.9681.959747 最新版
v5.374.7076 IOS版
v4.783.8611.665972 安卓版
v1.840.5753 安卓免费版
v5.521 最新版
v6.681 安卓最新版
v1.378.1239.897020 安卓免费版
v3.476.3658.712017 安卓版
v4.92.8712.286543 安卓最新版
v8.227.728 最新版
v7.771 安卓免费版
v8.522 IOS版
v7.52.5856 安卓免费版
v9.373.1882 最新版
v6.819.19 安卓最新版
v7.160.1109 安卓版
v1.222.9098.778749 最新版
v3.906.509.80580 安卓汉化版
v5.876.8423.219740 安卓最新版
v4.343 安卓汉化版
v8.809.7882 安卓免费版
v1.681.7092 安卓最新版
v6.722.904 PC版
v7.420.1109 IOS版
v4.732.5316.439568 安卓版
v9.790.7529.202416 IOS版
vwin德赢网址
衡宇 发自 凹非寺量子位 | 公众号 QbitAI
ICLR 2026,居然有21%的评审是纯纯由AI生成的?!
上面这个相当扎心的答案,来自Pangram实验室的分析报告。
这件事被发现的起因颇具戏剧色彩:CMU的AI研究员Graham Neubig,感觉自己收到的同行评审AI味超级重。
他之所以起疑心,是因为这些评审内容“非常冗长,且包含大量符号”,并且所要求的分析方式并非“审稿人通常在AI或ML论文中所要求的那种标准统计分析方式”。
做事嘛,不能光靠直觉,要真凭实据啦。
Graham Neubig自己干不了这个事儿,就在上发布了一个悬赏令,希望有人能做一轮系统性的检测,看ICLR的论文和审稿中到底夹杂了多少AI文本。
我愿意悬赏50美元,给第一个做了这件事的人~
Pangram实验室就是那个接黄榜的。
这个实验室的业务之一,正好是开发检测AI生成文本的工具。
结论简单粗暴:
75800条评审中,15899条高度疑似完全由AI生成,占比21%。大量论文正文中也检测出AI参与的痕迹,有的论文甚至大半字数都是AI的产出。
一个顶级AI学术会议,审稿和投稿两头都出现大规模AI代写……
是怎么测出“AI味”的?
Pangram这次对ICLR的全部提交论文和所有评审做了系统分析,并且在博客中公开了全过程。
他们先在OpenReview上,把ICLR 2026的数据全部拉了下来,总计约19490篇论文投稿,以及75800条审稿意见。
这些论文多为PDF格式,普通PDF解析工具面对公式、图表、行号、表格等内容时容易抽风,会干扰后续的文本分析。所以常规的PDF解析器,比如PyMuPDF就用不了了。
于是Pangram用OCR模型(他们用的是Mistral OCR) 把PDF转成Markdown,再统一转成纯文本,尽量减少格式噪音。
检测两类文本时,Pangram实验室用了两种不同的模型——
检测论文正文时,用的是extended text classifier。
具体流程是先把整篇论文按段落或语义片段切分成若干segment,判断每个segment“更像人写”还是“更像AI写”。
之后汇总结果,得到整篇论文中AI生成内容的大致比例,最后标记出“人类为主”“混合写作”“几乎完全AI生成”“极端outlier”等类别。
为了验证模型的准确程度,Pangram还拿2022年之前的ICLR论文和NeurIPS论文做了测试。
结果显示,这些论文由AI生成的概率是0%(尽管有部分论文用于模型训练)。
检测评审内容时,使用了新模型EditLens。
这个模型除了判断评审内容是否为AI生成外,还尝试判断AI在其中的参与程度。
分为五个级别:完全人工撰写、AI润色、中等程度AI编辑/辅助、AI重度参与、完全由AI生成。
在一个已知完全由人类撰写的对照语料上,EditLens把纯人类写作内容错判成AI润色过的内容的误报率,差不多是1/1000;错判成中等程度AI编辑/辅助内容的误报率是1/50000;错判成AI重度参与的错误率是1/100000。
回到实验室对ICLR 2026论文和评审的检测,结果如下。
有15899篇评审完全由AI生成,占评审总数的21%。
此外,超过一半的评审涉及不同程度的AI参与行为。
此外,61%的ICLR 2026论文是人工撰写的,但有199篇论文(占总数量的1%)完全由AI生成。
但实验室提到,部分完全由AI生成的论文,可能在此前已经被ICLR拒稿了,不会出现在OpenReview中。
AI顶会审稿正陷入一种奇妙的恶性循环
Pangram表示,他们做这个事情当然是因为有个悬赏贴在(doge),但并不是为了“点人名、批判某几个个体”,而是希望揭示一个趋势,一种现象。
ICLR 2026高级项目主席、康奈尔大学伊萨卡分校副教授Bharath Hariharan表示,这是ICLR首次大规模遇到此类问题。
ICLR开始用自动化工具,来评估提交的论文和同行评审是否违反了会议规定。
是的,其实ICLR对论文和评审中使用AI/禁止使用AI有非常清晰和详细的规定。
首先,如果使用了AI,必须披露,需要遵循“所有对研究的贡献都必须得到承认”和“贡献者应该期望……获得对其工作的认可”的道德准则政策。
其次,ICLR作者和评审者最终对其贡献负责,遵循“研究人员不得故意做出虚假或误导性声明,编造或篡改数据,或歪曲结果”的道德准则政策。
同时,ICLR还规定了作者在使用AI撰写论文和进行评审时应遵循的指南。
总结来说,论文作者可以用AI帮自己撰写论文,或者配合自己做研究,但必须声明自己使用了AI,并对论文的科学性和诚信负责。
同行可以用AI润色自己的评审,但纯用AI写评审可能违反道德准则,因为这既不是同行本人的观点而是外部意见,也违反了保密原则。
值得一提的是,Pangram实验室还把“AI 使用程度”和“评审分数”做了关联。
结果呈现出来的是两个相当微妙的趋势:
第一,论文中AI内容越多,平均收到的审稿评分就越低。
这可能意味着现阶段的AI写作,还是无法代替人类原创的论文的质量。
第二,审稿中AI参与程度越高,给出的评分就会越高。
换句话说,AI审稿更倾向于宽松友好的态度,评分就会偏高。
此外,AI生成的审稿内容往往字数较多,但信息密度低,建设性建议少,评论很多都很空洞,要不就是一堆车轱辘话。
这和以前 “长审稿=高质量审稿” 的情况完全相反。
而且论文作者们为了更好地rebuttal,一定会很认真地看评审意见。结果可能就是读了一些又长又没用的屁话,摊手。
这真的很消耗同行之间的信任。
怎么判断你得到的review是不是AI生成的?
Pangram实验室总结了一些AI生成的评审内容的特点,供大家参考,判断自己得到的review人工含量高不高。
先说标题。
AI生成的同行评审喜欢用粗体章节标题,标题往往由2-3个摘要标签组成,后面会跟冒号。
一个例子:
整体内容上,AI生成的评审内容总是吹毛求疵,没给出啥真正的分析。
这些评审基本都在关注表面问题。典型的AI评审内容包括提出让论文作者做更多已展示的消融实验、要求增加测试集大小或控制数量,或要求提供更多示例。
当然,最明显的就是说一些没啥用的片汤话,让人听君一席话,如听一席话那种。
不过,一个新的问题出现了。
正如芝加哥大学经济学家 Alex Imas最近一条推文中说的那样:
我们是否希望在同行评审中包含人类判断?
One More Thing
又有坑惨阶跃AI研究员的苹果论文,又有双盲评审制度一夜失效的bug,现在还有这么大规模的AI评审内容被揪出来……
今年的ICLR真的是抓马十足,而且开盒事件的余波还没有完全平息。
能理解大家知道是谁给自己的论文打低分后,情感上绝对会感觉到被背刺。
但事后值得关注的重中之重,还是“如何保证双盲评审能继续按规则施行”,任何顶会都不要再有这种惊天bug发生。
这关乎到整个学术共同体,是大家要一起面对的问题。
就像谢赛宁说的那样,“请务必善待我们的社区。它已经如此脆弱,请不要让它消亡。”
参考链接:[1]https://www.pangram.com/blog/pangram-predicts-21-of-iclr-reviews-are-ai-generated[2]https://www.nature.com/articles/d41586-025-03506-6
相关版本
多平台下载
查看所有0条评论>网友评论