当前位置:首页 → 电脑软件 → 外交部:台湾没有什么“外交部长” → 嫩模影库app下载地址 v8.446.6100.638807 安卓免费版
v3.446.6751 安卓汉化版
v2.562.7772 安卓最新版
v9.32 安卓版
v2.731 安卓版
v5.855.7122 安卓版
v4.777.8752.368317 PC版
v7.736.9055 安卓免费版
v8.320.8281 最新版
v1.350.7075.304881 安卓汉化版
v2.54.3551.491715 安卓版
v4.947.342 安卓汉化版
v1.420.5367 最新版
v8.231.2151.667605 最新版
v5.672 PC版
v4.371 最新版
v8.46 PC版
v5.340.3418.354192 安卓版
v5.374.5656.423711 安卓免费版
v3.583.61 IOS版
v8.170.7170.187752 安卓最新版
v8.255 安卓版
v2.135.77.764424 安卓版
v9.506 安卓版
v5.300.9888.287219 IOS版
v8.817.3802.517446 PC版
v6.592.1942 PC版
v9.619.1562.868035 安卓版
v6.182.8329.272444 安卓免费版
v5.12.6100 安卓免费版
v8.217.340 安卓版
v3.222.2788.53044 PC版
v4.727 安卓汉化版
v2.105 安卓汉化版
v4.851.4206.300093 PC版
v2.705.2390.445909 安卓版
v8.425.8857.619192 PC版
v4.676 安卓汉化版
v6.658 IOS版
v8.931 最新版
v9.263 IOS版
v1.950.2319 PC版
v2.46 安卓版
v4.450.9899.448194 最新版
v6.275 IOS版
v9.319.4865 安卓汉化版
v1.441 安卓汉化版
v5.205.7861 安卓最新版
v8.351.1718.280242 IOS版
v3.331 最新版
v6.681 PC版
v1.624.93 安卓免费版
v6.777.1231.188536 IOS版
v9.586.1120.535585 PC版
v9.142.3527.576903 安卓汉化版
v2.131.9153.449306 安卓汉化版
v8.375.5348.165720 安卓汉化版
v5.235 PC版
v6.608 IOS版
v6.222.4181.819682 安卓最新版
v5.401.4543.329359 安卓版
v7.508.2574 最新版
v1.390.5999.525154 安卓汉化版
v5.156.2145.269101 安卓汉化版
v5.217 PC版
v1.168.9989.144657 安卓汉化版
v2.182.5627 IOS版
v3.772 PC版
v6.869.4758 IOS版
v2.347.5311 PC版
v8.690.7916.174706 最新版
v7.405.6416 PC版
v5.609.8430.641476 最新版
v3.478.8821 最新版
v4.721.2086.651492 最新版
v1.877 安卓汉化版
v8.846.7653 PC版
v8.637.4545 IOS版
v4.173 PC版
v7.740.2358 PC版
v7.240.8134 IOS版
嫩模影库app下载地址
衡宇 发自 凹非寺量子位 | 公众号 QbitAI
ICLR 2026,居然有21%的评审是纯纯由AI生成的?!
上面这个相当扎心的答案,来自Pangram实验室的分析报告。
这件事被发现的起因颇具戏剧色彩:CMU的AI研究员Graham Neubig,感觉自己收到的同行评审AI味超级重。
他之所以起疑心,是因为这些评审内容“非常冗长,且包含大量符号”,并且所要求的分析方式并非“审稿人通常在AI或ML论文中所要求的那种标准统计分析方式”。
做事嘛,不能光靠直觉,要真凭实据啦。
Graham Neubig自己干不了这个事儿,就在上发布了一个悬赏令,希望有人能做一轮系统性的检测,看ICLR的论文和审稿中到底夹杂了多少AI文本。
我愿意悬赏50美元,给第一个做了这件事的人~
Pangram实验室就是那个接黄榜的。
这个实验室的业务之一,正好是开发检测AI生成文本的工具。
结论简单粗暴:
75800条评审中,15899条高度疑似完全由AI生成,占比21%。大量论文正文中也检测出AI参与的痕迹,有的论文甚至大半字数都是AI的产出。
一个顶级AI学术会议,审稿和投稿两头都出现大规模AI代写……
是怎么测出“AI味”的?
Pangram这次对ICLR的全部提交论文和所有评审做了系统分析,并且在博客中公开了全过程。
他们先在OpenReview上,把ICLR 2026的数据全部拉了下来,总计约19490篇论文投稿,以及75800条审稿意见。
这些论文多为PDF格式,普通PDF解析工具面对公式、图表、行号、表格等内容时容易抽风,会干扰后续的文本分析。所以常规的PDF解析器,比如PyMuPDF就用不了了。
于是Pangram用OCR模型(他们用的是Mistral OCR) 把PDF转成Markdown,再统一转成纯文本,尽量减少格式噪音。
检测两类文本时,Pangram实验室用了两种不同的模型——
检测论文正文时,用的是extended text classifier。
具体流程是先把整篇论文按段落或语义片段切分成若干segment,判断每个segment“更像人写”还是“更像AI写”。
之后汇总结果,得到整篇论文中AI生成内容的大致比例,最后标记出“人类为主”“混合写作”“几乎完全AI生成”“极端outlier”等类别。
为了验证模型的准确程度,Pangram还拿2022年之前的ICLR论文和NeurIPS论文做了测试。
结果显示,这些论文由AI生成的概率是0%(尽管有部分论文用于模型训练)。
检测评审内容时,使用了新模型EditLens。
这个模型除了判断评审内容是否为AI生成外,还尝试判断AI在其中的参与程度。
分为五个级别:完全人工撰写、AI润色、中等程度AI编辑/辅助、AI重度参与、完全由AI生成。
在一个已知完全由人类撰写的对照语料上,EditLens把纯人类写作内容错判成AI润色过的内容的误报率,差不多是1/1000;错判成中等程度AI编辑/辅助内容的误报率是1/50000;错判成AI重度参与的错误率是1/100000。
回到实验室对ICLR 2026论文和评审的检测,结果如下。
有15899篇评审完全由AI生成,占评审总数的21%。
此外,超过一半的评审涉及不同程度的AI参与行为。
此外,61%的ICLR 2026论文是人工撰写的,但有199篇论文(占总数量的1%)完全由AI生成。
但实验室提到,部分完全由AI生成的论文,可能在此前已经被ICLR拒稿了,不会出现在OpenReview中。
AI顶会审稿正陷入一种奇妙的恶性循环
Pangram表示,他们做这个事情当然是因为有个悬赏贴在(doge),但并不是为了“点人名、批判某几个个体”,而是希望揭示一个趋势,一种现象。
ICLR 2026高级项目主席、康奈尔大学伊萨卡分校副教授Bharath Hariharan表示,这是ICLR首次大规模遇到此类问题。
ICLR开始用自动化工具,来评估提交的论文和同行评审是否违反了会议规定。
是的,其实ICLR对论文和评审中使用AI/禁止使用AI有非常清晰和详细的规定。
首先,如果使用了AI,必须披露,需要遵循“所有对研究的贡献都必须得到承认”和“贡献者应该期望……获得对其工作的认可”的道德准则政策。
其次,ICLR作者和评审者最终对其贡献负责,遵循“研究人员不得故意做出虚假或误导性声明,编造或篡改数据,或歪曲结果”的道德准则政策。
同时,ICLR还规定了作者在使用AI撰写论文和进行评审时应遵循的指南。
总结来说,论文作者可以用AI帮自己撰写论文,或者配合自己做研究,但必须声明自己使用了AI,并对论文的科学性和诚信负责。
同行可以用AI润色自己的评审,但纯用AI写评审可能违反道德准则,因为这既不是同行本人的观点而是外部意见,也违反了保密原则。
值得一提的是,Pangram实验室还把“AI 使用程度”和“评审分数”做了关联。
结果呈现出来的是两个相当微妙的趋势:
第一,论文中AI内容越多,平均收到的审稿评分就越低。
这可能意味着现阶段的AI写作,还是无法代替人类原创的论文的质量。
第二,审稿中AI参与程度越高,给出的评分就会越高。
换句话说,AI审稿更倾向于宽松友好的态度,评分就会偏高。
此外,AI生成的审稿内容往往字数较多,但信息密度低,建设性建议少,评论很多都很空洞,要不就是一堆车轱辘话。
这和以前 “长审稿=高质量审稿” 的情况完全相反。
而且论文作者们为了更好地rebuttal,一定会很认真地看评审意见。结果可能就是读了一些又长又没用的屁话,摊手。
这真的很消耗同行之间的信任。
怎么判断你得到的review是不是AI生成的?
Pangram实验室总结了一些AI生成的评审内容的特点,供大家参考,判断自己得到的review人工含量高不高。
先说标题。
AI生成的同行评审喜欢用粗体章节标题,标题往往由2-3个摘要标签组成,后面会跟冒号。
一个例子:
整体内容上,AI生成的评审内容总是吹毛求疵,没给出啥真正的分析。
这些评审基本都在关注表面问题。典型的AI评审内容包括提出让论文作者做更多已展示的消融实验、要求增加测试集大小或控制数量,或要求提供更多示例。
当然,最明显的就是说一些没啥用的片汤话,让人听君一席话,如听一席话那种。
不过,一个新的问题出现了。
正如芝加哥大学经济学家 Alex Imas最近一条推文中说的那样:
我们是否希望在同行评审中包含人类判断?
One More Thing
又有坑惨阶跃AI研究员的苹果论文,又有双盲评审制度一夜失效的bug,现在还有这么大规模的AI评审内容被揪出来……
今年的ICLR真的是抓马十足,而且开盒事件的余波还没有完全平息。
能理解大家知道是谁给自己的论文打低分后,情感上绝对会感觉到被背刺。
但事后值得关注的重中之重,还是“如何保证双盲评审能继续按规则施行”,任何顶会都不要再有这种惊天bug发生。
这关乎到整个学术共同体,是大家要一起面对的问题。
就像谢赛宁说的那样,“请务必善待我们的社区。它已经如此脆弱,请不要让它消亡。”
参考链接:[1]https://www.pangram.com/blog/pangram-predicts-21-of-iclr-reviews-are-ai-generated[2]https://www.nature.com/articles/d41586-025-03506-6
相关版本
多平台下载
查看所有0条评论>网友评论