AI审稿争议:ICCV 2025投稿破纪录

洪流之下的评审疲惫:当顶会投稿爆炸,作者成了“全员苦力”

计算机视觉领域的顶级盛会ICCV,历来是全球研究者交流前沿思想、展示最新成果的竞技场。然而,即将到来的ICCV 2025,却在开放投稿通道后不久,因为一个令人惊愕的消息——投稿量“破纪录地达到了万篇级别”,以及伴随而来的“所有作者都被要求参与审稿”的政策,迅速引爆了学术圈,尤其是华人社区的讨论。随之而来的,是网络上铺天盖地的“痛批”,甚至有人辛辣地评论:“这审稿质量,感觉还不如GPT来得靠谱!”这究竟是怎么一回事?这场投稿洪流揭示了当前学术评审体系的哪些困境?

洪流涌至:顶会投稿潮的潮头

“万篇”投稿,对于任何一个学科的单一会议来说,都是一个天文数字。想象一下,如果每篇论文需要至少3-4位审稿人,那么需要的审稿总量将达到数万甚至十万级别。即便考虑到会议的规模和影响力,ICCV 2025的投稿量依然远远超出了许多人的预料,刷新了历史记录。这股投稿潮的背后,是全球范围内人工智能,特别是计算机视觉研究的蓬勃发展。越来越多的高校、研究机构和企业投入巨资和人力,产出了海量的研究成果。而顶级会议的认可,无疑是这些成果价值的重要体现,是科研人员职业晋升、项目申请的“硬通货”。

投稿量的指数级增长,是AI时代学术繁荣的一个缩影。然而,这股繁荣的潮水,也以前所未有的力量冲击着传统的学术评审体系。如同一个原本设计用于处理涓涓细流的管道,突然要应对滔天巨浪,其承受能力必然面临严峻考验。投稿量爆炸直接带来的第一个难题,就是审稿人从哪里来?

重压之下:作者变身审稿人

面对“万篇”级别的投稿,会议组织者显然面临着前所未有的审稿资源压力。传统的审稿模式依赖于邀请该领域的专家学者担任程序委员会成员或审稿人。这些人往往是经验丰富的教授、研究员或高年级博士生。然而,即使是这样庞大的专家库,在面对数万篇论文时,也显得捉襟见肘。许多资深学者本身就身兼数职,科研、教学、指导学生、申请项目……早已不堪重负,再要求他们承担比以往多出数倍的审稿任务,几乎是不可能的。

在此背景下,“所有作者都被要求参与审稿”的政策应运而生。这无疑是一种无奈之举,旨在最大限度地挖掘潜在的审稿资源。理论上,每一位能够撰写出能在ICCV这样顶会上投稿论文的作者,都应该具备一定的研究素养和评审能力。让作者自己参与审稿,似乎是一种最直接、最“民主”的方式,将审稿的重担分摊到每一个参与者身上。

然而,理想很丰满,现实却骨感。这项政策在实践中引发了巨大的争议和不满。对于许多作者来说,尤其是年轻学者和学生,他们投稿后本就身心俱疲,还要在短时间内承担多篇论文的审稿任务,时间紧、任务重。更重要的是,审稿是一项专业性很强的工作,需要经验、时间和负责任的态度。让所有作者,无论其审稿经验如何,都强制参与,其结果可能适得其反。

网友辛辣点评:何以“不如GPT”?

“感觉还不如GPT来得靠谱!”这句略带戏谑但充满无奈的评论,精准地戳中了许多人的痛点。它并非真的认为AI已经完全取代了人类审稿的能力(至少目前还没有),而是反映了人们对于当前评审质量的失望,以及对AI潜在能力的某种“理想化”期待。

为什么会有“不如GPT”的论调出现?主要原因可能包括:

  • 审稿质量参差不齐:强制全员审稿,意味着大量缺乏经验或审稿时间不足的人会参与其中。他们可能难以深入理解论文的创新点、技术细节和实验设计的合理性,给出的意见可能流于表面、宽泛笼统,甚至出现误判。这种低质量的审稿,对于作者来说毫无帮助,反而浪费时间精力。
  • 时间压力下的敷衍:巨大的审稿量和紧张的截止日期,迫使许多审稿人难以投入足够的时间和精力去仔细阅读和评估每一篇论文。匆忙完成的任务,其质量可想而知。
  • 缺乏建设性意见:高质量的审稿不仅能指出论文的问题,还能提供有价值的修改建议,帮助作者提升论文质量。但许多敷衍的审稿,可能只会简单地给出接收或拒稿的结论,缺乏具体的论证和建设性的反馈。
  • 与AI能力的对比:近年来,以GPT为代表的大型语言模型在文本理解、摘要、甚至逻辑推理方面展现出了惊人的能力。虽然AI审稿尚处于探索阶段,但人们不禁会想,如果AI能够快速提取论文要点、检查语言流畅度、甚至初步判断参考文献的相关性,是否能比一个疲惫不堪、时间有限的人类审稿人做得更好?这种对比,与其说是认为AI已超越人类审稿,不如说是对当前人类审稿体系失效的一种情绪宣泄。
  • 公平性担忧:在重压之下,审稿人是否能保持客观公正?是否存在潜在的偏见?这些担忧在评审质量下降时会被放大。
  • “不如GPT”的评论,与其说是对AI的赞美,不如说是对现有体系效率低下、质量滑坡的强烈不满和讽刺。它拷问的是:当我们拥有了强大的AI工具,为什么最核心的学术评审环节却显得如此原始和低效?

    深度拷问:AI时代评审机制的困境与未来

    ICCV 2025的这场风波,并非孤立事件,而是当前顶级学术会议普遍面临困境的一个极端体现。它将一系列深层次的问题摆在了台面上:

  • 同行评审体系的承载极限:建立在专家“无偿奉献”基础上的同行评审体系,在面对指数级增长的投稿量时,已经不堪重负。审稿人的热情和精力是有限的资源,过度消耗必将导致系统性崩溃。
  • 审稿人队伍的建设与激励:如何吸引和留住高质量的审稿人?如何提升年轻研究者的审稿能力?如何为他们的贡献提供合理的认可和激励?这些问题亟待解决。
  • AI在学术评审中的角色:AI能否辅助甚至部分替代人类审稿?它可以用来检测抄袭、评估语言质量、生成初步摘要、匹配审稿人、甚至提供基础的逻辑检查。关键在于如何设计AI与人类协作的模式,既提高效率,又不牺牲评审的深度、公正性和创造性判断。
  • 学术交流模式的革新:顶级会议是否是唯一或最佳的学术交流载体?是否需要探索更多元化的交流方式,例如更专业的期刊、开放评审平台、在线社区等,以分流投稿压力,满足不同阶段和领域研究成果的发布需求?
  • 展望未来,ICCV 2025的经历或许能成为一个重要的转折点。它迫使学术界正视并思考如何改革传统的评审体系。可能的方向包括:

    • 优化审稿人匹配机制:利用AI技术更精准地将论文分配给最相关的审稿人,提高评审效率和质量。
    • 引入AI辅助工具:开发和推广AI工具,帮助审稿人完成论文初筛、重点标记、语言润色等重复性工作,减轻负担。
    • 探索混合评审模式:结合人类专家的深度判断和AI工具的效率优势,构建人机协作的评审流程。
    • 改革投稿和出版模式:例如,采用持续提交、滚动评审的方式,减轻单次会议的压力;推广预印本文化,加速成果传播;鼓励建立更多专业化、小型的研讨会或期刊。
    • 加强审稿人培训和激励:为审稿人提供专业的培训资源,提升其评审能力;建立更有效的激励机制,认可和奖励高质量的审稿工作。

    余音绕梁:在挑战中寻求突破

    ICCV 2025的“投稿破纪录”和“全员审稿”风波,以及伴随的“不如GPT”之声,是计算机视觉乃至整个AI领域飞速发展带来的阵痛。它暴露了当前学术评审体系在面对海量信息时的脆弱性。

    然而,挑战也孕育着变革的机遇。这场风波提醒我们,是时候跳出固有思维,积极探索更智能、更高效、更公平的学术评审机制。这不仅是为了确保ICCV这样顶级会议的质量和声誉,更是为了整个学术生态系统的健康发展,确保真正有价值的创新能够被及时发现、认可和传播。这需要会议组织者、研究者、机构以及技术开发者的共同努力。当潮水退去,我们希望能看到一个更加适应时代需求的学术评审新范式正在逐步建立。