泡泡资讯网

谷歌推出两款科研AI Agent:自动生成论文图表与同行评审

AIPress.com.cn报道

4月9日消息,GoogleCloud研究团队发布两款面向学术研究流程的AI代理系统PaperVizAgent与ScholarPeer,分别用于自动生成论文图表和辅助学术论文评审。研究团队表示,这两种工具旨在减少科研人员在论文撰写与审稿流程中的重复性工作,从而让研究者能够更多专注于创新本身。

在学术研究中,论文写作通常不仅涉及理论和实验描述,还需要制作大量方法流程图、统计图以及复杂示意图,这些可视化内容往往需要额外的软件工具和时间投入。另一方面,随着论文投稿数量持续增长,学术界普遍面临审稿人不足和审稿负担加重的问题。

为解决这些问题,GoogleCloud提出两个多Agent框架。

其中,PaperVizAgent主要用于从论文文本中自动生成学术图表。研究人员需要提供两类输入:一是论文中的方法部分等技术内容,二是描述图表含义的详细说明。系统随后通过一个由五个AI代理组成的协作流程完成图表生成,包括检索代理、规划代理、风格代理、可视化代理以及评估代理。

在运行过程中,检索和规划代理会查找相关文献中的图示示例并组织信息结构;风格代理根据学术论文规范生成视觉设计建议;可视化代理负责生成图像或用于绘制统计图的Python代码;最后由评估代理对生成结果与原始文本进行比对,如果发现不一致之处,将触发反馈并进入迭代优化流程。

实验结果显示,在包含准确性、简洁性、可读性和美观度等维度的综合评测中,PaperVizAgent获得60.2的总体评分,超过GPT-Image-1.5、Nano-Banana-Pro和Paper2Any等基线系统,并成为唯一超过人类基准分50.0的自动图表生成框架。

另一项系统ScholarPeer则面向学术论文评审流程。与传统将审稿视为文本生成任务的语言模型不同,ScholarPeer采用上下文获取与主动验证双流程机制。系统会通过搜索功能获取相关文献,并构建领域背景叙事,再由专门的代理检索可能遗漏的数据集或对比方法,同时利用多维问答模块验证论文中的技术主张。

最终生成的审稿报告通常包含论文摘要、优势与不足分析以及针对作者的问题,与传统学术审稿报告结构相似。

在公开数据集测试中,ScholarPeer在与多种自动审稿系统的对比评测中取得较高胜率,并在评审质量评分中接近人类专家水平。研究团队指出,引入主动搜索和多Agent协作机制,有助于提升AI评审在批判性和文献引用方面的可靠性。

GoogleCloud表示,PaperVizAgent与ScholarPeer目前仍属于实验性研究原型,并非生产级工具,其生成的图表或评审结果不应作为正式出版决策的唯一依据。

研究团队认为,这两种工具只是AI辅助科研体系的初步尝试。未来,随着更多AI代理融入科研流程,研究者可能会获得覆盖从文献调研、实验分析到论文撰写与评审等各环节的智能助手体系。(AI普瑞斯编译)