科研人每天忙于设计实验、进行实验、分析数据、撰写论文、编写项目申请书……这其中的很多工作都是重复性劳动,尤其是涉及到信息整理和文献综述等工作,的确十分繁琐。设想一下,如果能将这些事都能交给 AI 来做,那生产力岂不是可以直接翻倍?之前给大家测评过能做学术搜索的 Perplexity 和秘塔 AI 搜索,还有强项在于创新性分析评价的 Spider Matrix 等工具……但对于科研工作者来说,这些工具用起来可能仍觉得不够满意,科研中大量非标的需求仍需要更多工具来满足。话不多说,今天我们来对比测评 2 款综合性 AI 学术工具,它们可以完成论文检索、论文信息提取、论文分析和其他种种功能。一款是国外比较火爆的 Elicit ,这是一个可以利用语言模型来自动执行文献综述等研究工作的 AI 研究助手。而且是唯一上了 CBI 全球 AI 百强榜的学术搜索产品公司。还有一款是小伙伴留言想让我们尝试的 OpenRead ,那必须安排上。
OpenRead 是一个一体化的 AI 学术平台,目标是致力于提高学术研究效率,让用户能够专注于学术本身。论文搜索先试试 Elicit挑一个笔者熟悉的生物材料研究方向的问题,询问:“ The role of amorphous calcium phosphate in the formation of zebrafish fin bones. ”Elicit 首先给出了综合 4 篇文献的一个摘要回答,并给出了主要参考文献来源。同时在下方生成了一个大表格,对 8 篇(可以加载更多)相关文献的核心内容进行了展示。相关文献可以根据需求进行筛选,包括文献类型、发表时间、关键字等,还可根据相关度、发表时间、引用次数等参数进行排序。内容质量方面,论文的相关度较高,基本涵盖了这个细分领域的重要论文,以及一些相关研究,基本没有跑题的情况。信息呈现方式可以说一目了然。在表格中可选择呈现的对比内容包括文献的题目、摘要概述、研究方法、主要发现、引言概述、讨论概述、研究局限等 20 余种信息类型可以对比展示,可定制化程度高,而且显示清晰。选择其中感兴趣的文献,点击下方的 Add a new step 按钮,可以继续使用更多功能。再试试 OpenRead就相同问题提问后, OpenRead 同样先是给出了一个摘要,但这个内容看着非常熟悉,原来是原封不动从第一篇论文的摘要中获取的。继续浏览可发现, OpenRead 对文献给出了较为简单的呈现,仅能看到题目和出版信息。内容质量方面,未能涵盖该领域的代表性论文,且部分论文有跑题现象。提取论文信息先看 ElicitElicit 可以对上传的论文形成一个对比表格(与搜索模式生成的表格相同),详细对比论文的各方面信息,经查看后发现其中的内容准确度较高,且标签可定制。可就其中的一篇或多篇文章进行提问,或用“ Add a new step ”按钮,继续提出更多需求。再看 OpenReadOpenRead 在上传本地 PDF 文件后,可以对论文基本信息、论文关系网进行呈现,还可以进行 AI 论文浓缩、 AI 论文问答以及记笔记。可以看出论文基本信息给出了题目、作者、 doi 、摘要、页码等。论文关系网中给出了与本篇论文有关的论文的题目、作者和出版时间信息,可以点击查看详情。通过查看,发现给出的论文确实与上传论文中部分关键词有联系,但与研究主题并非十分一致。论文浓缩部分从研究背景、研究目标、研究方法、讨论、贡献、意义、局限性等几个方面较为全面的总结了文章内容。论文问答先看 Elicit 论文问答效果Elicit 在搜索或上传论文后可形成表格,点击页面下方的“ Add a new step ”按钮,可以选择其中的一篇或多篇文章进行提问。询问选中的4篇文章中通用的实验方法是什么, Elicit 罗列出了 4 篇文章中所有实验方法。这里从回答的内容来看, Elicit 似乎没有完全理解问题的含义。仅问一篇选定文章的具体内容,可以看出 Elicit 描述了文章中的研究手段,但遗漏了一些具体细节,比如未能指出 SEM 是特殊的 cyro-SEM。再看 OpenRead 的论文问答效果针对同样的文章,同样的问题询问 OpenRead,给出了比 Elicit 更为精细和全面的回答,明确指出了 cryo-SEM 手段。其他Elicit 的 List of concepts 功能,可以输入一些关键词或问题让 Elicit 帮你头脑风暴。OpenRead 有联网模式,可以提供 AI 搜索引擎的功能,让它帮我搜索一下 Elicit 的信息,虽然总结的不是特别准,但可以看出它参考的均是国外网站,而且部分链接的可参考性很高。OpenRead 会推送不同领域的热点研究,帮助用户跟进科研最新进展,比如选择“天文学”标签,可以看到天文学领域最新发表的一些论文。另外 OpenRead 还有笔记模式,方便记录想法。结论Elicit 通过表格的形式清晰的展现并对比多篇论文各方面的内容,无论是搜索出的论文还是生成的内容与主题相关度较高,而且能一次问答多篇指定论文,不愧是国外最火的 AI 科研工具。但在本文测试中,论文问答的精细度还有待提高。OpenRead 的功能更丰富一些,拥有联网搜索、笔记等内容,甚至能通过论文索要的方式获取论文全文,而且在单一论文问答上精度较高。但在本文测试中,OpenRead 搜索出的论文与主题相关度不够高,这一点较为影响实际使用效果。需要提到的一点是,Elicit 和 OpenRead 均提供了一定的免费试用次数,但想要持续使用需要付费。限于测试内容,对工具的评价可能还不够全面,也希望了解小伙伴们多多补充,有什么想让我们测评的工具欢迎提出。
0 评论