akari asai和hannaneh hajishirzi的开源模型,帮搞科研的人搞定海量文献的精准溯源

这就得把Akari Asai和Hannaneh Hajishirzi这些人的名字念出来了,他们的团队最近弄出了一个叫OpenScholar的开源模型,专门帮搞科研的人搞定海量文献的精准溯源。为啥搞这个?现在全球论文像长蘑菇似的疯长,以前那种磨洋工式的文献综述根本来不及用。虽然大模型好用,比如GPT-4o,但它老是在引用上犯晕,幻觉问题太严重了。你看那实验数据,GPT-4o在做精确引用的时候,有78%到90%的概率会弄出瞎编的引文,这也太不靠谱了。反观OpenScholar,它把检索增强生成这种架构搞得明明白白,还给自己配了个超过4500万篇论文的专业数据库来兜底,而且还有个自我校准机制。这么一弄,它的引用准确率直接干到了跟人类专家一样的水平。 这篇论文的作者就说了,科学文献综述那是科研的顶梁柱。现在文章多得数不清,谁能都看完?要是大模型光靠猜不行的话,那得多费劲啊。OpenScholar就是想打破这种僵局,给大伙儿弄出个既准确又全面、过程还透明的综述工具,把那些繁琐的筛查工作抢过来,让科学家有空去想更有深度的问题。虽说现在还得在更多复杂的学科里练练手,但这已经是一个挺厉害的进步了。 因为是开源的东西嘛,OpenScholar欢迎大家一起改。这个模型的出现标志着人工智能开始往专业化的科学服务方向大踏步前进了。它不光是个技术创新,也是在帮咱们把关学术诚信。等以后这些工具越来越好用了,说不定真能变成科研人员最靠谱的伙伴。到时候怎么管好用好这些家伙事儿、让它们真的帮助科学发展、而不是捣乱,就成了咱们接下来得一起琢磨的大课题。