报告1:AI for Research Evaluation
评估学术研究质量是一项颇为耗时的专家评审任务。但在学术招聘与晋升中,以及在一些国家的高校/院系的绩效评估中,该工作常常不可或缺。直到最近,用于支撑该流程的主要量化指标仍是基于引用的数据,例如文章或期刊的引用率。而当前的新研究表明,在多个学科领域,诸如 ChatGPT、Gemini 和 DeepSeek 等大型语言模型(LLMs)在评估学术产出质量方面,可能比传统的引用指标更为有效。报告将回顾目前已有的主要证据,探讨大型语言模型具备此类能力的原因,并进一步思考其在研究评估中的实际可行性。
主讲人
Mike Thelwall 教授 英国谢菲尔德大学信息学院数据科学教授。他主要研究支持研究评估的定量方法,包括人工智能、引文分析和替代计量学。他目前专注于研究大型语言模型在为学术产出提供研究质量评估方面的有效性。他的著作包括Quantitative Methods in Research Evaluation Citation Indicators 等。其著作被引用56000余次。2015年获普赖斯奖。中国科学院PIFI国际杰出学者,JDIS编委 。
扫码报名
活动时间:4月16日 9:00~12:00
13:30~15:30
活动地点:中国科学院文献情报中心 院士厅
腾讯会议:516-650-429 (上午)
607-935-618 (下午)
(报名获得参会密码)
转载本文请联系原作者获取授权,同时请注明本文来自孟平科学网博客。
链接地址:https://wap.sciencenet.cn/blog-3422014-1481553.html?mobile=1
收藏