第一次用DeepSeek阅读理解原文
武夷山
Quantitative Science Studies(量化科学元勘)杂志2025年2月20日发表了巴黎高科矿业学院创新社会学研究中心在读博士生Lauranne Chaignon女士的文章,Highly Cited Researchers: Anatomy of a list。原文见https://direct.mit.edu/qss/article/doi/10.1162/qss_a_00351/127595/Highly-Cited-Researchers-Anatomy-of-a-list
我请DeepSeek阅读理解一下这篇文章,它的概述如下。应当说,概述的水平很高,概括速度极快。当然,若把list译为“名单”或“榜单”,而不是“列表”,读起来会更舒服;“履历数据”也比“传记数据”要好。
深度分析:高被引研究者(HCR)列表的演变与挑战
研究背景与核心问题
本文分析了Clarivate公司发布的高被引研究者(Highly Cited Researchers, HCR)列表的演变轨迹(2001–2023)。该列表因被用于软科上海排名(ARWU)而成为全球科研评价体系的重要指标。文章通过梳理HCR列表的历史发展,揭示其从数据库到科研指标、再到面临危机的三个阶段,并探讨其对科研评估和学术诚信的影响。
三个阶段的核心分析
1. 数据库的创建(2001–2011):从Garfield的遗产到ISI的实践
· 起源与目标:
HCR列表源于Eugene Garfield在1980年代对高被引科学家的研究。ISI(科学信息研究所)于2001年推出“ISIHighlyCited.com”平台,旨在构建一个包含学者传记数据(如职业轨迹、研究兴趣)和文献数据(如论文、专著)的开放数据库,作为Web of Science(WoS)的补充。
· 方法论:
o 数据来源:基于WoS中1981–1999年的论文,按22个ESI学科分类。
o 筛选标准:每学科选取被引次数前250名的学者,并通过联系学者核实信息以解决同名问题。
o 累积性:初期仅覆盖4个学科,至2004年扩展至21个学科,并持续更新(如1983–2002年数据更新)。
· 用途与局限:
o 用途:服务科研社区(追踪领域权威、寻找合作者)、机构(识别顶尖实验室)和政策制定者(资源配置)。
o 局限:依赖期刊分类(多学科期刊需人工调整),且未纳入会议论文和书籍(因引用数据不完整)。
· 终止原因:
2008年全球金融危机后,Thomson Reuters(ISI母公司)因经济压力停止维护,2011年平台关闭。数据库的放弃标志着HCR从“学术资源”转向“评价工具”。
2. 指标的确认(2012–2018):从数据到排名驱动
· 方法论转型:
o 简化数据:仅保留学者姓名、学科、机构,剔除传记和文献详情,转化为纯“指标列表”。
o 年度发布:2012年起,HCR列表按年更新,强调时效性,适应科研评价的竞争需求。
· 关键调整:
1. 时间窗口缩短:从20年减至11年(如2014年使用2002–2012年数据),聚焦近期影响力。
2. 引入高被引论文(HCPs):基于ESI的“前1%高被引论文”筛选学者,减少学科间引用差异的偏差。
3. 动态阈值:按学科规模(作者数平方根)确定入选人数,如大领域选250人,小领域选100人。
4. 跨学科类别:2018年新增“跨领域”类别,应对多学科合作趋势。
· 利益相关者变化:
o 大学与排名机构:上海排名(ARWU)将HCR数量作为大学评价指标,推动其成为“科研卓越”的代名词。
o 国家竞争:中国等国家通过高薪吸引HCR学者提升排名(如沙特大学),引发学术雇佣争议。
· 争议与妥协:
o 方法论透明度不足,如跨学科合作难以量化(多作者论文的贡献分配问题)。
o 对自引和团队合作的批评(如高能物理领域的大型合作论文被排除)。
3. 策略的弱化(2019–2023):学术诚信危机与应对
· 挑战:
o 学术不端:HCR学者涉及自引操纵、论文工厂合作、撤稿等问题(如Kamali等,2022)。
o 指标可信度:HCPs筛选方法被质疑无法区分真实影响力与策略性发表。
· Clarivate的应对:
o 方法论修订:加强学者身份验证,排除可疑论文,引入同行评审数据辅助评估。
o 定位调整:从“科研影响力”转向“学术认可”,弱化排名功能,强调HCR作为“荣誉项目”。
· 深层矛盾:
o 科研评估的量化困境:引用次数能否代表质量?HCR列表的标准化与学科多样性冲突。
o 全球科研体系的不平等:资源集中(欧美主导)与新兴国家的“指标游戏”(如中国HCR数量激增)。
学术与政策启示
1. 科研评估的复杂性:
· HCR列表的演变反映了从“数据服务”到“指标工具”的异化,暴露了简化评估的风险。
· 需结合定性(同行评审)与定量指标,避免过度依赖单一标准。
2. 学术诚信的挑战:
· 指标驱动的研究文化助长不端行为(如“论文工厂”),需建立动态监控机制。
3. 全球科研治理:
· 排名导向的政策可能导致资源错配(如重金聘请HCR),需平衡学术自由与评估需求。
未来研究方向
· 纵向比较:结合访谈数据,分析HCR学者对列表的认知及其职业策略。
· 替代指标:探索Altmetrics等非引用指标在评估中的应用。
· 伦理框架:构建兼顾公平、多样性和学术诚信的评估体系。
本文通过历史视角揭示了HCR列表的双刃剑效应:既是科研影响力的风向标,也是学术竞争的催化剂。其演变提醒我们,科学评价需回归学术本质,而非沦为数字游戏。
转载本文请联系原作者获取授权,同时请注明本文来自武夷山科学网博客。
链接地址:https://wap.sciencenet.cn/blog-1557-1475755.html?mobile=1
收藏