武夷山
第一次用DeepSeek阅读理解原文
2025-3-3 16:20
阅读:910

第一次用DeepSeek阅读理解原文

武夷山

 

    Quantitative Science Studies(量化科学元勘)杂志2025年2月20日发表了巴黎高科矿业学院创新社会学研究中心在读博士生Lauranne Chaignon女士的文章,Highly Cited Researchers: Anatomy of a list。原文见https://direct.mit.edu/qss/article/doi/10.1162/qss_a_00351/127595/Highly-Cited-Researchers-Anatomy-of-a-list

   我请DeepSeek阅读理解一下这篇文章,它的概述如下。应当说,概述的水平很高,概括速度极快。当然,若把list译为“名单”或“榜单”,而不是“列表”,读起来会更舒服;“履历数据”也比“传记数据”要好。  

 

深度分析:高被引研究者(HCR)列表的演变与挑战

研究背景与核心问题

本文分析了Clarivate公司发布的高被引研究者(Highly Cited Researchers, HCR)列表的演变轨迹(2001–2023)。该列表因被用于软科上海排名(ARWU)而成为全球科研评价体系的重要指标。文章通过梳理HCR列表的历史发展,揭示其从数据库到科研指标、再到面临危机的三个阶段,并探讨其对科研评估和学术诚信的影响。

三个阶段的核心分析

1. 数据库的创建(2001–2011):从Garfield的遗产到ISI的实践

·        起源与目标

HCR列表源于Eugene Garfield在1980年代对高被引科学家的研究。ISI(科学信息研究所)于2001年推出“ISIHighlyCited.com”平台,旨在构建一个包含学者传记数据(如职业轨迹、研究兴趣)和文献数据(如论文、专著)的开放数据库,作为Web of Science(WoS)的补充。

·        方法论

o   数据来源:基于WoS中1981–1999年的论文,按22个ESI学科分类。

o   筛选标准:每学科选取被引次数前250名的学者,并通过联系学者核实信息以解决同名问题。

o   累积性:初期仅覆盖4个学科,至2004年扩展至21个学科,并持续更新(如1983–2002年数据更新)。

·        用途与局限

o   用途:服务科研社区(追踪领域权威、寻找合作者)、机构(识别顶尖实验室)和政策制定者(资源配置)。

o   局限:依赖期刊分类(多学科期刊需人工调整),且未纳入会议论文和书籍(因引用数据不完整)。

·        终止原因

2008年全球金融危机后,Thomson Reuters(ISI母公司)因经济压力停止维护,2011年平台关闭。数据库的放弃标志着HCR从“学术资源”转向“评价工具”。

2. 指标的确认(2012–2018):从数据到排名驱动

·        方法论转型

o   简化数据:仅保留学者姓名、学科、机构,剔除传记和文献详情,转化为纯“指标列表”。

o   年度发布:2012年起,HCR列表按年更新,强调时效性,适应科研评价的竞争需求。

·        关键调整

1.  时间窗口缩短:从20年减至11年(如2014年使用2002–2012年数据),聚焦近期影响力。

2.  引入高被引论文(HCPs):基于ESI的“前1%高被引论文”筛选学者,减少学科间引用差异的偏差。

3.  动态阈值:按学科规模(作者数平方根)确定入选人数,如大领域选250人,小领域选100人。

4.  跨学科类别:2018年新增“跨领域”类别,应对多学科合作趋势。

·        利益相关者变化

o   大学与排名机构:上海排名(ARWU)将HCR数量作为大学评价指标,推动其成为“科研卓越”的代名词。

o   国家竞争:中国等国家通过高薪吸引HCR学者提升排名(如沙特大学),引发学术雇佣争议。

·        争议与妥协

o   方法论透明度不足,如跨学科合作难以量化(多作者论文的贡献分配问题)。

o   对自引和团队合作的批评(如高能物理领域的大型合作论文被排除)。

3. 策略的弱化(2019–2023):学术诚信危机与应对

·        挑战

o   学术不端:HCR学者涉及自引操纵、论文工厂合作、撤稿等问题(如Kamali等,2022)。

o   指标可信度:HCPs筛选方法被质疑无法区分真实影响力与策略性发表。

·        Clarivate的应对

o   方法论修订:加强学者身份验证,排除可疑论文,引入同行评审数据辅助评估。

o   定位调整:从“科研影响力”转向“学术认可”,弱化排名功能,强调HCR作为“荣誉项目”。

·        深层矛盾

o   科研评估的量化困境:引用次数能否代表质量?HCR列表的标准化与学科多样性冲突。

o   全球科研体系的不平等:资源集中(欧美主导)与新兴国家的“指标游戏”(如中国HCR数量激增)。

学术与政策启示

1.  科研评估的复杂性

·        HCR列表的演变反映了从“数据服务”到“指标工具”的异化,暴露了简化评估的风险。

·        需结合定性(同行评审)与定量指标,避免过度依赖单一标准。

2.  学术诚信的挑战

·        指标驱动的研究文化助长不端行为(如“论文工厂”),需建立动态监控机制。

3.  全球科研治理

·        排名导向的政策可能导致资源错配(如重金聘请HCR),需平衡学术自由与评估需求。

未来研究方向

·        纵向比较:结合访谈数据,分析HCR学者对列表的认知及其职业策略。

·        替代指标:探索Altmetrics等非引用指标在评估中的应用。

·        伦理框架:构建兼顾公平、多样性和学术诚信的评估体系。

本文通过历史视角揭示了HCR列表的双刃剑效应:既是科研影响力的风向标,也是学术竞争的催化剂。其演变提醒我们,科学评价需回归学术本质,而非沦为数字游戏。

 

转载本文请联系原作者获取授权,同时请注明本文来自武夷山科学网博客。

链接地址:https://wap.sciencenet.cn/blog-1557-1475755.html?mobile=1

收藏

分享到:

当前推荐数:6
推荐到博客首页
网友评论0 条评论
确定删除指定的回复吗?
确定删除本博文吗?