武夷山分享 http://blog.sciencenet.cn/u/Wuyishan 中国科学技术发展战略研究院研究员;南京大学信息管理系博导

博文

论文评审意见汇总(43)

已有 1244 次阅读 2021-8-14 07:11 |个人分类:科学计量学研究|系统分类:观点评述

论文评审意见汇总(43

武夷山

 

 第一则


1.      作者很多概念都不懂。例如,瑞士、瑞典篇均被引次数最高,并非被引次数最高,作者连这个都不知道。

2.      作者批评的很多现象,在全世界都存在,但作者分析问题根源时,只在中国土壤里找,所以其结论肯定不对。

3.      题目有“向世界科技强国转型”字样,文章里却根本没有科技强国要素的分析。再说,科技强国需要建设,不是转型转过去的。经济增长方式才谈得上转型。

4.      全文的臆断很多,完全没有证据支撑。作者批评的某些现象也许存在,如论文互引,但那是主流吗?有多大比例的作者在互引?

5.      建议方面几乎没有新东西,个别具有新意的建议又不具备可行性,如论文开放评价。假定科研人员都愿意来参与开放评价——其实几个人肯花这个时间?——那么,评价意见分歧时怎么办?多数人说了算?显然不合理,还是得相对的学术权威说了算。权威说了算,不就是传统的同行评议做法的本质吗?。

 

我在稿件原文中还标注了一些其他质疑。

 

第二则

 

    “查找自2004~2015JCR报告内收录的所有信息科学和图书馆学期刊,排除10年发表ArticleReview量不足300篇者,排除自引率>20%者,排除发文量异常大的LIBR J(年发文量万篇左右),最终列入研究者共计27种期刊。”

 

为什么选这11年的时段?为什么排除发文量少的?后面又排除发文量大的,这不相互矛盾吗?LIBR JBeall列入掠夺性期刊名单了吗?凭什么排除?凭什么以20%作为自引过高的门槛,有何依据?总之,开展课题研究时不能太随意,总要有个说法。

 

第三则

 

1.      2.2小节所举的单指标探索的例子,恰恰不是单指标,IF反而是单指标。请作者多看几篇参考文献,采用学界惯用的单指标评价与多指标评价的定义或说法。

2.      4.1小节第一句,201411-201411月?后一半应为201511月?

3.      目前的写法,以翻译人家现成数据为主,加上简单的统计,深入分析不够。其实有很多可挖掘的点,例如,发在ArXiv的文章,很多后来都发表于期刊了。请作者追踪一下上榜的ArXiv文章后来是何时发表于期刊的,时滞有多长,就可反映出先发表在一个开放的平台有多么重要。本人有体会,我们先将一篇稿件亮相于ArXiv,再向期刊投稿,后来,期刊录用了我们的稿子,尚未发表的时候,先行发表于ArXiv的文章已经获得引用!又如,中国作为第一作者上榜的几篇文章,是什么主题的?可以简单介绍一下,满足读者的好奇心。

4.      本文基本上讲altmetrics好话为主,建议在某处好好讨论一下该评价法的不足,因为任何评价方法都有缺陷。比如,F 1000是专家评价,貌似合理,结果发现,性医学领域的论文获得F 1000的专家们推荐的特别多。是这些文章特别好吗?非也。只是因为大家都对性感兴趣,“食色,性也”。

 

 

 




http://wap.sciencenet.cn/blog-1557-1299671.html

上一篇:美国加州一名音响工程师的哲思(11)
下一篇:未来学素养的关键要素——反思能力

10 郑永军 李宏翰 杨正瓴 范振英 闻宝联 徐长庆 杜占池 宁利中 郭平 许培扬

该博文允许注册用户评论 请点击登录 评论 (3 个评论)

数据加载中...

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2021-10-16 23:31

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部