某些教授看起来几十篇scI充门面,但很多篇被引用量都是o。
但有些神仙论文被引用次数却轻松达到万次。
甚至于被引用过十万次的论文也不是没有。
6洲前世就拜读过不少被引次数达到万次的论文。
并不仅仅限于数学领域。
6洲并没有照搬照抄这类论文的想法。
但却不妨藉此分析一下这些被疯狂引用的论文一般都有哪些特质。
一般来说,论文不受欢迎或者说无人问津的原因倒是很简单。
多数是因为研究质量不高。
部分论文非但是研究质量不高,而且还犯下很多低端错误。
这类论文往往在研究方法、数据分析或结果解释等方面存在问题,缺乏科学的严谨性。
再不就是整篇论文看似没任何问题,实则充斥着滑坡谬误。
这样的论文又怎会引起其他学者的兴趣或认可呢?
当然少部分论文虽然被引用的次数比较少,但并不是因为这类论文很糟糕。
可能只是因为这类论文涉及到的研究领域狭窄,抑或是课题相对比较前,以至于相关研究的读者群体有限。
这种情况下,这些论文受众天然就十分有限。
在缺乏广泛的学术关注的情况下,被引用的机会较少。
再者就是因为相应的论文过于冷门邪门从而使得相应的学术成果鲜少被人注意到。
有时候,即使是优秀的论文也需要适当的宣传和推广才能被其他学者注意到。
如果作者没有积极地与学术社区互动、参加学术会议或分享研究成果,那么论文可能无法获得广泛的知名度,更不要说是被引用了。
无人问津的论文的原因几乎都差不多。
而那些被引用次数多的论文之所以能够被引用多次数原因则不尽相同。
有的论文被广泛引用而受到关注的原因可能是因为做出了突破性研究。
这类论文可能提出了全新的理论、方法或现,对该领域的知识做出了重要贡献。
这些研究能够引起其他学者的兴趣,因为这样的研究为进一步研究提供了新的方向。
以至于后来者在从这个新方向探路的时候,将不可避免的引用相关的学术成果。
譬如说前世人工智能方面著名的的论文——
《用于图像识别的深度残差学习》
(deepResidua1LearningforImageRenet)
这篇论文引入了一个残差学习框架,以简化比以前使用的网络更深的网络的训练。
因为引入了残差学习框架使得“更深”同时相对不那么复杂的神经网络训练成为可能。
残差网络(Resnet)是深度学习的一个重要架构。
深度学习是一个广泛的领域,包括许多种机器学习的方法和模型,主要目标是模拟人类的神经网络来进行学习。
然而,在2o16以前的实践中,研究者们往往现随着网络深度的增加,网络性能并不总是提高,这是由于所谓的梯度消失梯度爆炸问题。
残差网络(Resnet)是为解决这个问题而提出的一种网络结构。
在这种结构中,每个层次的输出都会加其输入,这样可以直接传递梯度,避免了梯度消失问题。
这种“跳跃”连接或者叫做“短路”连接,使得Resnet可以成功地训练非常深(例如,百层)的神经网络。
因此,残差网络是深度学习中的一种关键创新,它为训练更深的神经网络提供了可能。
某种角度来说,正是因为该论文提供了这种新方向从而给了其余研究者们豁然开朗的新思路,人工智能才真正迈入了“深度”学习的大门。
于是,这个论文基本成为了深度学习方面绕不开的一个论文。
前世这篇论文从2o16年度提出之后,热度就一直居高不下。
在谷歌学术甚至可以看到该论文的被引用总数过1o万。
虽然过1o万的引用次数涉及到很多综述类文章的引用,但这样的成绩也足够牛了。
除了做出方向性突破的论文容易让人引用之外,再就是做出奠基性贡献的论文同样容易被引用。
试想一下如果是因为你的一篇论文而直接诞生了一个新的研究学派,那样后续该领域的研究肯定是绕不过去你的论文的。
虽然一般来说一个全新研究领域或学科的产生往往是一个演变过程,而非突然产生。
通常需要多篇重要的论文,以及大量学者在该领域的积极研究才能拓展开一个新的领域。
但对于一些大犇级的人物来说,也没有什么不可能的。
的确有一些学术论文的出版引了全新研究领域或学科的产生。
例如,Jameatson和Franciscrick于1953年在《自然》杂志表了题为“分子结构的核酸:一个螺旋结构的dna的假设性构造”的论文,这篇论文描述了dna的双螺旋结构。