张军平
统计学习要素 -- 译者序 精选
2020-9-7 08:39
阅读:6199
标签:人工智能, 统计学习, 大数据

        虽然老套,我还是想以这句开头。如果上天再给我一次机会的话,我肯定不会同意接翻译这本书的活。因为从接活到完成,前前后后十一年的时间,从性价比来看,绝对是不值得的。 

         2009年,我导师问我愿不愿意翻译一本书。我那会已经毕业6年,但还算年轻,也不懂得拒绝,所以就答应了。于是,便和我的几个学生们一起,开始了翻译经典的漫漫征途。 

         因为文章里面公式多,商量了下,决定用Latex来排版处理。现在想想,可能从这个决定开始,就已经注定了这次翻译的难产。 第一次交稿是2011年初吧,具体时间真有些模糊了。 然后就是漫长的等待,偶尔催催当时这本书的责任编辑 ,总说在改但事多,只能暂时先搁置着。 

          这一晃时间就过了8年,到了2019年。然后某次朋友圈看到文开琪编辑正出版的一本翻译书,吐了下槽。交谈良久后,终于让这本书的翻译有了转机。为此,做了两件事。一是跟原来的编辑商量。因为原出版社翻译书的版权已经过期了,所以,换出版社没有技术上的问题。二是我重新对译稿进行检查、排版和翻译。 

         时间隔得有点长,Latex的版本都升级了好几版,曾经参与翻译的学生都已经毕业五六年了,以至于重新调通全书的译稿都花了我一些时间。我也顺便仔细审视了之前的译稿,多少明白为什么难产的另一个原因,就是之前的翻译质量确实还是差强人意的。原编辑即使想改,也难以改下去。从我个人来说,我也在统计学习、机器学习、人工智能的基础与应用研究中多打拼了近十年,耳濡目染,对这一领域的历史、发展状况、利弊的认识更全面和深刻了。2018年下半年,我还就人工智能存在的不足,从错觉的角度写了一本科普书《爱犯错的智能体》,20197月由清华大学出版社正式出版。 

         出完这本书不久,我便利用2019年暑假的间隙期,独自将全书重新做了一遍纠错和调整。我自认为我的工作效率还算高的,但毕竟是近600页的书,虽然我起早贪黑的校稿,也花了我近3个月的时间。而后在2019年寒假,我再次检查了出版社返回的校样稿。需要指出的是,这本书虽然是2009年出版的,但作者在后续重印时做了17次的纠错。另外,作者还在网上放了一些未体现到书中的纠错内容。为了保证翻译的内容是最新和更准确的,所有这些纠错上的更新,我均一并体现进了翻译的书里。20206月,经过与清华出版社文编辑的协商,决定让专做排版且熟悉Latex的公司帮着一起修改。因我使用的Latex版本、宏包和操作系统不同等原因,公司熟悉我发过去的源包花了一段时间。20207月末,我对编辑公司发来的样稿再次进行了核对,将一些翻译问题、打印错误、拼写错误处理掉,最终有了能出版的译书。 

         比较有意思且值得回顾地是,2009年刚接到翻译任务时,那会深度学习还没出现AlexNet这样性能卓越的神经网络结构,在ImageNet上的算法性能的比拼还主要集中在传统机器学习方面,如支持向量机和集成学习。而依照这本书浓烈的统计味,按理说,那个时间点出版应该是最佳时期。很不幸地是,由于这样那样的原因,在等待出版的过程中,人工智能已经进入了第三波热潮。由于深度学习在预测上的优越表现,自2012年开始,大多数机器学习研究者和对人工智能感兴趣的科研工作者开始转向深度神经网络的研究。

          而深度学习中,大家关心的是如何进行数据的生成,如何调整网络的参数和基于先期调整好的网络进行精调或fine-tune,如何利用模块化的结构将各种机制如注意力、对抗、金字塔引入,如何通过构造损失函数来适应不同的应用,如何提取更有效的深层特征表示,如何并行计算,如何压缩模型,诸如此类。对于统计学习中常关心的可解释性、收敛界、泛化和模型复杂性等问题的研究,则明显没有了深度学习流行之前的热度。这从人工智能相关的诸多顶会上,深度学习与传统机器学习论文数量的比例变化就可见一斑。 

        虽然深度学习目前仍处在如火如荼之中,但需要注意的是,人工智能的研究很像时装热潮的更替,隔一段时间就会来个循环。冷的会热,热的也会变冷。神经网络自1956年以来的三次兴衰非常能体现这个特点。当然,其原因与我们对数据的采集能力大小,对模型逼近能力的认识程度有一定关系。

          最近两年,关于深度学习的可解释性、局限性有了越来越多的反思。而《统计学习要素》似乎对其中的一些问题早已有过比较完整且清晰的分析。比如神经网络的优势和不足,书中就有过定论,如果用来做预测的话,还是不错的。但做可解释性,这方面就不如其它统计学习或机器学习模型。而从就业的角度来看,很多人工智能相关的企业也已经不满足于招只懂调深度网络模型参数的学生了,更希望他们也懂一些统计基础和机器学习,以备不时之需。这本书恰好提供了关于这方面比较全面的介绍。 

       这本书的三位作者均是斯坦福大学统计系的资深教授,在统计分析和机器学习领域都提出了重要的研究成果。比如一作Trevor Hastie,我最早了解他的工作是读他的博士论文“主曲线”,该工作是试图将线性情况的第一主成份推广到非线性情况,去寻找通过数据中间的曲线或超曲面。我读博士期间及毕业后有一系列的工作是与其研究的主曲线相关的。 

         尽管这本英文书的第二版是2009年成书发行的,但我认为,如果希望能全方位了解人工智能、机器学习的理论基础,这本书还是值得认真研读的。主要原因有三个。一是数学和统计的理论基础,相对于人工智能的工程应用发展,更为稳定,不太容易在短时间内如2030年发生大的变化,甚至在很长一段时间都能成为我们从事人工智能研究的启蒙,为相关的科研工作者提供理论基石和指导。 比如1895年黎曼提出的弯曲空间,即流形概念,时隔100多年,才在机器学习和人工智能的研究中大放异彩。二是这本书的三位作者都是曾在统计和机器学习两大学科间积极参与过实际研究的。书中有太多细节 ,能看出来不是纸上谈兵写出来的,都是干货。这些经验能帮助大家在设计模型和算法时,少走很多不必要的弯路。三是这本书的主线,很值得我们深思,尤其是经历了深度学习这波热潮后。如果仔细看这本书,便会发现作者们始终在围绕两个概念讲故事。一个是偏差,即模型离真实模型之间的差异。另一个是方差,即模型本身的稳定性。对偏差与方差之间平衡的思考贯穿全书,并基于此来讨论各种学习方法的优劣,而这一平衡与我们今后更需要关注的可解释性、以及理解人和其它生命的智能密切相关。 

         最后,感谢为本书翻译做出贡献的同学们。这里包括2009年最初为本书设计Latex模板并翻译的何力同学,以及参与各章节翻译的陈昌由、谭犇、王晓丹、周骥同学。也感谢2019年对我重新翻译的内容进行过校对的黄智忠、陈首臻、陈捷、张政峰、袁一帆和何沛阳同学。还特别感谢目前远在美国做博士后的吴新星副教授。他帮助我解决了书里面图上英文标注的汉化问题,使我能批量定位掩盖英文的框,并在框上叠加翻译好的中文。他也帮助我解决了书在Latex版本升级后的排版问题,以及提供了不少有用的宏包,如翻译的书最后的关键词术语对照表。我也感谢教育部指导高校科技创新规划项目、国家自然科学基金(资助号:61673118)、上海市“脑与类脑智能基础转化应用研究”市级科技重大专项资助(项目编号:  2018SHZDZX01)和张江实验室对本翻译书的支持。另外,本人的翻译水平和投入的时间都比较有限,如有翻译不到位的地方还请见谅。如可能,也欢迎反馈至编辑部或我本人的学校邮箱,等再版时一并改正。 

 

 张军平

 写于202094

WechatIMG2650.jpeg


转载本文请联系原作者获取授权,同时请注明本文来自张军平科学网博客。

链接地址:https://wap.sciencenet.cn/blog-3389532-1249554.html?mobile=1

收藏

分享到:

当前推荐数:18
推荐到博客首页
网友评论5 条评论
确定删除指定的回复吗?
确定删除本博文吗?