万赟的科学网博客分享 http://blog.sciencenet.cn/u/ywan

博文

云计算的前世今生(三)

已有 3203 次阅读 2011-4-12 07:08 |个人分类:互联网|系统分类:科研笔记| 云计算, 谷歌, 超级计算机

现在的谷歌是世界上最繁忙的网络公司。据comScore2009年的报告,谷歌美国的点击量大概是每天3.2亿次。据同年CNBC的一个报道,谷歌每天的全球总点击量超过20亿次。显然,谷歌的“云端”需要有很强的处理能力才能给使用者满意的反应速度。其解决方案就是把便宜的台式机装上免费的红帽子Linux然后联网在一起, 通过并行计算的原理产生与高端服务器相同的效能来满足人民群众日益增长的搜索需求。

 

早些时候,由于技术竞争的原因,谷歌的硬件平台架构对外界一直保持保密的神秘状态。根据现有的一些资料,我们只知道谷歌在2000年底的Linux单机集群大概就有6000多台,到了2001底扩容为8000多台了。要知道Google1999年底一度为自己的搜索引擎寻找买主,曾经希望雅虎以一百万美元将自己收购。而雅虎不干,不过决定使用谷歌的搜索引擎作为自己的网站搜索引擎,这才使得谷歌在发掘出广告业务之前有了一些资金来扩充自己的搜索实力,所以谷歌才在2000年底能够迅速开发出6000台单机的集群。

 

说到这里,我们不得不简单回顾一下谷歌的Linux 集群的由来。这还要从超级计算机的历史说起。

 

去年,我国的天河超级计算机成为世界上运算最快的超级计算机,大概每秒钟运算2.566千万亿次。这一世界纪录今年可能要被IBM的新超级计算机Mira刷新,后者声称运算速度为每秒10千万亿次。不过,在某种意义上讲,不管是天河还是Mira可能都比不上谷歌的集群运算速度,据有关专家估计,早在2008年初,谷歌的搜索引擎部分计算机集群的运算速度,保守估计亦为50千万亿次。

 

那么谷歌的系统和一般的超级计算机有什么不同呢?应该说,前者是后者的一个分支。

 

70年代的超级计算机主要是在多处理器上做文章,这些处理器分享经过特别设计的各级存储器以及输入、输出系统,所以整个超级计算机系统可以看作是一个大的计算机。其内部是不可分割的。为了充分利用其高速运算的功能,需要为这些超级计算机的算法进行特别设计。很多“并行运算”的理论和模型都是从这段时间开始趋于成熟的。

 

等到了80年代,这种发展模式应了摩尔定律的法则,开始走向极限。因为随着中央处理器的增多,其总运算速度开始受制于联接它们的输入、输出设备的运行速度以及存储器运行速度。为了克服这一瓶颈缺陷,科研人员想尽了各种设计方法,比如有的超级计算机将整个计算机设计成圆形,从而减少了处理器之间的传输距离等等。但总的来说,这个瓶颈难以突破。

 

到了90年代中期,几个重要的发展趋势出现。首先是廉价的个人电脑台式机及其各种部件的普及化,其次是包括Linux在内的大量免费开源软件的迅速传播,还有就是“并行运算”的理论已经非常成熟。这些因素为后来的以Linux为操作系统的廉价计算机集群技术奠定了基础。

 

当然,市场需求是这一新技术得以迅速推广的决定性因素。因为到了90年代,众多生产、科研以及服务领域对高速运算的需求日益强烈。而这时的超级计算机因为价格太昂贵,无法满足大众市场的廉价普及需求,在这个诱因下,Linux集群计算机架构于1994年应运而生。这成为后来(包括谷歌和亚马逊在内的)云计算的服务端硬件基础。而这时谷歌的两位创始人还没见面呢。



https://wap.sciencenet.cn/blog-39023-432156.html

上一篇:给科学网大学提个小建议
下一篇:云计算的前世今生(四)
收藏 IP: 216.80.129.*| 热度|

2 田灿荣 邱嘉文

发表评论 评论 (6 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-27 06:37

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部