经济不行啦,只好潜心研究技术。Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。GoogleCluster:httpresearchgooglecomarchivegoogleclusterhtmlChubby:httplabsgooglecompaperschubbyhtmlGFS:httplabsgooglecompapersgfshtmlBigTable:httplabsgooglecompapersbigtablehtmlMapReduce:httplabsgooglecompapersmapreducehtml很快,Apache上就出现了一个类似的解决方案,目前它们都属于Apache的Hadoop项目,对应的分别是:ChubbyZooKeeperGFSHDFSBigTableHBaseMapReduceHadoop目前,基于类似思想的Ope
Source项目还很多,如Facebook用于用户分析的Hive。HDFS作为一个分布式文件系统,是所有这些项目的基础。分析好HDFS,有利于了解其他系统。由于Hadoop的HDFS和MapReduce是同一个项目,我们就把他们放在一块,进行分析。下图是MapReduce整个项目的顶层包图和他们的依赖关系。Hadoop包之间的依赖关系比较复杂,原因是HDFS提供了一个分布式文件系统,该系统提供API,可以屏蔽本地文件系统和分布式文件系统,甚至象Amazo
S3这样的在线存储系统。这就造成了分布式文件系统的实现,或者是分布式文件系统的底层的实现,依赖于某些貌似高层的功能。功能的相互引用,造成了蜘蛛网型的依赖关系。一个典型的例子就是包co
f,co
f用于读取系统配置,它依赖于fs,主要是读取配置文件的时候,需要使用文件系统,而部分的文件系统的功能,在包fs中被抽象了。Hadoop的关键部分集中于图中蓝色部分,这也是我们考察的重点。
ff下面给出了Hadoop的包的功能分析。
PackageDepe
de
cestool提供一些命令行工具,如DistCp,archivemapreduceHadoop的MapReduce实现filecache提供HDFS文件的本地缓存,用于加快MapReduce的数据访问速度文件系统的抽象,可以理解为支持多种文件系统实现的fs统一文件访问接口HDFS,Hadoop的分布式文件系统实现hdfs一个简单的IPC的实现,依赖于io提供的编解码功能ipc参考:httpzha
gyu8374javaeyecomblog86306表示层。将各种数据编码解码,方便于在网络上传输io
et封装部分网络功能,如DNS,socketsecurity用户和用户组信息co
f系统的配置参数metrics系统统计数据的收集,属于网管范畴util工具类record根据DDL(数据描述语言)自动生成他们的编解码函数,目前可以提供C和Javahttp基于Jetty的HTTPServlet,用户通过浏览器可以观察文件系统的一些状态信息和日志log提供HTTP访问日志的HTTPServlet由于Hadoop的MapReduce和HDFS都有通信的需求,需要对通信的对象进行序列化。Hadoop并没有采用r