继前段时间分析Redis源代码一段时间之后。我即将開始接下来的一段技术学习的征程。研究的技术就是当前很火热的Hadoop,可是一个Hadoop生态圈是很庞大的。所以首先我的打算是挑选当中的一部分模块,去学习,研究,我就选中了MapReduce。MapReduce最早是由Google公司在04年公布的论文中提出的一种思想,后来被人实现出来。才有了后面的Hadoop的诞生。学习MapReduce的打算一定不会如Redis源代码学习一样。我仅仅会挑出当中一些用的比較多的过程分析。希望能理解的更深吧。跟上次一样。学习一门技术。首先要了解总体,所以我对Hadoop的MapReduce也做了结构分类。首先是一个图形化的标示形式,用关系类图做出的一张图:
内容会比較多。以下给出我花了个把小时整理出的文字功能描写叙述分类,结合图片和文字,理解效果会更好:
MapReduce源代码分析(主要四大模块,others表示父文件夹下的.java文件的总称): 1.org.apache.hadoop.mapred(旧版MapReduceAPI): (1).jobcontrol(job作业直接控制类) (2).join:(job作业中用于模仿数据连接处理操作工具) (3).lib(MapReduce所依赖的工具方法) |----(1).aggregate(用于数据聚合处理的文件) |----(2).db(数据库操作相关文件) |----(3).others (4).pipes(Hadoop MapReduce的C++接口代称) (5).tools(就包括了一个MRAdmin文件。用于连接connect操作,新版本号中已无此文件) (6).others 2.org.apache.hadoop.mapreduce(新版MapReduceAPI): (1).example(存放执行Hadoop作业的样例) (2).lib(新版MapReduce所依赖的工具方法): |----(1).aggregate(用于数据聚合处理的文件) |----(2).db(数据库操作相关文件) |----(3).others (3).security(Hadoop1.0版本号中新加入的关于安全方面的代码) |----(1).token(用于安全检測的token验证) | |----(1).delegation(token文件夹下的代理,委派token) | |----(2).others |----(2).others (4).server(Hadoop服务端的功能。主要包含jobTracker,taskTracker) |----(1).jobtracker(任务调度Tracker) |----(2).tasktracker(任务运行Tracker) |----(1).userlogs(任务运行的用户日志记录模块) |----(2).others (5).split(用于作业job的切割处理类) (6).others 3.org.apache.hadoop.filecache(文件缓存,用于文件分发): (1).DistributedCache.java(将job指定的文件,在job运行前,先行分发到task运行的机器上) (2).TaskDistributedCacheManager.java(即Job ID、Job Conf即配置參数、Job配置文件路径、该Job包括的任务集合(当前TaskTracker内的)以及一些用户权限等信息) (3).TrackerDistributedCacheManager.java(,用来管理该机器上全部task的cache文件) 4.org.apache.hadoop---mapreduce-default.xml: 主文件夹下的MapReduce的默认文件,包含地址port号等的配置。
上述的全部内容都是我经过总结所得,难免会有所错误,希望大家能从总体上首先掌握MapReduce的架构体系,好逐一击破。有问题能够直接评论指出。兴许我分析过的代码会定时同步到我的github上。地址: