|
第2章 YARN设计理念与基本架构# X) m8 A9 R- _* P
在第1章, 我们介绍了Hadoop学习环境的搭建方法, 这是学习Hadoop需要进行的最基本的准备工作。 在这一章中, 我们将从
; `! A6 W% F$ W$ {1 g; ?设计理念和基本架构方面对Hadoop YARN进行介绍, 这也属于准备工作的一部分。 通过本章的介绍将会为下面几章深入剖析
" x d, Q: v- v* qYARN内部实现奠定基础。
" Z: A; C/ ]1 `% B# L! r* k; v7 P由于MRv1在扩展性、 可靠性、 资源利用率和多框架等方面存在明显不足, Apache开始尝试对MapReduce进行升级改造, 于
& Q( L6 _ F6 I9 w是诞生了更加先进的下一代MapReduce计算框架MRv2。 由于MRv2将资源管理模块构建成了一个独立的通用系统YARN, 这直接
4 A& C9 A8 _# ]# R% }: B使得MRv2的核心从计算框架MapReduce转移为资源管理系统YARN。 在本章中, 我们将从背景、 设计思想和基本架构等方面对% [$ b' M; \! N; Z( Z
YARN框架进行介绍。& F, U( f1 m& n8 L3 D; r2 n
2.1 YARN 产生背景
' O- M5 Y N t$ x: L' j$ K3 [( G2.1.1 MRv1 的局限性
|3 \+ ]# F& m# e! DYARN是在MRv1基础上演化而来的, 它克服了MRv1中的各种局限性。 在正式介绍YARN之前, 我们先要了解MRv1的一些局$ g5 |7 X) p; j+ d: F. e
限性, 这可概括为以下几个方面:# v' C+ `5 G5 A; |; e8 L$ C
❑扩展性差
. {2 T0 y7 i( \( V( m0 X# O# G。 在MRv1中, JobTracker同时兼备了资源管理和作业控制两个功能, 这成为系统的一个最大瓶颈, 严重制约了Hadoop集群扩展
0 R! s! q7 h2 i3 p6 U4 y6 _3 Z性。
7 ~% i9 t5 h9 z' Q, I4 o. L4 Z8 S❑可靠性差
, ]( ^$ O+ ]' [5 ^; \6 U。 MRv1采用了master/slave结构, 其中, master存在单点故障问题, 一旦它出现故障将导致整个集群不可用。* N" a G: f! c7 |# @
❑资源利用率低9 A' S7 k, ~* X8 J2 }
。 MRv1采用了基于槽位的资源分配模型, 槽位是一种粗粒度的资源划分单位, 通常一个任务不会用完槽位对应的资源, 且其他 b9 D4 o% B) \+ D t
任务也无法使用这些空闲资源。 此外, Hadoop将槽位分为Map Slot和Reduce Slot两种, 且不允许它们之间共享, 常常会导致一种
G& @# G; z' P" V' ~# l" U l槽位资源紧张而另外一种闲置( 比如一个作业刚刚提交时, 只会运行Map Task, 此时Reduce Slot闲置) 。
* \' f0 i [$ f# A; _0 t! g❑无法支持多种计算框架1 E& {8 t: V Q# o0 s. W
。 随着互联网高速发展, MapReduce这种基于磁盘的离线计算框架已经不能满足应用要求, 从而出现了一些新的计算框架, 包括
' A m+ E; l/ X7 w内存计算框架、 流式计算框架和迭代式计算框架等, 而MRv1不能支持多种计算框架并存。
$ e" \% X: \, ?6 `6 Q为了克服以上几个缺点, Apache开始尝试对Hadoop进行升级改造, 进而诞生了更加先进的下一代MapReduce计算框架 h0 G6 Q8 }" _
MRv2。 正是由于MRv2将资源管理功能抽象成了一个独立的通用系统YARN, 直接导致下一代MapReduce的核心从单一的计算框2 T4 _1 V8 x6 o9 j5 n( @: z2 [" T
架MapReduce转移为通用的资源管理系统YARN。 为了让读者更进一步理解以YARN为核心的软件栈, 我们将之与以MapReduce为0 U4 ?8 _3 ]- P8 \6 x
核心的软件栈进行对比, 如图2-1所示, 在以MapReduce为核心的软件栈中, 资源管理系统YARN是可插拔替换的, 比如选择
x% ]' S }6 t/ Q9 {$ C. wMesos替换YARN, 一旦MapReduce接口改变, 所有的资源管理系统的实现均需要跟着改变; 但以YARN为核心的软件栈则不同,
, V$ h/ _0 B( q& L! Y) X, y所有框架都需要实现YARN定义的对外接口以运行在YARN之上, 这意味着Hadoop 2.0可以打造一个以YARN为核心的生态系统。
0 b$ x/ ]( G2 d4 B5 s图2-1 以MapReduce为核心和以YARN为核心的软件栈对比
B" r# L) P0 C( g; z' H. Y2.1.2 轻量级弹性计算平台
4 C; ^* Z8 t8 |( m- b随着互联网的高速发展, 基于数据密集型应用的计算框架不断出现, 从支持离线处理的MapReduce, 到支持在线处理的
, \9 {1 ?, y' m2 `Storm, 从迭代式计算框架Spark到流式处理框架S4, 各种框架诞生于不同的公司或者实验室, 它们各有所长, 各自解决了某一类
Y P3 o; `$ P" ^+ s- o5 Y应用问题。 而在大部分互联网公司中, 这几种框架可能同时被采用。 比如在搜索引擎公司中, 一种可能的技术方案如下: 网页建; W* Q: @ [$ m: `) a" U
立索引采用MapReduce框架, 自然语言处理/数据挖掘采用Spark( 如网页PageRank计算、 聚类分类算法等) , 对性能要求很高的. P. |: s- n7 f. d
数据挖掘算法用MPI等。 考虑到资源利用率、 运维成本、 数据共享等因素, 公司一般希望将所有这些框架都部署到一个公共的集
% i8 S, Y2 g. r群中, 让它们共享集群的资源, 并对资源进行统一使用, 同时采用某种资源隔离方案( 如轻量级cgroups) 对各个任务进行隔离,# M* N) x7 Q- b" a
这样便诞生了轻量级弹性计算平台, 如图2-2所示。 YARN便是弹性计算平台的典型代表。2 R1 ?7 ?3 ?# Q: D
从上面分析可知, YARN实际上是一个弹性计算平台, 它的目标已经不再局限于支持MapReduce一种计算框架, 而是朝着对
1 g* x O8 O% l$ r2 F多种框架进行统一管理的方向发展。
( {+ x& h+ f( S# ^1 r6 G9 C4 P; P相比于“一种计算框架一个集群”的模式, 共享集群的模式存在多种好处:
- e$ j4 |' [7 L# W3 e❑资源利用率高& ^4 y2 U: Z- i& G* n N$ Z0 [- Q
。 如图2-3所示, 如果每个框架一个集群, 则往往由于应用程序数量和资源需求的不均衡性, 使得在某段时间内, 有些计算框架
5 e$ m% o g# m! T; Q' j: k" X3 t的集群资源紧张, 而另外一些集群资源空闲。 共享集群模式则通过多种框架共享资源, 使得集群中的资源得到更加充分的利用。
$ C5 M' u5 U0 R( y: o0 L❑运维成本低( w$ g7 ^# D. q, }9 p
。 如果采用“一个框架一个集群”的模式, 则可能需要多个管理员管理这些集群, 进而增加运维成本, 而共享模式通常需要少数管
5 t1 P: E. F+ l8 p6 n& S理员即可完成多个框架的统一管理。0 c% p& M6 q7 S2 \ M' l
图2-2 以YARN为核心的弹性计算平台的基本架构
6 A$ e( N. [) R& Y* W* v图2-3 共享集群模式使得资源利用率提高/ W$ L: s( ]/ J& }$ f1 {& e
❑数据共享/ C+ @9 q3 U/ e7 ~- x
。 随着数据量的暴增, 跨集群间的数据移动不仅需花费更长的时间, 且硬件成本也会大大增加, 而共享集群模式可让多种框架& ?. {. u% F: ^2 {$ E
共享数据和硬件资源, 将大大减小数据移动带来的成本。
8 P; O' A) [* d4 C
4 Y; P0 ^- N0 Z |
|