java自学网VIP

Java自学网

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 2217|回复: 0

《大规模分布式存储系统》 第5章 分布式键值系统【5.1】

[复制链接]
  • TA的每日心情
    开心
    2021-5-25 00:00
  • 签到天数: 1917 天

    [LV.Master]出神入化

    2025

    主题

    3683

    帖子

    6万

    积分

    管理员

    Rank: 9Rank: 9Rank: 9

    积分
    66345

    宣传达人突出贡献优秀版主荣誉管理论坛元老

    发表于 2017-3-3 20:39:43 | 显示全部楼层 |阅读模式
    第5章 分布式键值系统
    / t2 |/ R) M0 N6 H% ]  j7 u分布式键值模型可以看成是分布式表格模型的一种特例。然而,由于它只支持% P: @7 l2 \8 i
    针对单个key-value的增、删、查、改操作,因此,适用3.3.1节提到的哈希分布算3 C( @( y- s0 U* U% ]" o
    法。2 V$ w) l1 z9 g. Y
    Amazon Dynamo是分布式键值系统,最初用于支持购物车应用。Dynamo将很多5 B! |% y3 p7 S! |/ W2 n6 @
    分布式技术融合到一个系统内,学习Dynamo的设计对理解分布式系统的理论很有帮0 I& P. m* k2 l/ I$ w1 ?' _. U
    助。当然,这个系统的主要价值在于学术层面,从工程的角度看,Dynamo牺牲了一
    , Q8 l& V4 _! U, \+ Q2 p) C1 V致性,却没有换来什么好处,不适合直接模仿。
    - }% j9 \1 m# }" p7 W9 eTair是淘宝网开发的分布式键值系统,它借鉴了Dynamo系统的一些设计思路并' L( B9 ~8 e$ y! e
    做了一些创新,其中最大的变化就是从P2P架构修改为带有中心节点的架构,笔者认
    ! v$ [7 Z8 u. a! c3 p  v为,这种思路在大方向上是正确的。
    1 w- Q5 v$ Z3 @% l9 `7 Z3 S6 v本章首先详细介绍Amazon Dynamo的设计思路,接着介绍淘宝网的Tair系统。
    ( A* Q) k5 e- N0 A: _& i5.1 Amazon Dynamo
    # K! O5 c% z  k" t8 h6 n- _Dynamo以很简单的键值方式存储数据,不支持复杂的查询。Dynamo中存储的是0 I0 o, k' p% v: D+ k
    数据值的原始形式,不解析数据的具体内容。Dynamo主要用于Amazon的购物车及S38 b6 n0 `9 ]7 l& _5 y6 l* m4 X
    云存储服务。9 E* ~9 b! ?  _7 A. O( l# {2 U3 c
    Dynamo通过组合P2P的各种技术打造了线上可运行的分布式键值系统,表5-1中6 W, h7 E. U9 z; [2 l5 X/ x4 l
    列出了Dynamo设计时面临的问题及最终采取的解决方案。
    ' w. p' g* [. M$ G5.1.1 数据分布2 T$ L# J) ^& v) v1 G
    Dynamo系统采用3.3.1节(见图3-2)中介绍的一致性哈希算法将数据分布到多个
    % K" w- p: j; d( V0 r: ]$ x3 X存储节点中。一致性哈希算法思想如下:给系统中每个节点分配一个随机token,这! h* |. E+ s% B  b
    些token构成一个哈希环。执行数据存放操作时,先计算主键的哈希值,然后存放到
    - H# d' ~( x7 v0 K4 V顺时针方向第一个大于或者等于该哈希值的token所在的节点。一致性哈希的优点在
    2 T- B) Z2 F( q& l$ D3 G, Z于节点加入/删除时只会影响到在哈希环中相邻的节点,而对其他节点没影响。
    6 Y$ Y# a& B6 g. }" C; P: i1 ]. W考虑到节点的异构性,不同节点的处理能力差别可能很大,Dynamo使用了改进$ j4 d: v, H) H8 B, a# A9 p3 W/ r
    的一致性哈希算法:每个物理节点根据其性能的差异分配多个token,每个token对应
    2 ^8 N& a3 G5 a' ]3 i8 ?一个“虚拟节点”。每个虚拟节点的处理能力基本相当,并随机分布在哈希空间中。% m- p) n1 r7 B4 C8 d$ |
    存储时,数据按照哈希值落到某个虚拟节点负责的区域,然后被存储在该虚拟节点
    ' A! s$ M" @+ k所对应的物理节点中。& n# o6 T6 }) |8 }* p+ |
    如图5-1所示,某Dynamo集群中原来有3个节点,每个节点分配了3个token:节点9 R: r- Y& g9 }5 m) ^( ]* p
    1(1,4,7),节点2(2,3,8),节点3(0,5,6)。存放数据时,首先计算主
    ' V* X( j3 D. Q2 j键的哈希值,并根据哈希值将数据存放到对应token所在的节点。假设增加节点4,6 h- _/ c. O( r5 W& f$ K0 I6 s
    Dynamo集群可能会分别将节点1和节点3的token 1和token 5迁移到节点4,节点token分
    # M, S9 p7 y$ |7 V( P; w配情况变为:节点1(4,7),节点2(2,3,8),节点3(0,6)以及节点4(1,
    ! I2 E( P3 M0 u$ b. B0 ^5)。这样就实现了自动负载均衡。8 f* T& S9 c" a. S4 K4 l. ?# t
    图 5-1 Dynamo虚拟节点
    - C# k5 B/ C& O% `$ ~为了找到数据所属的节点,要求每个节点维护一定的集群信息用于定位。
    & `8 |- v+ E( T# |Dynamo系统中每个节点维护整个集群的信息,客户端也缓存整个集群的信息,因: I' P  q3 E5 k% p$ j; X
    此,绝大部分请求能够一次定位到目标节点。
    : t, [4 @/ {: T5 r% c由于机器或者人为的因素,系统中的节点成员加入或者删除经常发生,为了保! k9 @& ]. `8 _5 ]9 L
    证每个节点缓存的都是Dynamo集群中最新的成员信息,所有节点每隔固定时间(比/ w6 s4 }" ?5 \0 w
    如1s)通过Gossip协议的方式从其他节点中任意选择一个与之通信的节点。如果连接' T/ f% \% `  L8 \
    成功,双方交换各自保存的集群信息。
    . G$ o) k% v+ L7 [) eGossip协议用于P2P系统中自治的节点协调对整个集群的认识,比如集群的节点' [( _2 K3 \1 r- T
    状态、负载情况。我们先看看两个节点A和B是如何交换对世界的认识的:  ?# B+ I! W7 {4 r6 l
    1)A告诉B其管理的所有节点的版本(包括Down状态和Up状态的节点);/ B6 s' \' q2 W' e1 s, Q' d1 b
    2)B告诉A哪些版本它比较旧了,哪些版本它有最新的,然后把最新的那些节
    & F+ ]! |& n- j( [8 L/ p  c+ Y* B点发给A(处于Down状态的节点由于版本没有发生更新所以不会被关注);
    8 N7 I& \4 _6 n2 V3)A将B中比较旧的节点发送给B,同时将B发送来的最新节点信息做本地更8 J6 ?/ \" @2 S
    新;5 a. \2 g5 J7 B2 h8 W" T
    4)B收到A发来的最新节点信息后,对本地缓存的比较旧的节点做更新。: h) {" q: S0 g- M# l2 c  E
    由于种子节点的存在,新节点加入可以做得比较简单。新节点加入时首先与种: |+ f: [# Z  I" L
    子节点交换集群信息,从而对集群有了认识。DHT(Distributed Hash Table,也称为
    ( d1 u1 Y5 q. r& w6 f一致性哈希表)环中原有的其他节点也会定期和种子节点交换集群信息,从而发现
    6 k+ k3 X1 Y4 \4 K  p新节点的加入。; D+ f$ `& d3 e* b* ]0 j
    集群不断变化,可能随时有机器下线,因此,每个节点还需要定期通过Gossip协$ X: ?5 H' A+ W& ]: }; G$ k
    议同其他节点交换集群信息。如果发现某个节点很长时间状态都没有更新,比如距
    : o3 g* J8 m* g, ]1 H' t离上次更新的时间间隔超过一定的阈值,则认为该节点已经下线了。
    ! e% T6 n0 [' B: j, L4 Q3 c) a5.1.2 一致性与复制
    # u" ]9 `1 X8 |. N0 H' i6 Z为了处理节点失效的情况(DHT环中删除节点),需要对节点的数据进行复" @( W" B6 p: f, K
    制。思路如下:假设数据存储N份,DHT定位到的数据所属节点为K,则数据存储在
    + F) A: x, I, ^- C$ [% a6 P. o- S节点K,K+1,……,K+N-1上。如果第K+i(0≤i≤N-1)台机器宕机,则往后找一台/ u! h; y( t) z% O5 @
    机器K+N临时替代。如果第K+i台机器重启,临时替代的机器K+N能够通过Gossip协6 a1 }4 P3 @8 G
    议发现,它会将这些临时数据归还K+i,这个过程在Dynamo中叫做数据回传(Hinted
    - m, i3 Z; j7 G$ I( R5 D% PHandoff)。机器K+i宕机的这段时间内,所有的读写均落入到机器[K,K+i-1]和  [* Z& c. v) g& Y
    [K+i+1,K+N]中。如果机器K+i永久失效,机器K+N需要进行数据同步操作。一般来& u# p! [4 T$ b, m5 N2 o
    说,从机器K+i宕机开始到被认定为永久失效的时间不会太长,积累的写操作也不会; Q7 ]2 N$ u1 O& m! U1 o
    太多,可以利用Merkle树对机器的数据文件进行快速同步(参见下一小节)。$ T, I" r5 P- @& E
    NWR是Dynamo中的一个亮点,其中N表示复制的备份数,R指成功读操作的最
    ( V, U, V; H8 v4 R" N+ L+ g1 n5 N- t少节点数,W指成功写操作的最少节点数。只要满足W+R>N,就可以保证当存在不6 m% E. n& Z' Q' [1 }- Q
    超过一台机器故障的时候,至少能够读到一份有效的数据。如果应用重视读效率,
    # m5 i$ F5 C# h4 @可以设置W=N,R=1;如果应用需要在读/写之间权衡,一般可设置N=3,W=2,
    1 q$ Z4 S/ u* N" H  B. `0 @R=2;当然,如果丢失最后的一些更新也不会有影响的话,也可以选择W=1,R=1,
    5 i, A) r  K" q2 V% {8 C! mN=3。4 P5 F- k& N! }  w5 ~
    NWR看似很完美,其实不然。在Dynamo这样的P2P集群中,由于每个节点存储
    7 J# |9 N8 _" T: {4 e2 \  S1 F的集群信息有所不同,可能出现同一条记录被多个节点同时更新的情况,无法保证
    ( S# k$ v$ r& Q8 ^3 j: Z: e+ n5 s多个节点之间的更新顺序。为此Dynamo引入向量时钟(Vector Clock)的技术手段来- ^: T( q( o/ o* ^' d
    尝试解决冲突,如图5-2所示。6 S& j2 B3 P+ ]4 o. I$ Y
    图 5-2 向量时钟
    ( m0 \1 y7 `- ~& U/ sDynamo中的向量时钟用一个[nodes,counter]对表示。其中,nodes表示节点,: _. t& @" [. E2 P% g
    counter是一个计数器,初始为0,节点每次更新操作加1。首先,Sx对某个对象进行* i, j9 }" X4 ?
    一次写操作,产生一个对象版本D1([Sx,1]),接着Sx再次操作,counter值更新为
    : F' w( ?& o! R3 e% K5 N2,产生第二个版本D2([Sx,2]);之后,Sy和Sz同时对该对象进行写操作,Sy将1 s# _( E1 [3 W% k# L
    自身的信息加入向量时钟产生了新的版本D3([Sx,2],[Sy,1]),Sz同样产生了新
    # i% ~# m; `. b. [的版本信息D4([Sx,2],[Sz,1]),这时系统中就有了两个冲突的版本。最常见的
    , n, n/ z% X) M9 m( k冲突解决方法有两种:一种是通过客户端逻辑来解决,比如购物车应用;另外一种
    6 A" ~' G8 O2 ^  G" t1 U7 Q常见的策略是"last write wins",即选择时间戳最新的副本,然而,这个策略依赖集群7 h3 ^( P3 h' v, G' R
    内节点之间的时钟同步算法,不能完全保证准确性。
    5 n5 v3 X5 U9 R0 ^; K, Y& J+ H向量时钟不能完美解决冲突,即使N+W>R,Dynamo也只能保证每个读取操作能
    + [, i1 Y" x" Z读到所有的更新版本,这些版本可能冲突,需要进行版本合并。Dynamo只保证最终
    % Y& X5 B" n- @3 Y: {一致性,如果多个节点之间的更新顺序不一致,客户端可能读取不到期望的结果。. c: ~+ e) H/ k+ J
    这个不一致问题需要注意,因为影响到了应用程序的设计和对整个系统的测试工( r- \+ N+ k$ S3 {) v2 j3 n; k
    作。( t$ R0 ~& |; G  O/ h+ d) N
    5.1.3 容错
    / L1 H1 g1 T* L" x8 c$ ~' XDynamo把异常分为两种类型:临时性的异常和永久性异常。有一些异常是临时8 o% h( O! E5 V% F$ `
    性的,比如机器假死;其他异常,如硬盘报修或机器报废等,由于其持续时间太, d' \7 H' m6 M2 y5 ?  K
    长,称为永久性的。下面解释Dynamo的容错机制:+ f6 b* S8 w) D3 l
    ●数据回传 在Dynamo设计中,一份数据被写到K,K+1,……,K+N-1这N台! B, j5 D. x! k* [# y8 T$ L7 K
    机器上,如果机器K+i(0≤i≤N-1)宕机,原本写入该机器的数据转移到机器K+N,+ M* U7 |! m. v
    如果在指定的时间T内K+i重新提供服务,机器K+N将通过Gossip协议发现,并将启
    . W" K' Q; u7 N- v/ g6 q动传输任务将暂存的数据回传给机器K+i。
    $ @  L$ {5 C. A6 s# y' G2 P●Merkle树同步 如果超过了时间T机器K+i还是处于宕机状态,这种异常被认为: b- T! D( _) N3 G8 K9 W
    是永久性的。这时需要借助Merkle树机制从其他副本进行数据同步。Merkle树同步的
    0 G9 ~7 u* H" E9 r9 `* j3 E; X原理很简单,每个非叶子节点对应多个文件,为其所有子节点值组合以后的哈希
    ' D, J$ T8 k' z% G" G4 v4 |值;叶子节点对应单个数据文件,为文件内容的哈希值。这样,任何一个数据文件
    5 T( ]" L7 {1 ^! b, @不匹配都将导致从该文件对应的叶子节点到根节点的所有节点值不同。每台机器对! O% S/ H) X, o! S1 O
    每一段范围的数据维护一颗Merkle树,机器同步时首先传输Merkle树信息,并且只需$ O# A. s: f5 z6 R% v
    要同步从根到叶子的所有节点值均不相同的文件。
    . L8 j$ V+ |. }$ ]# n●读取修复 假设N=3,W=2,R=2,机器K宕机,可能有部分写操作已经返回客+ ?% E+ B) p- A7 s
    户端成功了但是没有完全同步到所有的副本,如果机器K出现永久性异常,比如磁盘
    ( @$ m5 b) M  g! }; c0 F故障,三个副本之间的数据一直都不一致。客户端的读取操作如果发现了某些副本
    3 H2 u" t. y( c. m) ?版本太老,则启动异步的读取修复任务。该任务会合并多个副本的数据,并使用合; _, o5 K" J& `
    并后的结果更新过期的副本,从而使得副本之间保持一致。7 h$ p1 G6 M2 _, ~# o  |- T
    5.1.4 负载均衡  M) K3 N( i2 Y- }* r8 H0 E
    Dynamo的负载均衡取决于如何给每台机器分配虚拟节点号,即token。由于集群+ K0 C! _% F+ Z
    环境的异构性,每台物理机器包含多个虚拟节点。一般有如下两种分配节点号的方
    2 M0 A$ Q; v7 c# }+ q, E法。' @3 k5 o. Q. q  p  F! Q% i
    ●随机分配。每台物理节点加入时根据其配置情况随机分配S个Token。这种方法" }) ~% B& J' a: \; n# R7 K  ~
    的负载平衡效果还是不错的,因为自然界的数据大致是比较随机的,虽然可能出现
    " P3 A6 W6 O% k6 u5 y4 }/ b1 C某段范围的数据特别多的情况(如baidu、sina等域名下的网页特别多),但是只要切' D8 x) S& D6 L0 m" k7 I% {
    分足够细,即S足够大,负载还是比较均衡的。这个方法的问题是可控性较差,新节: w9 w" M7 @; l& [/ H
    点加入/离开系统时,集群中的原有节点都需要扫描所有的数据从而找出属于新节点
    $ P8 D# ~; m; a* @' A1 D& i* @0 p9 A的数据,Merkle树也需要全部更新;另外,增量归档/备份变得几乎不可能。2 Y5 z( R1 q  }! ]8 [! h+ v( s
    ●数据范围等分+随机分配。为了解决上种方法的问题,首先将数据的哈希空间
    " p/ e$ \+ h/ j+ ]( N$ {等分为Q=N×S份(N=机器个数,S=每台机器的虚拟节点数),然后每台机器随机选
    6 \# f* w' T# M* }, t1 ~2 V择S个分割点作为Token。和上种方法一样,这种方法的负载也比较均衡,并且每台
    " Z. S, S7 I0 B& s' I  J* R机器都可以对属于每个范围的数据维护一颗逻辑上的Merkle树,新节点加入/离开时
    ' N1 o, L5 S4 S1 V5 B- Y只需扫描部分数据进行同步,并更新这部分数据对应的逻辑Merkle树,增量归档也! p! z" }( \8 }4 a  M* z4 d
    变得简单。
    ! ^. N) V! x$ q! i7 _8 K4 y另外,Dynamo对单机的前后台任务资源分配也做了一些工作。Dynamo中同步操
    & f) H5 N* f' E0 p5 [作、写操作重试等后台任务较多。为了不影响正常的读写服务,需要对后台任务能/ e9 @$ z8 x" P$ [4 K$ D+ q
    够使用的资源做出限制。Dynamo中维护一个资源授权系统。该系统将整个机器的资: q) u6 j; X/ @; E2 ]# K) l# D
    源切分成多个片,监控60秒内的磁盘读写响应时间,事务超时时间及锁冲突情况,
    1 c; U8 V$ R" `& }- R$ z根据监控信息算出机器负载从而动态调整分配给后台任务的资源片个数。/ b0 r0 A5 o6 T, L& S% k
    5.1.5 读写流程
    0 m. `5 G% ]# ~. H4 q7 MDynamo的读写流程如图5-3和图5-4所示。6 v" h: C; x3 ^
    图 5-3 Dynamo写入流程  {( n+ O- \% D$ y! T, P6 P
    图 5-4 Dynamo读取流程* L6 j# S8 G' u* m/ k
    Dynamo写入数据时,首先,根据一致性哈希算法计算出每个数据副本所在的存
    / O3 v+ t! H7 W) ~. T) l8 o储节点,其中一个副本作为本次写操作的协调者。接着,协调者并发地往所有其他+ v+ }: t" r$ T) k: q0 M5 _
    副本发送写请求,每个副本将接收到的数据写入本地,协调者也将数据写入本地。
    : {9 c* t* W; o' q; Y, w当某个副本写入成功后,回复协调者。如果发给某个副本的写请求失败,协调者会6 R8 o# P; }5 F$ h' }* O
    将它加入重试列表不断重试。等到W-1个副本回复写入成功后(即加上协调者共W个, m0 s3 m8 F; M, ], m  F
    副本写入成功),协调者可以回复客户端写入成功。协调者回复客户端成功后,还
    * N! A" S! u0 h( v" _( s会继续等待或者重试,直到所有的副本都写入成功。* d$ g3 D: ~; R0 S7 D
    Dynamo读取数据时,首先,根据一致性哈希算法计算出每个副本所在的存储节
    ) R+ z* n5 d  C0 a4 @" s点,其中一个副本作为本次读操作的协调者。接着,协调者根据负载策略选择R个副3 g4 {4 v: ?8 |5 Z
    本,并发地向它们发送读请求。每个副本读取本地数据,协调者也读取本地数据。
    9 ]# a; D- e% l& f1 Y当某个副本读取成功后,回复协调者读取结果。等到R-1个副本回复读取成功后(即  C3 w% o7 z7 n( O5 v: K
    加上协调者共R个副本读取成功),协调者可以回复客户端。这里分为两种情况:如; ?* Z; U# x& Q( Y! q: D
    果R个副本返回的数据完全一致,将某个副本的读取结果回复客户端;否则,需要根
    " i9 M& O3 i2 w据冲突处理规则合并多个副本的读取结果。Dynamo系统默认的策略是根据修改时间
    # Y; x3 o5 y' h' g6 P戳选择最新的数据,当然用户也可以自定义冲突处理方法。读取过程中如果发现某
    8 u  n2 v  u6 m2 L7 ^" T些副本上的数据版本太旧,Dynamo内部会异步发起一次读取修复操作,使用冲突解4 t8 S- g$ C. G! A' l9 L
    决后的结果修正错误的副本。8 X+ ]/ [* p4 g3 Y7 U% O
    5.1.6 单机实现* s5 _4 k$ P$ G0 |" s7 z
    Dynamo的存储节点包含三个组件:请求协调、成员和故障检测、存储引擎。! N0 n6 @2 u% n. Q8 I, }
    Dynamo设计支持可插拔的存储引擎,比如Berkerly DB(BDB),MySQL InnoDB
    4 z1 Y8 l6 p1 m; S) s等。存储的需求很多,设计成可插拔的形式允许用户根据应用特点选择合适的存储7 @; p% b& {/ R5 u8 o
    引擎,比如BDB存储的对象大小一般在几十KB之内,而MySQL可以处理更大的对
      i. r- h) B# k4 O1 ]% @象。用户会根据应用对象大小选择存储引擎,默认为BDB。" A" w& N- N8 z& w
    请求协调组件采用基于事件驱动的设计,每个客户端的读写请求对应一个状态5 N/ F/ n2 C/ d( ^" y& N, e
    机,系统根据发生的事件及状态机中的状态决定下一步的操作。比如读取操作对应8 j& v% g+ y3 q7 h+ [! e
    的状态包括:
    4 m, s% P* Z: y) J/ s  e( L! N# |' m●协调者发送读请求到其他节点;
    6 ~8 o7 Q7 Y$ b% b●等待其他节点返回读取结果,最少需要R-1个;
    - k2 G& Q9 h" S& S: m9 Z) l●如果请求其他节点返回失败,需要按照一定的策略重试;" e; s. k3 k( A# K- }' u
    ●如果到达时间限制成功的节点仍然小于R-1个,返回客户端请求超时;
    5 G5 g8 c4 j, h( R# s6 {1 l8 a" V●合并协调者及其他R-1个节点的读取结果,并返回客户端,合并的结果可能包4 T3 J6 b+ F6 B6 {* i
    含多个冲突版本;如果设置了冲突解决方法,协调者还需要解决冲突。# J. d9 X3 T% l3 q# N) {) L: N
    读操作成功返回客户端以后对应的状态机不会立即被销毁,而是等待一小段时
    1 t1 K. E" L& u' _间,这段时间内可能还有一些节点会返回过期的数据,协调者将更新这些节点的数. b" [5 H8 C5 K* B5 y* z
    据到最新版本,这个过程称为读取修复。
    ! I. H$ M* _$ k6 _0 ~5.1.7 讨论. D- m* }9 g1 b# |6 f
    Dynamo采用无中心节点的P2P设计,增加了系统可扩展性,但同时带来了一致# D, R0 |5 I1 Q0 B
    性问题,影响上层应用。另外,一致性问题也使得异常情况下的测试变得更加困0 \$ V) z' E. C7 N8 q; c/ t5 I& R5 B/ f
    难,由于Dynamo只保证最基本的最终一致性,多客户端并发操作的时候很难预测操
    & O6 e" C! q9 f. ^. K2 @作结果,也很难预测不一致的时间窗口,影响测试用例设计。
    ) m. I. `# i$ G# A总体上看,Dynamo在Amazon的使用场景有限,后续的很多系统,如Simpledb,
    ) K1 H) h; r$ ^采用其他设计思路以提供更好的一致性。主流的分布式系统一般都带有中心节点,# f: v: u& @. a6 f3 ]& E2 S: J( g
    这样能够简化设计,而且中心节点只维护少量元数据,一般不会成为性能瓶颈。  D2 F, \- C6 J/ z5 w
    从Amazon、Facebook等公司的实践经验可以得出,Dynamo及其开源实现. Z! _. p+ u4 s5 o( F  D
    Cassandra在实践中受到的关注逐渐减少,无中心节点的设计短期之内难以成为主7 I. T$ F7 k8 x" p" s# ~4 d$ R
    流。另一方面,Dynamo综合使用了各种分布式技术,在实践过程中可以选择性借8 ?4 U% e( ]; E& d
    鉴。4 W* I& n( o& ~2 d

    0 x) V  Z& f8 h. G& G1 G4 z
      o3 K0 d$ q7 _( N2 {$ [3 @$ ^! _0 q
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|Archiver|手机版|小黑屋|Java自学网

    GMT+8, 2024-11-21 20:54 , Processed in 0.223255 second(s), 29 queries .

    Powered by Javazx

    Copyright © 2012-2022, Javazx Cloud.

    快速回复 返回顶部 返回列表