这篇文章是本人在接触大数据过程中,对一些原理、概念以及当前常用实现技术的笔记和总结。本人接触大数据不深,实践不多,见识不广,如果错误或者偏颇之处,欢迎斧正。
未完待续
一、 引言
这篇文章是本人在接触大数据过程中,对一些原理、概念以及当前常用实现技术的笔记和总结。本人接触大数据不深,实践不多,见识不广,如果错误或者偏颇之处,欢迎斧正。
二、 数据
数据伴随着人类文明出现和发展,同样计算的需求一直存在,从结绳记事到算盘,从差分机到现代计算机的诞生无不是用来更好地处理数据的。然而计算资源始终是有限的,这就决定了计算的过程必定是迭代进行的,中间结果和未使用数据都需要存放在特定的介质上。
数据存放的介质从竹简到纸张,从磁带到高速缓存,存放的容量和存取速度不断演变。同样由于资源的有限性,在现代计算机上,需要面临容量和速度的取舍。下面是现代计算机的存储体系(冯·洛伊曼体系):
这里可以看到容量和速度存在反比关系。为了提高计算速度,数据存放介质的存取速度当然越快越好,但受容量的限制大部分数据都被存放在存取速度一般或者很慢的介质上,即绝大部分数据往往存放在离CPU较远的地方。而计算时往往需要在那些存取速度较慢的介质上搜索所需要的数据,或者更新数据到这些介质。一方面,这些介质本身访问速度慢;另一方面,其上存储数据量较大,进一步降低了定位数据的速度。
早期,数据量不大结构简单的情况下,人们简单地使用操作系统的文件系统来管理存储数据的文件,实现数据的管理工作。但随着数据量增大,结构复杂化,一些问题逐渐显现:
- 随着数据量增大,如何提高搜索速度
- 写入数据时,如何确保写入一定是成功的
- 多个人同时操作同一个数据造成的并发控制问题
- 相同数据重复存储,更新不一致的问题
- 通过程序直接操作数据时,发生异常时,数据状态变得不确定
- 数据需要能被所有人看到吗,要不要权限控制
- …
为了解决这些问题,人们通过构建专门的数据库管理系统(DBMS,在不产生歧义的情况下,下面一律使用”数据库”来代替)来进行数据的管理和维护。同样地,这些系统也随着时代不断演变着。
1. 数据存储
此处直接从关系型数据库说起,感兴趣的可以参考数据库的维基百科词条https://en.wikipedia.org/wiki/Database
关系型数据库
这里得提一下关系型数据库的奠基人英国计算机科学家——埃德加·科德(老爷子在2003年4月18日因心脏病去世,R.I.P)在上个世纪70年代提出的关系模型以及著名的科德十二定律:
1 | 1. 准则0:基本准则。一个关系型数据库系统必须能完全通过它的关系能力来管理数据库 |
这些准则定义了一个关系型数据库管理系统应该满足什么条件。
随后,IBM进一步完善他的工作,并促进相关的标准化。其中SQL成为了ANSI和ISO的标准。它是数据库方面最广为人知的概念和工具了,成为了这类数据库的代名词。根据准则,SQL提供了:
- DDL: 数据定义语言(Data Definition Language)
- DML: 数据操作语言(Data Manipulation Language)
- DCL: 数据控制语言(Data Control Language)
- DQL: 数据查询语言(Data Query Language)
准则表明一个关系型数据库应该具有ACID特性,即:
- Atomicity: 原子性
- Consistency: 一致性
- Isolation: 隔离性
- Durability: 持久性
因为这些特性比较重要,下面做一些说明。
数据库事务
数据库事务是数据库管理系统执行过程中的一个逻辑单位,由一个有限的数据库操作序列完成(注意:这个和日常生活中的事务是有区别的。)它是数据库执行的基础。
原子性
它要求数据库事务执行要么成功要么失败,不存在部分成功或者失败,即事务要求作为一个整体来执行。也就是意味着事务的不可分割性和不可约性。
一致性
它要求数据库事务的执行应该确保数据库状态从一个一致性状态转变为另一个一致性状态。这里的一致性是指所有数据必须满足完整性约束(比如数据类型定义,触发器,主键约束等)。
隔离性
它要求多个数据库事务的并发执行时能够得到正确的结果,即要求进行正确的并发控制。
持久性
它要求数据库事务一旦执行完毕并提交,就应该永久保存在数据库中。即数据必须记录到非易失性存储上,另一方面,它要求数据库具有错误恢复能力。
这些特性赋予了关系型数据库很强的数据管理能力,多用户的支持、安全审计、异常恢复等其它特性,使得它成为了使用范围最广影响最深的一类数据库。下面是一个关系型数据库的基本结构:
一些常见的关系型数据库:
- 商业:Oracle DB, Microsoft SQL Server, DB2, Sybase, …
- 开源:MySQL, PostgreSQL, Apache Derby, HSQLDB, H2, …
扩展阅读:
- 常见关系型数据库列表:https://en.wikipedia.org/wiki/List_of_relational_database_management_systems
- 常见关系型数据库列表比较:https://en.wikipedia.org/wiki/Comparison_of_relational_database_management_systems
但辉煌之下,一场危机正在酝酿。
上个世纪90年代开始,面向对象编程开始兴起。随着越来越多的系统使用OO构建,人们发现将内存中的对象数据持久化到关系型数据库中存在一些障碍,两种模式似乎无法兼容(具体可以参考相应的维基百科词条https://en.wikipedia.org/wiki/Object-relational_impedance_mismatch)。人们将这种现象称之为Object-relational impedance mismatch,即“阻抗失衡”。一些ORM工具和框架被创造出来,试图解决这些问题。
另一方面,随着互联网快速发展,数据的量和形式都空前的大。加上昂贵的授权和维护费用,使得越来越多的企业开始寻求性价比更高的解决方案。
随着时代的发展,数据产生场景不断发生变化,数据格式形态也变得越来越丰富。从结构化的角度大致可以分为:
- 结构化数据:有明确的结构定义,且结构稳定良好的数据。比如,常见的关系型数据库存储的数据
- 半结构化数据:有一定的结构,但结构易变的数据。比如,HTML,XML,JSON类数据
- 非结构化数据:没有明确的结构定义或者不易结构化的数据,比如图片、文本、音频、视频等
大数据时代来临了,但现有的关系型数据库在可扩展性方面出奇的差,面对数据量不断增长(特别是半结构化和非结构化数据的增长)的需求和硬件技术发展的瓶颈,现有的关系型数据库已经力不从心了。
不可否认的是,关系型数据库依然是目前应用最广的数据库,在处理中小数据的时候仍然是优先考虑的选择。
NoSQL数据库
首先,对于NoSQL这个词并没有一个权威的定义,你可以理解为”non sql”, “non relational”或者”not only sql”。它不是指一种特定的技术或者数据模型,而是对有别于关系型数据库的那类数据库的总称。这些NoSQL数据库的诞生不仅弥补之前关系型数据库的可扩展性问题,而且提高了一些新的数据存储方式。
NoSQL数据库由于采用聚合形式的数据存储,可以很方便地进行数据分布,因此都采用了横向扩展。一般可以通过两种途径实现数据分布化:
- sharding: 实现了数据分片,提高了数据存储容量,提高了数据的可用性,但一致性下降
- replication: 实现了数据的复制,提高了数据的读取性能和系统的健壮性。一般有良好的一致性,但可用性下降。
这两种技术相铺相成,即它们是正交的。使用时,比较灵活,可以根据具体情况和要求搭配使用。常见的做法有:
- 单机
- 分片
- 主从复制
- 对等复制
- 分片和复制混合
有哪些NoSQL数据库
NoSQL数据库最大的特点就是放弃了关系模型中的元组结构,采用了另外一些宽松的,结构更加复杂的结构。根据这些结构的不同可以将这些数据库分为:
- 键值数据库:Redis, Riak, Memcached(及其变种), Berkeley DB, Amazon DynamoDB, Google LevelDB
- 文档数据库:MongoDB, CouchDB, Terrastore
- 列族数据库:HBase, Cassandra, Amazon SimpleDB
这些数据库操作数据所用的基本单位不再是元组,而是各自定义的复杂结构(可以称之为聚合)。这种数据的存储方式使得特定情况下,由于不需要额外的JOIN过程,数据的获取变得很高效。另外,他们是无模式的,不需要事先定义结构,可自由添加字段,这对于处理半结构化或者非结构化数据非常有用。
还有一类数据库提供了另外一种数据模型
- 图数据库:Neo4j, Infinite Graph, OrientDB, FlockDB
其他的还有比如对象型数据库,基于云的数据库等,具体可以参考相应的维基百科词条https://en.wikipedia.org/wiki/NoSQL
这些NoSQL数据库什么时候用
由于CAP约束的存在,各个数据库在实现上面临着取舍,各自专注的领域有所区别。下面介绍一下各种NoSQL数据库的常见的应用场景:
关于一致性和可用性的更多讨论将在下一章详细说明。
键值对类型
键值对顾名思义其数据存储采用键值形式进行。用户可以根据键来查询、设置或者删除对应的值,这个和编程中经常使用的HashMap类似,区别在于这里的值对于数据库而言只是一块数据,其格式和结构可以不一致的,即数据库不关心存储在值中的内容。这个需要应用程序负责解释。还有一些键值数据库(比如Redis)支持范围查询,集合操作等。
目前使用较多或者市场份额加大的有:Riak,Redis和Memcached DB。下面以这些数据库为例做一下说明:
先对这些数据库做一下简介
- Redis: 是一个开源的(基于BSD协议)、支持网络、基于内存的键值对存储(又称为数据结构存储),使用ANSI-C实现。其中值支持丰富的数据结构(string, list, set , hash tables…),可用作数据库、缓存或者消息代理。支持分片、事务、LRU缓存、Lua脚本和不同级别的磁盘持久化。通过
Redis Sentinel
提供高可用性,使用Redis Cluster
来实现集群管理。它是目前最流行的键值对存储数据库。官方网站:https://redis.io - Riak: 是具有高可用性、容错强、操作简单及扩展性特点的一个分布式键值对数据库。使用Erlang语言实现,它是
Amazon Dynamo
的开源实现。支持数据分片和集群部署。官方网站:http://basho.com/products/ - Memcached: 是一个开源的(基于BSD协议)高速缓存系统。它使用C语言实现。其API使用哈希算法计算键值后,将数据分散在不同机器的哈希表中。这个表支持LRU的缓存策略。它通常被作为缓存系统使用,尤其对于请求量大或者生成内容成本高的系统有很好的性能提升作用。但是,它缺乏持久化机制,需要额外的代码实现。另外,它缺乏认证和安全管制,所以一般需要放置在安全可信的网络中。另外,MemcacheDB和CouchBase都是它的变种,它们提供了持久化能力,并且和Memcached具有协议兼容性。官方网站:https://memcached.org/
键值数据库特性:
- 一致性
只有针对单个键的操作才具备强一致性,对于采用分布式的情况,可以提供最终一致性。当然,这边就需要在读取或者写入效率做出取舍。
- Redis: 支持主从复制,支持最终一致性
键值数据库在做分片时,一般按照键进行,如何生成合适的键来满足分片的需求?
一致性哈希
事务
查询
可扩展性
关于分片
分片实现方式
分片的优缺点
- 适用案例
这一类数据库一般采用内存存储策略(所以也可以称之为内存键值数据库),强调高性能。支持各种内存数据结构,对数据结构要求宽松。
- 存放用户会话信息
- 用户配置信息
- 购物车信息
- 不适用的场合
- 数据间存在关系
- 含有多项操作的事务:比如需要同时更新多个键值对
- 需要根据值来查询数据:当然我们也可以使用Solr这样的索引引擎来提供检索功能
- 集合操作:由于键值数据库一次只能操作一个键,所以它无法操作多个关键字。对于多个关键字,可以在客户端处理
使用时我们需要注意几点:
- 键的选择或者生成
- 存储的数据是否重要,能否忍受数据的丢失,是否需要持久化
- 使用键查询时,是否存在不知道键的情况。是否需要支持键的搜索
- 对一致性的要求怎么样,强一致性还是最终一致性,一致性窗口多大?
各个键值数据库之间由于关注点和应用差异,存在或多或少的区别。实际应用时,需要根据实际情况和各个数据库官方说明选择合适的数据库和配置。
文档类型
列族类型
图类型
这个类型比较特殊,它和上面的区别在于其并不是为了解决大数据量的问题
他们之间更详细的比较可以参考https://en.wikipedia.org/wiki/Comparsion_of_structured_storage_software。
由于NoSQL数据库中大多都能够实现数据的分布化,因此原来的ACID特性不再适用,取而代之的是BASE。即:
- Basically Available: 基本可用
- Soft state: 软状态
- Eventual consistency: 最终一致性
可以看出,这里通过牺牲了严格的可用性和一致性,来换取可扩展性。
NewSQL数据库
兼顾扩展性和ACID保证的现代关系型数据库
- 全新类型的数据库系统
- Google Spanner
- Clustrix
- VoltDB
- MemSQL
- NuoDB
- …
- 对数据库引擎进行了优化
- MySQL Cluster
- TokuDB
- …
这类系统都提供了分片的中间件成,用来对数据库进行分割,以便在多个节点上运行
其他
上面我们说得数据库可以都归为结构化存储,他们对于结构化或者部分半结构化数据往往具有较好的管理。但对于非结构化数据就无能为力了,因此亟需一种数据管理系统能够对非结构化数据进行处理。
Riak支持Solr
全文检索
2. 数据库的使用模式
数据库屏蔽,服务化
交互形式:Rest HTTP,Protobuf,Thrift…
这是一个螺旋上升的过程,NoSQL本身不是SQL的取代,只是在特定邻域或者场景下的妥协和特化。如何组织数据中的关系是演变的核心。
三、计算
操作系统类比
有时计算复杂度较低,但数据量加大,导致总体计算量大;有时计算复杂度高,数据量不一定大,但计算量同样很大。
关系型数据库访问方式
客户端 vs 服务端
计算模型:
SISD, SIMD, MISD, MIMD
并发/并行 vs 分布
计算伴随着数据的分布化而分布化
数据索引
分布式中的算法及其应用场景
计算场景:
- 实时应用:在线系统、实时分析、CEP。可使用的计算框架:Storm, S4, Cloudera Impala, Apache Drill
- 交互式应用:可视化、向下钻取、探索、定制化报表。可使用的计算框架:Cloudera Impala, Apache Drill, Shark
- 非交互式应用:数据准备、增量式批处理、Dashboard。可使用的计算框架:MapReduce, Hive, Pig, Stinger
- 批处理:批处理、数据挖掘。可使用的计算框架:MapReduce, Hive, Pig, Stinger
作业管理
- Tez
四、Hadoop家族
存储
数据模型
集群管理
计算模型
任务管理
附录 A.
1. 分布式相关
面对数据量的不断增长,人们需要对现有的系统进行升级扩展以满足需求。这种扩展通常分为两种:
- 纵向扩展(scale up):通过升级CPU、内存、磁盘,甚至机器来获得整体性能提升,达到资源扩充的目的。但这种方式提升有限,且成本较高
- 横向扩展(scale out):通过使用大量廉价的机器组建集群,实现分布式系统,达到资源扩充的目的。但这种方式带来了集群管理的难题
由于摩尔定律逐渐失效
单台计算机的性能提升幅度已经不能满足日益增长的数据,且成本高昂。因此横向扩展成了眼下可行的选择。特别是Google发表的《三大论文》,使得分布式计算的概念开始在互联网应用中盛行。当然,分布式概念本身不是一个新事物。比如因特网本身就是一个成功的巨型分布式应用,其它的还有DHT(分布式散列表,大家比较熟悉的应用BitTorrent就是基于此),区块链(这个比较火)。我们这里讲的分布式主要是指用来大规模处理和存储海量数据。
扩展阅读:
分布式计算维基百科词条:https://en.wikipedia.org/wiki/Distributed_computing
分布式计算中的谬误
由前Sun公司L. Peter Deutsch
和几位核心创始人在1994年提出的,关于分布式应用中新手编程人员经常做的一些错误假设。其中第八点由James Gosling
(Java之父)及其他几位Sun的核心人员在1997年补充。
1 | 分布式计算中的谬误 |
https://blogs.oracle.com/jag/resource/Fallacies.html
它表明构建一个健壮的分布式系统不是一件容易的事。
CAP理论
加州伯克利大学计算机科学家Eric Brewer
首次在1998年提出了著名的CAP理论,该理论指出对于一个分布式计算系统不能同时提供以下三种保证:
- Consistency: 一致性。包括读取一致性,更新一致性。即访问所有节点都会得到同一份最新的数据副本。
- Availability: 可用性。如果可以和集群中某个节点通信(该节点能够正常通信),那么该节点就必然能够处理读取及写入操作。即对数据更新具有高可用性
- Partition tolerance: 分区容忍性。如果发生通信故障,导致整个集群分割成多个无法互相通信的分区时,集群仍然可以使用。
根据定理,分布式系统只能满足三项中的两项而不能同时满足全部的三项。这里引用维基百科上的例子简单解释一下:
可以想象两个节点分别处在分区两侧。允许至少一个节点更新状态会导致数据不一致,即丧失了C性质。如果为了保证数据的一致性,将分区一侧的节点设置为不可用,那么又会丧失了A性质。除非两个节点可以互相通信,才能既保证C又能保证A,这又会导致丧失P性质。
这里有一些容易产生误解的地方,说明一下。
- 误解一:关于可用性的含义。这里的可用性和通常意义上的定义有所差别。它指出必须能够在可接受的响应时间内进行读取和更新。
- 误解二:关于CAP三点的组合问题。这里不是简单的三选二,比如要想构建具备CA的系统,就意味着一旦系统中出现分区,那么所有的节点必须全部停止工作。这个前提是系统实时能够检测到分区是否出现,由于分布式系统的特性(后面会具体讲解),这个操作几乎是不可能完成的。因此,对于集群来说必须要容忍分区的情况。当分布式系统发生了分区时,必须就当前的操作在C和A之间做出选择。
当然,所谓的CAP理论并不是一个严格的数学证明,存在比较大的争议。具体落地时,需要根据实际情况去理解。
扩展阅读:
- CAP理论:https://people.eecs.berkeley.edu/~brewer/cs252b-2004/PODC-keynote.pdf和http://www.glassbeam.com/sites/all/themes/glassbeam/images/blog/10.1.1.67.6951.pdf
- CAP通俗讲解:http://ksat.me/a-plain-english-introduction-to-cap-theorem/和https://dzone.com/articles/better-explaining-cap-theorem
- CAP历史:http://blog.csdn.net/chen77716/article/details/30635543
PACELC理论
PACELC理论是对之前的CAP理论的一种扩展,由Daniel J. Abadi
首次在2010年的博客中提及。该理论指出一个已存在网络分区(Partition)的分布式计算系统,仅能在一致性(Consistency)和可用性(Availability)之间选择一个(即CAP理论), 但是(Else),即使该系统在正常运行不存在分区的情况下,那它也必须在延迟(Latency)和一致性(Consistency)之间做出选择。
PACELC对分布式系统中潜在的一致性权衡问题,提供了一个更加完整的描述。它说明一个高可用的系统必须实现数据的复制,而一旦分布式系统复制数据,一致性和延迟之间的权衡就会出现。这一点已经从CAP理论的说明中略见端倪。
扩展阅读:
- 那篇博客:http://dbmsmusings.blogspot.ie/2010/04/problems-with-cap-and-yahoos-little.html
- 论文:http://cs-www.cs.yale.edu/homes/dna/papers/abadi-pacelc.pdf
一致性
简介
有过多线程编程经验的人知道,要想维护数据的一致性,同步是必不可少的手段。而在分布式系统中这一情况更加复杂,正如上面谬误中所指出的那样。网络延迟或者故障会导致更新丢失,操作顺序的不一致问题。因此,要想了解分布式系统中的一致性模型,我们就需要先理解其中的时间、事件和顺序问题。
这里的时间指系统中事件发生的物理时间和逻辑时间。先来解释一下物理世时间,在现实生活中,一个事件的发生不是一瞬间的事情,它应该有一个起始时间和结束时间。由于这个原因,多个事件的在物理时间上就有可能存在重叠,这一点在多线程里面就很常见。
但是,由于分布式系统的特性,系统中的物理时间很难同步。原因在于信息的传播速度是有极限的,即光速。因此分布式系统中每个节点的时间参考系都是独立的,这就造成物理时间的不同步。也就是说通过物理时间来实现一致性,理论上是不可能的。但是,有时候我们更关心事件的逻辑顺序(比如因果关系),不一定需要怎么严格的一致性。
Lamport Clock
是一种用于分辨分布式系统中的事件因果关系的算法,这是一种表达逻辑时间的逻辑时钟。它能够找到所有的历史事件的偏序关系,而且这种关系不仅仅在各自节点的逻辑时间参考系内顺序一致,同时全局上的顺序也是一致的。这个影响了后来很多一致性算法,比如Vector Clock
, Paxos
, Raft
等。
扩展阅读:
- Lamport Clock相关论文《Time, Clock and Ordering of Events in a Distributed System》:http://amturing.acm.org/p558-lamport.pdf
- 关于Vector Clock算法:
- 《Why Vector Clocks Are Easy》:http://basho.com/posts/technical/why-vector-clocks-are-easy/
- 《Why Vector Clocks Are Hard》:http://basho.com/posts/technical/why-vector-clocks-are-hard/
Replication
由于分布式系统本身的特性,随着系统的扩展,故障发生率上升以及性能问题。此时我们往往通过数据在多个节点备份方式,称为Replication
。这个很容易理解,如果一个节点出现故障,可以迅速切换使用备份节点上复制的数据。由于存在多份复制数据,因此一个处理可以选择最近的副本,甚至就在本地,这有效地提高了性能。复制通常作为一种提高扩展性技术使用。
但是,复制的副本越多所需要越多的网络带宽,特别是当副本数量远低于使用到的数量时,会造成大量浪费。另外更严重的问题是要在多份副本间维持一致性。这要求读取所有的副本时获取到的值应该相同。更新则要求在进行任何其它操作前,更新所有的副本,不论它操作的是哪个副本,也就是它必须是一个原子性操作。这种使得维持所有副本的一致性代价是高昂的。
一方面,希望通过复制来解决扩展性问题,提升性能;但是,另一方面,为了保持所有副本的一致性就需要全局同步, 而这又降低了系统性能。甚至,这部分代价可能会高于其所带来的提升。因此,实际应用时,我们往往需要放宽一致性约束。这个也是之前的理论所指出的。
一致性模型
这边介绍几种常见的一致性模型:
- 严格一致性:它要求读取的数据总是最近写入的数据,不存在更新后两次读取的值不一致的情况。比如说一个节点的数据更改,瞬时被另一个节点所感知,显然这种在分布式系统中是无法实现的。
- 顺序一致性:它关心的是事件发生的顺序,包含两个方面
- 事件历史发生顺序在各个处理进程上看是全局一致的。比如有两个进程分别同时处理同一个数据,进程A的处理顺序有B->A->C,那么进程B的处理顺序也必须是B->A->C,但不要求这些处理过程发生的顺序在物理时间上严格一致。
- 单个处理进程的历史事件在全局历史上应该符合程序要求的顺序。比如有两个进程:进程A包含的操作有[1,2,3,4];进程B包含的操作有[5,6,7,8]。他们执行的时的全局事件历史,可能是[1,5,2,3,6,7,4,8],或者[1,4,5,6,3,2,8]。其中的[1,5,2,3,6,7,4,8]是符合两个进程中程序要求的顺序,而[1,4,5,6,3,2,8]不符合,因为,进程A中要求[1,2,3,4],而这里是[1,4,3,2]。
- 线性一致性:它的一致性要强于顺序一致性,也叫强一致性或者原子一致性。这个是我们现在能够实现的最高级别的一致性模型。它是在前面的一致性模型的基础上加入了对时间顺序的要求,而这个不依赖全局物理时钟。比如:
- 因果一致性:是一种比顺序一致性要弱的模型,它主要区分了哪些操作是有因果关系的,哪些操作是无关的(而顺序一致性则要求所有的操作都是一致的)。只有存在因果关系的操作才要求所有进程以相同的次序看到,对于无因果关系的,并无次序保证。比如在分布式存储中,对于所有可能存在因果关系的写入操作,其发生的先后顺序对于系统中所有节点来说都是一样。并发写(不存在因果关系)则在不同节点上的执行顺序可能是不同的。
- PRAM/管道一致性:在因果一致性模型上进一步弱化,也就是由一个处理进程完成的写入操作对于其他处理进程来说顺序是保证的。但是不同处理进程的写入操作之间无需保证顺序。
- 最终一致性:是一种较弱的一致性模型,也是目前使用最为广泛的一种模型。它保证一个给定数据项在没有新的更新的情况下,更新最终会扩散传播,使得数据达到最终一致性。此时对该数据项所有访问都会返回最新更新的值。也就是说需要容忍读取出的数据是陈旧的。它有以下几个具体实现:
- 单调读一致性:它保证在一次处理中读到的数据总是不旧于上一次读取到的数据。对于分布式系统来讲,这些读取操作可能会访问不同的节点或者数据不同的副本。
- 单调写一致性:它保证在一次处理中写入数据完成后才能进行下一次写。对于分布式系统来讲,这些写入操作可能会操作不同的节点,对数据不同的副本,进行写入。
- 读不旧于写一致性:它保证在一次处理中读取到的数据,总是不旧于自身上一次写入的数据。即需要保证读写的顺序,在读之前,写入操作必须完成。对于分布式系统来讲,写入和读取操作可能不在同一个节点上,或者针对于数据的不同副本。
- 写不旧于读一致性:它保证在一次处理中写入的数据,总是不旧于自身上一次读取的数据。即读取数据后,后续的写入操作需要更新之前读取到的数据。对于分布式系统来讲,写入和读取操作可能不在同一个节点上,或者针对于数据的不同副本。
扩展阅读:
- 一致性模型维基百科词条:https://en.wikipedia.org/wiki/Consistency_model
- 分布式系统一致性的发展历史(一):http://danielw.cn/history-of-distributed-system-1
关于不一致
实际情况中,我们往往需要忍受不一致性来满足可用性要求,那什么是不一致性?我们可以下三个维度来描述不一致性:
- 数值偏差:副本中具有数值语义的数据在数值上存在差异,可分为绝对差异和相对差异
- 陈旧度偏差:副本中数据的最后更新时间或者次数存在差异
- 更新顺序偏差:副本中数据的更新操作顺序存在差异
一致性模型的强弱可以通过这些偏差大小来反映。
一致性算法
在将一致性算法前,我们先来了解一下,这些算法需要解决的问题。
面临的问题
首先,说明一下分布式系统中的几个基本概念:
网络模型
- 同步网络:这里的同步和并发/并行编程中的同步或者同步调用不是一回事。它是指在这个网络中1)所有节点的时钟漂移有上限;2)网络传输时间有上限;3)所有节点的计算速度有一致。这就意味着各个节点是可预测的。然而,现实中是不存在这样的网络的,此模型一般用于理论研究中。
- 异步网络:它和同步网络模型相反,1)节点的时钟漂移无上限;2)消息传输延迟无上限;3)节点的计算速度不可预料。这个就是现实中的网络类型了。每个节点状态都是不可预料的。
故障类型
以下给出分布式系统中比较常见故障的分类,这些故障在解决难度上从难到易:
- byzantine failures: 即拜占庭故障。它指一个节点不会按照程序逻辑执行,对它调用返回的结果是随机或者混乱错误的。要想解决这类问题,需要同步网络,且故障节点必须少于1/3,这个是最广泛最难处理的情况。
- crash-recovery failures: 相比较之前,此类故障增加了一个限制,即节点总是按照程序逻辑执行,返回的结果是正确的。但是返回时间是不保证的,可能由于网络故障,节点crash了或者网络延迟了。对于crash,还分为健忘或者非健忘的。所谓健忘就是crash恢复后没有完整的保持crash之前的状态信息,非健忘的指这个节点crash之前把完整的状态信息持久化的存储上,恢复后能够根据之前保留的值继续执行。
- omission failures: 在
crash-recovery failuers
的基础上,增加了crash必须是非健忘的这一个限制。 - crash-stop failures: 也称为
crash failure
或者fail-stop failures
,它在omission failures
的基础上增加了一旦故障发生后必须停止响应的要求。比如一个节点内部出现故障后立即停止接受和发送所有消息,并且这些故障不会自动恢复。
1 | 拜占庭将军问题: |
具体可以查看:https://zh.wikipedia.org/zh-cn/拜占庭将军问题
那这些问题,我们是不是都能够解决呢?由于这些问题具有包含涵盖关系,所以如果最难的拜占庭故障能够解决,当然后面的故障类型就能够迎刃而解。
1985年横空出世的FLP Impossibility
定理给出了答案,它指出在有限定条件的异步网络中,只要存在一个故障节点,任何一致性算法都无法保证正确结束。这些限定条件使得该理论的网络模型要比拜占庭故障中的模型要理想合严格很多。如果在这样理想的模型中,一致性问题都无法保证,那么在现实中更宽松的环境中当然更加不可能了。因此,一般我们只对异步且非拜占庭模型进行讨论。
在分布式系统中的故障是常态的,为了保证系统的稳定性和可用性,就要求系统必须具备fault tolerence
。为了获得这种特性,一般采用replicated state machines的方法来达到,实际系统中一般使用replicated log作为具体实现。而维护这些log文件的一致性就用到了一致性算法。而一个一致性算法应该具有以下特点:
- 它在所有非拜占庭条件下保证safety(不会返回不正确的结果),所谓非拜占庭条件是指网络延迟,分区以及数据包丢失,重复或者乱序
- 它需要保证系统中半数以上的节点完全可用的,包括它们内部之间以及和客户端之间的通信。另外,所有的节点都应该是故障停机的,且是非健忘的,后期恢复后,可以重新加入到集群中。
- 算法不依赖具体时间来维持一致性,它主要工作的网络模型为异步的。
- 通常情况下,一个命令能够在系统中大多数节点上以单个RPC完成。
这里提一下safety和liveness这两个特性:
- safety:安全性,它是指在分布式系统中一个变量一旦被决定为某个值比如A,那么就不会再有其他决定来更改这个值
- liveness:活性,它是指分布式系统中一个变量被决定为某个值的过程总是能够成功
它们是分布式系统算法中的两个死对头,就像之前的一致性和可用性一样,两者是对立的。而且FLP定理指出,在异步网络中是没有完全同时保证safety和liveness的一致性算法。因此,后面我们提到的一致性算法,实现时往往放松了liveness的要求。这些算法可能会进入无限循环,但概率非常非常低。
扩展阅读:
- 分布式系统一致性的发展历史(二):http://danielw.cn/history-of-distributed-system-2
- Distributed Systems, Failures, and Consensus:https://www.cs.duke.edu/courses/fall07/cps212/consensus.pdf
- Consensus维基百科:https://en.wikipedia.org/wiki/Consensus_(computer_science)
- FLP Impossibility:http://danielw.cn/FLP-proof
Paxos
首先,这里定义三种角色:
- proposers:负责提出建议值
- acceptors:决定是否接受给定的建议值
- learners:不参与提议和决策过程但需要知道最终结果
最简单的方式就是一个proposer发送一个候选值到一个acceptor,而该acceptor会选择它接受到的第一个候选值。但是,一旦这个acceptor出现故障,那么后续的处理就不可能了。
既然一个acceptor不行的话,那我用多个acceptor吧。一个proposer将发送一个候选值发送给这些acceptor,如果被半数以上acceptor收到的话,就将其选为最终结果。当然,这个前提是一个acceptor必须接受其收到的第一个候选值。那如果有多个候选值同时被多个proposer发送,这种情况下就没有办法给出最终结果。因为此时每个候选值得acceptor数可能不过半。
现在,我们改变一下策略,允许一个acceptor可以接收多个候选值。这里我们给每个候选值赋予一个独一无二的编号,这样每个候选值就由编号和具体值组成。
扩展阅读:
- Paxos算法维基百科:https://en.wikipedia.org/wiki/Paxos_(computer_science)
- Paxos Made Simple:http://research.microsoft.com/en-us/um/people/lamport/pubs/paxos-simple.pdf
- Paxos通俗讲解:
Raft
扩展阅读:
- Raft作者博士论文:https://ramcloud.stanford.edu/~ongaro/thesis.pdf
- Raft在线演示:http://thesecretlivesofdata.com/raft/
其它
- ZAB:Zookeeper Atomic Broadcast,是Zookeeper中实现的一致性算法
- ViewStamp:可能是最早实现的一致性算法
延伸阅读
- 《NoSQL distilled: A Brief Guide to the Emerging World of Polyglot Persistence》:https://www.amazon.com/NoSQL-Distilled-Emerging-Polyglot-Persistence/dp/0321826620
- 《Seven Databases in Seven Weeks: A Guide to Modern Databases and the NoSQL Movement》:https://www.amazon.com/Seven-Databases-Weeks-Modern-Movement/dp/193435691
- 《Sams teach yourself SQL in 10 minutes》:https://www.amazon.com/SQL-Minutes-Sams-Teach-Yourself/dp/0672336073
- 《Distributed Systems: Principles and Paradigms》:https://www.amazon.com/Distributed-Systems-Principles-Paradigms-2nd/dp/0132392275
- 《Database System Concepts》:https://www.amazon.com/Database-System-Concepts-Abraham-Silberschatz/dp/0073523321
- 《Hadoop: The Definitive Guide》:https://www.amazon.com/Hadoop-Definitive-Guide-Tom-White/dp/1491901632
- 《The Google File System》:http://research.google.com/archive/gfs-sosp2003.pdf
- 《MapReduce: Simplified Data Processing on Large Clusters》:http://research.google.com/archive/mapreduce-osdi04.pdf(http://research.google.com/archive/mapreduce-osdi04.pdf)
- 《BigTable: A Distributed Storage System for Structured Data》:http://research.google.com/archive/bigtable-osdi06.pdf(http://research.google.com/archive/bigtable-osdi06.pdf)
- 《The Chubby lock service for loosely-coupled ditributed systems》:http://research.google.com/archive/chubby-osdi06.pdf(http://research.google.com/archive/chubby-osdi06.pdf)
- 《Finding a Needle in Haystack: Facebook’s Photo Storage》:https://research.facebook.com/publications/finding-a-needle-in-haystack-facebook-s-photo-storage/
- 《Windows Azure Storage: a highly avaliable cloud storage service with strong consistency》:https://azure.microsoft.com/zh-cn/blog/sosp-paper-windows-azure-storage-a-highly-available-cloud-storage-service-with-strong-consistency/
- 《GraphLab: A New Framework for Parallel Machine Learning》:http://www.select.cs.cmu.edu/publications/paperdir/fuai2010-low-gonzalez-kyrola-bickson-guestrin-hellerstein.pdf
- 《Resilient Distriubted Datasets: A Fault-Tolerent Abstraction for In-memory Cluster Computing》:http://www-bcf.usc.edu/~minlanyu/teach/csci599-fall12/papers/nsdi_spark.pdf
- 《Scaling Distributed Machine Learning with the Parameter Server》:https://www.cs.cmu.edu/~muli/file/parameter_server_osdi14.pdf
- 《Dremel: Interative Analysis of Web-Scale Datasets》:https://research.google.com/pubs/archive/36632.pdf
- 《Pregel: a system for large-scale graph processing》:https://www.cs.cmu.edu/~pavlo/courses/fall2013/static/papers/p135-malewicz.pdf
- 《Spanner: Google’s Globally-Distributed Database》:http://research.google.com/archive/spanner-osdi2012.pdf
- 《Dynamo: Amazon’s Highly Available Key-Value Store》:http://s3.amazonaws.com/AllThingsDistributed/sosp/amazon-dynamo-sosp2007.pdf
- 《S4: Distributed Stream Computing Platform》:http://cs.brown.edu/~debrabant/cis570-website/papers/s4.pdf
- 《Storm @Twitter》:http://cs.brown.edu/courses/csci2270/archives/2015/papers/ss-storm.pdf
- 更多请参考: