(本文是淘宝网的技术写的,保存研究了)。
Ceph是加州大学Santa Cruz分校的Sage
Weil(DreamHost的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自2007年毕业之后,Sage开始全职投入到Ceph开
发之中,使其能适用于生产环境。Ceph的主要目标是设计成基于POSIX的没有单点故障的分布式文件系统,使数据能容错和无缝的复制。2010年3
月,Linus Torvalds将Ceph client合并到内 核2.6.34中。
Ceph中有很多在分布式系统领域非常新颖的技术点,对解决分布式文件系统中一些常见的问题的研究非常有指导意义。所以值得研究。
RADOS简介
1 RADOS概述
RADOS (Reliable, Autonomic Distributed Object Store)
是Ceph的核心之一,作为Ceph分布式文件系统的一个子项目,特别为Ceph的需求设计,能够在动态变化和异质结构的存储设备机群之上提供一种稳定、
可扩展、高性能的单一逻辑对象(Object)存储接口和能够实现节点的自适应和自管理的存储系统。事实上,RADOS也可以单独作为一种分布式数据存储
系统,给适合相应需求的分布式文件系统提供数据存储服务。
2 RADOS架构简介
RADOS系统主要由两个部分组成(如图1所示):
1.由数目可变的大规模OSDs(Object Storage Devices)组成的机群,负责存储所有的Objects数据;
2.由少量Monitors组成的强耦合、小规模机群,负责管理Cluster Map,其中Cluster Map是整个RADOS系统的关键数据结构,管理机群中的所有成员、关系、属性等信息以及数据的分发。
图1 RADOS系统架构图示
对于RADOS系统,节点组织管理和数据分发策略均有内部的Monitors全权负责,所以,从Clients角度设计相对比较简单,它给应用提供的仅为简单的存储接口。
3 RADOS详细介绍
3.1 扩展机群
1
.Cluster Map
存储机群的管理,唯一的途径是Cluster Map通过对Monitor Cluster操作完成。Cluster
Map是整个RADOS系统的核心数据结构,其中指定了机群中的OSDs信息和所有数据的分布情况。所有涉及到RADOS系统的Storage节点和
Clients都有最新epoch的Cluster Map副本。因为Cluster
Map的特殊性,Client向上提供了非常简单的接口实现将整个存储机群抽象为单一的逻辑对象存储结构。
Cluster Map的更新由OSD的状态变化或者其他事件造成数据层的变化驱动,每一次Cluster Map更新都需要将map
epoch增加,map epoch使Cluster Map在所有节点上的副本都保持同步,同时,map epoch可以使一些过期的Cluster
Map能够通过通信对等节点及时更新。
在大规模的分布式系统中,OSDs的failures/recoveries是常见的,所以,Cluster
Map的更新就比较频繁,如果将整个Cluster Map进行分发或广播显然会造成资源的浪费,RADOS采用分发incremental
map的策略避免资源浪费,其中incremental map仅包含了两个连续epoch之间Cluster Map的增量信息。
2
.Data Placement
数据迁移:当有新的储存设备加入时,机群上的数据会随机的选出一部分迁移到新的设备上,维持现有存储结构的平衡。
数据分发:通过两个阶段的计算得到合适的Object的存储位置。如图2所示。
图2 数据分发图示
1.Object到PG的映射。PG (Placement
Group)是Objects的逻辑集合。相同PG里的Object会被系统分发到相同的OSDs集合中。由Object的名称通过Hash算法得到的结
果结合其他一些修正参数可以得到Object所对应的PG。
2.RADOS系统根据根据Cluster
Map将PGs分配到相应的OSDs。这组OSDs正是PG中的Objects数据的存储位置。RADOS采用CRUSH算法实现了一种稳定、伪随机的
hash算法。CRUSH实现了平衡的和与容量相关的数据分配策略。CRUSH得到的一组OSDs还不是最终的数据存储目标,需要经过初步的
filter,因为对于大规模的分布式机群,宕机等原因使得部分节点可能失效,filter就是为过滤这些节点,如果过滤后存储目标不能满足使用则阻塞当
前操作。
3
.Device State
Cluster Map中关于Device State的描述见下表所示。
表1 Device State描述
|
— |
in |
out |
— |
— |
assigned PGs |
not assigned PGs |
up |
online & reachable |
active |
online & idle |
down |
unreachable |
unreachable & not remapped |
failed |
4
.Map propagate
Cluster Map在OSD之间的更新是通过一种抢占式的方法进行。Cluster Map
epoch的差异只有在两个通信实体之间有意义,两个通信实体在进行信息交换之前都需要交换epoch,保证Cluster
Map的同步。这一属性使得Cluster Map在通信实体内部之间的更新分担了全局的Cluster Map分发压力。
每一个OSD都会缓存最近Cluster Map和到当前时刻的所有incremental
map信息,OSD的所有message都会嵌入incremental map,同时侦听与其通信的peer的Cluster Map
epoch。当从peer收到的message中发现其epoch是过期的,OSD share相对peer来说的incremental
map,使通信的peers都保持同步;同样的,当从peer收到message中发现本地epoch过期,从其嵌入到message中的
incremental map中分析得到相对本地的incremental map然后更新,保持同步。
不是同一个通信对等方的两个OSD之间的epoch差异,不影响同步。
3.2 智能存储
1
.
Replication
RADOS实现了三种不同的Replication方案,见下图3示:
图3 RADOS实现的三种replication方案
Primary-copy:读写操作均在primary OSD上进行,并行更新replicas;
Chain:链式读写,读写分离;
Spaly:Primary-copy和Chain的折中方案:并行更新replicas和读写分离。
2
.
Consistency
一致性问题主要有两个方面,分别是Update和Read:
- Update:在RADOS系统中所有Message都嵌入了发送端的map epoch协调机群的一致性。
- Read:为避免部分OSD失效导致数据不能从该OSD读需要转向新的OSD,但是read operation的发起方还没有该OSD的失效信息的问题,同一个PG所在的OSDs需要实时交换Heartbeat。
3
.
Failure Detection
错误检测:RADOS采取异步、有序的点对点Heartbeat。(此处的错误检测是OSDs自身检测)
4
.
Data Migration & Failure Recovery
由于设备失效、机群扩展、错误恢复造成的Cluster Map更新使得PG到OSDs的对应关系发生了变化,一旦Cluster Map发生变化,相应的OSDs上的数据也需要做相应的调整。
数据的移植和数据恢复都是由Primary OSD负责统一完成。
(Data Migration & Failure Recovery具体方法待续)
3.3 Monitors
Monitors是Cluster Map主备份存储目标,所有其他位置上的Cluster Map最初都是从Monitors请求得到。Monitors通过对Cluster Map的周期更新升级实现存储机群的管理。
Monitor的工作分两个阶段:
1.首先在多个Monitors中选举Leader,之后Leader向所有Monitors请求Map
Epoch,Monitors周期性向Leader汇报结果并告知其活跃(Active
Monitor),Leader统计Quorum。这阶段的意义是保证所有的Monitors的Map
Epoch都是最新的,通过Incremental updates对已失效的Cluster Map进行更新。
2.Leader周期向每一个Active Monitor授权许可提供分发Cluster
Map副本给OSDs和Clients的服务。当授权失效但Leader仍没有重新分发认为Leader
died,此时重回第一阶段进行Leader重选;当Active Monitor没有周期向Leader反馈ACK则认为有Monitor
died,重回第一阶段进行Leader选举并更新Quorum。Leader周期分发Lease和Active
Monitor周期反馈ACK的另外一个作用是同步Monitors的Cluster Map。Active
Monitor收到Update请求时,首先验证当前的Epoch是否为最新,如果不是,更新后向上汇报到Leader,Leader分发给所有的
Monitors,同时回收授权,重新开始新一轮的Leader选举到Cluster Map服务。
通常Monitor的负载比较小:OSDs上的Cluster
Map更新通过OSDs之间的机制实现;OSDs的状态变化比较罕见不会对Monitors的负载造成影响。但是一些特殊情况可能会对Monitors负
载带来影响,比如:同时有n OSDs failed,每一个OSD store m个PGs,此时会形成m×n个failure
report到达Monitors,对于规模较大的机群这样的数据量比较大。为避免这种情况给Monitor带来的负载压力,OSDs采用伪随机的时间间
隔交错安排failure检测(此处是从OSDs到Monitor的检测)向上汇报,另外根据Monitors的并行化和负载均衡分配的特点,扩展
Monitors是解决Monitors的负载压力的另一措施。
4 总结
与传统的分布式数据存储不同,RADOS最大的特点是:
1.将文件映射到Objects后利用Cluster Map通过CRUSH计算而不是查找表方式定位文件数据在存储设备中的位置。省去了传统的File到Block的映射和BlockMap管理。
2.RADOS充分利用了OSDs的智能特点,将部分任务授权给OSDs,最大程度的实现可扩展。
5 参考文献
[1] RADOS: A Scalable, Reliable Storage Service for Petabyte-scale Storage Clusters.
[2] Ceph: A Scalable, High-Performance Distributed File System.
相关推荐
IBM 分布式文件系统 CEPH 详细介绍
分布式文件系统CEPH的CRUSH算法原理。从国外的网站下载的,这恐怕是唯一能够找到的算法资料了。
Sage Weil 读博士的时候开发了这套牛逼的分布式存储系统,最初是奔着高性能分布式文件系统去的,结果云计算风口一来,Ceph 重心转向了分布式块存储(Block Storage)和分布式对象存储(Object Storage),现在分布式...
ceph-ansible:Ansible手册,用于部署分布式文件系统Ceph
Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统,根据文档可以部署一个可横向无限扩展的cehp存储
摘要分布式文件系统作为分布式系统的存储子系统,能够有效的解决海量数据存储的 I/O 瓶颈问题,成为了目前业界研究的热点。Ceph 分布式文件系统的第一个版本于
开源的分布式存储系统手动部署及使用
分布式存储-ceph原理说明,及io操作演示
摘要近年来,随着遥感技术以及信息技术的快速发展,遥感影像已经成为科学研究、行业应用以及互联网企业最重要的地理数据之一。此外,为了有效提高遥感影像数据的快速共享、
分布式文件系统介绍,包含分布式文件发展历史,设计原理,流行分布式文件系统介绍,如:HDFS TFS FASTDFS CEPH LUSTRE GOOGLEFS MOOSEFS MOGILEFS
为您提供Ceph分布式文件系统下载,Ceph是加州大学Santa Cruz分校的Sage Weil(DreamHost的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自2007年毕业之后,Sage开始全职投入到Ceph开发之中,使其能...
分布式存储基础、Ceph、cinder及华为软件定义的存储方案.pdf分布式存储基础、Ceph、cinder及华为软件定义的存储方案.pdf分布式存储基础、Ceph、cinder及华为软件定义的存储方案.pdf分布式存储基础、Ceph、cinder及...
整理了当前最主流的7种分布式文件系统(FastDFS MogileFS HDFS`TFS MooseFS KFS Ceph)的概要介绍,可以使你快速了解当前分布式文件系统的特性、各自文件系统实现目标及应用场景,了解这些分布式文件系统的架构特点...
ceph分布式存储的入门级,安装、部署,并通过和gluster文件存储对比,体现ceph存储的高效解决方案。
Ceph分布式文件系统 v17.2.6.zip
Ceph分布式文件系统 v19.0.0.zip
Ceph分布式文件系统 v18.2.1.zip
Ceph开源分布式存储运维指南.docx
Ceph分布式文件系统集群搭建实验报告完整版,具有详细的简介、步骤、截图,以及结果分析和错误分析哦哦哦!!!!!!!
为您提供Ceph分布式文件系统下载,Ceph是加州大学Santa Cruz分校的Sage Weil(DreamHost的联合创始人)专为博士论文设计的新一代自由软件分布式文件系统。自2007年毕业之后,Sage开始全职投入到Ceph开发之中,使其能...