查看原文
其他

Optimus PB级数据迁移系统

2017-09-26 张冬卯 云技术实践



PB级对象存储数据迁移平台


1

 Optimus需求分析


Optimus是PB级对象存储数据迁移平台,其脱胎于市场上常见的数据迁移场景和典型的客户需求,形成一套基于全网络、存储平台无关的全自研数据迁移平台。它与传统的迁移系统有所不同,无需客户端安装和辅助性的外置设备,全部基于网络实现自动化数据迁移。


1.1. 原始需求


Ø 用户购买了商用对象存储或者自己搭建了对象存储系统后(基于开源如:ceph、 minio、 openstack swift实现),要将原存储平台数据快速稳定的迁移到新的分布式存储平台,数据规模往往是几百TB以上


Ø 用户原有对象存储平台性能有限,限定了访问连接数,需要一个新的平台作为外部访问源供其他平台调用或CDN回源使用,同时需要保证最新产生的文件可被访问到


Ø 用户原有对象存储平台带宽有限,内容生产平台在生产内容期间以及在内容访问量较大的忙时需要满足业务的正常访问,闲时才可进行数据迁移的拉取和迁移


1.2. 传统方案


在实践中,常常用单机的数据管理工具(如:s3cmd, cyberduck等)实现迁移,遇到的最大问题就是单机的带宽瓶颈,尤其在一边下载和一边上传的情况下,需要的带宽更多。



除了带宽的问题外,在单机迁移大量数据,还存在如下问题:


Ø 无法做到高可用,文件上传不能自动重试


Ø 不能保证数据完整性


Ø 如果老的存储平台数据持续增加,不能做到增量迁移,还需要人工干预


1.3. 需求分析及业务流程


1.3.1. 需求分析


根据上述分析可知,一个分布式的、可以弹性收缩的、高可用的数据迁移平台才能够应对大规模数据存储迁移需求。


Ø 分布式

提供多服务器,可大大提高数据迁移带宽


Ø 弹性收缩

在实践中,我们发现数据迁移服务在平时绝大部分时间没有访问,但是一旦有了大型任务,就变成 IO较重(上传和下载)和CPU较重(计算MD5校验数据完整性)。


Ø 高可用

为了数据迁移的完整性,除了需要验证单个文件的完整性之外,还需要验证全部文件是否都成功迁移,没有有遗漏,需要在系统层面提供重试机制。


除此之外,还需要平台具有:


Ø 权限认证:鉴权用户,合法访问


Ø 开放的Restful接口:提供开放接口便于用户集成做二次开发


Ø 目录结构一致性保障:保证迁移前后文件的目录结构不变,不影响迁移后的正常访问


1.3.2. 业务流程


简化的迁移流程如图所示:



1) 用户通过鉴权模块进行数据迁移平台权限认证(通过AK/SK或用户名/密码、以及和存储空间的key进行验证)


2) 验证通过,用户可使用控制台或指定API将迁移内容路径推送到迁移分发模块(可批量推送地址)


3) 迁移分发模块按照路径拉取源文件


4) 将拉取文件存储到目的存储平台(需按照源存储目录结构存放内容)


5) 数据迁移平台返回用户迁移结果


2

Optimus主动迁移系统

2.1. 功能介绍


这部分内容非常好理解,假设迁移场景如下:


把网站http://domain.com下面三个文件,分别是 abc.txt、def.jpg、bad.mp4 迁移到一个 S3的service上面, 对应的 bucket名字是bucketone。


因此,一个注册用户在auth成功的情况下,可以向服务发起一个PUT请求,

请求体如下:


{

"origin-files":[

"http://domain.com/abc.txt",

"http://domain.com/def.jpg",

"http://domain.com/bad.mp4",

],

"target-type":"s3",

"target-bucket":"bucketone",

"target-acl":"public-read",


如果服务器返回200,说明迁移平台已经接受任务,会根据资源情况或指定的时间开始执行迁移任务。


用户可以通过callback URL或者status的API查看任务进度,或者从如下可视化的控制台查看进展



展开图中JobID,就可以查看具体迁移的文件以及文件迁移的进度和状态



2.2. 实现方案


这部分功能从直觉上看非常简单,不就是把迁移任务分配到若干台服务器上吗?只要有一个master的服务器接受任务,切分任务,再把任务分配到某个agent服务器上就可以了。


但这其中还是有一些难点:


1. 如何收集agent上的数据,检查是否还有资源运行迁移任务

2. 隔离迁移任务,不要互相影响


仔细一想,这不就是典型的资源调度问题吗?没有必要重新造轮子,可选的框架很多


Ø kubernetes


Ø Mesos


Ø Google Borg


都可以管理这些资源,为了快速开发,我们选用了最好上手的Mesos。


Mesos原理和架构:



1.Mesos Agent1,实际上就是具体的worker上报给Mesos master自己有多少资源,这里报告有4CPU和4GB内存


2. Mesos master轮询每个Framework,并告知有4CPU和4GB内存的资源


3. Framework1被Mesos master问到,现在集群有4CPU和4GB内存,你有没有任务需要用这些资源。所谓的Framework其实就是一个注册到Mesos master的一个daemon, 它最重要的工作就是实现一个resourceOffer的函数:


ResourceOffers(driver sched.SchedulerDriver, offers []*Mesos.Offer) 


里面Mesos.Offer包含了“我有4CPU和4GB”的信息,这时候Framework1的 ResourceOffer检查自己要跑的job,看有没有可以在资源4CPU和4GB的情况下跑的任务,这时Framework1根据自己Task,生成了2个Task,如Task1, 主要信息包括:


Ø 占用2CPU和1GB内存


Ø taskID号


Ø 运行任务的程序的http下载地址


4. Mesos master从Framework1得到Task信息,在Mesos Agent1上面分配资源,并且下载可执行代码,运行Task


2.3. 迁移系统架构


Optimus是一个Mesos Framework的实现,它与marathon、aurora这些著名的Framework一样都是一个Mesos scheduler,工作在Mesos平台之上。



根据上面的Mesos原理,很容易构造一个任务平台,流程如下:


1.Mesos master对Optimus Framework做resource offer的请求, 查询是否有任务要分配


2. Optimus Framework接到offer请求后,查询数据库,匹配迁移Job和 Mesos提供的资源,如果有合适的资源,就把一个Job(比如这个Job可能很大,比如要迁移1W个文件),拆分成若干小的Task,返回Mesos master


3. Optimus Framework返回切分好的Task


4. Mesos master按照自身逻辑,分配Task到agent


5. agent上运行任务,并把迁移结果和中间状态记录在数据库,方便查询


2.4. Optimus是否达到预期效果


Ø 分布式

这个取决于Mesos可以接入多少agent,从已经公开的论文上看,Mesos在生产环境上接入了上千个node,可以很容易的线性扩展。 虽然 Optimus Framework是一个单点,所有的计算都集中在一台服务器,但是考虑到拆分任务的CPU压力很小,可以忽略。


Ø 弹性收缩

如果发现Mesos集群的资源不足,给Mesos集群加一台服务器非常简单,只要部署上Mesos agent就行,它的所有程序都跑sandbox下,运行完成后会自动清理。在没有 Optimus Framework的情况下或者没有迁移任务的情况下,Mesos集群完全可以连接其他Framework做计算,比如 marathon等。这样这个迁移平台完全是可以弹性伸缩的。


Ø 高可用

这个问题分2部分看:


1) Mesos平台的高可用


其中最重要的就是Mesos master的高可用,可以参考此文Mesos High Availability (http://mesos.apache.org/documentation/latest/high-availability)


2) Optimus平台本身的高可用


这里的MySQL使用了主备的架构,保证数据完整性。Optimus Framework的确是单机的。但是它完全是一个无状态的程序,因为注册的状态存储在Mesos里面,Job的状态存储在数据库中。可以很容易的把Optimus Framework放到marathon或者kubernetes 或者更加传统的 pacemaker。


2.5. Optimus在实践中的经验


2.5.1. 不是所有的Mesos消息都是可靠的


参考Mesos Guide Book (http://mesos.apache.org/documentation/latest/high-availability-framework-guide/)


Mesos provides unreliable messaging between components by default 


其中除了status update 消息,Mesos系统会帮助你重发外,所有其他消息都不是可靠的。这就需要Framework的开发者自己存储Task的状态,比如我们就将数据存储在MySQL中,自己做timeout,判断是否需要重新调度任务。


此外在Guide book也提到了可以采用选举方式让Framework本身变得高可用,但这样编码会复杂很多(因为要同步内存数据和检查leader是否真的死机),我们采取了最简单的方式:把核心数据全部存储在MySQL,然后把 Optimus Framework放marathon


2.5.2. 为什么使用Golang开发Optimus Framework 和 Mesos Executor


首先是介绍一下Mesos Executor,Executor是Mesos agent在sandbox里面运行的程序,比如在Optimus里面这个Executor的执行逻辑就是


url = GetUrl( )

temp_file = http.get(url)

s3.upload(temp_file); 


就这么简单。C++、Java、Python、Golang、Scala这些语言都支持。采用Golang 除了编码简单外,还有非常大的好处,就是特别容易部署和升级,所有的依赖都是静态编译,只要编译出了一个binary,就可以运行。不像之前用Python写的 executor,不仅依赖bot,还需要先执行一个preinstall.sh的脚本下载依赖。


非常麻烦!!!


此外在线上的agent有CentOS6 和 CentOS7,甚至还有一台Ubuntu,静态编译的 Golang binary都稳定的运行在上面。


当然,也可能会有人问Mesos也支持container, 为什么不用Docker呢?


答: 毕竟编译Golang binary还是比Docker镜像小太多的


所以既然Executor已经用Golang写了,为了项目的一致性,Optimus Framework也是用Golang实现的,之前我们还有些疑问,毕竟大部分的Mesos 官方例子都是 Java和Python,运行Golang的库是否稳定,结果证明虽然当时 Mesos社区还把Golang版本作为实验版本,但是我们线上跑的结果显示非常稳定。


2.6. Optimus在实践中的典型应用


Ø 全量异地备份

用户提交全量数据的URL列表到Optimus集群,每个Job完成后会自动提示Job完 成,如果Job中有失败的情况,会自动重试。


Ø 增量异地备份

我们也遇到过这样的情况,美国用户把Amazon S3当作一个存储片源的服务,如果有新的影片,需要异步备份到别处。针对该需求采用了这样的架构



Amazon S3存储数据,一旦有新的文件加入,会在Amazon sqs中出现一条新的消息,把这个消息用http的形式发到Optimus,就会只迁移这条增量视频


3

Optimus自动回源系统

3.1. 功能介绍


在上面的系统里面,仍然需要整理URL列表和写程序提交URL。有些用户觉得很麻烦,探索有没有lazy的方式,在S3的存储miss的情况下,访问源站拉数据,并返回给用户。


这个功能如图示,橙色表示源站,同时有一个中间层,检查http code时返回值,如果是404,这个中间层需做2件事情:


1. 从配置好的源站拉取数据并且返回给用户,保证这次请求顺利完成


2. 拉下的临时文件再重新上传回存储,自动做镜像,保证以后请求相同文件都不会回源站



这个系统的优势非常明显:


1. OnDemand的下载请求,大大减少了一次大规模迁移的压力


2. 源站只要配置bucket对应的回源地址就行,不需要任何写代码


3. 一旦配置完成,新存储可以自动无缝的镜像源站内容


3.2. 实现方案


3.2.1. 方案一


1.为了保证S3 API的完整性,不需要修改S3标准API,只需要在proxy这层做。这里的7层proxy选择Openresty。Openresty可以方便的使用Lua调用 Nginx的模块。


2. 在Openresty层,用Lua代码检查返回值,如果是404,则查询数据库用户请求的文件 Movie/a.mp4 是否配置了自动回源地址。通过查询数据库发现Movie这个bucket对应的回源地址是http://domain.com/movie。按照和用户约定好的规则重新rewrite URL,从http://s3.com/Moive/a.mp4变成http://www.domain.com/movie/a.mp4


3. Lua脚本启动一个新的coroutines, 发起http GET下载到临时地址,并且下载完成后,上传到S3存储中。另一方面,Openresty把正在下载的临时文件发给用户,这样对用户透明,用户并不需要在下载前知道S3存储中一定存在这个文件


4. 在实践中还有一个选择,如果下载的时候发现是404,可以给用户一个302, 让用户跳转回源站,然后Openresty再异步的下载源文件。但是这样做有一个缺点。如果用户的文件数量很大,或者多用户下载同一个文件,都跳转的话会给用户源站带来较大的短时压力,这样就失去了做云存储镜像的意义。所以选择还是把压力放到S3服务端,并且加入策略,用户可以对自己的源站配置最大下载带宽。

  


3.2.2. 方案二


在方案一中,有2个缺点需要克服:


Ø 这个系统还是有些重,需要增加一个数据库去存储bucket和源站的映射实在是太浪费了,可以预⻅这个数据表不会超过几千万行。


Ø 多用户同时下载同一个在存储中不存在的文件时, 我们希望这些请求都落在同一台Openresty上面。


所以,综上所属。我们需要的新功能分别是:


1. 一个足够轻量级的分布式KV数据库,复用已经有的Openresty服务器,存储bucket和源站地址之间的映射。


2. 一个router算法保证回源的请求都落在同一台Openresty上面,这里选择一个最简单的算法, 就是对URL做md5sum后取mod。


SelectedNode = md5sum("Movie/a.mp4") % cluster.length 


为了达到高可用,需要这个系统能自动检查Openresty节点是否可用,需要memberlist的管理。


根据以上的2点需求,做一个简单的选型, 我们在这里并没有选择知名的,又有些偏重的开源应用。而是选择了库文件,在上面做二次开发,达到系统最轻最小的目的


1.分布式kv: Raft , 知名的Etcd也是用的类似算法,我们使用boltdb作为底层存储


2. 主流的heartbeat算法就2种,一个是像master节点汇报的如hdfs,也有采 用gossip算法的,如cassandra。我们这里选择了一个开源gossip库 memberlist。非常类似于consul


选择开源库而不是开源应用,是因为我们希望build出非常轻量和便于运维部署的 binary, 而不是要给运维写出一大堆部署文档的应用。


架构图如下:


1.之前方案一中的MySQL已经被raft协议下工作的boltdb代替


2. Openresty之间再也不是松散的关系,他们可以依靠gossip协议维护 memberlist,这样不管Openresty的服务器宕机还是重新上线,都可以自动发现和自动去除



3.3. 自动回源在实践中的典型应用


1.全量异地备份


用户只要拿到自己需要备份的数据的URL list,对每个URL发起HEAD请求,注意不是GET请求,如果是GET请求就真的下载下来了。


2. 增量异地备份


自动回源系统相当于完全的源站的镜像,对用户完全透明,只要配置好bucket和源站的映射关系, 用户完全可以像用自己的源站(拥有全部数据)一样使用S3存储(自动同步需要的数据)


作者简介:

张冬卯 海航云易建科技云服务事业群基础架构中心经理,具有近10年Linux操作系统和分布式系统开发经验,主要研究领域:开源软件、分布式存储系统和数据库系统。2014年前专注于Linux操作系统开发,在LVM和Linux Cluster方面都有代码贡献。2014年开始参与Ceph社区,其领导的存储团队在Ceph社区贡献位于前列。


相关阅读:

高端私有云项目交流群,欢迎加入!

海航云对Ceph定制化之路

云管理平台实践指南

FTP文传协议已死?

Prometheus(普罗米修斯)用户档案:动态化特性加速weaveworks云原生程序的发展

附PDF下载:《迁移到原生云应用架构》第二部分

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存