Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1743813
  • 博文数量: 107
  • 博客积分: 1715
  • 博客等级: 上尉
  • 技术积分: 3168
  • 用 户 组: 普通用户
  • 注册时间: 2012-04-18 18:42
个人简介

阿里巴巴DBA,原去哪儿网DBA。专注于MySQL源码研究、DBA运维、CGroup虚拟化及Linux Kernel源码研究等。 github:https://github.com/HengWang/ Email:king_wangheng@163.com 微博 :@王恒-Henry QQ :506437736

文章分类

全部博文(107)

文章存档

2014年(2)

2013年(38)

2012年(67)

分类: Mysql/postgreSQL

2013-08-01 20:37:25

原文地址:数据快速迁移(1) 作者:佩恩_六道

对于数据迁移需求,如果在备份中心有备份集,直接从备份恢复过去是一种比较常规的方式,一般都会有脚本或系统来支持,从速度上说中规中矩,备份文件都是压缩过(pigz、pbzip2、gzip),不过发现解压过程始终无法耗尽恢复机器IO,怀疑解压使用单线程(这块尚未证实),如果没有备份集,需要恢复且时间上不宽裕,采用老路子就不行了,只好直接拷贝了,说来这种直接拷贝在日常生活中遇到问题的第一反应,但在工作上往往用不上,久而久之就遗忘了

对于需要迁移的数据一般是数据库数据文件,数据迁移从源机器上读取,[压缩] 网络传输 [解压],写到目标机器,速度优化提升目标就是在将目标机器IO压满,根据是否可以将网卡跑满来决定是否启用压缩,这就需要各方面的数据支持(这块目前欠缺),最近经常使用nc+qpress,速度不错

【1】文件迁移
目标机器:nohup nc -d -k -l 50863 | nohup /home/mysql/qpress -T32dif /data/ &
源机器:nohup /home/mysql/qpress -T32K20480orf /data |nohup  nc IP 50863 &

【2】数据库迁移
目标机器:nohup nc -d -k -l 50863 | nohup /home/mysql/qpress -T32diof |nohup  tar  -ixf - -C /bak/backup_20130726 &
源机器:nohup innobackupex  --user=root --defaults-file=/data/my.cnf   --slave-info --stream=tar --tmpdir=/data /data 2>/home/mysql/back.lo
g |nohup /home/mysql/qpress -T32K20480iof - |nohup  nc IP 50863 &

nc+qpress+tar+innobackupex ,这4个工具都比较容易上手,但合起来使用还是需要多调试下,上面迁移方式在某种场景上需要调整下管道流的输入数据才能正常使用(这块暂时没有深入研究),还无法做成比较通用的工具
阅读(4300) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~