设计结构
- 3个存储节点做stripe形式的分布、1个client节点挂载
实验目标
实验环境配置
测试软件及方法
volume stripe
type cluster/stripe
option block-size *:1MB
subvolumes client1 client2 client3
end-volume
实验结果
3个Server节点unify结构I/O能力表现:(引用第一次试验时3节点raid0结构产生的结果)
写入性能测试:
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
读取性能测试:
3个Server节点stripe结构I/O能力表现:
写入性能测试:
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
读取性能测试:
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
- iostat输出:
-
- sar输出:
-
实验结果对比图
-
实验感想
- 在3个存储节点的情况下,写性能似乎差不多。从试验看client的网络io已经接近极限,而server还有富于,感觉问题在这。
- stripe比unify的读性能似乎好一些,更快。可能因为unify实际的读响应由一个节点完成,而stripe可以多个,有待验证
- 写操作执行后,从在3个节点上看生成的5个256MB的文件,好像并没有被切割,虽然大小有差异,但加起来几乎相当于3倍的源数据。这与我预想的平均分割不相符,有待验证
- Server3的执行速度最慢,io也最高,看来这个虚拟机不行,性能略低,但是不是由此造成的stripe整体慢还不得而知,有待验证,理论上分布式文件系统的应用场合应该正是这样的不均衡环境。
阅读(3076) | 评论(2) | 转发(0) |