@HUST张友东 work@taobao zyd_com@126.com
分类: LINUX
2009-12-13 23:05:58
关键字 |
详细说明 |
磁盘响应时间及优化 |
寻道(毫秒级)+旋转(毫秒级)+传输(微秒级) 提高磁盘性能的重点:在于减少寻道时间,所以RAID对随机读写的性能提高很小。 |
提高外存储系统性能 |
1, 从磁盘角度:减少寻道时间(提高移臂速度,减小盘片直径,多磁头),减少旋转时间(提高转速,多磁头),提高数据传输率(接口速率) 2, 优化调度算法(请求的合并,聚散IO) 3, Cache,prefetch 4, 存储设备的并行(RAID,分布式存储) |
RAID |
1, 三个出发点:性能,容量,可靠性 2, 软RAID, 硬RAID(是否占用主机资源, md模块, RAID卡) 3, RAID的读写,并发等由分条(各个磁盘上叫段)大小决定。 当段较小时(如RAID3),上层每次请求涉及到每个磁盘(或大部分磁盘),难以实现并发,当这样数据读写可以多个盘同时进行(通常主轴同步,节省的是传输时间),连续读写的时,节省寻道时间,能极大的提高性能,随机读写时,寻道时间得不到优化,单单节省数据传输时间对性能影响不大。 当段较大时(如RAID5),上次每次请求设计很少的磁盘,这样上层多个请求就能实现并发。 4,RAID5的RCW(重构写)与RMW(读改写),后者适合于小写 |
磁盘的三种状态 |
1, Active 13W+ (正在进行数据服务) 2, Idle 10W+ (空闲) 3, Standby 2W+ (休眠) |
系统节能原理及策略 |
1, 如果有充分的时间供休息,就去休息(如系统的休眠状态) 2, 如果有很多机会,但每次休息时间都很短,则充分利用短的时间干正事(提高performance/energy???)或调班以集中休息时间(省去switch时间) 策略: 1, 负载预测:在任务到来前,由standby—>active,节能且不影响系统服务,如基于历史信息的预测) 2, 降级:在不影响系统正常工作的情况下,把等待时间变成工作时间,如降低CPU频率,降低硬盘转速 3, 让更少的部件active去完成任务(将资源转移) A gear-shifting power-aware RAID |
Power-aware policy |
Power-aware caching, power-aware IO scheduling(给IO加上是否可以延时的属性,以延长休息时间) 将驱动器分组管理,分为active drivers, passive drivers |
冗余的数据+ 空闲的资源 |
纵向冗余:cache 横向冗余:RAID,分布式系统副本, 备份,快照,CDP Anything is a trade-off of time and space? |
RAID重建 |
写时系统掉电,磁盘损坏等会导致RAID中某个或多个磁盘的数据不可用。 RAID写的两种方式:RCW, RMW, 后者必须保证磁盘上原有的数据及校验数据是正确的,即必须进行初始化。 RAID初始化方法:全写0,并计算校验写入校验盘 |
重建优化策略 |
1, 基于热点的重建(PRO):热点数据优先重建,减少磁头移动时间,减少IO请求的延迟,加快重建速度 2, 基于日志的重建:初始化全部数据为0,存储空间的空闲达50%,用日志记录修改过的条带,重建的时候只重建修改过的部分 3, 基于IO负载重定向(workout):将所有的写和热点的读重定向到代理盘 |
NFS与CIFS共存 |
1, 添加windows上的NFS客户端软件 2, 在NFS上仿真CIFS服务器(如samba) |
FC |
物理层: 1,1-8Gb/s的传输速度 2,铜线,光纤都可做为其传输介质 链路层: 1, 字符编码及FC帧结构 2, 链路层流量控制(端到端,缓存到缓存) 3, MTU可到2112字节,而以太网MTU为1500字节 网络层: 1, 拓扑(Arbitral Loop,一个loop最多接128个节点),P2P ,Fabric(交换式) 2, 寻址:WWNN,WWPN, Fabric ID(Domain ID, Area ID, Port ID) 传输层: 1, 对上层的数据流进行segment,区分上层应用程序 2, 适配上层协议 七种端口类型: 1, N端口:FC终端设备(交换式)端口 2, F端口:FC交换机端口 3, L端口:仲裁环终端端口 4, NL端口:具有N和L端口的双重能力 5, Fl端口: 具有F和L端口的双重能力 6, E端口: 连接交换机与交换机间的端口(级联) 7, G端口:万能端口 |
Panasas |
减少RAID重建方法: 1, 减小校验组(额外空间开销与在线重建时间的折中) 2, 分散校验组元素放置 3, 并行重建 Panasas将长度为4的校验组分散到8个盘(每个校验组的数据不会重复出现在一个盘),以空间换时间,以提高整体的效率。 上层应用决定底层架构,参数,如分块大小(GFS为64M,Panasas为64K) Panasas特性: 1, 并行冗余OSD 2, Per-file RAID(根据文件大小及可靠性要求的不同采用不同的RAID方式) 3, 动态负载均衡(创建时条带化文件,主动的数据迁移) 4, 支持12000+ clients,100+ MDSs, 1000+ OSDs 5, Client-driven RAID 客户端计算校验数据,减小服务器负载 6, 多级元数据管理 块级:负责对象到物理块的映射 文件级:负责文件到对象的映射 系统级:数据方式管理
|