Chinaunix首页 | 论坛 | 博客
  • 博客访问: 1120207
  • 博文数量: 185
  • 博客积分: 495
  • 博客等级: 下士
  • 技术积分: 1418
  • 用 户 组: 普通用户
  • 注册时间: 2012-09-02 15:12
个人简介

治肾虚不含糖,专注内核性能优化二十年。 https://github.com/KnightKu

文章分类

全部博文(185)

文章存档

2019年(1)

2018年(12)

2017年(5)

2016年(23)

2015年(1)

2014年(22)

2013年(82)

2012年(39)

分类: LINUX

2016-10-10 11:14:59

      转载地址:

NAND闪存的写入(P/E循环)次数有限,SLC的量级是1万-10万次,而MLC普遍只有3000-5000次,TLC则更少,因此围绕SSD可靠性的争议和研究就没停止过,随便搜索SSD的资料见的最多的就是讨论SSD可靠性(reliability)的文章。
       当然,也有一种说法称即便只有3000次写入寿命,60GB SSD的写入数据寿命也有3000*60GB=180TB,120GB也有360TB,其他更高容量的SSD写入量就更大了,日常使用中谁有这么多的写入 操作,操作系统大都是读取操作而已,因此SSD寿命问题不足为虑。
       这种解释有其合理性,但是了解过SSD实际写入操作之后就应该明白写入数据寿命的计算方式是基于一种理想状态——需要写入多少数据就实际写入多少数据,但是SSD中这两个数据并不是相等的。

       还是看前面的例子(),1234.txt从4B大小增加到8B大小名义上只多了4B的写入量,这是本机写入的数据量,HDD上直接覆写就可以了,但是SSD的写入是这样的:重新写入8B数据、清空block时把这8B数据又、写入了一次,实际写入量是16B,期间有两次写入、一次读取以及一次擦除操作。
       在SSD写入过程中,SSD实际需要写入的数据量跟本机写入的数据量是不一致的,说得专业一点就是SSD写入过程中数据被无谓增加了的,这就是SSD的写 入放大(Write Amplification)问题,二者存在一个比值叫做写入放大率(Write Amplification Factor,简称WAF)
       WAF=SSD实际写入的数据量/本机写入的数据
       WA=1的情况就是上面计算SSD写入寿命的理想状态,但是现实跟理想是有差距的,而且上面的例子将page和block都简化了,只是有助于理解SSD 的写入特性,如果以实际的4KB page、256KB block(64个page)来算,并且其中63个page已经写入了数据,真正的写入放大是这样的:
       如下图所示,当前block有63个page写入了数据,还留下4KB空间,此时如果写入4KB数据,理论上正好填满整个block,但是SSD不能直接 覆盖写入数据,其他63个page的数据必须先复制到内存中,然后将整个blokc清空,要写入的这个4KB数据会在内存中与前面的63个page中的数 据混合到的一起,然后再重新写入到一个block中。
  1.png
Wiki上有关写入放大的解释

       在这个过程中,本机写入的数据是4KB,但是SSD实际写入的则是256KB,是前者的64倍,WAF写入放大率就是64,这还是一个的情况,如果SSD是内部多颗die组建了RAID 0模式,那么实际擦除和写入的数据就不再以block为单位,而是以band为单位进行擦除和写入,假如是20颗die,那么要擦除和写入的数据量也会是原来的20倍,写入放大会更严重。
       写入放大不仅无谓地提高了NAND的 写入次数,还会影响性能,因为另外的63个page还多出了一次读取数据的过程,SSD的IOPS通常都是数千到数万级的,我们以1000来算,即便只是 复制了252KB的数据,写数据的同时读取速度也会有252MB/s,这个多余(但对SSD来说是必须的)的过程消耗了大量带宽,SSD的性能自然会下 降。

       降低写入放大率可以延长SSD的使用寿命,提升产品,因此减少写入放大是提高SSD可靠性的必要工作。至于如何降低WAF就要靠厂商的主控、OP空间、TRIM、GC等技术的处理能力了。

 

阅读(2512) | 评论(0) | 转发(0) |
0

上一篇:SSD 之 Trim

下一篇:SSD 之 ECC校验

给主人留下些什么吧!~~