认识LVM
LVM是逻辑盘卷管理(Logical Volume Manager)的简称,它是Linux环境下对磁盘分区进行管理的一种机制,它将多个物理分区汇聚为一个卷组(Volume Group),而且这些物理卷的大小可以不相同,甚至类型也可以不同(如SCSI、SATA磁盘)。组成的卷组就像一块大硬盘,然后再从中分割出一块一块的逻辑卷(Logical Volume),并进一步在逻辑卷组上创建文件系统。(如图1)
图1 LVM结构
LVM技术的方便之处在于可以动态的扩充一个逻辑卷的大小而不需要重新分区,而且这种扩充是不停机、跨磁盘进行的。
实现LVM
Linux中实现LVM的方法有两种: 一种是在安装Linux时利用Disk Druid程序在图形化界面下实现; 另一种是利用LVM命令在字符界面下实现,下面的过程是基于后一种方法实现的。
实现环境如下: 操作系统为Red Hat Enterprise Linux AS 4 ,默认安装的LVM管理工具包为LVM2 2.00.31 ,硬盘为36GB SCSI接口共计2块,其中sda存放系统文件及数据,sdb、sdc用于实现LVM。
1.准备物理分区(Physical Partions)
首先,我们需要选择用于 LVM 的物理存储器。这些通常是标准分区,但也可以是已创建的 Linux Software RAID 卷。这里我利用fdisk命令,将sdb、sdc两块磁盘分了两个区sdb1、sdc1,通过fdisk的t指令指定分区为8e类型(Linux LVM) 。如图2所示。
图2 准备物理分区的指令执行界面
2.创建物理卷PV(Physical Volumes)
物理卷(Physical Volumes)简称PV,是在磁盘的物理分区或与磁盘分区具有同样功能的设备(如RAID)上创建而来。它只是在物理分区中划出了一个特殊的区域,用于记载与LVM相关的管理参数。
创建物理卷的命令是 pvcreate :
[root@li2 ~]# pvcreate /dev/sdb1
Physical volume "/dev/sdb1" successfully created
[root@li2 ~]# pvcreate /dev/sdc1
Physical volume "/dev/sdc1" successfully created
以上命令分别将/dev/sdc1、/dev/sdd1初始化成物理卷,使用物理卷显示命令pvdisplay查看物理卷情况如下:
[root@li2 ~]# pvdisplay
--- NEW Physical volume ---
PV Name /dev/sdb1
VG Name
PV Size 36.00 GB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID QDmnUd-tuvH-U4Hn-n5Ry-zGRT-O1yK-67Dxbb
--- NEW Physical volume ---
PV Name /dev/sdc1
VG Name
PV Size 36.00 GB
Allocatable NO
PE Size (KByte) 0
Total PE 0
Free PE 0
Allocated PE 0
PV UUID NDBf68-6qrD-9hE6-Rotv-RdxL-Azvv-7NlC0S
3.创建卷组VG(Volume Groups)
卷组(Volume Group)简称VG,它是一个或者多个物理卷的组合。卷组将多个物理卷组合在一起,形成一个可管理的单元,它类似于非LVM系统中的物理硬盘。
创建卷组的命令为vgcreate,下面利用它创建了一个名为“lvmdisk”的卷组,该卷组包含/dev/sdb1、/dev/sdc1两个物理卷。
[root@li2 ~]# vgcreate lvmdisk /dev/sdb1 /dev/sdc1
Volume group "lvmdisk" successfully created
使用卷组查看命令vgdisplay显示卷组情况:
[root@li2 ~]# vgdisplay
--- Volume group ---
VG Name lvmdisk
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 1
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 0
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 71.98 GB
PE Size 4.00 MB
Total PE 18428
Alloc PE / Size 0 / 0
Free PE / Size 18428 / 71.98 GB
VG UUID SARfuj-wAUI-od81-VWAc-A1nt-aaFN-JWaPVf
当多个物理卷组合成一个卷组后时,LVM会在所有的物理卷上做类似格式化的工作,将每个物理卷切成一块一块的空间,这一块一块的空间就称为PE(Physical Extent ),它的默认大小是4MB。
由于受内核限制的原因,一个逻辑卷(Logic Volume)最多只能包含65536个PE(Physical Extent),所以一个PE的大小就决定了逻辑卷的最大容量,4 MB 的PE决定了单个逻辑卷最大容量为 256 GB,若希望使用大于256G的逻辑卷,则创建卷组时需要指定更大的PE。在Red Hat Enterprise Linux AS 4中PE大小范围为8 KB 到 16GB,并且必须总是 2 的倍数。
例如,如果希望使用 64 MB 的PE创建卷组,这样逻辑卷最大容量就可以为4 TB,命令如下:
# vgcreate - 64MB lvmdisk /dev/sdb1 /dev/sdc1
4.创建逻辑卷LV(Logical Volumes)
逻辑卷(Logical Volumes)简称LV,是在卷组中划分的一个逻辑区域,类似于非LVM系统中的硬盘分区。
创建逻辑卷的命令为lvcreate,通过下面的命令,我们在卷组lvmdisk上创建了一个名字为pldy1的逻辑卷,大小为15GB,其设备入口为/dev/lvmdisk/pldy1。
[root@li2 dev]# lvcreate -L 15G -n pldy1 lvmdisk
Logical volume "pldy1" created
也可以使用-l参数,通过指定PE数来设定逻辑分区大小。
例如,希望创建一个使用全部空间的逻辑卷,需要先查清卷组中的PE总数,通过上面的vgdisplay命令查得当前卷组PE总数为18428,命令如下:
# lvcreate -l 18428 -n pldy1 lvmdisk
当逻辑卷创建成功后,可以使用lvdisplay命令查看逻辑卷情况:
[root@li2 ~]# lvdisplay
--- Logical volume ---
LV Name /dev/lvmdisk/pldy1
VG Name lvmdisk
LV UUID FQcnm3-BMyq-NkJz-hykw-9xg1-Qy8d-8UeGCN
LV Write Access read/write
LV Status available
# open 0
LV Size 15.00 GB
Current LE 3840
Segments 1
Allocation inherit
Read ahead sectors 0
Block device 253:0
同卷组一样,逻辑卷在创建的过程中也被分成了一块一块的空间,这些空间称为LE(Logical Extents),在同一个卷组中,LE的大小和PE是相同的,并且一一对应。
5.创建文件系统
在逻辑卷上创建ext3文件系统:
[root@li2 ~]# mkfs -t ext3 /dev/lvmdisk/pldy1
创建了文件系统以后,就可以加载并使用了:
[root@li2 ~]# mkdir /opt/Oracle
[root@li2 ~]# mount /dev/lvmdisk/pldy1 /opt/Oracle
为了在系统启动时自动加载文件系统,则还需要在/etc/fstab中添加内容:
/dev/lvmdisk/pldy1 /opt/Oracle ext3 defaults 1 2
管理LVM
LVM的最大好处就是可以动态地调整分区大小,而无须重新启动机器,下面让我们来体验一下吧!继续上面的实例,现假设逻辑卷/dev/lvmdisk/pldy1空间不足,需要增加其大小,我们分两种情况讨论:
1.卷组中有剩余的空间
通过vgdisplay命令可以检查当前卷组空间使用情况:
[root@li2 ~]# vgdisplay
--- Volume group ---
VG Name lvmdisk
System ID
Format lvm2
Metadata Areas 2
Metadata Sequence No 2
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 2
Act PV 2
VG Size 71.98 GB
PE Size 4.00 MB
Total PE 18428
Alloc PE / Size 3840 / 15.00 GB
Free PE / Size 14588 / 56.98 GB
VG UUID SARfuj-wAUI-od81-VWAc-A1nt-aaFN-JWaPVf
确定当前卷组剩余空间56.98GB,剩余PE数量为14588个。在这里将所有的剩余空间全部增加给逻辑卷 /dev/lvmdisk/pldy1。
[root@li2 Oracle]# lvextend -l+14588 /dev/lvmdisk/pldy1
Extending logical volume pldy1 to 56.98 GB
Logical volume pldy1 successfully resized
上面的命令使用了-l+14588参数,它的意思是给指定的逻辑卷增加14588个PE。如果不是将全部空间都使用,还可使用其他形式的lvextend命令。
例如将逻辑卷/dev/lvmdisk/pldy1增加5GB的空间,使其空间达到20GB,可写成: “# lvextend -L+5G /dev/lvmdisk/pldy1”或“# lvextend -L20G /dev/lvmdisk/pldy1”。增加了逻辑卷容量后,就要通过ext2online命令修改文件系统的大小了。
[root@li2 ~]# ext2online /opt/Oracle/
转换好后,让我们查看一下文件系统的当前状态:
[root@li2 ~]# df -lh
Filesystem 1k-blocks Used Available Use% Mounted on
/dev/sda1 7.4G 1.8G 5.3G 25% /
none 135M 0 135M 0% /dev/shm
/dev/mapper/lvmdisk-pldy1 71G 81M 68G 1% /opt/Oracle
2.卷组中空间不足
当卷组中没有足够的空间用于扩展逻辑卷的大小时,就需要增加卷组的容量,而增加卷组容量的惟一办法就是向卷组中添加新的物理卷。
首先是增加一块新硬盘(36GB SCSI 硬盘),并对其完成分区、创建物理卷等工作。接下来是利用vgextend命令将新的物理卷(/dev/sdd1)加入到卷组中。
扩展卷组的命令如下:
[root@li2 ~]# vgextend lvmdisk /dev/sdd1
Volume group "lvmdisk" successfully extended
利用vgdisplay命令查看卷组lvmdisk的情况:
[root@li2 ~]# vgdisplay
--- Volume group ---
VG Name lvmdisk
System ID
Format lvm2
Metadata Areas 3
Metadata Sequence No 3
VG Access read/write
VG Status resizable
MAX LV 0
Cur LV 1
Open LV 0
Max PV 0
Cur PV 3
Act PV 3
VG Size 107.97 GB
PE Size 4.00 MB
Total PE 27640
Alloc PE / Size 3840 / 15.00 GB
Free PE / Size 23800 / 92.97 GB
VG UUID l8YPvz-uD7h-oj1A-0qS5-TFcT-mbC7-QbjzCu
完成卷组的扩容后,就可以按照第一种情况的方法完成逻辑卷的扩容,最终实现分区的动态调整。
条块化的应用
1.高性能
LVM 支持两种模式的逻辑卷(Logical Volumes),一种是串连模式(Concatenation)另一种是条块模式(Striping),系统默认是串连模式(如图3)。这两种模式有什么区别呢?比如,有两块SCSI接口的36GB硬盘/dev/sdb、/dev/sdc,它们共同组成了一个卷组vg1,在此卷组上创建了一个40GB的逻辑卷lv1。
图3 两种模式的逻辑卷(左为串连模式,右为条块模式)
如果这个逻辑卷是串连模式,数据在两块硬盘上将顺序存放,只有当一块硬盘存满之后才去使用另一块硬盘。
如果这个逻辑卷是条块模式,数据将被分割成固定大小的条块,然后分散存放到两块硬盘上。这样意味着你有更多有效的磁盘带宽,数据的读写速度将大幅提高。
一个逻辑卷要实现条块模式,只需在用lvcreate创建时指定条块模式配置项。有两个相关参数。-i参数告诉 LVM应该在多少个PV上分散数据。条块化不是按一次一比特的单位来存放的,而是按块。-I参数指定单位为KB的块大小。注意它必须是2的一个幂,而且最大的块大小为512KB。 例如:
# lvcreate -n pldyStrip -i 2 -I 64 lvmdisk -L 40G
2.高性能+冗余
条块模式尽管给我们带来了高性能,但也带来了高风险,如果任一块磁盘坏掉,那全部的逻辑卷都会丢失,其结果将是灾难性的。然而LVM技术对这种灾难已经早有防范,LVM的实现不仅可以在磁盘分区上实现也可以在RAID卷上实现。无论是硬件RAID还是软件RAID, LVM都给予了很好的支持。下面就通过Red Hat Enterprise Linux AS 4自带的软件RAID,配置两个RAID1,实现LVM的过程。如图4所示。
图4 在RAID卷上实现LVM
● 创建RAID分区
这里使用四块36GB SCSI 硬盘sdb、sdc、sdd、sde,每个硬盘只划分了一个主分区,其中/dev/sdb1、/dev/sdc1建一个RAID 1,/dev/sdd1、/dev/sde1建一个RAID 1。在分区时要将分区类型指定为“fd”,这将使Linux 内核能将它们识别为RAID分区,且在每次引导时自动被检测并启动。创建分区使用fdisk命令。
[root@li2 ~]# fdisk /dev/sdb
● 创建RAID 1
创建RAID的命令是mdadm,格式如下:
[root@li2 ~]# mdadm -Cv /dev/md1 -l1 -n2 -c64 /dev/sd[bc]1
mdadm: chunk size ignored for this level
mdadm: size set to 37744576K
mdadm: array /dev/md1 started.
[root@li2 ~]# mdadm -Cv /dev/md2 -l1 -n2 -c64 /dev/sd[de]1
mdadm: chunk size ignored for this level
mdadm: size set to 37744576K
mdadm: array /dev/md2 started.
命令中各参数的作用是: -C表示创建一个新的阵列; /dev/md1表示阵列设备名称; -l1是设置阵列模式,可以选择0、1、4、5、6,分别对应于RAID0、RAID1、RAID4、RAID5、RAID6,这里设为RAID1模式; -n2是设置阵列中活动设备的数目,该数目加上备用设备的数目应等于阵列中的总设备数; -c64表示设置块的尺寸为64KB; /dev/sd[bc]1是当前阵列中包含的所有设备标识符,也可以分开来写,中间用空格分开。
● 查看阵列状态
当创建一个新阵列时,设备需要进行同步操作,这一过程需要一定时间,可以通过查看/proc/mdstat文件,来显示阵列的当前状态以及同步进度、所需时间等。
[root@li2 ~]# more /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sde1[1] sdd1[0]
37744576 blocks [2/2] [UU]
[===========>.........] resync = 56.7% (21402240/37744576) finish=6.0min speed=45122K/sec
md1 : active raid1 sdc1[1] sdb1[0]
37744576 blocks [2/2] [UU]
[==============>......] resync = 73.5% (27754880/37744576) finish=3.9min speed=42112K/sec
unused devices:
当新建或重构完成后,再次查看/proc/mdstat文件:
[root@li2 ~]# more /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sde1[1] sdd1[0]
37744576 blocks [2/2] [UU]
md1 : active raid1 sdc1[1] sdb1[0]
37744576 blocks [2/2] [UU]
unused devices:
● 创建物理卷、卷组、逻辑卷、文件系统,加载使用
当RAID创建成功之后,我们就可以像普通分区实现LVM一样配置了,过程如下。
创建物理卷:
[root@li2 ~]# pvcreate /dev/md1
Physical volume "/dev/md1" successfully created
[root@li2 ~]# pvcreate /dev/md2
Physical volume "/dev/md2" successfully created
创建卷组:
[root@li2 ~]# vgcreate lvmraid /dev/md1 /dev/md2
Volume group "lvmraid" successfully created
创建逻辑卷:
[root@li2 ~]# lvcreate -n pldyStrip -i 2 -I 64 lvmraid -L 40G
Logical volume "pldyStrip" created
创建文件系统:
[root@li2 ~]# mkfs -t ext3 /dev/lvmraid/pldyStrip
加载使用
[root@li2 opt]# mount /dev/lvmraid/pldyStrip /opt/pldy
阅读(401) | 评论(0) | 转发(0) |