如何在运行的LVM系统(包括GRUB配置)(CentOS 5.3)上设置软件RAID1

如何在运行的LVM系统(包括GRUB配置)(CentOS 5.3)上设置软件RAID1

本指南介绍如何在已运行的LVM系统(CentOS 5.3)上设置软件RAID1。 GRUB引导加载程序将被配置为使得如果其中一个硬盘驱动器发生故障,系统仍然可以启动(无论哪一个)。

我不会保证这将为您工作!

1初步说明

在本教程中,我使用的是具有两个硬盘驱动器的CentOS 5.3系统, / dev / sda/ dev / sdb大小相同。 / dev / sdb当前未使用,并且/ dev / sda具有以下分区(这是默认的CentOS分区方案 - 您应该在系统上找到类似的内容,除非您选择在系统安装期间手动分区):

  • / dev / sda1/ boot partition,ext3;
  • / dev / sda2 :用于LVM(卷组VolGroup00 ),并包含/ (卷LogVol00 )和交换(卷LogVol01 )。

最后我想要有以下情况:

  • / dev / md0 (由/ dev / sda1/ dev / sdb1组成 ): / boot partition,ext3;
  • / dev / md1 (由/ dev / sda2/ dev / sdb2组成 ):LVM(卷组VolGroup00 )包含/(卷LogVol00)和交换(卷LogVol01 )。

这是现在的情况:

df -h
[root@server1 ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
                      8.6G  1.4G  6.8G  17% /
/dev/sda1              99M   13M   82M  14% /boot
tmpfs                 250M     0  250M   0% /dev/shm
[root@server1 ~]#
fdisk -l
[root@server1 ~]# fdisk -l

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   83  Linux
/dev/sda2              14        1305    10377990   8e  Linux LVM

Disk /dev/sdb: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdb doesn't contain a valid partition table
[root@server1 ~]#
pvdisplay
[root@server1 ~]# pvdisplay
  /dev/hdc: open failed: No medium found
  --- Physical volume ---
  PV Name               /dev/sda2
  VG Name               VolGroup00
  PV Size               9.90 GB / not usable 22.76 MB
  Allocatable           yes (but full)
  PE Size (KByte)       32768
  Total PE              316
  Free PE               0
  Allocated PE          316
  PV UUID               aikFEP-FB15-nB9C-Nfq0-eGMG-hQid-GOsDuj

[root@server1 ~]#
vgdisplay
[root@server1 ~]# vgdisplay
  /dev/hdc: open failed: No medium found
  --- Volume group ---
  VG Name               VolGroup00
  System ID
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  3
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               9.88 GB
  PE Size               32.00 MB
  Total PE              316
  Alloc PE / Size       316 / 9.88 GB
  Free  PE / Size       0 / 0
  VG UUID               ZPvC10-cN09-fI0S-Vc8l-vOuZ-wM6F-tlz0Mj

[root@server1 ~]#
lvdisplay
[root@server1 ~]# lvdisplay
  /dev/hdc: open failed: No medium found
  --- Logical volume ---
  LV Name                /dev/VolGroup00/LogVol00
  VG Name                VolGroup00
  LV UUID                vYlky0-Ymx4-PNeK-FTpk-qxvm-PmoZ-3vcNTd
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                8.88 GB
  Current LE             284
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Name                /dev/VolGroup00/LogVol01
  VG Name                VolGroup00
  LV UUID                Ml9MMN-DcOA-Lb6V-kWPU-h6IK-P0ww-Gp9vd2
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                1.00 GB
  Current LE             32
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

[root@server1 ~]#

2安装mdadm

设置RAID的最重要的工具是mdadm 。 让我们像这样安装:

yum install mkinitrd mdadm

之后,我们加载了几个内核模块(以避免重启):

modprobe linear
modprobe multipath
modprobe raid0
modprobe raid1
modprobe raid5
modprobe raid6
modprobe raid10

现在跑

cat /proc/mdstat

输出应如下所示:

[root@server1 ~]# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
[root@server1 ~]#

3准备/ dev / sdb

要在我们已经运行的系统上创建RAID1阵列,我们必须为RAID1准备/ dev / sdb硬盘,然后将/ dev / sda硬盘的内容复制到它,最后将/ dev / sda添加到RAID1阵列。

首先,我们将分区表从/ dev / sda复制到/ dev / sdb ,以使两个磁盘都具有完全相同的布局:

sfdisk -d /dev/sda | sfdisk /dev/sdb

输出结果如下:

[root@server1 ~]# sfdisk -d /dev/sda | sfdisk /dev/sdb
Checking that no-one is using this disk right now ...
OK

Disk /dev/sdb: 1305 cylinders, 255 heads, 63 sectors/track

sfdisk: ERROR: sector 0 does not have an msdos signature
 /dev/sdb: unrecognized partition table type
Old situation:
No partitions found
New situation:
Units = sectors of 512 bytes, counting from 0

   Device Boot    Start       End   #sectors  Id  System
/dev/sdb1   *        63    208844     208782  83  Linux
/dev/sdb2        208845  20964824   20755980  8e  Linux LVM
/dev/sdb3             0         -          0   0  Empty
/dev/sdb4             0         -          0   0  Empty
Successfully wrote the new partition table

Re-reading the partition table ...

If you created or changed a DOS partition, /dev/foo7, say, then use dd(1)
to zero the first 512 bytes:  dd if=/dev/zero of=/dev/foo7 bs=512 count=1
(See fdisk(8).)
[root@server1 ~]#

命令

fdisk -l

现在应该显示两个硬盘都有相同的布局:

[root@server1 ~]# fdisk -l

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   83  Linux
/dev/sda2              14        1305    10377990   8e  Linux LVM

Disk /dev/sdb: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14        1305    10377990   8e  Linux LVM
[root@server1 ~]#

接下来,我们必须将我们在/ dev / sdb上的两个分区的分区类型更改为Linux raid autodetect

fdisk /dev/sdb

[root @ server1〜]#fdisk / dev / sdb

此磁盘的柱面数设置为1305。
没有什么问题,但是这大于1024,
并且在某些设置中可能会导致以下问题:
1)在引导时运行的软件(例如,LILO的旧版本)
2)从其他操作系统启动和分区软件
(例如DOS FDISK,OS / 2 FDISK)

命令(m为帮助): < - m
命令行动
一个可启动标志的切换
b编辑bsd disklabel
c切换dos兼容性标志
d删除一个分区
l列出已知的分区类型
m打印此菜单
n添加一个新的分区
o创建一个新的空DOS分区表
p打印分区表
q退出而不保存更改
s创建一个新的空的Sun磁盘标签
t更改分区的系统ID
u更改显示/输入单位
v验证分区表
w将表写入磁盘并退出
x额外功能(仅限专家)

命令(m为帮助): < - t
分区号(1-4): < - 1
十六进制代码(L型列表代码): < - L

0空1e隐藏W95 FAT1 80旧Minix bf Solaris
1 FAT12 24 NEC DOS 81 Minix / old Lin c1 DRDOS / sec(FAT-
2 XENIX root 39计划9 82 Linux交换/ So c4 DRDOS / sec(FAT-
3 XENIX usr 3c PartitionMagic 83 Linux c6 DRDOS / sec(FAT-
4 FAT16 <32M 40 Venix 80286 84 OS / 2隐藏C:c7 Syrinx
5扩展41 PPC PReP引导85 Linux扩展da非FS数据
6 FAT16 42 SFS 86 NTFS卷集db CP / M / CTOS /。
7 HPFS / NTFS 4d QNX4.x 87 NTFS卷集戴尔实用程序
8 AIX 4e QNX4.x第二部分88 Linux明文df BootIt
9 AIX可启动4f QNX4.x第3部分8e Linux LVM e1 DOS访问
一个OS / 2 Boot Manag 50 OnTrack DM 93 Amoeba e3 DOS R / O
b W95 FAT32 51 OnTrack DM6 Aux 94 Amoeba BBT e4 SpeedStor
c W95 FAT32(LBA)52 CP / M 9f BSD / OS eb BeOS fs
e W95 FAT16(LBA)53 OnTrack DM6 Aux a0 IBM Thinkpad Hi ee EFI GPT
f W95 Ext'd(LBA)54 OnTrackDM6 a5 FreeBSD ef EFI(FAT-12/16 /
10 OPUS 55 EZ-Drive a6 OpenBSD f0 Linux / PA-RISC b
11隐藏FAT12 56金弓a7 NeXTSTEP f1 SpeedStor
12 Compaq diagnostics 5c Priam Edisk a8达尔文UFS f4 SpeedStor
14隐藏FAT16 <3 61 SpeedStor a9 NetBSD f2 DOS辅助
16隐藏FAT16 63 GNU HURD或Sys ab Darwin启动fb VMware VMFS
17 Hidden HPFS / NTF 64 Novell Netware b7 BSDI fs fc VMware VMKCORE
18 AST SmartSleep 65 Novell Netware b8 BSDI交换fd Linux raid auto
1b隐藏W95 FAT3 70 DiskSecure多bb启动向导隐藏在局域网
1c隐藏W95 FAT3 75 PC / IX是Solaris启动ff BBT
十六进制代码(L型列表代码): < - fd
更改系统类型的分区1到fd(Linux raid autodetect)

命令(m为帮助): < - t
分区号(1-4): < - 2
十六进制代码(L型列表代码): < - fd
更改系统类型的分区2到fd(Linux raid autodetect)

命令(m为帮助): < - w
分区表已被更改!

调用ioctl()重新读取分区表。
同步磁盘
[root @ server1〜]#

命令

fdisk -l

现在应该显示/ dev / sdb1/ dev / sdb2Linux raid autodetect的类型:

[root@server1 ~]# fdisk -l

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          13      104391   83  Linux
/dev/sda2              14        1305    10377990   8e  Linux LVM

Disk /dev/sdb: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   fd  Linux raid autodetect
/dev/sdb2              14        1305    10377990   fd  Linux raid autodetect
[root@server1 ~]#

要确保/ dev / sdb上以前的RAID安装中没有剩余的内容,我们运行以下命令:

mdadm --zero-superblock /dev/sdb1
mdadm --zero-superblock /dev/sdb2

如果以前的RAID安装没有任何遗漏,上述每个命令将会抛出一个这样的错误(这是不用担心的):

[root@server1 ~]# mdadm --zero-superblock /dev/sdb1
mdadm: Unrecognised md component device - /dev/sdb1
[root@server1 ~]#

否则命令根本不会显示任何内容。

赞(52) 打赏
未经允许不得转载:优客志 » 系统运维
分享到:

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏