Linux raid 配置
1新添加一块大小为10G的磁盘
2.进行分区
[root@base ~]# echo "- - -" >> /sys/class/scsi_host/host0/scan
[root@base ~]# echo "- - -" >> /sys/class/scsi_host/host1/scan
[root@base ~]# echo "- - -" >> /sys/class/scsi_host/host2/scan
[root@base ~]# fdisk -l
...
Disk /dev/sdb: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
...
[root@base ~]# gdisk /dev/sdb
...
Number Start (sector) End (sector) Size Code Name
1 2048 2099199 1024.0 MiB FD00 Linux RAID
2 2099200 4196351 1024.0 MiB FD00 Linux RAID
[root@base ~]# partprobe /dev/sdb
[root@base ~]# cat /proc/partitions
major minor #blocks name
...
8 17 1048576 sdb1
8 18 1048576 sdb2
————————————————
3.创建raid0
[root@base ~]# mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
4.查看启用的raid设备
[root@base ~]# cat /proc/mdstat
Personalities : [raid0]
md0 : active raid0 sdb2[1] sdb1[0]2093056 blocks super 1.2 512k chunks
unused devices: <none>
————————————————
5.硬盘格式化
[root@base ~]# mkfs.xfs /dev/md0
meta-data=/dev/md0 isize=512 agcount=8, agsize=65408 blks= sectsz=512 attr=2, projid32bit=1= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=523264, imaxpct=25= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
————————————————
6.挂载
[root@base ~]# mkdir /mnt/raid0
[root@base ~]# mount /dev/md0 /mnt/raid0
[root@base ~]# df -hT /mnt/raid0
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/md0 xfs 2.0G 33M 2.0G 2% /mnt/raid0
————————————————
7.编辑/etc/fstab文件
[root@base ~]# vim /etc/fstab
/dev/md0 /mnt/raid0 xfs defaults 0 0
8.创建一个2G的raid1
[root@base ~]# gdisk /dev/sdb
...
Number Start (sector) End (sector) Size Code Name
1 2048 2099199 1024.0 MiB FD00 Linux RAID
2 2099200 4196351 1024.0 MiB FD00 Linux RAID
3 4196352 8390655 2.0 GiB FD00 Linux RAID
4 8390656 12584959 2.0 GiB FD00 Linux RAID
[root@base ~]# partprobe /dev/sdb
[root@base ~]# cat /proc/partitons
...
8 17 1048576 sdb1
8 18 1048576 sdb2
8 19 2097152 sdb3
8 20 2097152 sdb4
...
————————————————
9.直接创建
[root@base ~]# mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdb{3,4}
mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@base ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md1 : active raid1 sdb4[1] sdb3[0] 2094080 blocks super 1.2 [2/2] [UU] [==>..................] resync = 14.5%
(305536/2094080) finish=0.2min speed=101845K/sec md0 : active raid0 sdb2[1] sdb1[0] 2093056 blocks super 1.2 512k chunks
unused devices: <none>
[root@base ~]# mkdir /mnt/Raid1
[root@base ~]# mkfs.xfs /dev/md1
meta-data=/dev/md1 isize=512 agcount=4, agsize=130880 blks= sectsz=512 attr=2, projid32bit=1= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=523520, imaxpct=25= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@base ~]# mount /dev/md1 /mnt/Raid1
[root@base ~]# df -hT /mnt/Raid1
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/md1 xfs 2.0G 33M 2.0G 2% /mnt/Raid1
————————————————
10.查看raid1的相关信息
[root@base Raid1]# mdadm -D /dev/md1
/dev/md1:Version : 1.2Creation Time : Mon Jan 18 11:04:03 2021Raid Level : raid1Array Size : 2094080 (2045.00 MiB 2144.34 MB)Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)Raid Devices : 2Total Devices : 2Persistence : Superblock is persistentUpdate Time : Mon Jan 18 11:07:22 2021State : cleanActive Devices : 2Working Devices : 2Failed Devices : 0Spare Devices : 0Consistency Policy : resyncName : localhost.localdomain:1 (local to host localhost.localdomain)UUID : 21a27a2d:d4210bb8:faa229da:09c63a7eEvents : 17Number Major Minor RaidDevice State0 8 19 0 active sync /dev/sdb31 8 20 1 active sync /dev/sdb4
————————————————
11.模拟损坏一块磁盘sdb4并查看raid1的相关信息
[root@base Raid1]# mdadm /dev/md1 -f /dev/sdb4
mdadm: set /dev/sdb4 faulty in /dev/md1
[root@base Raid1]# mdadm -D /dev/md1
/dev/md1:Version : 1.2Creation Time : Mon Jan 18 11:04:03 2021Raid Level : raid1Array Size : 2094080 (2045.00 MiB 2144.34 MB)Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)Raid Devices : 2Total Devices : 2Persistence : Superblock is persistentUpdate Time : Mon Jan 18 11:09:22 2021State : active, degradedActive Devices : 1Working Devices : 1Failed Devices : 1Spare Devices : 0Consistency Policy : resyncName : localhost.localdomain:1 (local to host localhost.localdomain)UUID : 21a27a2d:d4210bb8:faa229da:09c63a7eEvents : 20Number Major Minor RaidDevice State0 8 19 0 active sync /dev/sdb3- 0 0 1 removed1 8 20 - faulty /dev/sdb4
————————————————
12.磁盘损坏把他拔掉
[root@base Raid1]# mdadm /dev/md1 -r /dev/sdb4
mdadm: hot removed /dev/sdb4 from /dev/md1
[root@base Raid1]# mdadm -D /dev/md1
/dev/md1:Version : 1.2Creation Time : Mon Jan 18 11:04:03 2021Raid Level : raid1Array Size : 2094080 (2045.00 MiB 2144.34 MB)Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)Raid Devices : 2Total Devices : 1Persistence : Superblock is persistentUpdate Time : Mon Jan 18 11:10:41 2021State : clean, degradedActive Devices : 1Working Devices : 1Failed Devices : 0Spare Devices : 0Consistency Policy : resyncName : localhost.localdomain:1 (local to host localhost.localdomain)UUID : 21a27a2d:d4210bb8:faa229da:09c63a7eEvents : 22Number Major Minor RaidDevice State0 8 19 0 active sync /dev/sdb3- 0 0 1 removed
————————————————
13.在raid1再创建一个分区
[root@base Raid1]# gdisk /dev/sdb
[root@base Raid1]# partprobe /dev/sdb
[root@base Raid1]# cat /proc/partitions
14.把他进行格式化
[root@base Raid1]# mkfs.xfs /dev/sdb5
meta-data=/dev/sdb5 isize=512 agcount=4, agsize=131072 blks= sectsz=512 attr=2, projid32bit=1= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=524288, imaxpct=25= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
————————————————
15.通过管理命令里的-a添加
[root@base Raid1]# mdadm /dev/md1 -a /dev/sdb5
mdadm: added /dev/sdb5
[root@base Raid1]# mdadm -D /dev/md1
/dev/md1:Version : 1.2Creation Time : Mon Jan 18 11:04:03 2021Raid Level : raid1Array Size : 2094080 (2045.00 MiB 2144.34 MB)Used Dev Size : 2094080 (2045.00 MiB 2144.34 MB)Raid Devices : 2Total Devices : 2Persistence : Superblock is persistentUpdate Time : Mon Jan 18 11:14:02 2021State : cleanActive Devices : 2Working Devices : 2Failed Devices : 0Spare Devices : 0Consistency Policy : resyncName : localhost.localdomain:1 (local to host localhost.localdomain)UUID : 21a27a2d:d4210bb8:faa229da:09c63a7eEvents : 41Number Major Minor RaidDevice State0 8 19 0 active sync /dev/sdb32 8 21 1 active sync /dev/sdb5
————————————————
16.如果不想用raid1阵列了,可以停止这个阵列,不过停止前需要先反挂载一下。需要注意的是当进行反挂载时,数据会丢失,所以要提前做好数据迁移
[root@localhost ~]# umount /dev/md1
[root@localhost ~]# mdadm -S /dev/md1
mdadm: stopped /dev/md1
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md0 : active raid0 sdb2[1] sdb1[0]2093056 blocks super 1.2 512k chunksunused devices: <none>
————————————————
17.添加刚才损坏的磁盘
[root@base Raid1]# mdadm -A /dev/md1 /dev/sdb{3,4}
[root@base Raid1]# cat /proc/mdstat
18.手动添加
[root@base Raid1]# mdadm -AR /dev/md1 /dev/sdb{3,4}
[root@base Raid1]# cat /proc/mdstat
[root@base Raid1]# mdadm -D /dev/md1
[root@base Raid1]# mdadm /dev/md1 -a /dev/sdb4
mdadm: added /dev/sdb4
[root@base Raid1]# mdadm -D /dev/md1
[root@base Raid1]# cat /proc/mdstat
————————————————
19.使用命令模式-a选项直接添加
[root@base Raid1]# mdadm /dev/md1 -a /dev/sdb5
mdadm: added /dev/sdb5
[root@base Raid1]# mdadm -D /dev/md1
20.我们再模拟一块磁盘损坏,看sdb5是否会补上空缺
[root@base Raid1]# mdadm /dev/md1 -f /dev/sdb3
mdadm: set /dev/sdb3 faulty in /dev/md1
[root@base Raid1]# mdadm -D /dev/md1
21.自动识别
[root@base Raid1]# mdadm -D --scan
[root@base Raid1]# mdadm -D --scan > /etc/mdadm.conf
[root@base Raid1]# mdadm -S /dev/md1
[root@base Raid1]# cat /proc/mdstat
[root@base Raid1]# mdadm -A /dev/md1
[root@base Raid1]# cat /proc/mdstat
————————————————
Linux raid 配置相关推荐
- linux raid配置
linux raid配置 实验环境,red hat5 ,使用4个分好的区,代表4块磁盘,做一个raid5,查看linux下raid现象. 假设现在系统有4块磁盘,做一个raid5存放数据,3块盘构建 ...
- linux硬raid怎么分区,Linux RAID配置 和 LVM 分区配置
nas 协议 tcp/ip 用nfs,cifs等文件系统去管理 san 协议 光纤协议 raid redundant arrays of inexpensive disks 磁 ...
- linux 内核配置raid,在 Linux VM 上配置软件 RAID - Azure Virtual Machines | Microsoft Docs
在 Linux 上配置软件 RAID 02/02/2017 本文内容 一种比较常见的情况是,在 Azure 中的 Linux 虚拟机上使用软件 RAID 将多个附加的数据磁盘显示为单个 RAID 设备 ...
- Linux主机如何连接刀片机,刀片服务器RAID配置及Linux操作系统的安装.doc
刀片服务器RAID配置及Linux操作系统的安装 刀片服务器RAID配置及Linux操作系统的安装 启动服务器,在系统提示时按ctrl+进入ServeRAID设置程序在里面按需要和提示设定好硬盘和RA ...
- 在Linux中配置软 RAID,使用mdadm命令创建RAID5, RAID设备的数据恢复
1.在Linux中配置软 RAID RAID(Redundant Array of Inexpensive Disks,独立磁盘完余阵列)用于将多个廉价的小型磁盘驱动器合并成一个磁盘阵列,以提高存储性 ...
- marvell raid linux,MARVELL RAID配置工具操作演示
本课程是<服务器硬件工程师基础与提升>系列课程继"基础篇"之后的第二篇,RAID技术可以说是服务器硬件技术中的"难点",也可以说是"痛点& ...
- 英特尔快速存储技术 linux,英特尔快速存储技术企业版(CTRL+I)RAID配置演示1
本课程是<服务器硬件工程师基础与提升>系列课程继"基础篇"之后的第二篇,RAID技术可以说是服务器硬件技术中的"难点",也可以说是"痛点& ...
- Linux服务器硬件及RAID配置操作
文章目录 服务器硬件及RAID配置实操 服务器硬件详解 RAID磁盘整列详解 RAID磁盘阵列介绍 RAID 0磁盘阵列介绍 RAID 1磁盘阵列介绍 RAID 5磁盘阵列介绍 RAID 6磁盘阵列介 ...
- 【Linux】服务器硬件及RAID配置实战
文章目录 一.服务器硬件 二.RAID磁盘阵列 1.RAID0(条带化存储) 2.RAID1(镜像存储) 3.RAID5 4.RAID6 5.RAID1+0 6.总结 三.阵列卡介绍与真机配置 1.阵 ...
最新文章
- Echache整合Spring缓存实例讲解
- 【Electron】C++ 扩展Node 系列 (一)
- 用qmlscene进行原型制作
- oracle 锁表如何查看_【赵强老师】第一个Oracle的手工备份和恢复
- python中char的用法_如何从C++返回char **并使用cType在Python中填充它?
- birt中文手册在线_QGIS简体中文翻译现状
- docker 测试mysql_95--Docker案例(redis测试/mysql测试/tomcat测试)
- 项目中会用到的开源项目列表
- cts测试之安装编译的APK出现DEXPREOPT报错
- RationalDMIS 2020 编程技巧
- UI设计需要用到哪些软件工具呢?
- win7用友u8安装教程_如何在win7系统中安装用友u8(图文)
- 如何在微信开发工具装插件教程
- Oracle的视图,索引,约束,事务,数据库范式
- U盘中毒了丢失文件怎么办
- [08S01] 驱动程序无法通过使用安全套接字层(SSL)加密与 SQL Server 建立安全连接。错误:“The server selected protocol version TLS10 is
- HTML/CSS-花样边框案例
- win怎么在计算机里按日期搜索文件,Win8系统如何按指定修改日期搜索文件
- ROS 2 Eloquent Elusor安装和使用汇总
- Netty获取客户端IP