当前位置: 首页 > news >正文

AWS创建多块盘并创建RAID0以及后增加空间

创建硬盘并挂载到EC2上,后查询如下

[root@ip-127-0-0-1 ~]# lsblk
NAME          MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
nvme0n1       259:0    0  40G  0 disk 
├─nvme0n1p1   259:1    0  40G  0 part /
├─nvme0n1p127 259:2    0   1M  0 part 
└─nvme0n1p128 259:3    0  10M  0 part /boot/efi
nvme1n1       259:4    0  15G  0 disk 
nvme2n1       259:5    0  15G  0 disk 
nvme3n1       259:6    0  15G  0 disk 
nvme4n1       259:7    0  15G  0 disk 
nvme5n1       259:8    0  15G  0 disk 
nvme6n1       259:9    0  15G  0 disk 
nvme7n1       259:10   0  15G  0 disk 
nvme8n1       259:11   0  15G  0 disk

安装 mdadm 工具

[root@ip-127-0-0-1 ~]# yum update -y
......
Dependencies resolved.
Nothing to do.
Complete!
[root@ip-172-31-26-146 ~]# yum install mdadm -y
......
Installed:mdadm-4.2-3.amzn2023.0.5.x86_64                                               Complete!

创建 RAID 0 阵列

[root@ip-127-0-0-1 ~]# mdadm --create /dev/md0 --level=0 --raid-devices=8 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1 /dev/nvme4n1 /dev/nvme5n1 /dev/nvme6n1 /dev/nvme7n1 /dev/nvme8n1
mdadm: Defaulting to version 1.2 metadata /dev/md0 --level=0 --raid-devices=8 /dev/nvme1n1 /dev/nvme2n1 /dev/nvme3n1 /dev/nvme4n1 /dev/nvme5n1 /dev/nvme6n1 /dev/nvme7n1 /dev/nvme8n1
[1031053.926574] md0: detected capacity change from 0 to 251510784
mdadm: array /dev/md0 started.
创建过程通常很快。你可以使用 watch cat /proc/mdstat 或 sudo mdadm --detail /dev/md0 来查看状态。
[root@ip-127-0-0-1 ~]# mdadm --detail /dev/md0
/dev/md0:Version : 1.2Creation Time : Tue Apr 29 06:19:53 2025Raid Level : raid0Array Size : 125755392 (119.93 GiB 128.77 GB)Raid Devices : 8Total Devices : 8Persistence : Superblock is persistentUpdate Time : Tue Apr 29 06:19:53 2025State : clean Active Devices : 8Working Devices : 8Failed Devices : 0Spare Devices : 0Layout : -unknown-Chunk Size : 512KConsistency Policy : noneName : 0UUID : ab7af972:85386ba3:4de7de66:c4efcf91Events : 0Number   Major   Minor   RaidDevice State0     259        4        0      active sync   /dev/sdb1     259        5        1      active sync   /dev/sdc2     259        6        2      active sync   /dev/sdd3     259        7        3      active sync   /dev/sde4     259        8        4      active sync   /dev/sdf5     259        9        5      active sync   /dev/sdg6     259       10        6      active sync   /dev/sdh7     259       11        7      active sync   /dev/sdi

在新建的 /dev/md0 设备上创建文件系统。常用的文件系统有 ext4 或 xfs (xfs 通常在大容量卷上表现更好)。

[root@ip-127-0-0-1 ~]# mkfs.xfs /dev/md0
log stripe unit (524288 bytes) is too large (maximum is 256KiB)
log stripe unit adjusted to 32KiB
meta-data=/dev/md0               isize=512    agcount=16, agsize=1964928 blks=                       sectsz=512   attr=2, projid32bit=1=                       crc=1        finobt=1, sparse=1, rmapbt=0=                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=31438848, imaxpct=25=                       sunit=128    swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=16384, version=2=                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
查看文件属性
[root@ip-127-0-0-1 ~]# lsblk
NAME          MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
nvme0n1       259:0    0    40G  0 disk  
├─nvme0n1p1   259:1    0    40G  0 part  /
├─nvme0n1p127 259:2    0     1M  0 part  
└─nvme0n1p128 259:3    0    10M  0 part  /boot/efi
nvme1n1       259:4    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme2n1       259:5    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme3n1       259:6    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme4n1       259:7    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme5n1       259:8    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme6n1       259:9    0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme7n1       259:10   0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 
nvme8n1       259:11   0    15G  0 disk  
└─md0           9:0    0 119.9G  0 raid0 

配置自动挂载 (持久化)

更新 mdadm 配置
[root@ip-127-0-0-1 ~]# mdadm --detail --scan | sudo tee -a /etc/mdadm.conf
ARRAY /dev/md0 metadata=1.2 name=0 UUID=ab7af972:85386ba3:4de7de66:c4efcf91
更新 /etc/fstab
[root@ip-127-0-0-1 ~]# blkid /dev/md0
/dev/md0: UUID="33e3c305-fcc7-472f-b583-ac29e5b998b8" BLOCK_SIZE="512" TYPE="xfs"
[root@ip-172-31-26-146 ~]# tail -1 /etc/fstab 
UUID=33e3c305-fcc7-472f-b583-ac29e5b998b8  /data/raid0-storge/  xfs  defaults,nofail  0  0
挂载
[root@ip-127-0-0-1 ~]# mount -a
[1031693.035943] XFS (md0): Mounting V5 Filesystem
[1031693.132845] XFS (md0): Ending clean mount
[root@ip-127-0-0-1 ~]# df -h
Filesystem        Size  Used Avail Use% Mounted on
devtmpfs          4.0M     0  4.0M   0% /dev
tmpfs             3.9G     0  3.9G   0% /dev/shm
tmpfs             1.6G  636K  1.6G   1% /run
/dev/nvme0n1p1     40G  5.4G   35G  14% /
tmpfs             3.9G     0  3.9G   0% /tmp
/dev/nvme0n1p128   10M  1.3M  8.7M  13% /boot/efi
overlay            40G  5.4G   35G  14% /var/lib/docker/overlay2/84699b7470c48b0c4a1cb8b91b868be21f96c388de173f25df9ac741be7d0d0e/merged
tmpfs             782M     0  782M   0% /run/user/1000
/dev/md0          120G  889M  119G   1% /data/raid0-storge

将raid0进行扩容

手动存一些数据
[root@ip-127-0-0-1 data]# du -sh ./*
1.7G    ./raid0-storge
手动将所有的各个EBS在控制台上扩充10G,达到25G

在这里插入图片描述
在这里插入图片描述

确定硬盘是否分区并确定raid0八块硬盘是否都在线
[root@ip-127-0-0-1 data]# fdisk -l /dev/nvme1n1
Disk /dev/nvme1n1: 25 GiB, 26843545600 bytes, 52428800 sectors
Disk model: Amazon Elastic Block Store              
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
查看raid的详细信息
[root@ip-127-0-0-1 data]# mdadm --detail /dev/md0
/dev/md0:Version : 1.2Creation Time : Tue Apr 29 06:19:53 2025Raid Level : raid0Array Size : 125755392 (119.93 GiB 128.77 GB)Raid Devices : 8Total Devices : 8Persistence : Superblock is persistentUpdate Time : Tue Apr 29 06:19:53 2025State : clean Active Devices : 8Working Devices : 8Failed Devices : 0Spare Devices : 0Layout : -unknown-Chunk Size : 512KConsistency Policy : noneName : 0UUID : ab7af972:85386ba3:4de7de66:c4efcf91Events : 0Number   Major   Minor   RaidDevice State0     259        4        0      active sync   /dev/sdb1     259        5        1      active sync   /dev/sdc2     259        6        2      active sync   /dev/sdd3     259        7        3      active sync   /dev/sde4     259        8        4      active sync   /dev/sdf5     259        9        5      active sync   /dev/sdg6     259       10        6      active sync   /dev/sdh7     259       11        7      active sync   /dev/sdi
扩大 RAID0 逻辑卷尺寸

RAID0 是 striping,可以使用 --grow 命令扩展大小:

[root@ip-127-0-0-1 data]# df -hT
Filesystem       Type      Size  Used Avail Use% Mounted on
devtmpfs         devtmpfs  4.0M     0  4.0M   0% /dev
tmpfs            tmpfs     3.9G     0  3.9G   0% /dev/shm
tmpfs            tmpfs     1.6G  636K  1.6G   1% /run
/dev/nvme0n1p1   xfs        40G  5.4G   35G  14% /
tmpfs            tmpfs     3.9G     0  3.9G   0% /tmp
/dev/nvme0n1p128 vfat       10M  1.3M  8.7M  13% /boot/efi
overlay          overlay    40G  5.4G   35G  14% /var/lib/docker/overlay2/84699b7470c48b0c4a1cb8b91b868be21f96c388de173f25df9ac741be7d0d0e/merged
tmpfs            tmpfs     782M     0  782M   0% /run/user/1000
/dev/md0         xfs       120G  2.6G  118G   3% /data/raid0-storge
[root@ip-127-0-0-1 data]# xfs_growfs /data/raid0-storge/
meta-data=/dev/md0               isize=512    agcount=16, agsize=1964928 blks=                       sectsz=512   attr=2, projid32bit=1=                       crc=1        finobt=1, sparse=1, rmapbt=0=                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=31438848, imaxpct=25=                       sunit=128    swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=16384, version=2=                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

本来以为这一步会让 RAID0 把每块磁盘的新空间包含进来。
但最后是不行,最后的结果是不能动态扩充raid0,RAID0不支持在线扩容

各个阵列扩容详情
RAID 类型扩容方法备注
RAID 0不能直接扩容需重建或配合 LVM 使用
RAID 1支持换更大盘再 sync可扩容但较繁琐
RAID 5支持添加新盘也可以结合 LVM
RAID 10类似 RAID 1,可扩但复杂通常需重建或配合 LVM

相关文章:

  • (02)Redis 的订阅发布Pub/Sub
  • 基于C#窗体+GDI+绘图实现分形树
  • 华锐视点历经十八年沉淀所形成的产品特性
  • Electron-vite中ELECTRON_RENDERER_URL环境变量如何被设置的
  • java 加入本地lib jar处理方案
  • 如何创建并使用极狐GitLab 议题模板?
  • HarmonyOS运动开发:如何监听用户运动步数数据
  • 基于Lucene的多场景检索系统开发指南
  • docker 通过定时任务恢复MySQL数据库
  • P1494 [国家集训队] 小 Z 的袜子 Solution
  • Java 基础--运算符全解析
  • MySQL 连接池 (Pool) 常用方法详解
  • HTML应用指南:利用POST请求获取全国达美乐门店位置信息
  • 【网络编程】UDP协议 和 Socket编程
  • Seaborn一个用于统计图形绘制的高级API
  • 基于C++数据结构双向循环链表实现的贪吃蛇
  • AgeTravel | 银发文娱旅游一周新鲜事
  • 使用高德MCP+AI编程工具打造一个旅游小助手
  • 线程同步与互斥核心要点整理
  • 精益数据分析(30/126):电商商业模式的深度剖析与关键指标解读
  • 安徽省公安厅原副厅长刘海石主动投案,正接受审查调查
  • 证券时报:“好房子”标准即将全面落地,购房者有哪些新期待
  • 西班牙葡萄牙突发全国大停电,欧洲近年来最严重停电事故何以酿成
  • 民生访谈|宝妈宝爸、毕业生、骑手……上海如何为不同人群提供就业保障
  • 一个失败的赛季咎由自取,皇马只能把希望留到夏天
  • 对排出黑烟车辆出具合格报告,广州南沙一检测公司被罚十万元