LVM管理创建PV阶段报错:Device /dev/sda* not found (or ignored by filtering)

在尝试使用fdisk创建4个分区并建立PV时,遇到“Device /dev/sda* not found (or ignored by filtering)”错误。通过查阅资料,了解到需使用dd命令擦除分区。发现/dev/sda7可以创建PV,但/dev/sda{8,9,10}提示已挂载文件系统。检查发现这些分区已挂载到raid,虽此前已停止并删除raid,但/mnt/raid目录仍然存在。删除该目录后,成功重新创建PV,总结经验教训,避免相同错误。" 113071756,10534894,接口测试进阶:Fiddler过滤HTTP请求方法详解,"['接口测试', 'Fiddler', 'HTTP']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

用 fdisk 创建 4 个分区,然后创建 PV,发现错误如下:

[root@DB lvm]# pvcreate /dev/sda{7,8,9,10}
  Device /dev/sda7 not found (or ignored by filtering).
  Device /dev/sda8 not found (or ignored by filtering).
  Device /dev/sda9 not found (or ignored by filtering).
  Device /dev/sda10 not found (or ignored by filtering).

 查了一下资料,说要先执行 dd if=/dev/urandom 把/dev/sda覆盖分区块,也就是擦除分区

[root@DB lvm]# dd if=/dev/urandom of=/dev/sda7 bs=512 count=64
64+0 records in
64+0 records out
32768 bytes (33 kB) copied, 0.00416541 s, 7.9 MB/s
······省······
[root@DB lvm]# dd if=/dev/urandom of=/dev/sda10 bs=512 count=64
64+0 records in
64+0 records out
32768 bytes (33 kB) copied, 0.00416541 s, 7.9 MB/s

[root@DB lvm]# pvcreate /dev/sda7
  Physical volume "/dev/sda7" successfully created.

[root@DB lvm]# pvcreate /dev/sda{8,9,10}
  Can't open /dev/sda8 exclusively.  Mounted filesystem?

     发现 /dev/sda7 可以创建 PV,但是 /dev/sda{8,9,10} 提示 Mounted filesystem? 我的磁盘是新分割出来的啊?

赶紧看看 /dev/sda{8,9,10} 有没有被挂载

[root@DB ~]# df
Filesystem                1K-blocks    Used Available Use% Mounted on
/dev/sda2                  10190136 5686280   3979568  59% /
/dev/sda1                    999320  130800    799708  15% /boot
/dev/mapper/centos00-home   5029504  283860   4467116   6% /home
/dev/sr0                    4414592 4414592         0 100% /run/media/CentOS 7 x86_64
······省······

[root@DB lvm]# lsblk
NAME              MAJ:MIN RM  SIZE RO TYPE  MOUNTPOINT
sda                 8:0    0   25G  0 disk  
├─sda1              8:1    0    1G  0 part  /boot
├─sda2              8:2    0   10G  0 part  /
├─sda3              8:3    0    5G  0 part  
│ └─centos00-home 253:0    0    5G  0 lvm   /home
├─sda4              8:4    0  512B  0 part  
├─sda5              8:5    0    2G  0 part  [SWAP]
├─sda6              8:6    0    1M  0 part  
├─sda7              8:7    0    1G  0 part  
├─sda8              8:8    0    1G  0 part  
│ └─md0             9:0    0    3G  0 raid5 
├─sda9              8:9    0    1G  0 part  
│ └─md0             9:0    0    3G  0 raid5 
└─sda10             8:10   0    1G  0 part  
  └─md0             9:0    0    3G  0 raid5 

      用 df 指令没有发现异常,但是用 lsblk 确实发现 /dev/sda{8,9,10} 已经挂载到了 raid。

[root@DB tmp]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda8[1] sda10[5] sda9[2]
      3142656 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU]
      
unused devices: <none>

      我之前的确用 /dev/sda{7,8,9,10} 做了raid5 实验,但是已经停掉,

      并且分区也是重新删了再创建一遍,为什么还会挂载上呢?难道是错误的操作导致的?

尝试再次关闭 raid

[root@DB tmp]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[root@DB tmp]# mdadm --zero-superblock /dev/sda{8,9,10}
mdadm: Unrecognised md component device - /dev/sda8
mdadm: Unrecognised md component device - /dev/sda9
mdadm: Unrecognised md component device - /dev/sda10
[root@DB tmp]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid5 sda8[1] sda10[5] sda9[2]
      3142656 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [_UUU]
      
unused devices: <none>

      但是问题还是没有解决。但发现 /dev/md0 的挂载目录 /mnt/raid 还在

[root@DB mnt]# ls -l
drwxr-xr-x. 2 root root 4096 Nov 21 17:57 raid

尝试删除 raid 目录

[root@DB mnt]# rm -rf raid
[root@DB tmp]# lsblk
NAME              MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                 8:0    0   25G  0 disk 
├─sda1              8:1    0    1G  0 part /boot
├─sda2              8:2    0   10G  0 part /
├─sda3              8:3    0    5G  0 part 
│ └─centos00-home 253:0    0    5G  0 lvm  /home
├─sda4              8:4    0  512B  0 part 
├─sda5              8:5    0    2G  0 part [SWAP]
├─sda6              8:6    0    1M  0 part 
├─sda7              8:7    0    1G  0 part 
├─sda8              8:8    0    1G  0 part 
├─sda9              8:9    0    1G  0 part 
└─sda10             8:10   0    1G  0 part 

      这下清净了。

重新创建 PV

[root@DB tmp]# pvcreate /dev/sda{8,9,10}
  Physical volume "/dev/sda8" successfully created.
  Physical volume "/dev/sda9" successfully created.
  Physical volume "/dev/sda10" successfully created.

总结:

/dev/sda{7,8,9,10} 之前做过 raid 实验,应该是我的错误操作,导致 raid 没有完整卸载,同一分区当然同时用来做 raid 和 LVM。

当你尝试使用`vgextend`命令将设备 `/dev/sdc` 添加到卷组 `myvg` 或 `infokistvg` 报错 "Device /dev/sdc excluded by a filter" 意味着这个设备由于某些过滤条件而被排除,通常这可能是因为该设备已经被其他配置文件(如fstab或lvm配置)中的某个规则限制了操作,或者它不符合某种预定义的卷组扩展策略。 1. **问题分析**[^1]: LVM (Logical Volume Manager) 的`vgextend`命令会基于设备上的信息(比如分区类型、标签或其他元数据)来决定是否允许扩展。如果 `/dev/sdc` 已经被另一个设备(可能已经作为卷组的一部分)或系统其他设置所占用,那么它会被视为不可扩展。 2. **可能的原因**[^2]: - **分区类型**: 如果 `/dev/sdc` 是一个未分区的硬盘,但之前曾被用于安装操作系统或其他用途,可能存在隐藏分区或逻辑分区。 - **已存在的卷组**: `/dev/sdc` 可能已经归属于另一个卷组,需要先解除关联再添加到新的卷组。 - **过滤器设置**: lvm.conf 文件可能有特定的filter规则阻止对 `/dev/sdc` 扩展卷组。 - **硬件限制**: 如果设备有物理限制,例如RAID阵列,也可能导致此错误。 要解决这个问题,你可以按照以下步骤操作: 1. **确认设备状态**: ```bash fdisk -l /dev/sdc ``` 2. **查看卷组关联**: ```bash vgs -o name,devices | grep sdc ``` 3. **检查lvm配置**: ```bash cat /etc/lvm/lvm.conf ``` 确定是否有针对 `/dev/sdc` 的过滤规则。 4. **解除现有卷组关联** (如有): ```bash lvremove -f /dev/myvg/yourlvname ``` 或者如果是动态PV: ```bash pvremove -ff /dev/sdc ``` 5. **重新运行vgextend**: ```bash vgextend myvg /dev/sdc ``` 6. **验证扩展结果**: ```bash vgdisplay myvg ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值