linux使用storcli64查看硬盘信息

本文详细介绍了如何使用StorCLI工具查看硬盘信息,包括安装StorCLI、执行硬盘检查命令以及解析输出结果,展示了硬盘的状态、类型、大小、接口、介质、保护信息等详细参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

使用storcli查看硬盘信息:

rpm -ivh storcli-1.16.06-1.noarch.rpm
cd /opt/MegaRAID/storcli/
./storcli64 /c0(零) show

 链接: https://pan.baidu.com/s/17Fa3TwtGtxNiQ8lTsoG5iw 提取码: axjm 

本例使用:storcli_all_os\Linux\storcli-1.16.06-1.noarch.rpm

~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

[root@node3 ~]# cd /opt/MegaRAID/storcli/
[root@node3 storcli]#  ./storcli64 /c0 show
Generating detailed summary of the adapter, it may take a while to complete.

Controller = 0
Status = Success
Description = None

Product Name = AVAGO SAS3108 MR
Serial Number =
SAS Address =  500112f760001fd8
PCI Address = 00:01:00:00
System Time = 03/26/2019 16:03:25
Mfg. Date = 00/00/00
Controller Time = 03/26/2019 16:06:55
FW Package Build = 24.16.0-0097
BIOS Version = 6.32.02.1_4.17.08.00_0x06150501
FW Version = 4.660.00-8175
Driver Name = megaraid_sas
Driver Version = 07.702.06.00-rh2
Current Personality = RAID-Mode
Vendor Id = 0x1000
Device Id = 0x5D
SubVendor Id = 0x1CB8
SubDevice Id = 0x3108
Host Interface = PCI-E
Device Interface = SAS-12G
Bus Number = 1
Device Number = 0
Function Number = 0
Drive Groups = 1

TOPOLOGY :
========

--------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace
--------------------------------------------------------------------------
 0 -   -   -        -   RAID5 Optl  N   18.818 TB dflt N  N   dflt N      
 0 0   -   -        -   RAID5 Optl  N   18.818 TB dflt N  N   dflt N      
 0 0   0   2:0      42  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   1   2:1      14  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   2   2:2      43  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   3   2:3      40  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   4   2:4      44  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   5   2:5      32  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   6   2:6      29  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   7   2:7      1   DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   8   2:8      41  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   9   2:9      31  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   10  2:10     30  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   11  2:11     36  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   12  2:12     0   DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   13  2:13     45  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   14  2:14     26  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   15  2:15     27  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   16  2:16     33  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   17  2:17     39  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   18  2:18     46  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   19  2:19     34  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   20  2:20     5   DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   21  2:21     35  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   22  2:22     37  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
 0 0   23  2:23     38  DRIVE Onln  N  837.843 GB dflt N  N   dflt -      
--------------------------------------------------------------------------

DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present

Virtual Drives = 1

VD LIST :
=======

----------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC      Size Name
----------------------------------------------------------
0/0   RAID5 Optl  RW     Yes     RWBD  -   18.818 TB      
----------------------------------------------------------

Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|HD=Hidden|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency

Physical Drives = 24

PD LIST :
=======

-------------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model            Sp
-------------------------------------------------------------------------
2:0      42 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:1      14 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:2      43 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:3      40 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:4      44 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:5      32 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:6      29 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:7       1 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:8      41 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:9      31 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:10     30 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:11     36 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:12      0 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:13     45 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:14     26 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:15     27 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:16     33 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:17     39 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:18     46 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:19     34 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:20      5 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:21     35 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:22     37 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
2:23     38 Onln   0 837.843 GB SAS  HDD N   N  512B AL14SEB090N      U  
-------------------------------------------------------------------------

EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded|Cpybck-CopyBack|CBShld-Copyback Shielded


Cachevault_Info :
===============

------------------------------------
Model  State   Temp Mode MfgDate    
------------------------------------
CVPM02 Optimal 35C  -    2017/01/14
------------------------------------



转载于:https://www.cnblogs.com/daynote/p/10600901.html

<think>嗯,用户需要解决RAID1状态降级的问题,这确实是个需要谨慎处理的存储故障。从引用内容看,用户可能正在管理一台使用RAID1阵列的服务器,其中一块硬盘出现异常导致阵列降级(Degraded)。用户提供的三个引用很有价值:引用[1]展示了人为操作导致的降级案例,引用[2]描述了环境因素引发的硬盘故障,引用[3]则解释了RAID1的基本原理——这些正好覆盖了降级的主要成因。用户的核心诉求很明确:既要了解降级原因,更需要具体的修复方法。考虑到RAID1涉及数据安全,我的回复必须强调操作风险点:比如在修复前务必确认备用硬盘的兼容性,重建过程中要避免意外断电。技术层面需要分步骤说明,从故障诊断到重建完成,每个环节都要给出可执行命令(如MegaRAID的storcli)和状态检查要点。注意到引用[2]提到的"Degraded"状态与用户描述完全一致,这个案例很有参考价值——它说明降级后阵列仍可运行,但处于脆弱状态。回复时需要特别提醒用户:即使系统能启动,也应尽快更换故障盘,因为此时已失去冗余保护。对于数据恢复这个潜在需求,要补充说明:若新硬盘重建失败,需立即停止操作并联系专业机构,防止二次破坏。最后生成的问题要覆盖延伸场景:比如引用[1]提到的"Non-Memberdisk"状态如何处理,引用[3]中RAID0/5/10等其他阵列的降级差异——这些能帮助用户建立系统性认知。尤其要加入预防性措施的问题,毕竟从引用看,温度过高等环境因素也是常见诱因。</think>### RAID 1 状态降级的原因及修复方法 #### **降级原因** 1. **硬盘物理故障** 硬盘坏道、电路板损坏或机械故障导致阵列无法同步[^2]。 2. **硬盘连接异常** 数据线松动、电源供电不稳或硬盘接口接触不良。 3. **人为操作失误** 误移除成员盘(如引用[1]中脱离disk2的操作)、意外断电或强制重启。 4. **逻辑错误** 文件系统损坏或RAID元数据错误,导致阵列识别异常。 --- #### **修复步骤** > ⚠️ **操作前务必备份数据!** 重建过程存在数据丢失风险。 1. **确认故障盘** 通过RAID管理工具(如MegaRAID的`storcli`或服务器BIOS中的RAID配置界面)检查硬盘状态: ```bash # 示例:使用storcli检查 storcli /c0 show ``` 输出中标记为`Failed`或`Missing`的硬盘即为故障盘[^2]。 2. **更换故障硬盘** - 物理替换故障硬盘(需同容量或更大容量)。 - 若硬盘未损坏但被误移除(如引用[1]的`Non-Member disk`状态),可尝试重新插入并标记为在线。 3. **启动重建(Rebuild)** - **方法1:RAID管理工具** 在RAID控制界面(如Ctrl+R进入)选择故障盘,执行`Rebuild`或`Make Online`操作[^2]。 - **方法2:命令行工具** ```bash # 示例:将/c0/e1/s1硬盘标记为在线并重建 storcli /c0/e1/s1 set online storcli /c0/e1/s1 start rebuild ``` 4. **监控重建进度** ```bash storcli /c0 show rebuild # 查看重建进度 ``` 重建时间取决于硬盘容量(约1-5小时),期间避免断电或重启。 5. **验证修复结果** 重建完成后,阵列状态应恢复为`Optimal`: ```bash storcli /c0 show # 检查RAID状态 ``` --- #### **注意事项** - **数据安全**:降级期间阵列无冗余,需尽快修复。 - **硬盘兼容性**:替换硬盘需与RAID控制器兼容(同品牌/型号更稳妥)。 - **逻辑错误修复**:若元数据损坏,需使用`raid repair`工具(如`mdadm`对软RAID)修复。 > 若重建失败或数据无法访问,**立即停止操作**并联系专业数据恢复机构[^1]。 --- ### 相关问题 1. RAID 1 重建过程中服务器可以继续运行吗? 2. 如何预防RAID 1降级?有哪些监控工具推荐? 3. RAID 1 与 RAID 10 在故障恢复机制上有何区别?[^3] 4. 硬盘状态显示为 `Non-Member Disk` 时应如何处理?[^1] [^1]: 引用自用户案例:RAID 1 误操作脱离阵列导致降级 [^2]: 引用自宝德服务器RAID10降级修复过程 [^3]: 引用自RAID管理基础知识
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值