ASM 无法发现候选磁盘组----丢失的ASM磁盘组 ASM的磁盘组无法挂载


近日遇到一个问题,ASM的磁盘组无法挂载,之前是正常的,由于一些其他的操作,数据库启动失败,当问题排除时候,发现在数据库整体启动时,挂载磁盘组的环节出现问题。

环境介绍

#########################################

硬件:Vmware ESX虚拟机

OS: Red hat linux 5

Oracle version: 11.2.0.2

ASM disk是通过 asmlib挂载的

这个磁盘组只有一个虚拟出的硬盘,是 /dev/sdb1.

#########################################

下面是我整个分析的过程

1. 首先通过ASM alert.log,发现如下错误,磁盘挂载失败,无法找到磁盘组


  1. SQL> alter diskgroup DATA mount  
  2. NOTE: cache registered group DATA number=1 incarn=0xc28a1e2d  
  3. NOTE: cache began mount (first) of group DATA number=1 incarn=0xc28a1e2d  
  4. Tue Dec 11 18:06:55 2012  
  5. ERROR: no PST quorum in group: required 2, found 0                                        <<<<<<<<<<<  
  6. NOTE: cache dismounting (clean) group 1/0xC28A1E2D (DATA)  
  7. NOTE: dbwr not being msg'd to dismount  
  8. NOTE: lgwr not being msg'd to dismount  
  9. NOTE: cache dismounted group 1/0xC28A1E2D (DATA)  
  10. NOTE: cache ending mount (fail) of group DATA number=1 incarn=0xc28a1e2d  
  11. NOTE: cache deleting context for group DATA 1/0xc28a1e2d  
  12. GMON dismounting group 1 at 8 for pid 17, osid 32163  
  13. ERROR: diskgroup DATA was not mounted  
  14. ORA-15032: not all alterations performed  
  15. ORA-15017: diskgroup "DATA" cannot be mounted  
  16. ORA-15063: ASM discovered an insufficient number of disks for diskgroup "DATA"  
  17. ERROR: alter diskgroup DATA mount 

2. 首先检查ASM pfile 文件,未发现异常


  1. asm_diskgroups='DATA'  
  2. instance_type='asm'  
  3. large_pool_size=12M  
  4. remote_login_passwordfile='EXCLUSIVE' 

3. 尝试通过以下命令检查磁盘是否物理存在,是如何对应物理设备的,发现查询不到ASM磁盘


  1. [grid@lgto_test ~]$ kfod disks=all 
  2.  
  3. ----Non output---- 
  4.  
  5.  
  6.  
  7. [grid@lgto_test peer]$ cd /dev/oracleasm/disks/  
  8. [grid@lgto_test disks]$ ls 
  9.  
  10. ----Non output---- 
  11.  
  12.  
  13. [grid@lgto_test disks]$ /etc/init.d/oracleasm listdisks 
  14.  
  15. ----Non output---- 

  4. 但是直接检查物理设备,/dev/sdb1是存在的,说明OS已经识别该硬盘设备,只是ASMlib无法正常识别:


  1. 查询对应的物理硬盘
  2. [oracle@OEL ~]$ /etc/init.d/oracleasm querydisk -d disk1 Disk "DISK1" is a valid ASM disk on device [8,17]

  3. [oracle@OEL ~]$ ls -l /dev/ |grep 8|grep 17 brw-r----- 1 root disk 8, 17 Oct 16 14:01 sdb1

  4.  
  5. [root@lgto_test ~]# ls -lst /dev/sd*  
  6. 0 brw-r----- 1 root disk 8,  0 Dec 11 19:29 /dev/sda  
  7. 0 brw-r----- 1 root disk 8,  2 Dec 11 19:29 /dev/sda2  
  8. 0 brw-r----- 1 root disk 8, 16 Dec 11 19:29 /dev/sdb  
  9. 0 brw-r----- 1 root disk 8, 17 Dec 11 19:29 /dev/sdb1  <<<<<<<This is the missed diskgroup  
  10. 0 brw-r----- 1 root disk 8,  1 Dec 11 11:29 /dev/sda1 

5. 起先是考虑是否是磁盘头损害,导致无法ASMlib识别该磁盘, dump磁盘头发现没有问题. 


  1. #od -c /dev/sdb1 
  2. …… 
  3. 0000040   O   R   C   L   D   I   S   K   D   A   T   A   D   G   0   1 
  4. …… 
  5. 7760040   O   R   C   L   D   I   S   K   D   A   T   A   D   G   0   1 

这里补充下,如果磁盘头信息丢失,将会显示如下


  1. 0000040 O R C L D I S K \0 \0 \0 \0 \0 \0 \0 \0 

如果显示这个结果,需要通过以下方式renamedisk,具体可以参考文档Oracleasm Listdisks Cannot See Disks (Doc ID 392527.1)


  1. Use the "oracleasm renamedisk" utility to add an asmlib label to the disk:  
  2. /etc/init.d/oracleasm renamedisk /dev/<device> <asmlib_label>  
  3. If it fails, use the "-f" switch:  
  4. /etc/init.d/oracleasm renamedisk -f /dev/<device> <asmlib_label> 

  6. 重启ASMLib ,检查是否是ASMLib 问题


  1. [root@lgto_test ~]# /etc/init.d/oracleasm restart 
  2. Dropping Oracle ASMLib disks: 
  3. [  OK  ] 
  4. Shutting down the Oracle ASMLib driver: [FAILED] 

检查文件系统oracleasm文件系统已经成功挂载


  1. [root@lgto_test ~]# df -ha 
  2. Filesystem            Size  Used Avail Use% Mounted on 
  3. …… 
  4. oracleasmfs              0     0     0   -  /dev/oracleasm 

7. 检查 /dev/sdb1状态,查看是否已经marked为ASM disk,显示已经标记成功


  1. [root@lgto_test ~]# oracleasm querydisk /dev/sdb1 
  2. Device "/dev/sdb1" is marked an ASM disk with the label "DATADG01" 
  3.  
  4. [root@lgto_test ~]# /sbin/service oracleasm scandisks 
  5. Scanning the system for Oracle ASMLib disks: 
  6. [  OK  ] 
  7.  
  8. [root@lgto_test ~]# /etc/init.d/oracleasm listdisks 
  9. ----Non output--- 

8. 检查 rpm package也没有问题


  1. [grid@lgto_test ~]$ rpm -qa|grep oracleasm  
  2. oracleasmlib-2.0.4-1.el5  
  3. oracleasm-support-2.1.7-1.el5  
  4. oracleasm-2.6.18-308.el5-2.0.5-1.el5  

9. 收集 Kfed logs,没有检查到异常新信息。


  1. [root@lgto_test ~]# /oracle/ora11g/product/app/grid/bin/kfed read /dev/sdb1 
  2.  
  3. kfbh.endian:                          1 ; 0x000: 0x01 
  4.  
  5. kfbh.hard:                          130 ; 0x001: 0x82 
  6.  
  7. kfbh.type:                            1 ; 0x002: KFBTYP_DISKHEAD 
  8.  
  9. kfbh.datfmt:                          1 ; 0x003: 0x01 
  10.  
  11. kfbh.block.blk:                       0 ; 0x004: T=0 NUMB=0x0 
  12.  
  13. kfbh.block.obj:              2147483648 ; 0x008: TYPE=0x8 NUMB=0x0 
  14.  
  15. kfbh.check:                  3351358462 ; 0x00c: 0xc7c1abfe 
  16.  
  17. kfbh.fcn.base:                        0 ; 0x010: 0x00000000 
  18.  
  19. kfbh.fcn.wrap:                        0 ; 0x014: 0x00000000 
  20.  
  21. kfbh.spare1:                          0 ; 0x018: 0x00000000 
  22.  
  23. kfbh.spare2:                          0 ; 0x01c: 0x00000000 
  24.  
  25. kfdhdb.driver.provstr: ORCLDISKDATADG01 ; 0x000: length=16 
  26.  
  27. kfdhdb.driver.reserved[0]:   1096040772 ; 0x008: 0x41544144 
  28.  
  29. kfdhdb.driver.reserved[1]:    825247556 ; 0x00c: 0x31304744 
  30.  
  31. kfdhdb.driver.reserved[2]:            0 ; 0x010: 0x00000000 
  32.  
  33. kfdhdb.driver.reserved[3]:            0 ; 0x014: 0x00000000 
  34.  
  35. kfdhdb.driver.reserved[4]:            0 ; 0x018: 0x00000000 
  36.  
  37. kfdhdb.driver.reserved[5]:            0 ; 0x01c: 0x00000000 
  38.  
  39. kfdhdb.compat:                186646528 ; 0x020: 0x0b200000 
  40.  
  41. kfdhdb.dsknum:                        0 ; 0x024: 0x0000 
  42.  
  43. kfdhdb.grptyp:                        1 ; 0x026: KFDGTP_EXTERNAL 
  44.  
  45. kfdhdb.hdrsts:                        3 ; 0x027: KFDHDR_MEMBER 
  46.  
  47. kfdhdb.dskname:                DATADG01 ; 0x028: length=8 
  48.  
  49. kfdhdb.grpname:                    DATA ; 0x048: length=4 
  50.  
  51. kfdhdb.fgname:                 DATADG01 ; 0x068: length=8 
  52.  
  53. kfdhdb.capname:                         ; 0x088: length=0 
  54.  
  55. kfdhdb.crestmp.hi:             32977140 ; 0x0a8: HOUR=0x14 DAYS=0x7 MNTH=0xc YEAR=0x7dc 
  56.  
  57. kfdhdb.crestmp.lo:           1642529792 ; 0x0ac: USEC=0x0 MSEC=0x1c1 SECS=0x1e MINS=0x18 
  58.  
  59. kfdhdb.mntstmp.hi:             32977140 ; 0x0b0: HOUR=0x14 DAYS=0x7 MNTH=0xc YEAR=0x7dc 
  60.  
  61. kfdhdb.mntstmp.lo:           1664549888 ; 0x0b4: USEC=0x0 MSEC=0x1c1 SECS=0x33 MINS=0x18 
  62.  
  63. kfdhdb.secsize:                     512 ; 0x0b8: 0x0200 
  64.  
  65. kfdhdb.blksize:                    4096 ; 0x0ba: 0x1000 
  66.  
  67. kfdhdb.ausize:                  1048576 ; 0x0bc: 0x00100000 
  68.  
  69. kfdhdb.mfact:                    113792 ; 0x0c0: 0x0001bc80 
  70.  
  71. kfdhdb.dsksize:                  204797 ; 0x0c4: 0x00031ffd 
  72.  
  73. kfdhdb.pmcnt:                         3 ; 0x0c8: 0x00000003 
  74.  
  75. kfdhdb.fstlocn:                       1 ; 0x0cc: 0x00000001 
  76.  
  77. kfdhdb.altlocn:                       2 ; 0x0d0: 0x00000002 
  78.  
  79. kfdhdb.f1b1locn:                      2 ; 0x0d4: 0x00000002 
  80.  
  81. kfdhdb.redomirrors[0]:                0 ; 0x0d8: 0x0000 
  82.  
  83. kfdhdb.redomirrors[1]:                0 ; 0x0da: 0x0000 
  84.  
  85. kfdhdb.redomirrors[2]:                0 ; 0x0dc: 0x0000 
  86.  
  87. kfdhdb.redomirrors[3]:                0 ; 0x0de: 0x0000 
  88.  
  89. kfdhdb.dbcompat:              168820736 ; 0x0e0: 0x0a100000 
  90.  
  91. kfdhdb.grpstmp.hi:             32977140 ; 0x0e4: HOUR=0x14 DAYS=0x7 MNTH=0xc YEAR=0x7dc 
  92.  
  93. kfdhdb.grpstmp.lo:           1642390528 ; 0x0e8: USEC=0x0 MSEC=0x139 SECS=0x1e MINS=0x18 
  94.  
  95. kfdhdb.vfstart:                       0 ; 0x0ec: 0x00000000 
  96.  
  97. kfdhdb.vfend:                         0 ; 0x0f0: 0x00000000 
  98.  
  99. kfdhdb.spfile:                       58 ; 0x0f4: 0x0000003a 
  100.  
  101. kfdhdb.spfflg:                        1 ; 0x0f8: 0x00000001 
  102.  
  103. kfdhdb.ub4spare[0]:                   0 ; 0x0fc: 0x00000000 
  104.  
  105. kfdhdb.ub4spare[1]:                   0 ; 0x100: 0x00000000 
  106.  
  107. kfdhdb.ub4spare[2]:                   0 ; 0x104: 0x00000000 
  108.  
  109. kfdhdb.ub4spare[3]:                   0 ; 0x108: 0x00000000 
  110.  
  111. kfdhdb.ub4spare[4]:                   0 ; 0x10c: 0x00000000 
  112.  
  113. kfdhdb.ub4spare[5]:                   0 ; 0x110: 0x00000000 
  114.  
  115. kfdhdb.ub4spare[6]:                   0 ; 0x114: 0x00000000 
  116.  
  117. kfdhdb.ub4spare[7]:                   0 ; 0x118: 0x00000000 
  118.  
  119. kfdhdb.ub4spare[8]:                   0 ; 0x11c: 0x00000000 
  120.  
  121. kfdhdb.ub4spare[9]:                   0 ; 0x120: 0x00000000 
  122.  
  123. kfdhdb.ub4spare[10]:                  0 ; 0x124: 0x00000000 
  124.  
  125. kfdhdb.ub4spare[11]:                  0 ; 0x128: 0x00000000 
  126.  
  127. kfdhdb.ub4spare[12]:                  0 ; 0x12c: 0x00000000 
  128.  
  129. kfdhdb.ub4spare[13]:                  0 ; 0x130: 0x00000000 
  130.  
  131. kfdhdb.ub4spare[14]:                  0 ; 0x134: 0x00000000 
  132.  
  133. kfdhdb.ub4spare[15]:                  0 ; 0x138: 0x00000000 
  134.  
  135. kfdhdb.ub4spare[16]:                  0 ; 0x13c: 0x00000000 
  136.  
  137. kfdhdb.ub4spare[17]:                  0 ; 0x140: 0x00000000 
  138.  
  139. kfdhdb.ub4spare[18]:                  0 ; 0x144: 0x00000000 
  140.  
  141. kfdhdb.ub4spare[19]:                  0 ; 0x148: 0x00000000 
  142.  
  143. kfdhdb.ub4spare[20]:                  0 ; 0x14c: 0x00000000 
  144.  
  145. kfdhdb.ub4spare[21]:                  0 ; 0x150: 0x00000000 
  146.  
  147. kfdhdb.ub4spare[22]:                  0 ; 0x154: 0x00000000 
  148.  
  149. kfdhdb.ub4spare[23]:                  0 ; 0x158: 0x00000000 
  150.  
  151. kfdhdb.ub4spare[24]:                  0 ; 0x15c: 0x00000000 
  152.  
  153. kfdhdb.ub4spare[25]:                  0 ; 0x160: 0x00000000 
  154.  
  155. kfdhdb.ub4spare[26]:                  0 ; 0x164: 0x00000000 
  156.  
  157. kfdhdb.ub4spare[27]:                  0 ; 0x168: 0x00000000 
  158.  
  159. kfdhdb.ub4spare[28]:                  0 ; 0x16c: 0x00000000 
  160.  
  161. kfdhdb.ub4spare[29]:                  0 ; 0x170: 0x00000000 
  162.  
  163. kfdhdb.ub4spare[30]:                  0 ; 0x174: 0x00000000 
  164.  
  165. kfdhdb.ub4spare[31]:                  0 ; 0x178: 0x00000000 
  166.  
  167. kfdhdb.ub4spare[32]:                  0 ; 0x17c: 0x00000000 
  168.  
  169. kfdhdb.ub4spare[33]:                  0 ; 0x180: 0x00000000 
  170.  
  171. kfdhdb.ub4spare[34]:                  0 ; 0x184: 0x00000000 
  172.  
  173. kfdhdb.ub4spare[35]:                  0 ; 0x188: 0x00000000 
  174.  
  175. kfdhdb.ub4spare[36]:                  0 ; 0x18c: 0x00000000 
  176.  
  177. kfdhdb.ub4spare[37]:                  0 ; 0x190: 0x00000000 
  178.  
  179. kfdhdb.ub4spare[38]:                  0 ; 0x194: 0x00000000 
  180.  
  181. kfdhdb.ub4spare[39]:                  0 ; 0x198: 0x00000000 
  182.  
  183. kfdhdb.ub4spare[40]:                  0 ; 0x19c: 0x00000000 
  184.  
  185. kfdhdb.ub4spare[41]:                  0 ; 0x1a0: 0x00000000 
  186.  
  187. kfdhdb.ub4spare[42]:                  0 ; 0x1a4: 0x00000000 
  188.  
  189. kfdhdb.ub4spare[43]:                  0 ; 0x1a8: 0x00000000 
  190.  
  191. kfdhdb.ub4spare[44]:                  0 ; 0x1ac: 0x00000000 
  192.  
  193. kfdhdb.ub4spare[45]:                  0 ; 0x1b0: 0x00000000 
  194.  
  195. kfdhdb.ub4spare[46]:                  0 ; 0x1b4: 0x00000000 
  196.  
  197. kfdhdb.ub4spare[47]:                  0 ; 0x1b8: 0x00000000 
  198.  
  199. kfdhdb.ub4spare[48]:                  0 ; 0x1bc: 0x00000000 
  200.  
  201. kfdhdb.ub4spare[49]:                  0 ; 0x1c0: 0x00000000 
  202.  
  203. kfdhdb.ub4spare[50]:                  0 ; 0x1c4: 0x00000000 
  204.  
  205. kfdhdb.ub4spare[51]:                  0 ; 0x1c8: 0x00000000 
  206.  
  207. kfdhdb.ub4spare[52]:                  0 ; 0x1cc: 0x00000000 
  208.  
  209. kfdhdb.ub4spare[53]:                  0 ; 0x1d0: 0x00000000 
  210.  
  211. kfdhdb.acdb.aba.seq:                  0 ; 0x1d4: 0x00000000 
  212.  
  213. kfdhdb.acdb.aba.blk:                  0 ; 0x1d8: 0x00000000 
  214.  
  215. kfdhdb.acdb.ents:                     0 ; 0x1dc: 0x0000 
  216.  
  217. kfdhdb.acdb.ub2spare:                 0 ; 0x1de: 0x0000 

10. 阶段总结,通过以上的分析,得出以下总结

1. ASMLib 正常

2. RPM包正常

3. 磁盘头没有损坏和丢失信息

4. 该硬件已经被系统正常识别

当前问题就是为什么ASMLib 不能正常扫描并识别到该硬盘

11. 最后在检查文件 /etc/sysconfig/oracleasm时,发现问题,我们需要扫描到的磁盘是/dev/sdb1,可是在这个配置文件中却排除扫描sdb*的磁盘,和我们希望的是相悖的,将ORACLEASM_SCANEXCLUDE="" 设为空,并重启ASMLib,最后问题解决。


  1. [grid@lgto_test disks]$ more /etc/sysconfig/oracleasm   
  2. # ORACLEASM_ENABELED: 'true' means to load the driver on boot.  
  3. ORACLEASM_ENABLED=true  
  4. # ORACLEASM_UID: Default user owning the /dev/oracleasm mount point.  
  5. ORACLEASM_UID=grid  
  6. # ORACLEASM_GID: Default group owning the /dev/oracleasm mount point.  
  7. ORACLEASM_GID=asmadmin  
  8. # ORACLEASM_SCANBOOT: 'true' means scan for ASM disks on boot.  
  9. ORACLEASM_SCANBOOT=true  
  10. # ORACLEASM_SCANORDER: Matching patterns to order disk scanning  
  11. ORACLEASM_SCANORDER="mapper mpath"  
  12. # ORACLEASM_SCANEXCLUDE: Matching patterns to exclude disks from scan  
  13. ORACLEASM_SCANEXCLUDE="sdb"  <<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<<

12. 重启ASMLib并确认磁盘状态


  1. # /etc/init.d/oracleasm restart 
  2.  
  3. # /sbin/service oracleasm scandisks 

<think>我们正在处理一个关于OracleASM磁盘组重建的问题。用户提到原ASM磁盘组挂载的存储损坏,现在有新挂载的存储,想要重建ASM磁盘组。根据OracleASM的特性,磁盘组是由多个磁盘组成的逻辑单元,用于存储数据库文件。当存储损坏时,我们需要使用新的存储来重新创建磁盘组,并恢复数据。但是,请注意:ASM磁盘组本身并不存储数据文件的元数据(如数据文件、控制文件等的位置和结构),这些信息存储在数据库的控制文件和参数文件中。因此,重建磁盘组后,我们还需要恢复数据库文件。步骤大致如下:1.确保新存储已经正确挂载到服务器上,并且操作系统可以识别这些磁盘。2.使用OracleASM工具(如asmca或sqlplus)创建新的磁盘组,将新存储的磁盘加入该磁盘组。3.如果有备份(如RMAN备份),则使用RMAN恢复数据库到新的磁盘组上。如果没有备份,但原磁盘组中的文件有镜像(如使用NORMAL或HIGH冗余),则可以通过重新挂载磁盘组来恢复,但这里原存储已损坏,所以只能从备份恢复。然而,用户的问题中并没有提到有备份,所以我们需要考虑如果没有备份怎么办?实际上,如果没有备份,原存储损坏且没有冗余,那么数据可能丢失。因此,重建磁盘组后,如果没有备份,我们无法恢复数据。但是,用户的问题集中在如何用新存储重建磁盘组,所以我们先回答这部分。具体步骤:1.检查新挂载的磁盘是否被操作系统识别。可以使用`fdisk-l`(Linux)或`format`(Solaris)等命令查看。2.为这些磁盘配置ASM磁盘。通常有两种方式:使用ASMLib或直接使用裸设备(或者使用udev规则绑定)。现在推荐使用udev规则来绑定磁盘并设置正确的权限。-例如,在Linux上,我们可以通过udev规则为磁盘设置固定的权限和所有者。参考引用[2]中的方法,确保磁盘的UUID被正确识别,并设置udev规则。-创建udev规则文件(如`/etc/udev/rules.d/99-oracle-asmdevices.rules`),内容示例:```KERNEL=="sd*",SUBSYSTEM=="block",PROGRAM="/sbin/scsi_id-g-u-d/dev/$name",RESULT=="<磁盘的SCSI_ID>",SYMLINK+="oracleasm/disk1",OWNER="grid",GROUP="asmadmin",MODE="0660"```需要为每块磁盘执行,并替换SCSI_ID(通过命令`/sbin/scsi_id-g-u-d/dev/sdX`获取)。3.重新加载udev规则:```udevadmcontrol--reload-rulesudevadmtrigger--type=devices--action=change```4.确认磁盘权限正确,并且`/dev/oracleasm/*`下的磁盘链接已创建(或者直接使用/dev/下由udev规则设置的设备)。5.以grid用户(OracleGridInfrastructure用户)登录,使用asmca图形工具或命令行工具(asmcmd或sqlplus)创建新的磁盘组-命令行创建示例(在sqlplus中连接到ASM实例):```sqlCREATEDISKGROUPnew_dgEXTERNALREDUNDANCYDISK'/dev/oracleasm/disk1','/dev/oracleasm/disk2';```这里假设使用外部冗余(即无镜像),如果有多个磁盘且需要冗余,可以选择NORMAL或HIGH冗余,并指定故障组(参考引用[1]中关于故障组的设置)。6.创建磁盘组后,需要将数据库恢复到这个新的磁盘组上。这通常需要:-如果数据库的控制文件还在(比如控制文件有多个副本,其中一个在未损坏的存储上),那么可以启动数据库到mount状态,然后使用RMAN进行恢复。-如果没有可用的控制文件,则需要使用RMAN的恢复目录或控制文件自动备份来恢复控制文件,然后再恢复数据库。由于用户的问题主要是重建磁盘组,所以我们先完成磁盘组的重建步骤。相关问题:1.如何为新挂载的存储配置ASM磁盘?2.在创建新的ASM磁盘组时,如何选择冗余级别和故障组?3.重建ASM磁盘组后,如何恢复Oracle数据库?4.如果没有备份,原存储损坏后还有哪些数据恢复方法?5.如何验证新创建的ASM磁盘组是否正常工作?请注意,如果没有备份,且原存储完全损坏,数据恢复将非常困难。因此,强烈建议用户定期备份。下面,我们将按照用户要求的结构化方式回答,并生成相关问题。</think>### ASM磁盘组重建步骤 当原ASM磁盘组存储损坏后,需通过以下步骤使用新存储重建磁盘组并恢复数据: #### **1. 验证新存储设备** - **操作系统识别**:确认新存储已挂载操作系统可识别(如Linux执行 `lsblk` 或 `fdisk -l`)。 - **获取磁盘标识符**: 使用 `scsi_id` 命令获取磁盘唯一UUID(确保 `disk.EnableUUID="TRUE"`[^2]): ```bash for i in $(ls /dev/sd* | grep -E 'sd[b-z]$'); do echo "Disk $i: $(/sbin/scsi_id -g -u -d $i)"; done ``` 输出示例: ```text Disk /dev/sdb: 36000c29ff0363b8ebda7309f6f26c8c3 Disk /dev/sdc: 36000c29811ad6d1353dd6df390513d3f ``` #### **2. 配置ASM磁盘** - **创建UDEV规则**(确保权限正确): 编辑 `/etc/udev/rules.d/99-oracle-asm.rules`,添加: ```bash KERNEL=="sd*", ENV{ID_SERIAL}=="36000c29ff0363b8ebda7309f6f26c8c3", SYMLINK+="oracleasm/disk01", OWNER="grid", GROUP="asmadmin", MODE="0660" ``` - **生效配置**: ```bash udevadm control --reload-rules udevadm trigger --type=devices --action=change ``` #### **3. 创建新ASM磁盘组** - **连接到ASM实例**: ```sql sqlplus / as sysasm ``` - **创建磁盘组**(按需选择冗余级别): ```sql CREATE DISKGROUP NEW_DG EXTERNAL REDUNDANCY -- 外部冗余 DISK '/dev/oracleasm/disk01', '/dev/oracleasm/disk02'; -- 或指定故障组(引用[1]语法): CREATE DISKGROUP NEW_DG NORMAL REDUNDANCY FAILGROUP FG1 DISK '/dev/oracleasm/disk01', FAILGROUP FG2 DISK '/dev/oracleasm/disk02'; ``` #### **4. 恢复数据库到新磁盘组** - **RMAN恢复**(需有效备份): ```sql RMAN> RESTORE CONTROLFILE FROM AUTOBACKUP; RMAN> RESTORE DATABASE; RMAN> RECOVER DATABASE; ``` - **修改参数文件**: 更新 `DB_CREATE_FILE_DEST` 指向新磁盘组: ```sql ALTER SYSTEM SET DB_CREATE_FILE_DEST = '+NEW_DG' SCOPE=SPFILE; ``` #### **关键注意事项** 1. **数据恢复依赖备份**:若原存储无冗余且无备份,数据将丢失。 2. **冗余策略选择**: - `EXTERNAL`:依赖存储自身冗余(如RAID)。 - `NORMAL`:ASM提供镜像(需至少2个故障组)。 - `HIGH`:三路镜像(需至少3个故障组)。 3. **故障组配置**:确保故障组对应物理隔离的存储设备[^1]。 --- ### 相关问题 1. ASM磁盘组如何配置多路径存储以提高可用性? 2. 无备份情况下,ASM磁盘组损坏后有哪些应急恢复方案? 3. 如何验证ASM磁盘组的冗余策略是否生效? 4. ASM磁盘组扩容时如何平衡数据分布? [^1]: Set the parameter where diskgroup is the name of the disk group and failuregroup is the name of the failure group, separating these variables with a period. Oracle ASM ignores the name of a failure group that you use in this parameter setting if the failure group does not exist in the named disk group. [^2]: 检查Vmware虚拟机配置文件xxx.vmx,确认EnableUUID是否为TRUE。执行`lsblk`命令查看挂载的硬盘,确认是否识别到UUID号。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值