这个问题又是一个老问题,碰到过N次,总结下还是很有必要的。
前两天一客户那边出现这个问题,具体情况是这样:服务器采用思科的UCS,客户机房的电不稳定,前天下午有一路电断了,导致客户唯一的UCS控制器6120断电,进而导致vmware的上联链路断开,虚拟机在集群策略的配置情况下, 被强制关机。电恢复后,重新开机,部分虚拟机出现如下报错:

从报错信息来看,“Inodes that were part of a corrupted orphan linked list found”是说根分区中部分inode是损坏的孤立链接的一部分,这样的情况其实根分区没有太大的问题,系统也提示需要手动的执行fsck检测。
输入管理员口令后,进入文件系统修复模式,并使用命令“mount -o remount,rw /”以可读可写的方式重新挂载根分区:

在文件系统修复模式下,编辑/etc/fstab分区表文件,将根分区的开机检测参数去掉,先尝试能否进入系统:

退出文件系统修复模式后,顺利进入系统。
然后再执行fsck检测,发现有大量的inode问题,进行修复:

修复成功后,再次重启系统,系统状态,启动应用服务,也正常。
阅读(11674) | 评论(0) | 转发(0) |