Re: vinum, RAID-5, newfs

From: Oliver Lehmann <lehmann(at)ans-netz.de>
Date: Sun, 5 Oct 2003 14:28:53 +0200

Hallo,

ich wollte jetzt mal den Fehlerfall simulieren und habe einer Platte die
Spannungsversorgung gestohlen.

root(at)nudel lvmr5> dmesg
[...]
(da5:sym0:0:4:0): lost device
(da5:sym0:0:4:0): Invalidating pack
vinum: lvmr5.p0.s4 is crashed by force
vinum: lvmr5.p0 is degraded
malloc() of "16" with the following non-sleepablelocks held:
exclusive sleep mutex g_xup r = 0 (0xcd264ca8) locked @
/usr/src/sys/geom/geom_io.c:364
 fatal:lvmr5.p0.s4 read error, block 297 for 16384 bytes
lvmr5.p0.s4: user buffer block 224 for 16384 bytes
d5: fatal drive I/O error, block 297 for 16384 bytes
vinum: drive d5 is down
malloc() of "16" with the following non-sleepablelocks held:
exclusive sleep mutex g_xup r = 0 (0xcd264ca8) locked @
/usr/src/sys/geom/geom_io.c:364
malloc() of "16" with the following non-sleepablelocks held:
exclusive sleep mutex g_xup r = 0 (0xcd264ca8) locked @
/usr/src/sys/geom/geom_io.c:364
vinum: lvmr5.p0.s4 is stale by force
malloc() of "16" with the following non-sleepablelocks held:
exclusive sleep mutex g_xup r = 0 (0xcd264ca8) locked @
/usr/src/sys/geom/geom_io.c:364
fatal :lvmr5.p0.s4 write error, block 297 for 16384 bytes
lvmr5.p0.s4: user buffer block 224 for 16384 bytes
d5: fatal drive I/O error, block 297 for 16384 bytes
malloc() of "16" with the following non-sleepablelocks held:
exclusive sleep mutex g_xup r = 0 (0xcd264ca8) locked @
/usr/src/sys/geom/geom_io.c:364
(da5:sym0:0:4:0): Synchronize cache failed, status == 0x4a, scsi status ==
0x0
(da5:sym0:0:4:0): removing device entry
root(at)nudel lvmr5> vinum ls
S lvmr5.p0.s0 State: up D: d1 Size: 1004
MB
S lvmr5.p0.s1 State: up D: d2 Size: 1004
MB
S lvmr5.p0.s2 State: up D: d3 Size: 1004
MB
S lvmr5.p0.s3 State: up D: d4 Size: 1004
MB
S lvmr5.p0.s4 State: stale D: d5 Size: 1004
MB
S lvmr1.p0.s0 State: up D: d6 Size: 2007
MB
S lvmr1.p1.s0 State: up D: d7 Size: 2007
MB
root(at)nudel lvmr5> ps auxww |grep cp
root 12 98.7 0.0 0 12 ?? RL Fri05PM 2575:21.09 (idle:
cpu0)
root 11 97.0 0.0 0 12 ?? RL Fri05PM 2574:59.70 (idle:
cpu1)
root 22792 0.0 0.0 300 108 p0 D+ 2:16PM 0:00.01 cp
/mnt/files/didum .
root 22816 0.0 0.1 472 292 p1 R+ 2:18PM 0:00.02 grep cp
root(at)nudel lvmr5> kill 22792
root(at)nudel lvmr5> kill -9 22792
root(at)nudel lvmr5> kill -9 22792

das cp war nach dem "Plattenausfall" gestartet. (Was ja durchaus real
ist). Nur haengt jetzt das cp. Und ein forcierter unmount klappt auch
nicht. Kommt mir vor wie nfs mit ausgefallenem NFS-Server ;)

Wie bekomm ich das Array denn jetzt rebuildet? SCSI-2 ist ja offiziell
nicht wirklich hot-plug faehig. Also muesste ich das System runterfahren,
und die Platte austauschen... Nur ich kann mich weder remote, noch auf der
console einloggen... Ich panic das system gerade mal zum dump-anschauen...

Hm.. was hab ich falsch gemacht?

-- 
 Oliver Lehmann
        @home: lehmann(at)ans-netz.de
      @office: oliver.lehmann(at)mgi.de
         @www: http://www.pofo.de/  |  http://wishlist.ans-netz.de/
To Unsubscribe: send mail to majordomo.FreeBSD.org
with "unsubscribe de-bsd-questions" in the body of the message
Received on Sun 05 Oct 2003 - 14:30:14 CEST

search this site