PeterP86
Contributor
Contributor

Symulacja awarii programowego raidu

Witam,

Próbuję symulować stworzenie raidu programowego przy pomocy systemu Debian 6.0 Squeeze. Zanim zaczynam instalację dokładam cztery dyski po 2 GB każdy. Następnie ustawiam RAID0. Gdy system juz działa, usuwam dyski z ustawień maszyny wirtualnej. Nie widzę, żadnego efektu, żadnych błędów. Czy taka symulacja jest możliwa?

0 Kudos
7 Replies
inleo
Leadership
Leadership

A jak sprawdzasz? cat /proc/mdstat?

http://blog.inleo.pl @maciejlelusz
PeterP86
Contributor
Contributor

Zrobiłem kilka obrazków. Poszedłem trochę dalej. Sytuacja podobna - robię programowy RAID10 podczas instalacji Debiana 6.0 Squeeze. Poniżej screeny:

winditup.ovh.org/vmware/01.png - Dyski przed partycjonowaniem;

winditup.ovh.org/vmware/02.png - Dyski po partycjonowaniu;

winditup.ovh.org/vmware/03.png - Po utworzeniu RAID10;

Poniżej przedstawiam screen z $cat /proc/mdstat

winditup.ovh.org/vmware/04.png

Dla podsumowania:

/dev/sdb1 (active)
/dev/sdc1 (active)
/dev/sdd1 (hot-spare)
/dev/sde1 (hot-spare)

schemat macierzy: n2

Następnie próbuję symulować awarię. Odpinam kolejno dyski spod ustawień maszyny wirtualnej. "Uruchamiają się" dyski hot-spare, wszystko jest dobrze. Gdy wypnę dwa dyski HS i kolejny z RAIDu, nie dostaje żadnych ostrzeżeń.

Poniżej kilka komunikatów po odpięciu dysków:

winditup.ovh.org/vmware/05.png - Wpis z /proc/mdstat po odpięciu pierwszego dysku;

winditup.ovh.org/vmware/06.png - Wpis z /proc/mdstat po odpięciu drugiegodysku dysku;

winditup.ovh.org/vmware/07.png - Wpis przy starcie systemu po wypięciu trzeciego dysku;

winditup.ovh.org/vmware/08.png - Wpis z /proc/mdstat po odpięciu trzeciego dysku;

Odpięcie ostatniego dysku:

winditup.ovh.org/vmware/09.png - Wpis z /proc/mdstat po odpięciu czwartego dysku;

0 Kudos
inleo
Leadership
Leadership

na obrazku 08 widać że macierz dyskowa jest niekompletna... daj jeszcze konfigurację gruba/lilo, bo wydaje mi sie ze ty mozesz nie startować z raidu, tylko bezpośrednio z urzadzenia.

http://blog.inleo.pl @maciejlelusz
0 Kudos
PeterP86
Contributor
Contributor

Tak dokładnie. System jest zainstalowany na osobnym dysku /dev/sda więc nie startuję z raidu. Jak dojść do konfiguracji gruba?

0 Kudos
inleo
Leadership
Leadership

W takim razie wydaje sie ze wszytko jest ok. bo kiedy wypinasz dyski, hotspare zastępuje urzadzenia które znikły, natomiast kiedy zaczynasz odpinac hot-spare zaczynają one znikac z proc/mdstat pojawia się [U_], to znaczy ze niema jednego dysku... nie wiem natomiast tylko czy normalne jest, że jak odepniesz juz wszystkie dyski to czy konsola proc/mdstat nie powinna przypadkiem wypluć informacji zawierającej [__] a nie pustą. Tymniemniej wydaje sie ze wszytko gra bo tak naprawde raid dziala, reaguje na twoje zmiany związane z dyskami.

http://blog.inleo.pl @maciejlelusz
0 Kudos
PeterP86
Contributor
Contributor

Chyba jednak średnio to działa ale z innego powodu. Gdy użyje komendy mdadm --detail /dev/md0 dostaję informacje odnośnie aktywnych dysków i dysków typu spare. Gdy odpinam z maszyny kolejno dyski, w mdadm --detail /dev/md0 pojawiają się informacje, że raid jest clear, degenerated i że dyski były removed a nie failed. Stąd też brakuje wpisu że, któryś z dysków jest oznaczony jako failed. Może nie da się tego pod maszyną wirtualną zasymulować?

0 Kudos
TomPreg
Contributor
Contributor

Jestem nieobecny w pracy w dniu 16-05-2011. Pilne sprawy proszę kierować na skrzynkę AdministratorzyNT. Tomek Pręgowski

0 Kudos