Lo scrivo perchè ci sono incappato personalmente e poi non è piacevole.
Non fate mai un disco di una vm della grandezza pari al limite massimo del datastore !!! Lasciate sempre qualche GB libero (almeno 3GB per un disco di 256 GB)
I datastore sono limitati dalla grandezza del blocco definito in fase di installazione iniziale o comunque di formattazione . Un datastore con blocchi da 1MB puo essere al massimo 256GB . Se volete metterci un disco di una VM, non fatelo di 256 GB, ma più piccolo , al massimo 253, altrimenti le snapshot falliranno ! Questo perchè in fase di snapshot c'è un piccolo overhead e l'hypervisor non riuscrebbe a mettere la snapshot nello stesso datastore in cui c'è il file di configurazione della VM.
Provare per credere
in effetti tempo fa si discusse su come scegliere la dimensione dei blocchi in fase di formattazione. Se non erro saltò fuori che non conveniva formattare con la dimensione minima ma, anzi, tanto vale scegliere la massima o quella immediatamente inferiore.
I datastore sono riempiti con "pochi file grossissimi" quindi lo spreco che si ha con dimensione di blocco alta è insignificante.
In realtà lo spazio minimo indicato va bene unicamente per inizializzare la snapshot, ma poi va anche considerato lo spazio che questa snapshot prenderà per crescere mentre memorizza le modifiche, a meno che non si pensi di committare subito dopo la stessa snapshot.
Solitamente un più prudente dimensionamento dovrebbe prevedere al massimo un'occupazione del 75-80% del datastore almeno per quelle dimensioni di datastore stesso.
Per quanto indica Tinto, tutto decade però se si passa a VMFS 5, dove indipendentemente dalla dimensione della lun tutto viene formattato con block size di 1 Mb (dato dal passaggio da MBR a GPT).
Ciao,
Luca.
e passando a GPT si può superare il limite di 2 TB per datastore ![]()
Oltre al discorso snapshot, c'è anche un altro aspetto da considere: il file di swap.
Serve spazio libero per crearlo e accendere la VM.
