VMware Global Community
fernandogonzale
Contributor
Contributor

Problema de lentitud en instalación de ESXi 5.0 en HP Blade

Hola.

Tengo 4 Blades HP idénticos  modelo BL45p G1.

He actualizado los dos primeros desde 4.1 U1 a 5.0 sin ninguna incidencia. En los dos primeros tenía montado entre otras VMs, un cluster MSCS con 2 VMs.

El caso es que cuando he ido a actualizar el tercero, me he encontrado que el proceso de instalación se alargaba de forma supina. La primera gran parada -aprox. 45 minutos- la hace en el proceso de upgrade, mostrando "vmw_satp_eva loaded sucessfully".

Posteriormente inicia la instalación y se queda en scanning....

Scanning for available devices. This may take a few seconds.


El caso es que recordé que cuando actualicé estos servidores de 4.0 a 4.1 algo similar me encontré que pude solventar modificando un parámetro

Scsi.CRTimeoutDuringBoot a 1

Este parámetro ya no existe en 5.0 y por tanto no se puede solventar así el tema. He encontrado un artículo donde más o menos especifica el problema, y en el que la solución pasa por

http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=101610...

En ella debo identificar las RDM LUNs y ejecutar para cada una de ellas el siguiente commando:

esxcli storage core device setconfig -d <naa.id> --perennially-reserved=true

El caso es que me gustaría preguntar si alguien se ha encontrado con este problema y ya ha aplicado esta solución, antes de hacerlo.

¿Puede existir algún problema si aplico dicho comando, para las RDM LUNs de la cabina de fibra?

También he visto que hay una actualización relacionada pero con respecto a LUNS iSCSI, en la que es necesario descargarse un parche.

¿Pueden estar relacionada?

Entiendo que mi caso no, ya que ya se quedaba 45 minutos con el "vmw_sat_eva loaded sucessfully"

Gracias por todo.

0 Kudos
3 Replies
FerrerDeCouto
Commander
Commander

Hola Fernando:

Tal vez podamos ver algo más a través de los logs, cuando te ocurra eso (quedarse parado en ese servicio) vete a la tty12 que aparece el log de todo lo que está ocurriendo por detrás.

Un saludo.

José Luis Gómez Ferrer de Couto Founder of PiPo e2H Blog: http://blog.e2h.net Si encuentras que esta o cualquier otra respuesta fue de utilidad, por favor da el voto. Gracias. If you find this or any other answer useful, please consider awarding points. Thank you.
fernandogonzale
Contributor
Contributor

Hola FerrerdeCouto.

Gracias por contestar.

Te adjunto pantallazo de los logs durante el arranque. Yo creo que la problemática se ajusta bastante a lo comentado en el artículo de la KB. De hecho en 4.1 tuve la misma incidencia pero se resolvía modificando simplemente un comando en la configuración del propio host vsphere.

Con 5.0 esto no es posible y hay que atacar con un comando cada una de las LUNs RMD detectadas por cada host.

El caso es que me extraña que nadie se haya encontrado con esta problemática, y por otro lado antes de ejecutar la solución propuesta, quería asegurarme que no tenga ningún tipo de incidencia en la propia LUN, y en el funcionamiento de los clusters MSCS,

Saludos y gracias.

0 Kudos
fernandogonzale
Contributor
Contributor

Comento el tema finalmente por si le puede ser útil a algún otro compañero.

Mi problemática se solventó tras aplicar el comando indicado abajo para cada una de las LUNs RDM que intervienen en los clusters MSCS con VM alojada s en el host.

esxcli storage core device setconfig -d <naa.xxxxxxxx.....xxxxxxx> --perennially-reserved=true
Este comando es para cada una de las LUNs RDM y en cada uno de los hosts que tienen VMs que intervienen en el cluster.
La información completa en:
Una vez apliqué los comandos en dicho host para cada una de las LUNs RDM, ya el proceso de arranque se normalizó y no se eternizó.
0 Kudos