VMware Global Community
tatuxp
Contributor
Contributor
Jump to solution

Infrastructure pour Haute disponibilité

Bonjour à tous!

Actuellement en stage, mon porjet consiste à mettre en oeuvre de la haute disponibilité vmware afin de la déployer par la suite.

Après pas mal de temps sur les tuto, j'ai vu que pour mettre un systeme de haute disponibilité, il fallait 2 Serveurs ESX, une baie SAN en minimum.

Par la suite, la solution Vmotion me parait etre la mieux. Afin que Vmotion fonctionne il faut mettre en place vCenter Server intégré dans un domaine.

Ma question est de savoir combien de carte il faut pour les serveurs ESX? D'apres mes recherches, j'en ai 3: 1 LAN, 1 SAN et 1 pour Vmotion si je ne me trompe pas.

Ensuite la question qui se pose, c'est ou placer vCenter? Le placer dans une VM ou en physique?

D'apres ce que j'ai lu, le mieux serait de le mettre dans une VM. Alors dans ce cas, est-il possible de mettre le controleur de domaine aussi dans une VM ou faut-il que lui soit en physique en prenant en compte la possibilité d'indisponibilité.

Une autre question: Faut-il privilégier la version ESX avec une licence ou une version ESXi est-elle suffisante?

Je vous remercie à l'avance si quelqu'un aurait une opinion.

0 Kudos
1 Solution

Accepted Solutions
FranckRookie
Leadership
Leadership
Jump to solution

Salut Tatuxp,

Bienvenue sur les forums VMware.

Pour la virtualisation d'un DC Windows, tu peux trouver pas mal d'infos dans ce document:

Tu ne peux pas monter un cluster avec la version gratuite de vSphere. Tu auras plus d'info dans les FAQ:

Pour la config réseau, ça dépend aussi beaucoup de ton infrastructure physique. Si tu as des réseaux physiques séparés, il te faut deux ports physiques par réseau pour la redondance. Si tu n'as qu'un seul gros switch en sortie et que tu utilises des VLANs, tu trunk les ports et tu peux mettre tes cartes en redondance les unes des autres. Tu as un bon document qui présente les grands principes des réseaux virtuels ici:

Enfin pour tes VMs DC, le fait d'en avoir deux et d'utiliser des règles d'anti-affinité te permet de toujours en avoir une disponible même si l'un des noeuds du cluster tombe.

Bon courage!

A+

Franck

View solution in original post

0 Kudos
15 Replies
EricMonjoin
Expert
Expert
Jump to solution

Pour les cartes réseaux, tout dépand si ton SAN est en FC ou iSCSI

Dans le cas du FC ce qui est recommandé :

4 Nics 1Gb ou 2 Nics 10Gb et 2 HBA FC

Solutions à 4 Nics 1Gb

2 sur le vSwitch 0 pour Management Network et vMotion

2 sur le vSwitch 1 pour les VM

Solutions à 4 Nics 1Gb

2 sur le vSwitch 0 ensuite du dVSwitch + Network IO Control

Dans le cas d'un SAN iSCSI où tu utilise des cartes Ethernet, tu ajoute alors 2 NICS suplémentaire sur des switchs dédiés

Attention vMotion ne fait pas de haute disponiblité il est utilisé pour migré les VMs à chaud.

Les produits utilisé pour de la  "haute disponiblité" au niveau des VM sont (chacun ayant leur spécificité) :

VMware HA

VMware FT

VMware SRM

Pour le vCenter il est recommandé de l'installer dans une VM, pour les DC : soit tu en a un physique, soit tu en mets 2 virtuels en placant 1 DC par ESX avec des règles d'anti-affinité.

Eric

tatuxp
Contributor
Contributor
Jump to solution

Je vous remercie pour votre réponse rapide.

Vous dites que 2 cartes sur un vswitch pour management network et vMotion.

D'après ce que j'ai lu, il fallait un vSwitch VMkernel Port Group pour Vmotion. Ce n'est pas exact?

Si l'on veut faire la fonctionnalité FT, ne faut-il pas une carte réseau dédiée avec un VMKernel FT logging sur chaque serveur?

Pour une petite infrastructure, je partirais plus sur 3 Nics et 1 FC ou iSCSI pour un serveur ESX.

1Nic  sur Vswitch0pour LAN

1NIC Vswitchpour Vmotion

1 NIC pour les VM

Est-ce correct pour une petite infra?

Cependant avec cette solution, nous n'avont pas d'équilibrage de charge.

La version ESXi suffit-elle pour une petite infrastructure ou faut-il une version ESX?

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

J'aurais encore une autre question si vous me le permettez.

Si on ne dispose pas de serveur physique pour le DC-DNS, pourquoi a t'on besoin d'1 VM DC par ESX?

Pourquoi utilise t'on de règles anti-affinité? Je ne comprend pas pourquoi. Pourriez-vous m'expliquer svp.

Je vous remercie à l'avance.

0 Kudos
FranckRookie
Leadership
Leadership
Jump to solution

Salut Tatuxp,

Bienvenue sur les forums VMware.

Pour la virtualisation d'un DC Windows, tu peux trouver pas mal d'infos dans ce document:

Tu ne peux pas monter un cluster avec la version gratuite de vSphere. Tu auras plus d'info dans les FAQ:

Pour la config réseau, ça dépend aussi beaucoup de ton infrastructure physique. Si tu as des réseaux physiques séparés, il te faut deux ports physiques par réseau pour la redondance. Si tu n'as qu'un seul gros switch en sortie et que tu utilises des VLANs, tu trunk les ports et tu peux mettre tes cartes en redondance les unes des autres. Tu as un bon document qui présente les grands principes des réseaux virtuels ici:

Enfin pour tes VMs DC, le fait d'en avoir deux et d'utiliser des règles d'anti-affinité te permet de toujours en avoir une disponible même si l'un des noeuds du cluster tombe.

Bon courage!

A+

Franck

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

Je vous remercie beaucoup pour toutes vos informations.

C'est un peu compliqué d'arriver sur un poduit qu'il faut étudier et mettre en place.

En fait, mon stage porte sur la haute disponibilité d'une infrastructure et mise en place dans un environnement de test.

J'ai l'impression que l'implémentation d'un DC primaire et secondaire en VM est un peu compliqué à mettre en place pour un environnement de test.

Quel est le mieux? VIrtualiser le DC primaire et secondaire, ou mettre un DC physique et un secondaire virtuel pour qu'un prenne la relève.

J'ai lu qu'il fallait déplacer les rôles FSMO pour palier à tout éventuel problème.

Merci pour la documentation.

A+

0 Kudos
FranckRookie
Leadership
Leadership
Jump to solution

Que ce soit en physique ou en virtuel, le processus de mise en place de ton infra AD est à peu près le même. Et en cas de crash de la machine qui détient les rôles FSMO, les opérations de bascule seront identiques.

Si ton infra virtuelle est en place, il est dommage d'installer un autre serveur uniquement pour un DC. D'autant plus que ce genre de machine ne demande vraiment pas beaucoup de ressources. Dans un environnement virtuel, on essaye d'éviter au maximum de dédier une machine physique à une seule application. On ne le fait que dans les cas imposés par l'utilisation de matériels spécifiques "non virtualisables" ou bien si un fournisseur refuse de supporter son application dans une VM.

En conclusion, je mettrais tout en virtuel. D'autant plus que c'est pour du test.

Bon courage.

A+

Franck

tatuxp
Contributor
Contributor
Jump to solution

Merci Franck pour tes infos précieuses.

A présent, j'ai un autre problème: l'entreprise veut que je fasse une maquette avec 2 ESX et de la migration.

En fesant un plan avec les ressources nécessaires, je me retrouve avec un serveur ESX disposant de 4 NIC:

1 pour le SAN

1 pour la migration Vmotion

1 pour la communication entre Vm

1 pour le réseau LAN

Seulement, le problème est que l'entreprise ne dispose pas de PC permettant de mettre 4 NIC sur la motherboard.

Est-il possible de faire fonctionner ESX, les VM, et la migration Vmotion sur la meme carte NIC 1G car ne disposent pas de 10G?

Bien que je ne pense pas soit conseillé.

Je vous remercie à l'avance.

0 Kudos
FranckRookie
Leadership
Leadership
Jump to solution

Si c'est pour un test et que tu n'as pas d'autre choix, tu peux toujours essayer. Limite au maximum les autres flux réseau concurrents. Par exemple, si tu déplaces une VM d'un ESX sur l'autre, évite que cette VM ne consomme trop de mémoire ou fasse de gros transferts par le réseau au même moment. Mais tu vas vraiment avoir de mauvaises perfs. Deux cartes réseau, c'est un minimum pour ce type de config.

Ca risque de ne pas faire une bonne pub pour la solution, alors qu'avec une config plus conséquente, ça marche vraiment bien.

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

Je te remercie Frank

Je sais que 2 cartes minimum me donnera des performances pas super mais c'est pour des tests et voir les fonctionnalitées de Vmware disponibles et leur fonctionnements.

Je me retrouve avec un autre probleme et la je ne sais pas d'ou ca peut venir:

lorsque j'essaye d'installer ESXi ou ESX, je me retrouve avec un écran noir, une fois que les modules sont chargés. J'ai essayé en mode graphique et en mode intéractif.

le fonctionnalité intel VT est activé dans le BIOS et Hyperthread désactivé.

Au niveau de la configuration du PC, c'est un HP 3130, core i3 8Go RAM.

Vous auriez une idée svp?

merci d'avance

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

A premiere vue, en fesant une install en mode texte, la carte NIC n'est pas reconnue car c'est du realtek et au niveau de la compatibilité sur le site http://www.vmware.com/resources/compatibility/search.php?deviceCategory=io, je ne trouve pas ce constructeur.

Y a t'il moyen de construire son propre cd de driver pour ESX: custom driver cd, ou doit-on changer de marque ?

Merci

0 Kudos
EricMonjoin
Expert
Expert
Jump to solution

Perso je te conseil d'ajouter une carte reconnu de type Intel (tu en trouve des pas cher pour desktop à 30€ comme par exemple :

http://www.ldlc.com/fiche/PB00095919.html

sinon : http://blog.spreendigital.de/2009/07/27/how-to-create-an-esxi-v4-whitebox-iso-with-windows-tools/

Eric

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

Je vous remercie infiniment pour vos réponses.

J'ai un petit soucis.

J'ai installé Vcenter en VM et dès que je rajoute une carte VMkernel, je me retrouve avec une passerelle par défaut. En la supprimant manuellement dans les options de la carte, elle revient automatiquement. Y aurait-il un autre endroit dans les options pour enlever la passerelle par défaut de revenir ou l'enlever completement?

Je vous remercie à l'avance.

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

Bonjour à tous!

J'ai bien avancé malgré certaines difficultées de mise en oeuvre.

Pour la haute disponibilité, j'ai réussi à mettre en place les Vm dans un cluster HA et DRS. Cependant j'ai encore quelques petits soucis de configuration: en effet, vcenter me dis qu'il ne peut pas contacter l'adresse d'isolation. D'après ce que j'ai pu comprendre, ca correspond à la gateway des ESX. Je me demandais qu'elle adresse mettre? L'adresse du routeur je suppose.Je suis en environnement de test donc je n'ai pas de routeur.

Lors de l'essai de la fonctionnalité HA, migration de Vm, il me dis :" ressources insuffisantes pour satisfaire un niveau de basculement pour HA".

Je pense que ca doit venir du fait que j'ai sur la machine physique un Windows 2008 qui virtualise 2 ESX avec Workstation.

Sinon, pour des applications critiques comme une base de données ou une messagerie, je pense que la fonctionnalité FT est la plus utile. Cependant, je ne peut pas la mettre en place car il me dis que mon CPU n'est pas supporté pour FT. Bien évidemment, c'est un intel core i3.

Je me demandais si vous n'auriez pas des infos sur les processeurs minimum pour supporter cette fonctionnalité ou un pré-requis pour FT. J'ai bien cherché sur le net, et j'ai bien trouvé quelque chose mais je ne comprend pas comment le lire: http://blogs.nelite.com/blogs/sbutreau/archive/2010/02/12/vmware-fault-tolerance-tenants-et-aboutiss....

Je vous remercie à l'avance.

0 Kudos
FranckRookie
Leadership
Leadership
Jump to solution

Salut Tatuxp,

L'adresse d'isolation est utilisée quand des ESX en cluster ne peuvent plus communiquer entre eux, pour identifier si l'un d'eux est effectivement isolé du reste du monde. Il faut donc prendre l'adresse d'un élément très sûr qu'on est certain de joindre dans pratiquement toutes les situations. Dans un lab, ça peut être un simple PC sur le réseau que tu ne toucheras pas pendant les tests.

Pour le message des ressources insuffisantes, peut-être que tes ESXs n'ont pas assez de mémoire ou de CPU.

Pour la liste des CPUs qui supportent la fonction FT, tu peux consulter ce document:

A+

Franck

0 Kudos
tatuxp
Contributor
Contributor
Jump to solution

Je vous remercie tous pour vos réponses qui m'ont vraiment aidé.

J'ai configuré un cluster HA-DRS avec 2 serveurs ESX sans soucis. Il me dis bien qu'il n'a pas assez de ressources mais à la rigueur ce n'est pas trop grave. Mais voila, il ne veut pas faire la migration de la VM avec son redémarrage.

J'ai suivi la doc à l'adresse http://kb.vmware.com/selfservice/microsites/search.do?cmd=displayKC&docType=ex&bbid=TSEBB_1295981318...

mais ca ne m'a rien donné. J'avais bien un problème de temps sur les ESX mais c'est réglé et au niveau du firewall les ports sont bien ouverts et les 2 ESX pointent bien vers le même SAN.

Vous auriez une idée svp?

Je vous remercie à l'avance.

0 Kudos