Contributor
Contributor

Вопрос по конфигурации VDS

Vcenter 5.1

Cуществует 2 кластера: низкопродуктивный и высокопродуктивный. В низкопродуктивном кластере, серверы имеют по 2 гигабитных порта. В высокопродуктивном - по 4 гигабитных порта. Хочется "посадить" все серверы обеих кластеров на один VDSwitch. Будет ли правильной такая конфигурация uplink-ов ?

:

Uplink name
Portgroups
1. iSCSI_AiSCSI_A
2. iSCSI_B

iSCSI_B

3.Man-Data1ESX_Management,{all data vlans},vMotion
4.Man-Data2ESX_Management,{all data vlans},vMotion
5.iSCSI_AMan-Data1iSCSI_A,ESX_Management,{all data vlans},vMotion
6.iSCSI_AMan-Data2iSCSI_B,ESX_Management,{all data vlans},vMotion

Аплинки 1-4 для высокопродуктивного кластера.

Аплинки 5,6 для низкопродуктивного кластера.

Концептуальная схема:

Vmware-Network-Scheme_vm4ru.png

Tags (2)
0 Kudos
7 Replies
Virtuoso
Virtuoso

Суперглубоко в схему не вникал, но с виду всё нормально. С первого взгляда ошибок не вижу.

А в чем конкретно вопрос, что смущает?

VCP5
0 Kudos
Contributor
Contributor

Допустим, что есть Portgroup c VLAN id 10. Этот VLAN доступен на 3-6 аплинках. Если в teaming and failover этой портгруппы указать активными аплинками 3-6, а load balancing - Route based on phisical nic load, будет ли корректно работать балансировка между 3 и 4 аплинком(которые относятся к высокопродуктивному кластеру) и 5 - 6 аплинками(которые относятся к низкопродуктивному кластеру) ?

0 Kudos
Enthusiast
Enthusiast

По поводу схемы: 1) непонятно зачем veeam и starwind включены обоими интерфейсами в 1 свитч. Должны быть включены в разные для отказоустойчивости и балансировки.(В разные вланы соответстветственно). 2) Я бы обсудил покупку 3х сетевых карты по 4порта в сервера "высокопродуктивного кластера", а освободившиеся двухпортовые адаптеры вставил бы в сервера "низкопроизводительного кластера", получив таким образом нужные интерфейсы, чтобы освободить коммутаторы iSCSI от трафика данных. Так будет правильно.. А то у вас все коммутаторы получается друг друга видят, а для ip SAN желательна изоляция.

По поводу конфигурации vDS:  6 аплинков Вам не ннадо, у Вас в сервере то максимум 4 аплинка. Я бы так сделал: у серверов "высокопродуктивного кластера" iSCSI трафик пустил бы по стандартному виртуальному свичу (незачем iSCSI vDS)(это по 2 интерфейса на сервер), а vDS  сделал бы с всего двумя аплинками, по которым пустил бы весь трафик, сроме iSCSI (поделив по вланам, кончно).

0 Kudos
VMware Employee
VMware Employee

Не касаясь изменений в аппаратной части, внесу свои 5 копеек.

Концептуально, vDS подразумевает унификацию настроек сетевой составляющей гипервизора.

Конфигурация портгрупп ваших двух наборов хостов, действительно одинакова (или очень похожа). А вот среди аплинков нет ни одного одинакового (у высокопроизводительной группы функции разнесены по разным парам; у G5ых - совмещены).

В связи с этим два вопроса:

1) Стоит ли задача объёденить все 6 хостов в единый кластер на уровне vSphere?

2) Если нет и нужна только балансировка по нагрузке физических аплинков, то почему бы не обединить каждую однотипную группу хостов в свой кластер со своим vDS?

Contributor
Contributor

1) Нет

2) Действительно нужна балансировка физических аплинков. Но, не хотелось создавать два vDS потому, что будет нужна миграция между кластерами и  соответственно, между двумя vDS. Не хотелось бы использовать так называемые "трансферные свичи" http://www.v-front.de/2012/02/how-to-smoothly-migrate-vm-from-one-dvs.html

0 Kudos
Expert
Expert

ну и мои "5 копеек":

Если необходимости в одном кластере нет, презентуйте один диск обоим кластерам, называйте в рамках 2-х VDS одинаково порт группы (это опционально, для порядка так сказать) и мигрируйте (естественно офлайн) через add/remove inventory

0 Kudos
Contributor
Contributor

VM прописаны в vApp, до бэкапов, к папкам, к тегам, к ресурсам и тд. Надо это помнить при переносе ВМ с одного кластера в другой. Не удобно в большой инфраструктуре.

P.S. и надо делать отдельные Датацентры, потому что в пределах одного нельзя на 2 vDS иметь одинаковые названия vlan'ов