Skip navigation
2012
Skyrod7 Expert

White Papers от vKernel

Posted by Skyrod7 Feb 27, 2012

Два vCenter Server в Linked-mode. Случайно заметил, что при подключение vClient'a к VC01, состояние второго vc в vCenter Server Status недоступно. Status:Alert, Messages:Unable to retrieve health data from https://VC02.local:8443/vws/Health

1.jpg

При подключении клиента к второму VC - все а порядке.

2.jpg

Непонятно. Правда срабатыванию триггера предшествовал странный "Unexpected Shutdown" в логах Windows VC02

Skyrod7 Expert

Adaptec и ESXi5

Posted by Skyrod7 Feb 23, 2012

Вдохновило вот это

Допилили наконец с горем пополам мониторинг. Качаем драйвер и CIM-провайдер. Кидаем с помощью WinSCP файлы aacraid-esxi5.0-1.1.7.28700.zip и vmware-esx-provider-arcconf.vib на локальный датастор. Геморрой непобедим, поэтому устанавливаем хост в режим CommunitySupported:

Работать можно через vCLI, vMA, мне же проще через Putty, надо только в Security запустить ESXi Shell и SSH.

1.jpg

Теперь ставим драйвер и перегружаемся

2.jpg

После ребута загадочным образом теряется локальный датастор, но впадать в панику мы не будем, а сделаем Add Storage

3.jpg

Оставляем сигнатуру

4.jpg

После чего локальный датастор возвращается.

Теперь устанавливаем CIM-провайдер

5.jpg

Потом правим файрвол

6.JPG

Теперь инсталлим утилиту Remote Arcconf на клиентскую машину, указываем наш таргет

7.jpg

Всё. В командной строке вводим arcconf и получим набор команд

8.jpg

Смотрим версии драйвера и фирмваре

9.jpg

А вот так получаем расклад по контроллеру, рэйду и жестким дискам

10.jpg

Неудобно, но хоть что-то.

 

 

 


Skyrod7 Expert

Performance Troubleshooting

Posted by Skyrod7 Feb 21, 2012

Бесплатное издание VMware vSphere 5 - гипервизор ESXi5 имеет много ограничений по сравнению со старшими, платными, изданиями.

Эти ограничения многократно описывались и обсуждались, но новичкам может помочь.

Итак, какие основные ограничения у бесплатной версии:

Число физических ЦПУ. В актуальной, 5-й версии vSphere таких ограничений НЕТ. Бесплатный гипервизор ESXi5 можно использовать на любом количестве серверов с любым количеством ЦПУ.

Объем физической памяти (pRAM). Ограничение в 32ГБ pRAM на физический хост.

Объем виртуальной памяти (vRAM). Виртуальным машинам (ВМ), исполняемым бесплатным гипервизором, можно указать до 32ГБ виртуальной памяти. Это ограничение не строгое. Если указать виртуальным машинам памяти >32ГБ, то в дело вступит Memory Overcommitment, виртуальные машины работать будут. Но VMware EULA нарушено будет.

Управление. Как писалось выше, бесплатный гипервизор можно использовать на любом количестве физических хостов. Но централизованного управления этими хостами нет. С помощью входящего в бесплатное издание vSphere Client мы можем подключиться к определенному хосту для управления ВМ на нем. Если у нас несколько хостов, то управлять ими мы может только поочередно. Например, для того чтобы управлять 2 хостами ESXi5 надо установить с ними 2 отдельных сессии vSphere Client.

Относительно хранилищ таких ограничений нет. То есть, ВМ с разных бесплатных гипервизоров без проблем могут работать на одном разделяемом общем хранилище. Доступ организуется по iSCSI, NFS или FC. Но использовать возможности централизованного управления как в платных изданиях, такие как vMotion, Storage vMotion, DRS, HA мы не сможем.

Другие ограничения. Интерфейс коммандной строки (CLI) работает в режиме "только чтение", что не позволит использовать решения для резервного копирования, например Veeam.

 

Что дальше?

Чаще всего бесплатный гипервизор ESXi используется для некритичных задач или же для тестирования технологий виртуализации. После окончания периода изучения\тестирования или при необходимости каких-то расширенных возможностей перейти на старшее, платное, издание очень просто. Достаточно только купить лицензию. Переинсталляции гипервизора не требуется.

Для сегмента малого и среднего бизнеса (SMB) существуют готовые пакеты (Kits)- сравнить. Самые дешевые версии (Essentials и Essentials Plus) кроме лиицензий непосредственно на хосты, включают в себя средство централизованного управления - vCenter Server, способный управлять 3 хостами ESXi (строгое ограничение). Данные издания также ограничиваются использованием 3 хостов ESXi с 2 ЦПУ на борту. Общий объем виртульной памяти на издание\kit (vRAM Entitlement) ограничен 192ГБ (строго). Essentials Plus Kit кроме централизованного управления хостами и ВМ имеет такие полезные возможности, как HA (High Availability- при выходе из строя одного из хостов кластера запускает ВМ с него на другом хосте), vMotion (перенос работающей ВМ на другой хост без простоя), Data Recovery (готовое решение резервного копирования ВМ и файлов гостевых ОС).

 

Оригинал статьи

NetApp, как известно, рулит. А кроме того нетапповцы пишут хорошие брошюрки, которые приятно читать не только счасливым обладателям этих СХД. В декабре прощлого года вышла 3-я версия брошюры "NetApp Storage Best Practices for VMware vSphere".

http://blogs.vmware.com/.a/6a00d8341c328153ef016761ff4ef0970b-800wi

Новость увидел тут. А тут блог одного из авторов брошюры.

 

P.S. Пришла на почту ссылка на еще одну брошюрку - NetApp and VMware View Solution Guide

Отсюда.

Надо знать.

        По умолчанию, понятно, их нет. Нигде в GUI их задать также нельзя. Можно через правку .vmx-файла. C vmxnet3 совсем просто, достаточно поменять только строку ethernet0.virtualDev = "e1000" на ethernet0.virtualDev = "vmxnet3". Для PVSCSI предлагают вот такое решение.

        Я же создал ВМ под Win2008R2, поменял в .vmx-файле на строку scsi0.virtualDev = "pvscsi" , зашел по WinSCP на ESXi, выдернул из /vmimages/floppies образ дискетки с драйвером pvscsi-Windows2008.flp подсунул её в вирт.дисковод. В начале инсталляции Windows наш контроллер, само собой, не увиделся, указал дискету - и поехало.

        После установки ОС PVSCSI-контроллер увиделся в Device Manager'e сразу, для осознания vmxnet3 пришлось поставить VMware Tools.

paravirt.jpg

Какой от этого практический профит - неизвестно.

Виртулизация шагает широко и теперь мы можем не только запускать x64-гостей на "гостевых" ESXi5, но и использовать эти самые "гостевые" хосты в полноценном EVC-кластере. Разумеется, официально такая конфигурация VMware не поддерживается, да и вряд ли кто-то будет это делать кроме как в тестовой инфраструктуре.

Шаманство заключается в правке CPUID Mask нашего виртуального ESXi.

http://4.bp.blogspot.com/-dvfgKGHFi9I/TzQVWqYMGTI/AAAAAAAAC5I/iliCCFc_pRs/s320/vesxi-evc-3.png

Вот здесь William Lam все расписал.

Заграничный коллега Carlo Castanzo столкнулся с любопытным явлением.

Если зайдя на vCenter5 увидите в левом поле Hosts and Clusters многочисленные значки ошибок наших ВМ, то не стоит сразу паниковать. Если на вкладке Alarms все чисто, то это уже известный баг. Саппорт рекомендует vMotion. У автора был олько один хост и ему помог Storage vMotion.

http://lh6.ggpht.com/-oT2WwUMBDxQ/TzGCjvzSjpI/AAAAAAAAF4E/qNHTqaCfbrY/image%25255B13%25255D.png?imgmax=800