Skip navigation

Blog Posts

Total : 3,986

Blog Posts

1 2 Previous Next

External info: https://blogs.vmware.com/euc/2018/08/workspaceone-intelligent-hub.html

 

 

 

 

 

Internal info below…….

 

 

Greetings,

 

The Workspace ONE Intelligent Hub for iOS and Android will begin rollout very shortly (see below).  Soon customers will begin seeing updates on enrolled devices in production.

 

Here are some basics you should know to help you be ready in case customers have questions or need help.

 

 

Help with Escalations

==========

 

If a customer encounters a critical bug or other issue during or after the rollout, the BU will be 24/7 on-call via Slack: #hub-ga-war-room.  This group will be open until November 9th and is to augment the normal GSS ticketing process and is to help ensure questions are getting answered as quickly as possible. 

 

When contacting this channel we ask that you provide:

  • The GSS SR #
  • Customer Information
  • Description
  • Severity
  • Hub internal FAQ

前回はネステッド vSAN のイメージ(下記)を紹介したので、

今回はセットアップ手順での工夫についての紹介です。

図解 ネステッド vSAN ラボ。

 

一般的には、ESXi の Host Client や vSphere Client / vSphere Web Client といった

GUI のツールを利用することが多いと思います。

しかし、検証環境は様々なバージョン / 構成でセットアップすることが多いはずなので、

ここでは、パラメータ記録や自動化をしやすいように PowerCLI などを積極的に利用します。

 

最初にネステッド vSAN 環境のベースとなる 物理マシンの ESXi と、vCenter Server を用意します。

1box-vsan-11a.png

 

1-1. 物理マシンへの ESXi のインストール。

物理マシンへの ESXi のインストールは、通常どおり ISO イメージから作成した CD ブートです。

マシンの管理ボードなどから ISO ファイルをマウントできる場合は、ISO イメージそのものから、

PXE サーバを用意している場合は、Kickstart でインストールすることができます。

 

一般的には、インストール方法にかかわらず ISO イメージでインストールしたうえで

オフラインバンドル(zip ファイル)のパッチを適用することになります。

今回は ESXi 6.7 U1 の ISO を利用していて、その後のパッチは(まだないので)適用していませんが、

あらかじめ下記のようにオフラインバンドルファイルから

ISO イメージファイルを作成しておくと、インストール直後にパッチ適用された状態になるので便利です。

ESXi のオフライン バンドルから ISO イメージ ファイルを作成してみる。

 

1-2. 物理マシンの設定。

今回、ESXi インストール直後に、下記の ESXi 設定変更のみ実施しておきます。

  • ネットワーク設定。(IP アドレス、サブネットマスク、デフォルトゲートウェイ)
  • 時刻あわせ。NTP を設定して確実に時刻同期をするか、Host Client や esxcli などで手動で設定変更します。
    • ESXi の都合上、UTC(JST マイナス9時間)で設定します。
      これは、VCSA のデプロイ時に時間がずれていると失敗してしまうためです。

 

データストア名や仮想スイッチ / ポートグループの構成は、

この時点ではデフォルトのままです。

これらの設定変更は、この ESXi を vCenter 管理下にしたあとで実施します。

 

1-3. VCSA のデプロイ。

vCenter Server Appliance(VCSA)をデプロイします。

VCSA は、何度もデプロイするような場合は vcsa-deploy による CLI インストール(下記のような)がおすすめです。

VCSA 6.7 を CLI デプロイしてみる。(embedded-PSC x2 の Enhanced Linked Mode)

 

vcsa-deploy コマンドのオプションと、インストールで利用する JSON ファイルは、

VCSA 6.7 以前 / 以降 のバージョンでパラメータが異なります。

ちなみに VCSA 6.5 形式の JSON ファイルは、VCSA 6.7 でも利用できました。

 

本番環境での VCSA のデプロイは、FQDN でのホスト名指定が事実上必須ですが、

ラボのとりまわしをよくするためにホスト名のかわりに IP アドレスを指定して

デプロイすることもあります。(DNS サーバへの vCenter アドレス登録を省略できるので)

 

ちなみに複数、同名の VCSA をデプロイすると、証明書のエラーにより

Chrome などのブラウザで vSphere Web Client / vSphere Client が

表示できなくなることがあります。

その場合は、以前の投稿にも記載しましたが・・・

VCSA 6.5 U1 を CLI デプロイしてみる。(vCenter + embedded-PSC)

下記の要領で解消できることもあります。

ちなみに、何度も同じ名前で vCenter をデプロイしていると Chrome / Microsoft Edge で

証明書のエラーになり HTML5 Client / vSphere Web Client にアクセスできなくなることがありますが、

その場合はデプロイした VCSA の CA 証明書を(Firefox などアクセスできるブラウザで何とかダウンロードして)

インストールするとアクセス可能になります。

※その場合、証明書は「https://vCenterのアドレス/certs/download.zip」からダウンロードできます。

 

1-4. VCSA への物理マシン ESXi の登録。

デプロイした vCenter のインベントリにクラスタを作成して、物理マシンの ESXi を登録します。

せっかくなので PowerCLI 11 を利用します。

 

まず、PowerCLI で ESXi に接続します。

今回の vCenter のアドレスは「192.168.1.30」です。

管理ユーザなどのパスワードは、あえてデモ用としてよく知られているものを利用しています。

vCenter の SSL 証明書を入れ替えていないので、エラー回避のため「-Force」が必要です。

PowerCLI> Connect-VIServer 192.168.1.30 -User administrator@vsphere.local -Password VMware1! -Force

 

vCenter インベントリに、データセンター「LAB-DC」を作成します。

PowerCLI> Get-Folder -Type Datacenter | New-Datacenter LAB-DC

 

物理マシン ESXi を登録するクラスタ「MGMT-Cluster」を作成します。

ここではクラスタは必須ではないですが、せっかくなのでそれっぽく作成しています。

PowerCLI> Get-Datacenter LAB-DC | New-Cluster MGMT-Cluster

 

クラスタ「MGMT-Cluster」に、物理マシン ESXi「192.168.1.20」を登録します。

ここでも SSL エラー回避のため「-Force」が必要です。

PowerCLI> Get-Cluster MGMT-Cluster | Add-VMHost -Name 192.168.1.20 -User root -Password VMware1! -Force

 

次は vCenter からの操作で、物理マシン ESXi のうえに

ネステッド ハイパーバイザむけの ESXi と VM の準備をします。

 

つづく。

vSAN の機能検証などで、ネステッド ハイパーバイザ環境を利用することがあります。

そこで、1台の物理マシンに vSAN 環境をセットアップした様子を紹介します。

 

今回の環境構築の方針。

今回は、下記のような vSAN 環境をセットアップします。

  • 物理マシンは 1台のみ利用する。
  • スペックは下記。
    • CPU: 4コア / 8スレッド(ただし 8スレッド必須というわけではない)
    • メモリ: 32GB
    • ディスク: 500GB SSD x 1つだけ
    • NIC: 1Gbps を 1ポートだけ
  • ネステッド ハイパーバイザ環境のベースになる物理サーバの ESXi も、vCenter に登録する。
    • これは、vCenter に登録したほうが ESXi / VM の管理をしやすいため。
  • vCenter は vSAN クラスタ(vSAN データストア)の外に配置する。
    • vCenter を vSAN データストア上に配置することもできるが、
      まず vSAN そのものを勉強するためには vSAN 外にある方がよいと思うので。
  • vCenter Server 6.7 U1 / ESXi 6.7 U1
    • せっかくなので最新版を利用する。

nest-vsan-01.png

 

物理マシン ESXi / ネステッド ESXi の関係。

この環境では、物理マシンの ESXi 上の VM に ESXi をインストールしています。

前スクリーンショットの vCenter インベントリでのネステッド ESXi(Nest-ESXi)と

VM の関係を図示すると、下記のようになります。

  • 物理マシン ESXi には、下記を配置します。
    • vCenter(仮想アプライアンスである VCSA を利用)
    • ESXi をインストールする VM(ESXi VM)3台
    • ESXi VM のテンプレート
  • 物理マシン ESXi に配置している VM へのリソース割り当ては下記にしました。
    • vCenter: VCSA の「極小」(Tiny)スペック。vCPU: 2、メモリ: 10GB
    • ESXi VM: vCPU: 2、メモリ: 6GB、VMDK: 16GB。(これを 3VM作成)
  • 物理マシン ESXi 1台は MGMT-Cluster に登録します。
    • Nest-ESXi の実体となる ESXi VM は、こちらのクラスタで見えます。
  • Nest-ESXi のインストールは、だいたい下記のいずれかになるはずです。
    • 物理 ESXi のデータストアに格納した ISO ファイルを、
      ESXi VM の仮想 CD/DVD ドライブに接続してインストール。
    • PXE Boot によるネットワーク経由での Kickstart インストール。
  • 物理マシン ESXi 側でインストールした Nest-ESXi 3台は、vSAN-Cluster に登録します。

1box-vsan-01.png

ESXi VM はそれぞれ ESXi をインストールするか、

あらかじめ ESXi をインストールした VM をテンプレート(クローン元 VM)を利用します。

今回の ESXi VM では、下記のような設定をします。

  • ゲスト OS の種類は「ESXi 6.5 以降」を選択。
  • CPU で「ハードウェア アシストによる仮想化をゲスト OS に公開」のチェックを入れる。
  • 起動オプション → ファームウェアは BIOS にする。

nest-vsan-04.png

 

ストレージ(データストア / VMDK)の関係。

Nest-ESXi のローカルディスクで vSAN データストアを構成しますが、

その実体は、ESXi VM に接続された VMDK ファイルです。

(下図では Nest-ESXi が1台ですが、実際は 3台で vSAN データストアを構成します)

 

Nest-ESXi で vSAN 構成後にそのうえで VM (図の Nest-VM)を作成すると、

当然ながら、その VMDK もネストされることになります。

1box-vsan-03.png

ネットワーク(vSwitch / ポートグループ / vNIC)の関係。

Nest-ESXi 上で VM(Nest-VM)を作成した場合、Nest-VM の vNIC では、

自身のものとは異なる MAC アドレス / VLAN の通信が発生します。

 

デフォルトの状態ではそのような通信ができないため、
物理マシン ESXi 側で、下記の設定をします。

  • Nest-ESXi を接続するポートグループを追加します。
    • 今回は Nested-Trunk-Network という名前で作成。
    • シンプルに、標準仮想スイッチ(vSS)の、標準ポートグループで作成。
  • 作成したポートグループで、無差別モードを許可する。
    • これで 自身の MAC アドレス以外の通信も受け取るようになる。
    • MAC アドレス変更 / 偽装転送 は、標準ポートグループでは許可されているので、そのまま。
  • 作成したポートグループで、VLAN ID 4095 を設定する。
    • これで 物理 ESXi のポートグループで VLAN ID を付与したまま通すようになり、
      Nest-ESXi 側のポートグループで VLAN ID を付与できるようになります。

 

Nest-ESXi 側では、とくにネストしていることを意識することなく

ネットワークを構成します。

vSAN では VMkernel(vmk)ポートで vSAN トラフィックを有効にする必要がありますが、
これは Nest-ESXi 側だけで設定します。

1box-vsan-04.png

物理 ESXi で作成したポートグループに、すべての ESXi VM の vNIC を接続します。

nest-vsan-03.png

 

作成したポートグループでは、下記のように

無差別モードを有効化、VLAN ID 4095 を設定しています。

nest-vsan-02.png

 

環境構築自体は、ネストであるかどうかにかかわらず、

一般的な vSphere Client(旧 HTML5 Client)や vSphere Web Client での操作となります。

また、ラボを頻繁に構築するようであれば PowerCLI などによる自動化もできます。

 

構築 Tips につづく・・・かもしれない

steps.PNG

We believe there are some clear steps to evolve to a digital foundation. Most likely, you’ve virtualized your servers – many companies have virtualized 75% or more. You may also be using public clouds for a variety of use cases: the most common include test/dev and backup and recovery. Chances are, however, that your public cloud workloads are quickly becoming another silo to manage, and it’s not at all integrated with your on-prem workloads. Your data center is complicated, the cloud is making IT even more so. How do you transform to a unified experience with a digital foundation?

 

We believe there are clear steps forward. The first you’ve likely already done by virtualizing your servers with a hypervisor. The next step is to modernize your infrastructure through hyper-convergence with vSAN, then add networking and advanced management capabilities with NSX and vRealize. Finally, extend your SDDC to public cloud and the edge to build a Digital Foundation for a true hybrid cloud architecture, integrating your currently siloed public cloud workloads and adding more over time.

 

HCI eliminates the silos of three tier architecture and enables centralized management of compute, storage and networking resources. You’ve likely already realized the benefits of policy based management with compute resources, automatically provisioning VMs. Within the same vSphere Client, admins can now manage their storage infrastructure and govern policies down to the VM level. You can turn on FIPS 140-2 validated encryption with a single click, protect data with erasure coding, and reduce capacity up to 7x with dedupe and compression.

 

vSAN also offers high availability through stretch clusters. vSAN, with enrollment in the Customer Experience Improvement Program, also offers proactive support through over fifty health checks integrated into workflows to prevent

 

HCI clusters are managed with vCenter, the same tool used to manage vSphere, and customers can manage global deployments from a central location. vRealize Operations offers advanced monitoring, troubleshooting and capacity management.

 

Networking virtualization is also embedded in the hypervisor, and NSX can automate their network processes to deliver fast, consistent, and secure provisioning of resources. In fact, IT can blueprint entire network topologies and rapidly deploy on demand.

Finally, all of these capabilities can run seamlessly in the public cloud, creating a true hybrid cloud architecture.

vsan vum.PNG

Extending vSAN-VUM integration to host I/O controller firmware

 

vSAN 6.6 started to attack firmware update for the first time for HCI customers because firmware is one of the key components in vSAN HCL. But vSAN UI is not the ideal place to automate firmware update, VUM should be the recommended product and UI that drive this because it's the product that all VMware customers are familiar with and use for ESXi software upgrade and patching.

 

With this feature, we are moving the existing firmware update features for a few supported controllers from vSAN to be under VUM, centralizing all things related to ESX upgrade/patching including driver/firmware updates.

 

Dell, Lenovo, SuperMicro, and Fujitsu ReadyNodes

  • Including Dell HBA330 platforms

Built-in HCL health checks and release notifications

Upload custom ISOs for OEM-specific builds

Manually upload release catalog for offline vCenter environments

powercli11.PNG

PowerCLI 11.0.0 has been released and there are a ton of fantastic new additions. Over 20 new cmdlets have been added to help automate vCloud Director networking, virtual TPM settings, Host Profile configurations, and VMware Cloud on AWS networking. More than 10 cmdlets have been enhanced to add newly released features. Plus, a handful of updates to improve the overall quality and reliability.

 

There are also a handful of updates which are all due to community feedback! There has been an update to the output when using New-VM combined with the ‘Confirm’ parameter so that the output matches that of the created VM. An update to Get-View has been added to help resolve a Vim error being received when the ‘Property’ parameter was specified. Another fix was when Get-VM would result in an error of ‘Value cannot be null’. The last big issue, there has been an update to the way Get-NetworkAdapter outputs a NSX-T logical network backed portgroup.

 

PowerCLI 11.0.0 comes with the following updates:

  • Added a new Security module
  • Added new cmdlets for Host Profiles
  • Added a new cmdlet to interact with NSX-T in VMware Cloud on AWS
  • Support for vSphere 6.7 Update 1
  • Support for NSX-T 2.3
  • Support for Horizon View 7.6
  • Support for vCloud Director 9.5
  • Multiplatform support for the Cloud module
  • Updated the Get-ErrorReport cmdlet
  • Removed the PCloud module
  • Removed the HA module

VCF.PNG

VMware Cloud Foundation makes operating the data center fundamentally simpler by bringing the ease and automation of the public cloud in-house by deploying a standardized and validated architecture with built in lifecycle automation for the entire cloud stack. With security being one of the top priorities for the datacenter,

 

VMware Cloud Foundation includes end to end security built into every level of the infrastructure, from micro-segmentation at the networking layer down to encryption at the storage layer. And for those looking to extend to the public cloud,


VMware Cloud Foundation can be consumed as-a-service through our cloud service provider partners including VMware Cloud on AWS, IBM, Rackspace, and others – enabling a true hybrid cloud based on a common and compatible platform that stretches from on premises to off premises.

LogBrowser is disabled 6.5 onwards and is not longer available in Flex/H5 client. This was made as part of the last set of improvements of the Flex Client prior to 6.5 GA. Log browser was removed and is not available afterwards.

 

Feature is not part of vSphere Client (HTML5).

 

Official documentation to be updated very soon on VMware websites. Tentative dates for the documents and articles to be updated is post the release of vSphere 6.7 U1.

 

Hence, this post concludes that though the feature might work on a few builds of vSphere 6.5 - they are not officially supported.

VMSA-2018-0025 にて、 VM の 3D サポート機能にかかわる

セキュリティ脆弱性が公表されました。

 

よい機会なので、PowerCLI で VM の設定状況を確認してみます。

ただし、この「3D サポートを有効化」はデフォルトでは無効になっています。

そこで今回の環境では意図的に有効にしています。

 

まず、今回は 10台の VM を用意しました。

PowerCLI> Get-VM | Sort-Object Name

 

 

Name                 PowerState Num CPUs MemoryGB

----                 ---------- -------- --------

test-vm-001          PoweredOn  1        4.000

test-vm-002          PoweredOn  1        4.000

test-vm-003          PoweredOn  1        4.000

test-vm-004          PoweredOn  1        4.000

test-vm-005          PoweredOn  1        4.000

test-vm-006          PoweredOn  1        4.000

test-vm-007          PoweredOn  1        4.000

test-vm-008          PoweredOn  1        4.000

test-vm-009          PoweredOn  1        4.000

test-vm-010          PoweredOn  1        4.000

 

 

このうち1台の VM の設定を確認してみます。

対象の仮想デバイスの設定を確認する専用コマンドが見つけられなかったので、

とりあえず VM「test-vm-010」の ExtensionData からデバイスの情報を探ると

Key = 500 が Video Card だとわかるので、その情報を見てみます。

PowerCLI> $vm = Get-VM test-vm-010

PowerCLI> $vm.ExtensionData.Config.Hardware.Device | select Key,{$_.DeviceInfo.Label}

 

  Key $_.DeviceInfo.Label

  --- -------------------

  200 IDE 0

  201 IDE 1

  300 PS2 controller 0

  100 PCI controller 0

  400 SIO controller 0

  600 Keyboard

  700 Pointing device

  500 Video card

12000 VMCI device

1000 SCSI controller 0

15000 SATA controller 0

16000 CD/DVD drive 1

2000 Hard disk 1

4000 Network adapter 1

 

 

この VM の Video Card は、Enable3DSupport が True になっていることがわかりました。

PowerCLI> $vm.ExtensionData.Config.Hardware.Device | where {$_.key -eq 500}

 

VideoRamSizeInKB       : 16384

NumDisplays            : 1

UseAutoDetect          : False

Enable3DSupport        : True

Use3dRenderer          : automatic

GraphicsMemorySizeInKB : 262144

Key                    : 500

DeviceInfo             : VMware.Vim.Description

Backing                :

Connectable            :

SlotInfo               :

ControllerKey          : 100

UnitNumber             : 0

 

 

Enable3DSupport は、下記のように確認することもできます。

PowerCLI> ($vm.ExtensionData.Config.Hardware.Device | where {$_.key -eq 500}).Enable3DSupport

True

PowerCLI> Get-VM test-vm-010 | %{($_.ExtensionData.Config.Hardware.Device | where {$_.key -eq 500}).Enable3DSupport}

True

 

まとめて複数の仮想マシンの情報を確認することもできます。

PowerCLI> Get-VM | select Name,@{N="Enable3DSupport";E={($_.ExtensionData.Config.Hardware.Device | where {$_.key -eq 500}).Enable3DSupport}} | Sort-Object Name

 

 

Name        Enable3DSupport

----        ---------------

test-vm-001           False

test-vm-002           False

test-vm-003           False

test-vm-004            True

test-vm-005            True

test-vm-006           False

test-vm-007            True

test-vm-008            True

test-vm-009            True

test-vm-010            True

 

 

下記のように、Enable3DSupport  = True の VM だけ抽出することもできます。

PowerCLI> Get-VM | select Name,@{N="Enable3DSupport";E={($_.ExtensionData.Config.Hardware.Device | where {$_.key -eq 500}).Enable3DSupport}} | where {$_.Enable3DSupport -eq "True"} | Sort-Object Name

 

 

Name        Enable3DSupport

----        ---------------

test-vm-004            True

test-vm-005            True

test-vm-007            True

test-vm-008            True

test-vm-009            True

test-vm-010            True

 

 

また、今回の設定のように .vmx パラメータの設定によるものであれば、

シンプルに Get-AdvancedSetting で確認できるケースもあります。

PowerCLI> Get-VM | Get-AdvancedSetting -Name mks.enable3d | select Entity,Value | Sort-Object Entity

 

Entity      Value

------      -----

test-vm-004 TRUE

test-vm-005 TRUE

test-vm-007 TRUE

test-vm-008 TRUE

test-vm-009 TRUE

test-vm-010 TRUE

 

 

このように、PowerCLI を利用することで、簡単に、大量 VM の設定確認ができます。

 

ちなみに、今回の実行環境は Windows PowerShell + PowerCLI 11.0.0 です。

PowerCLI> Get-Host | select Version

 

Version

-------

5.1.17134.228

 

PowerCLI> Get-Module VMware.PowerCLI | select Version

 

Version

-------

11.0.0.10380590

 

 

以上、PowerCLI による VM 情報取得例でした。

Hello All,

 

If you're planning to use VMware Converter for VM Migration from One DC To Another, then you should make following changes before you start the migration.

( Note # You have to have a good WAN Link between the 2 sites ) and it also depends on How Busy your storage array is.

 

1. You have to Disable SSL in VMware Converter To Speed up the process.

  • Take a backup of the converter-worker.xml file. ...
  • Open the converter-worker.xml file using a text editor.
  • Locate the tag pair <useSsl></useSsl>. ...
  • Change the value to false.
  • Save and close the file.
  • Restart the VMware vCenter Converter Standalone Worker service on the machine.

 

2. Set the Number of Data Connections per Task ( Set it to Maximum ) When we clone multiple disks and volumes in parallel, each data transfer uses a separate TCP connection, so we can use this option during next migration and see how it help us.

When you clone multiple disks and volumes in parallel, each data transfer uses a separate TCP connection.

Procedure

  1. On the main menu, select Administration > Data Connections per Task.
  2. Select the number of concurrent data connections.
  3. Click OK.

Hope this helps.

Thanks & Regards

-Praneet J

This is occuured when upgrade VCSA6.0 to VCSA 6.5 if vpostgress have customize DB

 

connect with VCDB

 

VMware Knowledge Base

 

run command

 

VCDB=# \dv

 

Check how many view item there , then cascade it.

 

Test to manually suppress VPXV_VMS view in VCDB

VCDB=#

VCDB=# DROP VIEW IF EXISTS VPXV_VMS;

ERROR:  cannot drop view vpxv_vms because other objects depend on it

DETAIL:  view "DCS_BV_VIEW3" depends on view vpxv_vms

HINT:  Use DROP ... CASCADE to drop the dependent objects too.

VCDB=# DROP VIEW IF EXISTS VPXV_VMS CASCADE;

NOTICE:  drop cascades to view "DCS_BV_VIEW3"

DROP VIEW

VCDB=# DROP VIEW VPXV_VMS;

ERROR:  view "vpxv_vms" does not exist

VCDB=# \q

root@VC [ /var/log/vmware/vpxd ]#

 

 

 

 

Getting the below error while starting the vCenter services.

vmware-vpxd: Waiting for vpxd to start listening for requests on 8089

Waiting for vpxd to initialize: ..........................................................Fri Aug 17 15:00:05 EDT 2018 Captured live core: /var/core/live_core.vpxd.2804.08-17-2018-15-00-05

[INFO] writing vpxd process dump retry:2 Time(Y-M-D H:M:S):2018-08-17 19:00:03

.Fri Aug 17 15:00:16 EDT 2018 Captured live core: /var/core/live_core.vpxd.2804.08-17-2018-15-00-16

[INFO] writing vpxd process dump retry:1 Time(Y-M-D H:M:S):2018-08-17 19:00:15

.failed

failed

vmware-vpxd: vpxd failed to initialize in time.

vpxd is already starting up. Aborting the request.

 

Stderr =

2018-08-17T19:00:26.608Z {

"resolution": null,

"detail": [

{

"args": [

"Command: ['/sbin/service', u'vmware-vpxd', 'start']\nStderr: "

],

"id": "install.ciscommon.command.errinvoke",

"localized": "An error occurred while invoking external command : 'Command: ['/sbin/service', u'vmware-vpxd', 'start']\nStderr: '",

"translatable": "An error occurred while invoking external command : '%(0)s'"

}

    ],

    "componentKey": null,

"problemId": null

}

ERROR:root:Unable to start service vmware-vpxd, Exception: {

"resolution": null,

"detail": [

{

"args": [

"vmware-vpxd"

],

"id": "install.ciscommon.service.failstart",

"localized": "An error occurred while starting service 'vmware-vpxd'",

  "translatable": "An error occurred while starting service '%(0)

 

Solution need to check domain controller connectivity between VC/PSC

 

cpu2:32999)0x4390c119b660:[0x4180163128c3]VTDQISync@vmkernel#nover+0xf7 stack: 0x1

cpu2:32999)0x4390c119b6a0:[0x4180163137b2]VTDIRWriteIRTE@vmkernel#nover+0x8e stack: 0x2e

cpu2:32999)0x4390c119b6d0:[0x418016313895]VTDIRSteerVector@vmkernel#nover+0x61 stack: 0x43004d129f10

cpu2:32999)0x4390c119b700:[0x4180162e96c9]IOAPICSteerVector@vmkernel#nover+0x59 stack: 0x1c00

cpu2:32999)0x4390c119b740:[0x418016057514]IntrCookie_SetDestination@vmkernel#nover+0x174 stack: 0x4

 

VMware Knowledge Base

In the vpxd.log file, you see entries similar to:

 

2012-04-02T13:07:49.438+02:00 [02248 info 'Default' opID=66183d64] [VpxLRO] -- BEGIN task-internal-252 -- -- vim.SessionManager.acquireSessionTicket -- 52fa8682-47e0-2566-fb05-6192cb2c22f9(5298e245-ffb6-f7f8-e8a0-dedfbe369255)
2012-04-02T13:07:49.579+02:00 [02068 info 'Default'] [VpxLRO] -- BEGIN task-internal-253 -- host-94 -- VpxdInvtHostSyncHostLRO.Synchronize --
2012-04-02T13:07:49.579+02:00 [02068 warning 'Default'] [VpxdInvtHostSyncHostLRO] Connection not alive for host host-94
2012-04-02T13:07:49.579+02:00 [02068 warning 'Default'] [VpxdInvtHost::FixNotRespondingHost] Returning false since host is already fixed!
2012-04-02T13:07:49.579+02:00 [02068 warning 'Default'] [VpxdInvtHostSyncHostLRO] Failed to fix not responding host host-94
2012-04-02T13:07:49.579+02:00 [02068 warning 'Default'] [VpxdInvtHostSyncHostLRO] Connection not alive for host host-94
2012-04-02T13:07:49.579+02:00 [02068 error 'Default'] [VpxdInvtHostSyncHostLRO] FixNotRespondingHost failed for host host-94, marking host as notResponding
2012-04-02T13:07:49.579+02:00 [02068 warning 'Default'] [VpxdMoHost] host connection state changed to [NO_RESPONSE] for host-94
2012-04-02T13:07:49.610+02:00 [02248 info 'Default' opID=66183d64] [VpxLRO] -- FINISH task-internal-252 -- -- vim.SessionManager.acquireSessionTicket -- 52fa8682-47e0-2566-fb05-6192cb2c22f9(5298e245-ffb6-f7f8-e8a0-dedfbe369255)
2012-04-02T13:07:49.719+02:00 [02068 info 'Default'] [VpxdMoHost::SetComputeCompatibilityDirty] Marked host-94 as dirty.

 

This issue may occur if heartbeat packets are not received from the host before the one minute timeout period expires. These heartbeat packets are UDP packets sent over port 902.

 

This issue may also occur when the Windows firewall is enabled and the ports are not configured.

 

Resolution

To resolve this issue, check the Windows Firewall on the vCenter Server machine. If ports are not configured, disable the Windows Firewall.

 

If ports are configured, verify if network traffic is allowed to pass from the ESXi/ESX host to the vCenter Server system, and that it is not blocking UDP port 902.

 

To perform a basic verification from the guest operating system perspective:
  1. Click Start > Run, type wf.msc, and click OK. The Windows Firewall with Advanced Security Management console appears.
  2. In the left pane, click Inbound Rules.
  3. Right-click the VMware vCenter Server -host heartbeat rule and click Properties.
  4. In the Properties dialog, click the Advanced tab.
  5. Under Profiles, ensure that the Domain option is selected.

VMware Knowledge Base

 

 

In the /var/log/hostd.log file, you see entries similar to:

Failed to get physical location of SCSI disk: Failed to get location information for naa.600c0ff00025d308b29de55501000000lsu-hpsa-plugin Unknown error

 

  • The /var/log/vpxa.log file contains errors similar to:
YYYY-MM-DDT<time> warning vpxa[7DD7FB70] [Originator@6876 sub=hostdcnx] [VpxaHalCnxHostagent] Could not resolve version for authenticating to host agent</time>
YYYY-MM-DDT<time> verbose vpxa[FFD40AC0] [Originator@6876 sub=hostdcnx] [VpxaHalCnxHostagent] Creating temporary connect spec: localhost:443</time>
YYYY-MM-DDT<time> verbose vpxa[FFD40AC0] [Originator@6876 sub=vpxXml] [VpxXml] Error fetching /sdk/vimServiceVersions.xml: 503 (Service Unavailable)</time>
YYYY-MM-DDT<time> warning vpxa[FFD40AC0] [Originator@6876 sub=Default] Closing Response processing in unexpected state: 3</time>
This issue occurs when the upgrade replaces the new esx-base, but keeps the higher version of the lsu plugins
This issue is resolved in VMware ESXi 6.0 Update 3
VMware Knowledge Base
1 2 Previous Next

Actions

Looking for a blog?

Can't find a specific blog? Try using the Blog page to browse and search blogs.