Skip navigation
2017

ためしに vCenter Server Appliance 6.0 (VCSA)  を、Datadog に登録してみました。

 

Datadog は、Datadog 社による 性能情報やイベントのモニタリングができるクラウドサービスです。

 

VMware vSphere のモニタリングにも対応しているようです。

Datadog-VMware Integration

Datadog-VMware Integration  (英語)

https://www.datadoghq.com/blog/unified-vsphere-app-monitoring-datadog/ (英語)

 

今回の環境について。

今回は、VCSA 6.0 U3 を使用しています。

Command> system.version.get

Version:

   Product: VMware vCenter Server Appliance

   Installtime: 2017-04-02T04:55:33 UTC

   Summary: VMware vCenter Server Appliance 6.0 Update 3

   Releasedate: February 23, 2017

   Version: 6.0.0.30000

   Build: 5112509

   Type: vCenter Server with an embedded Platform Services Controller

 

VCSA 6.0 は、SUSE Linux をベースとしています。

Command> shell.set --enabled True

Command> shell

    ---------- !!!! WARNING WARNING WARNING !!!! ----------

Your use of "pi shell" has been logged!

The "pi shell" is intended for advanced troubleshooting operations and while

supported in this release, is a deprecated interface, and may be removed in a

future version of the product.  For alternative commands, exit the "pi shell"

and run the "help" command.

The "pi shell" command launches a root bash shell.  Commands within the shell

are not audited, and improper use of this command can severely harm the

system.

Help us improve the product!  If your scenario requires "pi shell," please

submit a Service Request, or post your scenario to the

https://communities.vmware.com/community/vmtn/vcenter/vc forum and add

"appliance" tag.

 

vc02:~ # uname -n

vc02.go-lab.jp

vc02:~ # cat /etc/SuSE-release

SUSE Linux Enterprise Server 11 (x86_64)

VERSION = 11

PATCHLEVEL = 3

 

なお、この VCSA からは自宅ラボにあり、直接インターネットに出ることができます。

Datadog Agent インストール。

インストールは、DD_API_KEY を指定しつつ、curl コマンドで取得したスクリプトを実行します。
ちなみに このコマンドラインと DD_API_KEY は、Datadog の無料体験の登録時などにわかります。

vc02:~ # DD_API_KEY=182b0~ bash -c "$(curl -L https://raw.githubusercontent.com/DataDog/dd-agent/master/packaging/datadog-agent/source/install_agent.sh)"

 

スクリプトの内容は下記でわかります。

dd-agent/install_agent.sh at master · DataDog/dd-agent · GitHub

 

これで、Datadog Agent の RPM がインストールされました。

vc02:~ # rpm -qa | grep datadog

datadog-agent-5.13.2-1

 

デフォルトで Agent は起動します。

vc02:~ # chkconfig --list datadog-agent

datadog-agent             0:off  1:off  2:on   3:on   4:on   5:on   6:off

vc02:~ # service datadog-agent status

Datadog Agent (supervisor) is running all child processes

 

Datadog Agent 連携用ユーザの作成。

 

Datadog 連携用のユーザとして、今回は datadog-user@vsphere.local ユーザを

vCenter のもつ PSC のローカルユーザとして作成しています。

dd-01.png

 

作成したユーザには、vCenter の「読み取り専用」ロールを付与しています。

dd-02.png

 

Datadog Agent の連携設定。

Datadog Agent に含まれる /etc/dd-agent/conf.d/vsphere.yaml.example ファイルをもとに、
設定ファイルを作成します。

 

今回は下記のようにしました。

vc02:~ # vi /etc/dd-agent/conf.d/vsphere.yaml

vc02:~ # chown dd-agent:dd-agent /etc/dd-agent/conf.d/vsphere.yaml

vc02:~ # grep -E -v "#|^$" /etc/dd-agent/conf.d/vsphere.yaml

init_config:

instances:

  - name: vc02-home

    host: vc02.go-lab.jp

    username: 'datadog-user@vsphere.local'

    password: 'パスワード'

    ssl_verify: false

 

Datadog Agent を再起動します。

vc02:~ # service datadog-agent restart

* Stopping Datadog Agent (stopping supervisord) datadog-agent            [ OK ]

* Starting Datadog Agent (using supervisord) datadog-agent               [ OK ]

 

これで、vSphere の情報が Datadog に情報が転送されるようになります。
Datadog の Web UI (下記は Infrastructure → Infrastructure List を開いた画面)から、

VCSA と(赤枠のもの)、その vCenter が管理する ESXi と VM が自動検出されたことがわかります。
VM は、起動されているもののみ表示されるようです。

dd-03.png

 

以上、VCSA 6.0 を Datadog に登録してみる話でした。つづくかもしれない・・・

PowerCLI で vCenter / ESXi に接続する Connect-VIServer は以前に接続したサーバを記録していて、

「-Menu」オプションで過去に接続したサーバを表示、選択して接続することができます。

PowerCLI> Connect-VIServer -Menu

 

下記のような感じになります。

powercli-menu-01.png

 

このサーバリストは、PowerShell からみて下記のパスにあります。

$HOME\AppData\Roaming\VMware\PowerCLI\RecentServerList.xml

 

XML ファイルを見てみると、下記のような感じになっています。

Server ごとに指定されている Position の数字が、-Menu での表示順です。
すでに表示されない(おそらく 10件をこえたもの)は、Position 属性が削除されています。

<ServerList>

  <CurrentMonth>May</CurrentMonth>

  <Server Name="vc60n01.godc.lab" January="0" February="0" March="0" April="0" May="0" June="8" July="3" August="0" September="0" October="0" November="0" December="0" Position="1" />

  <Server Name="vc55n01.godc.lab" January="0" February="0" March="0" April="0" May="0" June="0" July="0" August="0" September="0" October="0" November="0" December="0" />

  <Server Name="vc60n02.godc.lab" January="0" February="0" March="0" April="0" May="0" June="3" July="2" August="0" September="0" October="0" November="0" December="0" Position="3" />

  <Server Name="192.168.5.75" January="0" February="0" March="0" April="0" May="0" June="0" July="0" August="0" September="0" October="0" November="0" December="0" />

  <Server Name="vc01.godc.lab" January="1" February="9" March="1" April="0" May="0" June="0" July="4" August="2" September="2" October="0" November="4" December="1" Position="5" />

  <Server Name="vc02.godc.lab" January="0" February="0" March="0" April="0" May="0" June="0" July="2" August="0" September="0" October="0" November="0" December="0" Position="6" />

  <Server Name="vcsa50-01.godc.lab" January="0" February="0" March="0" April="0" May="0" June="0" July="0" August="0" September="1" October="0" November="0" December="0" Position="7" />

  <Server Name="192.168.1.71" January="0" February="0" March="0" April="0" May="0" June="0" July="0" August="0" September="1" October="0" November="0" December="0" Position="8" />

  <Server Name="vc65-1.go-lab.jp" January="1" February="4" March="3" April="0" May="0" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="9" />

  <Server Name="vc-sv01.go-lab.jp" January="0" February="0" March="4" April="9" May="10" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="10" />

  <Server Name="vc02.go-lab.jp" January="0" February="0" March="0" April="1" May="0" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="2" />

  <Server Name="vc-sv02.go-lab.jp" January="0" February="0" March="0" April="0" May="4" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="4" />

</ServerList>

 

見やすく 接続先サーバ(Name)と Position を抜粋すると、下記のようになっています。

PS C:\> $sv_list = [xml](gc $HOME\AppData\Roaming\VMware\PowerCLI\RecentServerList.xml)

PS C:\> $sv_list.ServerList.Server | sort {[int]$_.Position} | ft -AutoSize Name,Position

 

 

Name               Position

----               --------

192.168.5.75

vc55n01.godc.lab

vc60n01.godc.lab   1

vc02.go-lab.jp     2

vc60n02.godc.lab   3

vc-sv02.go-lab.jp  4

vc01.godc.lab      5

vc02.godc.lab      6

vcsa50-01.godc.lab 7

192.168.1.71       8

vc65-1.go-lab.jp   9

vc-sv01.go-lab.jp  10

 

最近使用してる vCenter 2台を残して、削除してみました。

<ServerList>

  <CurrentMonth>May</CurrentMonth>

  <Server Name="vc-sv01.go-lab.jp" January="0" February="0" March="4" April="9" May="10" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="1" />

  <Server Name="vc-sv02.go-lab.jp" January="0" February="0" March="0" April="0" May="4" June="0" July="0" August="0" September="0" October="0" November="0" December="0" Position="2" />

</ServerList>

 

Connect-VIServer -Menu を実行してみると、2台だけ表示されるようになりました。

powercli-menu-02.png

 

ちなみに、不要になったサーバを Position=""  とするとリストを読まなくなるようで、
XML ファイルを編集してサーバを削除するには
今回のように Server 要素ごと削除するか、Position 属性を削除する必要があるようです。

 

なお、今回は PowerCLI 6.5 Release 1 を Windows 10 で実行しています。

PowerCLI C:\> (Get-PowerCLIVersion).UserFriendlyVersion

VMware PowerCLI 6.5 Release 1 build 4624819

 

検証環境などで多数の vCenter に接続する場合には「-Menu」オプションが便利かもしれません。

 

以上、PowerCLI の -menu リストを更新してみる話でした。

VIC では、ESXi から Virtural Container Host (VCH) に対して ESXi Firewall のルール設定が必要です。

Environment Prerequisites for VCH Deployment · VMware vSphere Integrated Containers 1.1 Documentation

 

VIC 1.0 のときは下記のような感じで、悩ましい設定をしていました。

vSphere Integrated Containers (VIC) 1.0 むけの ESXi Firewall Rule 設定。

 

VIC 1.1 では、VIC で必要となる ESXi Firewall ルールの解放設定も、

vic-machine コマンドで実行できるようになっています。

 

 

それでは、ESXi Firewall を開放してみます。

 

VIC 1.1 の vic-machine-linux コマンドを使用してみます。

[gowatana@client01 vic]$ ./vic-machine-linux version

vic-machine-linux version v1.1.0-9852-e974a51

 

今回は、「vc-sv02.go-lab.jp」という vCenter の「cluster-01」クラスタにある ESXi の Firewall ルール設定を変更します。

vic-machine では、vCenter の thumbprint の指定をしないと下記のようなエラーになります。

[gowatana@client01 vic]$ ./vic-machine-linux update firewall --target vc-sv02.go-lab.jp --user gowatana --allow --compute-resource cluster-01

May 16 2017 08:58:11.738+09:00 INFO  vSphere password for gowatana:

May 16 2017 08:58:15.814+09:00 INFO  ### Updating Firewall ####

May 16 2017 08:58:15.857+09:00 ERROR Failed to verify certificate for target=vc-sv02.go-lab.jp (thumbprint=70:45:F3:C7:~省略)

May 16 2017 08:58:15.858+09:00 ERROR Update cannot continue - failed to create validator: x509: certificate signed by unknown authority

May 16 2017 08:58:15.858+09:00 ERROR --------------------

May 16 2017 08:58:15.858+09:00 ERROR vic-machine-linux update firewall failed: update firewall failed

 

thumbprint の指定をしつつ、ESXi Firewall を通信許可(allow)に設定します。
指定したクラスタに含まれるホスト 3台の設定が変更されました。

[gowatana@client01 vic]$ ./vic-machine-linux update firewall --target vc-sv02.go-lab.jp --user gowatana --allow --compute-resource cluster-01 --thumbprint 70:45:F3:C7:~省略

May 16 2017 08:58:44.670+09:00 INFO  vSphere password for gowatana: ★パスワードを入力

May 16 2017 08:58:47.196+09:00 INFO  ### Updating Firewall ####

May 16 2017 08:58:47.328+09:00 INFO  Validating target

May 16 2017 08:58:47.328+09:00 INFO  Validating compute resource

May 16 2017 08:58:47.343+09:00 INFO

May 16 2017 08:58:47.343+09:00 WARN  ### WARNING ###

May 16 2017 08:58:47.343+09:00 WARN     This command modifies the host firewall on the target machine or cluster

May 16 2017 08:58:47.343+09:00 WARN     The ruleset "vSPC" will be enabled

May 16 2017 08:58:47.343+09:00 WARN     This allows all outbound TCP traffic from the target

May 16 2017 08:58:47.343+09:00 WARN     To undo this modification use --deny

May 16 2017 08:58:47.343+09:00 INFO

May 16 2017 08:58:47.420+09:00 INFO  Ruleset "vSPC" enabled on host "HostSystem:host-29 @ /dc02/host/cluster-01/hv-n11.go-lab.jp"

May 16 2017 08:58:47.491+09:00 INFO  Ruleset "vSPC" enabled on host "HostSystem:host-32 @ /dc02/host/cluster-01/hv-n12.go-lab.jp"

May 16 2017 08:58:47.556+09:00 INFO  Ruleset "vSPC" enabled on host "HostSystem:host-34 @ /dc02/host/cluster-01/hv-n13.go-lab.jp"

May 16 2017 08:58:47.556+09:00 INFO

May 16 2017 08:58:47.556+09:00 INFO  Firewall changes complete

May 16 2017 08:58:47.556+09:00 INFO  Command completed successfully

[gowatana@client01 vic]$

 

ESXi のもともとの発信接続(outbound) のルールはこうなっていましたが・・・

vic11-fw-01.png

 

設定変更により vSPC のルールセットが解放されました。

vic11-fw-02.png

 

Firewall 設定後に Virtual Container Host (VCH) の作成をしてみると

ESXi Firewall の設定確認が OK になります。

※名前解決の都合上、vCenter はこちらでは IP アドレス(192.168.1.96)で指定しています。

[gowatana@client01 vic]$ ./vic-machine-linux create \

> --target 192.168.1.96 \

> --user gowatana \

> --compute-resource cluster-01 \

> --name vch02 \

> --public-network pg-vds02-0000 --bridge-network vic-bridge-02 \

> --image-store ds_nfs_219 \

> --no-tlsverify --force

May 17 2017 01:37:33.510+09:00 INFO  ### Installing VCH ####

May 17 2017 01:37:33.510+09:00 INFO  vSphere password for gowatana:

May 17 2017 01:37:36.594+09:00 WARN  Using administrative user for VCH operation - use --ops-user to improve security (see -x for advanced help)

May 17 2017 01:37:36.594+09:00 INFO  Generating self-signed certificate/key pair - private key in vch02/server-key.pem

May 17 2017 01:37:36.917+09:00 WARN  Configuring without TLS verify - certificate-based authentication disabled

May 17 2017 01:37:37.049+09:00 INFO  Validating supplied configuration

May 17 2017 01:37:37.154+09:00 INFO  vDS configuration OK on "vic-bridge-02"

May 17 2017 01:37:37.183+09:00 INFO  Firewall status: ENABLED on "/dc02/host/cluster-01/hv-n11.go-lab.jp"

May 17 2017 01:37:37.211+09:00 INFO  Firewall status: ENABLED on "/dc02/host/cluster-01/hv-n12.go-lab.jp"

May 17 2017 01:37:37.236+09:00 INFO  Firewall status: ENABLED on "/dc02/host/cluster-01/hv-n13.go-lab.jp"

May 17 2017 01:37:37.242+09:00 INFO  Firewall configuration OK on hosts:

May 17 2017 01:37:37.242+09:00 INFO     "/dc02/host/cluster-01/hv-n11.go-lab.jp"

May 17 2017 01:37:37.242+09:00 INFO     "/dc02/host/cluster-01/hv-n12.go-lab.jp"

May 17 2017 01:37:37.242+09:00 INFO     "/dc02/host/cluster-01/hv-n13.go-lab.jp"

May 17 2017 01:37:37.354+09:00 INFO  License check OK on hosts:

May 17 2017 01:37:37.354+09:00 INFO    "/dc02/host/cluster-01/hv-n11.go-lab.jp"

May 17 2017 01:37:37.354+09:00 INFO    "/dc02/host/cluster-01/hv-n12.go-lab.jp"

May 17 2017 01:37:37.354+09:00 INFO    "/dc02/host/cluster-01/hv-n13.go-lab.jp"

May 17 2017 01:37:37.357+09:00 INFO  DRS check OK on:

May 17 2017 01:37:37.357+09:00 INFO    "/dc02/host/cluster-01"

May 17 2017 01:37:37.378+09:00 INFO

May 17 2017 01:37:38.444+09:00 INFO  Creating virtual app "vch02"

May 17 2017 01:37:38.469+09:00 INFO  Creating appliance on target

May 17 2017 01:37:38.487+09:00 INFO  Network role "public" is sharing NIC with "management"

May 17 2017 01:37:38.487+09:00 INFO  Network role "client" is sharing NIC with "management"

May 17 2017 01:37:41.062+09:00 INFO  Uploading images for container

May 17 2017 01:37:41.062+09:00 INFO     "bootstrap.iso"

May 17 2017 01:37:41.062+09:00 INFO     "appliance.iso"

May 17 2017 01:37:49.197+09:00 INFO  Waiting for IP information

May 17 2017 01:38:07.152+09:00 INFO  Waiting for major appliance components to launch

May 17 2017 01:38:07.204+09:00 INFO  Obtained IP address for client interface: "192.168.1.2"

May 17 2017 01:38:07.204+09:00 INFO  Checking VCH connectivity with vSphere target

May 17 2017 01:38:07.315+09:00 INFO  vSphere API Test: https://192.168.1.96 vSphere API target responds as expected

May 17 2017 01:38:37.345+09:00 INFO  Initialization of appliance successful

May 17 2017 01:38:37.345+09:00 INFO

May 17 2017 01:38:37.345+09:00 INFO  VCH Admin Portal:

May 17 2017 01:38:37.345+09:00 INFO  https://192.168.1.2:2378

May 17 2017 01:38:37.345+09:00 INFO

May 17 2017 01:38:37.345+09:00 INFO  Published ports can be reached at:

May 17 2017 01:38:37.345+09:00 INFO  192.168.1.2

May 17 2017 01:38:37.345+09:00 INFO

May 17 2017 01:38:37.345+09:00 INFO  Docker environment variables:

May 17 2017 01:38:37.345+09:00 INFO  DOCKER_HOST=192.168.1.2:2376

May 17 2017 01:38:37.346+09:00 INFO

May 17 2017 01:38:37.346+09:00 INFO  Environment saved in vch02/vch02.env

May 17 2017 01:38:37.346+09:00 INFO

May 17 2017 01:38:37.346+09:00 INFO  Connect to docker:

May 17 2017 01:38:37.346+09:00 INFO  docker -H 192.168.1.2:2376 --tls info

May 17 2017 01:38:37.346+09:00 INFO  Installer completed successfully

[gowatana@client01 vic]$

 

VIC については、こちらもどうぞ。

vSphere Integrated Containers (VIC) 1.0 をためしてみる。

vSphere Integrated Containers (VIC) 1.1 の VIC Appliance デプロイの様子。

 

以上、VIC 1.1 で改善された ESXi Firewall 設定方法の様子についてでした。

vSphere Integrated Containers (VIC) 1.1 がリリースされました。

VMware vSphere Integrated Containers 1.1 Release Notes

 

VIC 1.1 では、1.0 とはソフトウェアの提供形式が変更され、

これまでバラバラだった下記 3コンポーネントが

1つの仮想アプライアンス(vSphere Integrated Containers Appliance)にまとめられました。

  • VMware vSphere Integrated Containers Engine 1.1
  • VMware vSphere Integrated Containers Registry 1.1 (harbor)
  • VMware vSphere Integrated Containers Management Portal 1.1 (admiral)

 

ということで、VIC Appliance を vCenter にデプロイしてみました。

仮想アプライアンスの ova ファイルは、MyVMware からダウンロードします。

 

Download VMware vSphere Integrated Containers 1.1.0

https://my.vmware.com/en/web/vmware/details?downloadGroup=VIC110&productId=614

 

マニュアルは、下記のあたりです。

Deploy the Appliance · VMware vSphere Integrated Containers 1.1 Documentation

 

 

VIC Appliance のデプロイ。

 

今回は、vCenter Server Appliance 6.5 d にデプロイしています。

 

vSphere Web Client でデプロイ先のクラスタを右クリックして「OVF テンプレートのデプロイ」。

vic-11-deploy-01.png

 

ダウンロードした .ova ファイルを選択します。

今回は、vic-v1.1.0-bf760ea2.ova というファイルを使用しています。

vic-11-deploy-02.png

 

デプロイする仮想アプライアンスにつける名前を入力します。
vCenter インベントリでのデプロイ場所も指定します。

※今回は「lab」という仮想マシン フォルダを指定しています。

vic-11-deploy-03.png

 

デプロイ先のリソースを選択します。

※今回は「vsan-cluster-01」という名前の DRS 有効クラスタを指定しています。

vic-11-deploy-04.png

 

仮想アプライアンスの情報です。シン プロビジョニングであれば、5GB 弱です。

vic-11-deploy-05.png

 

使用許諾契約書です。

vic-11-deploy-06.png

 

データストアを選択します。

デフォルトでは「シック プロビジョニング (Lazy Zeroed)」ですが、今回は「シン プロビジョニング」にします。

「vsanDatastore-01」というデータストアを選択しています。

ちなみに、VIC で Docker コンテナを起動するときに Docker Volume で vSAN を利用できますが、
それは VIC Appliance を vSAN に配置することとは特に関係しません。

vic-11-deploy-09.png

 

ポートグループを選択します。

VIC で作成する Virtual Container Host (VCH) では vDS の分散ポートグループが必要になりますが、

VIC Appliance は vSS の標準ポートグループでもデプロイできます。

vic-11-deploy-10.png

 

Appliance Security で、VIC Appliance の Root Password 入力します。

vic-11-deploy-11.png

 

Networking Properties で IP アドレスなどのネットワーク設定を入力します。

「2.6. FQDN」はあとで Web UI での Registry / 管理ポータル のリンクとして使用されるので、

実際に DNS / hosts ファイルなどで名前解決できるものを入力するとよいと思います。

vic-11-deploy-12.png

 

Registry Configuration で、Registry の admin パスワードと DB のパスワードを入力します。

※パスワード以外の項目はデフォルトのままでもデプロイ可能です。

スクリーンショットで見えない項目としては、
Registry の Garbage Collection の有効/無効、SSL Cert / SSL Cert Key を指定できます。

vic-11-deploy-13.png

 

Management Portal Configuration は、今回はデフォルトのままにします。

vic-11-deploy-15.png

 

Fileserver Configuration も、今回はデフォルトのままにします。

vic-11-deploy-16.png

 

最後に、これまでの設定値を確認します。

vic-11-deploy-18.png

 

VIC Appliance のデプロイが完了したら、手動で VM を起動します。

vic-11-deploy-21.png

 

VIC Appliance が起動されました。

vic-11-deploy-24.png

 

VIC Appliance へのアクセス。

Web ブラウザから HTTPS で、アプライアンスの TCP 9443 番ポートにアクセスすると、

VIC のコマンドラインツールと Web Client Plug-in のファイルがダウンロードできます。

※この環境では、すでに VIC Appliance デプロイ時に指定した FQDN を名前解決できるようにしてあります。

vic-11-deploy-26.png

 

これは、Linux などから curl コマンドなどでダウンロードすることも可能です。

ためしに適当な Linux からダウンロードしてみました。

[gowatana@client01 ~]$ cat /etc/oracle-release

Oracle Linux Server release 7.3

[gowatana@client01 ~]$ mkdir work

[gowatana@client01 ~]$ cd work/

 

curl で Web ブラウザ同様 9443 番ポートにアクセスしてみると、
目視でも簡単にわかるシンプルな応答が返ってきます。

[gowatana@client01 work]$ curl -k https://vic01.go-lab.jp:9443/

<pre>

<a href="com.vmware.vic-v1.1.0.zip">com.vmware.vic-v1.1.0.zip</a>

<a href="com.vmware.vic.ui-v1.1.0.zip">com.vmware.vic.ui-v1.1.0.zip</a>

<a href="vic_1.1.0.tar.gz">vic_1.1.0.tar.gz</a>

</pre>

 

curl で vic のコマンドラインツールをダウンロードしてみます。

[gowatana@client01 work]$ curl -ks https://vic01.go-lab.jp:9443/vic_1.1.0.tar.gz -o vic_1.1.0.tar.gz

[gowatana@client01 work]$ tar zxf vic_1.1.0.tar.gz

[gowatana@client01 work]$ ls vic/

LICENSE  appliance.iso  ui                  vic-machine-linux        vic-ui-darwin  vic-ui-windows.exe

README   bootstrap.iso  vic-machine-darwin  vic-machine-windows.exe  vic-ui-linux

 

このように、VIC 1.0 ではバラバラに提供されていた vic-machine コマンドも VIC Appliance に同梱されています。

[gowatana@client01 work]$ cd vic/

[gowatana@client01 vic]$ ./vic-machine-linux help

NAME:

   vic-machine-linux - Create and manage Virtual Container Hosts

USAGE:

   vic-machine-linux [global options] command [command options] [arguments...]

VERSION:

   v1.1.0-9852-e974a51

COMMANDS:

     create   Deploy VCH

     delete   Delete VCH and associated resources

     ls       List VCHs

     inspect  Inspect VCH

     upgrade  Upgrade VCH to latest version

     version  Show VIC version information

     debug    Debug VCH

     update   Modify configuration

     help, h  Shows a list of commands or help for one command

 

GLOBAL OPTIONS:

   --help, -h     show help

   --version, -v  print the version

 

HTTPS で TCP 443 番ポートにアクセスすると、Registry (Harbor) の画面が表示されます。

この Web UI には、admin / デプロイ時に指定したパスワード でログインできます。

※ 443 番ポートの指定は、Web ブラウザの都合上表示されていません。

vic-11-deploy-27.png

 

HTTPS で TCP 8282 番ポートにアクセスすると、VIC Management Portal (Admiral) の画面が表示されます。
なんと、トップページは日本語です。

vic-11-deploy-28.png

 

バージョンは 「.1」 上がっただけですが、製品っぽい形になってきたなと思いました。

 

そして、この後の VCH 作成~ Docker コンテナ起動はこんな感じです。

vSphere Integrated Containers (VIC) 1.0 をためしてみる。

 

以上、VIC 1.1 の VIC Appliance をデプロイしてみる話でした。