Quantcast
Channel: にほんごVMware
Viewing all 495 articles
Browse latest View live

VMware Lightwave をためしてみる。Part 1(Lightwave Server インストール)

$
0
0

VMware Photon と同時に発表された、 VMware Lightwave という

ID 管理、認証などの機能をもつソフトウェア スタックがあります。


Project Lightwave Now Available

http://blogs.vmware.com/vsphere/2015/05/project-lightwave-now-available.html

 

VMware Photon とおなじく、GitHub にホストされてます。


VMware Lightwave の GitHub サイト

http://vmware.github.io/lightwave/

vmware-lightwave-00.png


Lightwave は下記のコンポーネントで構成されていて、

vCenter の VMware Platform Services Controller (PSC)のと共通するところがありそうです。

vSphere 5.5 のあたりから見覚えのある名前がでてきます。

  • VMware Directory Service (vmdir)
  • VMware Certificate Authority (vmca)
  • VMware Authentication Framework Daemon/Service (vmafd)
  • VMware Secure Token Service (vmware-sts)

 

GitHub の README

https://github.com/vmware/lightwave/blob/master/README.md

 

Lightwave Server ではドメイン コントローラ(Windows の AD のような)を構築します。

そして、認証してもらうクライアント側には、Lightwave Client をインストールします。

 

今回は、Photon Linux に Lightwave サーバをインストールしてみます。

インストールする Photon Linux のホスト名は下記にしています。

  • photon-lw01 → Lightwave サーバ。
  • photon01 → Lightwave クライアント。

 

Photon Linux 1.0 TP1 を FULL インストールで使用しています。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# uname -n

photon-lw01

 

Photon は、固定の IP アドレスを設定しておきます。

Photon Linux の Network 設定変更について。(IP / DNS / Hostname...)

※もっとよい手順もあるかもしれません。

 

Photon への Yum リポジトリの登録。

 

Lightwave は、RPM でインストールすることができます。

Photon では、RPM のインストールを yum か tdnf コマンドで実施できます。

Photon Linux の RPM パッケージ管理。(yum / tdnf)


Lightwave の Yum リポジトリを登録しておきます。

このファイルは、デフォルトでは Photon に含まれていないので新規作成します。

root [ ~ ]# vi /etc/yum.repos.d/lightwave.repo

root [ ~ ]# cat /etc/yum.repos.d/lightwave.repo

[lightwave]

name=VMware Lightwave 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/lightwave

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

 

Photon の Extras リポジトリを参照するファイルも、新規作成します。

※Lightwave で使用する Likewise Open の RPM をダウンロードするために必要なようです。

root [ ~ ]# vi /etc/yum.repos.d/photon-extras.repo

root [ ~ ]# cat /etc/yum.repos.d/photon-extras.repo

[photon-extras]

name=VMware Photon Extras 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/photon_extras

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

 

Photon がデフォルトで設定されている、

ISO イメージを参照する、photon-iso のリポジトリ参照は無効(enabled=0)にしておきます。

root [ ~ ]# vi /etc/yum.repos.d/photon-iso.repo

root [ ~ ]# cat /etc/yum.repos.d/photon-iso.repo

[photon-iso]

name=VMWare Photon Linux 1.0(x86_64)

baseurl=file:///media/cdrom/usr/src/photon/RPMS

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=0

skip_if_unavailable=True

 

Yum リポジトリ登録は、上記の設定によりこうなります。

root [ ~ ]# grep -E "\[|name|enabled" /etc/yum.repos.d/*.repo

/etc/yum.repos.d/lightwave.repo:[lightwave]  ★追加した。

/etc/yum.repos.d/lightwave.repo:name=VMware Lightwave 1.0(x86_64)

/etc/yum.repos.d/lightwave.repo:enabled=1

/etc/yum.repos.d/photon-extras.repo:[photon-extras]  ★追加した。

/etc/yum.repos.d/photon-extras.repo:name=VMware Photon Extras 1.0(x86_64)

/etc/yum.repos.d/photon-extras.repo:enabled=1

/etc/yum.repos.d/photon-iso.repo:[photon-iso]  ★無効にした。

/etc/yum.repos.d/photon-iso.repo:name=VMWare Photon Linux 1.0(x86_64)

/etc/yum.repos.d/photon-iso.repo:enabled=0

/etc/yum.repos.d/photon-updates.repo:[photon-updates]

/etc/yum.repos.d/photon-updates.repo:name=VMware Photon Linux 1.0(x86_64)Updates

/etc/yum.repos.d/photon-updates.repo:enabled=1

/etc/yum.repos.d/photon.repo:[photon]

/etc/yum.repos.d/photon.repo:name=VMware Photon Linux 1.0(x86_64)

/etc/yum.repos.d/photon.repo:enabled=1

 

tdnf、もしくは yum で repolist を見るとこうなります。

root [ ~ ]# tdnf repolist

repo id            repo name                              status

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

photon              VMware Photon Linux 1.0(x86_64)        enabled

lightwave          VMware Lightwave 1.0(x86_64)            enabled

photon-extras      VMware Photon Extras 1.0(x86_64)        enabled

root [ ~ ]# yum repolist

repo id              repo name                                    status

lightwave            VMware Lightwave 1.0(x86_64)                  12

photon              VMware Photon Linux 1.0(x86_64)              427

photon-extras        VMware Photon Extras 1.0(x86_64)              35

photon-updates      VMware Photon Linux 1.0(x86_64)Updates          1

repolist: 475

 

Lightwave Server のインストール。

 

今回は tdnf コマンドで、RPM をインストールします。

メタ RPM である vmware-lightwave-server をインストールすると、

Lightwave サーバ関連の RPM がまとめてインストールされます。

root [ ~ ]# tdnf install vmware-lightwave-server

Installing:

vmware-ca-client      x86_64  6.0.0-0

vmware-directory-client        x86_64  6.0.0-0

vmware-afd-client      x86_64  6.0.0-0

likewise-open  x86_64  6.2.0-0

vmware-ic-config      x86_64  1.0.0-0

vmware-directory      x86_64  6.0.0-0

vmware-ca      x86_64  6.0.0-0

vmware-afd    x86_64  6.0.0-0

vmware-lightwave-server        x86_64  6.0.0-0

Is this ok [y/N]:y

Downloading 2040.00 of 2040.00

Downloading 169544.00 of 169544.00

Downloading 172692.00 of 172692.00

Downloading 853020.00 of 853020.00

Downloading 23308.00 of 23308.00

Downloading 3836065.00 of 3836065.00

Downloading 214450.00 of 214450.00

Downloading 207339.00 of 207339.00

Downloading 578689.00 of 578689.00

Testing transaction

Running transaction

Created symlink from /etc/systemd/system/multi-user.target.wants/lwsmd.service to /lib/systemd/system/lwsmd.service.

Waiting for lwreg startup.ok

Installing settings from /opt/likewise/share/config/accounts.reg...

Installing settings from /opt/likewise/share/config/dcerpcd.reg...

Installing settings from /opt/likewise/share/config/eventlogd.reg...

Installing settings from /opt/likewise/share/config/lsassd.reg...

Installing settings from /opt/likewise/share/config/lwiod.reg...

Installing settings from /opt/likewise/share/config/lwreg.reg...

Installing settings from /opt/likewise/share/config/netlogond.reg...

Installing settings from /opt/likewise/share/config/privileges.reg...

Installing settings from /opt/likewise/share/config/rdr.reg...

Starting service dependency: netlogon

Starting service dependency: lwio

Starting service dependency: rdr

Starting service: lsass

root [ ~ ]#

 

Lightwave Domain Controller のセットアップ。

 

ic-promote コマンドで、Lightwave ドメイン コントローラをセットアップします。

「ic」 は、おそらく Infrastracture Controller (PSC の Beta のころの名前)の略だと思います。

「--domain」を指定して実行すると、ドメイン名を指定できます。

 

※ちなみに、「--help」でなくても Usage 画面はでますが、なんとなくこうしました・・・

「--domain」を指定しないと、デフォルトでは「vsphere.local」というドメイン名になります。

root [ ~ ]# /opt/vmware/bin/ic-promote --help

Usage : ic-promote { arguments }

Arguments:

[--domain  <fully qualified domain name. Default : vsphere.local>]

--password  <password to administrator account>

[--partner  <partner domain controller's hostname or IP Address>]

[--site    <infra site name>]

 

今回は「lightwave.local」というドメイン名で、

Lightwave ドメイン コントローラをセットアップしてみます。

root [ ~ ]# /opt/vmware/bin/ic-promote --domain lightwave.local

Password (administrator@lightwave.local): ★ここでadministrator のパスワードを設定する。

20150710233831:INFO:Setting up system as Infrastructure standalone node

20150710233831:INFO:Starting service [dcerpc]

20150710233831:INFO:Starting service [vmafd]

20150710233832:INFO:Starting service [vmdir]

20150710233834:INFO:Starting service [vmca]

20150710233835:INFO:Setting various configuration values

20150710233835:INFO:Promoting directory service to be domain controller

20150710233836:INFO:Setting up the logical deployment unit

20150710233836:INFO:Setting up VMware Certificate Authority

20150710233836:INFO:Adding VMCA's root certificate to VMware endpoint certificate store

20150710233836:INFO:Generating Machine SSL cert

20150710233837:INFO:Setting Machine SSL certificate

20150710233837:INFO:Publishing Machine SSL certificate for directory service

20150710233837:INFO:Restarting service [vmdir]

Domain Controller setup was successful

root [ ~ ]#

 

これで Lightwave ドメイン コントローラがセットアップできています。

たとえば、下記のように administrator@lightwave.local ユーザがいることがわかります。

root [ ~ ]# /opt/vmware/bin/dir-cli user find-by-name --account administrator

Enter password for administrator@lightwave.local: ★パスワードを入力。

Account: administrator

UPN: Administrator@LIGHTWAVE.LOCAL

 

以上、Lightwave サーバのインストールでした。

つづく・・・


VMware Lightwave をためしてみる。Part 2(Lightwave Client インストール)

$
0
0

Photon Linux に Lightwave クライアントをインストールして、

Lightwave ドメインコントローラに参加させてみます。


前回はこちら。

VMware Lightwave をためしてみる。Part 1(Lightwave Server インストール)

 

今回は、Lightwave クライアントのインストールをします。


Ligtwave サーバ / クライアントは、それぞれ下記のホスト名にしています。

また、この環境では DNS サーバに登録してあります。

役割OSホスト名DNS 名
Lightwave サーバPhoton Linux 1.0 TP1photon-lw01photon-lw01.godc.lab
Lightwave クライアントPhoton Linux 1.0 TP1photon01photon01.godc.lab

 

Lightwave サーバは、前回に構築したもの使用しています。

今回設定するのは、すべて Lightwave クライアント側の Photon Linux です。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# uname -n

photon01

 

Photon への Yum リポジトリの登録。

 

Lightwave Client をインストールするときも、前回と同様に

Lightwave と、Photon Extras の Yum リポジトリを登録しておきます。

※vi などで、下記のファイル(lightwave.repo と photon-extras.repo)を作成しておきます。

 

/etc/yum.repos.d/lightwave.repo ファイルの内容

[lightwave]

name=VMware Lightwave 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/lightwave

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

 

/etc/yum.repos.d/photon-extras.repo ファイルの内容

[photon-extras]

name=VMware Photon Extras 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/photon_extras

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

 

photon-iso は、前回と同様に無効にしておきます。

root [ ~ ]# sed -i "s/enabled=1/enabled=0/" /etc/yum.repos.d/photon-iso.repo

root [ ~ ]# cat /etc/yum.repos.d/photon-iso.repo

[photon-iso]

name=VMWare Photon Linux 1.0(x86_64)

baseurl=file:///media/cdrom/usr/src/photon/RPMS

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=0

skip_if_unavailable=True

 

Yum リポジトリ登録状態は、Lightwave Server インストールの場合と同様になります。

root [ ~ ]# tdnf repolist

repo id            repo name                              status

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

lightwave          VMware Lightwave 1.0(x86_64)            enabled

photon-extras      VMware Photon Extras 1.0(x86_64)        enabled

photon              VMware Photon Linux 1.0(x86_64)        enabled

 

Lightwave クライアントのインストール。


これも前回と同様、tdnf コマンドで、RPM をインストールします。

メタ RPM である vmware-lightwave-clients をインストールすると、

Lightwave クライアント関連の RPM がインストールされます。

※今回は、途中で確認メッセージが出ないように「-y」オプションを付けています。

root [ ~ ]# tdnf install -y vmware-lightwave-clients

Installing:

vmware-afd-client      x86_64  6.0.0-0

likewise-open  x86_64  6.2.0-0

vmware-ic-config      x86_64  1.0.0-0

vmware-directory-client        x86_64  6.0.0-0

vmware-ca-client      x86_64  6.0.0-0

vmware-afd    x86_64  6.0.0-0

vmware-lightwave-clients      x86_64  6.0.0-0

Downloading 2072.00 of 2072.00

Downloading 169544.00 of 169544.00

Downloading 578689.00 of 578689.00

Downloading 207339.00 of 207339.00

Downloading 23308.00 of 23308.00

Downloading 3836065.00 of 3836065.00

Downloading 214450.00 of 214450.00

Testing transaction

Running transaction

Created symlink from /etc/systemd/system/multi-user.target.wants/lwsmd.service to /lib/systemd/system/lwsmd.service.

Waiting for lwreg startup.ok

Installing settings from /opt/likewise/share/config/accounts.reg...

Installing settings from /opt/likewise/share/config/dcerpcd.reg...

Installing settings from /opt/likewise/share/config/eventlogd.reg...

Installing settings from /opt/likewise/share/config/lsassd.reg...

Installing settings from /opt/likewise/share/config/lwiod.reg...

Installing settings from /opt/likewise/share/config/lwreg.reg...

Installing settings from /opt/likewise/share/config/netlogond.reg...

Installing settings from /opt/likewise/share/config/privileges.reg...

Installing settings from /opt/likewise/share/config/rdr.reg...

Starting service dependency: netlogon

Starting service dependency: lwio

Starting service dependency: rdr

Starting service: lsass

root [ ~ ]#

 

インストールされる RPM は Lightwave サーバ / クライアントで共通のものが多いです。

RPMVersion

lightwave-server

lightwave-clients

likewise-open6.2.0-0OO
vmware-afd6.0.0-0OO
vmware-afd-client6.0.0-0OO
vmware-ca6.0.0-0O-
vmware-ca-client6.0.0-0OO
vmware-directory6.0.0-0O-
vmware-directory-client6.0.0-0OO
vmware-ic-config1.0.0-0OO
vmware-lightwave-server 6.0.0-0O-
vmware-lightwave-clients6.0.0-0-O

 

Lightwave クライアントのセットアップ。

 

まず、host / nslookup / dig、ping コマンドなどで、Lightwave クライアント側からの

Lightwave サーバの名前解決と、サーバへの疎通を確認しておきます。

※ただし、Lightwave ドメイン コントローラへの参加は IP アドレスでも可能です。

root [ ~ ]# uname -n

photon01

root [ ~ ]# host photon-lw01.godc.lab

photon-lw01.godc.lab has address 192.168.1.41

root [ ~ ]# ping -c 3 photon-lw01.godc.lab

PING photon-lw01.godc.lab (192.168.1.41): 56 data bytes

64 bytes from 192.168.1.41: icmp_seq=0 ttl=64 time=0.150 ms

64 bytes from 192.168.1.41: icmp_seq=1 ttl=64 time=0.209 ms

64 bytes from 192.168.1.41: icmp_seq=2 ttl=64 time=0.177 ms

--- photon-lw01.godc.lab ping statistics ---

3 packets transmitted, 3 packets received, 0% packet loss

round-trip min/avg/max/stddev = 0.150/0.179/0.209/0.024 ms

root [ ~ ]#

 

Lightwave クライアントは、ic-join コマンドで、Lightwave ドメイン コントローラに参加します。

「--domain-controller」で Lightwave サーバのアドレス、

「--domain」で Lightwave ドメインの名前を指定します。

 

ic-join コマンドをオプションなしで実行すると、使用方法が表示されます。

root [ ~ ]# /opt/vmware/bin/ic-join

Usage : ic-domain-join { arguments }

Arguments:

--domain-controller <domain controller's hostname or IP Address>

[--domain    <fully qualified domain name. default: vsphere.local>]

[--password  <password to administrator account>]

 

それでは、ドメイン参加してみます。

今回参加する Lightwave ドメイン コントローラのドメイン名は「lightwave.local」です。

root [ ~ ]# /opt/vmware/bin/ic-join --domain-controller photon-lw01.godc.lab --domain lightwave.local

Password (administrator@lightwave.local):  ★パスワードを入力。

20150712130421:INFO:Setting up system as client to Infrastructure node at [photon-lw01.godc.lab]

20150712130421:INFO:Validating credentials to partner [photon-lw01.godc.lab] at domain [lightwave.local]

20150712130421:INFO:Starting service [dcerpc]

20150712130421:INFO:Starting service [vmafd]

20150712130422:INFO:Setting various configuration values

20150712130422:INFO:Joining system to directory service at [photon-lw01.godc.lab]

20150712130422:INFO:Get root certificate from VMware Certificate Authority

20150712130423:INFO:Adding VMCA's root certificate to VMware endpoint certificate store

20150712130423:INFO:Generating Machine SSL cert

20150712130423:INFO:Setting Machine SSL certificate

Domain Join was successful

root [ ~ ]#

 

認証設定 ログイン設定。

 

下記を参考に、Lightwave クライアントで認証のための設定します。

lightwave/README-SSH.md at master · vmware/lightwave · GitHub

 

レジストリ設定に似た設定も、Likewise ドメイン コントローラの認証情報を参照するために必要です。

root [ ~ ]# /opt/likewise/bin/domainjoin-cli configure --enable pam

SUCCESS

root [ ~ ]# /opt/likewise/bin/domainjoin-cli configure --enable nsswitch

SUCCESS

root [ ~ ]# /opt/likewise/bin/lwregshell set_value '[HKEY_THIS_MACHINE\Services\lsass\Parameters\Providers]' LoadOrder "ActiveDirectory" "VmDir" "Local"

root [ ~ ]# /opt/likewise/bin/lwsm restart lsass

Stopping service: lsass

Starting service: lsass

 

ログインしてみる。

 

ここまでの設定で、Lightwave ドメインのユーザでのログインが可能になります。

ためしに、su コマンドでログインしてみます。

ログインユーザは、<ユーザ名>@<Lightwave ドメイン名>と指定しています。


※su でのログインではホームディレクトリが自動作成されないため、「/」ディレクトリにいます。

root [ ~ ]# su - administrator@lightwave.local

No directory, logging in with HOME=/

lightwave.local\Administrator [ / ]$ id

uid=500(lightwave.local\Administrator) gid=545(lightwave.local\Users) groups=545(lightwave.local\Users),544(lightwave.local\Administrators),16778224(lightwave.local\CAAdmins)

 

SSH でも、Lightwave ドメインのユーザでログインできるようになります。

root [ ~ ]# ssh -l administrator@lightwave.local photon01.godc.lab

The authenticity of host 'photon01.godc.lab (192.168.1.31)' can't be established.

ECDSA key fingerprint is 38:ea:72:b6:85:d8:9d:f3:a9:e6:f5:5c:cc:11:f6:78.

Are you sure you want to continue connecting (yes/no)? yes

Warning: Permanently added 'photon01.godc.lab,192.168.1.31' (ECDSA) to the list of known hosts.

Password:  ★パスワード入力。

lightwave.local\Administrator [ ~ ]$ uname -n

photon01

lightwave.local\Administrator [ ~ ]$ id

uid=500(lightwave.local\Administrator) gid=545(lightwave.local\Users) groups=545(lightwave.local\Users),544(lightwave.local\Administrators),16778224(lightwave.local\CAAdmins)

 

SSH ログインすると、/home 配下にホームディレクトリが自動作成されます。

lightwave.local\Administrator [ ~ ]$ pwd

/home/Administrator

 

ちなみに、ドメイン ユーザの指定は、<Lightwave ドメイン名>\<ユーザ名>と指定できます。

ただし、Linux シェルでのエスケープのため、「\」(円マーク or バックスラッシュ)は2文字

<Lightwave ドメイン名>\\<ユーザ名>)にしています。

root [ ~ ]# ssh -l lightwave.local\\administrator photon01.godc.lab

Password:  ★パスワード入力。

Last login: Sun Jul 12 13:24:35 2015 from 192.168.1.31

lightwave.local\Administrator [ ~ ]$ uname -n

photon01

lightwave.local\Administrator [ ~ ]$ id

uid=500(lightwave.local\Administrator) gid=545(lightwave.local\Users) groups=545(lightwave.local\Users),544(lightwave.local\Administrators),16778224(lightwave.local\CAAdmins)


以上、Lightwave クライアントで、Likewise ドメイン参加してみる話でした。

Docker Hub に VMware Photon Linux イメージがありました。

$
0
0

Docker Hub Registry にて VMware Photon Linux イメージ発見しました。

 

vmware / photon (Docker Hub)

https://registry.hub.docker.com/u/vmware/photon/

dockerhub-photon-00.png

 

そこで、ためしに Pull してみました。

まず、Photon ホスト(ALL インストール)で、Docker を有効化します。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /lib/systemd/system/docker.service.

root [ ~ ]# systemctl start docker

 

このイメージを Pull します。Docker オフィシャルではないイメージです。

root [ ~ ]# docker search vmware/photon

NAME            DESCRIPTION   STARS     OFFICIAL   AUTOMATED

vmware/photon                 0

 

Pull しました。

root [ ~ ]# docker pull vmware/photon

Pulling repository vmware/photon

4f6657fadc21: Download complete

cac7dc9fbb37: Download complete

9222f4296fe6: Download complete

5f82aa002805: Download complete

Status: Downloaded newer image for vmware/photon:latest

root [ ~ ]# docker images

REPOSITORY          TAG                 IMAGE ID            CREATED             VIRTUAL SIZE

vmware/photon       latest              4f6657fadc21        11 days ago         171.4 MB

 

コンテナを起動してみると、「Photon Linux 1.0 TP1」のコンテナでした。

root [ ~ ]# docker run -it -d vmware/photon

cd9bfb1fbbc36d3b8726cc7b4af560b3294683c1fb3664103c8abde1bfa05b0d

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                  COMMAND             CREATED             STATUS              PORTS               NAMES

cd9bfb1fbbc3        vmware/photon:latest   "bash --login"      4 seconds ago       Up 3 seconds                            reverent_colden

root [ ~ ]# docker attach cd9bfb1fbbc3

root@cd9bfb1fbbc3 [ / ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

 

コンテナに導入されている RPM は、Photon の Micro インストールよりも少ないです。

root@cd9bfb1fbbc3 [ / ]# rpm -qa | wc -l

44

 

余談ですが、今回の Photon ホストは Nutanix CE でした。

root [ ~ ]# dmesg | grep -i nutanix

[    0.410956] scsi 0:0:0:0: Direct-Access     NUTANIX  VDISK            0    PQ: 0 ANSI: 5

 

以上です。Docker Hub で Photon イメージを発見した話でした。

PowerCLI ユーザですが、Nutanix Cmdlets を試してみました。(Nutanix-CE にて)

$
0
0

VMware とは直接関係ありませんが、

Nutanix の Community Edition (Nutanix CE)が公開されました。


Nutanix Community Edition (Public Beta)

http://www.nutanix.com/products/community-edition/


ESXi の上に、Nutanix CE をインストールすることも可能なので、私もためしてみました。

この場合、Nutanix のハイパーバイザと、

その上の CVM(コントロール VM)をまとめて 1つの VM として構築します。


PowerCLI での表示ですが・・・こんな構成です。

nutanix-ce-01.png


ただ、Community Editionとはいえ HW 要件が高めで、

複数台のクラスタを構成してみる物理リソースがありませんでした。

 

そこで、せっかくなので PowerCLI の知見をもとに

CE でも試せるであろう Nutanix 用の PowerShell コマンドレット「Nutanix Cmdlets」を試してみました。

Nutanix の Web UI である「Prism」から、インストーラ「NutanixCmdlets.msi」をダウンロードできます。

nutanix-ce-02.png

 

Nutanix Cmdlets のインストール。

インストールは簡単なので省略・・・

 

Nutanix Cmdlets 環境の準備。

Nutanix Cmdlets をインストール後、

普通に Windows のスタートメニューなどから「NutanixCmdlets」を起動するか、

もしくは、PowerShell を起動後に Nutanix の コマンドレットを読み込むと

Nutanix Cmdlets が実行できるようになります。

今回は、手動でコマンドレットを読み込んでみます。


まず、気分を出すために見た目(背景とプロンプト)を変更してみます。

PS> $Host.UI.RawUi.WindowTitle = "Nutanix Cmdlets"

PS> $Host.UI.RawUi.BackgroundColor = "black"; Clear-Host

PS> function prompt{Write-Host "NTNX" -NoNewLine -ForegroundColor Blue; Write-Host ">" -NoNewLine -ForegroundColor Green;" "}

NTNX>


Nutanix のコマンドレットを読み込みます。

ついでに、Cmdlets のバージョンも確認しておきます。

NTNX> Add-PSSnapin NutanixCmdletsPSSnapin

NTNX> Get-NutanixCmdletsInfo | ft -AutoSize

 

Key            Value

---            -----

version        4.1.2-ce

BuildVersion   1.1.2-release4.1.2-dev-04282015

RestAPIVersion v1

 

ここまでで、こんな感じになります。

nutanix-ce-cmdlets-00.png

 

追加されるたのは、「NutanixCmdletsPSSnapin」というモジュールのコマンドレットです。

結構、たくさん(なんと255個も)あります。

NTNX> (Get-Command -Module NutanixCmdletsPSSnapin).Count

255

 

Nutanix Cmdlets の実行。

 

Nutanix CE に接続してみます。

PowerCLI での 「Connect-VIServer」 に相当するします。

接続先の IP アドレス「192.168.1.92」 は、CVM のものです。

※証明書エラーを回避するため、「-AcceptInvalidSSLCerts」を付けています。

※赤字部分は、手入力しています。

NTNX> Connect-NTNXCluster -AcceptInvalidSSLCerts

 

コマンド パイプライン位置 1 のコマンドレット Connect-NTNXCluster

次のパラメーターに値を指定してください:

(ヘルプを表示するには、「!?」と入力してください。)

Server: 192.168.1.92

UserName: admin

Password:  ★パスワードを入力

[Warning]: Cluster version[2015.07.16] and Cmdlets version[4.1.2-ce] do not match. This might cause some cmdlets to not

function correctly. Do you still want to continue [Y/N]?: Y

 

Server                : 192.168.1.92

UserName              : admin

Password              : ********

AcceptInvalidSSLCerts : True

ParameterSetName      : __AllParameterSets

MyInvocation          : System.Management.Automation.InvocationInfo

PagingParameters      :

InvokeCommand         : System.Management.Automation.CommandInvocationIntrinsics

Host                  : System.Management.Automation.Internal.Host.InternalHost

SessionState          : System.Management.Automation.SessionState

Events                : System.Management.Automation.PSLocalEventManager

JobRepository         : System.Management.Automation.JobRepository

JobManager            : System.Management.Automation.JobManager

InvokeProvider        : System.Management.Automation.ProviderIntrinsics

Stopping              : False

CommandRuntime        : Connect-NTNXCluster

CurrentPSTransaction  :

CommandOrigin         : Runspace

IsConnected           : True


NTNX>

 

冒頭の PowerCLI で表示した Nutanix CE の VM は、

Nutanix Cmdlets で見ると、このような感じになります。

※ESXi 上に作成した VM が、Nutanix CE のホストです。

NTNX> Get-NTNXHost | select name, state, numCpuCores, memoryCapacityInBytes, HypervisorFullName, blockModelName, hypervisorType, serviceVMExternalIP, hypervisorAddress

 

name                  : NTNX-5f45a488-A

state                 : NORMAL

numCpuCores           : 4

memoryCapacityInBytes : 16658726912

hypervisorFullName    : Nutanix 20150513

blockModelName        : CommunityEdition

hypervisorType        : kKvm

serviceVMExternalIP   : 192.168.1.92

hypervisorAddress     : 192.168.1.91

 

VM の一覧を表示してみました。

この環境には、Nutanix で必須の CVM と、それとは別に 2 つの VM(合計 3 VM) を作成してあります。

PowerCLI のコマンドレットでは、取得できる情報がデフォルトで省略(要約)されて表示されることが多いですが、

Nutanix Cmdlets の場合は、省略なしで表示されるようです。

※VM 名だけ、赤字にしてみました。

NTNX> Get-NTNXVM

 

vmId                          : 0005199c-36eb-1100-1146-005056a0691e::090bca93-e455-401f-9a74-622789d0cda7

powerState                    : off

vmName                        : vm01

guestOperatingSystem          :

ipAddresses                   : {}

hypervisorType                : kKvm

hostName                      :

hostId                        :

clusterUuid                   : 0005199c-36eb-1100-1146-005056a0691e

memoryCapacityInBytes         : 536870912

memoryReservedCapacityInBytes : 1073741824

numVCpus                      : 1

cpuReservedInHz               :

numNetworkAdapters            : 1

containerIds                  : {0005199c-36eb-1100-1146-005056a0691e::758}

nutanixVirtualDisks           : {/st-cont-01/.acropolis/vmdisk/b5238c04-678d-4f0c-ad98-6c6ea7a77f97}

nutanixVirtualDiskIds         : {0005199c-36eb-1100-1146-005056a0691e::b5238c04-678d-4f0c-ad98-6c6ea7a77f97}

vdiskNames                    : {0005199c-36eb-1100-1146-005056a0691e::NFS:22}

vdiskFilePaths                : {/st-cont-01/.acropolis/vmdisk/b5238c04-678d-4f0c-ad98-6c6ea7a77f97}

diskCapacityInBytes           : 8589934592

protectionDomainName          :

consistencyGroupName          :

nonNdfsDetails                :

isControllerVm                :

isDisplayable                 :

isAcropolisVm                 :

isRunningOnNdfs               :


vmId                          : 0005199c-36eb-1100-1146-005056a0691e::0cf38f50-bfcc-46a4-af74-aefb0c2504a1

powerState                    : on

vmName                        : NTNX-5f45a488-A-CVM

guestOperatingSystem          :

ipAddresses                   : {192.168.1.92}

hypervisorType                : kKvm

hostName                      : NTNX-5f45a488-A

hostId                        : 0005199c-36eb-1100-1146-005056a0691e::2

clusterUuid                   : 0005199c-36eb-1100-1146-005056a0691e

memoryCapacityInBytes         : 12884901888

memoryReservedCapacityInBytes : 12884901888

numVCpus                      : 2

cpuReservedInHz               :

numNetworkAdapters            : 2

containerIds                  :

nutanixVirtualDisks           : {/dev/sdb}

nutanixVirtualDiskIds         : {0005199c-36eb-1100-1146-005056a0691e::0cf38f50-bfcc-46a4-af74-aefb0c2504a1:scsi.0}

vdiskNames                    : {0005199c-36eb-1100-1146-005056a0691e::/dev/sdb}

vdiskFilePaths                : {/dev/sdb}

diskCapacityInBytes           : 0

protectionDomainName          :

consistencyGroupName          :

nonNdfsDetails                : VM is a Nutanix CVM

isControllerVm                :

isDisplayable                 :

isAcropolisVm                 :

isRunningOnNdfs               :


vmId                          : 0005199c-36eb-1100-1146-005056a0691e::f150b578-11f8-414f-8e4f-62c67946000e

powerState                    : on

vmName                        : vm02

guestOperatingSystem          :

ipAddresses                   : {192.168.1.5}

hypervisorType                : kKvm

hostName                      : NTNX-5f45a488-A

hostId                        : 0005199c-36eb-1100-1146-005056a0691e::2

clusterUuid                   : 0005199c-36eb-1100-1146-005056a0691e

memoryCapacityInBytes         : 536870912

memoryReservedCapacityInBytes : 536870912

numVCpus                      : 1

cpuReservedInHz               :

numNetworkAdapters            : 1

containerIds                  : {0005199c-36eb-1100-1146-005056a0691e::758}

nutanixVirtualDisks           : {/st-cont-01/.acropolis/vmdisk/d58f6410-008d-4083-ab32-b7ff2af1721d}

nutanixVirtualDiskIds         : {0005199c-36eb-1100-1146-005056a0691e::d58f6410-008d-4083-ab32-b7ff2af1721d}

vdiskNames                    : {0005199c-36eb-1100-1146-005056a0691e::NFS:57174}

vdiskFilePaths                : {/st-cont-01/.acropolis/vmdisk/d58f6410-008d-4083-ab32-b7ff2af1721d}

diskCapacityInBytes           : 8589934592

protectionDomainName          :

consistencyGroupName          :

nonNdfsDetails                :

isControllerVm                :

isDisplayable                 :

isAcropolisVm                 :

isRunningOnNdfs               :

 

NTNX>

 

下記のように、いくつかのプロパティに絞ると見やすいかもしれません。

NTNX> Get-NTNXVM | select vmName,PowerState,numVCpus,memoryCapacityInBytes | sort vmName | ft -AutoSize

 

vmName              powerState numVCpus memoryCapacityInBytes

------              ---------- -------- ---------------------

NTNX-5f45a488-A-CVM on                2           12884901888

vm01                off               1             536870912

vm02                on                1             536870912

 

ちなみに、PowerCLI の Get-VM での VM 一覧取得 だと、デフォルトだと下記のような感じで表示され、

逆に、詳細な情報がほしい場合はオプションを付けてコマンドレットを実行します。

こういった違いに、ツールの個性を感じます・・・

PowerCLI> Get-VM

 

Name PowerState Num CPUs MemoryGB

---- ---------- -------- --------

vm01 PoweredOn  1        1.000

vm02 PoweredOn  1        0.500

vm03 PoweredOff 1        0.500

 

とりあえず、vm01 をパワーオンしてみます。

NTNX> Get-NTNXVM -SearchString "vm01" | Set-NTNXVMPowerOn

 

taskUuid

--------

2789a91f-9a98-4f50-bd88-d010bd54fc98

 

NTNX> Get-NTNXVM | select vmName,PowerState,numVCpus,memoryCapacityInBytes | sort vmName | ft -AutoSize

 

vmName              powerState numVCpus memoryCapacityInBytes

------              ---------- -------- ---------------------

NTNX-5f45a488-A-CVM on                2           12884901888

vm01                on                1             536870912

vm02                on                1             536870912

 

とりあえず、ここまでです。

 

PowerCLI ユーザ的な Nutanix Cmdlets の感想。

まだ使い込めていませんが、

普段使っている PowerCLI よりも、玄人志向なツールな感じがしました。

同じ PowerShell ベースのツールなのですが、コマンドレットの使い勝手が結構ちがい、

「PowerCLI ができるから Nutanix Cmdlets も使える」 とまではいかない印象をうけました。

本気で(実務で)扱うとなると、シミュレータとして CE のようなツールがあるのは重要になるだろうと思います。

 

今回の発見をいくつか・・・

  • だいたいのコマンドレットは 名詞(Noun)部分が NTNX から始まる。
    関係あるコマンドレットか判別しやすく、一般のコマンドレット、PowerCLI コマンドレットなどと混在していても見分けやすい。
  • Get- 系コマンドレットで参照できるプロパティの名前でも、PowerCLI とは結構違いがある。
    参照だけでも、多少、慣れがいるかもしれない。
  • いろいろ PowerShell ベースのツールを使いこなすためには、
    PowerCLI ばかりでなく PowerShell 自体の勉強も大事だと思った。

 

以上、PowerCLI ユーザが Nutanix CE & Cmdlets を使用してみた話でした。

Photon Linux のシステムログの永続化。(Journald)

$
0
0

VMware Photon Linux ??Journald ????????????

????syslog ??????????????

ISO ???????Yum ??????? syslog ?? rsyslog ??????????????

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# mount /dev/cdrom /media/cdrom

mount: /dev/sr0 is write-protected, mounting read-only

root [ ~ ]# tdnf repolist

repo id             repo name                               status

photon-iso          VMWare Photon Linux 1.0(x86_64)         enabled

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

photon-extras       VMware Photon Extras 1.0(x86_64)        enabled

photon              VMware Photon Linux 1.0(x86_64)         enabled

root [ ~ ]# tdnf list syslog rsyslog

Error(1011) : No matching packages to list

root [ ~ ]# tdnf search syslog

Error(1601) : No matches found ?RPM ??????


Journald ?????????Storage=auto????

CentOS 7.x / RHEL 7.x / Oracle Linux 7.x ???????????????????

 

??????????????/run/log/journal ???????????

root [ ~ ]# file /run/log/journal/*/system.journal

/run/log/journal/49ff8ac6e7c34805ba3c9db3afa77eb6/system.journal: Journal file, online, compressed

 

????????????????????????

OS ???????????????????????

root [ ~ ]# df -h /run

Filesystem      Size  Used Avail Use% Mounted on

tmpfs           497M  496K  497M   1% /run

 

????/var/log/journal ?????? ??????Journald ????????

??????????????????????????????

root [ ~ ]# mkdir /var/log/journal

root [ ~ ]# ls -a /var/log/journal

.  ..  ?????????????

root [ ~ ]# systemctl restart systemd-journald

root [ ~ ]#

root [ ~ ]# ls -a /var/log/journal

root [ ~ ]# file /var/log/journal/*/*

/var/log/journal/49ff8ac6e7c34805ba3c9db3afa77eb6/system.journal: Journal file, online, compressed

 

???OS ???????????????????? /run/log ???????????

journald ??????????????????????????????????

root [ ~ ]# ls -a /run/log/

.  ..

 

?????Journald ???????? /etc/systemd/journald.conf ???

???????????????????????????????

root [ ~ ]# cat /etc/systemd/journald.conf

#  This file is part of systemd.

#

#  systemd is free software; you can redistribute it and/or modify it

#  under the terms of the GNU Lesser General Public License as published by

#  the Free Software Foundation; either version 2.1 of the License, or

#  (at your option) any later version.

#

# See journald.conf(5) for details

 

[Journal]

#Storage=auto

#Compress=yes

#Seal=yes

#SplitMode=uid

#SyncIntervalSec=5m

#RateLimitInterval=30s

#RateLimitBurst=1000

#SystemMaxUse=

#SystemKeepFree=

#SystemMaxFileSize=

#RuntimeMaxUse=

#RuntimeKeepFree=

#RuntimeMaxFileSize=

#MaxRetentionSec=

#MaxFileSec=1month

#ForwardToSyslog=no

#ForwardToKMsg=no

#ForwardToConsole=no

#ForwardToWall=yes

#TTYPath=/dev/console

#MaxLevelStore=debug

#MaxLevelSyslog=debug

#MaxLevelKMsg=notice

#MaxLevelConsole=info

#MaxLevelWall=emerg

 

???Photon Linux ???????????????

Photon Linux のシステムログを Syslog サーバへ転送。(logger コマンド)

$
0
0

VMware Photon Linux は、Journald でログ管理されていますが、

デフォルトでは、syslog や rsyslog がインストールされていません。

そこで、システムログの保全のため logger コマンドで Syslog サーバに転送してみました。

 

今回の環境

  • Photon Linux: VMware Photon Linux 1.0 TP1
  • Syslog Server: Oracle Linux 6.6 + rsyslog

 

1. Syslog サーバの準備。

 

まずは、Syslog サーバ側です。

[root@log01 ~]# cat /etc/oracle-release

Oracle Linux Server release 6.6

[root@log01 ~]# rpm -q rsyslog

rsyslog-5.8.10-8.0.1.el6.x86_64

 

rsyslog の設定ファイルを編集して、UDP 514番ポートでログ転送を受け付けるようにします。

/etc/rsyslog.conf ファイルの、「$ModLoad imudp」 と 「$UDPServerRun 514」 のコメントアウト(#)を外しています。

そして、rsyslog を再起動します。

[root@log01 ~]# cp -p /etc/rsyslog.conf rsyslog.conf_bk

[root@log01 ~]# vi /etc/rsyslog.conf

[root@log01 ~]# diff rsyslog.conf_bk /etc/rsyslog.conf

13,14c13,14

< #$ModLoad imudp

< #$UDPServerRun 514

---

> $ModLoad imudp

> $UDPServerRun 514

[root@log01 ~]# service rsyslog restart

システムロガーを停止中:                                    [  OK  ]

システムロガーを起動中:                                    [  OK  ]

 

 

Syslog サーバの、OS のファイアウォール(iptables)でも、

UDP 514番ポートのログ転送を受け付けるようにします。

[root@log01 ~]# vi /etc/sysconfig/iptables

 

/etc/sysconfig/iptables の内容は、下記のようにしました。

※1行だけ追記しています。

# Firewall configuration written by system-config-firewall

# Manual customization of this file is not recommended.

*filter

:INPUT ACCEPT [0:0]

:FORWARD ACCEPT [0:0]

:OUTPUT ACCEPT [0:0]

-A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT

-A INPUT -p icmp -j ACCEPT

-A INPUT -i lo -j ACCEPT

-A INPUT -p udp --dport 514 -j ACCEPT ★追記

-A INPUT -m state --state NEW -m tcp -p tcp --dport 22 -j ACCEPT

-A INPUT -j REJECT --reject-with icmp-host-prohibited

-A FORWARD -j REJECT --reject-with icmp-host-prohibited

COMMIT

 

そして iptables も再起動します。

[root@log01 ~]# service rsyslog restart

システムロガーを停止中:                                    [  OK  ]

システムロガーを起動中:                                    [  OK  ]

 

2. Photon Linux からのログ転送。

 

今回の Photon です。

logger コマンドは、デフォルトでインストールされる、util-linux の RPM に含まれるものを使用します。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# which logger

/usr/bin/logger

root [ ~ ]# rpm -qf /usr/bin/logger

util-linux-2.24.1-1.x86_64

 

Photon Linux から、テストログを転送してみます。

今回の Syslog サーバの IP アドレスは、「192.168.5.237」 にしてあります。

下記のように、logger コマンドを実行すると・・・

root [ ~ ]# logger --udp --port 514 --server 192.168.5.237 "test log"

 

Syslog サーバに転送され、/var/log/messages ファイルにログが出力されます。

192.168.1.31」 は、Photon の IP アドレスです。

[root@log01 ~]# tail -1 /var/log/messages

Jul 31 08:38:09 192.168.1.31 root: test log

 

Photon のシステムログ(Journald のログ)は、下記のように転送できます。

root [ ~ ]# journalctl -f -n 1 | logger --udp --port 514 --server 192.168.5.237

 

Syslog サーバの /var/log/messages

Jul 31 08:38:22 192.168.1.31 root: -- Logs begin at Wed 2015-07-29 23:35:36 JST. --

Jul 31 08:38:22 192.168.1.31 root: Jul 31 08:37:40 photon01 vmafdd[316]: t@139706123613952: VmAfSrvGetDomainName succeeded

Jul 31 08:38:40 192.168.1.31 root: Jul 31 08:38:40 photon01 vmafdd[316]: t@139706123613952: VmAfSrvGetDomainName succeeded

・・・

 

3. Photon Linux からのログ転送を自動開始する。

 

Photon の Systemd で、OS 起動時にログ転送が自動開始されるようにしてみます。

 

まず Photon Linux に、システムログを転送するスクリプトを作成しておきます。

root [ ~ ]# vi /etc/systemd/scripts/logger.sh

root [ ~ ]# chmod +x /etc/systemd/scripts/logger.sh

root [ ~ ]# ls -l /etc/systemd/scripts/logger.sh

-rwxr-xr-x 1 root root 224 Jul 31 07:03 /etc/systemd/scripts/logger.sh

 

スクリプトの内容は下記のようにしてみました。

 

/etc/systemd/scripts/logger.sh

#!/bin/sh

LOG_SERVER=$1

PORT=514

LOGGER_TAG=PHOTON_LOGGER

logger --udp --port $PORT --server $LOG_SERVER -t $LOGGER_TAG "start_logger_script"

journalctl -f -n 1 | logger --udp --port $PORT --server $LOG_SERVER -t $LOGGER_TAG

 

Systemd の Unit ファイルも作成しておきます。

作成したスクリプトは、この Unit ファイル内で指定しています。

※スクリプトの引数にある「log01.godc.lab」は、今回の Syslog サーバのアドレスです。

 

/etc/systemd/system/logger-journald.service

[Unit]

Description=Journald Logger

ConditionFileIsExecutable=/etc/systemd/scripts/logger.sh

After=network-online.target

 

[Service]

ExecStart=/etc/systemd/scripts/logger.sh log01.godc.lab

 

[Install]

WantedBy=multi-user.target

 

Systemd に logger-journald.service という名前でログ転送のサービスを登録して、起動します。

これで、Photon Linux の起動に合わせて、ログ転送されるようになります。

root [ ~ ]# systemctl enable logger-journald.service

Created symlink from /etc/systemd/system/multi-user.target.wants/logger-journald.service to /etc/systemd/system/logger-journald.service.

root [ ~ ]# systemctl start logger-journald.service

 

Syslog サーバには Jouranald のログが転送されて、

/var/log/messages ファイルには、以下のようなログが出力されます。

※下記の例だと Lightwave っぽいログかもしれませんが・・・

Jul 31 08:39:22 192.168.1.31 PHOTON_LOGGER: start_logger_script

Jul 31 08:39:22 192.168.1.31 PHOTON_LOGGER: -- Logs begin at Wed 2015-07-29 23:35:36 JST. --

Jul 31 08:39:22 192.168.1.31 PHOTON_LOGGER: Jul 31 08:39:22 photon01 systemd[1]: Started Journald Logger.

Jul 31 08:39:40 192.168.1.31 PHOTON_LOGGER: Jul 31 08:39:40 photon01 vmafdd[316]: t@139706123613952: VmAfSrvGetDomainName succeeded

・・・

 

以上、Photon のシステムログを Syslog サーバに転送してみる話でした。

Photon Linux のスタティックルート設定追加について。[Route]

$
0
0

??????? Photon Linux ??????????????

Photon Linux ? Network ?????????(IP / DNS / Hostname...)

 

Photon ??????????????????

?/etc/systemd/network/~.network??????

[Network] ????? → Gateway ?????????????????????

 

(?)

root [ ~ ]# cat /etc/systemd/network/10-static-eth0.network

[Match]

Name=eth0

 

[Network]

DHCP=no

Address=192.168.1.33/24

Gateway=192.168.1.1

DNS=192.168.1.254

 

????????????????????????????????

Photon ?? Red Hat ????????

/etc/sysconfig/network/network-scripts ???????????????????

 

???????????????????? [Route] ???????????????

 

(??)

systemd.network — Network configuration

http://www.freedesktop.org/software/systemd/man/systemd.network.html

 

????????????????????????????

root [ ~ ]# ip route

default via 192.168.1.1 dev eth0  proto static

192.168.1.0/24 dev eth0  proto kernel  scope link  src 192.168.1.33


?????????????????[Route] ??????????????????????????

root [ ~ ]# vi /etc/systemd/network/10-static-eth0.network

 

/etc/systemd/network/10-static-eth0.network ????????

?????2??????????

[Match]

Name=eth0

 

[Network]

DHCP=no

Address=192.168.1.33/24

Gateway=192.168.1.1

DNS=192.168.1.254

 

[Route]

Gateway=192.168.1.251

Destination=192.168.4.0/24

 

[Route]

Gateway=192.168.1.252

Destination=192.168.5.0/24


systemd-networkd ????????

root [ ~ ]# systemctl restart systemd-networkd

 

?????2??????????

root [ ~ ]# ip route

default via 192.168.1.1 dev eth0  proto static

192.168.1.0/24 dev eth0  proto kernel  scope link  src 192.168.1.33

192.168.4.0/24 via 192.168.1.251 dev eth0  proto static

192.168.5.0/24 via 192.168.1.252 dev eth0  proto static

 

???????????????????????????

?????? [Route] ???????????

?ip route del ?? via ??????????? ?????????????????????

(?)

root [ ~ ]# ip route del 192.168.4.0/24 via 192.168.1.251

 

?????????????????????????????????

?ip route add ?? via ??????????? ?????????????????

(?)

root [ ~ ]# ip route add 192.168.4.0/24 via 192.168.1.251

 

???Photon Linux ?????????????????

VMkernel ポートを esxcli で設定してみる。(vMotionタグなど)

$
0
0

????2013?1?8??????????

 

????????????

 

Tagging VMkernel Traffic Types Using ESXCLI 5.1
http://blogs.vmware.com/vsphere/2012/12/tagging-vmkernel-traffic-types-using-esxcli-5-1.html

 

????esxcli ????? VMkernel ???(vmk0, vmk1...)?
?vMotion ???FT ??... ?????????????????

?Tag?????? vSphere5.1 ? vCenter ???????????????????????


??? ESXi ???VMKernel ???? Tag ???

vSphere Client ? API ?????????????????
ESXi 5.1 ????esxcli ??????????????????????
(esxcli ??version 5.1 ???)

 

?????vMotion ? FT ???????????

?????????????? vMA ????

vCenter ?????ESXi (IP ?????192.168.5.61)????????????

 

ESXi ????????????????????????????????????

vi-admin@localhost:~> export VI_USERNAME=root
vi-admin@localhost:~> export VI_PASSWORD=******
vi-admin@localhost:~> esxcli --server 192.168.5.61 system version get
   Product: VMware ESXi
   Version: 5.1.0 ?ESXi ??????? 5.1 ???
   Build: Releasebuild-838463
   Update: 0

 

??????????????

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk0
   Tags: Management  ??????????????????????
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management

 

1??????????1?????????????

vmk1 ???vMotion????Fault Tolerance ????(FT)?????????

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag add -i vmk1 -t VMotion
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion  ?vMotion???????

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag add -i vmk1 -t faultToleranceLogging
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion, faultToleranceLogging ?FT???????

 

?????GUI(vSphere Client)? vmk1 ??????????

esxcli ????????????????????????????

vmk1.png

 

????remove ??????1??????????

FT ???????????

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag remove -i vmk1 -t faultToleranceLogging
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion

 

???VMkernel ??????????????


VMkernel ポートを esxcli で設定してみる。(vMotionタグなど)

$
0
0

※これは2013年1月8日ごろのポストです。

 

こんな記事見つけました。

 

Tagging VMkernel Traffic Types Using ESXCLI 5.1
http://blogs.vmware.com/vsphere/2012/12/tagging-vmkernel-traffic-types-using-esxcli-5-1.html

 

これは、esxcli コマンドで VMkernel ポート(vmk0, vmk1...)に
「vMotion 用」「FT 用」... といった設定ができるという話です。

「Tag」とあるので vSphere5.1 の vCenter インベントリのタグの話かと思ったら違いました。


以前の ESXi では、VMKernel ポートの Tag 設定を

vSphere Client や API などで設定する必要があったのですが
ESXi 5.1 からは、esxcli コマンドでも設定できるようになったようです。
(esxcli も、version 5.1 です。)

 

ためしに、vMotion と FT の設定をしてみました。

ブログ記事にならって実行元は vMA ですが、

vCenter ではなく、ESXi (IP アドレスは192.168.5.61)に対して実行しています。

 

ESXi のユーザとパスワードは、入力を省略するために環境変数で設定しておきます。

vi-admin@localhost:~> export VI_USERNAME=root
vi-admin@localhost:~> export VI_PASSWORD=******
vi-admin@localhost:~> esxcli --server 192.168.5.61 system version get
   Product: VMware ESXi
   Version: 5.1.0 ★ESXi のバージョンも 5.1 です。
   Build: Releasebuild-838463
   Update: 0

 

まず、今の設定を確認します。

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk0
   Tags: Management  ★現在のタグは「管理トラフィック」だけです。
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management

 

1回のコマンド実行で、1つずつタグを追加できます。

vmk1 に、「vMotion」と、「Fault Tolerance のログ」(FT)を追加してみます。

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag add -i vmk1 -t VMotion
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion  ★vMotionが追加された。

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag add -i vmk1 -t faultToleranceLogging
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion, faultToleranceLogging ★FTが追加された。

 

ちなみに、GUI(vSphere Client)で vmk1 の設定を見ていると、

esxcli の設定は、下記の画面を開いたままでも即時反映されました。

vmk1.png

 

削除は、remove です。これも1タグずつ実行します。

FT だけ削除してみました。

vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag remove -i vmk1 -t faultToleranceLogging
vi-admin@localhost:~> esxcli --server 192.168.5.61 network ip interface tag get -i vmk1
   Tags: Management, VMotion

 

以上、VMkernel ポートのタグづけの話でした。

VMware Lightwave をためしてみる。Part 3(Lightwave のユーザ作成)

$
0
0

今回は、Lightwave ドメインにユーザを作成して、

Docker コマンドを実行できるようにしてみます。


これまでの流れはこちら。

VMware Lightwave をためしてみる。Part 1(Lightwave Server インストール)

VMware Lightwave をためしてみる。Part 2(Lightwave Client インストール)


環境は前回と同様で、Lightwave Server / Client どちらも Photon Linux です。

  • Lightwave Server → ホスト名は photon-lw01.godc.lab
  • Lightwave Client & Docker Host → ホスト名は photon01.godc.lab


1. Lightwave サーバでのユーザ / グループ作成。


まずは、Lightwave サーバで作業します。

root [ ~ ]# uname -n

photon-lw01

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -qa | grep lightwave

vmware-lightwave-server-6.0.0-0.x86_64

 

Lightwave Server は、ドメインコントローラとしてセットアップ済みです。

VMware Lightwave をためしてみる。Part 1(Lightwave Server インストール)

 

Lightwave に、「docker」という名前のグループを作成します。

Lightwave のグループとユーザの作成や設定変更では、dir-cli コマンドを使用します。

dir-cli は、/opt/vmware/bin ディレクトリに格納されています。

※dir-cli の実行時には Lightwave 管理者のパスワードを入力します。

root [ ~ ]# cd /opt/vmware/bin/

root [ /opt/vmware/bin ]# ./dir-cli ssogroup create --name docker

Enter password for administrator@lightwave.local: ★管理者のパスワードを入力。

Service [docker] created successfully

 

作成した直後のグループには、まだユーザが所属していません。

root [ /opt/vmware/bin ]# ./dir-cli group list --name docker

Enter password for administrator@lightwave.local:

group [docker] has no members

 

次に、Lightwave にユーザを作成します。

今回は「lw_user01」というユーザを作成します。

root [ /opt/vmware/bin ]# ./dir-cli user create --account lw_user01 --first-name user01 --last-name lw

Enter password for administrator@lightwave.local:

Enter password for lw_user01@lightwave.local: ★作成するユーザに設定するパスワードを入力。

User account [lw_user01] created successfully

 

「dir-cli user find-by-name  ~」で、作成したユーザの情報を表示できます。

root [ /opt/vmware/bin ]# ./dir-cli user find-by-name --account lw_user01 --level 0

Enter password for administrator@lightwave.local:

Account: lw_user01

UPN: lw_user01@lightwave.local

 

「--level」の数字により、表示される情報が異なります。

Level 1 では、First Name と Last Name が表示されます。

root [ /opt/vmware/bin ]# ./dir-cli user find-by-name --account lw_user01 --level 1

Enter password for administrator@lightwave.local:

Account: lw_user01

UPN: lw_user01@lightwave.local

First Name: user01

Last Name: lw

 

Level 2 では、アカウントのロック状態やパスワード期限が表示されます。

root [ /opt/vmware/bin ]# ./dir-cli user find-by-name --account lw_user01 --level 2

Enter password for administrator@lightwave.local:

Account: lw_user01

UPN: lw_user01@lightwave.local

Account disabled: FALSE

Account locked: FALSE

Password never expires: FALSE

Password expired: FALSE

Password expiry: 89 day(s) 23 hour(s) 59 minute(s) 42 second(s)

 

そして、「lw_user01」を、Lightwave に作成した「docker」グループに追加します。

root [ /opt/vmware/bin ]# ./dir-cli group modify --name docker --add lw_user01

Enter password for administrator@lightwave.local:

Account [lw_user01] added to group [docker]

 

ユーザが追加されました。

ただし、ユーザ名ではなく First Name と Last Name が表示されます。

root [ /opt/vmware/bin ]# ./dir-cli group list --name docker

Enter password for administrator@lightwave.local:

CN=user01 lw,cn=users,dc=lightwave,dc=local

 

2. Lightwave クライアント側での設定

今回作成した Lightwave グループ「docker」(lightwave.local\docker)に所属するユーザが

「sudo docker ~」コマンドを実行できるようにします。

 

ここでは、Lightwave クライアント側の Photon で作業します。

この Photon は、Docker Host でもあります。

root [ ~ ]# uname -n

photon01

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -qa | grep lightwave

vmware-lightwave-clients-6.0.0-0.x86_64

 

Lightwave クライアントの Photon は、既に Lightwave ドメインに参加ずみです。

VMware Lightwave をためしてみる。Part 2(Lightwave Client インストール)


sudo を許可するため、sudoers ファイルを新規作成します。

今回作成する「/etc/sudoers.d/lightwave-docker」ファイルでは、

「lightwave.local\\docker」グループの「/bin/docker」コマンドを、パスワードなしで実行許可しています。

root [ ~ ]# echo '%lightwave.local\\docker ALL=(ALL) NOPASSWD: /bin/docker' > /etc/sudoers.d/lightwave-docker

root [ ~ ]# cat /etc/sudoers.d/lightwave-docker

%lightwave.local\\docker ALL=(ALL) NOPASSWD: /bin/docker

 

ちなみに、Lightwave ドメインの Administrator ユーザに対しての sudo 設定例が

GitHub にある README で紹介されています。

lightwave/README-SSH.md at master · vmware/lightwave · GitHub

 

3. Lightwave ユーザでの Docker 操作。

Lightwave ユーザで Photon にログインして、docker コマンドを実行してみます。

 

まず、ssh コマンドや TeraTerm などから Lightwave クライアントに、

Lightwave ドメインのユーザでログインします。

 

ユーザ名は、下記のどちらかで指定します。

<Lightwaveドメイン>\<ユーザ名> ※Linux 等のシェルで指定する場合は「\」を「\\」にします。

<ユーザ名>@<Lightwaveドメイン>


ssh コマンドでログインする場合は、下記のようにユーザ名を指定します。

# ssh -l lightwave.local\\lw_user01 photon01.godc.lab

 

TeraTerm でログインする場合は、下記のようにユーザ名を指定します。

lightwave-login.png


ログインすると、プロンプトにユーザ名が表示されます。

そして、「id」コマンドでユーザ情報を表示すると

「lightwave.local\docker」グループに所属していることがわかります。

lightwave.local\lw_user01 [ ~ ]$ uname -n

photon01

lightwave.local\lw_user01 [ ~ ]$ id

uid=16778249(lightwave.local\lw_user01) gid=545(lightwave.local\Users) groups=545(lightwave.local\Users),16778250(lightwave.local\docker)

 

docker コマンドは、sudo コマンド(sudo docker ~)で実行します。

ためしに Oracle Linux のコンテナイメージを起動してみました。

lightwave.local\lw_user01 [ ~ ]$ sudo docker run -it oraclelinux:6 /bin/bash

Unable to find image 'oraclelinux:6' locally

Pulling repository oraclelinux

cfc75fa9f295: Download complete

8c3e49cb06dc: Download complete

c96aadb57deb: Download complete

Status: Downloaded newer image for oraclelinux:6

[root@64c52aebde0f /]#  ★ここからコンテナの中。

[root@64c52aebde0f /]# cat /etc/oracle-release

Oracle Linux Server release 6.7

[root@64c52aebde0f /]# lightwave.local\lw_user01 [ ~ ]$ ★Ctrl+p+q でコンテナから抜ける。

lightwave.local\lw_user01 [ ~ ]$ sudo docker ps

CONTAINER ID        IMAGE              COMMAND            CREATED            STATUS              PORTS              NAMES

64c52aebde0f        oraclelinux:6      "/bin/bash"        33 seconds ago      Up 32 seconds                          mad_ritchie

 

たとえば、Docker Engine を利用する目的だけで Photon にログインするユーザを多めに作るとしたら、

こんな感じにすると、Lightwave でのユーザ作成→グループ参加だけで済むようになるはずです。

 

以上、Lightwave ユーザを作成して docker コマンドを実行してみる話でした。

ESXi Embedded Host Client が公開されました。

$
0
0

VMware Flings に、Host Client が公開されました。

ESXi を Web ブラウザで管理できるようにする HTML5 ベースのツールです。

 

ESXi Embedded Host Client

https://labs.vmware.com/flings/esxi-embedded-host-client

 

VMware vSphere Blog などでも紹介されています。

 

Introducing the vSphere Host Client fling

https://blogs.vmware.com/vsphere/2015/08/introducing-vsphere-host-client-fling.html

 

ESXi に VIB ファイルをインストールすることで使用できるようになり、

従来の vSphere Client(通称 C# 版と呼ばれる)のかわりに ESXi の操作ができます。

host-client.png


ためしに、インストールしてみました。

 

ESXi Embedded Host Client のインストール。

 

今回は、少し前のバージョンですが ESXi 6.0 GA にインストールしてみます。

[root@hv60n01:~] vmware -vl

VMware ESXi 6.0.0 build-2494585

VMware ESXi 6.0.0 GA

 

今回インストールする VIB ファイルは「esxui-2976804.vib」です。

SSH などで、ESXi に配置しておきます。

[root@hv60n01:~] ls /vmfs/volumes/datastore1/

esxui-2976804.vib

 

VIB ファイルの情報を見てみます。

なんと、VIB Fling ですが Acceptance Level の設定は VMwareCertified になっていました。

[root@hv60n01:~] esxcli software sources vib get -v /vmfs/volumes/datastore1/esxui-2976804.vib

VMware_bootbank_esx-ui_0.0.2-0.1.2976804

  Name: esx-ui

  Version: 0.0.2-0.1.2976804

  Type: bootbank

  Vendor: VMware

  Acceptance Level: VMwareCertified

  Summary: vSphere Host Client

  Description: An embedded web UI for ESXi

  ReferenceURLs:

  Creation Date: 2015-08-11

  Depends: esx-version >= 5.0.0

  Conflicts:

  Replaces:

  Provides:

  Maintenance Mode Required: False

  Hardware Platforms Required:

  Live Install Allowed: True

  Live Remove Allowed: True

  Stateless Ready: True

  Overlay: False

  Tags:

  Payloads: esx-ui

 

VIB ファイルをインストールします。

[root@hv60n01:~] esxcli software vib install -v /vmfs/volumes/datastore1/esxui-2976804.vib

Installation Result

  Message: Operation finished successfully.

  Reboot Required: false

  VIBs Installed: VMware_bootbank_esx-ui_0.0.2-0.1.2976804

  VIBs Removed:

  VIBs Skipped:

 

Web ブラウザからアクセスしてみます。

これまで vSphere Client でアクセスしていたアドレスで接続可能で、下記のような URL でアクセスできます。

https://<ESXi の管理ネットワークのアドレス>/ui/

 

ESXi のローカルユーザ(root など)でログインできるはずです。

host-client-flings-01.png

 

ESXi Embedded Host Client の見た目。

 

ログインすると、下記のような画面です。Web Client をシンプルにした感じです。

host-client-flings-02.png

 

VM の画面はこんな感じです。

host-client-flings-03.png

 

ストレージ(データストアなど)の画面はこんな感じです。

host-client-flings-04.png

 

ネットワークの画面はこんな感じです。

host-client-flings-05.png

 

ネットワークの画面には、TCP / IP stacks のタブがあったりします。

host-client-flings-06.png

 

ただし、(まだ?) Flings なので、製品サポートは受けられないと思います。

vSphere Client が将来的にはなくなるらしいと話題になっていますが、

こんな感じに落ち着くのかもしれません。

 

VMTN Community のページはこちら。

https://communities.vmware.com/community/vmtn/vsphere/hostclient

 

以上、Host Client の Fling を試してみた話でした。

Photon Linux のシステムログを Log Insight へ転送。(logger にて)

$
0
0

これまで、いくつか VMware Photon Linux のログ出力先を変更してみました。

そして今回は Log Insight に転送してみます。

 

これまでの話と、Log Insight への転送イメージ。

 

Photon のログ出力についてですが・・・

 

1. デフォルトでは、メモリ領域へログ出力される。

Journald でログ出力されるため、デフォルトでは /run/log/journal ディレクトリに出力される。

メモリベースの領域なので、OS 再起動するとログはリセットされる。

 

2. ディスクに永続化されるように構成変更。

ディスクベースの /run/log/journal ディレクトリ配下に出力変更してみた。

ログは永続化されて、OS 再起動しても消えないようになる。

Photon Linux のシステムログの永続化。(Journald)

 

3. Syslog サーバへ転送。

logger コマンドで Syslog サーバへ転送してみた。

Photon Linux のシステムログを Syslog サーバへ転送。(logger コマンド)

 

ここまでは、こんなイメージです。

photon-logger-01.png

今回は、Log Insight 2.5 を使用しています。

Log Insight への転送は、Syslog サーバへの転送と同じ方法を使います。

logger コマンドで、Log Insight の UDP 514番ポートへ転送してみます。

※Log Insight Agent は Photon 対応っぽくなかったので、とりあえず logger で・・・

photon-logger-02.png

 

Photon Linux のログを Log Insight へ転送。

まずは、Photon Linux に、前回と同様の logger スクリプトを配置しておきます。

※スクリプトの内容は下記にて。

Photon Linux のシステムログを Syslog サーバへ転送。(logger コマンド)

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# ls -l /etc/systemd/scripts/logger.sh

-rwxr-xr-x 1 root root 225 Jul 31 08:27 /etc/systemd/scripts/logger.sh

 

Systemd に Log Insight 転送用のサービスを登録するため、Unit ファイルを作成します。

root [ ~ ]# vi /etc/systemd/system/logger-loginsight.service

 

/etc/systemd/system/logger-loginsight.service の内容。

※「vli25n01.godc.lab」が転送先の Log Insight です。

[Unit]

Description=Journald Logger

ConditionFileIsExecutable=/etc/systemd/scripts/logger.sh

After=network-online.target

 

[Service]

ExecStart=/etc/systemd/scripts/logger.sh vli25n01.godc.lab

 

[Install]

WantedBy=multi-user.target

 

Systemd にサービスを登録~起動します。

root [ ~ ]# systemctl enable logger-loginsight.service

Created symlink from /etc/systemd/system/multi-user.target.wants/logger-loginsight.service to /etc/systemd/system/logger-loginsight.service.

root [ ~ ]# systemctl start logger-loginsight.service

 

これで Log Insight に Journald のログが転送されます。

 

Log Insight で見てみる。

 

今回は、3台の Photon (192.168.1.31 ~ 33)からログ転送してみています。

logger コマンドの「-t」オプションで「PHOTON_LOGGER」とタグ付しているため、

Photon から転送されたログを識別しやすくなっています。

 

ためしに Docker コンテナの起動(「docker run」 コマンド)を検索してみましたが、

せっかく 3台あるのに、ほとんど 1号機しか使っていなそうな様子が見受けられます。

photon-loginsight.png


以上、Photon のログを Log Insight に転送してみる話でした。

他にも使い道を模索してみたいと思います・・・

VMware Lightwave の Domain Controller と Client の見分け方。

$
0
0

VMware Lightwave の、ドメインコントローラとクライアント(ドメイン参加しているサーバ)ですが、

それぞれのサーバで vmafd-cli コマンドを実行することで確認できます。

 

これのコマンドは、 Lightwave の RPM をインストールすると一緒にインストールされる

vmware-afd-client という RPM に含まれます。

「afd」というのは、VMware Authentication Framework Service のデーモンということのようです。

root [ ~ ]# rpm -qf /opt/vmware/bin/vmafd-cli

vmware-afd-client-6.0.0-0.x86_64

 

Lightwave ドメインコントローラ側の見え方。


「photon-lw01」 というホスト名の Photon Linux を Lightwave ドメインコントローラにしています。

root [ ~ ]# uname -n

photon-lw01

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -qa | grep lightwave

vmware-lightwave-server-6.0.0-0.x86_64

 

vmafd-cli get-domain-state ~ というコマンドで確認すると、

「Controller」 と表示されます。

そして、ドメイン名が「lightwave.local」 だということもわかります。

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-state --server-name localhost

Controller

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-name --server-name localhost

lightwave.local

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-dc-name --server-name localhost

photon-lw01

 

ドメイン参加しているクライアント側の見え方。

 

lightwave.local ドメインに参加している、「photon01」というホスト名の Photon を見てみます。

root [ ~ ]# uname -n

photon01

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -qa | grep lightwave

vmware-lightwave-clients-6.0.0-0.x86_64

 

こちらは、vmafd-cli get-domain-state コマンドで「Client」と表示されます。

そして参加しているドメイン名と、ドメインコントローラもわかります。

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-state --server-name localhost

Client

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-name --server-name localhost

lightwave.local

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-dc-name --server-name localhost

photon-lw01.godc.lab

 

ちなみに、RPM インストールしただけの状態だと、

vmafd-cli  を実行してもまだエラーになるだけです。

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-name --server-name localhost

Error 1021: Could not connect to the local service VMware AFD.

Verify VMware AFD is running.

 

こちらもどうぞ・・・

VMware Lightwave をためしてみる。Part 1(Lightwave Server インストール)

VMware Lightwave をためしてみる。Part 2(Lightwave Client インストール)

VMware Lightwave をためしてみる。Part 3(Lightwave のユーザ作成)

 

以上。Lightwave ドメインコントローラとメンバの見分け方でした。

Photon Linux の Docker Update。(tdnf にて)

$
0
0

Photon Linux の Docker は、RPM で導入されます。

そして、Photon Linux は、RPM を yum のかわりに tdnf で管理できます。

Photon Linux の RPM パッケージ管理。(yum / tdnf)

 

そこで、tdnf コマンドで docker をアップデートしてみました。

 

VMware Photon Linux 1.0 TP1 は、デフォルトだと Docker 1.5 です。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# docker -v

Docker version 1.5.0, build a8a31ef

root [ ~ ]# docker version

Client version: 1.5.0

Client API version: 1.17

Go version (client): go1.4.1

Git commit (client): a8a31ef

OS/Arch (client): linux/amd64

Server version: 1.5.0

Server API version: 1.17

Go version (server): go1.4.1

Git commit (server): a8a31ef

 

tdnf コマンドで RPM をダウンロードするリポジトリの設定は、

下記のようにしています。

※設定方法は Yum と同じです。(Yum リポジトリを参照します。)

root [ ~ ]# cat /etc/yum.repos.d/*.repo | grep -E "^\[|baseurl|enable"

[lightwave]

baseurl=https://dl.bintray.com/vmware/lightwave

enabled=0

[photon-extras]

baseurl=https://dl.bintray.com/vmware/photon_extras

enabled=1

[photon-iso]

baseurl=file:///media/cdrom/usr/src/photon/RPMS

enabled=1

[photon-updates]

baseurl=https://dl.bintray.com/vmware/photon_updates_1.0_TP1_x86_64

enabled=1

[photon]

baseurl=https://dl.bintray.com/vmware/photon_release_1.0_TP1_x86_64

enabled=1

 

Docker のアップデートがあるか見てみます。

現状でインストールされているのは、docker 1.5.0-3 @System)で、

リポジトリにある現時点での最新版は、photon-extras にある docker 1.7.0-1 でした。

root [ ~ ]# tdnf list docker

docker.x86_64                                1.5.0-3                     @System

docker.x86_64                                1.5.0-3                  photon-iso

docker.x86_64                                1.6.0-2              photon-updates

docker.x86_64                                1.7.0-1               photon-extras

docker.x86_64                                1.5.0-3                      photon

 

Docker をアップデートします。

root [ ~ ]# tdnf update docker

Upgrading:

docker x86_64  1.7.0-1

Is this ok [y/N]:y

Downloading 4450014.00 of 4450014.00

Testing transaction

Running transaction

 

Docker のバージョンを確認してみます。

RPM のアップデート直後で、まだ Docker サービスを再起動していないため

Client と Server でバージョンが違うとエラーが表示されます。

※Docker のバージョン 1.5 / 1.7 とは違う部分でのバージョン番号についてのエラー表示のようです。

root [ ~ ]# docker -v

Docker version 1.7.0, build 0baf609

root [ ~ ]# docker version

Client version: 1.7.0

Client API version: 1.19

Go version (client): go1.4.2

Git commit (client): 0baf609

OS/Arch (client): linux/amd64

Error response from daemon: client and server don't have same version (client : 1.19, server: 1.17)

 

Systemd で管理されている Docker サービスを再起動します。

Systemd の Unit ファイルも更新されているようで、

systemctl daemon-reload を実行しておきます。

root [ ~ ]# systemctl restart docker

Warning: Unit file of docker.service changed on disk, 'systemctl daemon-reload' recommended.

 

Docker サービスの再起動

root [ ~ ]# systemctl daemon-reload

root [ ~ ]# systemctl restart docker

 

バージョン確認でも、エラー表示がなくなりました。

root [ ~ ]# docker version

Client version: 1.7.0

Client API version: 1.19

Go version (client): go1.4.2

Git commit (client): 0baf609

OS/Arch (client): linux/amd64

Server version: 1.7.0

Server API version: 1.19

Go version (server): go1.4.2

Git commit (server): 0baf609

OS/Arch (server): linux/amd64

 

以上、Photon の Docker をアップデートする話でした。

VMware Photon Linux 1.0 TP2 が公開されました。

$
0
0

VMworld 2015 ?

vSphere Integrated Containers(VIC) ?

Photon Platform

????????????????? Photon OS (Photon Linux)???????????????


??? VMware Photon Linux 1.0 TP2 ???????????


New Capabilities in Project Photon OS Technical Preview 2 (TP2)

https://blogs.vmware.com/vsphere/2015/08/new-capabilities-in-project-photon-os-technical-preview-2-tp2.html

 

VMworld 2015 ????????????Photon ? Web ?????

?VMware Photon OS?????????????????????

VMware Photon OS

https://vmware.github.io/photon/

?ISO ?????????OVA ????????????????


Bintray ????????????????? ISO ?????????

vmware / photon / iso / 1.0TP2

https://bintray.com/vmware/photon/iso/1.0TP2/view#files

 

Photon Linux 1.0 TP2 ???????

 

TP2 ??????????????

?????????????(TP1)? Photon ?????????????????????


?? ISO ????(???? CD / DVD)????????

?Install?????????? Enter ???

photon-1tp2-inst-01.png


???????????(?Accept?? Enter ???)

photon-1tp2-inst-02.png

 

???????????????????

photon-1tp2-inst-03.png


??????????????????????????????

photon-1tp2-inst-04.png


????????????????

??? Full ???????????????? Minimal ???

TP2 ???OSTree ?????????Custum ???????????

  • Photon Micro
  • Photon Minimal ??????
  • Photon Full
  • Photon OSTree Host ?TP2 ????
  • Photon OSTree Server ?TP2 ????

photon-1tp2-inst-05.png

 

TP2 ????????? ?photon-??????>? ????

???????????????????????

???????????????

photon-1tp2-inst-06.png


root ????????????????

photon-1tp2-inst-07.png


????????????1????????2???????????????

????????????

photon-1tp2-inst-08.png


????????????????????????????

????????????Enter ???????????

photon-1tp2-inst-09.png


OS ??????????????????

photon-1tp2-inst-10.png


????????????????? root ?????????????

Linux ????? 4.0.9 ??Docker ? 1.8.1 ????

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP2

root [ ~ ]# uname -r

4.0.9

root [ ~ ]# docker -v

Docker version 1.8.1, build d12ea79

 

Lightwave ? Yum (tdnf)?????????????????

???(enabled)???????

root [ ~ ]# tdnf repolist

repo id             repo name                               status

photon              VMware Photon Linux 1.0(x86_64)         enabled

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

lightwave           VMware Lightwave 1.0(x86_64)            enabled

 

VIC?Photon Platform ???????????????????????????

 

???VMware Photon Linux 1.0 TP2 ?????????????


VMware Lightwave に LDAP 検索してみる。(ldapsearch)

$
0
0

VMware Lightwave Server は、LDAP サーバとしての機能をもっていて、

Windows の Active Directory ドメインコントローラと同じように LDAP 検索をすることも可能です。


Lightwave には、現状ではまだ登録情報をわかりやすく見る UI が無そうなので、

ためしに、Photon Linux に含まれている ldapsearch コマンドで、LDAP 検索してみました。


Lightwave Server は、Photon Linux にインストールされています。

今回はまだ 1.0 TP1 です。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

 

この Photon は、Lightwave ドメインコントローラです。

(参考) こちらもどうぞ

VMware Lightwave の Domain Controller と Client の見分け方。

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-state --server-name localhost

Controller  ★ドメインコントローラ。

root [ ~ ]# /opt/vmware/bin/vmafd-cli get-domain-name --server-name localhost

lightwave.local ★ドメイン名

 

ldapsearch もインストールされています。

root [ ~ ]# ldapsearch -VV

ldapsearch: @(#) $OpenLDAP: ldapsearch 2.4.40 (Apr 15 2015 23:12:31) $

        @discus-test:/usr/src/photon/BUILD/openldap-2.4.40/clients/tools

        (LDAP library: OpenLDAP 20440)

root [ ~ ]# which ldapsearch

/usr/bin/ldapsearch

root [ ~ ]# rpm -qf /usr/bin/ldapsearch

openldap-2.4.40-1.x86_64

 

たとえば、下記のように検索すると、

lightwave.local(今回の Lightwave ドメイン名)の LDAP エントリを全件表示できます。

これですべてのエントリが表示できるので、そこからあたりを付けます。


今回の ldapsearch の検索では・・・

  • 「-D」で Lightwave ドメイン管理者ユーザを指定しています。
  • 「-d」 で、検索対象を指定しています。
  • 「-w」 で、パスワードを指定します。※大文字の「-W」にすると、都度入力にすることもできます。

※コマンドラインを簡略化するため、最初に「lightwave.local\Administrator」のパスワードを変数にいれてしまっています。

※全件表示は多いので省略してます。

root [ ~ ]# pw=<Administrator のパスワード>

root [ ~ ]# ldapsearch -D "cn=Administrator,cn=users,dc=lightwave,dc=local" -b "dc=lightwave,dc=local" -w $pw

 

結果の全件表示からアタリを付けて、ldapsearch の検索内容を変更してみます。

 

例1: 検索先「-b cn=users,dc=lightwave,dc=local」 にしぼってユーザを探してみます。

ついでに userPrincipalName が lw_user01@lightwave.local のエントリだけ表示しています。

root [ ~ ]# ldapsearch -D 'cn=Administrator,cn=users,dc=lightwave,dc=local' -b 'cn=users,dc=lightwave,dc=local' -w $pw userPrincipalName=lw_user01@lightwave.local

# extended LDIF

#

# LDAPv3

# base <cn=users,dc=lightwave,dc=local> with scope subtree

# filter: userPrincipalName=lw_user01@lightwave.local

# requesting: ALL

#

 

# user01 lw, users, lightwave.local

dn: CN=user01 lw,cn=users,dc=lightwave,dc=local

nTSecurityDescriptor:: AQAEgBQ~(省略)

givenName: user01

sn: lw

userPrincipalName: lw_user01@lightwave.local

sAMAccountName: lw_user01

cn: user01 lw

objectClass: top

objectClass: person

objectClass: organizationalPerson

objectClass: user

 

# search result

search: 2

result: 0 Success

 

# numResponses: 2

# numEntries: 1

 

例2: Lightwave ドメインに参加しているサーバを探してみる。

検索先を「-b 'ou=Computers,dc=lightwave,dc=local'」 に変更して、

さらにobjectClass が computer のエントリを検索します。

表示する属性情報も、dn cn vmwMachineGUID の3つにしぼってみました。

root [ ~ ]# ldapsearch -D 'cn=Administrator,cn=users,dc=lightwave,dc=local' -b 'ou=Computers,dc=lightwave,dc=local' -w $pw '(objectClass=computer)' dn cn vmwMachineGUID

# extended LDIF

#

# LDAPv3

# base <ou=Computers,dc=lightwave,dc=local> with scope subtree

# filter: (objectClass=computer)

# requesting: dn cn vmwMachineGUID

#

 

# photon01, Computers, lightwave.local

dn: cn=photon01,ou=Computers,dc=lightwave,dc=local

vmwMachineGUID: 9cfed666-dc7f-49da-88bc-6611c400399e

cn: photon01

 

# photon02, Computers, lightwave.local

dn: cn=photon02,ou=Computers,dc=lightwave,dc=local

vmwMachineGUID: 701681b6-1a85-4a6f-b7c1-c09aa4466d34

cn: photon02

 

# photon03, Computers, lightwave.local

dn: cn=photon03,ou=Computers,dc=lightwave,dc=local

vmwMachineGUID: 25662494-ea52-428f-bdea-66ad816b67e4

cn: photon03

 

# search result

search: 2

result: 0 Success

 

# numResponses: 4

# numEntries: 3

 

ldapsearch が使いにくかったら、普通の Linux コマンド grep などを併用してユーザを探したりできます。

 

下記のような感じで、Lightwave ドメインに作成したユーザが、だいたいわかります。

ちなみに、管理者ユーザや自分で作成したユーザ以外にもビルトインのユーザが存在しているようです。

root [ ~ ]# ldapsearch -D 'cn=Administrator,cn=users,dc=lightwave,dc=local' -b 'cn=users,dc=lightwave,dc=local' -w $pw | grep userPrincipalName

userPrincipalName: gowatana@lightwave.local

userPrincipalName: krbtgt/LIGHTWAVE.LOCAL@LIGHTWAVE.LOCAL

userPrincipalName: K/M@LIGHTWAVE.LOCAL

userPrincipalName: Administrator@LIGHTWAVE.LOCAL

userPrincipalName: lw_user01@lightwave.local

userPrincipalName: lw_user02@lightwave.local

 

ドメイン参加しているメンバサーバがだいたいわかります。

root [ ~ ]# ldapsearch -D 'cn=Administrator,cn=users,dc=lightwave,dc=local' -b 'ou=Computers,dc=lightwave,dc=local' -w $pw | grep dn

dn: ou=Computers,dc=lightwave,dc=local

dn: cn=photon01,ou=Computers,dc=lightwave,dc=local

dn: cn=photon02,ou=Computers,dc=lightwave,dc=local

dn: cn=photon03,ou=Computers,dc=lightwave,dc=local

 

この先 Lightwave がどう進化するかわかりませんが、現状の dir-cli コマンドだけだとわからない情報があったりします。

今回はうっかり登録したユーザや参加させたメンバを忘れてしまったため、つい ldapsearch してしまいました・・・

 

以上、Lightwave で LDAP 検索をしてみる話でした。

PowerCLI の Get-EsxCli の用途について思うこと。

$
0
0

以前、こんなポストをしてみました。

PowerCLI から esxcli を実行する。(Get-EsxCli)

 

Get-EsxCli で情報取得することで、esxcli で取得できる情報を PowerShell で扱えるようになるので、

PowerShell ユーザにとっては結構便利ではないかと思います。

 

たとえば、esxcli でストレージデバイスの一覧 「esxcli storage core device list」 を取得してみます。

esxcli で取得できる情報は、PowerCLI のコマンドレットでは取得しにくいものが多いのですが、

これが PowerShell で扱えるようになります。

~ # uname -n
hv55h01.godc.lab
~ # vmware -vl
VMware ESXi 5.5.0 build-2456374

VMware ESXi 5.5.0 Update 2

~ # esxcli storage core device list
t10.ATA_____ADATA_SX900_____________________________2E4820021942________
    Display Name: Local ATA Disk (t10.ATA_____ADATA_SX900_____________________________2E4820021942________)
    Has Settable Display Name: true
    Size: 488386
    Device Type: Direct-Access
    Multipath Plugin: NMP
    Devfs Path: /vmfs/devices/disks/t10.ATA_____ADATA_SX900_____________________________2E4820021942________
    Vendor: ATA
    Model: ADATA SX900
    Revision: 5.8.
    SCSI Level: 5
    Is Pseudo: false
    Status: on
    Is RDM Capable: false
    Is Local: true
    Is Removable: false
    Is SSD: true
    Is Offline: false
    Is Perennially Reserved: false
    Queue Full Sample Size: 0
    Queue Full Threshold: 0
    Thin Provisioning Status: yes
    Attached Filters:
    VAAI Status: unknown
    Other UIDs: vml.01000000003245343832303032313934322020202020202020414441544120
    Is Local SAS Device: false
    Is USB: false
    Is Boot USB Device: false
    No of outstanding IOs with competing worlds: 32
(以下省略)

 

PowerCLI の、Get-EsxCli で ESXi から情報取得してみます。

※今回は、すでに Connect-VIServer で vCenter に接続済みです。

 

今回、esxcli で情報取得する ESXi はこれです。

PowerCLI> Get-VMHost hv55h01.godc.lab | select Name, Version, Build, Manufacturer, Model| ft -AutoSize


Name             Version Build   Manufacturer Model
----             ------- -----   ------------ -----
hv55h01.godc.lab 5.5.0   2456374 HP           ProLiant Micro Server

 

Get-EsxCli で esxcli が実行できます。

PowerCLI> (Get-VMHost hv55h01.godc.lab | Get-EsxCli)


========================
EsxCli: hv55h01.godc.lab

 

    Elements:
    ---------
    device
    esxcli
    fcoe
    graphics
    hardware
    iscsi
    network
    sched
    software
    storage
    system
    vm
    vsan

 

ざっくりですが、

「esxcli storage core device list」 と同様の情報を取得できることがわかります。

PowerCLI> (Get-VMHost hv55h01.godc.lab | Get-EsxCli).storage.core.device.list() | gm | select Name

 

Name
----
AttachedFilters
DevfsPath
Device
DeviceType
DisplayName
HasSettableDisplayName
IsBootUSBDevice
IsLocal
IsLocalSASDevice
IsOffline
IsPerenniallyReserved
IsPseudo
IsRDMCapable
IsRemovable
IsSSD
IsUSB
Model
MultipathPlugin
NoofoutstandingIOswithcompetingworlds
OtherUIDs
QueueFullSampleSize
QueueFullThreshold
Revision
SCSILevel
Size
Status
ThinProvisioningStatus
VAAIStatus
Vendor
Equals
GetHashCode
GetType
ToString

 

そして、PowerShell の Select-Object(select)や Format-Table(ft)で、

コマンドの出力結果を抽出 / 加工することができたりします。

PowerCLI> (Get-VMHost hv55h01.godc.lab | Get-EsxCli).storage.core.device.list() | sort Vendor,Model | ft -AutoSize Vendor, Model, Size, IsUSB, IsBoot USBDevice, IsSSD, Device

 

Vendor  Model            Size   IsUSB IsBootUSBDevice IsSSD Device
------  -----            ----   ----- --------------- ----- ------
ATA     ADATA SX900      488386 false false           true  t10.ATA_____ADAT...
ATA     Hitachi HDS72101 953869 false false           false t10.ATA_____Hita...
ATA     Hitachi HDS72101 953869 false false           false t10.ATA_____Hita...
ATA     Hitachi HDS72101 953869 false false           false t10.ATA_____Hita...

UFD 2.0 Silicon-Power4G  3824   true  true            false mpx.vmhba32:C0:T...

 

取得した結果を PowerShell で扱えるだけでなく、

ESXi ではなく vCenter に接続することで esxcli コマンドが実行できるため、

セキュリティ対策などで ESXi への直接ログインを減らしたい場合などにも

Get-EsxCli は有効かもしれません。

 

以上、Get-EsxCli についてでした。

vSphere + NSX + OpenStack を HoL で見てみる。

$
0
0

VMworld がおわり、そして日本では vForum が近づき、

VMware の Hands-On Labs Online(HoL) がいろいろ更新されています。

これまでは、HOL-~-14XX という番号だった HoL が更新されて、

HOL-~-16XX という番号のものが登場してきています。


今(2015/10/27~)、日本では OpenStack で盛り上がっているようなので、

VMware Integrated OpenStack (VIO) 構築済みの環境で

VMware vSphere + NSX + OpenStack が体験できる HoL を紹介してみようと思います。


これです。

HOL-SDC-1620 OpenStack with VMware vSphere and NSX


下記で「OpenStack」とかで検索すると見つかります。

http://labs.hol.vmware.com/HOL/catalogs/catalog/all


この HoL の環境を見てみようと思います。

オブジェクト名や ID などは変更されることもあると思うので、

そのときの Lab 環境に読み替えてください。


まず、VIO の OpenStack Horizon ダッシュボードのログイン画面はこんな感じです。

openstack-hol-01.png


ログインして、Hypervisor のメニューのあたりを見ると、vSphere と連携していることがわかります。

VMware vCenter Server の、「Compute Cluster A」というクラスタが OpenStack 環境に組み込まれています。

openstack-hol-02.png


vSphere Web Client から見てみると、

たしかに「Compute Cluster A」クラスタがあります。

openstack-hol-02a.png


OpenStack の特徴としてマルチテナント環境を構成することができます。

例としては微妙ですが、「admin」テナント(ダッシュボードでは Project)があります。

今回の環境では 6960~16e7 という ID が割り当てられています。

openstack-hol-03.png


そしてテナントには、

「TestNet」というネットワークに接続された「TestVM」という VM があります。

この VM には、804c~5dd2 という ID が割り当てられています。

openstack-hol-03a.png


これを vSphere のレイヤから見ると、

「Project (ID) 」という VM フォルダの配下に TestVM が作成されています。

ただし、先ほどの Web Client の画面からもわかるように、管理用 VM や別テナントの VM も見えたりします。

このように、仮想化基盤はを構成するのは vSphere ですが、

マルチテナントのためのアクセス制御は OpenStack のレイヤが担当していることがわかります。


また、画面下の「OpenStack VM」の欄にあるように、

vSphere 環境では OpenStack レイヤから見た VM の情報が、一部わかるようになっています。

openstack-hol-03b.png


先ほどあった admin テナントの「TestNet」ネットワークですが、

OpenStack のレイヤでは、「5b52~b210」という ID が割り当てられています。

openstack-hol-04a.png


これを、NSX のレイヤから見てみます。

※vSphere Web Client の Networking & Security メニューからです。

openstack-hol-04b.png


OpenStack のネットワークは、

NSX では Logical Switch として扱われています。

「TestNet」ネットワークの ID が名前になっている Logical Switch が作成されています。

openstack-hol-04c.png


そして、その論理スイッチには、確かに「TestVM」という VM が接続されています。

openstack-hol-04d.png


一方、TestVM を vSphere のレイヤから見てみると、NSX の Logical Switch は

ポートグループ(vDS の 分散ポートグループ)として作成されています。

OpenStack + NSX + vSphere の環境では、ネットワークのマルチテナント化を

リソース要求する利用者からのアクセス制御は OpenStack のレイヤで、

ネットワーク的な隔離の実装は NSX ⁺ vSphere のレイヤが担当していることがわかります。

openstack-hol-04e.png


今回は何も設定操作などはしていませんが、

HoL には、ログインするとシナリオを含むマニュアルが表示されます。


実際に体験してみると、vSphere と OpenStack は別のレイヤを担当するもので、

お互いが置き換えにならないことがわかるのではないかと思います。


以上、HoL で OpenStack + NSX + vSphere を眺めてみる話でした。

Photon Linux 1.0 TP2 の地味な変更点について。

$
0
0

VMware Photon OS ですが、

vForum 2015 でも盛んに取り上げられ、Photon Controller も GitHub で公開され

徐々に知名度が上がっているのではないかと思われます。

 

VMware Photon

https://github.com/vmware/photonhttps://github.com/vmware/photon

 

VMware Photon Controller

https://github.com/vmware/photon-controllerhttps://github.com/vmware/photon-controller

 

Photon は、VMworld の開催された2015年8月末ごろに Photon OS とよばれるようになり

Technical Preview 2(1.0 TP2)もリリースされています。

New Capabilities in Project Photon OS Technical Preview 2 (TP2) - VMware vSphere Blog - VMware Blogs

 

以前にこんなポストもしてみましたが・・・

VMware Photon Linux 1.0 TP2 が公開されました。

 

PXE Boot インストールや RPM-OSTree への対応といった大きく公表されているところ以外にも、

いくつか変更されていることに気づきました。

 

今回の Photon のバージョンです。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP2

 

たとえば・・・

 

syslog-ng が入った。

いままで、ログ管理が悩ましい気がしていたので、便利になったと思います。

root [ ~ ]# rpm -q syslog-ng

syslog-ng-3.6.2-3.ph1tp2.x86_64

 

ふつうにテキストログが /var/log/messages ファイルに出力されたりします。

root [ ~ ]# ls -lh /var/log/messages

-rw------- 1 root root 548K Nov 26 11:11 /var/log/messages

 

NIC の名前付けのルールが変更された。

eth0 みたいな名前から、RHEL7 や Oracle Linux 7 でおなじみの enp0s3 みたいな名前に変更されました。

Photon ではあまり RPM が導入されていませんが、

それでも ip コマンドだけでなく ifconfig コマンドも使用できます。

※この例では、NIC が2つあります。

root [ ~ ]# ifconfig -a
enp0s3    Link encap:Ethernet  HWaddr 08:00:27:79:C1:4B
           inet addr:10.0.2.15  Bcast:10.0.2.255  Mask:255.255.255.0
           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
           RX packets:6 errors:0 dropped:0 overruns:0 frame:0
           TX packets:24 errors:0 dropped:0 overruns:0 carrier:0
           collisions:0 txqueuelen:1000
           RX bytes:1528  TX bytes:2371

 

enp0s8    Link encap:Ethernet  HWaddr 08:00:27:B1:5B:BB
           inet addr:192.168.56.101  Bcast:192.168.56.255  Mask:255.255.255.0
           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
           RX packets:29235 errors:0 dropped:0 overruns:0 frame:0
           TX packets:710 errors:0 dropped:0 overruns:0 carrier:0
           collisions:0 txqueuelen:1000
           RX bytes:2467629  TX bytes:116892

 

lo        Link encap:Local Loopback
           inet addr:127.0.0.1  Mask:255.0.0.0
           UP LOOPBACK RUNNING  MTU:65536  Metric:1
           RX packets:323 errors:0 dropped:0 overruns:0 frame:0
           TX packets:323 errors:0 dropped:0 overruns:0 carrier:0
           collisions:0 txqueuelen:0

          RX bytes:95887  TX bytes:95887

 

Open vSwitch が入っている。

ホストをまたぐコンテナ管理機能で使うことになるのか・・・?

root [ ~ ]# rpm -qa | grep openvswitch

openvswitch-2.3.1-1.ph1tp2.x86_64

 

まだ謎の多い Photon ですが、

いろいろと調整されているようで VIC や Photon Platform が GA になるころにどうなるのか楽しみです。

 

以上、Photon OS の 1.0 TP2 での地味な変更点についてでした。

VMware のコミュニティサイトと、日本語 Online Forum の様子。

$
0
0
このポストは、2015年の vExpert アドベントカレンダー 2日目です。
 
VMware のオンラインコミュニティサイト、
VMware Technology Network(VMTN)と、その中の日本語フォーラム VMTNJ の紹介をしようと思います。
 
VMTN の主なコンテンツは下記のようなものです。
  • 質問などを投稿する「ディスカッション」
  • 主に情報提供むけと思われる「文章」
そして、このブログもその一部です。
VMTN では個人ブログを開設することもできます。

ただ、このブログ機能は正直あまり使い勝手がよいとは言えないので

個人的には、ブログに関しては別のブログサービスのほうがよい気もします。

  

これらのコンテンツの一部として、VMTN Japan Online Forum(VMTNJ)というフォーラムがあります。

VMTN Japan Online Forum の様子。
 
Japan Online Forum(VMTNJ)は、こんなサイトです。
 
VMTNJ へは、VMware の日本のコーポレートサイト(http://www.vmware.com/jp)上部にある
「コミュニティ」リンクをクリックすると、直接たどりつくことができます。
 
VMTN の中では、VMTNJ は下記のような位置づけになっていて、
コミュニティサイトの HOME からリンクをたどっていくこともできます。
 
製品別フォーラムとは異なり、特に製品の制限などはなく日本語での投稿は何でもここにされます。
ちなみに Asia Pacific では、日本語の他に中国語のフォーラムも利用されています。
 
VMTNJ にあるパンくずリストからも構造がわかります。
見ての通り、結構 VMTN の奥地にあるので Web ブラウザのお気に入りに入れておくとよいでしょう。
 
ちなみに、このサイトは Jive というプロダクトでできています。わりとメジャーなもののようで、
海外ベンダのコミュニティサイトではこの Jive か Lithium をよく目にする気がします。
たとえば、ORACLE、EMC、Cisco、SolarWinds などのコミュニティサイトも Jive を使用しているようです。
 
 

VMTNJ の様子と利用方法。

  

日本語フォーラムでは主に「ディスカッション」が利用されていて、

ディスカッション数はだいたい 100~120件/年 くらいです。

内容は、VMware Workstation (Player / Pro) / Fusion / vSphere あたりの質問が多いです。

  

最近、フォーラムへの投稿方法についてのドキュメントを作成されたので、

VMTNJ に投稿される場合は一読をお勧めします。

【最初にお読みください】このフォーラムの利用方法

※これがディスカッションではなく「文章」というコンテンツです。

  

迷子になる人も多いようなので、日本語でのディスカッションを開始したい場合は、

VMTNJ にいることを確認したうえで「Start Discussion」ボタンを押すとよいでしょう。

  

  

VMTNJ 以外の VMTN フォーラムについて。
 
VMTNJ は正直そんなに活発ではないのですが、
各製品フォーラムでは頻繁にディスカッションされて(ほぼ毎日更新されて) いるので、
英語に抵抗のない方は、VMTNJ よりそちらを利用したほうがよいと思います。
たとえば、
といったメジャーな製品だけでなく、
のようなマニアックな製品でも、意外と活発にディスカッションされていたりします。
面白いドキュメントが公開されていたりもします。たとえば NSX では・・・
  
モニタリングやログ管理を含む、NSX の運用ガイド

  

OpenStack のフォーラムで、NSX とのコンフィグレーションガイド

VIO2.0&NSX - Network Topologies Configuration Guide-v1.0(public).pptx

 
 
他にも下記のような、他社製品とのインテグレーションや、
無償製品、テクノロジープレビューについてのフォーラムも用意されています。
 
Oracle Database の仮想化について。
 
最近公開された、vSphere Client のかわりになるかもしれない「Host Client」。
 
今話題の、コンテナに最適化された軽量 Linux。
 
作業効率化、自動化などでおなじみの PowerCLI。
 
 
最近公開された Photon 関連のようなものは、
個人的には、コミュニティを活用できたらうれしい製品だと思います。
また、オフラインでの VMUG の部会などでも VMTNJ は毎回紹介されているらしいので、
VMTNJ も、もう少し活性化されるかもしれないと期待しています。
 
以上、VMTN と VMTNJ の紹介でした。
Viewing all 495 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>