Quantcast
Channel: にほんごVMware
Viewing all 495 articles
Browse latest View live

vSphere 6.0 の 新機能について。(vSphere FT の 2重化の改善)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 の FT(vSphere Fault Tolerance)では 4 vCPU まで使用できるようになりましたが、

それ以外にも色々変更があります。

FT を有効化した VM の 2重化が、ストレージ単位でも 2重化されるようになりました。

 

前回はこちら・・・

vSphere 6.0 の 新機能について。(SMP-FT)

 

vSphere 5.5 までは、FT を有効にしている VM では

VM の構成ファイル(仮想ディスクの VMDK ファイルなど)を共有していました。

起動されている VM 単位では 2重化(冗長化)されているのですが、

そのもとになる 仮想マシン構成ファイルが冗長化される仕組みではありませんでした。

ft-vmdk-01.png


vSphere 6.0 からは、FT を有効化することで

VM の構成ファイルも  2重化されるようになりました。

プライマリ / セカンダリ VM それぞれが、完全に別 ESXi、別データストア(ストレージ)に

配置されるようになります。

ホスト障害だけでなく、ストレージ障害にも耐えられるようになります。


しかも、共有データストアだけでなく

ローカルディスクのデータストアにも配置できるようです。

ft-vmdk-02.png


しかも、仮想ディスク(VMDK)形式は

Eager Zeroed Thik だけでなく、Thin プロビジョニングでもよいようです。


個人的に、FT が複数の vCPU で使用できるようになったよりも

大きな改善ではないかと思います。


以上、vSphere 6.0 の FT での 2重化のしかたの改善についての話でした。


vSphere 6.0 の 新機能について。(Content Library での Template 管理)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 の新機能に「コンテンツ ライブラリ」というものがあり、

VM テンプレートや vApp テンプレート、ISO ファイル、スクリプトなどを

アップロードして集中管理することができます。

また、ライブラリにパスワードを設定することもできます。


ファイルなら何でもコンテンツとして登録できるようですが、

基本的には VM テンプレート と、vApp テンプレートの集中管理で使うもののように感じました。


そもそも、VM のテンプレートについて

vCenter で管理されている環境では、VM のテンプレートを作成しておくと

それを複製することで同じ構成の VM を作成することができます。

(テンプレートから VM を作成することを デプロイ と言ったりします。)


vCenter 環境特有のテンプレート以外にも、OVF という形式のテンプレートもあります。

これは、vCenter や ESXi に VM としてインポートすることができます。


vCenter の VM テンプレートは、VM から変換することで作成します。

もちろん OVF からインポートした VM も、vCenter で扱う VM テンプレートにすることができます。

content-lib-01.png


この VM テンプレートですが、複数台の vCenter がある環境では

同じ内容のテンプレートでも vCenter ごとに別物として管理されます。

そのため、同じ VM テンプレートを使用したい場合は、

それぞれの vCenter に全く同じ VM を作成したり

OVF エクスポート / インポートして vCenter 間でテンプレートをやりくりしたりする必要がありました。

たとえば下図のようにテンプレートを受け渡したりするので、これまで結構めんどうだったりしました。

content-lib-02.png

 

コンテンツ ライブラリと、VM テンプレートの管理について

vSphere 6.0 からは、「コンテンツ ライブラリ」という機能を使用することで

複数台の vCenter がある環境でも VM テンプレートを集中管理することができるようになりました。

コンテンツの配置先として、データストアや vCenter の認識しているストレージが使用できます。


コンテンツ ライブラリは vCenter 単位で作成されます。

また、vCenter ごとに、複数のコンテンツ ライブラリを作成できます。

 

OVF を直接コンテンツライブラリにインポートしたり、

テンプレートをコンテンツとして登録することで、複数の vCenter で利用できるようになったりします。

たとえば、下図のように、

別の vCenter のコンテンツ ライブラリで「Template#1」というテンプレートを同期して

VM のデプロイに利用できるようになります。

content-lib-03.png

 

それぞれのライブラリで持つ(同期された)コンテンツの実体は別ファイルになります。

同一のコンテンツだとしても、同期するライブラリが増えるごとに、

内部的には別のファイルが作成されます。


コンテンツ ライブラリを利用する場合も

テンプレート用のストレージ容量は従来通り必要になりますが、テンプレート管理作業の苦労を考えると

テンプレート数が多い環境では vCenter 台数が少なくても(たとえ 2~3 台でも)

便利な機能なのではないかと思いました。


以上、vSphere 6.0 のコンテンツ ライブラリについての話でした。

vSphere 6.0 の 新機能について。(vCenter 6.0 と PSC)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 では、vCenter のインストールコンポーネントの構成が変更されました。


vCenter 5.1 / 5.5 ではコンポーネントが4つに分割されていましたが、

vCenter 6.0 では、vCenter と Platform Services Controller(PSC)の2つにまとめられました。

以前の Inventory Service や Web Client サーバは vCenter として集約されました。

そして、vCenter SSO に証明書管理をするための認証局(VMware Certificate Authority)や、

ライセンス管理機能が追加されたのが PSC です。


ただし、これまで存在したコンポーネントが完全に削除されるというわけではなく、

分割インストールできる単位が変更されました。

vc60-component-00.png


vCenter は、従来通り 1台のサーバにコンポーネントをまとめて導入することが可能です。

Windows 版も、vCenter Server Appliance(VCSA。Linux 仮想アプライアンス版)もあります。

物理 Windows サーバにインストールすることも可能です。

vc60-component-01.png


そして、Windows 版と同様に、VCSA も

vCenter / PSC それぞれ分割構成にすることも可能になりました。

vc60-component-02.png


vCenter と PSC を同じサーバにインストールしたうえで

SSO をレプリケーション構成にすることもできます。

このような構成にすると Enhanced Linked Mode という状態になり、

Web Client でどれかの vCenter にログインすると

PSC(に含まれる vCenter SSO)管理下の、すべての vCenterをまとめて管理できます。


ちなみに、vCenter 6.0 からは、同一の vCenter SSO 管理下で

Windows 版 / VCSA の vCenter を混在させることもできます。

vc60-component-03.png


vCenter と PSC を別のサーバにインストールしたうえで、

複数台の vCenter を PSC に登録することもできます。

このような構成にした場合も Enhanced Linked Mode になります。


PSC 同士をレプリケーションする場合も、

単一の PSC に vCenter を登録する場合も、

どちらも vCenter は Enhanced Linked Mode として構成されます。

Web Client でどれか 1台の vCenter にログインすれば、

PSC に登録されているすべての vCenter にアクセスすることができます。

vc60-component-04.png


さらに、レプリケーションしている PSC にロードバランサ経由でアクセスするように構成することもできます。

このような構成の場合、vCenter 5.5 では Web Client サーバをどこにインストールするか

べつに検討する必要がありましたが、vCenter 6.0 からは vCenter に Web Client が含まれます。

そして、Web Client でどの vCenter にログインしても、リンクモードで全体を見ることができます。

vc60-component-05.png


ちなみに、vCenter 6.0 はインストールコンポーネント構成だけでなく、

他にもいろいろ 改善 / 変更があります。たとえば・・・

・Windows 版も、Linux 版(VCSA)も同規模の環境に対応できるようになる。

・同梱される vCenter Database が SQL Server から Postgres に変更。


個人的には、vCenter 6.0 では

インストールコンポーネント構成が 5.1 ~ 5.5 よりもシンプルになって、

迷う必要が少なくなりそうで よかったと思います。


以上です。vCenter 6.0 のインストール コンポーネント構成についてでした。

vSphere 6.0 の 新機能について。(ESXi ローカルユーザ管理)

$
0
0

vSphere 6.0 の新機能や機能拡張 について

公開されている範囲(一部予想を含む)でお伝えします。

https://www.vmware.com/files/pdf/vsphere/VMware-vSphere-Platform-Whats-New.pdf


vSphere 6.0 では、ESXi のローカルユーザ アカウント管理についての機能がいくつか改善されます。

便利そうなので紹介してみようと思います。


ESXi 5.5 までのローカルユーザ管理

ESXi 5.5 までは、ESXi のローカルユーザを追加したり、削除したりする場合、

vSsphere Client で ESXi に直接ログインする必要がありました。


また、ESXi のローカルユーザ のパスワードルール(文字列の複雑性など)を設定する場合、

たいていは ESXi にコンソールか SSH でログインして、

設定ファイル「/etc/pam.d/passwd」を直接編集する必要がありました。


つまり、ESXi のローカルユーザを管理する場合は、

vCenter ではなく わざわざESXi に直接ログインが必要で、

しかも複数のツールでログインしなおして手作業でファイル編集するようなケースがありました。

esxi60-account-01.png


ESXi 6.0 のローカルユーザ管理

ESXi 6.0 では、ESXi のローカルユーザ管理が esxcli コマンドで実行可能になりました。

そしてパスワードルールの設定は、ESXi の詳細設定パラメータで

設定することができるようになりました。


これにより、vCenter にログインするだけで

ESXi のローカルユーザ管理を集中管理しやすくなります。

以降で、集中管理ができるようになる様子について、もう少し説明してみようと思います。

esxi60-account-02.png


ESXi 6.0 でのローカルユーザ追加/削除などについて。

ESXi 6.0 から、ローカルユーザの 追加 / 削除 などが esxcli で実施可能になります。

たとえば、「esxcli system account add ~」といったコマンドが

esxcli に追加されます。


esxcli は、一般的には ESXi のローカルや vMA から実行されますが、

PowerCLI の Get-EsxCli コマンドレットを使用することで

vCenter 経由で ESXi に対して esxcli を実行することができます。

esxi60-account-03.png


ESXi 6.0 でのローカルユーザのパスワードルール変更について。

ESXi 5.5 までは、ESXi ローカルの認証にかかわる(PAM の)設定ファイルを、

ESXi に直接ログインしたうえで、vi 等のテキストエディタで直接編集する必要がありました。

(参考)

ESX、ESXi 4.x および 5.x でのパスワードの要件と制限

http://kb.vmware.com/kb/2079822

 

ESXi 6.0 からは、パスワードルールが ESXi のパラメータとして管理されるようになり、

vCenter から、管理下の ESXi の設定をまとめて変更可能になります。

esxi60-account-04.png

 

通常、 vSphere 環境は vCenter 経由で管理するため、

ESXi のローカルユーザを追加したり、パスワードルールを変更したりという

ことはあまり無いかもしれません。

しかし、セキュリティ要件などにより、ローカルユーザ管理が発生する場合は

大幅に便利になると思います。

 

以上、ESXi 6.0 のローカルユーザ管理の改善についてでした。

vSphere 6.0 の 新機能について。(Web Client の改善)

$
0
0

とうとう、vSphere 6.0 がリリースされました。

VMware vSphere 6 のドキュメント

http://www.vmware.com/jp/support/support-resources/pubs/vsphere-esxi-vcenter-server-6-pubs.html


いわゆる GA 版 が使用できるようになったので、

個人的に vSphere 6.0 で一番よい改善だと思う vSphere Web Client の UI について紹介したいと思います。


vSphere 5.5 の Web Client


まず、vSphere 5.5 の頃の Web Client です。

デフォルトで TCP 9443 番という微妙なポートを使用します。

vsphere-55-webclient-01.png


例として、vSphere 5.5 Web Client での

ESXi の右クリックメニューを見てみると、規則性をみつけにくく、結構、迷子になります。


パッと見てみあたらないものは、「すべての vCenter アクション」から深い階層をたどっていくと見つかったりします。

vsphere-55-webclient-02.png

 

vSphere 6.0 の Web Client


まず、Web Client のポートが 9443 ではなく、443 番ポートになりました。

標準的な https のポートを使用するので、

Web ブラウザで指定する URL ではポート番号の指定(以前の「~:9443」という部分)は不要になります。

独特な 9443 番ポートを使用しなくなるので、ファイアウォールの設定もれや

運用手順書などでの URL 指定ミスなどのヒューマンエラーが減らせそうです。

web-client-60-01.png


Web Client にログインすると、このような画面になります。

vSphere Client のように「最近のタスク」がデフォルトで画面下部に配置されています。

画面の雰囲気については、これまでの Web Client からあまり変化がないと思います。

web-client-60-02.png


しかし、メニュー構成は大幅に改善されています。

例として ESXi の右クリックメニューを見てみると、

5.5 のころより、直観的に階層をたどりやすく整理されています。

web-client-60-03.png


たとえば、「メンテナンス モード」メニューの配下はこうなっています。

web-client-60-04.png


「電源」メニューの配下に、「パワーオン」や「シャットダウン」が配置されています。

web-client-60-05.png


以前は見つけにくかった データストアを追加するメニューも

「ストレージ」メニュー配下に、「新しいデータストア」として配置されています。

web-client-60-06.png


おなじく、以前は分かりにくかった ESXi の VMkernel ポートや ポートグループの追加も、

ESXi の右クリックメニューからウィザードが起動できるようになりました。

「ネットワークの追加」をクリックすると・・・

web-client-60-07.png


この画面が開けるようになりました。

web-client-60-08.png


ちなみに、Web Client だけの改善ではありませんが、

「証明書」メニューで、ESXi の証明書が入れ替えられるようになりました。

「証明書を更新」をクリックして・・・

web-client-60-09.png


「はい」をクリックするだけで、vCenter の VMCA(VMware Certificate Authority)による

ESXi の証明書が更新できるようになりました。

web-client-60-10.png


地味な改善ですが、

これからは Web Client を使うようにアナウンスされていたり

vSphere 5.1 以降の新機能は Web Client でしか使用できなかったりするので

Web Client が使いやすくなることはありがたいです。

 

例示したメニューのように、いろいろ細部が改善されています。

そろそろ、これまで vSphere Client 派だった人も

Web Client を使ってもよいのではないかと思います。


ちなみに、vSphere Client は将来的に削除されるとのことですが、

vSphere 6.0 では、まだ生き残っています。


以上、vSphere 6.0 での Web Client の改善についてでした。

ESXi 6.0 ローカルユーザのパスワードルール変更について。(PowerCLI にて)

$
0
0

少し前のこのポストの続きですが・・・

vSphere 6.0 の 新機能について。(ESXi ローカルユーザ管理)


ESXi 5.5 までは、パスワードルールを変更する場合は、認証にかかわる(PAM の)設定ファイルを

ESXi に直接ログインしたうえで、vi 等のテキストエディタで編集する必要がありました。

※Enterprise Plus であれば Host Profile でも設定可能ですが・・・


ESX、ESXi 4.x および 5.x でのパスワードの要件と制限

http://kb.vmware.com/kb/2079822


この設定ファイル(/etc/pam.d/passwd)を直接編集していました。

~ # vmware -vl

VMware ESXi 5.5.0 build-2456374

VMware ESXi 5.5.0 Update 2

~ # cat /etc/pam.d/passwd

#%PAM-1.0

 

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=8,8,8,7,6

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so


ESXi 6.0 からは、パスワードルールが ESXi の詳細オプション

「Security.PasswordQualityControl」で管理されるようになりました。

そのため、vCenter から管理下の ESXi の設定をまとめて変更可能になります。

 

ESXi のパスワード、ESXi のパス フレーズ、およびアカウント ロックアウト

http://pubs.vmware.com/vsphere-60/topic/com.vmware.vsphere.security.doc/GUID-DC96FFDB-F5F2-43EC-8C73-05ACDAE6BE43.html

 

ESXi 6.0 の /etc/pam.d/passwd ファイルにも、

詳細オプションで設定変更するようにコメントがあります。

※ちなみに、ESXi 6.0 からパスワードルールのデフォルト値も変更されています。

[root@hv60n04:~] vmware -vl

VMware ESXi 6.0.0 build-2494585

VMware ESXi 6.0.0 GA

[root@hv60n04:~] cat /etc/pam.d/passwd

#%PAM-1.0

 

# Change only through host advanced option "Security.PasswordQualityControl".

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=disabled,disabled,disabled,7,7

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so

 

ちなみにパスワードルールは、ファイルを編集すると即時反映されます。

パスワードルールは、passwd コマンド実行時にも表示されるようになっていて

たとえば ESXi の root ユーザのパスワードを変更しようとすると下記のようになります。

※これは ESXi というより passwdqc の機能のため、以前の ESXi でも表示されます。

[root@hv60n04:~] passwd root

Changing password for root

 

You can now choose the new password.

 

A valid password should be a mix of upper and lower case letters,

digits, and other characters.  You can use a 7 character long

password with characters from at least 3 of these 4 classes.

An upper case letter that begins the password and a digit that

ends it do not count towards the number of character classes used.

 

Alternatively, if noone else can see your terminal now, you can

pick this as your password: "gehyl=ebbg&wbo".

 

Enter new password:

 

パスワードルール設定変更(GUI にて)

 

Web Client から ESXi の詳細設定を見ると、

新たに「Security.PasswordQualityControl」が追加されていることがわかります。

esxi60-pam-passwdqc-01.png


この設定を変更すると、/etc/pam.d/passwd に即時反映されます。

esxi60-pam-passwdqc-02.png


ちなみに、vSphere Client でも変更可能です。

esxi60-pam-passwdqc-03.png

 

パスワードルール設定変更(PowerCLI にて

 

まず、vCenter に接続します。

PowerCLI> Connect-VIServer vc60n02.godc.lab

 

PowerCLI> $global:DefaultVIServer | select Name,Version,Build | ft -AutoSize

 

Name             Version Build

----             ------- -----

vc60n02.godc.lab 6.0     2559267

 

ESXi のバージョンは、6.0 GA です。

今回の ESXi のホスト名は hv60n04.godc.lab です。

PowerCLI> Get-VMHost hv60n04.godc.lab | select Name,Version,Build | sort Name | ft -AutoSize

 

Name             Version Build

----             ------- -----

hv60n04.godc.lab 6.0.0   2494585

 

Get-AdvancedSetting で、Security.~ という名前のパラメータを見てみます。

Security.PasswordQualityControl のほかにも、

アカウント ロックアウト関連のパラメータがあります。

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.* | ft Name,Value -AutoSize

 

Name                            Value

----                            -----

Security.PasswordQualityControl retry=3 min=disabled,disabled,disabled,7,7

Security.AccountLockFailures    10

Security.AccountUnlockTime      120


それでは、パスワードルールを変更してみます。

ESXi 5.x の頃のデフォルト値にしてみました。

ちなみに、Get-VMHost の後に ESXi を指定しなければ、

接続中の vCenter 管理下の ESXi すべてをまとめて設定変更することができます。

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.PasswordQualityControl | Set-AdvancedSetting -Value "retry=3 min=8,8,8,7,6" -Confirm:$false

 

Name                 Value                Type                 Description

----                 -----                ----                 -----------

Security.Password... retry=3 min=8,8,8... VMHost

 

 

PowerCLI> Get-VMHost hv60n04.godc.lab | Get-AdvancedSetting Security.PasswordQualityControl | ft Name,Value -AutoSize

 

Name                            Value

----                            -----

Security.PasswordQualityControl retry=3 min=8,8,8,7,6

 

PowerCLI での設定変更は、/etc/pam.d/passwd に即時反映されました。

[root@hv60n04:~] cat /etc/pam.d/passwd

#%PAM-1.0

 

# Change only through host advanced option "Security.PasswordQualityControl".

password   requisite    /lib/security/$ISA/pam_passwdqc.so retry=3 min=8,8,8,7,6

password   sufficient   /lib/security/$ISA/pam_unix.so use_authtok nullok shadow sha512

password   required     /lib/security/$ISA/pam_deny.so

 

これまで、ESXi のローカルユーザのパスワードルールは

デフォルトでは無効である ESXi Shell や SSH を有効にしたうえで

ESXi に直接ログインしなくては変更できませんでした。

 

vCenter にログインするだけで変更できるようになったので

どうしてもパスワードの複雑性が必要な環境では、結構便利になったのではないかと思います。

 

以上、ESXi 6.0 のパスワードルール変更でした。

VMware Photon Linux が公開されました。

$
0
0

VMware から、Docker などコンテナむけの Linux ディストリビューション

Photon Linuxが公開されました。

ロゴもフォトンっぽいかんじです。

おなじ目的の OS としては、CoreOS や Red Hat Atmic Host あたりが挙げられます。


すでに、下記のサイトあたりから Photon Linux の ISO インストーラファイルがダウンロードできます。


VMware Photon

https://vmware.github.io/photon/

ちなみに インストーラの ISO は 1GB くらいです。

photon-pj-01.png

 

また、GitHub からソースをダウンロードして、自分で ISO をビルドできるようになっています。

ちなみに、ビルド環境は Ubuntu を想定しているようです。


GitHub

https://github.com/vmware/photon/

 

 

そして、VMTN (VMware Community)にも、すでにコミュニティのページが用意されていました。


Project Photon (英語)

https://communities.vmware.com/community/vmtn/devops/project-photon

この Project の目的もあってか、ページの位置づけは「DevOps」カテゴリ配下になっています。

photon-pj-02.png

 

プロダクトの位置づけは Technical Preview なので、製品サポートがあったりするわけではありませんが、

その分 Community 向けなプロダクトな気がしていて、面白そうだと思っています。

 

起動直後の画面にも「Technical Preview」と表示されてます。

photon-pj-03.png

 

せっかく VMware から Linux ディストリビューションが出たので、

普段は執拗に Oracle Linux を使用している このブログでも Photon を使ってみたいと思います。

 

以上、Photon Linux 登場についてでした。

VMware Photon Linux の Install ~ Docker コンテナ起動。

$
0
0

さっそく、VMware Photon Linux 1.0 TP1を VM にインストールして

ためしに Docker コンテナを起動してみました。

 

今回の環境は、vSphere 5.5(vCenter 5.5 / ESXi 5.5)でインストールしています。

Photon Linux は vSphere に最適化されているといわれていますが、

実際は ESXi / VMware Workstation に限らずインストールすることができるはずです。

 

こちらもどうぞ(前回のポスト)

VMware Photon Linux が公開されました。

 

参考

Getting Started Using Project Photon on VMware vSphere 5.5 & 6.0

https://vmware.github.io/photon/assets/files/getting_started_with_photon_on_vsphere.pdf



Photon Linux のインストール


今回は、vSphere 5.5 を使用しているので

VM のゲスト OS 選択は「その他の 3.x Linux (64 ビット)」にしてあります。

photon-linux-all-01.png


参考にしたガイドには 2 vCPU が推奨とありますが、1 vCPU でもインストール可能です。

今回は、CPU / メモリ / ハードディスクのスペックはデフォルトのままにしてみました。

ディスクプロビジョニングは、容量節約のため Thin Provisioning にしています。

VM バージョンは 10 (vmx-10)です。

photon-linux-all-02.png


VM には、「設定の編集」画面で、事前にデータストアに配置しておいた

Photon の インストール ISO イメージを 仮想 CD /DVD ドライブに接続しています。

「パワーオン時に接続」にチェックを入れておくと、

VM 起動時に ISO イメージからインストーラを起動できます。

photon-linux-all-03.png


仮想 CD ドライブに ISO を接続した状態で、VM をパワーオンすると、

Photon インストーラが起動します。Enter キーで進めます。

※今回は VMware Remote Console(VMRC)を使用しています。

photon-linux-all-04.png

 

ライセンス同意の画面です。「Accept」で Enter キーを押すと進めます。

photon-linux-all-05.png


今回、VM に割り当てた仮想ディスクは 1本だけなので、そのまま「Enter」キーを押します。

photon-linux-all-06.png


仮想ディスク上のデータ削除について確認が表示されるので「Yes」。

この次の画面が表示されるまで、数秒まちます。

photon-linux-all-07.png

 

インストールオプションの選択画面です。

Photon Linux はインストール時に4つのオプションが選択できます。

デフォルトは「Photon OS (Micro)」ですが、

今回は「Photon Full OS (All)」を選択しています。

  • Photon OS (Micro)
  • Photon Container OS
  • Photon Full OS (All) ←今回はこれを選択。
  • Photon Custom OS

photon-linux-all-08.png

 

Linux に設定するホスト名を入力します。

photon-linux-all-09.png


root ユーザのパスワードを入力します。簡単すぎるパスワードだとエラーになります。

パスワードを入力して Enter を押すと・・・

photon-linux-all-10.png

 

そのままインストールが開始します。

photon-linux-all-11.png

 

環境に依存するものではありますが、

インストール処理にはあまり時間がかかりません。

インストールが終了すると、かかった時間が表示され

今回は 6分程度で終了しました。

※今回の画面には「Photon has been installed in 358 secs」とあります。

 

ここで何かキーをおすと、OS が再起動されます。

photon-linux-all-12.png


OS 起動時には Photon の画面が表示されますが、

すぐに CLI(bash)のログインプロンプトが表示されます。

インストール直後は root でログインできます。

※パスワードはインストーラで指定したものです。

 

ちなみに、SSH でログインする場合は、useradd と passwd コマンドなどで

root 以外のユーザを新規作成することになると思います。

 

画面は下記のような感じです。

photon-linux-all-14.png

 

 

今回の Photon Linux の環境

 

Photon Linux の Linux カーネルバージョンは 3.19.2 です。

Photon Linux のディストリビューションのバージョンは、/etc/lsb-release ファイルに記載されていて、

今回は「VMware Photon 1.0 TP1」です。

root [ ~ ]# uname -a

Linux photon01 3.19.2 #1-photon SMP Wed Apr 15 22:37:11 UTC 2015 x86_64 GNU/Linux

root [ ~ ]# cat /etc/lsb-release

DISTRIB_ID=VMware Photon

DISTRIB_RELEASE=1.0 TP1

DISTRIB_CODENAME=Photon

DISTRIB_DESCRIPTION=VMware Photon 1.0 TP1

 

ネットワークはデフォルトでは DHCP による自動設定で、

今回は vNIC が1つだけなので eth0 に外部からアクセスできる IP アドレスが設定されます。

ちなみに、キーボード設定は英語配列です。

 

「Photon Full OS (All)」 では、

Docker も 1.5 がインストールされています。

root [ ~ ]# rpm -q docker

docker-1.5.0-3.x86_64

 

あまりいい確認方法ではないかもしれませんが、

この Photon Linux は ESXi 上の VM で起動しています。

root [ ~ ]# dmesg | grep -i Hypervisor

[    0.000000] Hypervisor detected: VMware

[    0.000000] TSC freq read from hypervisor : 1696.074 MHz

[    0.692326] [drm] Max dedicated hypervisor surface memory is 163840 kiB

 

 

Docker でのコンテナ起動


Docker を有効化して、コンテナを起動してみます。

Photon Linux がインターネットにアクセスできる状態であれば、

デフォルトで Docker Hub からコンテナのイメージをダウンロードできる状態になっています。

ついでに、Docker のバージョンも表示しておきます。

root [ ~ ]# systemctl start docker

root [ ~ ]# systemctl enable docker

Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /lib/systemd/system/docker.service.

root [ ~ ]# docker version

Client version: 1.5.0

Client API version: 1.17

Go version (client): go1.4.1

Git commit (client): a8a31ef

OS/Arch (client): linux/amd64

Server version: 1.5.0

Server API version: 1.17

Go version (server): go1.4.1

Git commit (server): a8a31ef

 

Docker Hub から vmwarecna/nginx イメージをダウンロードして起動します。

名前の通り VMware Cloud Native Apps(多分)の オフィシャル Nginx イメージで、

起動すると Photon のスプラッシュスクリーンが表示されます。

 

ちなみに、レジストリのページはこれです。

https://registry.hub.docker.com/u/vmwarecna/nginx/

photon-linux-cna-nginx.png

 

下記のコマンドラインで、イメージのダウンロード~コンテナ起動されます。

今回は、Web ブラウザから TCP 8050 番ポートでアクセスできるようにコンテナを起動してみました。

root [ ~ ]# docker run -d -p 8050:80 vmwarecna/nginx

Unable to find image 'vmwarecna/nginx:latest' locally

Pulling repository vmwarecna/nginx

6d36a12c92d5: Download complete

511136ea3c5a: Download complete

e977d53b9210: Download complete

c9fa20ecce88: Download complete

184d60f5cc4f: Download complete

96d31e36bd8a: Download complete

fd2224b9a216: Download complete

7f3a2bd1e995: Download complete

4c4851e85e94: Download complete

560d74bc7ae1: Download complete

07f0aa77ae76: Download complete

126105e511b8: Download complete

775024331ffa: Download complete

db26ae25be15: Download complete

Status: Downloaded newer image for vmwarecna/nginx:latest

9d78b3e6786e888ae6a9859f2b053b963bb143bc2403b076c0216017ee19cbcf

 

ダウンロードして登録されたイメージはこれです。

root [ ~ ]# docker images

REPOSITORY          TAG                 IMAGE ID            CREATED             VIRTUAL SIZE

vmwarecna/nginx     latest              6d36a12c92d5        9 days ago          93.48 MB

 

そしてこのイメージからコンテナも起動されています。

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

9d78b3e6786e        vmwarecna/nginx:latest   "nginx -g 'daemon of   7 seconds ago       Up 6 seconds        443/tcp, 0.0.0.0:8050->80/tcp   fervent_fermat

 

Web ブラウザから「 http: //<Photon Linux の IP アドレス>:8050/」 にアクセスすると

Nginx 上の Photon のページがみられます。

photon-linux-all-15.png

 

ちなみに当然ながら、Docker Hub などから他の Docker のイメージを入手して

コンテナを起動することができます。

 

たとえば、Doker Hub にある

Oracle Linux 6 のイメージをダウンロード~コンテナ起動してみました。

https://registry.hub.docker.com/u/oracle/oraclelinux/

root [ ~ ]# docker run -it oracle/oraclelinux:6 /bin/bash

Unable to find image 'oracle/oraclelinux:6' locally

Pulling repository oracle/oraclelinux

8dee47b714f6: Download complete

51407df89f64: Download complete

bb12766ba279: Download complete

Status: Downloaded newer image for oracle/oraclelinux:6

[root@92a13df410ee /]#  ★ここから、起動したコンテナの中に入っている。

[root@92a13df410ee /]# cat /etc/oracle-release

Oracle Linux Server release 6.6

[root@92a13df410ee /]# uname -a  ★コンテナのカーネルは Photon のものになっている。

Linux 92a13df410ee 3.19.2 #1-photon SMP Wed Apr 15 22:37:11 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux

[root@92a13df410ee /]#

[root@92a13df410ee /]# root [ ~ ]#  ★ここで「Ctrl + p + q」キーでコンテナから抜けた。

root [ ~ ]# docker ps  ★起動中コンテナが増えている。

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

92a13df410ee        oracle/oraclelinux:6     "/bin/bash"            36 seconds ago      Up 35 seconds                                       prickly_goodall

9d78b3e6786e        vmwarecna/nginx:latest   "nginx -g 'daemon of   22 minutes ago      Up 22 minutes       443/tcp, 0.0.0.0:8050->80/tcp   fervent_fermat

root [ ~ ]#

 

上記のように、Photon Linux 上で Oracle Linux 6 のイメージを起動できました。

この調子で Red Hat Linux や Cent OS のコンテナもいけるはず・・・

 

以上、Photon Linux のインストールとコンテナ起動でした。


Photon Linux の VMware Tools。

$
0
0

VMware Photon Linux は、コンテナむけの Linux OS で、

VMware vSphere 環境に最適化されているそうです。


VMware Photon

https://vmware.github.io/photon/


ためしにインストールしてみると、

VMware Tools も標準でインストールされます。

vSphere Web Client から、Minimal インストールした Photon Linux の VM を見てみても

VMware Tools がインストールされていることがわかります。

photon-linux-vmtools-01.png


今回の Photon Linux のバージョンは 1.1 TP1 です。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1


VMware Tools がインストールされていることがわかります。

root [ ~ ]# vmware-toolbox-cmd -v

9.10.0.43888 (build-2476743)


この Tools は、RPM でインストールされたものだとわかります。

Photon Linux にインストールされている VMware Tools は open-vm-tools でした。

最近では、VMware としては OS ベンダの同梱する open-vm-tools の使用を推奨しているようです。


open-vm-tools に対する VMware のサポートについて

http://kb.vmware.com/kb/2074713

 

root [ ~ ]# which vmware-toolbox-cmd

/usr/bin/vmware-toolbox-cmd

root [ ~ ]# rpm -qf /usr/bin/vmware-toolbox-cmd

open-vm-tools-9.10.0-1.x86_64

root [ ~ ]# rpm -qi open-vm-tools-9.10.0-1.x86_64

Name        : open-vm-tools

Version     : 9.10.0

Release     : 1

Architecture: x86_64

Install Date: Wed Apr 22 14:46:39 2015

Group       : Applications/System

Size        : 2220330

License     : LGPLv2+

Signature   : (none)

Source RPM  : open-vm-tools-9.10.0-1.src.rpm

Build Date  : Wed Apr 15 23:06:11 2015

Build Host  : discus-test

Relocations : (not relocatable)

Vendor      : VMware, Inc.

URL         : https://github.com/vmware/open-vm-tools/archive/stable-9.10.x.zip

Summary     : Usermode tools for VmWare virts

Description :

VmWare virtualization user mode tools

 

systemctl コマンドで、Tools のサービスが起動していることも確認できます。

root [ ~ ]# systemctl status vmtoolsd.service

photon-linux-vmtools-02.png

 

こんなイメージです。

photon-linux-vmtools-03.png

 

ちなみに、VMware Tools がデフォルトでインストールされるのは、Minimal インストール以上でした。

  • Photon OS (Micro)  → デフォルトではインストールされない。
  • Photon Container OS (Minimal)  → インストールされる。
  • Photon Full OS (All) → インストールされる。

 

以上、Photon Linux と VMware Tools についてでした。

Photon Linux の RPM パッケージ管理。(yum / tdnf)

$
0
0

VMware Photon Linux では、Red Hat Linux などでおなじみの RPM でパッケージ管理されています。

yum の RPM がインストールされていれば、yum コマンドも使用できます。

 

VMware Photon

http://vmware.github.io/photon/

 

「Photon Full OS (All) 」インストールの Photon Linux 1.0 TP1 には

yum がインストールされるので、yum repolist を見てみました。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# rpm -q yum

yum-3.4.3-1.noarch

root [ ~ ]# yum repolist

repo id          repo name                                 status

photon           VMware Photon Linux 1.0(x86_64)           427

photon-iso       VMWare Photon Linux 1.0(x86_64)           427

photon-updates   VMware Photon Linux 1.0(x86_64)Updates      0

repolist: 854


リポジトリには 427 とパッケージ数が表示されていますが、

All インストールでは、260 個 の RPM がインストールされています。

※本当に ALL というわけではないようです。

root [ ~ ]# rpm -qa | wc -l

260

 

All インストールでも RPM は少ないですが、

最小限の「Photon OS (Micro) 」インストールだと更に少なく

60 個くらいしか RPM がインストールされていません。

root [ ~ ]# rpm -qa | wc -l

61

 

Micro インストールでは、Docker どころか、vi、grep などのほぼ必須のコマンドも入っていません。

そして yum コマンドも入っていません。

root [ ~ ]# vi

-su: vi: command not found

root [ ~ ]# grep

-su: grep: command not found

root [ ~ ]# yum

-su: yum: command not found

 

しかし Micro インストールでも、「tdnf」はインストールされていました。

root [ ~ ]# tdnf --version

tdnf: 1.0.0

 

tdnf とは。

tdnf は Yum と同等の RPM パッケージ管理コマンドです。

Photon と同じく、GitHub にも公開されています。

 

vmware/tdnf

https://github.com/vmware/tdnf

※「Tiny Dandified Yum」だそうです。

root [ ~ ]# rpm -qi tdnf

Name        : tdnf

Version     : 1.0

Release     : 1

Architecture: x86_64

Install Date: Tue Apr 21 16:51:07 2015

Group       : Applications/RPM

Size        : 124586

License     : VMware

Signature   : (none)

Source RPM  : tdnf-1.0-1.src.rpm

Build Date  : Wed Apr 15 23:40:09 2015

Build Host  : discus-test

Relocations : (not relocatable)

Vendor      : VMware, Inc.

URL         : http://www.vmware.com

Summary     : dnf/yum equivalent using C libs

Description :

tdnf is a yum/dnf equivalent

which uses libhawkey and librepo

 

tdnf は、yum コマンドと同じように使えるようです。

root [ ~ ]# tdnf --help

usage: tdnf [options] COMMAND

 

List of Main Commands

 

autoerase

check-local               Checks local rpm folder for problems

check-update              Check for available package upgrades

clean                     Remove cached data

distro-sync               Synchronize installed packages to the latest available versions

downgrade                 downgrade a package

erase                     Remove a package or packages from your system

group                     Display, or use, the groups information

help                      Display a helpful usage message

history                   Display, or use, the transaction history

info                      Display details about a package or group of packages

install                   Install a package or packages on your system

list                      List a package or groups of packages

makecache                 Generate the metadata cache

provides                  Find what package provides the given value

reinstall                 reinstall a package

repolist                  Display the configured software repositories

repository-packages       Run commands on top of all packages in given repository

search                    Search package details for the given string

updateinfo                Display advisories about packages

upgrade                   Upgrade a package or packages on your system

upgrade-to                Upgrade a package on your system to the specified version

 

設定ファイルを見ると、Yum と同じリポジトリを見に行っているようです。

/etc/tdnf/tdnf.conf ファイルの repodir が

Yum のリポジトリ設定ファイルの場所を指定しています。

root [ ~ ]# cat /etc/tdnf/tdnf.conf

[main]

gpgcheck=1

installonly_limit=3

clean_requirements_on_remove=true

repodir=/etc/yum.repos.d

cachedir=/var/cache/tdnf

 

Yum リポジトリの参照設定はこうなっています。

root [ ~ ]# cat /etc/yum.repos.d/photon

photon-iso.repo      photon-updates.repo  photon.repo

root [ ~ ]# cat /etc/yum.repos.d/photon.repo

[photon]

name=VMware Photon Linux 1.0(x86_64)

baseurl=https://dl.bintray.com/vmware/photon_release_1.0_TP1_x86_64

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

root [ ~ ]# cat /etc/yum.repos.d/photon-updates.repo

[photon-updates]

name=VMware Photon Linux 1.0(x86_64)Updates

baseurl=https://dl.bintray.com/vmware/photon_updates_1.0_TP1_x86_64

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True

root [ ~ ]# cat /etc/yum.repos.d/photon-iso.repo

[photon-iso]

name=VMWare Photon Linux 1.0(x86_64)

baseurl=file:///media/cdrom/usr/src/photon/RPMS

gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY

gpgcheck=0

enabled=1

skip_if_unavailable=True


上記の photon~.repo ファイルに記載された URL からもわかりますが、

RPM は Bintray のサイトから個別ダウンロードすることもできます。

 

https://dl.bintray.com/vmware/photon_release_1.0_TP1_x86_64/

photon-rpm-01.png

 

tdnf での Yum リポジトリの一覧表示。

tdnf コマンドで Yum リポジトリを表示してみます。


Yum リポジトリとして ISO イメージも参照しているようなので、

あらかじめ「/media/cdrom」ディレクトリにマウントしておきます。

root [ ~ ]# mount /dev/cdrom /media/cdrom/

mount: /dev/sr0 is write-protected, mounting read-only

root [ ~ ]# ls /media/cdrom/

PHOTON_VMWARE_CD  boot  etc   home      lib    media  opt   root  sbin  sys  usr

bin               dev   fake  isolinux  lib64  mnt    proc  run   srv   tmp  var

 

ちなみに ISO の中には、このあたりに RPM ファイルがあります。

root [ ~ ]# ls /media/cdrom/usr/src/photon/RPMS/

noarch  repodata  x86_64

root [ ~ ]# ls /media/cdrom/usr/src/photon/RPMS/*/*.rpm | wc -l

427

 

tdnf コマンドで Yum リポジトリを表示してみました。

yum コマンドと同様に repolist で見ることができます。

root [ ~ ]# tdnf repolist

repo id             repo name                               status

photon-updates      VMware Photon Linux 1.0(x86_64)Updates  enabled

photon              VMware Photon Linux 1.0(x86_64)         enabled

photon-iso          VMWare Photon Linux 1.0(x86_64)         enabled

 

tdnf での RPM インストール。

ためしに、Micro インストールの Photon Linux に vim(vi)をインストールしてみます。

root [ ~ ]# tdnf list vim

vim.x86_64                                     7.4-1                      photon

vim.x86_64                                     7.4-1                  photon-iso

root [ ~ ]# tdnf install vim

Installing:

perl-DBI       x86_64  1.633-1

perl-DBIx-Simple       noarch  1.35-1

gdbm   x86_64  1.11-1

perl-DBD-SQLite        x86_64  1.46-1

grep   x86_64  2.21-1

tcsh   x86_64  6.18.01-1

perl   x86_64  5.18.2-1

gawk   x86_64  4.1.0-1

vim    x86_64  7.4-1

Is this ok [y/N]:y

Downloading 9662601.00 of 9662601.00

Downloading 688103.00 of 688103.00

Downloading 17945701.00 of 17945701.00

Downloading 262177.00 of 262177.00

Downloading 219679.00 of 219679.00

Downloading 2080877.00 of 2080877.00

Downloading 155696.00 of 155696.00

Downloading 37693.00 of 37693.00

Downloading 800209.00 of 800209.00

Testing transaction

Running transaction

root [ ~ ]#


これで vim がインストールされました。

root [ ~ ]# tdnf list vim

vim.x86_64                                     7.4-1                     @System

vim.x86_64                                     7.4-1                      photon

vim.x86_64                                     7.4-1                  photon-iso

root [ ~ ]# rpm -q vim

vim-7.4-1.x86_64

root [ ~ ]# vi --version | head -1

VIM - Vi IMproved 7.4 (2013 Aug 10, compiled Apr 15 2015 20:19:49)

 

以上、Photon Linux の RPM パッケージ管理についてでした。

Photon Linux の Network 設定変更について。(IP / DNS / Hostname...)

$
0
0

Photon Linux のネットワーク設定は、

デフォルトだと DHCP による自動設定です。

いろいろと検証するうえで、ネットワーク設定を変更したいことがあるはずなので

実機確認してみた方法を紹介しておこうと思います。

 

IP アドレスや参照先 DNS サーバのアドレスなどを

静的なものに変更したい場合は、最近の Linux っぽい感じで

Systemd による設定変更ができます。

 

eth0 のネットワーク設定変更。

 

たとえば、デフォルトの設定ファイルは下記のようになっています。

NIC の名前は、eth0 になります。(そして 2つ目は eth1)

root [ ~ ]# cat /etc/systemd/network/10-dhcp-eth0.network

[Match]

Name=eth0

 

[Network]

DHCP=yes

 

上記のファイルのかわりに、設定ファイルを用意します。

今回は、IP アドレス、デフォルトゲートウェイ、参照 DNS サーバ(8.8.8.8) を指定しています。

root [ ~ ]# vi /etc/systemd/network/10-static-eth0.network

root [ ~ ]# cat /etc/systemd/network/10-static-eth0.network

[Match]

Name=eth0

 

[Network]

DHCP=no

Address=192.168.1.11/24

Geteway=192.168.1.1

DNS=8.8.8.8

 

元のファイルは、別のディレクトリに退避しておきます。

root [ ~ ]# mv /etc/systemd/network/10-dhcp-eth0.network ./10-dhcp-eth0.network_bk

 

systemctl restart systemd-networkd.service

で設定変更してみます。

root [ ~ ]# systemctl restart systemd-networkd.service

root [ ~ ]# systemctl status systemd-networkd.service

● systemd-networkd.service - Network Service

   Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled)

   Active: active (running) since Sun 2015-04-26 13:35:59 UTC; 11s ago

     Docs: man:systemd-networkd.service(8)

Main PID: 322 (systemd-network)

   Status: "Processing requests..."

   CGroup: /system.slice/systemd-networkd.service

           mq322 /lib/systemd/systemd-networkd

 

Apr 26 13:35:59 photon01 systemd-networkd[322]: [/etc/systemd/network/10-static-eth0.n...k'

Apr 26 13:35:59 photon01 systemd-networkd[322]: eth0            : gained carrier

Apr 26 13:35:59 photon01 systemd-networkd[322]: lo              : gained carrier

Apr 26 13:35:59 photon01 systemd[1]: Started Network Service.

Apr 26 13:35:59 photon01 systemd-networkd[322]: eth0            : link configured

Hint: Some lines were ellipsized, use -l to show in full.

 

これで、eth0 には 設定ファイルに記載した新しい IP アドレスが付与されます。

 

ただし、変更前の IP と、変更後の IP が両方残った状態になります。

ifconfig だと eth0 に変更前の IP アドレスが表示されていますが、

ip コマンドだと、変更前 / 変更後 両方の IP アドレスが付与されていることがわかります。

root [ ~ ]# ip address show eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:50:56:a0:86:93 brd ff:ff:ff:ff:ff:ff

    inet 192.168.1.10/24 brd 192.168.1.255 scope global eth0★古いIP

       valid_lft forever preferred_lft forever

    inet 192.168.1.11/24 brd 192.168.1.255 scope global secondary eth0 ★新しい IP

       valid_lft forever preferred_lft forever

    inet6 2408:210:a3c8:7000:250:56ff:fea0:8693/64 scope global dynamic

       valid_lft 13642sec preferred_lft 11842sec

    inet6 fe80::250:56ff:fea0:8693/64 scope link

       valid_lft forever preferred_lft forever

root [ ~ ]# ifconfig eth0

eth0      Link encap:Ethernet  HWaddr 00:50:56:A0:86:93

          inet addr:192.168.1.10  Bcast:192.168.1.255  Mask:255.255.255.0★古い IP

          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1

          RX packets:1807 errors:0 dropped:0 overruns:0 frame:0

          TX packets:449 errors:0 dropped:0 overruns:0 carrier:0

          collisions:0 txqueuelen:1000

          RX bytes:136788  TX bytes:77519

 

たとえば、 ip address del 192.168.1.10/24 dev eth0

(192.168.1.10/24 は変更前の IP アドレス)といったコマンドで修正できますが、

いったん OS を再起動してしまった方がよいかもしれません。

 

最終的に、変更後の IP アドレスだけになります。

root [ ~ ]# ip address show eth0

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000

    link/ether 00:50:56:a0:86:93 brd ff:ff:ff:ff:ff:ff

    inet 192.168.1.11/24 brd 192.168.1.255 scope global eth0

       valid_lft forever preferred_lft forever

    inet6 2408:210:a3c8:7000:250:56ff:fea0:8693/64 scope global dynamic

       valid_lft 14126sec preferred_lft 12326sec

    inet6 fe80::250:56ff:fea0:8693/64 scope link

       valid_lft forever preferred_lft forever

 

参照先 DNS サーバのアドレスは、

/etc/resolv.conf のリンク先になっている

/run/systemd/resolve/resolv.conf ファイルに反映されます。

root [ ~ ]# ls -l /etc/resolv.conf

lrwxrwxrwx 1 root root 34 Apr 22 14:51 /etc/resolv.conf -> ../run/systemd/resolve/resolv.conf

root [ ~ ]# cat /run/systemd/resolve/resolv.conf

# This file is managed by systemd-resolved(8). Do not edit.

#

# Third party programs must not access this file directly, but

# only through the symlink at /etc/resolv.conf. To manage

# resolv.conf(5) in a different way, replace the symlink by a

# static file or a different symlink.

 

nameserver 8.8.8.8

 

ホスト名の変更について。


ホスト名の変更には、hostnamectl コマンドが使用できます。

この Photon Linux では、インストール時に

「photon01」というホストを指定していました。

root [ ~ ]# uname -n

photon01

root [ ~ ]# hostname

photon01

root [ ~ ]# cat /etc/hostname

photon01

root [ ~ ]# hostnamectl

   Static hostname: photon01

         Icon name: computer-vm

           Chassis: vm

        Machine ID: d0e8e46689324de7b3940494d62ec61d

           Boot ID: 4ce68ca573eb4f669d82606bf193cb14

    Virtualization: vmware

            Kernel: Linux 3.19.2

      Architecture: x86-64

 

それでは、hostnamectl コマンドで「ph01」というホスト名に変更してみます。

ホスト名を変更すると、すぐに反映されます。

root [ ~ ]# hostnamectl set-hostname ph01

root [ ~ ]# uname -n

ph01

root [ ~ ]# hostname

ph01

root [ ~ ]# cat /etc/hostname

ph01

root [ ~ ]# hostnamectl

   Static hostname: ph01

         Icon name: computer-vm

           Chassis: vm

        Machine ID: d0e8e46689324de7b3940494d62ec61d

           Boot ID: 4ce68ca573eb4f669d82606bf193cb14

    Virtualization: vmware

            Kernel: Linux 3.19.2

      Architecture: x86-64

 

まだ、Photon Linux の技術情報ほとんど公開されてないようなので、

もう少ししたらもっとよい設定方法が紹介されるのかもしれません。

 

以上、Photon Linux のネットワーク設定変更でした。

VROPS 6.x の UI タイムアウト時間を変更する。

$
0
0

vRealize Operations Manager(VROPS)6.x の Web UI は、

デフォルトだと 30 分でセッション タイムアウトしてしまい、再ログインが必要です。

※vCenter Operations Manager は製品名が変更されて、vRealize Operations Manager になっています。


監視卓みたいに、1日中ただ眺めていたいときには、

このタイムアウト期間を調整することができます。


以前の VCOPS 5.x だと、UI のタイムアウト期間は

VCOSP の OS にログインして設定ファイルを変更する必要がありましたが、

VROPS 6.x からは、Web UI から設定変更ができるようになりました。

 

以前のポスト。(VCOPS5.x)

VCOPS の UI タイムアウト時間を変更する。


マニュアルでは、下記のあたりです。

vRealize Operations Manager カスタマイズおよび管理ガイド

vRealize Operations Manager 6.0.1

http://pubs.vmware.com/vrealizeoperationsmanager-6/topic/com.vmware.ICbase/PDF/vrealize-operations-manager-601-cust-admin-guide.pdf

※P.171 あたり。

 

セッション タイムアウト期間の設定変更方法

 

VROPS の Web UI にアクセスして、管理ユーザ「admin」などでログインします。

https://<VROPS のアドレス> /vcops-web-ent/

 

今回の VROPS のバージョンは、6.0.1です。

VROPS のバージョンは、UI 上部の「バージョン情報」で確認できます。

vrops60-timeout-00.png

 

「ホーム」→「管理」を開きます。

vrops60-timeout-01.png

 

「グローバル設定」を開くと、

「セッション タイムアウト」がデフォルトでは 30分になっています。

vrops60-timeout-02.png

 

「グローバル設定」の編集ボタンをクリックすると、設定変更できます。

セッション タイムアウトを、最大値の 34560 分にしてみます。

vrops60-timeout-03.png

 

設定は、即座に反映されます。

VCOPS 5.x の時とは異なり、VROPS のサービス再起動は不要なようです。

※30分間以上放置してもタイムアウトしませんでした。

vrops60-timeout-04.png

 

おまけ

セッション タイムアウトは、無期限にはできないようです。

ためしに「0 分」を入力してみると、

「このフィールドの最小値は 1 です」と表示されてしまいます。

vrops60-timeout-05.png

 

逆に、「34561 分」以上を入力してみると、

「このフィールドの最小値は 34560 です」と表示されてしまいます。

vrops60-timeout-06.png

 

ただ、34560 分もセッションが持続するのであれば充分と思われます・・・

 

以上、VROPS 6.x のセッション タイムアウト期間の変更でした。

Photon Linux の Docker コンテナを vSphere HA 対応にしてみる。

$
0
0

VMware Photon Linux の Docker コンテナを、

簡易的に vSphere HA 対応にしてみました。


Docker では、run コマンドに、「--restart」オプションをつけることで、

コンテナを自動再起動されるように起動できます。

Docker run reference

https://docs.docker.com/reference/run/#restart-policies-restart

 

今回は、自動再起動の Docker コンテナをのせた Photon Linux(Docker ホスト)を、

vSphere HA の疑似障害でリセットしてみます。


Photon Linux と vSphere HA の関係。

 

vSphere HA と Docker コンテナの関係は、こんな感じになります。

Photon(Docker ホスト)は、普通の VM としてHA 保護されていて、

その上の Docker コンテナは、Docker の機能で自動再起動を有効化されています。

photon-vha-image-01.png

たとえば、Docker コンテナが障害などで停止した場合は、

そのコンテナが Docker の仕組みで(vSphere HA に関係なく)自動再起動されます。

photon-vha-image-02.png

 

Photon Linux(Docker ホスト)のゲスト OS や VM が停止してしまった場合は、

ゲスト OS の VMware Tools ハートビートが途切れて、

vSphere HA によって VM がリセットされます。

そして VM の自動起動に合わせて、コンテナも自動起動されます。

photon-vha-image-03.png

 

Photon の VM が起動している ESXi が停止した場合は、

他の ESXi で Photon の VM (Docker ホスト自体)が起動され

その VM に含まれるコンテナも自動起動されます。

vSphere HA では、保護対象の VM は共有ストレージ配置するので、

Docker ホストごと、別の ESXi で起動されます。

photon-vha-image-04.png

 

Photon Linux + vSphere HA してみる。

 

今回は、VMware Photon Linux 1.0 TP1 を

vSphere 5.5(vCenter 5.5 / ESXi 5.5)の VM にインストールしています。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# docker --version

Docker version 1.5.0, build a8a31ef

 

それでは、コンテナを自動再起動オプション付きで起動(docker run)してみます。

今回は「cont01」、「cont02」という名前で、2つのコンテナを起動しています。

  • 「cont01」コンテナは、自動再起動なし。
  • 「cont02」コンテナは、自動再起動あり。(--restart=always)

root [ ~ ]# docker run -d -p 8001:80 --name cont01 vmwarecna/nginx

21ed69a0e2508079e6381f5b52886c31941634c48393315f075a8017b8428dc6

root [ ~ ]# docker run -d -p 8002:80 --name cont02 --restart=always vmwarecna/nginx

941488dd344d7be3ed73aa7c456947826f6b152de8d8c980f99b56ff1366d943

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

941488dd344d        vmwarecna/nginx:latest   "nginx -g 'daemon of   6 seconds ago       Up 6 seconds        443/tcp, 0.0.0.0:8002->80/tcp   cont02

21ed69a0e250        vmwarecna/nginx:latest   "nginx -g 'daemon of   15 seconds ago      Up 15 seconds       443/tcp, 0.0.0.0:8001->80/tcp   cont01

 

コンテナの情報を表示してみます。

「cont02」コンテナの「RestartPolicy」 に、「always」が設定されていることがわかります。

root [ ~ ]# docker inspect -f "{{ .HostConfig.RestartPolicy }}" cont01

map[MaximumRetryCount:0 Name:]

root [ ~ ]# docker inspect -f "{{ .HostConfig.RestartPolicy }}" cont02

map[MaximumRetryCount:0 Name:always]

 

Photon のゲスト OS は、vSphere HA が有効な状態にしてあります。

Photon Linux には VMware Tools (open-vm-tools)が含まれるので、

HA を有効化してあるクラスタの ESXi で起動されている Photon ゲストも HA で保護されます。

photon-vha-01.png

 

疑似障害を起こすため、Photon Linux の VMware Tools を停止します。

root [ ~ ]# systemctl status vmtoolsd | grep Active

   Active: active (running) since Wed 2015-05-13 22:58:11 UTC; 2 days ago

root [ ~ ]# systemctl stop vmtoolsd

root [ ~ ]# systemctl status vmtoolsd | grep Active

   Active: inactive (dead) since Sat 2015-05-16 14:33:15 UTC; 3s ago

 

少し待つと、VMware Tools のハートビートが途切れたことで障害検知され

vSphere HA により Photon の VM がリセットされました。

photon-vha-02.png

 

VM のイベントにも、

「この仮想マシンは vSphere HA によってリセットされました。

原因: VMware Tools のハートビート障害。~」と表示されます。

VM のリセットにより、Photon のゲスト OS は

(物理サーバでいうところの)電源 Off → On と同じような状態になっています。

photon-vha-03.png

 

Photon の VM が自動起動した後に

Photon に再度ログインしてコンテナの状態を確認すると、

自動起動にしておいた「cont02」コンテナだけ自動起動されています。

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

941488dd344d        vmwarecna/nginx:latest   "nginx -g 'daemon of   15 minutes ago      Up 3 minutes        443/tcp, 0.0.0.0:8002->80/tcp   cont02

 

自動起動にしたコンテナは、docker stop コマンドなどで停止できます。

root [ ~ ]# docker ps

CONTAINER ID        IMAGE                    COMMAND                CREATED             STATUS              PORTS                           NAMES

941488dd344d        vmwarecna/nginx:latest   "nginx -g 'daemon of   50 minutes ago      Up 38 minutes       443/tcp, 0.0.0.0:8002->80/tcp   cont02

root [ ~ ]# docker stop cont02

cont02

root [ ~ ]# docker ps

CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS              PORTS               NAMES

root [ ~ ]#  ★「cont02」が停止され、なにも表示されない。

 

以上、Photon を簡易的に vSphere HA 対応させる話でした。

Photon Linux への SSH ログイン。

$
0
0

今回は、VMware Photon Linux への SSH でのアクセスについてです。

「Photon Full OS (All) 」でインストールした Photon に SSH してみます。


Photon では、デフォルトで SSH(sshd) が有効化されていますが、

root ユーザでのログインは禁止されています。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# systemctl status sshd.service | grep Active

   Active: active (running) since Wed 2015-05-27 14:03:58 UTC; 36min ago

 

そこで、次のような方法で SSH ログインできるようにしてみます。

  • A: root ではない一般ユーザを作成する。
  • B: root での SSH ログインを許可する。

 

A: root ではない一般ユーザを作成する。

 

今回は、「gowatana」というユーザを作成しています。

また、作成したユーザで docker コマンドを実行できるように

「docker」グループを作成してユーザを所属させています。


デフォルトだと UID/GID を指定しない場合は 1000 番から採番されますが、

今回はすでに他のユーザ / グループを作成していたので 1001 番になっています。

root [ ~ ]# groupadd docker

root [ ~ ]# useradd -m -g docker gowatana

root [ ~ ]# passwd gowatana

Changing password for gowatana

Enter the new password (minimum of 5 characters)

Please use a combination of upper and lower case letters and numbers.

New password:  ★設定するパスワードを入力。

Re-enter new password:  ★設定するパスワードを再入力。

passwd: password changed.

root [ ~ ]# id gowatana★ユーザが作成できた。

uid=1001(gowatana) gid=1001(docker) groups=1001(docker)

 

追加作成したユーザであれば、SSH サーバの設定を変更せずに

ssh コマンドや TeraTerm などで SSH ログインすることができます。

ログインしたうえで、su コマンドで root ユーザになることもできます。

gowatana [ ~ ]$ who am i

gowatana pts/1        May 27 14:43 (192.168.1.3)

gowatana [ ~ ]$ su -

Password: ★root ユーザのパスワード入力。

root [ ~ ]#  ★root ユーザになれた。


ちなみに、docker  ユーザに所属していれば、

root ではないユーザのまま docker コマンドを実行できたりもします。

ただし、docker デーモンの起動や停止は root ユーザや sudo での実行が必要です。

※下記の例では、docker デーモンはすでに root ユーザで起動済みです。

gowatana [ ~ ]$ id

uid=1001(gowatana) gid=1001(docker) groups=1001(docker)

gowatana [ ~ ]$ systemctl status docker.service | grep Active

   Active: active (running) since Wed 2015-05-27 14:56:22 UTC; 25min ago

gowatana [ ~ ]$ docker info

Containers: 0

Images: 0

Storage Driver: overlay

Backing Filesystem: extfs

Execution Driver: native-0.2

Kernel Version: 3.19.2

Operating System: <unknown>

CPUs: 1

Total Memory: 993.8 MiB

Name: photon02

ID: 47AQ:EQNC:TIX5:UCSN:54QU:SJWQ:KPTF:5KLW:QGF3:MYZ5:ZFV7:H3UX

 

B: root での SSH ログインを許可する。


SSH サーバの設定を変更して、

sshd を再起動すると root ユーザでログイン可能になります。


まず、sshd の設定ファイル「/etc/ssh/sshd_config」の 134 行目あたりにある、

「PermitRootLogin」を「yes」に変更します。

変更前: PermitRootLogin no

変更前: PermitRootLogin yes


たとえば、下記のように設定ファイルを編集します。

root [ ~ ]# cp -p /etc/ssh/sshd_config /etc/ssh/sshd_config_bk

root [ ~ ]# vi /etc/ssh/sshd_config

root [ ~ ]# diff /etc/ssh/sshd_config_bk /etc/ssh/sshd_config

134c134

< PermitRootLogin no

---

> PermitRootLogin yes


設定ファイル内には PermitRootLogin の記載が複数個所にありますが、

編集するのはコメントアウトされていない(行頭に # が無い)行の設定です。

root [ ~ ]# cat -n /etc/ssh/sshd_config | grep PermitRootLogin

    44  #PermitRootLogin yes

    93  # the setting of "PermitRootLogin without-password".

   134  PermitRootLogin yes ★変更したのはこの行。

 

そして、sshd を再起動します。

root [ ~ ]# systemctl restart sshd.service


これで、root ユーザでいきなり SSH ログインできるようになります。

 

以上、Photon Linux に SSH ログインする話でした。

Photon Linux で日本語キーボードを使用する。

$
0
0

VMware Photon Linux は、デフォルトだと英語圏向けなキーボード配列になています。

このままだと、コンソールからのアクセスでは日本語キーボードで使用しづらいので、

いわゆる「日本語 106 キーボード」に設定変更してみます。


localectl list-keymaps コマンドで確認すると、

「jp106」があります。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# localectl list-keymaps | grep jp

jp106


デフォルトのキーマップは、特に設定されていません。

root [ ~ ]# localectl

   System Locale: n/a

 

       VC Keymap: n/a

      X11 Layout: n/a


jp106 に変更してみます。

root [ ~ ]# localectl set-keymap jp106

root [ ~ ]# localectl

   System Locale: n/a

 

       VC Keymap: jp106

      X11 Layout: jp

       X11 Model: jp106

     X11 Options: terminate:ctrl_alt_bksp


コマンドの結果はすぐに反映されて、日本語キーボードが使用できるようになります。

そして Photon の OS 再起動後も、設定は維持されます。


ねんのためですが、SSH アクセスする場合は、SSH アクセスもとのキーボード設定によるので

特に今回の設定は関係ありません。

このキーボード設定が関係するのは、Photon ゲストへの VM のコンソールアクセス(下記)や、

物理サーバに Photon をインストールして物理モニタ & キーボード接続で操作する場合です。

photon-kbd-jp106.png

 

以上、Photon で日本語キーボードを使用する話でした。



Photon Linux での NTP サーバとの時刻同期。(systemd-timesyncd / ntpd)

$
0
0

今回は、VMware Photon Linux の時刻同期の設定をしてみます。

またまた「Photon Full OS (All) 」でインストールした Photon を使用しています。


Photon Linux は systemd 管理なので、

systemd-timesyncd で時刻同期の設定をしてみます。

そして、ntpd での時刻同期も設定してみます。


Photon Linux 1.0 TP1 の初期状態はこんな感じです。

「NTP enabled」 は yes ですが、

「NTP synchronized」 は no になっています。

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# timedatectl

      Local time: Mon 2015-06-01 14:19:57 UTC

  Universal time: Mon 2015-06-01 14:19:57 UTC

        RTC time: Mon 2015-06-01 14:19:57

       Time zone: UTC (UTC, +0000)

     NTP enabled: yes

NTP synchronized: no

RTC in local TZ: no

      DST active: n/a

 

systemd-timesyncd の設定。

 

まず、systemd-timesyncd の設定をしてみます。

もともと、systemd では、systemd-timesyncd の Unit は有効(enabled) になっています。

しかし、ConditionVirtualization=no という設定のせいか

デフォルトでは、仮想化環境上だと時刻同期していません。

※今回の Photon は、ESXi の VM です。

root [ ~ ]# systemctl status systemd-timesyncd.service

● systemd-timesyncd.service - Network Time Synchronization

   Loaded: loaded (/lib/systemd/system/systemd-timesyncd.service; enabled)

   Active: inactive (dead)

           start condition failed at Mon 2015-06-01 14:12:38 UTC; 11min ago

           ConditionVirtualization=no was not met

     Docs: man:systemd-timesyncd.service(8)

 

Jun 01 14:12:38 photon03 systemd[1]: Started Network Time Synchronizationsystemd-timesyncd.service


そこで、systemd-timesyncd のデフォルトの設定ファイルである

systemd-timesyncd.service を、

/lib/systemd/system/ から /etc/systemd/system/ 配下にコピーして設定を変更してみます。


デフォルトから変更したのは、下記のみ(12行目)です。

ConditionVirtualization=no

ConditionVirtualization=yes

root [ ~ ]# cp -p /lib/systemd/system/systemd-timesyncd.service /etc/systemd/system/

root [ ~ ]# vi /etc/systemd/system/systemd-timesyncd.service

root [ ~ ]# diff /lib/systemd/system/systemd-timesyncd.service /etc/systemd/system/systemd-timesyncd.service

12c12

< ConditionVirtualization=no

---

> ConditionVirtualization=yes

 

参照する NTP サーバのアドレスを指定するため、

timesyncd.conf も編集します。

root [ ~ ]# cp -p /etc/systemd/timesyncd.conf timesyncd.conf_bk

root [ ~ ]# vi /etc/systemd/timesyncd.conf

root [ ~ ]# cat /etc/systemd/timesyncd.conf

#  This file is part of systemd.

#

#  systemd is free software; you can redistribute it and/or modify it

#  under the terms of the GNU Lesser General Public License as published by

#  the Free Software Foundation; either version 2.1 of the License, or

#  (at your option) any later version.

#

# See timesyncd.conf(5) for details

 

 

[Time]

NTP=0.vmware.pool.ntp.org 1.vmware.pool.ntp.org 2.vmware.pool.ntp.org

#FallbackNTP=time1.google.com time2.google.com time3.google.com time4.google.com

 

編集したのは、11行目だけです。

「NTP=」のコメントアウトを外して、NTP サーバアドレスを追記しました。

root [ ~ ]# diff timesyncd.conf_bk /etc/systemd/timesyncd.conf

11c11

< #NTP=

---

> NTP=0.vmware.pool.ntp.org 1.vmware.pool.ntp.org 2.vmware.pool.ntp.org

root [ ~ ]#

 

新規作成した(設定変更した)設定ファイルにリンクを張りなおすため、

systemd-timesyncd.service を disable → enable します。

root [ ~ ]# systemctl disable systemd-timesyncd.service

Removed symlink /etc/systemd/system/sysinit.target.wants/systemd-timesyncd.service.

root [ ~ ]# systemctl enable systemd-timesyncd.service

Created symlink from /etc/systemd/system/sysinit.target.wants/systemd-timesyncd.service to /etc/systemd/system/systemd-timesyncd.service.

 

systemd-timesyncd.service を再起動します。

Active が「active (running)」となり、サービスが起動していることがわかります。

root [ ~ ]# systemctl restart systemd-timesyncd.service

root [ ~ ]# systemctl status systemd-timesyncd.service

● systemd-timesyncd.service - Network Time Synchronization

   Loaded: loaded (/etc/systemd/system/systemd-timesyncd.service; enabled)

   Active: active (running) since Mon 2015-06-01 14:40:44 UTC; 3s ago

     Docs: man:systemd-timesyncd.service(8)

Main PID: 334 (systemd-timesyn)

   Status: "Using Time Server 106.186.114.89:123 (0.vmware.pool.ntp.org)."

   CGroup: /system.slice/systemd-timesyncd.service

           mq334 /lib/systemd/systemd-timesyncd

 

Jun 01 14:40:44 photon03 systemd[1]: Started Network Time Synchronization.

Jun 01 14:40:44 photon03 systemd-timesyncd[334]: Using NTP server 106.186.114.89:123 (...).

Jun 01 14:40:44 photon03 systemd-timesyncd[334]: interval/delta/delay/jitter/drift 64s...pm

Hint: Some lines were ellipsized, use -l to show in full.

 

上記の status 確認でも表示されていますが、

journalctl でログ確認をしてみると、時刻同期をしている様子が見られます。

root [ ~ ]# journalctl -u systemd-timesyncd.service | tail -n 1

Jun 01 14:41:48 photon03 systemd-timesyncd[334]: interval/delta/delay/jitter/drift 128s/-0.000s/0.008s/0.000s/-1ppm

 

timedatectl の「NTP synchronized」も yes になりました。

root [ ~ ]# timedatectl

      Local time: Mon 2015-06-01 14:44:45 UTC

  Universal time: Mon 2015-06-01 14:44:45 UTC

        RTC time: Mon 2015-06-01 14:44:45

       Time zone: UTC (UTC, +0000)

     NTP enabled: yes

NTP synchronized: yes

RTC in local TZ: no

      DST active: n/a

 

 

ntpd の設定。

 

Photon には、ntpd もインストールされます。そこで、

systemd-timesyncd を停止して、ntpd でも時刻同期を設定してみます。

root [ ~ ]# rpm -q ntp

ntp-4.2.6p5-1.x86_64

 

まず、systemd-timesyncd を停止しておきます。

root [ ~ ]# timedatectl set-ntp no

root [ ~ ]# systemctl stop systemd-timesyncd.service

root [ ~ ]# systemctl disable systemd-timesyncd.service

root [ ~ ]# systemctl status systemd-timesyncd.service | head -n 3

● systemd-timesyncd.service - Network Time Synchronization

   Loaded: loaded (/etc/systemd/system/systemd-timesyncd.service; disabled)

   Active: inactive (dead)

 

ntpd の Unit ファイル /etc/systemd/system/ntpd.serviceを作成します。

root [ ~ ]# vi /etc/systemd/system/ntpd.service

root [ ~ ]# cat /etc/systemd/system/ntpd.service

[Unit]

Description=Network Time Service

After=network-online.target

 

[Service]

ExecStart=/usr/sbin/ntpd -u ntp:ntp

KillMode=process

Restart=always

PIDFile=/var/run/ntpd.pid

 

[Install]

WantedBy=multi-user.target

 

 

/etc/ntp.conf ファイルに、NTP サーバのアドレスを設定します。

root [ ~ ]# cp -p /etc/ntp.conf ntp.conf_bk

root [ ~ ]# vi /etc/ntp.conf

root [ ~ ]# cat /etc/ntp.conf

server 0.vmware.pool.ntp.org

server 1.vmware.pool.ntp.org

server 2.vmware.pool.ntp.org

driftfile /var/cache/ntp.drift

pidfile   /var/run/ntpd.pid


今回 編集したのは、NTP サーバのアドレスだけです。

root [ ~ ]# diff ntp.conf_bk /etc/ntp.conf

1,10c1,3

< # Asia

< server 0.asia.pool.ntp.org

< # Australia

< server 0.oceania.pool.ntp.org

< # Europe

< server 0.europe.pool.ntp.org

< # North America

< server 0.north-america.pool.ntp.org

< # South America

< server 2.south-america.pool.ntp.org

---

> server 0.vmware.pool.ntp.org

> server 1.vmware.pool.ntp.org

> server 2.vmware.pool.ntp.org

 

ntpd を有効化~起動します。

root [ ~ ]# systemctl enable ntpd.service

Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /etc/systemd/system/ntpd.service.

root [ ~ ]# systemctl start ntpd.service

root [ ~ ]# systemctl status ntpd.service

● ntpd.service - Network Time Service

   Loaded: loaded (/etc/systemd/system/ntpd.service; enabled)

   Active: active (running) since Mon 2015-06-01 15:05:33 UTC; 7s ago

Main PID: 469 (ntpd)

   CGroup: /system.slice/ntpd.service

           mq469 /usr/sbin/ntpd -u ntp:ntp

 

Jun 01 15:05:33 photon03 ntpd[469]: ntp_io: estimated max descriptors: 1024, ini...16

Jun 01 15:05:33 photon03 ntpd[469]: Listen and drop on 0 v4wildcard 0.0.0.0 UDP 123

Jun 01 15:05:33 photon03 ntpd[469]: Listen and drop on 1 v6wildcard :: UDP 123

Jun 01 15:05:33 photon03 ntpd[469]: Listen normally on 2 lo 127.0.0.1 UDP 123

Jun 01 15:05:33 photon03 ntpd[469]: Listen normally on 3 eth0 192.168.1.8 UDP 123

Jun 01 15:05:33 photon03 ntpd[469]: Listen normally on 4 lo ::1 UDP 123

Jun 01 15:05:33 photon03 ntpd[469]: Listen normally on 5 eth0 2408:210:a3c8:7000...23

Jun 01 15:05:33 photon03 ntpd[469]: Listen normally on 6 eth0 fe80::250:56ff:fea...23

Jun 01 15:05:33 photon03 ntpd[469]: peers refreshed

Jun 01 15:05:33 photon03 ntpd[469]: Listening on routing socket on fd #23 for in...es

Hint: Some lines were ellipsized, use -l to show in full.

 

時刻同期が開始されます。

root [ ~ ]# ntpq -p

     remote           refid      st t when poll reach   delay   offset  jitter

==============================================================================

7c2956c8.i-revo 131.112.125.48   2 u    2   64    7   30.411    7.755   8.316

x.ns.gin.ntt.ne 103.1.106.69     2 u    -   64    7   14.764    2.135   2.310

vps.jre655.com  10.84.87.146     2 u    1   64    7   15.498    1.946  12.851

 

しばらく待つと、ジョジョに同期され、NTP サーバの行頭に、* や + がつきます。

photon-ntpd.png

 

やっぱり、もっと近そうな NTP サーバを指定したほうがよかったかもしれません。

 

以上、Photon Linux の時刻同期設定でした。

Photon Linux の時計を日本時間(JST)にする。

$
0
0

VMware Photon Linux は、デフォルトで UTC 設定になっています。

そこで、タイムゾーンを日本時間にしてみました。

 

デフォルトだと、UTC です。

※NTP 同期設定は、デフォルトから設定変更しています。

Photon Linux での NTP サーバとの時刻同期。(systemd-timesyncd / ntpd)

root [ ~ ]# cat /etc/photon-release

VMware Photon Linux 1.0 TP1

root [ ~ ]# date

Mon Jun  1 23:55:15 UTC 2015

root [ ~ ]# timedatectl

      Local time: Mon 2015-06-01 23:55:23 UTC

  Universal time: Mon 2015-06-01 23:55:23 UTC

        RTC time: Mon 2015-06-01 23:55:23

       Time zone: UTC (UTC, +0000)

     NTP enabled: no

NTP synchronized: yes

RTC in local TZ: no

      DST active: n/a

 

タイムゾーンには、Asia/Tokyo があります。

root [ ~ ]# timedatectl list-timezones | grep -i tokyo

Asia/Tokyo

 

Asia/Tokyo に設定変更します。すぐにJST で時刻表示されるようになります。

root [ ~ ]# timedatectl set-timezone Asia/Tokyo

root [ ~ ]# date

Tue Jun  2 08:55:53 JST 2015

 

timedatectl では、「Local time」が JST になります。

root [ ~ ]# timedatectl

      Local time: Tue 2015-06-02 08:55:59 JST

  Universal time: Mon 2015-06-01 23:55:59 UTC

        RTC time: Mon 2015-06-01 23:55:59

       Time zone: Asia/Tokyo (JST, +0900)

     NTP enabled: no

NTP synchronized: yes

RTC in local TZ: no

      DST active: n/a

 

以上、Photon を JST にしてみる話でした。

VMTN Japan Online Forum / にほんごVMware の(個人的な)文字化け対策

$
0
0

[一時ポストですが]

 

VMTN Japan Online Forum やこのブログが最近の Jive 5 → 7 アップデートで文字化けしたりしています。

https://communities.vmware.com/community/vmtn/vmug/forums/asia_pacific/japan

 

復旧作業を頑張ってくれている様子が見られますが、

復旧を待てず過去コンテンツがどうしても気になる場合は私(gowatana)の解答やポストであれば

日本語文をお伝えしますのでコメント返信やこのコミュニティのメール機能などでご連絡ください。

ベストエフォートで対応しようと思います。(ただし平日夜間 or 休祝日対応ですが・・・)


ちなみにコンテンツを書き込んだ人が「編集」画面を開くと、

文字化けしていないコンテンツがみられます。

※そのため、ディスカッションの解答部分はわかっても質問部分は分かりません。


ただ、VMTNの(たぶんやっていると思われる)復旧作業との兼ね合いがわからないので

コンテンツ自体の文字化け修正はしばらくやらずに様子を見ようと思います。

esxtop で、NFS Datastore のカウンタ(DAVG)が追加されてました。

$
0
0

最近リリースされた ESXi のパッチで、

esxtop がわずかに機能拡張されて、NFS でも DAVG(デバイス遅延時間)が表示されるようになりました。


ESXi 5.5 U2 の Build 2718055 で、

パッチのファイル名だと、ESXi550-201505002.zip です。

 

VMware ESXi 5.5, Patch ESXi-5.5.0-20150504001-standard (2114251)

http://kb.vmware.com/kb/2114251

To debug performance issues related to NFS datastores, DAVG has been added to the esxtop utility.

 

そこで、ためしに見てみました。

esxtop を起動後、「u」をクリックすると

「u:disk device」(ストレージ デバイス パネル)が表示できます。

 

ストレージのパフォーマンスに関する問題を識別するために、esxtop を使用 (2014768)

http://kb.vmware.com/kb/2014768

 

関係するカウンタは、下記のようです。

https://pubs.vmware.com/vsphere-55/index.jsp#com.vmware.vsphere.monitoring.doc/GUID-A27C3166-DBD1-4E0B-917B-67EF56864F9B.html

 

※これまで NFS データストアでは表示されてませんでした。

  • DAVG/cmd
    コマンドあたりのミリ秒単位の平均デバイス遅延。
  • DAVG/rd
    読み取り処理あたりのミリ秒単位の平均デバイス読み取り遅延。
  • DAVG/wr
    書き込み処理あたりのミリ秒単位の平均デバイス書き込み遅延。

 

少し前の ESXi では、こう見えていたのですが・・・

(ESXi のバージョン)

~ # vmware -vl

VMware ESXi 5.5.0 build-2456374

VMware ESXi 5.5.0 Update 2

esxtop-nfs-davg-01.png

※自宅環境なので、遅延時間はあまり気にしないでください。


NFS でも DAVG カウンタが表示されるようになりました。

(ESXi のバージョン)

~ # vmware -vl

VMware ESXi 5.5.0 build-2718055

VMware ESXi 5.5.0 Update 2

esxtop-nfs-davg-02.png

 

さらに、esxtop のフィールド表示を変更してみました。

esxtop を起動後、「f」をクリックして、デフォルトで表示される「i」(コマンド全体)のほかに、

「j」(Read)と 「k」(Write)フィールドも表示してみます。

  • I:  LATSTATS/cmd = Overall Latency Stats (ms)
  • J:  LATSTATS/rd = Read Latency Stats (ms)
  • K:  LATSTATS/wr = Write Latency Stats (ms)

 

下記のようなフィールド表示にしてみました。

※Latency 系以外のフィールドは、いくつか OFF にしました。

Current Field order: ABcdefghIJKlmnop

 

 

* A:  DEVICE = Device Name

* B:  ID = Path/World/Partition Id

  C:  NUM = Num of Objects

  D:  SHARES = Shares

  E:  BLKSZ = Block Size (bytes)

  F:  QSTATS = Queue Stats

  G:  IOSTATS = I/O Stats

  H:  RESVSTATS = Reserve Stats

* I:  LATSTATS/cmd = Overall Latency Stats (ms)

* J:  LATSTATS/rd = Read Latency Stats (ms)

* K:  LATSTATS/wr = Write Latency Stats (ms)

  L:  ERRSTATS/s = Error Stats

  M:  PAESTATS/s = PAE Stats

  N:  SPLTSTATS/s = SPLIT Stats

  O:  VAAISTATS= VAAI Stats

  P:  VAAILATSTATS/cmd = VAAI Latency Stats (ms)

 

 

Toggle fields with a-p, any other key to return:

 

以前のリリースでは、NFS の DAVG/rd、DAVG/wr が表示されていませんでしたが・・・

esxtop-nfs-davg-03.png

 

5.5.0 build-2718055 では、

DAVG/rd、DAVG/wr どちらも(Read / Write 両方とも) NFS の平均遅延時間が表示されるようになりました。

esxtop-nfs-davg-04.png


NFS データストアが好きな人にはうれしい機能拡張だと思います。


ちなみに、ストレージの DAVG と 他の遅延時間との関係は、

下記ブログあたり(特に絵)などが参考になると思います。


Troubleshooting Storage Performance in vSphere – Part 1 - The Basics

http://blogs.vmware.com/vsphere/2012/05/troubleshooting-storage-performance-in-vsphere-part-1-the-basics.html

 

以上、esxtop の機能拡張についてでした。

vCloud Conference 2015(Tokyo)行ってきました。

$
0
0

2015年7月8日開催の、VMware vCloud Conference 2015 (東京会場)に行ってみました。

なんと vCloud Air オンリーイベントです。

vcloud-conference2015.png

 

だいたいの内容は、下記のような感じだったと思います。

  • 現状の vCloud Air の概要の説明 / Demo
  • ユーザ事例
  • 最近(2015年6月)に発表されたサービス拡張の説明
    (主に Advanced Networking Service、VPC OnDemand、DR の機能拡張)
  • これからのロードマップ
  • ハンズオン(盛況すぎて行けませんでしたが)
  • Air の詳しい人に色々と質問できる(Ask the Expert ブースなど

 

個人的には、VPC OnDemand が気になりました。

VM に対して分単位課金のサービスらしいので、AWS 的な感覚で
「ためしに」で使えるのではないかと期待しています。

そして VPC OnDemand の「OnDemand 料金計算ツール」も用意されています。

http://vcloud.vmware.com/jp/service-offering/pricing-calculator/on-demand


ちなみに無償キャンペーンがありますが、

日本ロケーションはもうすぐ(7月中に?)オープンする予定とのことです。

http://vcloud.vmware.com/jp/service-offering/special-offer

 

それとは別に、今回参加して印象に残った話を 3つほど。(新情報というわけではないですが

  • Air への移行では、移行元の vSphere(vCenter / ESXi)バージョンよりも
    仮想マシンバージョンを気にすべし。バージョン4(vmx-04)であれば Air に移行できる。
    バージョン4 は、ESX 3.0 の頃に登場したものなので、けっこう前の VM でもいけるはず。
  • DR(Disaster Recovery / 災害復旧サービス)では vSphere Replication が使われる。
    (vR はこれからもっと流行るのでは?)
  • VMware Workstation 11 で、vCenter だけでなく Air にも接続できるらしい。
    「本番環境の障害 VM を Workstation で解析」とかのユースケースがあるそうな。

 

このイベントは、大阪でも 2015年7月14日に開催するようです。

そして来年もやる予定らしい・・・

 

以上、vCloud Conference の話でした。

Viewing all 495 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>