Quantcast
Channel: ネットワールド らぼ
Viewing all 459 articles
Browse latest View live

Watsonで遊んでみる/VTuber配信編

$
0
0

■ はじめに


こんにちは、Watson技術担当の山下です。


突然ですが、VTuberをご存知ですか!?

最近は、ドラマ出演もしてたりして、すごい人気ですよね

ドラマ25 四月一日さん家の|テレビ東京

テレビ東京、VTuber主演ドラマ「四月一日さん家の」4月放送開始


そこで、本ブログ連載では、これから何回かにわたって、Watson AIを使って、VTuberの運用自動化の実装にトライしていきたいと思います。





■ IBM Cloud/Watsonについて


・IBM Cloudのライトアカウントを取得すれば、無料でWatson AIを使うことできます。

IBM Cloud ライト・アカウント | IBM Cloud

・タレントの池澤あやかさんの紹介記事、いろんなおもしろいことできそうですね

IBM Cloud デベロッパーズ・ラウンジ - Japan

使用期限ナシで無料のIBM Cloud「データ分析」にチャレンジ! - 日経 xTECH Special


・IBM Cloudの無料での始め方は、こちら@ayatokuraさんの記事がわかりやすいです。

「IBM Cloudをはじめました」無料ではじめられるライト・アカウント登録方法


■ 作るものイメージ


うーん、例えばこんな感じです、Watson AIが、アバターの表現支援を行うことが、きっとできるはず!

  • 視覚 → Visual Recognition
  • 聞く/話す → Speech to Text / Text to Speech
  • 頭脳 → Discovery
  • 会話 → Assistant
  • 感情 → Personal Insights

Watson AIで、VTuberがパワーアップできそうな予感です(ワクワク)



■ 実装してみる


・vTuberは、Unityで動かしていきます。

・Watsonはバックエンド担当で、VTuberをAI支援していきます。

UnityからWatsonを簡単に呼び出せるUnity-SDKが用意されてましたので、このページからダウンロードして使ってきます


上記画像は、私がいましゃべっていて、、VTuberの発話を Watsonで音声認識して、テキスト字幕をだそうとしてます



■ これから


私のテストがまだまだこれからなのですが、対話がしっかり成立するようになれば、、VTuber配信システムを自動化できる未来は近いかもしれません、、

そんな近い将来(!?)を体感できるような連載を、今後本ブログで行っていきたいと思います。


次回この続きは、今月末くらいを予定しております。最後まで読んでいただきありがとうございました。

Watson AI が初めての方でも分かるように書いてきますので、ぜひ色々な方々にご覧いただけると嬉しいです!


IBM Cloud Private 3.2 インストール RHEL編

$
0
0

みなさん、こんにちは。 これまでIBM Cloud Privateについてインストール含めいくつか投稿してきましたが 先日、IBM Cloud Private 3.2 (ICP3.2)がリリースされましたので、少し構成を変えてインストール手順をご紹介したいと思います。

ICP3.2では、これまで別にインストールが必要であったMultiCloud Managerを一緒にインストールすることができるようになりました。 今回は、1台のVM上にICPとMCMを同時にインストールし、管理対象として作成済みの別のICP環境が登録できるところまでをご紹介します。


リソース

サーバーリソースやインストーラの準備をします。

サーバー

今回は1台のサーバーに全コンポーネントを構成します。

CPU: 24core
Memory: 32GB
Disk: 500GB
NIC: 1
OS: Redhat Enterprise Linux 7.6

Diskは下記のように構成しています。

    # lsblk
    NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
    sda 8:0 0 500G 0 disk
    ├─sda1 8:1 0 1G 0 part /boot
    └─sda2 8:2 0 499G 0 part
    ├─rhel_icp--mcm--32-root 253:0 0 450G 0 lvm /
     ├─rhel_icp--mcm--32-swap 253:1 0 15.8G 0 lvm [SWAP]      └─rhel_icp--mcm--32-home 253:2 0 33.2G 0 lvm /home


インストーラ

IBM社のWebサイトからインストーラをダウンロードし、対象のサーバーにコピーします。 今回は /root/にコピーします。

  • IBM Cloud Private 3.2 for Linux (x86_64) Docker English

    • 部品番号: CC1W1EN
    • Size: 10,201MB
    • Date posted: 31 5 2019
  • IBM Cloud Private 3.2 Docker for Linux (x86_64) English

    • 部品番号: CC1W6EN
    • Size: 111MB
    • Date posted: 31 5 2019


準備

インストールの実行前にサーバーの準備、確認を行います。

利用ポートの空き状況確認

Knowledge Center
下記のコマンドを実行し、ポートが開いて利用可能か確認します。

ss -tnlp | awk '{print $4}'| egrep -w "<port_numbers>"

ポートが使用されていない場合、何も出力されません。
本環境では、FWを停止しています。

systemctl disable firewalld
systemctl stop firewalld


/etc/hosts に各ノードの情報を追記

Knowledge Center

全てのノードのIPアドレスとホスト名を各ノードの /etc/hosts に追記します。

Sample

127.0.0.1       localhost
# 127.0.1.1     <host_name>
# The following lines are desirable for IPv6 capable hosts
#::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
<master_node_IP_address> <master_node_host_name>
<worker_node_1_IP_address> <worker_node_1_host_name>
<worker_node_2_IP_address> <worker_node_2_IP_host_name>
<proxy_node_IP_address> <proxy_node_host_name>


今回の環境

# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
# 127.0.0.1   icp-mcm-32.icp.local
# ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.100.180  icp-mcm-32.icp.local


今回の環境は全てを1台でまかなうため、1台のエントリのみを追記しています。


Pythonのインストール確認

Knowledge Center

Pythonが必要になるので、インストールされていることを確認します。

python --version


時刻の同期

Knowledge Center

複数のノードで構成する場合は時刻を同期する必要があります。
手順上はNTPでの同期が可能となっていますが、今回は Chronyで構成されていることを確認します。

# systemctl status chronyd
● chronyd.service - NTP client/server
   Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled; vendor preset: enabled)
   Active: active (running) since 金 2019-06-14 12:11:53 JST; 2 days ago
     Docs: man:chronyd(8)
           man:chrony.conf(5)
 Main PID: 7010 (chronyd)
    Tasks: 1
   Memory: 76.0K
   CGroup: /system.slice/chronyd.service
           └─7010 /usr/sbin/chronyd

 6月 14 12:11:53 icp-mcm-32.icp.local systemd[1]: Starting NTP client/server...
 6月 14 12:11:53 icp-mcm-32.icp.local chronyd[7010]: chronyd version 3.2 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SECHASH +SIGND +... +DEBUG)
 6月 14 12:11:53 icp-mcm-32.icp.local chronyd[7010]: Frequency -22.606 +/- 0.053 ppm read from /var/lib/chrony/drift
 6月 14 12:11:53 icp-mcm-32.icp.local systemd[1]: Started NTP client/server.
 6月 14 12:11:59 icp-mcm-32.icp.local chronyd[7010]: Selected source 133.243.238.163
 6月 14 12:12:00 icp-mcm-32.icp.local chronyd[7010]: Selected source 133.243.238.244
 6月 17 00:39:45 icp-mcm-32.icp.local chronyd[7010]: Selected source 133.243.238.163
Hint: Some lines were ellipsized, use -l to show in full.


Dockerのインストール

Knowledge Center

Dockerを事前にインストールします。インストールに使用するファイルは事前にダウンロードし用意したファイルです。

  • IBM Cloud Private 3.2 Docker for Linux (x86_64) English
    • 部品番号: CC1W6EN
    • Size: 111MB
    • Date posted: 31 5 2019

複数台で構成する場合は事前(手動)インストール、自動的にインストールどちらでも構成は可能です。
詳細はKnowledge Centerをご確認ください。

今回は1台構成ですので、事前に手動でインストールします。

cd /root/
./icp-docker-18.06.2_x86_64.bin --install
systemctl enable docker
systemctl start docker


ICPインストール

ICPをインストールする手順です。

Docker Imageファイルの読み込み

Knowledge Center

ここでは事前にダウンロード、コピーした下記のファイルを使います。

  • IBM Cloud Private 3.2 for Linux (x86_64) Docker English
    • 部品番号: CC1W1EN  
    • Size: 10,201MB  
    • Date posted: 31 5 2019  

下記コマンドを実行してファイルを読み込みます。

cd /root/
tar xf ibm-cloud-private-x86_64-3.2.0.tar.gz -O | sudo docker load

※時間がかかります

ファイルを確認します。

# docker images
REPOSITORY                                      TAG                              IMAGE ID            CREATED             SIZE
ibmcom/icp-inception-amd64                      3.2.0-ee                         7bfbda77de25        3 weeks ago         1.07GB
ibmcom/mcm-api-amd64                            3.2.0                            31d264fa970c        3 weeks ago         148MB
ibmcom/mcm-klusterlet-amd64                     3.2.0                            31612377c197        3 weeks ago         293MB
ibmcom/icp-management-ingress-amd64             2.3.0                            44a21aa4ae07        3 weeks ago         561MB
ibmcom/icp-platform-header-amd64                3.2.0                            923bb12c5d41        3 weeks ago         399MB
ibmcom/icp-catalog-ui-amd64                     3.2.0                            8f05cbf2a670        3 weeks ago         268MB
ibmcom/mcm-ui-amd64                             3.2.0                            4738b8251378        3 weeks ago         368MB
ibmcom/mcm-ui-api-amd64                         3.2.0                            1b4c073e1bac        3 weeks ago         184MB
ibmcom/iam-policy-administration-amd64          3.2.0                            391d5a92f6e5        3 weeks ago         609MB
ibmcom/icp-web-terminal-amd64                   3.2.0                            f95426f58aff        3 weeks ago         832MB
ibmcom/icp-platform-api-amd64                   3.2.0                            22a9cf0ddb02        3 weeks ago         1.22GB
ibmcom/deployable-amd64                         3.2.0                            c98849d9e5b6        4 weeks ago         115MB
ibmcom/mcm-application-amd64                    3.2.0                            edb19fe8ace8        4 weeks ago         109MB
ibmcom/icp-platform-ui-amd64                    3.2.0                            84ecfd6c527e        4 weeks ago         322MB
ibmcom/iam-policy-decision-amd64                3.2.0                            8593f2a0f0ce        4 weeks ago         90.7MB
ibmcom/mcm-service-registry-amd64               3.2.0                            33e5253e5d11        4 weeks ago         106MB
ibmcom/grc-ui-amd64                             3.2.0                            586b76295743        4 weeks ago         315MB
ibmcom/minio-mc-amd64                           RELEASE.2019-04-03T17-59-57Z.1   f1f85cc957ab        4 weeks ago         261MB
ibmcom/minio-amd64                              RELEASE.2019-04-09T01-22-30Z.1   8a377ffc548d        4 weeks ago         289MB
ibmcom/icp-identity-manager-amd64               3.2.0                            ac62afda0220        4 weeks ago         229MB
ibmcom/mcm-compliance-amd64                     3.2.0                            c0a88760dcf8        4 weeks ago         460MB
ibmcom/icp-platform-auth-amd64                  3.2.0                            d2a5d45be251        4 weeks ago         804MB
ibmcom/search-collector-amd64                   3.2.0                            d0d43548ce0a        4 weeks ago         120MB
ibmcom/logging-pki-init-amd64                   2.2.0-f3                         963ccf877a15        4 weeks ago         645MB
ibmcom/mcm-operator-amd64                       3.2.0                            81d90af8d5e3        4 weeks ago         134MB
ibmcom/mcm-controller-amd64                     3.2.0                            138c701353d4        4 weeks ago         112MB
ibmcom/icp-redisgraph-amd64                     1.0.14                           06906ccb90e8        5 weeks ago         222MB
ibmcom/search-aggregator-amd64                  3.2.0                            2483f86b6645        5 weeks ago         118MB
ibmcom/draino-amd64                             0.1.1                            8c09acc5306f        5 weeks ago         44.9MB
ibmcom/node-problem-detector-amd64              v0.5.1                           ccd6e755b1f7        5 weeks ago         126MB
ibmcom/kubectl-amd64                            v1.13.5                          0e095c9d19b1        5 weeks ago         259MB
ibmcom/default-http-backend-amd64               1.5.1                            ac9ad2ce402e        5 weeks ago         209MB
ibmcom/metrics-server-amd64                     v0.3.1.1                         981d9944c685        5 weeks ago         243MB
ibmcom/coredns-amd64                            1.2.6                            41ba56a038f2        5 weeks ago         259MB
ibmcom/icp-identity-provider-amd64              3.2.0                            a945ed82b550        5 weeks ago         260MB
ibmcom/ma-file-annotator-amd64                  3.2.0                            1e9378e5e939        5 weeks ago         849MB
ibmcom/sas-base-amd64                           3.2.0                            5426af184cc8        5 weeks ago         849MB
ibmcom/ibmcloud-image-enforcement-amd64         0.2.1                            c02d293faf3e        5 weeks ago         244MB
ibmcom/mcm-weave-scope-amd64                    3.2.0                            ccd605b03abe        5 weeks ago         139MB
ibmcom/icp-mongodb-exporter-amd64               3.2.0                            103d5b1ea1a2        5 weeks ago         366MB
ibmcom/icp-initcontainer-amd64                  1.0.0-f3                         9c80451d2053        5 weeks ago         204MB
ibmcom/icp-memcached-amd64                      1.5.12-icp                       351e255d7fa0        5 weeks ago         264MB
ibmcom/system-healthcheck-service-amd64         3.2.0                            f53bb7444bdd        5 weeks ago         122MB
ibmcom/curl-amd64                               4.2.0-f3                         db09cc8e9b7f        5 weeks ago         221MB
ibmcom/icp-helm-repo-amd64                      3.2.0                            32452b7888f0        5 weeks ago         262MB
ibmcom/icp-iam-onboarding-amd64                 3.2.0                            168c7ba73f74        5 weeks ago         386MB
ibmcom/velero-amd64                             v0.11.0                          5479556ad928        5 weeks ago         142MB
ibmcom/icp-secret-watcher-amd64                 3.2.0                            b700909d1c73        5 weeks ago         116MB
ibmcom/hyperkube-amd64                          v1.13.5-ee                       6ef65d9fca2d        5 weeks ago         628MB
ibmcom/reg-crawler-amd64                        3.2.0                            c7de11520b33        5 weeks ago         1.04GB
ibmcom/live-crawler-amd64                       3.2.0                            ba9e1a80de72        5 weeks ago         1.01GB
ibmcom/weave-collector-amd64                    3.2.0                            3fbffe321d27        5 weeks ago         108MB
ibmcom/grc-ui-api-amd64                         3.2.0                            9451e4fe0b9b        5 weeks ago         181MB
ibmcom/nvidia-device-plugin-amd64               1.3                              606e62095e10        5 weeks ago         136MB
ibmcom/icp-image-manager-amd64                  2.2.5                            fd074bbc8a32        5 weeks ago         152MB
ibmcom/icp-cert-manager-webhook-amd64           0.7.0                            b946908a521f        5 weeks ago         150MB
ibmcom/icp-cert-manager-controller-amd64        0.7.0                            71eab1e42b7a        5 weeks ago         198MB
ibmcom/icp-cert-manager-cainjector-amd64        0.7.0                            f542781230d5        5 weeks ago         138MB
ibmcom/icp-cert-manager-acmesolver-amd64        0.7.0                            9822ff84189b        5 weeks ago         110MB
ibmcom/icp-filebeat-amd64                       5.5.1-f3                         dd16476aa50d        5 weeks ago         380MB
ibmcom/dashboard-controller-amd64               v1.1.0                           d703d855e8bf        6 weeks ago         35.7MB
ibmcom/kmsplugin-amd64                          3.2.0                            2507e10a11bb        6 weeks ago         95.5MB
ibmcom/fluentd-amd64                            v1.4.1-icp                       6f1b729a957a        6 weeks ago         309MB
ibmcom/icp-mongodb-install-amd64                3.2.0                            928fcedd0008        6 weeks ago         19.9MB
ibmcom/elasticsearch-plugin-searchguard-amd64   2.0.0-f3                         4ff0e0c66702        6 weeks ago         331MB
ibmcom/alert-rule-controller-amd64              v1.1.0                           f1af965b76a4        6 weeks ago         134MB
ibmcom/grafana-amd64                            5.2.0-f3                         d93651ccf931        6 weeks ago         336MB
ibmcom/searchguard-init-amd64                   2.0.1-f3                         68147bcc08e4        6 weeks ago         557MB
ibmcom/logstash-liveness-probe-amd64            1.0.2-f3                         05b31dea80e8        6 weeks ago         70.5MB
ibmcom/icp-logstash-amd64                       5.5.1-f3                         37ca0b7d27a2        6 weeks ago         902MB
ibmcom/icp-kibana-amd64                         5.5.1-f3                         c9dc59849690        6 weeks ago         745MB
ibmcom/indices-cleaner-amd64                    1.1.0-f3                         49468000f7fe        6 weeks ago         338MB
ibmcom/icp-elasticsearch-amd64                  5.5.1-f3                         a153c7759945        6 weeks ago         621MB
ibmcom/tiller-amd64                             v2.12.3-icp-3.2.0                1178f59455bb        6 weeks ago         154MB
ibmcom/icp-helm-rudder-amd64                    3.2.0                            eb81962c0b1c        6 weeks ago         110MB
ibmcom/icp-helm-api-amd64                       3.2.0                            401f30a6d7f2        6 weeks ago         205MB
ibmcom/metering-ui-amd64                        3.2.0                            04fac400e98d        6 weeks ago         441MB
ibmcom/metering-data-manager-amd64              3.2.0                            c415a2ddad5f        6 weeks ago         215MB
ibmcom/kms-pep-amd64                            3.2.0                            7aaeb5363df6        6 weeks ago         121MB
ibmcom/kms-onboarding-amd64                     3.2.0                            75a9d249a30a        6 weeks ago         136MB
ibmcom/kms-lifecycle-amd64                      3.2.0                            d0cdac0f6132        6 weeks ago         122MB
ibmcom/kms-persistence-amd64                    3.2.0                            c720b5c2b0df        6 weeks ago         125MB
ibmcom/kms-crypto-amd64                         3.2.0                            4a4e268b04e0        6 weeks ago         121MB
ibmcom/kms-api-amd64                            3.2.0                            8603ca2db4b4        6 weeks ago         120MB
ibmcom/icp-audit-service-amd64                  3.2.0                            e06a726497c3        6 weeks ago         204MB
ibmcom/ma-mcm-controller-amd64                  3.2.0                            823342b3a4be        6 weeks ago         40.2MB
ibmcom/registry-amd64                           2.6.2.4                          e3f692eb854c        6 weeks ago         284MB
ibmcom/process-ma-hf-amd64                      3.2.0                            0e7f2c73560d        6 weeks ago         689MB
ibmcom/ma-file-wl-gen-amd64                     3.2.0                            bdbf4fa13cd7        6 weeks ago         1.22GB
ibmcom/rootkit-annotator-amd64                  3.2.0                            af01468d8f7b        6 weeks ago         599MB
ibmcom/cos-indexer-amd64                        3.2.0                            5fd1ccffe5d8        6 weeks ago         907MB
ibmcom/usncrawler-amd64                         3.2.0                            45abd51f0903        6 weeks ago         162MB
ibmcom/secure-config-annotator-amd64            3.2.0                            6315ff6e5746        6 weeks ago         786MB
ibmcom/password-annotator-amd64                 3.2.0                            b9541d6c7720        6 weeks ago         658MB
ibmcom/compliance-annotator-amd64               3.2.0                            310b5e5a2797        6 weeks ago         725MB
ibmcom/vulnerability-annotator-amd64            3.2.0                            ed1a6b44e411        6 weeks ago         744MB
ibmcom/config-parser-amd64                      3.2.0                            bcb42091c7de        6 weeks ago         692MB
ibmcom/py-generic-indexer-amd64                 3.2.0                            d93faf78e54c        6 weeks ago         706MB
ibmcom/icp-audit-service-nr-amd64               3.2.0                            4e16f0bc598e        6 weeks ago         411MB
ibmcom/istio-proxyv2-amd64                      1.0.2.3                          c7870313c9d0        7 weeks ago         386MB
ibmcom/istio-proxy_init-amd64                   1.0.2.2                          6da5ea9248b7        8 weeks ago         122MB
ibmcom/istio-pilot-amd64                        1.0.2.2                          7cef95b2543b        8 weeks ago         290MB
ibmcom/istio-grafana-amd64                      1.0.2.2                          a8cf54903a32        2 months ago        284MB
ibmcom/kafka-amd64                              0.10.0.4                         7dcdd6710c8a        2 months ago        1.69GB
ibmcom/icp-storage-util-amd64                   3.2.0                            39f6d07ea4f0        2 months ago        100MB
ibmcom/nginx-ingress-controller-amd64           0.23.0                           c885a0010dfc        2 months ago        652MB
ibmcom/gluster-amd64                            v4.1.5.1                         c4e893bb3081        3 months ago        363MB
ibmcom/heketi-amd64                             v8.0.0.1                         13127dc55ac9        3 months ago        285MB
ibmcom/prometheus-amd64                         v2.8.0                           f57ed0abd85c        3 months ago        109MB
ibmcom/icp-mongodb-amd64                        4.0.6                            a3abd47e8d61        3 months ago        394MB
ibmcom/k8szk-amd64                              v5                               3158387c8090        3 months ago        711MB
ibmcom/calico-node-amd64                        v3.5.2                           c90e4b49722e        3 months ago        72.7MB
ibmcom/calico-cni-amd64                         v3.5.2                           1c5756b05a3a        3 months ago        83.6MB
ibmcom/calico-ctl-amd64                         v3.5.2                           11a8f7d2a6ab        3 months ago        39.8MB
ibmcom/calico-kube-controllers-amd64            v3.5.2                           9abd28f0ab06        3 months ago        50.5MB
ibmcom/service-catalog-service-catalog-amd64    v0.1.40-icp                      a7d502ea2470        4 months ago        48.3MB
ibmcom/kiali-amd64                              v0.8.0.1                         597f59b8441c        5 months ago        300MB
ibmcom/etcd-amd64                               3.2.24                           33bdcac177c2        8 months ago        220MB
ibmcom/jaegertracing-all-in-one-amd64           1.7                              7ad5d345bd8a        9 months ago        42.5MB
ibmcom/istio-galley-amd64                       1.0.2                            b8cfc0e19a91        9 months ago        65.8MB
ibmcom/istio-citadel-amd64                      1.0.2                            ca4050c9fed3        9 months ago        50.7MB
ibmcom/istio-mixer-amd64                        1.0.2                            d559bdcd7a88        9 months ago        64.5MB
ibmcom/istio-servicegraph-amd64                 1.0.2                            c36167d0817c        9 months ago        11.2MB
ibmcom/istio-sidecar_injector-amd64             1.0.2                            77e6870301bb        9 months ago        45.3MB
ibmcom/icp-vip-manager-amd64                    1.1                              a947d99712bc        9 months ago        23.6MB
ibmcom/keepalived-amd64                         1.2.24                           afe8d43fd5cf        9 months ago        4.75MB
ibmcom/ucarp-amd64                              1.5.2                            9e92ac65e1fe        9 months ago        7.84MB
ibmcom/statsd-amd64                             0.7.2.1                          63abfe933c79        9 months ago        1.23GB
ibmcom/cert-manager-amd64                       v0.3.1                           b8418de4aa2e        11 months ago       51.8MB
ibmcom/alertmanager-amd64                       v0.15.0-f3                       24ad3756845c        11 months ago       36.1MB
ibmcom/node-exporter-amd64                      v0.16.0-f3                       188af75e2de0        13 months ago       22.9MB
ibmcom/k8s-prometheus-adapter-amd64             v0.2.1.1                         4a3ba29699fa        14 months ago       52.1MB
ibmcom/kube-state-metrics-amd64                 v1.3.0-f3                        62a2d8cf4b55        14 months ago       35.6MB
ibmcom/configmap-reload-amd64                   v0.2.2-f3                        7a344aad0fdb        16 months ago       22.4MB
ibmcom/collectd-exporter-amd64                  v0.4.0-f3                        98678887c9cb        17 months ago       13.7MB
ibmcom/prom-statsd-exporter-amd64               v0.6.0                           304735eab4e4        17 months ago       14.1MB
ibmcom/elasticsearch-exporter-amd64             1.0.2-f3                         d767dc6ccfb2        17 months ago       9.2MB
ibmcom/pause-amd64                              3.1                              da86e6ba6ca1        18 months ago       742kB


インストールディレクトリの作成

Knowledge Center

Knowledge Centerと同様に下記のディレクトリを作成し、移動します。

mkdir /opt/ibm-cloud-private-3.2.0;  
cd /opt/ibm-cloud-private-3.2.0  


設定ファイルを抽出

Knowledge Center

Docker Imageから設定ファイルを抽出します。

sudo docker run -v $(pwd):/data -e LICENSE=accept \
ibmcom/icp-inception-amd64:3.2.0-ee \
cp -r cluster /data


クラスターノード間でSSHキーを共有する

Knowledge CenterKnowledge Center

ブートノードからクラスタ内の全てのノードに接続するためにSSHキーを共有します。
SSHキーを使う方法以外にパスワード認証を使用することも可能です。

本環境では1台構成のため、下記のコマンドを実行します。

ssh-keygen -b 4096 -f ~/.ssh/id_rsa -N ""
ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.100.180
cp ~/.ssh/id_rsa ./cluster/ssh_key


各クラスターノードの情報を /cluster/hosts に追記

Knowledge Center

Knowledge Centerの内容を参考にICPを構成するノードの情報を追記します。
本環境は1台で全てを構成するの下記のようになります。


vi /opt/ibm-cloud-private-3.2.0/cluster/hosts

[master]
192.168.100.180

[worker]
192.168.100.180

[proxy]
192.168.100.180

#[management]
#4.4.4.4

#[va]
#5.5.5.5


ファイルの移動

Knowledge Center

事前にダウンロード、コピーした下記のファイルを使います。


- IBM Cloud Private 3.2 for Linux (x86_64) Docker English
- 部品番号: CC1W1EN - Size: 10,201MB - Date posted: 31 5 2019

このファイルを //cluster/imagesに移動します。


mkdir -p mkdir -p /opt/ibm-cloud-private-3.2.0/cluster/images/ 
mv /root/ibm-cloud-private-x86_64-3.2.0.tar.gz /opt/ibm-cloud-private-3.2.0/cluster/images/


クラスターのカスタマイズ

Knowledge Center config.yaml を編集し、クラスタをカスタマイズします。
編集対象のファイルは /opt/ibm-cloud-private-3.2.0/cluster/config.yamlです。 各設定はファイルの中身のみ記載します。


パスワード規則の無効化

Knowledge Center

デフォルトではパスワードの複雑性の規則が設定されているので無効化します。


## 省略 ##

## Advanced Settings
default_admin_user: admin
# default_admin_password:
# ansible_user: <username>
# ansible_become: true
# ansible_become_password: <password>
## Add password rule
password_rules:
 - '(.*)'

## 省略 ##


デフォルトパスワードの指定

Knowledge Center

デフォルトログインユーザー adminのパスワードを指定します。
指定するパスワードは adminです。


 ## 省略 ##

 ## Advanced Settings
default_admin_user: admin
# default_admin_password:
default_admin_password: admin  ##追記
# ansible_user: <username>
# ansible_become: true
# ansible_become_password: <password>
## Add password rule
password_rules:
- '(.*)'

 ## 省略 ##


Multicloud Manager の有効化

Knowledge Center

ICP3.2からMulticloud Managerが含まれる形で構成され、有効化するだけで利用可能となりました。
今回はICPインストール時に Multicloud Manager を有効化する設定を行います。

## 省略 ##

## Clean metrics indices in Elasticsearch older than this number of days
# metrics_max_age: 1

## Clean application log indices in Elasticsearch older than this number of days
# logs_maxage: 1

## Set to false if user wants to install the full functionality of IBM Multicloud Manager hub
# single_cluster_mode: true
## 追記ここから
single_cluster_mode: false  

multicluster-hub:
 etcd:
   persistence: true
   localPath: /var/lib/etcd-mcm
## 追記ここまで

## Istio addons security Settings
## If user wants to configure Istio addons securty settings

## 省略 ##


Multicloud Manager用の etcd ディレクトリを作成します。
Management Nodeが複数ある場合は全てのノード上で作成します。
本環境は1台構成ですので、1台に作成します。


mkdir -p /var/lib/etcd-mcm


ICPをManaged Clusterとして登録

Knowledge Center

ICPをインストールする際にMulticloud Manager配下(管理対象)として登録することもできるようになりました。
今回はICPは1クラスター(且つ1台構成)ですので、自分自身を管理するように構成します。

multicluster-endpointを有効にします。

## 省略 ##

management_services:
  istio: disabled
  vulnerability-advisor: disabled
  storage-glusterfs: disabled
  storage-minio: disabled
  platform-security-netpols: disabled
  node-problem-detector-draino: disabled
  # multicluster-endpoint: disabled
  multicluster-endpoint: enabled

## 省略 ##


ICPクラスター情報を指定します。
※config.yamlの最下部にコメントアウトされた下記設定があるので、その下に下記内容を追記する

multicluster-endpoint:
  global:
    clusterName: "managed-cluster"
    clusterNamespace: "ns-managed-cluster"
  clusterLabels:
    environment: "Dev"
    region: "US"
    datacenter: "toronto"
    owner: "marketing"
  operator:
    bootstrapConfig:
      hub0:
        name: hub0
        secret: kube-system/klusterlet-bootstrap
      hub1:
        name: null
        secret: null
  klusterlet:
    host: null
  prometheusIntegration:
    enabled: true
  policy:
    cemIntegration: false
  topology:
    enabled: true
  serviceRegistry:
    enabled: true
    dnsSuffix: "mcm.svc"
    plugins: "kube-service"


インストール前チェック

Knowledge Center

下記コマンドを実行しインストール前のチェックをします。

cd /opt/ibm-cloud-private-3.2.0/cluster/
sudo docker run --net=host -t -e LICENSE=accept \
-v "$(pwd)":/installer/cluster ibmcom/icp-inception-amd64:3.2.0-ee check


チェック完了時のログ

PLAY RECAP  

192.168.100.180            : ok=58   changed=34   unreachable=0    failed=0

Playbook run took 0 days, 0 hours, 1 minutes, 25 seconds


完了後、エラーが出ていないことを確認してください。


インストール

Knowledge Center

チェックに問題がなければインストールを実行します。  

cd /opt/ibm-cloud-private-3.2.0/cluster/
sudo docker run --net=host -t -e LICENSE=accept \
-v "$(pwd)":/installer/cluster ibmcom/icp-inception-amd64:3.2.0-ee install


インストール完了時のログ

PLAY RECAP  

192.168.100.180           : ok=167  changed=97   unreachable=0    failed=0  
localhost                  : ok=373  changed=195  unreachable=0    failed=0  

POST DEPLOY MESSAGE    ************************************************************  

The Dashboard URL: https://192.168.100.180:8443, please use credentials in config.yaml to login.    

Playbook run took 0 days, 0 hours, 40 minutes, 5 seconds  



管理コンソールへのアクセス

管理コンソールにアクセスします。インストールを実行したコンソール上に管理コンソールのURLが記載されています。

  • https://192.168.100.180:8443
    • user: admin  
    • password: admin  

141925


Multicloud Managerを有効化している場合はMulticloud ManagerのUIが表示されます。
有効化していない場合はICPの管理UIが表示されます。

142000


Multicloud Managerが正常に動作しているか確認をしていきます。

Multicloud Managerの稼動確認

Multicloud Managerとして稼動しているか確認します。

デプロイメントの稼動確認

Multicloud Managerのデプロイメントが正常に動作しているか確認します。
管理コンソールのメニューから[ローカル・クラスター]-[ローカル・クラスターの管理]に移動します。

ICPの管理画面が開きます。メニューから[ワークロード]-[デプロイメント]を開きます。

160830


multicluster-hub-から始めるエントリが全て使用可能のステータスが1になっている事を確認します。


管理対象ICPクラスターの登録確認

管理対象としてICPクラスターを登録するよう設定しましたが、Multicloud Managerからも参照できる事を確認します。


デプロイメントの稼働確認

管理コンソールのメニューから[ローカル・クラスター]-[ローカル・クラスターの管理]に移動します。

ICPの管理画面が開きます。メニューから[ワークロード]-[デプロイメント]を開きます。

160812_2


multicluster-endpoint-から始めるエントリが全て使用可能のステータスが1になっている事を確認します。

ICPクラスター情報の確認

Multicloud Managerの管理コンソールを開きます。

142000_2


メニューから クラスターを開きます。local clusterとしてエントリされていることが確認できます。

161432_2


161445


また、メニューから 概説を開きます。こちらでは管理しているKubernetes クラスターのステータスを一覧で見ることができます。 現在はICPクラスターのみになりますので、ICPクラスター1台の情報が表示されています。

61522



以上になります。
これまでのバージョンから大きくインストール方法が変更されていませんがメイン機能の一つである、 Multicluster Managerが同梱され、気軽に構成できるようになったりしています。

また、今回は各設定の説明の前に Knowledge Centerのリンクをつけてみました。 IBM Knowledge Center上の該当部分になりますので、ぜひ参照してみてください。

すずきけ

IBM Cloud Pak for Data 2.1を動かしてみる

$
0
0

sample

みなさん、こんにちは。 IBM Cloud Private(ICP)の投稿ばかりしていましたが、今回はICP上に構成される別製品のご案内と動かすところまでを試してみます。 今回、ご紹介する製品は


IBM Cloud Pak for Data


です。 5月末に新バージョンがリリースされ、これまで IBM Cloud Private for Dataと呼ばれていた製品が IBM Cloud Pak for Dataにリブランドされました。


IBM Cloud Pak for Data とは何か?

IBM Cloud Pak for Data は 企業内のすべてのデータおよび分析ニーズに対する Ent to End の次世代データプラットホームです。


なぜ必要か?

みなさん、社内や顧客の現場でAIやマシンラーニング(ML)を活用したシステムの開発の話などを聞くことが増えてきているかと思います。
しかしながら実際に進み始めるとこんな課題が出てきます。

(AIやMLに使える)データはどこにあるの?

そのデータすぐに使えるの?

もちろん、データを1から作る必要があることもありますが社内のどこかのデータベースに埋まっていることもあります。
また、仮にあったとしても使えるようになるまで担当者への確認や準備・加工が必要となり、すぐに始められないのが現状としてあります。

実際にIBMの調査ではデータから価値を引き出せている企業は 15%しかない。という結果や、実はAIやMLでの活用はプロジェクト全体で見ると2割ほどであり、残りの8割がデータの収集・探索から準備・加工までのフェーズであると言われています。

553_3


IBMとしては、AIは決して 魔法ではなく、一つ一つしっかりと進めていく必要があり、そのアプローチを先進テクノロジーを活用して効率的に支援するためにIBM Cloud Pak for Data をリリースしています。

AI Ladder スライド

9


何ができるか?

IBM Cloud Pak for Data はコンテナーベースで稼働しており、プラットホームとしてIBM Cloud Private(ICP)を利用しています。ICP上にデータ利用者・提供者双方のニーズを合わせパッケージ化したソリューションになります。
また、下記の画像に記載はありませんが、Watson関連についてもIBM Cloud Pak for Data 上にadd-onされることが発表されていて、今後拡充されていきます。

製品の特徴としては、

  1. シングルアプリケーション
  2. エンタープライズカタログ
  3. データ仮想化とサンドボックス
  4. Add-on機能
  5. クラウドネイティブ
  6. マルチクラウド対応

があります。

16


詳細機能についてはお問い合わせいただければと思います。


動かしてみる

今回はOS上にIBM Cloud Pak for Data をインストールし、管理UIにログインできるところまでを試してみます。


system requirements

実際に動かしてみる前にシステム要件をみてみます。
https://www.ibm.com/support/knowledgecenter/ja/SSQNUZ_2.1.0/com.ibm.icpdata.doc/zen/install/reqs-ent.html

構成としては3台(3 node cluster (x86-64 cluster))もしくは6台(6+ node cluster (x86-64 cluster))での構成例が記載されています。 また、Power環境で構成することも可能です。

今回は 6+ node cluster (x86-64 cluster)で構成してみます。
また、最新バージョン2.1ではDocker用のRAW Diskについて必須の記載はないが、本環境では利用する設定で進めます。


検証環境

物理基盤で用意することが難しかったので、下記の2種類のサーバーを計6台用意します。

  • Master Server (3台)
    • HW:
    • CPU: 10vcpu
    • Memory: 20GB
    • Disk:
      • 1: 150GB (Rootに100GB)
      • 2: 500GB (Installation path)
      • 3: 200GB (Docker devicemapper)
    • NIC: 1
    • SW:
    • OS: Redhat Enterprise Linux 7.5

  • Node Server (3台)
    • HW:
    • CPU: 16vcpu
    • Memory: 64GB
    • Disk:
      • 1: 150GB (Rootに100GB)
      • 2: 500GB (Installation path)
      • 3: 500GB (Data path)
      • 4: 200GB (Docker devicemapper)
    • NIC: 1
    • SW:
    • OS: Redhat Enterprise Linux 7.5

110624


サーバー環境についてはいくつかの注意点があります。

  • 今回のスペックでは20人程度のユーザーで利用する環境を想定
  • インストーラーを実行するマスターノード(サーバー)から各サーバーへのSSH接続ができることと秘密鍵、パスワードの準備
  • SElinuxを Permissiveに指定
  • [ / ]の領域は 50GBが必要となっていますが、実際に50GBでパーティションを構成すると事前チェックで容量不足となるので多めに指定
  • Installation pathとData pathで利用するDiskは XFSでマウントすること
  • Diskの I/O パフォーマンスをチェックすること (要求されたI/Oに達していなくてもインストールはできます)
  • FWは無効にする
  • インストール前にRunning a prerequisite checkを参照し、チェックを行う
  • CPUに関する設定で AVX/AVX2 instruction set must be enabled on the processor.という注意があります。利用されている機器が古い場合は AVX/AVX2に対応していることを確認する


Running a prerequisite checkを行わなくても、要件を満たしていない場合はインストール時に失敗になります。 しかしながら、そこで修正できない場合(特にSELinuxは再起動が必要)、インストールをやり直す必要があるので、必ず実施していただくことをお勧めします。


環境事前準備

IBM Cloud Pak for Data インストール前に下記の準備を行います。
1. Firewallの無効化とSELinuxの設定変更
2. SSH鍵の交換 3. Diskの確認とフォーマット
4. Disk I/O の確認
5. 時刻同期の設定


1. Firewallの無効化とSELinuxの設定変更

下記コマンドを実行して、Firewallの無効化とSELinuxの設定を permissiveに変更します。

systemctl disable firewalld
systemctl stop firewalld
sed -i -e "s/SELINUX=enforcing/SELINUX=permissive/g" /etc/selinux/config


2. SSH鍵の交換

IBM Cloud Privateのインストールでも実施する作業です。同等の内容を実施します。

SSH鍵の作成

ssh-keygen -b 4096 -f ~/.ssh/id_rsa -N ""

許可された鍵のリストに追加

cat ~/.ssh/id_rsa.pub | sudo tee -a ~/.ssh/authorized_keys

各ノード間でSSH公開鍵をコピー

サンプル

ssh-copy-id -i ~/.ssh/id_rsa.pu  
<user>@<node_ip_address>
ssh-copy-id -i ~/.ssh/id_rsa.pub root@xxx.xxx.xxx.xxx
ssh-copy-id -i ~/.ssh/id_rsa.pub root@xxx.xxx.xxx.xxx

SSHの再起動

systemctl restart sshd

パスワードなしでお互いにログインできるか確認

ssh (Master or Worker IP)

SSH接続後、抜けるのを忘れずに行う

exit



3. Diskの確認とフォーマット

Diskの確認とXFSでのフォーマットを実施します。
今回の検証は環境はVMで作成しており、下記のようなDisk構成になっています。


・マスターサーバ

# fdisk -l

Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sda: 161.1 GB, 161061273600 bytes, 314572800 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x000b0c48

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200   209715199   103808000   8e  Linux LVM
/dev/sda3       209715200   314572799    52428800   8e  Linux LVM

Disk /dev/mapper/rhel-root: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-swap: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-home: 41.9 GB, 41871736832 bytes, 81780736 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト


# lsblk
NAME          MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda             8:0    0  150G  0 disk
├─sda1          8:1    0    1G  0 part /boot
├─sda2          8:2    0   99G  0 part
│ ├─rhel-root 253:0    0  100G  0 lvm  /
│ ├─rhel-swap 253:1    0   10G  0 lvm  [SWAP]
│ └─rhel-home 253:2    0   39G  0 lvm  /home
└─sda3          8:3    0   50G  0 part
  └─rhel-root 253:0    0  100G  0 lvm  /
sdb             8:16   0  500G  0 disk
sdc             8:32   0  200G  0 disk
sr0            11:0    1 1024M  0 rom


・ノードサーバ

# fdisk -l

Disk /dev/sda: 161.1 GB, 161061273600 bytes, 314572800 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x000b8340

デバイス ブート      始点        終点     ブロック   Id  システム
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200   209715199   103808000   8e  Linux LVM
/dev/sda3       209715200   314572799    52428800   8e  Linux LVM

Disk /dev/sdd: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdc: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-root: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-swap: 10.7 GB, 10737418240 bytes, 20971520 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト

Disk /dev/mapper/rhel-home: 41.9 GB, 41871736832 bytes, 81780736 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト


# lsblk
NAME          MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda             8:0    0  150G  0 disk
├─sda1          8:1    0    1G  0 part /boot
├─sda2          8:2    0   99G  0 part
│ ├─rhel-root 253:0    0  100G  0 lvm  /
│ ├─rhel-swap 253:1    0   10G  0 lvm  [SWAP]
│ └─rhel-home 253:2    0   39G  0 lvm  /home
└─sda3          8:3    0   50G  0 part
  └─rhel-root 253:0    0  100G  0 lvm  /
sdb             8:16   0  500G  0 disk
sdc             8:32   0  500G  0 disk
sdd             8:48   0  200G  0 disk
sr0            11:0    1 1024M  0 rom


インストール領域のフォーマットとマウント

この設定はマスタサーバ、ノードサーバのどちらでも実施します。
今回はどちらも /dev/sdbをインストール領域としてマウントします。

・パーティションを作成

# fdisk /dev/sdb
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Device does not contain a recognized partition table
Building a new DOS disklabel with disk identifier 0x4c4f64df.

コマンド (m でヘルプ): p   ### 入力する

Disk /dev/sdb: 536.9 GB, 536870912000 bytes, 1048576000 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
Disk label type: dos
ディスク識別子: 0x4c4f64df

デバイス ブート      始点        終点     ブロック   Id  システム

コマンド (m でヘルプ): n   ### Enter
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p):    ### Enter
Using default response p
パーティション番号 (1-4, default 1):   ### Enter
最初 sector (2048-1048575999, 初期値 2048):    ### Enter
初期値 2048 を使います
Last sector, +sectors or +size{K,M,G} (2048-1048575999, 初期値 1048575999):
初期値 1048575999 を使います
Partition 1 of type Linux and of size 500 GiB is set

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。


・パーティションの確認
/dev/sdb1があることを確認します。

# ls /dev/ | grep sdb
sdb
sdb1


・XFS でフォーマット

# mkfs -t xfs /dev/sdb1
meta-data=/dev/sdb1              isize=512    agcount=4, agsize=32767936 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=131071744, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=63999, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0


・マウントポイントの作成
今回は /ibmマウントします。

mkdir /ibm


・マウントを実行

mount /dev/sdb1 /ibm  


・マウントの確認

# df -T -h
ファイルシス            タイプ     サイズ   使用   残り 使用% マウント位置
/dev/mapper/rhel-root xfs        100G  1.1G   99G    2% /
devtmpfs              devtmpfs    12G     0   12G    0% /dev
tmpfs                 tmpfs       12G     0   12G    0% /dev/shm
tmpfs                 tmpfs       12G  8.9M   12G    1% /run
tmpfs                 tmpfs       12G     0   12G    0% /sys/fs/cgroup
/dev/sdb1             xfs        500G   34M  500G    1% /ibm
/dev/sda1             xfs       1014M  142M  873M   14% /boot
/dev/mapper/rhel-home xfs         39G   33M   39G    1% /home
tmpfs                 tmpfs      2.4G     0  2.4G    0% /run/user/0


データ領域のフォーマットをマウント

データ領域はノードサーバ上ののみ構成します。
手順はインストール領域に行った手順と変わりません。
利用するDisk領域は /dev/sdcです。


・パーティションを作成

# fdisk /dev/sdc
Welcome to fdisk (util-linux 2.23.2).

Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Device does not contain a recognized partition table
Building a new DOS disklabel with disk identifier 0xbb5968dc.

コマンド (m でヘルプ): n
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p):
Using default response p
パーティション番号 (1-4, default 1):
最初 sector (2048-1048575999, 初期値 2048):
初期値 2048 を使います
Last sector, +sectors or +size{K,M,G} (2048-1048575999, 初期値 1048575999):
初期値 1048575999 を使います
Partition 1 of type Linux and of size 500 GiB is set

コマンド (m でヘルプ): w
パーティションテーブルは変更されました!

ioctl() を呼び出してパーティションテーブルを再読込みします。
ディスクを同期しています。


・パーティションの確認
/dev/sdc1があることを確認する

# ls /dev/ | grep sdc
sdc
sdc1


・XFS でフォーマット

# mkfs -t xfs /dev/sdc1
meta-data=/dev/sdc1              isize=512    agcount=4, agsize=32767936 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=131071744, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=63999, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0


・マウントポイントの作成
今回は /dataマウントします。

mkdir /data


・マウントを実行

mount /dev/sdc1 /data  


・マウントの確認

# df -T -h
ファイルシス            タイプ     サイズ   使用   残り 使用% マウント位置
/dev/mapper/rhel-root xfs        100G  1.1G   99G    2% /
devtmpfs              devtmpfs    32G     0   32G    0% /dev
tmpfs                 tmpfs       32G     0   32G    0% /dev/shm
tmpfs                 tmpfs       32G  8.9M   32G    1% /run
tmpfs                 tmpfs       32G     0   32G    0% /sys/fs/cgroup
/dev/sdc1             xfs        500G   33M  500G    1% /data
/dev/sdb1             xfs        500G   34M  500G    1% /ibm
/dev/sda1             xfs       1014M  142M  873M   14% /boot
/dev/mapper/rhel-home xfs         39G   33M   39G    1% /home
tmpfs                 tmpfs      6.3G     0  6.3G    0% /run/user/0


Docker用の領域の確認

下記がDocker用の領域です。

・マスターサーバ

# fdisk -l

---省略---
Disk /dev/sdc: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
---省略---


・ノードサーバ

# fdisk -l

---省略---
Disk /dev/sdd: 214.7 GB, 214748364800 bytes, 419430400 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O サイズ (最小 / 推奨): 512 バイト / 512 バイト
---省略---


4. Disk I/O の確認

ディスクのパフォーマンスの確認項目があります。本番環境ではKnowledge Centerに記載のあるDiskを超えるもしくは匹敵するものを用意する必要があります。


  1. レイテンシー

The value must be better or comparable to: 512000 bytes (512 KB) copied, 1.7917 s, 286 KB/s


・マスターサーバ

# dd if=/dev/zero of=/ibm/testfile bs=512 count=1000 oflag=dsync
1000+0 レコード入力
1000+0 レコード出力
512000 バイト (512 kB) コピーされました、 0.83867 秒、 610 kB/秒


・ノードサーバ

# dd if=/dev/zero of=/ibm/testfile bs=512 count=1000 oflag=dsync
1000+0 レコード入力
1000+0 レコード出力
512000 バイト (512 kB) コピーされました、 0.514063 秒、 996 kB/秒


  1. スループット

The value must be better or comparable to: 1073741824 bytes (1.1 GB) copied, 5.14444 s, 209 MB/s


・マスターサーバ

# dd if=/dev/zero of=/ibm/testfile bs=1G count=1 oflag=dsync
1+0 レコード入力
1+0 レコード出力
1073741824 バイト (1.1 GB) コピーされました、 3.55129 秒、 302 MB/秒


・ノードサーバ

# dd if=/dev/zero of=/ibm/testfile bs=1G count=1 oflag=dsync
1+0 レコード入力
1+0 レコード出力
1073741824 バイト (1.1 GB) コピーされました、 3.49375 秒、 307 MB/秒

テストでファイルが作成されているので忘れずに削除します。

rm -rf /ibm/testfile


5. 時刻同期の設定

時刻同期の設定を行います。
IBM Cloud Pak for Data は ntpdではなく、chronyの利用が推奨されています。 chronyが動作していることを確認します。

# systemctl status chronyd
● chronyd.service - NTP client/server
   Loaded: loaded (/usr/lib/systemd/system/chronyd.service; enabled; vendor preset: enabled)
   Active: active (running) since 月 2019-06-10 17:02:27 JST; 11min ago
     Docs: man:chronyd(8)
           man:chrony.conf(5)
  Process: 915 ExecStartPost=/usr/libexec/chrony-helper update-daemon (code=exited, status=0/SUCCESS)
  Process: 901 ExecStart=/usr/sbin/chronyd $OPTIONS (code=exited, status=0/SUCCESS)
 Main PID: 910 (chronyd)
   CGroup: /system.slice/chronyd.service
           └─910 /usr/sbin/chronyd

 6月 10 17:02:26 icp4d2-m1.icp.local systemd[1]: Starting NTP client/server...
 6月 10 17:02:26 icp4d2-m1.icp.local chronyd[910]: chronyd version 3.2 starting (+CMDMON +NTP +REFCLOCK +RTC +PRIVDROP +SCFILTER +SECHASH +SIGND +AS... +DEBUG)
 6月 10 17:02:26 icp4d2-m1.icp.local chronyd[910]: Frequency -22.831 +/- 0.743 ppm read from /var/lib/chrony/drift
 6月 10 17:02:27 icp4d2-m1.icp.local systemd[1]: Started NTP client/server.
 6月 10 17:02:32 icp4d2-m1.icp.local chronyd[910]: Selected source 133.243.238.244
 6月 10 17:03:37 icp4d2-m1.icp.local chronyd[910]: Selected source 133.243.238.164
Hint: Some lines were ellipsized, use -l to show in full.


環境事前チェック

準備した環境が適切に構成されているかチェックするためのツールが用意されています。 ツールは下記のようなことを確認します。

  • ディスクのスループットと入出力のパフォーマンス
  • 必要なポート
  • CPU/Memory/Disk
  • Firewallが無効であること
  • SELinuxがPermissiveモードとなっていること


ツールのダウンロード

Github上に最新のものが公開されているので、gitが使える端末からダウンロードします。

git clone https://github.com/IBM-ICP4D/icp4d-serviceability-cli.git


ツールのコピー

SCPやSFTP等を利用して、IBM Cloud Pak for Data をインストールするVM上にコピーします。
今回は事前に /ibm/InstallationPackage/utils/ICP4D-Support-Tools/をVM上に作成し、コピーしています。

・sample

scp -r ./icp4d-serviceability-cli/ root@xxx.xxx.xxx.xxx:/ibm/InstallationPackage/utils/ICP4D-Support-Tools/


ツールの実行

Masterサーバ、Nodeサーバそれぞれで実行します。


Masterサーバ

cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm


・ERRORが出力される場合
弊社環境ではいくつかのエラーが発生しました。エラーメッセージ内に対処方法の記載がありますので、個別に対処してください。今回の環境では下記のエラーが発生しています。

# ./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm

no crontab for root
##########################################################################################
Ensuring the IPv4 IP Forwarding is set to enabled
ERROR: The sysctl config has IPv4 IP forwarding set to disabled (net.ipv4.ip_forward = 0). IPv4 forwarding needs to be enabled (net.ipv4.ip_forward = 1). To enable IPv4 forwarding we recommend use of the following commands: "sysctl -w net.ipv4.ip_forward=1" or "echo 1 > /proc/sys/net/ipv4/ip_forward".
##########################################################################################
##########################################################################################
Ensuring the vm.max_map_count under sysctl is at least 262144
ERROR: The sysctl configuration for vm.max_map_count is not at least 262144. Please run the following command to set it to 262144 "sysctl -w vm.max_map_count=262144".
##########################################################################################
Finished with ERROR, please check /tmp/preInstallCheckResult


(参考)上記2点についてERROR内容に記載されている方法以外にファイルを直接編集する方法

echo -e "net.ipv4.ip_forward = 1">> /etc/sysctl.conf
echo -e "vm.max_map_count = 262144">> /etc/sysctl.conf
sysctl -p


・正常に終了した場合

# ./icp4d_tools.sh --preinstall --type=master --install_dir=/ibm

no crontab for root
Finished successfully! This node meets the requirement


Nodeサーバ

cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data



# cd /ibm/InstallationPackage/utils/ICP4D-Support-Tools/icp4d-serviceability-cli
# ./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data

no crontab for root
##########################################################################################
Ensuring the IPv4 IP Forwarding is set to enabled
ERROR: The sysctl config has IPv4 IP forwarding set to disabled (net.ipv4.ip_forward = 0). IPv4 forwarding needs to be enabled (net.ipv4.ip_forward = 1). To enable IPv4 forwarding we recommend use of the following commands: "sysctl -w net.ipv4.ip_forward=1" or "echo 1 > /proc/sys/net/ipv4/ip_forward".
##########################################################################################
Finished with ERROR, please check /tmp/preInstallCheckResult


・正常に終了した場合

# ./icp4d_tools.sh --preinstall --type=worker --install_dir=/ibm --data_dir=/data

no crontab for root
Finished successfully! This node meets the requirement


インストール


ファイルの準備

インストールに使用するファイルをIBM社のWebサイトからダウンロードします。
今回使用するファイルは下記になります。

  • IBM Cloud Private for Data Enterprise Edition V2.1.0 - Includes ICP (Default Install) - Linux x86 Multiplatform Multilingual
    • 部品番号: CC1YCML
    • Size: 0.5MB
    • Date posted: 29 5 2019

このファイルをダウンロード後、操作するマスターサーバの /ibmコピーします。


wgetのインストール

# yum install -y wget
読み込んだプラグイン:product-id, search-disabled-repos, subscription-manager
This system is not registered with an entitlement server. You can use subscription-manager to register.
dvd                                               | 4.3 kB  00:00:00 
依存性の解決をしています
--> トランザクションの確認を実行しています。
---> パッケージ wget.x86_64 0:1.14-15.el7_4.1 を インストール
--> 依存性解決を終了しました。

依存性を解決しました

================================================================================================================================================================
Package                            アーキテクチャー                     バージョン                                     リポジトリー                       容量
================================================================================================================================================================
インストール中:
 wget                               x86_64                               1.14-15.el7_4.1                                dvd                               547 k

 トランザクションの要約
 ================================================================================================================================================================
 インストール  1 パッケージ

 総ダウンロード容量: 547 k
 インストール容量: 2.0 M
 Downloading packages:
 警告: /media/dvd/Packages/wget-1.14-15.el7_4.1.x86_64.rpm: ヘッダー V3 RSA/SHA256 Signature、鍵 ID fd431d51: NOKEY
 wget-1.14-15.el7_4.1.x86_64.rpm の公開鍵がインストールされていません
 file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release から鍵を取得中です。
 Importing GPG key 0xFD431D51:
  Userid     : "Red Hat, Inc. (release key 2) <security@redhat.com>"
  Fingerprint: 567e 347a d004 4ade 55ba 8a5f 199e 2f91 fd43 1d51
  Package    : redhat-release-server-7.5-8.el7.x86_64 (@anaconda/7.5)
  From       : /etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
 Importing GPG key 0x2FA658E0:
  Userid     : "Red Hat, Inc. (auxiliary key) <security@redhat.com>"
  Fingerprint: 43a6 e49c 4a38 f4be 9abf 2a53 4568 9c88 2fa6 58e0
  Package    : redhat-release-server-7.5-8.el7.x86_64 (@anaconda/7.5)
  From       : /etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release
 Running transaction check
 Running transaction test
 Transaction test succeeded
 Running transaction
   インストール中          : wget-1.14-15.el7_4.1.x86_64                                                                                                     1/1
  dvd/productid                                                                                                                            | 1.6 kB  00:00:00
   検証中                  : wget-1.14-15.el7_4.1.x86_64                                                                                                     1/1

 インストール:
   wget.x86_64 0:1.14-15.el7_4.1

 完了しました!


インストーラのダウンロード

コピーしたファイルを実行し、インストーラをダウンロードします。

cd /ibm
chmod +x ICP4D_ENT_INC_ICP_x86_V2.1.bin
./ICP4D_ENT_INC_ICP_x86_V2.1.bin


・ダウンロードを行うインターフェース

***************************************************************************************************************
*** IBM Cloud Private for Data Enterprise Edition V2.1 - Includes ICP (Default Install Image) - Linux x86 ***
***************************************************************************************************************
Ready to download 'IBM Cloud Private for Data Enterprise Edition V2.1 - Includes ICP (Default Install Image) - Linux x86'? (y/n) : y

************************************************************************
 Executing BIN File
************************************************************************
Creating directory /ibm/icp4d (make sure you have root access), starting the download.

Downloading the tarball to /icp4d_ee_2.1.0.0_x86_64.tar
Downloading...
`icp4d_ee_2.1.0.0_x86_64.tar'に保存中

100%[===================================>] 45,488,312,320 17.6MB/s 時間 30m 49s

2019-06-12 13:42:35 (23.5 MB/s) - `icp4d_ee_2.1.0.0_x86_64.tar'へ保存完了 [45488312320/45488312320]

Download completed.

BIN File ended cleanly

ダウンロードしたファイルを解凍し、実行権限を付与します。

cd /ibm/icp4d
tar -xvf icp4d_ee_2.1.0.0_x86_64.tar -C /ibm
chmod +x /ibm/installer.x86_64.466


構成ファイルの作成

今回はインストール用の構成ファイルを作成しインストールを実行します。
ここでは、構成ファイルのテンプレートを作成し、環境に合った形に編集します。


・構成ファイル作成

cd /ibm
./installer.x86_64.466 --get-conf-user

画面が遷移し、下記画面が表示されます。

The installer includes the module path '/ibm/modules'. The following packages will be installed:

    ibm-dde-0.13.14-x86_64.tar
    ibm-iisee-zen-1.0.0.tar

Press Enter to confirm and continue the installation.


The installer detected a configuration file. Do you want to use the parameters in this file for your installation? [Y/N]:

前回のバージョンまでであれば、ここで構成ファイルが作成され、インストーラの画面が閉じますが、本バージョンでは、 引き続きインストール作業の選択画面に進んでしまいます。 ここで一度 Ctrl+Cを実行し、プロセスを終了させます。

構成ファイルですが、wdp.confというファイルがls -lで確認できるかと思います。

# ls -l
合計 26021944
-rwxr-xr-x. 1 root root       16611  6月 12 12:12 ICP4D_ENT_INC_ICP_x86_V2.1.bin
drwxr-xr-x. 3 root root          19  6月 11 14:18 InstallationPackage
drwx------. 2 root root          41  6月 12 13:11 icp4d
-rwxr-xr-x. 1 root root 26646443846  5月 30 08:03 installer.x86_64.466
drwxr-xr-x. 2 root root          71  5月 29 12:47 modules
-rw-r--r--. 1 root root        1818  6月 12 14:21 wdp.conf

wdp.confを開き、編集します。

####省略####
# If need to use other ssh port than 22, add the line ssh_port=xxx
virtual_ip_address_1=192.168.100.196    ## <- VIPを指定
virtual_ip_address_2=192.168.100.197    ## <- VIPを指定
ssh_port=22
user=root                               ## <- 元ファイルに無いが追記。実行するユーザーを指定
master_node_1=192.168.100.190           ## <-この先は用意したサーバーのIP、ディレクトリ、RAW Diskを追加
master_node_path_1=/ibm
master_docker_disk_1=/dev/sdc
master_node_2=192.168.100.191
master_node_path_2=/ibm
master_docker_disk_2=/dev/sdc
master_node_3=192.168.100.192
master_node_path_3=/ibm
master_docker_disk_3=/dev/sdc
worker_node_1=192.168.100.193
worker_node_path_1=/ibm
worker_node_data_1=/data
worker_docker_disk_1=/dev/sdd
worker_node_2=192.168.100.194
worker_node_path_2=/ibm
worker_node_data_2=/data
worker_docker_disk_2=/dev/sdd
worker_node_3=192.168.100.195
worker_node_path_3=/ibm
worker_node_data_3=/data
worker_docker_disk_3=/dev/sdd
#management_node_1=
#management_node_path_1=
#management_node_2=
#management_node_path_2=
#va_node_1=
#va_node_path_1=
#proxy_node_1=
#proxy_node_path_1=
#proxy_node_docker_disk_1=


インストーラの実行

インストーラを実行します。

./installer.x86_64.466


・画面が遷移します

The installer includes the module path '/ibm/modules'. The following packages will be installed:

    ibm-dde-0.13.14-x86_64.tar
    ibm-iisee-zen-1.0.0.tar

Press Enter to confirm and continue the installation.


The installer detected a configuration file. Do you want to use the parameters in this file for your installation? [Y/N]: y
Validating the information in the file...


By typing (A), you agree to the terms and conditions: http://www14.software.ibm.com/cgi-bin/weblap/lap.pl?la_formnum=&li_formnum=L-DNAA-BBCT4D&title=IBM+Cloud+Private+for+Data+Enterprise+Edition+V2.1&l=en

Type (R) if you do not agree to the terms and conditions

Please type (A) for accept or (R) for reject: a


Please type root's password for all the nodes:


・インストール完了

Running roles: PostInstall on host group: all

Task ['PostInstall'] has completed successfully
Installation was successful and took 02:56:42
Access the zen web portal using the following URL: https://192.168.100.196:31843


管理UIへのログイン

インストール完了後に表示されるURL https://192.168.100.196:31843にWebブラウザにアクセスします

ユーザー名、パスワードは下記になります。

  • ユーザー名: admin
  • パスワード: password


IBM Cloud Pak for Data Knowledge center

https://www.ibm.com/support/knowledgecenter/SSQNUZ_current/com.ibm.icpdata.doc/zen/overview/overview.html


以上です。 IBM Cloud Pak for Data ですが、環境の事前準備をちゃんと行えば、インストールは全自動なのでお手軽に使い始めることができます。 ただ、今回の環境のスペックを見ていただくとわかる通り、環境の準備が一番大変なのでそこだけはなんとか頑張ってください。

そんなこと言っても環境の用意なんかできるかー!という方向けに弊社環境でテストしていただくと言った調整も個別にできますので、 ご希望のユーザー様は下記まで「ブログ見てIBM Cloud Pak for Data 使って(作って)みたい」とご連絡いただければと思います。

https://www.networld.co.jp/product/ibm-software/

すずきけ

Watsonで遊んでみる/Text to Speech(音声合成)

$
0
0

■ はじめに


こんにちは、Watson技術担当の山下です。


今回は、Watson APIの Text to Speech(音声合成)を攻めてみたいと思います。テキストを簡単に音声に変換できて、SSMLで声のトーンとかをお好みにできそうです。


・Watson APIの Text to Speechの詳細は以下ご参照ください。

IBM Watson Text to Speech


・IBM Cloudのライトアカウントを取得すれば、無料でWatson AIを使うことできます。

IBM Cloud ライト・アカウント | IBM Cloud


・IBM Cloudの無料での始め方は、こちら@ayatokuraさんの記事がわかりやすいです。

「IBM Cloudをはじめました」無料ではじめられるライト・アカウント登録方法



■ 今回のイメージ


本ブログ連載は、「Watsonで VTuberを作ろう!」がテーマになりますので、 VTuberの発話にあたる音声合成部分を、「Text to Speech」で実装していきたいと思います。



Watson APIのText to Speech(音声合成)を使って、VTuberの音声発話が人間ぽっくいい感じになりそうな予感です。

早速、VTuberのおしゃべりをイメージして、遊んでみたいと思います。



■ 遊んでみる!


では、以下デモサイトにアクセスして、VTuber(?)をしゃべらせてみましょう!

Text to Speech | 音声合成のデモサイト


スクリーンショット 2019-07-01 15.11.34.png

Text to Speech | 音声合成のデモサイト

上記デモサイトで、スピーチ内容を入力して(以下セリフサンプル)、

音声変換ボタンを押せば、とりあえずしゃべりだします!

セリフサンプル
むかしむかし、あるところに、お爺さんとお婆さんとVTuberがいました



■ これから


もしかすると、ちょっと発音がいまひとつなとこあるかもしれません。

そんなときは、SSML(音声合成マークアップ言語)の出番です。


以下のようにSSMLで入力してみて、音声合成の結果を比べてみてください


スクリーンショット 2019-07-01 15.11.34.png

Text to Speech | 音声合成のデモサイト

デモサイトで、スピーチ内容をSSML(音声合成マークアップ言語)で入力して(以下セリフサンプル)、音声変換ボタンを押します

セリフサンプル
<speak><say-as interpret-as="interjection">むかしむかし</say-as>、<prosody rate="x-fast">あるところに</prosody>お爺さんとお婆さんと<break time="1s"/><sub alias="ブイチューバァ">VTuber</sub>がいました。</speak>


音声合成は、SSMLを使ったほうが、きっといい感じになってると思います!

ぜひSSML(詳細は以下リンクの書式参照)をいろいろ試していて、お好みのスピーチにしてみましょう

音声変換 SSML


では 次回配信は来週を予定しております。

次回は、「Text to Speech(音声合成)」とは逆の流れ、「Speech to Text(音声認識)」について、VTuberを使って試してみたいと思います。

ぜひまたご覧いただけると嬉しいです!

Stratoscale Cloud Platformが実現するオンプレミスで構成可能なハイブリッドクラウドとは?

$
0
0

 Stratoscale社の概要

 Stratoscale社は2013年に創業された本社はイスラエルにあるソフトウェアベンダーです。

Blog1_2

 Stratoscale社では「エンタープライズITに真のモダナイズを!」というメッセージの元、オンプレミスにAWS API互換のクラウドネイティブ向けのプライベートクラウドを構築するソフトウェア「Stratoscale Cloud Platform」を提供しています。弊社ネットワールドは2019年4月より日本国内で初めてのStratoscale代理店として販売を開始しています。

Stratoscale Cloud Platform はオンプレミスで動作するクラウドネイティブのプラットフォーム

 通常のx86サーバに「Stratoscale Cloud Platform」ソフトウェアを導入することにより、まるでAWSのサービスがオンプレミスで動いているかのように利用することができます。

Blog6

 そのため既存のオンプレミスのワークロードをパブリッククラウドに移行することなく、オンプレミスのデジタルトランスフォーメーションを進めることが可能です。

なぜオンプレミスにクラウドネイティブのプラットフォームが必要なのか?

 パブリッククラウドはIaaSだけでなく、多くの魅力的なマネージドサービスを提供しています。ところがすべてのワークロードをパブリッククラウドに移行することはできません。「インターネットに接続できない環境」「法規制やシステム構成の制約でオンプレミスに移行できない環境」などのオンプレミスに配置し続ける必要がある、それでもパブリッククラウドの恩恵を受けたいというような場面こそStratoscale Cloud Platformの最適な場面といえます。

 「パブリッククラウド上で稼働するアプリケーションを改修を最小限でオンプレミスで稼働させたい!」、「インターネット接続できない環境でもDevOpsの開発基盤を使いたい」こういった声をStratoscale Cloud Platformが問題を解消します。同様のソリューションとして、数年前からMicrosoftがx86サーバベンダーから提供している「Azure Stack」や、昨年発表された「AWS Outposts」があげられます。

Stratoscale Cloud PlatformはAWSとAPI互換のプライベートクラウドを実現

 Stratoscale Cloud Platformはオンプレミスにクラウドネイティブなワークロード向けのプライベートクラウドを構築するだけではありません。プラットフォームを管理するためのAPIに、AWSとの互換性を持たせることでよく使われているTerraformやAnsibleといったAWSの構成管理ツールをそのまま利用することができるといった特徴もあります。

Blog5

もちろんAWSとAPI互換性があるといっても、AWSが提供するすべてのサービスが対象ではありません。AWSが提供するサービスのうちオンプレミスでの需要が多いサービスからサポートを順次提供しています。Stratoscale Cloud Platformが提供しているサービスは以下のドキュメントで確認することができます。

Mapping Stratoscale Products to AWS Services

Blog3

Blog4

互換APIが提供されるサービスであってもすべての機能(API)が互換性があるわけではありません。どのAPIがサポートされるかは以下のドキュメントで確認することができます。

Stratoscale-supported AWS APIs

 

 Terraformを使ったStratoscaleへのアプリケーション展開のデモ動画

Kubernetesクラスタ展開のデモ動画

これ以外にも様々なデモ動画がメーカサイトで公開されているため興味のある方は是非ご覧ください。

Youtube Stratoscaleチャネル

ネットワールドからのお知らせ

Stratoscale Cloud Platformの概要を紹介させていただきました。「AWSと比較してオンプレミスでこんなことができるのであれば検討したいな!」「とりあえずどんなことができるのか触ってみたい!」という方は是非こちらからお問合せください。

Arcserve UDP 7.0 で Nutanix AHV 環境での仮想スタンバイをやってみた

$
0
0

こんにちは、ネットワールドの海野です。

2019年5月7日にArcserve UDP 7.0がリリースされ、Nutanix AHVにエージェントレスでバックアップできるとのことでしたので、早速試してみたのが前回の記事です。

https://blogs.networld.co.jp/main/2019/05/arcserve-udp-70-f467.html

今回は「Arcserveを導入したAHV環境ならではの機能」ということで仮想スタンバイの検証を実施してみました。

この投稿ではAHV環境での仮想スタンバイの動作確認を目的として、

  • Arcserve UDPが提供する仮想スタンバイとは
  • AHV環境での仮想スタンバイのシステム要件
  • 仮想スタンバイの設定手順
  • 実際に仮想スタンバイを運用するには…

といった内容で進めていきます。


  • Arcserve UDPが提供する仮想スタンバイとは

 仮想スタンバイを一言で表現しますと「仮想マシンを迅速に復旧するための機能」であると言えます。類似する機能として「インスタントVM」というものもありますが、AHV環境ではWindowsはサポートされておらず、Linuxをご利用いただく必要があります。

参考URL

https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#Base8
https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#nwin3

 この2つの機能の違いについては弊社のブログに投稿がありますので、ぜひご覧いただければと思います。

Arcserve UDP|仮想マシンを急いで復活させるには?

  • AHV環境における仮想スタンバイのシステム要件

 詳細はArcserve UDPのマニュアルをご確認いただきたいのですが、要注意ポイントとして以下の3点が挙げられます。

① Nutanix AHV 環境への仮想スタンバイをする場合、仮想スタンバイ先の AHV 上の仮想マシンとして、NGT (Nutanix Guest Tools) および Arcserve UDP Agent がインストールされた Windows Server 2016以降のモニターサーバーが動作している必要があります。
② Nutanix AHV 環境への仮想スタンバイは、対象の仮想マシンが UEFI ブート環境であるかダイナミックディスク形式を利用している場合、サポートされません。
③ 仮想スタンバイ先のハイパーバイザーが Nutanix AHV の場合は、Virtual Standby Monitor は Windows Server 2016 以降のバージョンにする必要があります。

参考URL

https://support.arcserve.com/s/article/2019042201?language=ja#a01
https://support.arcserve.com/s/article/Arcserve-UDP-7-0-Software-Compatibility-Matrix?language=ja#browserB

  • 仮想スタンバイの設定手順

     注 : 今回は検証の単純化のために同一クラスター内でのテストとしています。予めご了承ください。
    そのため、今回の検証では実際に稼働させる場合に制限があります。

    • モニターサーバーの準備
       仮想スタンバイは「障害が発生してしまった仮想マシンを迅速に復旧させるための機能」ですので、対象となる仮想マシンの死活監視をします。そのためのハートビートを監視するための仮想マシンをモニターサーバーと言いますが、仮想スタンバイ先のAHV上に配置されている必要があります。
       なお、このモニターサーバーにはNutanix Guest ToolsおよびArcserve UDP Agentをインストールしておきます。
       また、モニターサーバーからRPS (Recovery Point Server = 復旧ポイントサーバー) へのFQDN名前解決もできるようにしておく必要があります。(今回の検証では仮想スタンバイ対象がドメイン非参加かつDNSも外部のものを参照しているため、hostsで解決させています。ここの名前解決をさせずにIPアドレスで試してハマりました…!)

      41001_2

    • 仮想スタンバイ対象の準備
       仮想スタンバイの対象とするAHV上の仮想マシンにはAHV標準の仮想ドライバーとなるVirtIOのほか、Nutanix環境での管理モジュールとなる”Nutanix Guest Tools”のインストールが必要です。
       Arcserve側のモジュールやエージェントなどは特に必要ありません。

      42001

    • バックアップサーバーの設定
       UDPの管理コンソールにログインし、[リソース]タブから[プラン]を選択し、
      [プランの追加]を実行します。

      43001

       ここではプランの名前を[Nutanix AHV VSB]としました。
       また、タスクの種類は[バックアップ: ホストベース エージェントレス]を選択し、バックアップ プロキシは既存のものを設定しています。

      44001

       そして、AHVクラスターに存在する仮想マシンをバックアップ対象として登録するために、[Nutanix AHV からのノードの追加]をクリックします。

      44002


       AHVクラスターの情報を入力する画面が表示されますので、各項目を埋めて、[接続]をクリックします。

      44003

      ※このとき、保存先の設定(デスティネーション)やスケジュールなども必要に応じた設定を実施してください。

       さらに、左側のメニューから[タスクの追加]をクリックし、タスクの種類から[仮想スタンバイ]を選択します。

      44005

       仮想スタンバイ ソースは、既に設定済みとなっているホストベースエージェントレスのデスティネーションを選択します。

      44006

       仮想化サーバの項目において、モニタはAHV環境に準備済みのモニターサーバーを指定します。

      44007

       また、Nutanix ドライバファイルフォルダでVirtIOのドライバーを指定しますが、このときVirtIOのISOの中身をすべてコピーし、そのコピーしたルートフォルダーを指定することが必須です。
       (私はWindows Server 2016を使っていたので、対象となる2016だけコピー&指定してハマりました…!)

      44008

       仮想マシンの項目では、スタンバイ先VM名のプレフィックスやスペックを指定します。ここでは2vCPU、4GBのメモリを設定しました。また、仮想マシンの配置先となるストレージコンテナやネットワークも任意のものが設定可能です。
       (AHVから設定情報がロードされます。)

      44009

       設定が完了したら[保存]をクリックして、展開の完了を待ちます。

       データが転送されるまで待ちます。

      44014

       Nutanix Prism側に新しい仮想マシン[UDPVM_unnow-bktest02(10.12.50.62)]が作成されていることが確認できます。

      44015
      以上で仮想スタンバイの準備が完了しました。

  • 実際に仮想スタンバイを運用するには…

     この記事でご紹介している仮想スタンバイを運用するには、Arcserve UDPのコンポーネント配置が重要なポイントになってきます。
     現時点で、Nutanix AHV環境での仮想スタンバイには冒頭に紹介した以外の制限事項があります。それはソースVMのハートビートの監視ができないというものです。
     実際のハートビート監視はバックアッププロキシを対象に行われており、DR環境用のクラスターを考慮して図示すると以下のようなイメージです。

    01

     モニタサーバによるハートビートはバックアッププロキシを対象としていますので、本番環境のAHVクラスターが何らかの理由で利用できなくなってしまった場合、バックアッププロキシのハートビートが止まり、スタンバイVMを起動する状況に遷移します。

    02

     なお、Arcserveのバックアップ プロキシについては以下のURLが参考になるかと思います。
    https://www.arcserve.com/wp-content/jp/uploads/2017/12/udp-v65-faq.pdf
    ※ 資料は 6.5 のものですが、 7.0 でも参考情報としてご利用いただけます。


まとめ

 というように、今回はArcserve UDP 7.0ならではの機能としてWindows OSでの「仮想スタンバイ」の設定方法をご紹介しました。
Nutanix単体では難しい仮想マシンのダウンタイムがほぼゼロの運用を実現できるArcserve UDP 7.0との組み合わせをぜひお試しください。

記事担当者 : SI技術本部 海野 航 (うんの わたる)

VxRail - 4.7.xxx時代 -

$
0
0

Hello World!! 皆様こんにちは。
梅雨明け、、、はまだですが、いよいよ本格的な夏という感じになってきましたね。
夏い暑は、HCIでシステム構築をパパっと乗り切って、夏休みをエンジョイしましょう!


というわけで、久しぶりにネットワールド 究極ストレージ担当より今回から何回かにわたってDell EMCのHCI製品であるVxRailについて最新バージョンである4.7.x での記事を書いていきたいと思います。
内容としては、5月にラスベガスで行われたDell Technologies Worldの弊社フィードバックセミナーである、Dell EMC Edgeの技術セッションでもお伝えしたものとなりますが、改めてより詳細なものをこちらで広くご紹介できればなと思います。また、ざっくりな内容は★こちらにも記載があります。VxRailに興味がある方は、弊社で運営するVxRailのパートナーコミュニティ「チャンピオンクラブ」なんかについても是非チェックしてみてくださいまし。

さて、では本題に入っていきます。VxRail 4.7.100以降のバージョンですが、注目したい新機能は以下3つ...です!

VxRail ManagerのvCenter統合
  ☆ 以下で解説 ☆

2-node Cluster

これまでVxRailは、障害時のHA用リソースを持たない場合で3ノード、推奨は4ノード以上構成する必要がありましたが、それが2ノードからクラスタが構成できるようになりました。 ただし、当然というところかと思いますが、vCenterを外部に持つ必要があったり、vSANを機能させるために外部にWitness VMを用意する必要があると言った、2ノード構成ならではのお作法もあります。。
 ※ 対応モデルはE560/E560F のみです。


Smart Fabric

読んで字のごとく、スマートなファブリックです。はい、つまり、ネットワークスイッチを自動構成してくれます。 仮想環境を構築する場合、ハイパーバイザの物理ポートを介して管理系、vSAN, vMotion, 仮想マシンネットワークといった様々なトラフィックが流れるため、VxRailを接続するスイッチもそれに合わせた適切な設定をする必要があります。また、ノードを増設する場合なんかにも、増設するノードをつないだポートを既存の構成に合わせてコンフィグしてくれる、そんなスイッチを自動構成してくれるフレームワーク、便利機能であるSmart Fabricに対応しました!

以降では①についてもう少し詳しく見ていきます。(②と③については以降の投稿にて..!)


▼①.
HCI製品であるVxRailでは、HCIアプライアンスとしての管理ツール「VxRail Manager」なるものが用意されています。管理だけでなく、初期セットアップ時もこのVxRail Managerがセットアップを楽にしてくれるわけですが、これがvCenterのGUIに統合されちゃいました、というのが①のお話です。
これでvCenterからVxRailアプライアンスのソフトからハードまでを一元管理できるようになりましたね!

なお、初期セットアップ時はvCenterがいないので、これまで通りVxRail Managerから構築を行います。

(画像はクリックで拡大)

Ws000218_5

まずこれまでのVxRail Managerはこんな感じでした。

アプライアンスのハードウェア部分をまとめて見ることができ、またvCenterからノードのエラー情報なんかも拾ってきてくれていました。が、詳細は結局vCenterを見なければわからなかったり、インタフェースもスパッと直観的に操作できるまでには洗練されていないように感じます。例えば普段vCenterしか触らない運用管理者が久しぶりにこの画面を開くと、マニュアルを引っ張ってこないといけないくらいには戸惑うと思います。 ※個人的主観ですよ

Ws000219

そして、vCenterに統合されて、こんな形になりました。
上の画像では[ホストおよびクラスタ]のペインでクラスタを右クリックしています。表示されるメニューの一番下に「VxRail」というのがありますね!そしてサブメニューには「VxRailホストの追加」と「シャットダウン」が用意されています。

Ws000220

「シャットダウン」をクリックするとこんな感じです。ESXiホストと同じオペレーションでシャットダウンできるのは非常に直感的だと思います。そしてシャットダウンシーケンスの中では、これまで通りシャットダウン前の状態確認をちゃんと実施してくれます。

Ws000221

つづいて、「VxRailホストの追加」画面をクリックするとこんな感じです。ネットワーク上に追加用のノードが用意されている場合には、このように検出されてきます。

Ws000223

この他にも、クラスタを選択した状態の右ペインの[監視]、[設定]タブに「VxRail」というメニューが追加されており、ここから、例えばログバンドルのダウンロードなどの、これまでのVxRail Managerで行っていた他の操作が可能になっています。


Ws000224

ちょっとおまけ的なところですが、こちらはアップデート画面です。。です!
なにやらvCenterらしからぬ画面ですよね...。そうです。vCenterクラスタを選択 -> [設定] -> [VxRail] -> [システム] -> [更新] と、vCenterからたどれるものの、なんと別Windowで開かれます。
他にも一部こういう部分がありますが、基本的にはvCenterにログインすれば、これまでVxRail Managerでできた操作がすべてできるようになっています。画面自体も統合するのは、さほど難しいことではないと思うので、そこは今後に期待ですね!!

それでは、今回はこの辺で。Ciao Ciao!

Watsonで遊んでみる/Speech to Text(音声認識)

$
0
0

こんにちは、Watson技術担当の山下です。

前回は Watson APIで、テキストを音声に変換して遊んでみました。

今回はその逆パターン(音声→テキスト)で音声認識についての話になります。

Watsonの Speech to Text(音声認識)を使えば、ディープラーニングで 音声をテキスト変換できるので、以下のデモサイトで 早速試してみたいと思います。

Speech to Text Demo



■ サンプル出力をみてみる


まずは、デモサンプルで音声認識のイメージをつかんでみましょう。

PCのスピーカー音量を少し大きくしてから、View Modelで、[Japanese broadband model]を選択して、[Play Sample1]ボタンを押してみます。



すると、デモ音声が流れてきて、その音声がしっかりとテキスト化されてますね!

また、デモサンプルは2人の対話イメージになっていて、話者識別(Speaker0 or Speaker01)も、きちんとできているのが分かります。

#ちなみに、[Play Sample2]は観光地トークです。こちらもいい感じに音声認識されてますね



さらに、音声認識で キーワード検出も可能です。

[Keywords]タブをクリックすると、さきほどのデモ音声で、「音声認識」「ディープラーニング」「技術」の3つのキーワードが音声認識されたことを示してます。

#このキーワードは自由に指定可能で、上図の[Keywords to spot]のとこに、キーワードを書いとけば、音声認識されたかどうかを確認することができます。



■ 実際に音声認識をやってみる


では、今度は実際にやってみましょう!

声を出す準備はできていますか!? (※オフィスで急に発声すると、周囲がびっくりするかもしれません・・)

今回、一人で発話するので、[Detect multiple speakers]は必要ないので、チェックを外しておきましょう。

View Modelで[Japanese broadband model]の選択と、[Text]ダブの選択を確認してから、[Record Audio]ボタンを押したら、発話してください!

#ここまでなにをしゃべるか考えてなかった方は、「ワトソンは音声認識できますか?」と発話くださいませ



発話完了したら、またすぐ[Record Audio]ボタンを押してください(ずっと音声認識中だと、周囲の雑音が音声認識され続けてしまうので)

今回 以下のように、いい感じに音声認識できました。



[Word Timings and Alternatives]タブをクリックすると、Watsonの音声認識結果をベースに、各単語の確信度や単語候補の確認を行うことができます。

上手く音声認識できなかった場合、カスタマイズに使えそうな情報になるかもしれません。





■ 次回〜Watson音声認識のカスタマイズ


今度は、「VTuberは流行っていますか?」と発話してみたところ、以下のような結果となりました。

※VTuber(ブイチューバー)については、本記事をご参照ください



VTuber(ブイチューバー)としゃべったのですが、、なぜか・・「ういちユーザー」と認識されてしまいました、、あれれ、うーん、どうしてでしょう・・


[Word Timings and Alternatives]タブをクリックしてみてみると、、以下のようになってました。

#「ブイチューバー」は、「ういち」と「ユーザー」に音声認識されてますね



Watson音声認識の事前学習/共通モデルでは、一般的な用語がカバー範囲になりますので、「VTuber」は まだ辞書登録されてなさそうです。。

しかし、Watson音声認識では、この事前学習モデルを、ユーザーが自由にカスタマイズできることによって、固有名詞や業界/専門用語・独自のいい回しなどに対応することが可能になります。

Watson音声認識をカスタマイズすれば、「VTuber」と ちゃんと音声認識してもらえそうですね

次回は、この辺りのカスタマイズを行っていきたいと思います!


Exchange Server 用 Office 365 ベストプラクティスアナライザーのご紹介

$
0
0

皆さん、こんにちは

連日、体が溶けるんじゃないかと思う位の連日の猛暑に見舞われてますが

体調管理には気を付けてこの夏を乗り越えていきたいものですね!

さて、今回はOffice365ベストプラティプラクティスアナライザー(BPA)をご紹介したいと思います。

Exchange Server 用 Office 365 ベスト プラクティス アナライザーの概要
https://docs.microsoft.com/ja-jp/exchange/about-the-office-365-best-practices-analyzer-for-exchange-server

ベストプラクティスアナライザーとは

BPAとはシステム状態をチェックしてMicrosoft社の推奨設定を教えてくれる便利なツールです。

 

Windows Server 2008以降からWindows の役割ごとにBPAが提供されてきました。

Exchange Serverでは歴史も古く、2004年頃からExchange Server 用のBPA(以下、ExBPA)が提供されていたようです。

Exchange 2003や2007の移行に際し、既存環境のアセスメントなどに利用できるツールとして非常に便利なものでした。

そんなExchange BPAがOffice365移行用に進化したものが今回ご紹介するOffice365 BPAとなります。

このBPAはExchange2013以降の環境で利用可能なツールとなります。

Office 365 BPAの使い方

Office365 BPAを始めるには、事前準備としてOffice365の管理者アカウントが必要となります。

Office365環境が無い場合には評価版などを利用して準備頂ければと思います。

BPAの操作は至って簡単で移行元となるExchange2013 管理センターにアクセスしインストール・実行するというシンプルなものです。

それでは実際に試してみましょう

まず、Exchange 2013の 管理センターにアクセスし、「ツール」メニューに移動します。

「社内 Exchange Server および Office 365 ベストプラクティスアナライザーを確認します」
クリックします。

Image1

[実行]をクリックします。

Image2

EULA画面で[Accept]をクリックします。

Image4_2

[インストール]をクリックします。

Image5

続いて[実行]をクリックします。

Image6

プレリリースに対する使用許諾画面で[accept]をクリックします。

Image7

[next]をクリックします。

Image8

[start scan]をクリックします。

Image9Office365管理者の資格情報を入力し[OK]をクリックします。

Image10

スキャンが開始されるので完了までしばらく待ちます。

環境にもよるかと思いますがそれほど時間はかからない印象でした。

Image11スキャンが完了すると、失敗、警告、情報、成功といった4つのステータスに分類された形で結果が表示されます。

Image12

展開するとチェック項目の詳細を確認出来ます。

Image13エラーの細かい内容までは触れませんが、サーバーやDB構成、クライアントアクセスといった観点で推奨事項を提供してくれます。

これらの結果を解消する事でOffice365のメール移行がより安全に実行できる一助になると思います。

まとめ

Office 365ベストプラクティスアナライザー、如何でしたでしょうか。

 

今回はOffice365メール移行に役立つツールをご紹介しましたが、メール移行に限らずシステムを移行する際には、現在の自身の体調管理をしっかりと見直した上で次のステップへ進む事が重要だと思います。

 

弊社もCSPとしてOffice365Microsoft Azure移行支援サービスを提供しておりますので、是非お声がけ頂ければと思います。

 

今回も最後まで読んで下さり有難うございました!

 

記事担当者:津久井

セミナーのご案内|Arcserveのクラウドソリューションを見逃すな!

$
0
0

1

 

こんにちは、はバックアップ担当SEの宮内と申します。

突然ですが2019年8月28日のArcserveのリリースを確認した方はいますか?

なんと、Arcserve独自のクラウドソリューションArcserve UDP Cloud HybridArcserve UDP Cloud Directがついに日本上陸です!

かつてこちらのブログでも「バックアップでクラウドサービスを使うってどういうこと?」という記事を書きましたが、いよいよバックアップ界にもクラウドネイティブ・クラウドハイブリッドな製品が増えてきましたね。

さて、ネットワールドではArcserve UDP Cloud Hybrid/Cloud Directをどこよりも早くキャッチアップしたセミナーを開催します!

現在Arcserveさんと共同で鋭意検証中です。使用感も交えて皆様にArcserveのクラウドサービスのことをお伝えできるよう頑張って準備していますので、どうぞお楽しみに!

今回のブログは前哨戦として(セミナーの宣伝がてら)Cloud Hybrid/Cloud Directをご紹介したいと思います。

すでにArcserveやクラウドに注目されている先鋭的な皆様はもちろん、このブログを見てちょっと気になった皆様もぜひ、セミナーにお申し込みください!!


早速2つの製品の概要と特徴を見ていきましょう。

Arcserve UDP Cloud Hybridとは

既存のUDP環境にクラウドの保存先をプラス!
手軽にDRできる、オンプレミス環境とクラウド環境のハイブリッドバックアップソリューション

提供される主な機能

  • クラウド上データストアへの重複排除レプリケーション
  • クラウド上での仮想マシン起動&緊急運用
  • クラウド上データストアへのOffice365データのバックアップ

Cloud Hybrid(以下CH)は、すでにArcserve UDPやArcserve UDP Applianceをお使いの皆様におすすめのソリューションです。特に、「今は何もしていないが災害対策をしたい」「災対サイトを用意する、運用するのが大変」というお悩みがある方は要チェック!

CHを購入したら、Arcserve Business Cloud Communityに登録します。あとは現在お使いのバックアッププラン(バックアップの保存先や実行時間帯を定義するもの)にCH上データストアへのレプリケーションタスクを追加するだけで、クラウドへのDRが実現できてしまうんです。データセンターやサーバーなどの物理的・地理的な準備は必要なし!CH側の設定も多少ありますが、選択式で簡単です。

日々のバックアップに利用するコンソール画面ももちろん今までのUDPと同じです。使いやすさはお墨付き!

4

リージョンは東日本西日本の2箇所から選択できます。災害対策という意味では、DR先がどの程度地理的に離れているかはしっかり考えたいところ。立地に合わせて選べるのが嬉しいですね。

Arcserve UDP Cloud Directとは

バックアップサーバーはいらない、でもしっかりバックアップはしたい!
直接クラウドにバックアップができる、オンプレミスリソースに優しいバックアップソリューション

提供される主な機能

  • クラウド上ストレージへの永久増分バックアップ
  • クラウド上での仮想マシン起動&緊急運用

Cloud Direct(以下CD)は、オンプレミス環境をコンパクトに収めたバックアップに適したソリューションです。

例えば「小さな拠点がたくさんある」ような会社の場合、すべての拠点にバックアップサーバーを設置すると構成がゴツくなって大変ですよね。でも、それぞれに管理させると収集がつかなくるから一箇所で管理したい...そんなお悩み、CDでの一元管理で解決します!

CHと違い、こちらは従来のUDPとコンソールが変わりますが、一通り操作した感想としては余計なボタンがなく簡単で使いやすいです。ご安心ください!

3

一応SEなので技術的な話をすると、バックアップデータが「世代数」ではなく「保存期間」で管理されるなど、内部的な仕組みもちょっと従来と違う部分がありそうです。このあたりはセミナーまでに調査を進めていきます!

こちらのリージョンはカリフォルニア州のサンタクララのみとなっています。実は海外では他のリージョンも選べるそうなので、今後選択肢が増えることもあるかもしれませんね。


もっと色々知りたい!という方は、ぜひセミナーにお申し込みください!

クリックして申し込む!

ブログでもまた報告できればと思います。

ありがとうございました!

書いた人:宮内

Networld X 2019イベントアプリをリリースしました!

$
0
0

こんにちは

来週9/10(火)開催の「Networld X 2019イベント」にあわせて、iBeacon を活用して、お近くのオススメ展示ブース情報を表示するiPhoneアプリをリリースいたしました。

「Networld X 2019イベント」をより楽しむための情報配信アプリになりますので、ぜひダウンロードしてご利用くださいませ!


■ このアプリでできること


各展示ブースに設置されたiBeaconから出る信号を、スマホアプリがキャッチすることにより、いま近くにある展示ブース情報を、オススメとしてスマホアプリ画面にリアルタイム表示することができます。

#このオススメ情報をキャッチしたら、ぜひ展示ブースを回ってみましょう!

IMG_0734.PNGIMG_0741.PNG


また、本アプリで、会場マップ/タイムテーブル等のチェックも行えます。

#Networld X 2019イベントをもっと楽しむためのお役立ち情報も配信してますので、ぜひご活用くださいませ!

mapp.PNGtime.PNGevent.PNG


もちろん、本アプリは 無料でダウンロードしてご利用になれます

* アプリのダウンロードは無料ですが、通信料はお客様のご負担となります。

* 本アプリを利用するには、位置情報とBluetoothを有効にする必要があります。


■ このアプリの入手方法


アプリはAppStoreで配布しております。

* iPhone専用アプリになります。

* Androidのかた申し訳ありません。今回Android版はリリースしておりません。


まずは、こちらのQRコードへアクセスください

または、以下のリンクをクリックください

https://apps.apple.com/jp/app/networld/id1471924623


そうすると、AppStoreのダウンロードページが表示されます。

ここからダウンロードをお願いします



■ 簡単アンケート送信


本アプリを起動すると、簡単なアンケート画面が表示されます。

ここで、職種と興味分野を選択して送信ください。

IMG_0695.PNG



■ 位置情報の設定


本アプリを利用するには、位置情報とBluetoothを有効にする必要があります。


以下画面が表示されますので、本アプリでの位置情報の利用を「常に許可」を選択ください。

IMG_0696.PNG


以下画面が表示された際には、「設定」をクリックして、

スクリーンショット 2019-09-02 11.44.46.png


Bluetoothを有効にしてください。

スクリーンショット 2019-09-02 11.44.46.png


位置情報とBluetoothの両方が有効になったこと(以下の画面表示)を確認したら、アプリスタートです!

IMG_0697.PNG



■ iBeaconによるブース情報の検知


Networld X 2019イベント会場内で、アプリを起動すると、展示ブース情報の探索が行われます。

IMG_0732.PNG


しばらくすると、今現在の近くにある展示ブースが表示されます

#このオススメ情報をキャッチしたら、ぜひ展示ブースを回ってみましょう!

IMG_0734.PNG



■ その他イベントに役立つ情報の配信


アプリ画面の下にあるボタンをクリックすると、Networld X 2019イベントをもっと楽しむためのお役立ち情報を配信してますので、ぜひご活用くださいませ!


本アプリについてもっと知りたいこと/不明点等ありましたら、当日弊社スタッフにお問い合わせいただければ、しっかりとフォローさせていただきますので、安心してご利用いただければと思います。


それでは来週、Networld X 2019イベントでお会いできることを楽しみにしております!

Azure Lab Service クラスルームでお手軽ハンズオン!

$
0
0

皆さん、こんにちは

 

今回は Azure が提供する「Azure lab Service クラスルーム」というサービスをご紹介したいと思います。

 

https://azure.microsoft.com/ja-jp/services/lab-services/

 

Azure Lab Serviceクラスルームとは

2019年3月に一般提供が開始されたクラスルームですが、Azure 上にハンズオン環境を作り上げる事が出来るサービスとなります。

 

クラスルームを利用することでAzureに繋がるネット環境とリモートデスクトップが使える端末さえあればいつでもどこでもハンズオン環境を利用できます。

 

ハンズオンに限らず、新製品のデモなど販促ツールとしても活用頂けるのではないかと思います。

 

そんなクラスルームですが、基本的な開始手順に関しては以下にまとまっておりますのでこちらを参考にして頂けたらと思います。

 

Azure Lab Services でラボ アカウントを管理する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-manage-lab-accounts

 

●仮想マシンは1台だけでなく複数台で展開可能


クラスルームは基本的には受講者一人につき1台の仮想マシンを割り当てますが、複数のサーバーで構成
されたシステムを演習で行うというパターンも多いと思います。

 

たとえば、アンチウィルスや資産管理といった管理サーバーがいてクライアントにエージェントを配布するといった演習などです。

 

そうした要望を見越したようにクラスルームでは複数VMを利用するための手順も公開されております。

 

クラスルーム ラボのテンプレート VM 内に複数の VM を備えた環境を作成する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-enable-multi-vm-environment

 

Azure上の仮想マシンでありながらHyper-Vを利用する事で複数台の仮想マシンを提供するという内容となっています。

 

上記を参考にして今回作成したのが以下の環境となります。

 

Azurelaboimage01_2

Nested Hyper-VというWindows Server 2016から搭載された機能である「入れ子のHyper-V」を利用してクラスターを構成しているイメージです。

 

もう少しかみ砕いていうと、親亀に二匹の子亀が乗っているイメージですね。

 

今回の環境の大まかな構築の流れとしては、

 

     Azure ポータルからAzure Lab Serviceサービスの展開

     Azure Lab Serviceポータルに接続し、Laboアカウントの作成

     作成したLaboアカウント上で仮想マシンテンプレートの作成

     作成した仮想マシンにRDP接続し、以下のコンポーネントをインスール・設定

(ア) ADドメインサービス

(イ) Hyper-Vをインストール

(ウ) Windows Admin Center(1)のインストール

     親のHyper-V上で仮想スイッチに対するNATを構成する

     インストールメディアを利用して2台の仮想マシンをインストール・設定

     フェールオーバークラスターのインストール・設定

     Storage Space Direct(2)有効化

     Hyper-V クラスターの作成

 

1 Windows Admin CenterWindows Server 2019 で採用された新しい管理ツールです。

2 Storage Space Direct  :Windows Server 2016以降で提供されるストレージ仮想化技術です。


今回は細かい構築のステップは割愛しますが、お伝えしたいのは、このような
システムもクラスルームを利用して構成出来るという点です。

 

複数台となるとテンプレートの完成までは若干の手間は掛かりますが、一度テンプレートを組み上げてしまえば多数の受講者に対する一斉展開もほんの僅かなステップで済みますので頑張りのしどころかと思います。

上記環境を構築する上で参考になるURLのリンクを張り付けておきますのでこちらも併せてご確認頂けたらと思います。

 

クラスルーム ラボのテンプレート VM 内に複数の VM を備えた環境を作成する

https://docs.microsoft.com/ja-jp/azure/lab-services/classroom-labs/how-to-enable-multi-vm-environment

 

NAT ネットワークの設定

https://docs.microsoft.com/ja-jp/virtualization/hyper-v-on-windows/user-guide/setup-nat-network

 

記憶域スペース ダイレクトの展開

https://docs.microsoft.com/ja-jp/windows-server/storage/storage-spaces/deploy-storage-spaces-direct

 

●クラスルームの簡易デモ

それではここで今回作成したクラスルームに関して、簡単なデモをお見せしたいと思います。

クラスルームの環境を作り終えた後の利用者視点でのデモとなります。

デモの内容を簡単に解説しますと、管理者からクラスルームへの招待メールを利用者に通知します。

利用者はメールに記載されたリンクにアクセスする事で仮想マシンにアクセスします。

 

仮想マシンにリモートデスクトップ接続し、Hyper-Vマネージャーを起動して2台の仮想マシンが起動中となっている事を確認します。

 

続いてWindows Admin Center を利用して、フェールオーバークラスターとハイパーコンバージドインフラストラクチャーのステータスを確認しています。

デモ動画は下記のリンクをクリックしてください。

クラスルームデモ動画

 

●まとめ


クラスルーム如何でしたでしょうか。ご覧頂いたように入れ子のHyper-Vを利用する事でクラスターシステムを作り上げる
事が出来ますし、利用者から見ればAzureをご存知でない方もあまり意識する事なくご利用頂けると思います。

 

今回はクラスルームを用いたハンズオン環境をイメージしてご紹介しましたが、ハンズオンに限った事ではなく、例えば自社の新製品のデモをお客様に披露するといった場合にも手軽にお使い頂けると思います。

 

クラスルームのメリットは、ネットにつながるPCがあれば気軽にアクセスできますしデモのためにわざわざ自社の検証環境にVPNで繋ぐという手間もなくなります。

 

皆さんも是非、ハンズオンだけでなく販促ツールとしてもクラスルームを活用頂けたらと思います。

  

今回も最後まで読んで下さりありがとうございました。

 

記事担当者:津久井

Arcserve UDP Cloud 技術支援セミナーは今週末です!

$
0
0

クリックして申し込む!

バックアップ担当SEの宮内と申します。

先日のブログ記事をご覧くださった皆様、ありがとうございました!

早いもので、Arcserve UDP Cloud HybridArcserve UDP Cloud Directをご紹介するセミナーの開催日も今週末に迫ってきました。まだ参加の準備ができていない方はぜひ、こちらからお申し込みくださいませ!

僭越ながら私も当日少し登壇させていただきます。セッションで使用する資料も一生懸命準備中!

…なのですが…ちょっとページ数を多く作りすぎてしまいました…すみません、慣れないもので…

発表資料のダイエットをしつつ、この場を借りて没になったネタを宣伝がてら供養させていただきたいと思います!せっかくですからね。

それでは、明日人に教えたくなる(かもしれない)知識を2つほどご紹介します!

一身上の都合により、いずれもArcserve UDP Cloud Directのネタとなります。


没ネタ① Arcserve UDP Cloud Direct のDRaaS用仮想基盤はHyper-V

Arcserve UDP Cloud Directは、BaaSとDRaaSという2つのサービスに大別されます。

このうち、DRaaSはArcserveのクラウドの上に仮想マシンを復旧させて、災害時などにも迅速に業務を再開できるようにするためのサービスです。

特に公開情報があるわけではないのですが、この災害復旧用VMはHyper-V基盤上で動いています。

ちなみに、判断ポイントはいくつかあると思うのですが、個人的にはデバイスマネージャーを見ると分かりやすいかなと思います。

1

ちなみに、Hyper-Vの場合はゲストOSからホスト名や仮想マシンの名前なんかも見ることができます。興味がある方は調べてみてくださいね。

2

なんとなく隠してみました。


没ネタ② 仮想アプライアンスの初期セットアップは途中で引き返せる!

Arcserve UDP Cloud Directでは、物理サーバーも仮想マシンもバックアップできます

仮想マシンのうち、vSphere基盤はESXiホスト上に仮想アプライアンスを建てることでエージェントレスバックアップを実現できます。

基本的にはGUIのセットアップウィザードに従って次へ次へと進めていくだけで3ステップくらいでセットアップできるのですが、実はこのセットアップウィザードは途中で引き返すことが可能です。

最初に設定したときと引き返したしたときで画面が違うので、ちょっと面白いですよ!

(と個人的には思ったのですが、説明が複雑な割にそんなに共感してもらえなさそうなので没にしました…)

4

ただし、アカウント(メールアドレス)との紐付けやシステム名などは変更できないので気をつけてくださいね。


それでは当日お会いできることを楽しみにしています。

小ネタにお付き合いいただきありがとうございました!

1

書いた人:宮内

【速報 Keynoteレポート】 .NEXT 2019 in Copenhagen

$
0
0

こんにちは。
ネットワールドでNutanixを担当している松本です。

10月8日からコペンハーゲンで開催されている Nutanix年次イベント「.NEXT 2019 in Copenhagen」に参加しています。

8日はパートナー向けセッションのみとなり、本日9日からメインイベントとなっています。
このエントリーでは、先ほど Keynoteで発表された内容を速報ベースでお伝えします。

20191009_064915899_ios

◆HPE ProLiant DX SolutuionsとGreen Lakeのリリース

改めてProLiant DX Solutionsの販売開始とGreen Lakeの提供開始の発表がありました。

*Nutanix社のプレスリリース「Hewlett Packard Enterprise and Nutanix Announce General Availability of GreenLake and ProLiant DX Solutions」
https://www.nutanix.com/press-releases/2019/hpe-and-nutanix-announce-general-availability-of-greenlake-and-proliant-dx-solutions

*Nutanix社のブログ「HPE GreenLake with Nutanix is ready!」
https://www.nutanix.com/blog/hpe-greenlake-with-nutanix-is-ready

*Nutanix社のブログ「Nutanix and HPE Team Up Together to Deliver Cloud Simplicity On-Premises」
https://www.nutanix.com/blog/nutanix-and-hpe-team-up-together-to-deliver-cloud-simplicity-on-premises

*現在提供されているDX Soltuionsの製品ラインアップ
https://www.nutanix.com/viewer?type=pdf&path=/content/dam/nutanix/resources/datasheets/ds-nutanix-hpe-dx.pdf

◆ServiceNow IT Operations Managementとの連携の発表

国内でも話をよく聞くServiceNow社の統合管理ソフトウェアとの3つの機能の連携が発表されました。

  1. ServiceNowのCMDBでNutanixのインベントリを管理可能に!
  2. ServiceNowのイベント管理でNutanix Xplay経由でNutanixのアラートを一元管理が可能に
  3. ServiceNowのセルフサービスポータルでNutanix Calmのカタログの統合が可能に!

*Nutanix社のプレスリリース「Nutanix Announces New IT Automation for Private Clouds」
https://www.nutanix.com/press-releases/2019/nutanix-announces-new-it-automation-for-private-clouds

*Nutanix社のブログ「Nutanix Integration with ServiceNow」
https://www.nutanix.com/blog/nutanix-integration-with-servicenow

◆Calm 2.7のリリース

上で紹介したServiceNowとの連携もあり、それに合わせて既に8月にリリースされているCalm 2.7のアップデート内容についても紹介されています。

*Nutanix社のブログ「Calm 2.7: ServiceNow integration, Easy Single VM Operations, Variable Validation and More!」
https://www.nutanix.com/blog/calm-2-7-servicenow-integration-single-vm-operations-variable-validation-more

◆Xi Beamのセキュリティ監査機能のプライベートクラウド対応

意外と知られていませんが、2018年3月にMinjar社を買収し、その後マルチクラウド管理SaaSとして提供されているXi Beamがあります。そのXi Beamが、SaaSとPrism Centralの間にBeam VMを展開することによって、プライベートクラウドのセキュリティを監査ができるようになりました。

Xi Beamは他社のマルチクラウド管理SaaS製品と比較してもセキュリティ監査に強みがあり、ベンダーのベストプラクティスだけでなく、PCIDSSやHIPAAのような業界準拠が要求される監査に対応しています。紹介記事を見るところ、ハイパーバイザーはAHVに限らず他のハイパーバイザーもサポートするようです。

Fireshot_capture_192_nutanix_inc_be

*Nutanix社のブログ「Introducing: Security Compliance for Nutanix Private Cloud」
https://www.nutanix.com/blog/introducing-security-compliance-for-nutanix-private-cloud

それ以外にも、Nutanixの新しいキャンペーン「All Togher Now」ビデオが流れ、HCIベンダーとして統合してきた コンピュート/ストレージ/サーバ仮想化 のみならず、アプリケーションやデータベース、仮想デスクトップに加えて、クラウドもすべて1つにしていく、というNutanixのメッセージが示されました。

https://www.nutanix.com/together

Xi Leap のライブデモでは、オンプレミス環境の災害を想定したアプリケーションの GCP上 Nutanix環境へのDR移行が行われ、会場からは大きな拍手が送られました。

Xi Clustersデモでは、数クリックでユーザのAWSアカウントに Nutanixクラスタを構築するデモが行われました。実際のUSリージョンにある環境で ネットワーク負荷テストを行い、AWSネイティブに迫るスループットをたたき出すことで、オーバーヘッドのない環境を利用できることが示されました。

Xi Clusters は環境を停止するハイバーネーション機能を備えており、従量課金のコストを抑えて運用することができます。現実的なハイブリッドクラウドソリューションとして期待が高まりますね。

Img_7856_3

◆まとめ

創業から10周年を迎えた Nutanix は、そのソリューションの幅を大きく広げユーザのニーズに答えるため前進し続けています。HCIのリーダーとして NVMe、SPDK、Optaneなど新しい技術にも着実に対応しながら、ハイブリッドクラウドへと舵を切り様々なサービスを提供しようとしています。

Nutanixの動向に今後も注目したいと思います。

Smart fabric Service for VxRailをやってみた!

$
0
0

ヘローワールド!! 皆様こんにちは。

VxRailとToRスイッチDellEMC PowerSwitchとの連携が可能なSmartfabricの検証を一早くしています!
Dell PowerSwitch OS10というバージョンがリリースされた直後に検証を実施しました。

Photo_5

ちなみに、Smart Fabric Service for VxRailとは…

VxRailとDell PowerSwitch(OS10)との連携機能で、スイッチ側でSmartfabricモードを有効化すれば、VxRailの構築や運用が非常に楽になります。
簡単に言うと、VxRail側の操作でVLANを作成、削除をすると自動でネットワークスイッチのVLAN設定にも反映してくれる便利な機能です!

VxRail、PowerSwitchの対応バージョン:
◆VxRail 4.7以降
◆対応Dell Power Switch(10.4.1.4以降)

2_2

以下、本家であるDellEMCコミュニティのストレージWiki(ブログ)に連載させていただき、
3回に分けて情報を公開していますので是非ご参照あれ!!

<Smartfabric 第1回>

<Smartfabric 第2回>

<Smartfabric 第3回>

今後もネットワールドではHCIやストレージ、バックアップについても情報をDellEMCコミュニティのストレージWikiへ投稿していきますのでこうご期待!!ではまた、お会いしましょう!


Avamar Virtual Edition最新版を入れてみた!

$
0
0

ヘローワールド!! 皆様こんにちは。

HCIと言えば、現在はAvamar VE(バーチャルエディション)によるデータプロテクションの連携ブームがきてます!きてます!

今回は、実際に公開されている記事も少ないAvamarVEの最新版の構築をやってみたという話題です。

実際に、HCIのバックアップ提案で今もっとも熱い構成です。ユーザーにとって非常にメリットのある製品サポート窓口の一括化の提案もでき、VxRail+Avamar VE+Data Domainのバックアップ連携は非常にホットになっています。

1

また、AvamarのプラグインをインストールすることでvSphere上で利用できるAvamar AUI(Avamar User Interface)にも要注目です!

今後はAvamar Administrator(管理GUI)ではなく、下記HTML5ベースでAvamarの管理設定をしていくことになりそうです。

Photo

今回も、本家であるDellEMCコミュニティのストレージWiki(ブログ)に連載し情報を提供していますので是非ご覧ください!

<Avamar Virtual Edition最新版を入れてみた!>

ではまた、お会いしましょう!

Unity OE5.0 新レプリケーションを試してみた!!

$
0
0

ちょっと疲れたので、皆様こんにちは!

今回も恒例でDellEMCコミュニティのストレージWiki(ブログ)に連載し情報を提供しています!今までUnityOEでは1つのファイルシステム、LUNを対象に1対1のレプリケーショントポロジしか対応していませんでした。弊社開催のハンズオンなどでも1つのデータを複数のサイトにレプリケーションをしたいという要望を多々いただいていましたが今はまだ未対応です。。。と答えていましたが、ついに2019年の6月リリースのOE5.0で複数のレプリケーショントポロジに対応しました!

One to Manayトポロジ

1tom

Fan-Outトポロジ

Fanout

Cascadeトポロジ

Cascade

今回はUnityの筐体内レプリケーションからUnityVSAへのカスケードレプリケーションを試していますので、是非、ご覧ください!

<Unity OE5.0 新レプリケーションを試してみた!! >

Unity XT480 パフォーマンス検証

$
0
0

皆様こんにちは!

今回はUnityの新ハードウェア(ソフトウェアは変わりません)であるUnityXTの情報です。ついに検証機がNetworld社にも届きました!!!本記事ではUnityXT480のパフォーマンス検証を実施し公開していきたいと思います。

4_2

大きく変わった点としては、Skylake&Dual CPUに対応(ただしXT480以降でXT380はSingle CPU)になります。かなりパワフルなハードウェアになりましたね!

2

もちろん、アーキテクチャーはそのままなので今までのUnityと操作感も変わらずシンプルに設定することが可能です。重複排除率もより高まり、性能も大きくアップしています。

それが本当かどうかを確かめるために、実際にベンチマークをやっています!今回もネットワールドではおなじみになりつつある、以下の複数のIOパターンでストレージに負荷をかけていきます。

4

テスト結果については逐次報告できればと思います。以下のDell EMCストレージWikiのブログで3~4週程度に渡って公開していきますのでこうご期待!!!

ではまた。

<Unity XT480 パフォーマンス検証>

Nutanix Era でDBサーバ運用を自動化くん

$
0
0

この投稿は、[4枚目]Nutanix Advent Calendar 2019 の 3日目です。

Nutanix Eraとは?

Nutanix EraはNutanixインフラの上でDatabase as a Service(DBaaS)を実現するソリューションです。パブリッククラウド界隈ではAWSのRDS,AzureのAzure Database for xx,Azure SQL Database的なことをオンプレミスにも構築しちゃうぞ!というものになります。乱暴な言い方をするとデータベースの自動販売機を作ることができます。

Nutanix Eraでどんなことができるの?

Nutanix Eraではデータベースサーバで発生する通常業務の多くを1Clickで実現することができます。

  • データベースサーバの展開(Oracle,MSSSQL,PostgreSQLはクラスタ構成もサポート)
  • データベースの作成
  • データベースのバックアップ・リストア
  • データベースのクローン
  • データベースソフトウェアのアップデート

Era1

Nutanix Eraによるデータベースサーバの展開とデータベースの作成

Nutanix Eraではデータベースの自動販売機化のために、データベースにまつわる設定を標準化するためにいくつかのプロファイルを組み合わせてデータベースを展開できるようにしています。

  • ソフトウェアプロファイル
  • コンピュートプロファイル
  • ネットワークプロファイル
  • DBパラメータプロファイル

AWSのAWSでMySQLを展開する際のウィザードをベースに、Nutanix Eraのプロファイルを関連付けると以下のようになります。

Rds1_2

Rds2_2

実際にNutanix Eraでウィザードを進めるとこんな形で進んでいきます。

Era10_2

Era15

Nutanix Eraによるデータベースのバックアップ・リストア

Nutanix EraではSLAと呼ばれるデータ保護ポリシーをデータベースに関連付けることで、ポリシーに準拠したデータ保護を担保することができます。Nutanix EraではTime Machineと呼ばれるトランザクションログをベースとした、任意の時間にロールバックすることが可能です。

Fireshot_capture_048_era_10125081

Nutanix Eraによるデータベースのクローン

Nutanix Eraでは取得したスナップショット、バックアップと連携してデータベースのクローンを高速に展開することが可能です。Time Machine機能とも連携可能で、ソースデータベースの時間をしてそのクローンを作成することもできます。

Nutanix Eraによるデータベースソフトウェアのアップデート

Nutanix Eraではデータベースソフトウェアの更新も管理することが可能です。しかしパブリッククラウドで展開されるDBaaSと違って、更新用のソフトウェアのイメージ(ソフトウェアプロファイル)はNutanix Eraの管理者が準備する必要があるので注意が必要です。仮想デスクトップのソリューションをご存知の方であれば、Windows10のマスターイメージの更新を想像してもらえるとわかりやすいかもしれません。また既に社内で利用しているDBサーバがある場合は、そちらを持ち込んでNutanix Eraの機能を利用することも当然可能です。

Era2

Nutanix Era まとめ

Nutanix Eraを利用することで、アプリケーションサーバやWebサーバはDevOpsのフローを実現できているけど、DBサーバだけは従来のフローのままになってしまう、開発者からの作成依頼をこなすだけで運用担当者が忙殺されてしまうといったことから解放することができるようになります。

Fireshot_capture_049_demo_nutanix_d

Amazon RDS on VMwareを触ってみる ~前編~

$
0
0

この投稿は vExpert Advent Calendar 2019 の 3日目です。

Amazon RDS on VMwareとは?

クラウド上で展開されるDBaaSのAmazon RDSをオンプレミスにあるvSphere上で稼働するソリューションAmazon RDS on VMwareが提供されるようになりました。Amazon RDS on VMwareはVMware社が販売するものではなく、AWSの提供するAmazon RDSのサービスとして販売されるので注意が必要です。実際に管理画面もvCenterではなくAWSコンソールから行うことができます。

Fireshot_capture_050_rds_aws_consol

Amazon RDS on VMware でどんなことができるの?

Amazon RDS on VMwareではデータベースサーバで発生する通常業務の多くをフルマネージドサービスとして利用することができます。

  • データベースサーバの展開(パブリッククラウド上のAmazon RDSと比較するとOracleとAuroraは未サポート)
  • データベースの作成
  • データベースのバックアップ・リストア
  • データベースのクローン
  • データベースソフトウェアのアップデート

Amazon RDS on VMwareの仕組み

Amazon RDS on VMwareでは管理プレーンはクラウド上のAWSコンソール、コントロールプレーンはAWSとVPN経由で接続されたオンプレミスのvSphereに展開された仮想マシン群が、データはもちろんオンプレミスのvSphereに配置されます。

Ss1

Ss2

Amazon RDSにしてみると、オンプレミスのvSphereがAWSの既存リージョンの一部(Availability Zone)として認識され通常のAmazon RDSと同じように利用することができます。

そのためAWS CLIやTerraformを使った展開といった、API経由のアクセスも通常のRDSを利用する感覚で従来までの運用を踏襲できるところもAmazon RDS on VMwareの強みになります。

また現在は米国東部(バージニア北部)のリージョンでのみ利用することが可能なサービスです。

Amazon RDS on VMwareの事前準備 ~AWS編~

Amazon RDS on VMwareを実際にセットアップする前にAWS側で事前準備しておくポイントが2つあります。https://docs.aws.amazon.com/ja_jp/AmazonRDS/latest/RDSonVMwareUserGuide/setting-up-rds-on-vmware.html

  • オンプレミスに配置するAmazon RDS on VMwareのコンポーネントがAWSコンソールにアクセスするためのIAMユーザのアカウント
  • Amazon RDS on VMwareで展開された暗号化DBで利用する証明書

Amazon RDS on VMwareの事前準備 ~vSphere編~

Amazon RDS on VMwareはAWS社のフルマネージドサービスとして提供されます。もちろんvShere基盤は対象外となりますが、ハイパーバイザーより上位のソフトウェアスタックはすべてAWS社がサポートを行います。

そのため、そのサポートされるvSphere環境にはいくつかの要件があります。

  • vSphereのバージョンとしては6.5以降に24 vCPU,24 GBメモリ,180 GBのストレージのリソース
  • ネットワークセグメントは4つ準備が必要
  • 参照するDNSで「rdsonvmware.rds.amazonaws.com」の転送設定が必要
  • vSphere環境からインターネットに接続時に利用されるグローバルIP(VPN接続で必要)

Ss3

ネットワークの4つのセグメントがそれぞれDHCPがひつようであったり、vmkernelポートが接続されたポートグループを指定しないといけなかったりするのでAmazon RDS on VMware用に事前準備が必ず必要になります。 必ず以下のドキュメントを熟読してネットワークの準備をしましょう。https://docs.aws.amazon.com/ja_jp/AmazonRDS/latest/RDSonVMwareUserGuide/getting-started-with-rds-on-vmware.pre-onboarding.html

ここまででだいぶ文量が多くなってきたので想定外の後編につづく形にします。

Amazon RDS on VMwareを触ってみる~後編につづく~

後編では、実際のセットアップの流れと簡単な動作について紹介していきたいと思います。

Viewing all 459 articles
Browse latest View live