[IT][仮想化][勉強会] Nutanix Community Meetup #1 に参加してきた。#nutanix

勉強会
Nutanix Community Meetup #1 (2015/05/27 19:00〜)
## お知らせ * Update:2015/4/30 たくさんのお申込みありがとうございます。部屋のレイアウト調整により定員を増やしました(30→40)。少し手狭になるかもしれませんが何卒ご容赦ください。 * Update:2015/5/1...

Hyper-converged Infrastructureを掲げる、気鋭の仮想化向けアプライアンスメーカ、NutanixのMeetupが開催されたので参加してきました。

とりあえず先にメモったことを。

どんな会社?
・2009年創業
・ビジネス規模300M$
・導入実績日本100例程度
・多くのセグメントで使用されている

ITインフラの”これまで”と”これから”
Nutanixの技術概要

ITインフラの”これまで”と”これから”

これまでのインフラ(FC-SANの場合)
サーバーSANー共有ストレージ
・RAIDグループの設定
・LUN設定
・FCドライバ設定
・ゾーニング
・LUNマッピング
・マルチパスの設定
・フォーマット、マウント

これまでのインフラの抱える問題
・根本的に複雑
・限られたスケーラビリティ
・非効率なサイロ化、分断

これからの形 hyper converged infrastructure
・ソフトウェア処理で、仮想化環境のサーバと共有ストレージを単一のHWに統合
・スモールスタート
・拡張しやすい
・とにかくシンプル

市場動向(2014年12月)
・いくつかある
・VMware、EMCなど
・全体の52%ほど

技術概要
・WEBスケールIT
・GoogleやFBのDC
・超大規模をどうやって運用管理するか?
・故障への対応、スケーラビリティの確保、TCO抑制

→価格への追求
・汎用的なHWを使用する
・すべてSWで制御する
・計算処理やデータを分散させる

普通のIT環境にも大きなメリット

nutanix controller VM
CVM(Controller virtual Machine)
単一のストレージプールに論理統合→NDFS
Hyper Visorには以下のものが使用できる
・KVM、Hyper-V、VMware

Controller virtual Machine
Nutanixにおける分散ストレージの仕組みにおいて、もっとも重要なコンポーネント
・クラスタのすべてのノード上で動作
・Hypervisorからは、共有ストレージとしてマウント
・ユーザ空間で実行(実装上重要)
・PCI Path-throughでサーバの内蔵ディスクへ直接アクセス
・他ノード上のCVMと互いに通信(監視、データ分散処理)

・IOパス
VMがディスクIOを行うと、多くのデータがHVとCVMが接続された内部仮想スイッチをとおて、筐体内で処理される
・CVMはHVの内部仮想スイッチに接続される
・HVは上記で持ったIPアドレスでアクセスマウントする
・各ノード上のCVMは、データのレプリケーションとノード間通信のために外部仮想スイッチに接続され、各部が異なるIPアドレスを保つ

高い性能と高可用性
・データは常にローカルのディスクに書き込み
・高可用性のためにほかのノードにもデータを複製
・高IO性能を出すために、複製は複数のノードに分散される

読み込み
・基本的にローカルのディスクから
・ライブマイグレーションを行った後など、データがローカルにない場合のみ、他のノードから読み込む

ノードダウン
・あくまでローカルのディスクにデータを寄せる、が基本
・他ノードとは10GbEで接続されている
ほとんどの顧客ではRF2コピーで足りている(RF3もある)

あるノードでCVMのみダウンした場合
・VMはそのノード上で動き続ける
・冗長データパス
・static routeが追記され、パスを確保する
・CVMのアップデート時もこの動作

NDFS(Nutanix Distributed File System)
・データの分散、メタデータの管理
・エラー回復、自動リカバリ
・データは市制御、キャッシュ、ティアリング、バランシング
・HV統合用API対応

DCのインフラをリニアに拡張
・1ノード単位で拡張可能(最低3ノードから)

リファレンスArchitecture
・6Uサイズで1000ユーザを展開
・880デスクトップを6分で起動

まとめ
サーバとストレージを統合した仮想化環境向け
優れた管理性、性能、可用性、拡張性

Community Edition
日本では今日プレスリリース予定
→実際には6月8日からダウンロード可能の予定
製品
・ソフトウェアにて提供
・BYOハードウェア
・1,3,4ノードの構成
・Replication Factor1、RF2のサポート
・基本、IntelのCPUおよびNICでしか起動しない
→他ので試したら起動もしなかった

サポート
・NEXTCommunityへの登録が必要
・100%Communityサポート
・本番環境以外での使用
・Community Edition専用ライセンス
・Communityから製品版へのアップグレードパスはなし

とりあえず構造としてはシンプルに作られているということを強調していました。(分散系はCassandraが使われているそうです)なるべく差分のデータ転送などで済むようにしたりしているので、確かにスモールスタートからノードを増やしていくのも楽そうな構造をしているなというのが感想でした。

その後の懇親会では以下の様な疑問も出てました。

  • 大規模なノードになった時、果たしてバックエンドは10GbEで足りるのか?(レイテンシ、そもそもの通信の増大)
  • CVMが8vCPUって食い過ぎでは?(実際に使えるリソースの大半が持って行かれているイメージ)
    • CVMがGUIがストレージコントローラーの機能を担っているので分かる気もするのですが。
  • 形的にはWhitebox Linux?
  • 全てをソフトウェアで処理する、と聞かされてイメージしたのがそれでした。
  • GUI周りはきっちりと作られているので、自社で専任の監視さんがいないようなところでは導入はいいかもしれない

アプライアンスの価格は分かりませんが、OpenStackほどの環境を用意しなくても良いけど、これからは仮想基盤を用意しないといけないというところには、いいパッケージングなのではないかと思いました。

第2回のMeetupも開催されることが決定しているので、そちらにも参加してみようかと思います。

この記事を書いた人

kometchtech

うつ病を患いながら、IT業界の末席にいるおっさんエンジニア。科学計算をしたことがないのに、HPC分野にお邪魔している。興味のある分野で学習したことをblogにまとめつつ、うつ病の経過症状のメモも置いておく日々。じつはRouterboard User Group JPの中の人でもある。 Amazon欲しいものリスト / Arm板を恵んでくれる人募集中

kometchtechをフォローする
タイトルとURLをコピーしました