Interop Tokyo2014に参加してきました

ネットワークの祭典 Interop Tokyoに初めて参加してきました。
場所は幕張メッセ。いままで千葉にいたときには知らないイベントでしたが、出張ついでに参加することができました。
こういう展示会はよく3年後の未来を先取りできるといわれますが、今回のイベントでは今話題のSDNとその実現方式であるOpenFlowが中心でまさにネットワークのソフトウエア制御による仮想化が主な取り組みだったように感じます。
とはいえ、研究的な取り組みが多く、まだ3年後の未来のキーワードだけが見えて、具体的な実現は皆で考えよーぜ!というような感じだったように思えます。
物理サーバの仮想化は成熟してきていますが、正直ネットワークの仮想化はデータセンタなどでのみ用途があり、一般向けにはまだまだビジネスモデルにつながらないところが本音何だろうと思います。
そもそもなぜネットワークの仮想化が必要になったのかを今回自分なりにまとめてみました。
まずその前にサーバの仮想化はなぜ必要だったのかを整理すると…
1.スケールイン(物理サーバの稼働効率を上げるため)→いわゆるマルチテナント
2.スケールアウトとスケールアップ(仮想マシンをコピーしてサーバの多重度を簡単に上げることや、動的に負荷の高い処理にリソースを割く)
3.ライブマイグレーション(可用性の向上)
の3つだと思います。
星の数ほどあるサービスがほとんどは外れて、一部大当たりして急成長する。昔ならサービスごとにサーバを割り当てるのが当たり前だったけれど、こんなトレンドに迅速に対応するための進化とも言えると思う。
次にネットワークの仮想化の理由を考えてみます。
それは、サーバの仮想化要件に対応するため、スイッチの物理的制約をなくし、ネットワーク機器の柔軟な配置を可能とするためと考えます。
1.可用性をあげる為に構築したメッシュ構造の稼働効率をあげるため。また、そのために犠牲となったMTTRが長くなる問題を向上するため。(STPではMTTRが長すぎる)
2.複数のネットワークで正しい設定を行うことに対する限界(設定ファイルの登録はいまだ人手でやっていることが多いのが現状で、ネットワーク機器の増加に伴い、ヒューマンエラーが課題となっている)
3.ライブマイグレーション実現のためのVLANの進化(現状のVLANでは4096が限界でDCでは運用に耐えられない。またL2ではブロードキャスト通信など無駄なパケットが帯域を圧縮するだけでなく、MACアドレス学習のオーバフローが課題)
これらの課題が、SDNにて解決されることを目指しているわけで、L4~L7を含めオーケストレーションする仕組みで対応するためにOpenFlowの実現方式があります。(今までの仮想化の取り組みは割とL3以下が中心でハードウエアの制御が中心だったと言えると思います)
ただこの取り組みによって何ができるのか?についてはまだ試行錯誤しているように思え、キラーアプリがあれば爆発的に広まるのだろうけれど。。。。という説明された方のぼやきが聞こえてくる一幕もありました。
見ている感じでは、下記のようなものが身近で適用できそうな気がしました。
・特定のポートのQoSを動的に上げることで、無駄なトラフィックの優先度を落とす(業務のネットサーフィンで会社の重要な帯域が占有されることのないようにするなど)
・パケットキャプチャするためにミラーポートを動的に設定し、必要最低限のパケットをコピーしてとりこぼさないようにする(今までは、ミラーポートにつないでいたコンピュータでキャプチャしていたので、帯域幅に対して処理マシンが低いととりこぼししてしまう上に、調査が大変だった)
・セキュリティの向上(FWを動的にフィルタリングしている仕組みをSDNであらゆるネットワーク機器で実現できるようになると、LAN内の通信についても適用することができ、よりセキュリティが高まりやすい)
以上、長文でしたが個人的な感想です。
同時通訳の基調講演も初めて聴くことができ、とても新鮮でした。
もし来年も参加できるようであれば、SDNがどのように進展しているのか、それともバズワードで終わってしまうのか見届けたいと思っています。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です