Compaq OpenVMS
OpenVMS Cluster 構成ガイド


前へ 次へ 目次 索引


10.8.1 MSCP サービス対象のストレージへのアクセス

MSCP サーバの機能性は,OpenVMS Cluster にとって大きな利点をもたらします。たとえば,ノードとストレージ間の直接通信が可能になります。そして,MSCP サービスによる I/O はオーバヘッドを引き起こしません。 図 10-23 は,サービス・システムによる特別な処理をパケットが要求する仕組みを簡略化したものです。

図 10-23 直接アクセスと MSCP サービスによるアクセスの比較


図 10-23 で,MSCP サービス対象のパケットは,別のシステムによる "中継"を受けてから宛先に到達します。MSCP サービス対象のパケットが宛先ストレージに対応するシステムに達すると,パケットは直接アクセスの場合と同様の処理を受けます。

大量の MSCP サービスを必要とする OpenVMS Cluster では,I/O パフォーマンスやスケーラビリティが低下します。MSCP サービスによる I/O と直接アクセスによる I/O を比較すると,I/O スループットは,全体で約 20% 低下します。サテライトがそれぞれのローカル・ストレージを OpenVMS Cluster 全体に提供する方式ではなく,少数の大ノードのストレージを多数のサテライトに提供するように構成してください。

10.8.2 ディスク・テクノロジ

ここ数年,CPU による情報処理能力は,I/O サブシステムによるプロセッサに対するデータ提供能力を越えています。その結果,プロセッサが I/O 処理の終了を待機する時間が増えています。

半導体ディスク (SSD),DECram,そして RAID レベル 0 は,処理速度と磁気ディスクのアクセス速度のギャップをとりもつテクノロジです。磁気ディスクのパフォーマンスは,シーク待ち時間と回転待ち時間による制約を受けますが,SSD と DECram はメモリを使用するため,即時アクセスが可能です。

RAID レベル 0 は,1 つのファイルを複数のディスク・ボリュームに分散 (または "ストラインピング") するための技術です。その目的は,アクセス頻度の高いファイルをストライプ・セットにパーティション化し,複数のデバイスに保存することにより,1 つのディスクにボトルネックが発生するのを防ぐことです。この技術では,1 つの I/O を多数のディスクで併行処理することができます。

表 10-5 は,ディスク・テクノロジとその機能をまとめたものです。

表 10-5 ディスク・テクノロジのまとめ
ディスク・テクノロジ 特性
磁気ディスク アクセス時間がかかる。
低費用。
複数のインターコネクトで使用可能。
半導体ディスク あらゆる I/O サブシステム・デバイス内で最速のアクセス時間。
書き込み頻度が高いファイルの場合に最高のスループット。
複数のインターコネクトで使用可能。
DECram 中小サイズの I/O 要求で最高のスループット。
揮発性ストレージ領域; 一時読み取り専用ファイルに最適。
Alpha システムや VAX システムで利用可能。
RAID レベル 0 HSJ コントローラと HSD コントローラで使用可能。

注意: I/O をスケーリングする最も速い方法は,半導体ディスクや DECram に対して共用直接アクセスする場合です。

10.8.3 読み込み/書き込みの比率

I/O をシャドウ・セットに対して行う場合,アプリケーションの読み込み/書き込みの比率が重要です。シャドウ・セットに対する MSCP は,インターコネクト上でコピーされます。

したがって,100% (100/0) 読み込み処理のアプリケーションでは,シャドウイングにより I/O 処理に複数のパスを利用できるため,ボリューム・シャドウイングの恩典を受けることができます。読み込み/書き込みの比率が 50/50 のアプリケーションでは,さらにインターコネクトが活用されます。これは,書き込み処理では,I/O を各シャドウ・メンバに送信する必要があるからです。最も処理速度の遅い I/O を完了するために必要な時間により,遅延が発生する可能性があります。

I/O 読み込み/書き込みの比率は,DCL コマンド MONITOR IO で知ることができます。

10.8.4 I/O サイズ

I/O パケットごとに,プロセッサとメモリにオーバヘッドが生ずるので,I/O を 1 つのパケットにまとめれば,すべての I/O 処理のオーバヘッドを節約することができます。アプリケーションで使用できるパケット・サイズが大きければ,スループットが高くなります。パケット・サイズが小さいとオーバヘッドが大きくなります。

10.8.5 キャッシュ

キャッシュとは,最新のデータや使用頻度の高いデータを,メモリ,コントローラ,またはディスク内のアクセスしやすい場所に保存する技術です。キャッシュは半導体ディスク,DECram,RAID を補完する技術です。特別なコーディングをしなくてもアプリケーションはキャッシュの利点をそのまま利用できます。キャッシュすると, OpenVMS Cluster システム内で構成要素間の I/O 数が減少し,現在の I/O ボトルネックや潜在的な I/O ボトルネックを緩和できます。

表 10-6 は,3 種類のキャッシュ方式をまとめたものです。

表 10-6 キャッシュの種類
キャッシュの種類 説明
ホスト方式 ホスト・システムのメモリにキャッシュが常駐。ホストからの I/O をサービス。
コントローラ方式 ストレージ・コントローラにキャッシュが常駐。すべてのホストにデータをサービス。
ディスク ディスクに常駐するキャッシュ。

ホスト方式のディスク・キャッシュの特長は,コントローラ方式やディスク方式のキャッシュとは異なります。ホスト方式のディスク・キャッシュでは,キャッシュそのものをノード間で共用できません。コントローラ方式やディスク方式のキャッシュは共用できます。これは,共用できるコントローラやディスクにキャッシュがあるためです。

10.8.6 "ホット"・ファイルの管理

"ホット"・ファイルは,システム内でほとんどの処理が発生する場所です。多くの環境でホット・ファイルが存在するのは,全 I/O のおよそ 80% がデータの 20% に集中するためです。つまり, 図 10-24 に示すように,ディスク・ドライブで領域は均等に分散しているのに,転送されるデータの 80% がディスクの 1 個所に集中するためです。

図 10-24 ホット・ファイルの分散


I/O のスケーラビリティを強化するには,管理が不適切だとボトルネックになりかねないホット・ファイルに着目します。この領域の処理は,I/O,MB 単位の転送データ量,キュー深度で表します。

RAID レベル 0 では,1 つのファイルを複数のディスクに分散してホット・ファイルのバランスを調整します。これにより,パフォーマンスに対するホット・ファイルの影響を緩和できます。

ホット・ファイルによる処理の解析には,以下の DCL コマンドを使用します。

ホット状態のディスクやサーバを探すには,MONITOR IO コマンドと MONITOR MSCP コマンドを使用します。

10.8.7 ボリューム・シャドウイング

Volume Shadowing for OpenVMS 製品では,複数のディスクにデータのコピーを作成してアプリケーションとエンド・ユーザに対するデータの可用性を強化します。ボリューム・シャドウイングでは,データの冗長性と可用性が高くなるものの,以下の 2 つのレベルで OpenVMS Cluster I/O に影響が生じることがあります。

要因 影響
物理的な距離 ホスト方式のボリューム・シャドウイングでは, MSCP サーバからサービスを受けるボリュームも含め,OpenVMS Cluster システム内の任意のディスク・ボリュームのシャドウイングが可能です。この機能では,長距離通信が可能ですが,MSCP のオーバヘッドも生じます。たとえば,FDDI を使用する OpenVMS Cluster システムは,25 マイル離れて配置することができます。距離と MSCP の相乗効果により I/O スループットが低下する場合があります。
読み込み/書き込みの比率 シャドウイングでは,データが複数のボリュームに書き込まれるので,書き込みの激しいアプリケーションでは,シャドウイングをするソフトウェアは,スループットが低下します。これは最も効率よくデータを取り出せるディスク・メンバを選択するからです。


第 11 章
OpenVMS Cluster システム管理の手法

この章では,OpenVMS Cluster をフルに活用するための主なシステム管理の手法について説明します。OpenVMS Cluster の一般的なシステム管理の実践については,『Compaq OpenVMS Cluster システム』を参照してください。

この章では,システム・ディスク,クォーラム・ディスク,OpenVMS Cluster 遷移など,システム管理の基本的な概念を理解していることを前提としています。

この章の構成は,以下のとおりです。

11.1 シンプルな構成と複雑な構成

OpenVMS Cluster ソフトウェアは,大半のシステム管理のタスクが 1 回で済むため,システム管理者の仕事が軽減されます。このことは,OpenVMS Cluster の全機能を必要とせず,シンプルな構成で対応できるビジネス要件において特にはっきりとした効果が出ます。シンプルな構成は,新しくシステム管理者になった人だけでなく,経験豊かなシステム管理者にとっても魅力的であり,ノードが 3 個から 7 個,ユーザが 20 人から 30 人,ストレージが 100 GB 程度の小規模な OpenVMS Clusterに最適です。

関連項目: シンプルな OpenVMS Cluster 構成の例については, 図 11-1 を参照してください。

さらに複雑な OpenVMS Cluster 構成の場合で,可用性,スケーラビリティ,パフォーマンスを実現するには,高度なシステム管理方法が必要です。

関連項目: 複雑な OpenVMS Cluster 構成の例については, 図 11-3 を参照してください。

システム管理の選択にあたっては,簡潔性と,複雑な OpenVMS Clusterで要求されるその他の管理タスクとの調和を考慮したシステム管理方法を選択してください。

11.2 システム・ディスクの手法

システム・ディスクには,システム・ファイルと環境ファイルが含まれています。

システム・ファイルは,実行時ライブラリなど主に読み込み専用のイメージとコマンド・プロシージャであり,クラスタ規模でアクセスします。

環境ファイルは,個々のユーザに合った環境を作成するためのファイルです。すべての環境ファイルをクラスタ規模でアクセスできるようにすれば共通環境ができます。また,特定の環境ファイルについてアクセスできるユーザやシステムを限定すればマルチ環境になります。

11.2.1 シングル・システム・ディスク

シングル・システム・ディスクと共通環境という簡潔な構成の場合は,システム管理も簡単です。必要なほとんどの作業は 1 回で済みます。また,システム・ファイルと環境ファイルは同じディスクに常駐します。 ページ・ファイルとスワップ・ファイルもシステム・ディスクに常駐します。

図 11-1 は,シングル・システム・ディスクと共通環境の OpenVMS Cluster システムの例です。

図 11-1 シングル・システム・ディスクの共通環境


図 11-1 で示すシンプルな CI OpenVMS Cluster は,シャドウ・システム・ディスクを 1 つ使用しています。このシステム・ディスクには,システム・ファイル,環境ファイル,ページ・ファイル,スワップ・ファイルが常駐します。ここには環境ファイルが 1 セットしかないので,これは共通環境です。

図 11-2 は,共通環境を備えたシンプルな OpenVMS Cluster の別の例です。

図 11-2 シングル・システム・ディスクのシンプルな LAN OpenVMS Cluster


図 11-2 では,6 つのサテライトと 1 つのブート・サーバを Ethernet で接続しています。各サテライトには,専用のページ・ディスクとスワップ・ディスクがあり,これでシステム・ディスクの領域を節約するとともに, Ethernet からのページ・ファイルとスワップ・ファイルの I/O 処理を取り除きます。システム・ディスクからページ・ファイルとスワップ・ファイルを取り除いたことで, OpenVMS Cluster のパフォーマンスが強化できます。

シングル・システム・ディスクの構成で,多くの OpenVMS Cluster 要件に対応できますが,マルチ・システム・ディスクにもいくつかの長所があります。

11.2.2 マルチ・システム・ディスク

Alpha システムと VAX システムの両方を組み込んだ OpenVMS Clusterには, VAX システム・ディスクと Alpha システム・ディスクのマルチ・システム・ディスクが必要です。 表 11-1 で,(アーキテクチャに関係なく) システム管理者が OpenVMS Cluster で複数のシステム・ディスクを必要とする理由を補足説明します。

表 11-1 マルチ・システム・ディスクの長所
長所 説明
短縮されたブート時間 3 つ以上のシステムを同時にブートしようとすると,シングル・システム・ディスクでは,ボトルネックになる可能性があります。

ブート時間は以下の要素によって大きく異なります。

  • LAN の利用率

  • システム・ディスクの処理速度

  • マウントされているディスクの数

  • インストールされているアプリケーションの数

  • ブート・ノードとサテライトの距離

  • ブート・ノードの処理能力

  • システム・ディスクに環境ファイルがあるか

  • システム・ディスクがシャドウ化されているか

書き込み処理の負荷が高い環境ファイル (SYSUAF.DAT など) がシステム・ディスクにない場合,Volume Shadowing for OpenVMS ソフトウェアは,ディスクの読み込みパフォーマンスの強化に有効です。

強化されたシステムとアプリケーションのパフォーマンス 一定以上の使用頻度の各種アプリケーションを搭載した OpenVMS Cluster では,ノードごとにローカル・システム・ディスクを設けるか,システム・ディスクが担当するシステムを少数に限定するとパフォーマンス面で効果的です。長所は,イメージ起動時間が短く,LAN のサービス対象になるファイルが少ない点です。

Alpha ワークステーションは,ローカル・システム・ディスクに適しています。強力な Alpha プロセッサでは,システム・ディスク・アクセス程待たなくてもすむためです。

関連項目: 詳細については, 第 10.7.5 項 を参照してください。

LAN の利用率の削減 システム・ディスクによる LAN の利用率が下がれば, LAN によるサービス対象のファイルも減ります。LAN セグメントとそのブート・サーバを,セグメント外の不要なトラフィックから分離すれば,LAN パス接続も少なくて済みます。

関連項目: 詳細については, 第 11.2.4 項 を参照してください。

OpenVMS Cluster 可用性の増加 シングル・システム・ディスクは,単一点障害の要因になる可能性があります。ブート・サーバとシステム・ディスクを増加すれば,シングル・リソースにおける OpenVMS Cluster に対する依存度が下がり,可用性が高くなります。


前へ 次へ 目次 索引