Compaq OpenVMS
OpenVMS Cluster システム


前へ 次へ 目次 索引


3.4.7 LAN ブリッジのフェールオーバ・プロセス

次の表は,ブリッジ・パラメータの設定がフェールオーバ・プロセスにどのように影響するかを示しています。

オプション 説明
LISTEN_TIME の値を小さくすると,ブリッジはトポロジの変化をより迅速に検出できる。 LISTEN_TIME パラメータの値を小さくする場合は,ブリッジ固有のガイドラインに従って, HELLO_INTERVAL ブリッジ・パラメータの値も小さくしなければならない。しかし, HELLO_INTERVAL パラメータの値を小さくすると,ネットワーク・トラフィックが増大するので,注意が必要である。
FORWARDING_DELAY の値を小さくすると,ブリッジは他の LAN セグメントに不要にパケットを転送するようになる可能性がある。 ブリッジ・ソフトウェアがブリッジの両端の LAN アドレスを判断するまで,不要な転送によって,両方の LAN セグメントでトラフィックが一時的に増大する可能性がある。

注意: 1 つの LAN ブリッジのパラメータを変更する場合,そのパラメータはすべてのブリッジで変更する必要があり,新しいルート・ブリッジを選択しても,パラメータの値が変化しないようにしなければなりません。ブリッジが使用する実際のパラメータ値は,ルート・ブリッジで指定されている値です。

3.5 MEMORY CHANNEL でインターコネクトされた OpenVMS Cluster システム

MEMORY CHANNEL は,PCI ベースの Alpha システム用の高性能のクラスタ・インターコネクト・テクノロジです。 MEMORY CHANNEL には,遅延時間が非常に短い,帯域幅が広い,ダイレクト・メモリ・アクセスが可能であるなどの利点があり, OpenVMS Cluster が 1 つの仮想システムとして動作できる機能を補足および強化します。MEMORY CHANNEL はノード間クラスタ通信のためにだけ使用されます。 Fibre Channel,SCSI,CI, DSSI など,ストレージ・トラフィック専用に使用される他のインターコネクトと組み合わせて使用します。

3.5.1 設計

MEMORY CHANNEL 接続をサポートするには,各ノードに次の 3 つのハードウェア・コンポーネントが必要です。

3.5.2 例

図 3-6 には,Fibre Channel ストレージへの共用アクセスが可能で,フェールオーバのために LAN でインターコネクトされた 2 ノード MEMORY CHANNEL クラスタが示されています。

図 3-6 2 ノード MEMORY CHANNEL OpenVMS Cluster 構成


図 3-7 には, MEMORY CHANNEL ハブと LAN インターコネクトで接続された 3 ノード MEMORY CHANNEL クラスタが示されています。3 台のノードは Fibre Channel ストレージに共用アクセスできます。LAN インターコネクトがあるため, MEMORY CHANNEL インターコネクトで障害が発生しても,フェールオーバが可能です。

図 3-7 3 ノード MEMORY CHANNEL OpenVMS Cluster 構成


3.6 マルチホスト SCSI OpenVMS Cluster システム

OpenVMS Cluster システムでは,ストレージ・インターコネクトとして SCSI (Small Computer Systems Interface) がサポートされます。 SCSI インターコネクトは SCSI バスとも呼ばれ,1 台以上のコンピュータ,周辺デバイス,インターコネクト・コンポーネントをサポートする業界標準のインターコネクトです。

OpenVMS Alpha バージョン 6.2 以降,複数の Alpha コンピュータが同時に SCSI インターコネクトを介して SCSI ディスクにアクセスできるようになりました。ホスト間 OpenVMS Cluster 通信のために,ローカル・エリア・ネットワークなどの別のインターコネクトが必要です。

3.6.1 設計

OpenVMS Alpha バージョン 6.2-1H3 以降,OpenVMS Alpha ではストレージ・インターコネクトとして,共用 SCSI バス上で最大 3 台のノードがサポートされるようになりました。クォーラム・ディスクを SCSI バスで使用すると,2 ノード構成の可用性を向上できます。ホスト・ベースの RAID (ホスト・ベースのシャドウイングを含む) と MSCP サーバが共用 SCSI ストレージ・デバイスに対してサポートされます。

SCSI ハブ DWZZH-05 が提供されるようになったため, SCSI マルチホスト OpenVMS Cluster システムで 4 台のノードをサポートできるようになりました。4 台のノードをサポートするには,ハブの公平なアービトレーション機能を有効にしなければなりません。

これらの構成の詳細については,『Compaq OpenVMS Cluster 構成ガイド』を参照してください。

3.6.2 例

図 3-8 では,SCSI デバイスに共用アクセスするために SCSI インターコネクトを使用している OpenVMS Cluster 構成を示しています。ホスト間通信のために,別のインターコネクト (この例では LAN) が使用されることに注意してください。

図 3-8 共用 SCSI インターコネクトを使用する 3 ノード OpenVMS Cluster 構成


3.7 マルチホスト Fibre Channel OpenVMS Cluster システム

OpenVMS Cluster システムでは,ストレージ・インターコネクトとして FC インターコネクトがサポートされます。Fibre Channel は ANSI 標準のネットワーク/ストレージ・インターコネクトであり,高速伝送機能や,長距離のインターコネクトなど,他のインターコネクトより優れた数多くの機能を備えています。ノード間通信のために第 2 のインターコネクトが必要です。

3.7.1 設計

OpenVMS Alpha では,最新の『Compaq StorageWorks Heterogeneous Open SAN Design Reference Guide』および Data Replication Manager (DRM) のユーザ・マニュアルに説明があるように, Fibre Channel SAN 構成がサポートされるようになりました。この構成では,最大 500 メートルのマルチモード・ファイバと,最大 100 キロメートルのシングルモード・ファイバのマルチスイッチ Fibre Channel ファブリックをサポートします。さらに,DRM 構成では,Open Systems Gateway および波長分割多重化装置を使って,長距離のサイト間リンク (ISL) が可能となります。 OpenVMS は,非 OpenVMS システムに対し,ファブリックと HSG ストレージの共用をサポートします。

OpenVMS は,StorageWorks のマニュアルに記述されている数のホスト,スイッチ,およびストレージ・コントローラをサポートしています。一般に,ホストおよびストレージ・コントローラの上限は,使用できるファブリック接続の数によります。

ホスト・ベースの RAID (ホスト・ベースのシャドウイングを含む) と MSCP サーバが共用 Fibre Channel ストレージ・デバイスに対してサポートされます。これらの構成では,マルチパス・サポートが提供されます。

これらの構成の詳細については,『Compaq OpenVMS Cluster 構成ガイド』を参照してください。

3.7.2 例

図 3-9 では,ホストをストレージ・サブシステムに接続する 2 つの独立した Fibre Channel インターコネクトを含むマルチホスト構成を示しています。ノード間通信のために別のインターコネクトが使用されていることに注意してください。

図 3-9 Fibre Channel インターコネクトを使用する 4 ノード OpenVMS Cluster 構成



第 4 章
OpenVMS Cluster オペレーティング環境

この章では,OpenVMS Cluster オペレーティング環境の準備について説明します。

4.1 オペレーティング環境の準備

クラスタ・オペレーティング環境を準備するには,クラスタ内のコンピュータを構成する前に,最初の OpenVMS Cluster ノードで多くの手順を実行しなければなりません。以下の表はこれらの作業について説明しています。

作業 参照先
コンピュータ,インターコネクト,デバイスに対するすべてのハードウェア接続を確認する。 詳細については,適切なハードウェア・マニュアルを参照。
すべてのマイクロコードおよびハードウェアが正しいリビジョン・レベルに設定されているかどうか確認する。 サポート担当者に問い合わせる。
OpenVMS オペレーティング・システムをインストールする。 第 4.2 節
OpenVMS Cluster ライセンスも含めて,すべてのソフトウェア・ライセンスをインストールする。 第 4.3 節
レイヤード製品をインストールする。 第 4.4 節
サテライト・ブートのために LANCP または DECnet を構成し,起動する。 第 4.5 節

4.2 OpenVMS オペレーティング・システムのインストール

システム・ディスクには,OpenVMS オペレーティング・システムのバージョンが 1 つだけ存在できます。したがって, OpenVMS オペレーティング・システムをインストールまたはアップグレードする場合,以下の操作が必要です。

4.2.1 システム・ディスク

システム・ディスクは,Alpha システムと VAX システムの間で共用できない数少ないリソースの 1 つです。しかし, Alpha システム・ディスクは VAX コンピュータにデータ・ディスクとしてマウントすることができ,MOP が適切に設定されていれば,Alpha サテライトのブートに使用できます。同様に,VAX システム・ディスクは Alpha コンピュータにマウントし, MOP が適切に設定されていれば,VAX サテライトのブートに使用できます。

関連項目: アーキテクチャ間のブートについては, 第 10.5 節 を参照してください。

ブートした後,Alpha プロセッサと VAX プロセッサは,システム・ディスクも含めて,OpenVMS Cluster 内のどのディスクにあるデータにも共用アクセスできます。たとえば, Alpha システムは VAX システム・ディスクをデータ・ディスクとしてマウントすることができ,VAX システムは Alpha システム・ディスクをデータ・ディスクとしてマウントすることができます。

注意: 2 つのバージョンの DECnet を稼動している OpenVMS Cluster では, DECnet for OpenVMS (フェーズ IV) 用のシステム・ディスクと, DECnet--Plus (フェーズ V) 用のシステム・ディスクが別々に必要です。詳細については,DECnet--Plus のマニュアルを参照してください。

4.2.2 インストールの場所

以下のガイドラインに従って,共通システム・ディスクを設定できます。

クラスタで使用するシステム・ディスク 実行するインストールまたはアップグレード
すべてのコンピュータ・メンバに対して 1 つの共通システム・ディスク クラスタ全体で共通システム・ディスクに 1 回だけ,インストールまたはアップグレードする。
1 つ以上の共通システム・ディスクと 1 つ以上のローカル (個々の)・システム・ディスクの組み合わせ 以下のいずれかを実行する。

  • 各システム・ディスクに対して 1 回ずつ,インストールまたはアップグレードする。

または

  • 共通システム・ディスクに対して 1 回ずつ,インストールまたはアップグレードした後,CLUSTER_CONFIG.COM プロシージャを実行して,システム・ディスクの複製を作成する (この結果,システムはそれぞれ独自のローカル・システム・ディスクを保有することができる)。

注意: クラスタに複数の共通システム・ディスクが含まれる場合, 第 5 章 の説明に従って,後でシステム・ファイルを調整して,クラスタ・オペレーティング環境を定義しなければならない。

関連項目: システム・ディスクの複製を作成する方法については, 第 8.5 節 を参照。

例: OpenVMS Cluster が 10 台のコンピュータで構成され,そのうちの 4 台は共通の Alpha システム・ディスクからブートされ,2 台は第 2 の共通の Alpha システム・ディスクからブートされ,2 台は共通の VAX システム・ディスクからブートされ,2 台は独自のローカル・システム・ディスクからブートされる場合,インストール操作を 5 回実行する必要があります。

4.2.3 必要な情報

表 4-1 には,OpenVMS オペレーティング・システムのインストール・プロシージャで出力される質問と,その質問に対する応答によって,システム・パラメータがどのような影響を受けるかを示しています。出力されるプロンプトの中で,2 つのプロンプトは,ノードが DECnet を稼動しているかどうかに応じて異なります。この表にはまた,JUPITR というノードで実行されているインストール手順の例も示されています。

重要: 実際にインストールを開始する前に,質問に対する応答を確認しておいてください。

バージョンに関する注意: ハードウェアおよびファームウェアの必要なバージョン番号については,適切な OpenVMS 『OpenVMS Release Notes』マニュアルを参照してください。OpenVMS Cluster に複数のバージョンのオペレーティング・システムがある場合,リリース・ノートで互換性を確認してください。

関連項目: インストールの詳細については,適切な OpenVMS アップグレードおよびインストール・マニュアルを参照してください。

表 4-1 インストールを実行するのに必要な情報
プロンプト 応答 パラメータ
Will this node be a cluster member (Y/N)?
応答 システム構成 VAXcluster パラメータの設定
N CI および DSSI ハードウェアが存在しない。 0 --- ノードは OpenVMS Cluster に参加しない。
N CI および DSSI ハードウェアが存在する。 1 --- ノードは,CI または DSSI ハードウェアを介して OpenVMS Cluster に自動的に参加する。
Y   2 --- ノードは OpenVMS Cluster に参加する。

VAXCLUSTER
What is the node's DECnet node name? ノードが DECnet を実行している場合,このプロンプト,次のプロンプトおよび SCSSYSTEMID プロンプトが表示される。 DECnet ノード名または DECnet--Plus ノード・エイリアス (たとえば JUPITR) を入力する。ノード・エイリアスが定義されていない場合は,SCSNODE は 1〜6 文字の任意の英数字の名前に設定できる。名前でドル記号 ($) またはアンダスコア (_) を使用することはできない。 SCSNODE
What is the node's DECnet node address? DECnet ノード・アドレスを入力する (たとえば,2.211 は有効なアドレスである)。アドレスが割り当てられていない場合は,とりあえず 0 と入力し,DECnet を起動するときに有効なアドレスを入力する (この章の後半を参照)。

DECnet--Plus の場合は,ノードがフェーズ IV 互換アドレスで構成されているときに,この質問が出力される。フェーズ IV 互換アドレスが構成されていない場合は, SCSSYSTEMID システム・パラメータは任意の値に設定できる。

SCSSYSTEMID
What is the node's SCS node name? ノードが DECnet を実行していない場合,前の 2 つのプロンプトの代わりに,このプロンプトと次のプロンプトが表示される。このノードの固有名を 1〜6 文字の英数字で入力する。少なくとも 1 文字は英字でなければならない。名前でドル記号 ($) およびアンダスコア (_) を使用することはできない。 SCSNODE
What is the node's SCSSYSTEMID number? この番号はこのクラスタ内で固有の値でなければならない。 SCSSYSTEMID は 48 ビットのシステム識別番号の下位 32 ビットである。

ノードが DECnet for OpenVMS を実行している場合は,以下の公式を使用して,DECnet アドレスから値を計算する。

SCSSYSTEMID = ( DECnet-area-number * 1024) + ( DECnet-node-number)

例: DECnet アドレスが 2.211 の場合,値は以下のように求められる。

SCSSYSTEMID = (2 * 1024) + 211 = 2259

SCSSYSTEMID
Will the Ethernet be used for cluster communications (Y/N)? 1
応答 NISCS_LOAD_PEA0 パラメータの設定と動作
N 0 --- PEDRIVER をロードしない 2。クラスタ通信ではイーサネットまたは FDDI が使用されない。
Y 1 --- イーサネットまたは FDDI を介してクラスタ通信を行うことができるように,PEDRIVER をロードする。

NISCS_LOAD_PEA0
Enter this cluster's group number: 1〜4095 または 61440〜65535 の範囲の値を入力する ( 第 2.5 節 を参照)。この値は SYS$COMMON:[SYSEXE] ディレクトリの CLUSTER_AUTHORIZE.DAT ファイルに格納される。 なし
Enter this cluster's password: クラスタ・パスワードを入力する。パスワードは 1〜31 文字の英数字でなければならず,ドル記号 ($) とアンダスコア (_) も使用できる ( 第 2.5 節 を参照)。この値は, SYS$COMMON:[SYSEXE] ディレクトリの CLUSTER_AUTHORIZE.DAT ファイルにスクランブル形式で格納される。 なし
Reenter this cluster's password for verification: パスワードを再入力する。 なし
Will JUPITR be a disk server (Y/N)?
応答 MSCP_LOAD パラメータの設定と動作
N 0 --- MSCP サーバはロードされない。 OpenVMS Cluster のすべてのノードがすべての共用ストレージに直接アクセスすることができ,LAN フェールオーバを必要としない構成の場合,これが適切な設定である。
Y 1 --- デフォルトの CPU ロード・キャパシティを使用して,MSCP_SERVE_ALL パラメータによって指定される属性で MSCP サーバをロードする。

MSCP_LOAD
Will JUPITR serve HSC or RF disks (Y/N)?
応答 MSCP_SERVE_ALL パラメータの設定と動作
Y 1 --- 使用可能なすべてのディスクをサービスする。
N 2 --- ローカルに接続されているディスク (HSC, HSJ,RF を除く) だけをサービスする。

MSCP_SERVE_ALL
Enter a value for JUPITR's ALLOCLASS parameter: 3 値はシステム構成に応じて異なる。

  • システムが RF ディスクをサービスする場合は,割り当てクラスに 0 以外の値を指定する。

    関連項目: DSSI 割り当てクラスの割り当てについては, 第 6.2.2.5 項 を参照。

  • システムが HSC ディスクをサービスする場合は, HSC の割り当てクラスの値を入力する。

    関連項目: HSC 割り当てクラスの割り当てについては, 第 6.2.2.2 項 を参照。

  • システムが HSJ ディスクをサービスする場合は,HSJ の割り当てクラスの値を入力する。

    関連項目: HSJ コンソール・コマンドの詳細については,HSJ ハードウェアのマニュアルを参照。HSJ 割り当てクラスの割り当てについては, 第 6.2.2.3 項 を参照。

  • システムが HSD ディスクをサービスする場合は, HSD の割り当てクラスの値を入力する。

    関連項目: HSC 割り当てクラスの割り当てについては, 第 6.2.2.4 項 を参照。

  • システム・ディスクがデュアル・パス・ディスクに接続されている場合は,両方のストレージ・コントローラで使用される 1〜255 の値を入力する。

  • システムが共用 SCSI バスに接続されており (そのバス上のストレージを別のシステムと共用する),SCSI ディスクの命名のためにポート割り当てクラスを使用しない場合は, 1〜255 の値を入力する。この値は,SCSI バスに接続されているすべてのシステムおよびディスクで使用しなければならない。

    関連項目: ポート割り当てクラスの詳細については, 第 6.2.1 項 を参照。

  • 上記のいずれにも該当しない場合は,0 を入力する。

ALLOCLASS
Does this cluster contain a quorum disk [N]? 構成に応じて,Y または N を入力する。Y を入力すると,クォーラム・ディスクの名前が求められるので,クォーラム・ディスクのデバイス名を入力する。 (クォーラム・ディスクについては, 第 2 章 を参照。) DISK_QUORUM


1イーサネットに関連する説明はすべて,FDDI にも適用される。
2PEDRIVER は,NISCA プロトコルを実装し,ローカル LAN ポートとリモート LAN ポートの間の通信を制御する LAN ポート・エミュレータ・ドライバである。
3デバイスの命名規則については, 第 6.2 節 を参照。


前へ 次へ 目次 索引