Compaq OpenVMS
OpenVMS Cluster システム


前へ 次へ 目次 索引



第 3 章
OpenVMS Cluster インターコネクト構成

この章では,さまざまな種類の OpenVMS Cluster 構成の概要を示し,相互接続 (インターコネクト) の方法についても説明します。

関連項目: サポートされる OpenVMS Cluster 構成の正確な情報については,以下を参照してください。

3.1 概要

どの種類の OpenVMS Cluster の場合も,クラスタ内のすべての Alpha ノードと VAX ノードは,他のすべてのノードに直接接続されていなければなりません。各サイトでは,以下の 1 つ以上のインターコネクトを使用できます。

必要な処理と使用できるハードウェア・リソースによって,個々の OpenVMS Cluster システムの構成方法が決定されます。構成に関するこの章の説明は,これらの物理インターコネクトをもとに行っています。

3.2 CI によってインターコネクトされる OpenVMS Cluster システム

CI は,OpenVMS Cluster 通信のために最初に使用されたインターコネクトです。CI は VAX ノードと Alpha ノード,および HSC ノードと HSJ ノードの間で,2 パスで 1 秒間に 70 メガビットの速度での情報交換をサポートします。

3.2.1 設計

CI は,ストレージへのアクセスと,信頼性の高いホスト間通信を目的に設計されています。CI は,Alpha ノードおよび VAX ノードをディスクおよびテープ・ストレージ・デバイスに接続したり,ノードを相互に接続するための,性能と可用性の高い方法です。クラスタ通信に CI を利用する OpenVMS Cluster システムでは,コンピュータ,HSC サブシステム,HSJ サブシステムの共通の接続ポイントとして,スター・カプラが使用されます。

3.2.2 例

図 3-1 は,CI コンポーネントの典型的な構成方法を示しています。

図 3-1 CI を使用する OpenVMS Cluster 構成


注意: CI OpenVMS Cluster システムにワークステーションを追加する場合,構成の中でイーサネットや FDDI などの別の種類のインターコネクトを利用しなければなりません。ワークステーションは通常,OpenVMS Cluster システムでサテライトとして構成されます ( 第 3.4.4 項 を参照)。

関連項目: 既存の CI OpenVMS Cluster システムにサテライトを追加する方法については, 第 8.2 節 を参照してください。

3.2.3 スター・カプラ

図 3-1 の CI 構成で,すべての CI ラインを接続するスター・カプラで障害が発生すると,システム全体がダウンするように見えます。しかし実際には,どのキャビネットにも 2 つのスター・カプラがあるため,スター・カプラで障害が発生しても,クラスタ全体がダウンすることはありません。

スター・カプラは電源障害の影響も受けません。それは,スター・カプラには電力が供給されるコンポーネントがなく,高周波パルス・トランスとして設計されているからです。スター・カプラは処理やバッファリングを行わないため, I/O スループットのボトルネックにもなりません。CI ケーブルの完全な速度で動作することができます。しかし,I/O が非常に大量に実行され,CI 帯域幅を越えるような場合には,複数のスター・カプラが必要になります。

3.3 DSSI でインターコネクトされた OpenVMS Cluster システム

DSSI (DIGITAL Storage Systems Interconnect) は,中程度の帯域幅のインターコネクトであり,Alpha ノードと VAX ノードがディスク/テープ周辺デバイスにアクセスするために使用できます。各周辺デバイスは,独自のコントローラと独自の MSCP サーバを内蔵した ISE (integrated storage element) であり, DSSI 上の他の ISE と並列に動作します。

3.3.1 設計

DSSI は主にディスクおよびテープ・ストレージへのアクセスを目的として設計されていますが,OpenVMS Cluster プロトコルを使用する少ない数のノードを接続するのにも優れた方法であることが実証されています。各 DSSI ポートは 1 つの DSSI バスに接続されます。CI の場合と同様に,複数の DSSI ポートを 1 つのノードに接続して,ノード間に冗長なパスを提供することができます。しかし,CI の場合と異なり,DSSI は冗長パスを提供しません。

3.3.2 可用性

ISE デバイスと DSSI バスを使用する OpenVMS Cluster 構成は,高い可用性,柔軟性,拡張性,簡単なシステム管理機能を備えています。

OpenVMS Cluster 構成内の DSSI ノードは,共通のシステム・ディスク,および DSSI バスに直接接続されているすべてのデータ・ディスクにアクセスでき,サテライトがこれらのディスクにアクセスするためのサービスも提供します。サテライト (およびターミナル・サーバを介して接続されているユーザ) は,ブート・サーバとして指定されているどのノードからもすべてのディスクにアクセスできます。1 台のブート・サーバで障害が発生しても,ディスク・アクセス機能は他のサーバにフェールオーバされるため,サテライトで稼動しているアプリケーションはそのまま続行できます。ターミナル・サーバなど,非インテリジェント・デバイスで稼動しているアプリケーションに割り込みがかかった場合,ターミナルのユーザは再度ログインして,ジョブを再起動できます。

3.3.3 ガイドライン

DSSI OpenVMS Cluster システムの構成に関する一般的なガイドラインをまとめると,以下のようになります。

関連項目: 同じ DSSI バス上に存在できる CPU と DSSI I/O アダプタの種類には,制約があります。DSSI OpenVMS Cluster システムの最新の構成情報については,サービス担当者に問い合わせるか,または『OpenVMS Cluster Software Software Product Description』 (SPD) を参照してください。

3.3.4 例

図 3-2 は,典型的な DSSI 構成を示しています。

図 3-2 DSSI OpenVMS Cluster 構成


3.4 LAN でインターコネクトされた OpenVMS Cluster システム

イーサネット (10/100 およびギガビット),FDDI および ATM インターコネクトは,業界標準のローカル・エリア・ネットワーク (LAN) であり,広範囲にわたるネットワーク・ユーザが広く利用しています。 OpenVMS Cluster システムが LAN で接続されている場合,クラスタ通信は,CI ポート機能をエミュレートするポート・ドライバ (PEDRIVER) によって実行されます。

3.4.1 設計

OpenVMS Cluster ソフトウェアは,DECnet,TCP/IP, SCS プロトコルで,イーサネット,ATM,および FDDI ポートとインターコネクトを同時に使用するように設計されています。この機能は,LAN データ・リンク・ソフトウェアがハードウェア・ポートを制御できるようにすることで実現されています。このソフトウェアは,クラスタ・プロトコルが単に共用ハードウェア・リソースの別のユーザになるように,マルチプレキシング機能を提供します。この概念については, 図 2-1 を参照してください。

3.4.2 クラスタ・グループ番号とクラスタ・パスワード

1 つの LAN で複数の LAN ベースの OpenVMS Cluster システムをサポートできます。各 OpenVMS Cluster は,固有のクラスタ・グループ番号とクラスタ・パスワードによって識別され,安全に保護されます。クラスタ・グループ番号とクラスタ・パスワードの詳細については, 第 2 章 を参照してください。

3.4.3 サーバ

LAN でインターコネクトされた OpenVMS Cluster コンピュータは一般に,サーバまたはサテライトとして構成されます。以下の表ではサーバについて説明しています。

サーバの種類 説明
MOP サーバ MOP (Maintenance Operations Protocol) を使用して, OpenVMS ブート・ドライバをサテライトにロードする。
ディスク・サーバ ローカルに接続されているディスクや,CI または DSSI で接続されているディスクを,LAN を介してサテライトから利用できるようにするには,MSCP サーバ・ソフトウェアを使用する。
テープ・サーバ ローカルに接続されているテープや,CI または DSSI で接続されているテープを,LAN を介してサテライト・ノードから利用できるようにするには,TMSCP サーバ・ソフトウェアを使用する。
ブート・サーバ MOP サーバとディスク・サーバの組み合わせであり, 1 つ以上の Alpha または VAX システム・ディスクをサービスする。ブート・サーバとディスク・サーバを使用することで,ユーザおよびアプリケーション・データ・ディスクはクラスタ全体から利用できるようになる。これらのサーバは, OpenVMS Cluster 内で最も強力なコンピュータでなければならず,クラスタ内でもっとも帯域幅の広い LAN アダプタを使用しなければならない。ブート・サーバは常に MSCP サーバ・ソフトウェアを実行しなければならない。

3.4.4 サテライト

サテライトとは,ローカル・システム・ディスクを搭載していないコンピュータです。一般に,サテライトはクラスタ・リソースを使用しますが,ディスク・サービス,テープ・サービス,バッチ処理の機能を提供することもできます。サテライトにローカル・ディスクが搭載されている場合,ページングとスワップのためにこれらのローカル・ディスクを使用することで,性能を向上できます。

サテライトは,システム・ディスクをサービスするローカルのブート・サーバ (または MOP サーバとディスク・サーバ) からブートされます。サテライトのブートでの MOP サーバおよびディスク・サーバの機能については, 第 3.4.5 項 を参照してください。

注意: Alpha システム・ディスクは,VAX コンピュータにデータ・ディスクとしてマウントすることができ,MOP が適切に設定されていれば,Alpha サテライトのブートに使用できます。同様に,VAX システム・ディスクは,Alpha コンピュータにマウントすることができ,MOP が正しく設定されていれば, VAX サテライトのブートに使用できます。

関連項目: アーキテクチャ間でのブートについては, 第 10.5 節 を参照してください。

3.4.5 サテライトのブート

サテライトがオペレーティング・システムのロードを要求すると,適切な OpenVMS Alpha または OpenVMS VAX オペレーティング・システムの MOP サーバがブートストラップ・イメージをサテライトに送信します。その後,サテライトはディスク・サーバからオペレーティング・システムの残りの部分をロードし,クラスタに参加できるようになります。ブート時の一連の動作については, 表 3-1 を参照してください。

表 3-1 サテライト・ブート・プロセス
ステップ 動作 説明
1 サテライトが MOP サービスを要求する。 これは,サテライトがネットワークに送信する最初のブート要求である。 MOP サービスが有効に設定されていて,データベースに特定のサテライト・ノードの LAN アドレスが格納されているノードはすべて,そのサテライトの MOP サーバになることができる。
2 MOP サーバが Alpha または VAX システムをロードする。 ++MOP サーバは, SYS$SYSTEM:APB.EXE プログラムと必要なパラメータをダウンライン・ロードすることで,Alpha サテライト・ブートに応答する。

+MOP サーバは, SYS$SHARE:NISCS_LOAD.EXE プログラムと必要なパラメータをダウンライン・ロードすることで,VAX サテライト・ブート要求に応答する。

Alpha コンピュータと VAX コンピュータの場合,以下のパラメータが含まれる。

  • システム・ディスク名

  • サテライトのルート番号

3 サテライトがシステム・ディスクおよびルートから追加パラメータを検索する。 サテライトは, SCSSYSTEMID,SCSNODE,NISCS_CONV_BOOT などの OpenVMS Cluster システム・パラメータを検索する。また,クラスタ・グループ・コードとパスワードも検索する。
4 サテライトがロード・プログラムを実行する。 このプログラムは,サテライト・システム・ディスクのディスク・サーバに対して SCS 接続を確立し, SYSBOOT.EXE プログラムをロードする。


+VAX 固有
++Alpha 固有

3.4.6 例

図 3-3 は,1 台の Alpha サーバ・ノードと 1 つの Alpha システム・ディスクを含み,LAN でインターコネクトされた OpenVMS Cluster システムを示しています。

注意: この構成に VAX サテライトを含むには, 第 10.5 節 の説明に従って, VAX システム・ディスクを Alpha サーバ・ノードで構成します。

図 3-3 1 台のサーバ・ノードと 1 つのシステム・ディスクを含む LAN OpenVMS Cluster システム


図 3-3 で,サーバ・ノード (およびそのシステム・ディスク) で障害が発生すると,クラスタ全体がダウンします。サーバ・ノードで障害が発生すると,サテライト・ノードは,システム・ディスクも含めて,どの共用ディスクにもアクセスできなくなります。一部のサテライト・ノードには,ローカルにディスクが接続されていることに注意してください。これらのディスクの一部をシステム・ディスクに変換すれば,サテライト・ノードは独自のローカル・システム・ディスクからブートできます。

図 3-4 は,LAN および Fibre Channel インターコネクトを使用している OpenVMS Cluster システムの例を示しています。

図 3-4 LAN および Fibre Channel OpenVMS Cluster システム:構成例


LAN は,A ノードおよび B ノードと,C ノードおよび D ノードを接続して,1 つの OpenVMS Cluster システムを形成します。

図 3-4 では,重要なデータ・ストレージ・デバイスを同一の状態に維持するために (シャドウ・セット A と B),Volume Shadowing for OpenVMS が使用されています。あるサイトでシャドウイングされているディスクにデータが書き込まれると,そのデータはもう 1 つのサイトでも書き込まれます。しかし,この構成では,クラスタ・インターコネクトを介してシャドウ・セットにサービスするために MSCP サーバを使用しなければならないため,データの高可用性という利点は実現されても,オーバーヘッドのために性能が犠牲になります。

図 3-5 では,ブリッジからサーバ CPU ノードまで,イーサネットを使用して FDDI を構成する方法を示しています。この構成では,全体的なスループットを向上できます。イーサネット・セグメントの利用負荷が高い OpenVMS Cluster システムでは,イーサネット・バックボーンをより高速な LAN に変更することで,イーサネットによる性能のボトルネックを防止できます。

図 3-5 OpenVMS Cluster システムでの FDDI とイーサネットの組み合わせ


コメント:


前へ 次へ 目次 索引