JP1/IM(Managerクラスタ)の構築

node1: mmm121 CentOS7 JP1/Base JP1/IM - Manager
node2: mmm122 CentOS7 JP1/Base JP1/IM - Manager
node3(iSCSItarget): mmm123 CentOS7 JP1/Base
管理サーバ: mmm161 Windows Server2012R2 JP1/IM - View


マニュアル:
JP1 Version 12 統合管理 基本ガイド
JP1 Version 12 JP1/Integrated Management 2 - Manager 構築ガイド
JP1 Version 12 JP1/Base 運用ガイド


論理ホスト名 mmm120
実行系物理ホスト名 mmm121
待機系物理ホスト名 mmm122

前提:
CLUSTERPROインストール済
論理ホスト名と物理ホスト名が/etc/hostsに設定済

-------------------------------------------------------

構築作業の流れ

【1】リリースノート確認[node1,node2,node3]

【2】JP1/IM - Managerのセットアップ


【2.1】実行系 JP1/BASEインストール[node1]
【2.2】待機系 JP1/BASEインストール[node2]

【2.3】実行系 JP1/IM Managerインストール[node1]
【2.4】待機系 JP1/IM Managerインストール[node2]


【2.5】実行系 JP1/BASE物理ホストのセットアップ[node1]
【2.6】実行系 JP1/BASE論理ホストのセットアップ[node1]

【2.7】待機系 JP1/BASE物理ホストのセットアップ[node2]


【2.8】実行系 JP1/IM Manager物理ホストのセットアップ[node1]
【2.9】実行系 JP1/IM Manager論理ホストのセットアップ[node1]

【2.10】待機系 JP1/IM Manager物理ホストのセットアップ [node2]

【2.11】共通定義情報のコピー[node1,node2]

【2.12】待機系 JP1/BASE論理ホストのセットアップ [node2]
【2.13】待機系 JP1/IM Manager論理ホストのセットアップ [node2]

 

【2.14】インテリジェント統合管理基盤の設定[node1]

【2.15】クラスタソフトへの登録[管理サーバ]


【3】JP1/BASEのセットアップ[node3]


【4】JP1/IM - Viewのセットアップ[管理サーバ]

【5】動作確認

-------------------------------------------------------

【1】リリースノート確認[node1,node2,node3]

JP1/Baseリリースノート (4)本製品をご使用いただくには,以下に示すRPMパッケージの適用が必要となります。

glibc-2.17-xx.el7.i686.rpm
・libstdc++-4.8.x-xx.el7.i686.rpm
・ncompress-4.2.4.4-xx.el7.x86_64.rpm
・ncurses-5.9-13.xx.el7.x86_64.rpm
・psmisc-22.20-x.el7.x86_64.rpmglibc-devel-2.17-xx.el7.i686.rpm
glibc-devel-2.17-xx.el7.x86_64.rpm


yum update -y

rpm -qa | grep glibc
rpm -qa | grep libstdc
rpm -qa | grep ncompress
rpm -qa | grep ncurses
rpm -qa | grep psmisc


yum -y install glibc.i686
yum -y install glibc-devel.i686
yum -y install glibc-devel.x86_64
yum -y install libstdc++.i686

JP1/Integrated Management 2 - Managerリリースノート (注8) 本製品をご使用になる前に,以下のパッケージを適用してください。
glibc (i686)
glibc (x86_64)
glibc-common (x86_64)
glibc-devel (i686)
glibc-devel (x86_64)
glibc-headers (x86_64)
glibc-utils (x86_64)
・libstdc++ (i686)
・libstdc++-4 (x86_64)
・ncompress (x86_64)
・ncurses (x86_64)
・psmisc (x86_64)
・net-tools (x86_64)
・sysstat (x86_64)
・libgcc (i686)
・lksctp-tools (x86_64)
・tar (x86_64)
gdb (x86_64)
gzip (x86_64)
・nscd (x86_64)
tcsh (x86_64)
・nss-softokn-freebl (i686)

rpm -qa | grep glibc
rpm -qa | grep libstdc
rpm -qa | grep net-tools
rpm -qa | grep sysstat
rpm -qa | grep libgcc
rpm -qa | grep lksctp-tools
rpm -qa | grep tar
rpm -qa | grep gdb
rpm -qa | grep gzip
rpm -qa | grep nscd
rpm -qa | grep tcsh
rpm -qa | grep nss-softokn-freebl

yum -y install glibc-utils
yum -y install nscd


【2】JP1/IM - Managerのセットアップ


【2.1】実行系 JP1/BASEインストール[node1]
export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1IM_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力

【2.2】待機系 JP1/BASEインストール[node2]
export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1IM_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力

【2.3】実行系 JP1/IM Managerインストール[node1]
export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1IM_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【2.4】待機系 JP1/IM Managerインストール[node2]

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1IM_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt


【2.5】実行系 JP1/BASE物理ホストのセットアップ[node1]
→作業なし

【2.6】実行系 JP1/BASE論理ホストのセットアップ[node1]


mkdir -p /mnt/sdc2/im

/opt/jp1base/bin/jp1base_setup_cluster -h mmm120 -d /mnt/sdc2/im -a mmm120 -s -v


--サービスの起動を確認する

 

----JP1/BASE(論理ホスト)のサービス起動確認
/opt/jp1base/bin/jbs_spmd_status -h mmm120


----JP1/BASE(論理ホスト)のサービス起動
/etc/opt/jp1base/jbs_start.cluster mmm120

---JP1/BASE(論理ホスト)のサービス停止
/etc/opt/jp1base/jbs_stop.cluster mmm120

 


--論理ホストのユーザー管理機能を設定する。
※JP1/BASEの論理ホストを起動しておく必要がある

(1)JP1ユーザーを登録する

----JP1ユーザーの登録
/opt/jp1base/bin/jbsadduser -h mmm120 jp1user


----JP1ユーザーの確認
/opt/jp1base/bin/jbslistuser -h mmm120


(2)ユーザーマッピングの情報を共通定義情報に登録する。

vim /mnt/sdc2/im/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap -h mmm120

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap -h mmm120

(3)JP1ユーザーの操作権限を設定する

vim /mnt/sdc2/im/jp1base/conf/user_acl/JP1_UserLevel

jp1user:*=JP1_AJS_Admin,JP1_JPQ_Admin,JP1_AJSCF_Admin,JP1_HPS_Admin,JP1_PFM_Admin,JP1_Console_Admin,JP1_CF_Admin,JP1_CM_Admin,JP1_Rule_Admin,JP1_ITSLM_Admin,JP1_Audit_Admin,JP1_DM_Admin,JP1_SSO_Admin,Cosminexus_vMNG_Admin,HCS_UserMng_Admin,HCS_HDvM_Admin,HCS_HRpM_Admin,HCS_HTSM_Admin,HCS_HSNM2_Modify,HCS_HFSM_Admin,HCS_HCSM_Admin,HCS_HGLM_Admin,HCS_HTnM_Admin,JP1_AO_Admin,JP1_IMNP_Admin,UCNP_Admin,HNP_Admin,JP1_Analytics_Admin,JP1_ITDM_Admin,ISCF_Admin

----操作権限の設定
/opt/jp1base/bin/jbsaclreload -h mmm120

----操作権限の確認
/opt/jp1base/bin/jbslistacl -h mmm120

 

 

【2.7】待機系 JP1/BASE物理ホストのセットアップ[node2]

→作業なし


【2.8】実行系 JP1/IM Manager物理ホストのセットアップ[node1]

→作業なし


【2.9】実行系 JP1/IM Manager論理ホストのセットアップ[node1]

 
(3) JP1/IM - Manager(セントラルコンソール)の設定

-- 1.JP1/IM - Manager(セントラルコンソール)の論理ホストのセットアップコマンドを実行する。

/opt/jp1cons/bin/jp1cc_setup_cluster -h mmm120 -d /mnt/sdc2/im


-- 2.自動アクションの再実行の設定をする。

/opt/jp1cons/bin/jcoimdef -r OFF -h mmm120

(4) JP1/IM - Manager(統合監視DB)の設定(任意)

-- 1.クラスタセットアップ情報ファイルを編集する。

mkdir -p /root/imdb
chown root:root /root/imdb
chmod 755 /root/imdb


vim /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf

:set paste

# All Rights Reserved. Copyright (C) 2009, Hitachi, Ltd.
# Licensed Material of Hitachi, Ltd.

#IM DATABASE SERVICE - Logical Host Number
LOGICALHOSTNUMBER=1

#IM DATABASE SERVICE - Logical Host Name
LOGICALHOSTNAME=mmm120

#IM DATABASE SERVICE - DB Size
IMDBSIZE=S

#IM DATABASE SERVICE - Port Number
IMDBPORT=20750

#IM DATABASE SERVICE - Data Storage Directory (Local Work Area)
IMDBDIR=/root/imdb

#IM DATABASE SERVICE - Data Storage Directory (Shared Data Area)
SHAREDBDIR=/mnt/sdc2/im

#IM DATABASE SERVICE - Online Host Name
ONLINEHOSTNAME=mmm121

#IM DATABASE SERVICE - DB Install Directory
IMDBENVDIR=/var/opt/jp1imm/dbms


-- 2.jcodbsetupコマンドを実行し,統合監視DBを作成する。

/opt/jp1cons/bin/jcodbsetup -f /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf -h mmm120 -c online -q


/opt/jp1cons/bin/jcoimdef -db ON -h mmm120

 

 


(5) JP1/IM - Manager(IM構成管理DB)の設定(任意)

/opt/jp1imm/bin/imdb/jcfdbsetup -f /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf -h mmm120 -c online -q

/opt/jp1cons/bin/jcoimdef -cf ON -h mmm120

(6) JP1/IM - Manager(IM構成管理)の設定(任意)

/opt/jp1imm/bin/imcf/jp1cf_setup_cluster -h mmm120 -d /mnt/sdc2/im


(7) JP1/IM - Manager(セントラルスコープ)の設定(任意)

/opt/jp1scope/bin/jp1cs_setup_cluster -h mmm120 -d /mnt/sdc2/im

 

【2.10】待機系 JP1/IM Manager物理ホストのセットアップ [node2]

→作業なし


【2.11】共通定義情報のコピー[node1,node2]

実行系
/opt/jp1base/bin/jbsgetcnf -h mmm120 > /root/jbscnf.txt

scp /root/jbscnf.txt mmm122:/root

待機系
/opt/jp1base/bin/jbssetcnf /root/jbscnf.txt


【2.12】待機系 JP1/BASE論理ホストのセットアップ [node2]


/opt/jp1base/bin/jp1base_setup_cluster -h mmm120


【2.13】待機系 JP1/IM Manager論理ホストのセットアップ [node2]

 

(3) JP1/IM - Manager(セントラルコンソール)の設定

/opt/jp1cons/bin/jp1cc_setup_cluster -h mmm120


(4) JP1/IM - Manager(統合監視DB)の設定(任意)

--実行系サーバでIMデータベースをセットアップした場合は,実行系サーバで使用したクラスタセットアップ情報ファイルを待機系サーバにコピーする

scp mmm121:/etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf /etc/opt/jp1imm/conf/imdb/setup/


mkdir -p /root/imdb
chown root:root /root/imdb
chmod 755 /root/imdb


/opt/jp1cons/bin/jcodbsetup -f /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf -h mmm120 -c standby -q

 

 

(5) JP1/IM - Manager(IM構成管理DB)の設定(任意)

/opt/jp1imm/bin/imdb/jcfdbsetup -f /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf -h mmm120 -c standby -q


(6) JP1/IM - Manager(IM構成管理)の設定(任意)

/opt/jp1imm/bin/imcf/jp1cf_setup_cluster -h mmm120

(7) JP1/IM - Manager(セントラルスコープ)の設定(任意)

/opt/jp1scope/bin/jp1cs_setup_cluster -h mmm120

 

【2.14】インテリジェント統合管理基盤の設定[node1]

 

 


1.JP1/IM - Managerを停止

/etc/opt/jp1cons/jco_stop.cluster mmm120
/opt/jp1cons/bin/jco_spmd_status -h mmm120

2.定義ファイルのディレクトリをコピーする

cp -a /etc/opt/jp1imm/conf/imdd /mnt/sdc2/im/jp1imm/conf/

3.プラグインディレクトリをコピーする

cp -a /etc/opt/jp1imm/plugin /mnt/sdc2/im/jp1imm/

4.データファイル出力先ディレクトリを作成する

mkdir -p /mnt/sdc2/im/jp1imm/data/imdd/

5.クラスタセットアップ情報ファイル(jimdbclustersetupinfo.conf)を開きLOGICALHOSTNUMBERとIMDBPORTの値を確認する

cat /etc/opt/jp1imm/conf/imdb/setup/jimdbclustersetupinfo.conf

6.インテリジェント統合管理基盤定義ファイル(imdd.properties)を開き,確認した値を設定

vim /mnt/sdc2/im/jp1imm/conf/imdd/imdd.properties

 

jp1.im.db.DEFAULT.logicalHostNum=1
jp1.im.db.DEFAULT.portNo=20750

7.インテリジェント統合管理基盤の有効化

/opt/jp1cons/bin/jcoimdef -dd ON -hostmap ON -h mmm120

 


8.システム構成情報の設定

8.1.システムノード定義ファイル(imdd_systemnode.conf)で,システムの階層構造を定義する

cat /mnt/sdc2/im/jp1imm/conf/imdd/imdd_systemnode.conf


8.2.IM管理ノードカテゴリ名称定義ファイル(imdd_category_name.conf)で,収集したデータをサンバーストまたはツリー形式で表示する際の,管理グループのIM管理ノード名を定義する

cat /mnt/sdc2/im/jp1imm/conf/imdd/imdd_category_name.conf


8.3.ホスト名定義ファイル(imdd_host_name.conf)で,エイリアス名と実ホスト名のマッピングを定義する

cat /mnt/sdc2/im/jp1imm/conf/imdd/imdd_host_name.conf


8.4.JP1/IM-ManagerおよびJP1/IMデータベースを起動する


/etc/opt/jp1cons/jco_start.cluster mmm120
/opt/jp1cons/bin/jco_spmd_status -h mmm120


8.5.jddsetaccessuserコマンドを実行して,システム構成情報を取得する際に,監視対象製品にアクセスするユーザーを設定する

/opt/jp1imm/bin/imdd/jddsetaccessuser -id jp1admin -pw jp1admin -h mmm120

 


8.6.構成取得対象ホスト定義ファイル(imdd_target_host.conf)で,連携製品,および連携製品の監視オブジェクトの構成情報を取得するホスト名を定義する

cat /mnt/sdc2/im/jp1imm/conf/imdd/imdd_target_host.conf

8.7.jddcreatetreeコマンドを実行して,IM管理ノード関連ファイルを生成する

mkdir -p /mnt/sdc2/im/imdd
/opt/jp1imm/bin/imdd/jddcreatetree -o /mnt/sdc2/im/imdd -h mmm120


8.8.IM管理ノードリンク定義ファイル(imdd_nodeLink_def.conf)で,IM管理ノード間の関連を定義する

cat /mnt/sdc2/im/jp1imm/conf/imdd/imdd_nodeLink_def.conf

8.9.jddupdatetreeコマンドを実行して,定義内容をインテリジェント統合管理サーバに反映する

/opt/jp1imm/bin/imdd/jddupdatetree -i /mnt/sdc2/im/imdd -h mmm120

 

9.接続確認

http://192.168.137.120:20703/login

 

【2.15】クラスタソフトへの登録[管理サーバ]


-- CLUSTERPRO へのサービスの組み込み[管理サーバ]

タイプ: execute resource
名前: im

依存するリソース: disk1,fip1


--start.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* start.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1cons/jco_start.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1cons/jco_start.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0


--stop.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* stop.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1cons/jco_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1cons/jco_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0

 

 

-- 監視リソースの設定[管理サーバ]

タイプ:custom monitor
名前: im_mon

監視タイプ:同期

--genw.sh


#! /bin/sh
#***********************************************
#* genw.sh *
#***********************************************

ulimit -s unlimited

/opt/jp1cons/bin/jco_spmd_status -h mmm120

if [ $? -ne 0 ]; then
exit 1
fi

exit 0


回復動作: failover1に対してフェイルオーバ実行


【3】JP1/BASEのセットアップ[node3]

--2.5.1 前提製品のインストール(Linuxの場合)
(1) JP1/Baseをインストールする(Linuxの場合)

export LANG=ja_JP.UTF-8

/bin/mount -t iso9660 -r JP1IM_1200L01_P1.iso /mnt

/mnt/linux/setup /mnt

最後のYは小文字で入力

cd /etc/opt/jp1base
cp -p jbs_start.model jbs_start

 

----JP1/Baseステータス確認
/opt/jp1base/bin/jbs_spmd_status
/opt/jp1base/bin/jevstat


----JP1/Base起動
/opt/jp1base/bin/jbs_spmd
/opt/jp1base/bin/jevstart

----JP1/Base停止
/opt/jp1base/bin/jbs_spmd_stop
/opt/jp1base/bin/jevstop

 


【4】JP1/IM - Viewのセットアップ[管理サーバ]
--2.4.3 JP1/IMのインストール(Windowsの場合)
(2) JP1/IM - Viewをインストールする(Windows限定)
--2.7 JP1/IM - ViewでJP1/IM - Managerにログインする

【5】動作確認

--3.1 IM構成管理とは
--3.1.1 IM構成管理にホストを登録する


「構成管理」を起動
[IM構成管理]画面の[ホスト一覧]タブから,[編集][ホスト登録]を選択


--3.1.2 IM構成管理でシステムの階層構成を定義する

[IM構成管理]画面から[編集][エージェント構成編集]を選択
[エージェント構成編集]画面の,[更新権取得]チェックボックスをチェック
[エージェント構成編集]画面の[操作][エージェント構成の反映]を選択

--3.1.3 IM構成管理で正しくシステムが構築できたか確認する

--3.2 JP1/IM - Viewから監視対象のホストに対してコマンドを実行するための設定について
--3.2.1 ユーザーマッピングの設定

vim /etc/opt/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap


--3.2.2 コマンドを実行できるか確認する

[イベントコンソール]画面のツールバーから[コマンド実行]ボタンをクリックして,[コマンド実行]画面を表示

--3.3 エージェントからマネージャーへのイベント転送のカスタマイズについて
--3.3.1 IM構成管理での転送フィルターの設定

to-upper

E.SEVERITY IN Warning Error Critical Alert Emergency Information

end-to

--3.3.2 転送フィルターが正しく設定できているか確認する


/opt/jp1base/bin/jevsend -e SEVERITY=Information -m test

--3.4 イベント変換機能を使用したログファイルの監視について

--3.4.1 JP1/Baseのログファイルトラップとは
(2) 監視したいホストにIM構成管理でログファイルトラップ動作定義ファイルを作成する

FILETYPE=SEQ

RECTYPE=VAR '\n'

ACTDEF=<Error>00000111 "System Error"

(3) 監視したいホストのログファイルトラップをIM構成管理で起動する

----ログファイルトラップ管理デーモンのステータス確認
/opt/jp1base/bin/jevlogdstat

----ログファイルトラップ管理デーモンの起動
/opt/jp1base/bin/jevlogdstart

----ログファイルトラップ管理デーモンの停止
/opt/jp1base/bin/jevlogdstop

 

--3.4.2 ログファイルトラップでレコードをイベントに変換できるか確認する

logger "System Error"

--5. システム障害の検知および調査
--5.1 特定のイベントが発行されたら自動でコマンドを実行する方法
--5.1.1 イベント発行時に自動アクション機能でコマンドを実行する
--5.1.2 自動アクションに設定したコマンドが実行されたか確認する

 

JP1/AJS(Agentクラスタ)の構築

node1: mmm121 CentOS7 JP1/Base JP1/AJS3 - Agent
node2: mmm122 CentOS7 JP1/Base JP1/AJS3 - Agent
node3(iSCSItarget): mmm123 CentOS7 JP1/Base JP1/AJS3 - Manager
管理サーバ: mmm161 Windows Server2012R2 JP1/AJS3 - View

マニュアル:
JP1 Version 12 JP1/Base 運用ガイド
JP1 Version 12 JP1/Automatic Job Management System 3 構築ガイド

 

論理ホスト名 mmm120
実行系物理ホスト名 mmm121
待機系物理ホスト名 mmm122

前提:
CLUSTERPROインストール済
論理ホスト名と物理ホスト名が/etc/hostsに設定済


-------------------------------------------------------

構築作業の流れ


【1】リリースノート確認

【2】JP1/AJS3 - Managerのセットアップ

【3】JP1/AJS3 - Agentのセットアップ

【3.1】実行系 JP1/BASEインストール
【3.2】待機系 JP1/BASEインストール

【3.3】実行系 JP1/AJS3 Agentインストール
【3.4】待機系 JP1/AJS3 Agentインストール


【3.5】実行系 JP1/BASE物理ホストのセットアップ
【3.6】実行系 JP1/BASE論理ホストのセットアップ

【3.7】待機系 JP1/BASE物理ホストのセットアップ


【3.8】実行系 JP1/AJS3 Agent物理ホストのセットアップ
【3.9】実行系 JP1/AJS3 Agent論理ホストのセットアップ

【3.10】待機系 JP1/AJS3 Agent物理ホストのセットアップ

【3.11】共通定義情報のコピー

【3.12】待機系 JP1/BASE論理ホストのセットアップ
【3.13】待機系 JP1/AJS3 Agent論理ホストのセットアップ


【3.14】クラスタソフトへの登録


【4】JP1/AJS3 - Viewのセットアップ

【5】動作確認

-------------------------------------------------------


【1】リリースノート確認

JP1/Baseリリースノート (4)本製品をご使用いただくには,以下に示すRPMパッケージの適用が必要となります。

glibc-2.17-xx.el7.i686.rpm
・libstdc++-4.8.x-xx.el7.i686.rpm
・ncompress-4.2.4.4-xx.el7.x86_64.rpm
・ncurses-5.9-13.xx.el7.x86_64.rpm
・psmisc-22.20-x.el7.x86_64.rpm
glibc-devel-2.17-xx.el7.i686.rpm
glibc-devel-2.17-xx.el7.x86_64.rpm

JP1/Automatic Job Management System 3 - Managerリリースノート

・net-tools (x86_64)
・sysstat (x86_64)


yum update -y

rpm -qa | grep glibc
rpm -qa | grep libstdc
rpm -qa | grep ncompress
rpm -qa | grep ncurses
rpm -qa | grep psmisc

rpm -qa | grep net-tools
rpm -qa | grep sysstat

yum -y install glibc.i686
yum -y install glibc-devel.i686
yum -y install glibc-devel.x86_64
yum -y install libstdc++.i686


【2】JP1/AJS3 - Managerのセットアップ

--2.3 マネージャーホストのインストールとセットアップ
--2.3.1 JP1/BASEをインストールする

export LANG=ja_JP.UTF-8

/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt

/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

cd /etc/opt/jp1base
cp -p jbs_start.model jbs_start

--2.3.2 JP1/AJS3 - Managerをインストールする

export LANG=ja_JP.UTF-8

/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt

/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

cp -p /etc/opt/jp1ajs2/jajs_start /etc/opt/jp1ajs2/jajs_start.org
vim /etc/opt/jp1ajs2/jajs_start

: # /opt/jp1ajs2/bin/jajs_spmd >/dev/null 2>/dev/null

/opt/jp1ajs2/bin/jajs_spmd >/dev/null 2>/dev/null

diff /etc/opt/jp1ajs2/jajs_start /etc/opt/jp1ajs2/jajs_start.org

 


--2.3.3 サービスの起動を確認する
JP1/Baseの起動を確認するには,jbs_spmd_statusコマンド,およびjevstatコマンドを実行
JP1/AJS3の起動を確認するには,jajs_spmd_statusコマンドを実行


----JP1/Baseステータス確認
/opt/jp1base/bin/jbs_spmd_status
/opt/jp1base/bin/jevstat

----JP1/AJS3ステータス確認
/opt/jp1ajs2/bin/jajs_spmd_status


----JP1/Base起動
/opt/jp1base/bin/jbs_spmd
/opt/jp1base/bin/jevstart

----JP1/Base停止
/opt/jp1base/bin/jbs_spmd_stop
/opt/jp1base/bin/jevstop


----JP1/AJS3起動
/opt/jp1ajs2/bin/jajs_spmd

----JP1/AJS3停止
/opt/jp1ajs2/bin/jajs_spmd_stop


※JP1/AJS3の起動や停止には少し時間がかかる


--2.3.4 JP1/BASEをセットアップする
(1) 認証サーバを設定する
※hostnameコマンド実行時に表示されるホスト名を使用

----認証サーバの設定
/opt/jp1base/bin/jbssetusrsrv mmm123

----認証サーバの確認
/opt/jp1base/bin/jbslistsrv


(2) 認証サーバへJP1ユーザーを登録する

----JP1ユーザーの登録
/opt/jp1base/bin/jbsadduser jp1user


----JP1ユーザーの確認
/opt/jp1base/bin/jbslistuser


(3) JP1ユーザーの操作権限を設定する

vim /etc/opt/jp1base/conf/user_acl/JP1_UserLevel

jp1user:*=JP1_AJS_Admin,JP1_JPQ_Admin,JP1_AJSCF_Admin,JP1_HPS_Admin,JP1_PFM_Admin,JP1_Console_Admin,JP1_CF_Admin,JP1_CM_Admin,JP1_Rule_Admin,JP1_ITSLM_Admin,JP1_Audit_Admin,JP1_DM_Admin,JP1_SSO_Admin,Cosminexus_vMNG_Admin,HCS_UserMng_Admin,HCS_HDvM_Admin,HCS_HRpM_Admin,HCS_HTSM_Admin,HCS_HSNM2_Modify,HCS_HFSM_Admin,HCS_HCSM_Admin,HCS_HGLM_Admin,HCS_HTnM_Admin,JP1_AO_Admin,JP1_IMNP_Admin,UCNP_Admin,HNP_Admin,JP1_Analytics_Admin,JP1_ITDM_Admin,ISCF_Admin

----操作権限の設定
/opt/jp1base/bin/jbsaclreload

----操作権限の確認
/opt/jp1base/bin/jbslistacl

(4) ユーザーマッピングを設定する

vim /etc/opt/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap

--2.3.5 JP1/AJS3 - Managerをセットアップする

----実行エージェントの追加

export JP1_USERNAME=jp1admin

/opt/jp1ajs2/bin/ajsagtadd -a mmm120 -c 00:00-00:00=5

----実行エージェントの確認
/opt/jp1ajs2/bin/ajsagtshow -l


【3】JP1/AJS3 - Agentのセットアップ

【3.1】実行系 JP1/BASEインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【3.2】待機系 JP1/BASEインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【3.3】実行系 JP1/AJS3 Agentインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【3.4】待機系 JP1/AJS3 Agentインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【3.5】実行系 JP1/BASE物理ホストのセットアップ

→作業なし

【3.6】実行系 JP1/BASE論理ホストのセットアップ

--論理ホストを設定する。

mkdir -p /mnt/sdc2/jp1ajs

/opt/jp1base/bin/jp1base_setup_cluster -h mmm120 -d /mnt/sdc2/jp1ajs -a mmm123 -v

--JP1/BASE(論理ホスト)起動


----JP1/BASE(論理ホスト)のサービス起動確認
/opt/jp1base/bin/jbs_spmd_status -h mmm120


----JP1/BASE(論理ホスト)のサービス起動
/etc/opt/jp1base/jbs_start.cluster mmm120

---JP1/BASE(論理ホスト)のサービス停止
/etc/opt/jp1base/jbs_stop.cluster mmm120


--ユーザーマッピングの情報を共通定義情報に登録する。

vim /mnt/sdc2/jp1ajs/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap -h mmm120

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap -h mmm120

 

【3.7】待機系 JP1/BASE物理ホストのセットアップ

→作業なし

【3.8】実行系 JP1/AJS3 Agent物理ホストのセットアップ

→作業なし

【3.9】実行系 JP1/AJS3 Agent論理ホストのセットアップ

--論理ホストの設定


/opt/jp1ajs2/bin/jajs_setup_cluster -h mmm120 -d /mnt/sdc2/jp1ajs

【3.10】待機系 JP1/AJS3 Agent物理ホストのセットアップ

→作業なし

【3.11】共通定義情報のコピー

実行系
/opt/jp1base/bin/jbsgetcnf -h mmm120 > /root/jbscnf.txt

scp /root/jbscnf.txt mmm122:/root

待機系
/opt/jp1base/bin/jbssetcnf /root/jbscnf.txt


【3.12】待機系 JP1/BASE論理ホストのセットアップ

/opt/jp1base/bin/jp1base_setup_cluster -h mmm120

【3.13】待機系 JP1/AJS3 Agent論理ホストのセットアップ

/opt/jp1ajs2/bin/jajs_setup_cluster -h mmm120


【3.14】クラスタソフトへの登録

-- CLUSTERPRO へのサービスの組み込み[管理サーバ]

タイプ: execute resource
名前: jp1ajs

依存するリソース: disk1,fip1


--start.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* start.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1ajs2/jajs_start.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1ajs2/jajs_start.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0


--stop.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* stop.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1ajs2/jajs_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1ajs2/jajs_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0

 

 

-- 監視リソースの設定[管理サーバ]

タイプ:custom monitor
名前: jp1ajs_mon

監視タイプ:同期

--genw.sh


#! /bin/sh
#***********************************************
#* genw.sh *
#***********************************************

ulimit -s unlimited

/opt/jp1ajs2/bin/jajs_spmd_status -h mmm120

if [ $? -ne 0 ]; then
exit 1
fi

exit 0


回復動作: failover1に対してフェイルオーバ実行

 

 

【4】JP1/AJS3 - Viewのセットアップ
--1.5 JP1/AJS3 - Viewホストのインストールとセットアップ
--1.5.1 JP1/AJS3 - Viewをインストールする

【5】動作確認
--4. 業務の定義
--4.1 ジョブグループを定義する
--4.2 ジョブネットを定義する
--4.3 ジョブを定義する
--4.4 運用スケジュールの定義
--4.4.1 ジョブグループのカレンダー情報を定義する
--4.4.2 ジョブネットのスケジュールルールを定義する
--5. 業務の実行
--5.1 ジョブネットを実行する

 

JP1/AJS(Managerクラスタ)の構築

node1: mmm121 CentOS7 JP1/Base JP1/AJS3 - Manager
node2: mmm122 CentOS7 JP1/Base JP1/AJS3 - Manager
node3(iSCSItarget): mmm123 CentOS7 JP1/Base JP1/AJS3 - Agent
管理サーバ: mmm161 Windows Server2012R2 JP1/AJS3 - View

マニュアル:
JP1 Version 12 JP1/Base 運用ガイド
JP1 Version 12 JP1/Automatic Job Management System 3 構築ガイド

 

論理ホスト名 mmm120
実行系物理ホスト名 mmm121
待機系物理ホスト名 mmm122

前提:
CLUSTERPROインストール済
論理ホスト名と物理ホスト名が/etc/hostsに設定済

-------------------------------------------------------

構築作業の流れ


【1】リリースノート確認

【2】JP1/AJS3 - Managerのセットアップ


【2.1】実行系 JP1/BASEインストール
【2.2】待機系 JP1/BASEインストール

【2.3】実行系 JP1/AJS3 Managerインストール
【2.4】待機系 JP1/AJS3 Managerインストール


【2.5】実行系 JP1/BASE物理ホストのセットアップ
【2.6】実行系 JP1/BASE論理ホストのセットアップ

【2.7】待機系 JP1/BASE物理ホストのセットアップ


【2.8】実行系 JP1/AJS3 Manager物理ホストのセットアップ
【2.9】実行系 JP1/AJS3 Manager論理ホストのセットアップ

【2.10】待機系 JP1/AJS3 Manager物理ホストのセットアップ

【2.11】共通定義情報のコピー

【2.12】待機系 JP1/BASE論理ホストのセットアップ
【2.13】待機系 JP1/AJS3 Manager論理ホストのセットアップ


【2.14】クラスタソフトへの登録


【3】JP1/AJS3 - Agentのセットアップ
【4】JP1/AJS3 - Viewのセットアップ

【5】動作確認

-------------------------------------------------------

【1】リリースノート確認

JP1/Baseリリースノート (4)本製品をご使用いただくには,以下に示すRPMパッケージの適用が必要となります。

glibc-2.17-xx.el7.i686.rpm
・libstdc++-4.8.x-xx.el7.i686.rpm
・ncompress-4.2.4.4-xx.el7.x86_64.rpm
・ncurses-5.9-13.xx.el7.x86_64.rpm
・psmisc-22.20-x.el7.x86_64.rpm

glibc-devel-2.17-xx.el7.i686.rpm
glibc-devel-2.17-xx.el7.x86_64.rpm

JP1/Automatic Job Management System 3 - Managerリリースノート

・net-tools (x86_64)
・sysstat (x86_64)


yum update -y

rpm -qa | grep glibc
rpm -qa | grep libstdc
rpm -qa | grep ncompress
rpm -qa | grep ncurses
rpm -qa | grep psmisc

rpm -qa | grep net-tools
rpm -qa | grep sysstat

yum -y install glibc.i686
yum -y install glibc-devel.i686
yum -y install glibc-devel.x86_64
yum -y install libstdc++.i686


【2】JP1/AJS3 - Managerのセットアップ

【2.1】実行系 JP1/BASEインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt


【2.2】待機系 JP1/BASEインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt


【2.3】実行系 JP1/AJS3 Managerインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【2.4】待機系 JP1/AJS3 Managerインストール

export LANG=ja_JP.UTF-8
/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt
/mnt/linux/setup /mnt

最後のYは小文字で入力
umount /mnt

【2.5】実行系 JP1/BASE物理ホストのセットアップ

→物理ホストで認証サーバを運用しないため、作業なし

【2.6】実行系 JP1/BASE論理ホストのセットアップ

--論理ホストを設定する。

mkdir -p /mnt/sdc2/jp1ajs

/opt/jp1base/bin/jp1base_setup_cluster -h mmm120 -d /mnt/sdc2/jp1ajs -a mmm120 -s -v


--JP1/BASE(論理ホスト)起動


----JP1/BASE(論理ホスト)のサービス起動確認
/opt/jp1base/bin/jbs_spmd_status -h mmm120


----JP1/BASE(論理ホスト)のサービス起動
/etc/opt/jp1base/jbs_start.cluster mmm120

---JP1/BASE(論理ホスト)のサービス停止
/etc/opt/jp1base/jbs_stop.cluster mmm120

 


--論理ホストのユーザー管理機能を設定する。

(1)JP1ユーザーを登録する

----JP1ユーザーの登録
/opt/jp1base/bin/jbsadduser -h mmm120 jp1user


----JP1ユーザーの確認
/opt/jp1base/bin/jbslistuser -h mmm120


(2)ユーザーマッピングの情報を共通定義情報に登録する。

vim /mnt/sdc2/jp1ajs/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap -h mmm120

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap -h mmm120

(3)JP1ユーザーの操作権限を設定する

vim /mnt/sdc2/jp1ajs/jp1base/conf/user_acl/JP1_UserLevel

jp1user:*=JP1_AJS_Admin,JP1_JPQ_Admin,JP1_AJSCF_Admin,JP1_HPS_Admin,JP1_PFM_Admin,JP1_Console_Admin,JP1_CF_Admin,JP1_CM_Admin,JP1_Rule_Admin,JP1_ITSLM_Admin,JP1_Audit_Admin,JP1_DM_Admin,JP1_SSO_Admin,Cosminexus_vMNG_Admin,HCS_UserMng_Admin,HCS_HDvM_Admin,HCS_HRpM_Admin,HCS_HTSM_Admin,HCS_HSNM2_Modify,HCS_HFSM_Admin,HCS_HCSM_Admin,HCS_HGLM_Admin,HCS_HTnM_Admin,JP1_AO_Admin,JP1_IMNP_Admin,UCNP_Admin,HNP_Admin,JP1_Analytics_Admin,JP1_ITDM_Admin,ISCF_Admin

----操作権限の設定
/opt/jp1base/bin/jbsaclreload -h mmm120

----操作権限の確認
/opt/jp1base/bin/jbslistacl -h mmm120

【2.7】待機系 JP1/BASE物理ホストのセットアップ

→物理ホストで認証サーバを運用しないため、作業なし

【2.8】実行系 JP1/AJS3 Manager物理ホストのセットアップ

→作業なし

 

【2.9】実行系 JP1/AJS3 Manager論理ホストのセットアップ


--論理ホストの設定
/opt/jp1ajs2/bin/jajs_setup_cluster -h mmm120 -F AJS3SCHEDULE001 -d /mnt/sdc2/jp1ajs -P 22201 -I _JF1


--ジョブ実行環境の作成
/opt/jp1ajs2/bin/jpqimport -mh mmm120 -dt isam -ci /mnt/sdc2/jp1ajs/jp1ajs2/conf/jpqsetup.conf

--JP1/AJS3(論理ホスト)起動

----JP1/AJS3(論理ホスト)のサービス起動確認
/opt/jp1ajs2/bin/jajs_spmd_status -h mmm120

----JP1/AJS3(論理ホスト)のサービス起動
/etc/opt/jp1ajs2/jajs_start.cluster mmm120

---JP1/AJS3(論理ホスト)のサービス停止
/etc/opt/jp1ajs2/jajs_stop.cluster mmm120

 

----実行エージェントの追加

export JP1_USERNAME=jp1admin

/opt/jp1ajs2/bin/ajsagtadd -h mmm120 -a mmm123 -c 00:00-00:00=5

----実行エージェントの確認
/opt/jp1ajs2/bin/ajsagtshow -h mmm120 -l


【2.10】待機系 JP1/AJS3 Manager物理ホストのセットアップ

→作業なし


【2.11】共通定義情報のコピー

実行系
/opt/jp1base/bin/jbsgetcnf -h mmm120 > /root/jbscnf.txt

scp /root/jbscnf.txt mmm122:/root

待機系
/opt/jp1base/bin/jbssetcnf /root/jbscnf.txt

 

【2.12】待機系 JP1/BASE論理ホストのセットアップ

/opt/jp1base/bin/jp1base_setup_cluster -h mmm120

【2.13】待機系 JP1/AJS3 Manager論理ホストのセットアップ

/opt/jp1ajs2/bin/jajs_setup_cluster -h mmm120 -F AJS3SCHEDULE001


【2.14】クラスタソフトへの登録

-- CLUSTERPRO へのサービスの組み込み[管理サーバ]

タイプ: execute resource
名前: jp1ajs

依存するリソース: disk1,fip1


--start.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* start.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1ajs2/jajs_start.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1base/jbs_start.cluster mmm120
/etc/opt/jp1ajs2/jajs_start.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0


--stop.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* stop.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/etc/opt/jp1ajs2/jajs_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/etc/opt/jp1ajs2/jajs_stop.cluster mmm120
/etc/opt/jp1base/jbs_stop.cluster mmm120
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0

 

 

-- 監視リソースの設定[管理サーバ]

タイプ:custom monitor
名前: jp1ajs_mon

監視タイプ:同期

--genw.sh


#! /bin/sh
#***********************************************
#* genw.sh *
#***********************************************

ulimit -s unlimited

/opt/jp1ajs2/bin/jajs_spmd_status -h mmm120

if [ $? -ne 0 ]; then
exit 1
fi

exit 0


回復動作: failover1に対してフェイルオーバ実行

 

【3】JP1/AJS3 - Agentのセットアップ

--2.4.1 JP1/BASEをインストールする

export LANG=ja_JP.UTF-8

/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt

/mnt/linux/setup /mnt

最後のYは小文字で入力

cd /etc/opt/jp1base
cp -p jbs_start.model jbs_start

--2.4.2 JP1/AJS3 - Agentをインストールする

export LANG=ja_JP.UTF-8

/bin/mount -t iso9660 -r JP1AJS_1200L01_P1.iso /mnt

/mnt/linux/setup /mnt

JP1/AJS3 - Agentをインストール
最後のYは小文字で入力

cp -p /etc/opt/jp1ajs2/jajs_start /etc/opt/jp1ajs2/jajs_start.org
vim /etc/opt/jp1ajs2/jajs_start

: # /opt/jp1ajs2/bin/jajs_spmd >/dev/null 2>/dev/null

/opt/jp1ajs2/bin/jajs_spmd >/dev/null 2>/dev/null

diff /etc/opt/jp1ajs2/jajs_start /etc/opt/jp1ajs2/jajs_start.org

--2.4.3 サービスの起動を確認する
JP1/Baseの起動を確認するには,jbs_spmd_statusコマンド,およびjevstatコマンドを実行
JP1/AJS3の起動を確認するには,jajs_spmd_statusコマンドを実行


----JP1/Baseステータス確認
/opt/jp1base/bin/jbs_spmd_status
/opt/jp1base/bin/jevstat

----JP1/AJS3ステータス確認
/opt/jp1ajs2/bin/jajs_spmd_status


----JP1/Base起動
/opt/jp1base/bin/jbs_spmd
/opt/jp1base/bin/jevstart

----JP1/Base停止
/opt/jp1base/bin/jbs_spmd_stop
/opt/jp1base/bin/jevstop


----JP1/AJS3起動
/opt/jp1ajs2/bin/jajs_spmd

----JP1/AJS3停止
/opt/jp1ajs2/bin/jajs_spmd_stop


※JP1/AJS3の起動や停止には少し時間がかかる

--2.4.4 JP1/BASEのセットアップ
(1) ユーザーマッピングを設定する

vim /etc/opt/jp1base/conf/user_acl/jp1BsUmap.conf

jp1user:*:root

----ユーザーマッピングの設定
/opt/jp1base/bin/jbsmkumap

----ユーザーマッピングの確認
/opt/jp1base/bin/jbsgetumap


【4】JP1/AJS3 - Viewのセットアップ
--1.5 JP1/AJS3 - Viewホストのインストールとセットアップ
--1.5.1 JP1/AJS3 - Viewをインストールする

【5】動作確認
--4. 業務の定義
--4.1 ジョブグループを定義する
--4.2 ジョブネットを定義する
--4.3 ジョブを定義する
--4.4 運用スケジュールの定義
--4.4.1 ジョブグループのカレンダー情報を定義する
--4.4.2 ジョブネットのスケジュールルールを定義する
--5. 業務の実行
--5.1 ジョブネットを実行する

IPv6無効化

 

(16)

ip a s

vim /etc/sysctl.conf

net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1

sysctl -p
ip a s

reboot


ip a s

 

(18)
https://note.spage.jp/archives/413

ip a s

cat <<'EOF' | tee -a /etc/sysctl.d/70-disable-ipv6.conf
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
EOF

sysctl --system
ip a s

cat <<'EOF' | tee -a /etc/rc.local
#!/bin/bash
# /etc/rc.local

# Load kernel variables from /etc/sysctl.d
/etc/init.d/procps restart

exit 0
EOF

chmod 755 /etc/rc.local

reboot


ip a s

 

(9)


ip a s

cat <<'EOF' | tee -a /etc/sysctl.d/70-disable-ipv6.conf
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1
EOF

sysctl --system
ip a s

cat <<'EOF' | tee -a /etc/rc.local
#!/bin/bash
# /etc/rc.local

# Load kernel variables from /etc/sysctl.d
/etc/init.d/procps restart

exit 0
EOF

chmod 755 /etc/rc.local

reboot


ip a s

 

(7)

ip a s

vim /etc/sysctl.conf

net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1

sysctl -p
ip a s

reboot


ip a s

 

(2012R2)


NIC のプロパティのチェックボックス OFF

CLUSTERPRO + PostgreSQL


node1: mmm121 CentOS7 PostgreSQL11
node2: mmm122 CentOS7 PostgreSQL11
iSCSItarget: mmm123 CentOS7
管理サーバ: mmm161 Windows Server2012R2


構築手順

1. フェイルオーバグループの作成
→「CLUSTERPROインストール」参照

2. PostgreSQL のインストール[node1,node2]

yum update -y

--yum リポジトリの追加

yum -y install https://download.postgresql.org/pub/repos/yum/11/redhat/rhel-7-x86_64/pgdg-centos11-11-2.noarch.rpm
yum info postgresql11-server


--インストール
yum -y install postgresql11-server postgresql11-contrib postgresql11-devel postgresql11-libs
/usr/pgsql-11/bin/postgres --version

--DB初期化
export PGSETUP_INITDB_OPTIONS='-E UTF8 --locale=C'

/usr/pgsql-11/bin/postgresql-11-setup initdb

 


--DB起動
systemctl restart postgresql-11
systemctl status postgresql-11
systemctl disable postgresql-11


--DB接続
su - postgres
psql

 


3. データベースディレクトリの変更[node1,node2]

--node1での作業

mkdir -p /mnt/sdc2/pgsql/11/data
chown -R postgres:postgres /mnt/sdc2/pgsql
chmod -R 700 /mnt/sdc2/pgsql

systemctl stop postgresql-11
cp -a /var/lib/pgsql/11/data/* /mnt/sdc2/pgsql/11/data

systemctl restart postgresql-11
systemctl status postgresql-11

vim /usr/lib/systemd/system/postgresql-11.service
Environment=PGDATA=/var/lib/pgsql/11/data/

Environment=PGDATA=/mnt/sdc2/pgsql/11/data/

systemctl daemon-reload

 

su - postgres
vim .bash_profile

PGDATA=/var/lib/pgsql/11/data

PGDATA=/mnt/sdc2/pgsql/11/data

. .bash_profile


--node2での作業

systemctl stop postgresql-11

su - postgres
vim .bash_profile

PGDATA=/var/lib/pgsql/11/data

PGDATA=/mnt/sdc2/pgsql/11/data

. .bash_profile

 


4. CLUSTERPRO へのサービスの組み込み[管理サーバ]

タイプ: execute resource
名前: pgsql

依存するリソース: disk1,fip1


--start.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* start.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

systemctl start postgresql-11
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

systemctl start postgresql-11
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0


--stop.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* stop.sh *
#***************************************

#ulimit -s unlimited

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

systemctl stop postgresql-11
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

systemctl stop postgresql-11
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0

 

 

5. 監視リソースの設定[管理サーバ]

タイプ:custom monitor
名前: pgsql_mon

監視タイプ:同期

--genw.sh


#! /bin/sh
#***********************************************
#* genw.sh *
#***********************************************

ulimit -s unlimited

CNT=`ps -ef | grep /usr/pgsql-11/bin/postmaster | grep -v grep | wc -l`

if [ $CNT -ne 1 ]; then
exit 1
fi

exit 0


回復動作: failover1に対してフェイルオーバ実行