minikubeインストール

OS: CentOS Linux release 7.6.1810 (Core)
Kernel: 3.10.0-957.12.1.el7.x86_64


https://qiita.com/okcoder/items/5381e5ad08ae5562c1dd
https://kubernetes.io/docs/tasks/tools/install-minikube/

 

【1】virtualizationの確認

grep -E --color 'vmx|svm' /proc/cpuinfo


【2】kubectlインストール


curl -Lo kubectl https://storage.googleapis.com/kubernetes-release/release/$(curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl && chmod +x kubectl && cp kubectl /usr/bin/ && rm kubectl

kubectl version


【3】VirtualBoxインストール

yum install -y https://download.virtualbox.org/virtualbox/6.0.10/VirtualBox-6.0-6.0.10_132072_el7-1.x86_64.rpm


【4】Minikubeインストール

curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64 && chmod +x minikube && cp minikube /usr/bin/ && rm minikube

 

minikube stop
minikube start 

※Dockerインストール済の場合下記も可
minikube start --vm-driver=none

minikube status
kubectl get node

 

Jenkinsインストール

https://usado.jp/spdsk/2018/03/09/jenkins/

mmm124 CentOS7

----

yum -y install java-1.8.0-openjdk
wget -O /etc/yum.repos.d/jenkins.repo http://pkg.jenkins-ci.org/redhat-stable/jenkins.repo
rpm --import https://jenkins-ci.org/redhat/jenkins-ci.org.key
yum -y install jenkins

vim /etc/sysconfig/jenkins
JENKINS_PORT="8082"

systemctl restart jenkins
systemctl enable jenkins
systemctl status jenkins

http://192.168.137.124:8082

 

Zabbixインストール

https://www.zabbix.com/jp/download
https://qiita.com/skouno25/items/39d1cfa5f56df3107ed6
https://blog.apar.jp/zabbix/10640/


マネージャ:mmm124 CentOS7 Zabbix4.0 MySQL8.0
エージェント:mmm125 CentOS7 Zabbix4.0


【1】マネージャのセットアップ
【1.1】MySQL8.0 インストール

--mariaDB削除
yum remove -y mariadb-libs
rm -rf /var/lib/mysql/

--yum リポジトリの追加
yum install -y https://dev.mysql.com/get/mysql80-community-release-el7-1.noarch.rpm
yum info mysql-community-server

--インストール
yum install -y mysql-community-server
mysqld --version

--DB起動
systemctl enable mysqld.service
systemctl start mysqld.service
systemctl status mysqld.service


--初期パスワードの確認
cat /var/log/mysqld.log | grep password

--セキュリティ設定
mysql_secure_installation

--設定ファイルによる設定
vim /etc/my.cnf

[mysqld]
character_set_server = utf8mb4

#default-authentication-plugin=mysql_native_password

default-authentication-plugin=mysql_native_password

 


systemctl stop mysqld
systemctl start mysqld
systemctl status mysqld

 

 

【1.2】Zabbix4.0インストール


rpm -Uvh https://repo.zabbix.com/zabbix/4.0/rhel/7/x86_64/zabbix-release-4.0-2.el7.noarch.rpm
yum clean all

 

yum -y install zabbix-server-mysql zabbix-web-mysql zabbix-agent zabbix-get


mysql -uroot -p


create database zabbix character set utf8 collate utf8_bin;

create user zabbix@localhost identified by 'Aaa!1234';

grant all privileges on zabbix.* to zabbix@localhost;
exit;


zcat /usr/share/doc/zabbix-server-mysql*/create.sql.gz | mysql -uzabbix -p zabbix

 

vim /etc/zabbix/zabbix_server.conf

DBPassword=Aaa!1234


vim /etc/httpd/conf.d/zabbix.conf

# php_value date.timezone Europe/Riga

php_value date.timezone Asia/Tokyo


systemctl restart zabbix-server zabbix-agent httpd
systemctl enable zabbix-server zabbix-agent httpd
systemctl status zabbix-server zabbix-agent httpd


zabbix_get -s 127.0.0.1 -k agent.version

 


【1.3】Zabbixフロントエンドの設定

http://192.168.137.124/zabbix


初期設定が終了すると、Zabbixのログイン画面が表示されますので、初期ユーザーでログインします
Username:Admin
Password:zabbix


【2】エージェントのセットアップ

【2.1】インストール

rpm -Uvh https://repo.zabbix.com/zabbix/4.0/rhel/7/x86_64/zabbix-release-4.0-2.el7.noarch.rpm
yum clean all


yum -y install zabbix-agent

vim /etc/zabbix/zabbix_agentd.conf

Server=192.168.137.124
ServerActive=192.168.137.124
Hostname=mmm125


systemctl restart zabbix-agent
systemctl enable zabbix-agent
systemctl status zabbix-agent

 

HULFTインストール(クラスタ)

node1: mmm121 CentOS7 HULFT8 for UNIX-Enterprise 8.4.0A
node2: mmm122 CentOS7 HULFT8 for UNIX-Enterprise 8.4.0A
node3(iSCSItarget): mmm123 CentOS7 HULFT8 for UNIX-Enterprise 8.4.0A
管理サーバ: mmm161 Windows Server2012R2


参考マニュアル:
HULFT8 UNIX/Linux 導入マニュアル
HULFT8 UNIX/Linux クラスタ対応 マニュアル

論理ホスト名 mmm120
運用系物理ホスト名 mmm121
待機系物理ホスト名 mmm122

前提:
CLUSTERPROインストール済
論理ホスト名と物理ホスト名が/etc/hostsに設定済

 

 

【1】ソフトウェア説明書確認[mmm121,mmm122,mmm123]

必須ソフトウェア: 64bitOSにて32bitモジュールを導入する場合、
glibc.i686パッケージ
・nss-softokn-freebl.i686パッケージ


rpm -qa | grep glibc
rpm -qa | grep nss-softokn-freebl


yum update -y
yum -y install glibc.i686
yum -y install nss-softokn-freebl.i686

 

【2】ソフトウェアインストール

【2.1】クラスタ環境運用系へのソフトウェアインストール[mmm121]

--2.1.3 セットアップモジュールの展開

cd
tar xvzf hulft-unix-linux-v840a-64bit_linux_x86.tar.gz

mkdir -p /usr/local/HULFT/insttmp
cd /usr/local/HULFT/insttmp
pwd
ls -l
tar xf /root/linux_x86/hulft.tar
ls -l


--2.1.4 セットアッププログラムの起動準備
TERM=vt100
export TERM
LANG=ja_JP.UTF8
export LANG


--2.3.1 セットアッププログラムの起動

cd /usr/local/HULFT/insttmp
./installer


--2.3.2 インストールの開始


--2.3.3 シリアル番号とプロダクトキーの入力

シリアル番号とプロダクトキーを入力

--2.3.5 インストール方法の選択

カスタムインストールを選択

--2.3.7 導入先ディレクトリの入力

HULFT 実行モジュール格納ディレクトリ(HULEXEP)
[ /usr/local/HULFT ]/bin

HULFT 環境設定ファイル格納ディレクトリ(HULPATH)
[ /mnt/sdc2/HULFT ]/etc

--2.3.8 インストール環境の確認

クラスタ環境(運用系ノード)を選択


--2.3.9 一時ファイル作成パスの入力

一時ファイル作成パス
[ /mnt/sdc2/HULFT ]/tmp

--2.3.10 pidファイル作成パスの指定
※ローカルディスク上に指定します

pidファイル作成パス
[ /usr/local/HULFT/etc ]

--2.3.11 自ホスト名の指定

自ホスト名
[ mmm120 ]


--2.3.12 HULFT動作言語の選択

日本語を選択

--2.3.13 転送コードセットの選択

UTF-8を選択


--2.3.14 日付形式の選択

YYYY/MM/DDを選択

--2.3.16 インストール条件の確認

--2.3.17 インストールの終了

cat install.log

 

【2.2】クラスタ環境待機系へのソフトウェアインストール[mmm122]

--2.1.3 セットアップモジュールの展開

cd
tar xvzf hulft-unix-linux-v840a-64bit_linux_x86.tar.gz

mkdir -p /usr/local/HULFT/insttmp
cd /usr/local/HULFT/insttmp
pwd
ls -l
tar xf /root/linux_x86/hulft.tar
ls -l


--2.1.4 セットアッププログラムの起動準備
TERM=vt100
export TERM
LANG=ja_JP.UTF8
export LANG


--2.3.1 セットアッププログラムの起動

cd /usr/local/HULFT/insttmp
./installer


--2.3.2 インストールの開始


--2.3.3 シリアル番号とプロダクトキーの入力

シリアル番号とプロダクトキーを入力

--2.3.5 インストール方法の選択

カスタムインストールを選択

--2.3.7 導入先ディレクトリの入力

HULFT 実行モジュール格納ディレクトリ(HULEXEP)
[ /usr/local/HULFT ]/bin

HULFT 環境設定ファイル格納ディレクトリ(HULPATH)
[ /mnt/sdc2/HULFT ]/etc

--2.3.8 インストール環境の確認

クラスタ環境(待機系ノード)を選択


--2.3.16 インストール条件の確認

--2.3.17 インストールの終了

cat install.log

 


【2.3】シングル環境へのソフトウェアインストール[mmm123]

--2.1.3 セットアップモジュールの展開

cd
tar xvzf hulft-unix-linux-v840a-64bit_linux_x86.tar.gz

mkdir -p /usr/local/HULFT/insttmp
cd /usr/local/HULFT/insttmp
pwd
ls -l
tar xf /root/linux_x86/hulft.tar
ls -l


--2.1.4 セットアッププログラムの起動準備
TERM=vt100
export TERM
LANG=ja_JP.UTF8
export LANG


--2.2.1 セットアッププログラムの起動

cd /usr/local/HULFT/insttmp
./installer


--2.2.2 インストールの開始


--2.2.3 シリアル番号とプロダクトキーの入力

シリアル番号とプロダクトキーを入力

--2.2.5 インストール方法の選択

標準インストールを選択


--2.2.7 インストール条件の確認


--2.2.8 インストールの終了

cat install.log


【3】環境設定

【3.1】クラスタ環境の環境設定

--4.1 環境変数の設定[mmm121,mmm122]
--4.1.1 実行モジュール格納ディレクトリの設定
--4.1.2 環境設定ファイル格納ディレクトリの設定

cd
vim .bash_profile
HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/mnt/sdc2/HULFT/etc
export HULPATH

. .bash_profile


--4.2 HULFTのシステム動作環境設定[mmm121]

/usr/local/HULFT/bin/utladmin


必要に応じて設定を行う

【3.2】シングル環境の環境設定[mmm123]

--4.1 環境変数の設定
--4.1.1 実行モジュール格納ディレクトリの設定
--4.1.2 環境設定ファイル格納ディレクトリの設定

cd
vim .bash_profile
HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/usr/local/HULFT/etc
export HULPATH

. .bash_profile


--4.2 HULFTのシステム動作環境設定

/usr/local/HULFT/bin/utladmin


必要に応じて設定を行う


【4】HULFTの起動

【4.1】クラスタ環境のHULFTの起動[mmm121]

--5.2.1 環境変数の確認

echo $HULPATH
echo $HULEXEP
echo $PATH

--5.2.2 配信デーモンの起動

/usr/local/HULFT/bin/hulclustersnd -start -m

--5.2.3 集信デーモンの起動

/usr/local/HULFT/bin/hulclusterrcv -start -m

--5.2.4 要求受付デーモンの起動

/usr/local/HULFT/bin/hulclusterobs -start -m

--5.2.5 HULFTの起動確認

ps -ef | grep hul

----配信デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclustersnd -status -m

----集信デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclusterrcv -status -m

----要求受付デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclusterobs -status -m

 


【4.2】シングル環境のHULFTの起動[mmm123]

--5.1.1 環境変数の確認

echo $HULPATH
echo $HULEXEP
echo $PATH

--5.1.2 配信デーモンの起動

/usr/local/HULFT/bin/hulsndd

--5.1.3 集信デーモンの起動

/usr/local/HULFT/bin/hulrcvd

--5.1.4 要求受付デーモンの起動

/usr/local/HULFT/bin/hulobsd

--5.1.5 HULFTの起動確認

ps -ef | grep hul


【5】クラスタソフトへの登録[管理サーバ]

クラスタ環境のHULFTを停止する
/usr/local/HULFT/bin/hulclustersnd -stop -m
/usr/local/HULFT/bin/hulclusterrcv -stop -m
/usr/local/HULFT/bin/hulclusterobs -stop -m
ps -ef | grep hul


タイプ: execute resource
名前: hulft

依存するリソース: disk1,fip1


--start.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* start.sh *
#***************************************

#ulimit -s unlimited

HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/mnt/sdc2/HULFT/etc
export HULPATH


if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/usr/local/HULFT/bin/hulclustersnd -start
/usr/local/HULFT/bin/hulclusterrcv -start
/usr/local/HULFT/bin/hulclusterobs -start
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/usr/local/HULFT/bin/hulclustersnd -start
/usr/local/HULFT/bin/hulclusterrcv -start
/usr/local/HULFT/bin/hulclusterobs -start
sleep 10

if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0


--stop.sh
同期
タイムアウト:300秒

#! /bin/sh
#***************************************
#* stop.sh *
#***************************************

#ulimit -s unlimited

HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/mnt/sdc2/HULFT/etc
export HULPATH

if [ "$CLP_EVENT" = "START" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "NORMAL1"

/usr/local/HULFT/bin/hulclusterobs -stop
/usr/local/HULFT/bin/hulclusterrcv -stop
/usr/local/HULFT/bin/hulclustersnd -stop
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "NORMAL2"
else
echo "ON_OTHER1"
fi
else
echo "ERROR_DISK from START"
exit 1
fi
elif [ "$CLP_EVENT" = "FAILOVER" ]
then
if [ "$CLP_DISK" = "SUCCESS" ]
then
echo "FAILOVER1"

/usr/local/HULFT/bin/hulclusterobs -stop
/usr/local/HULFT/bin/hulclusterrcv -stop
/usr/local/HULFT/bin/hulclustersnd -stop
sleep 10


if [ "$CLP_SERVER" = "HOME" ]
then
echo "FAILOVER2"
else
echo "ON_OTHER2"
fi
else
echo "ERROR_DISK from FAILOVER"
exit 1
fi
else
echo "NO_CLP"
exit 1
fi
echo "EXIT"
exit 0

 


-- 監視リソースの設定

タイプ:custom monitor
名前: hulft_mon

監視タイプ:同期

--genw.sh


#! /bin/sh
#***********************************************
#* genw.sh *
#***********************************************

ulimit -s unlimited

HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/mnt/sdc2/HULFT/etc
export HULPATH

/usr/local/HULFT/bin/hulclustersnd -status

if [ $? -ne 0 ]; then
exit 1
fi

/usr/local/HULFT/bin/hulclusterrcv -status

if [ $? -ne 0 ]; then
exit 1
fi

/usr/local/HULFT/bin/hulclusterobs -status

if [ $? -ne 0 ]; then
exit 1
fi

exit 0


回復動作: failover1に対してフェイルオーバ実行

 


【6】疎通テスト

【6.1】 配信要求(配信側起動のファイル転送)のテスト

--6.1.1 自ホストとの接続確認[mmm120]
ping mmm123

--6.1.2 配信ファイルの作成[mmm120]

echo sendtest > /tmp/snddata

--6.2 管理情報の登録
HULFTでは配信側と集信側に同一のファイルIDを指定します。
ファイルIDは1ファイルごとに配信側(配信管理情報)および集信側(集信管理情報)に登録する必要があります。
ファイル転送を行う際に配信側および集信側で最低限必要な管理情報は以下のとおりです。


配信側HULFT
配信管理情報(配信ファイルID)
詳細ホスト情報(集信側ホストのホスト名)
転送グループ情報(転送グループID)
集信側HULFT
集信管理情報(集信ファイルID)
詳細ホスト情報(配信側ホストのホスト名)
転送グループ情報(転送グループID)


--6.2.1 詳細ホスト情報の登録

--mmm120での作業

/usr/local/HULFT/bin/utladmin

「6.システム管理」 を選択
「IDまたはホスト名」に"mmm123"を入力
「4.詳細ホスト情報」を選択
下記内容を登録

ホスト名: mmm123
ホスト種: U(UNIX
転送コードセット: 8(UTF-8
集信ポートNo.: 30000
要求受付ポートNo.: 31000
その他の項目: デフォルト値

--mmm123での作業

/usr/local/HULFT/bin/utladmin

「6.システム管理」 を選択
「IDまたはホスト名」に"mmm120"を入力
「4.詳細ホスト情報」を選択
下記内容を登録

ホスト名: mmm120
ホスト種: U(UNIX
転送コードセット: 8(UTF-8
集信ポートNo.: 30000
要求受付ポートNo.: 31000
その他の項目: デフォルト値

--6.2.2 転送グループ情報の登録

--mmm120での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"grp01"を入力
「5.転送グループ情報」を選択
下記内容を登録
転送グループID: grp01
ホスト名: mmm123

--mmm123での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"grp11"を入力
「5.転送グループ情報」を選択
下記内容を登録
転送グループID: grp11
ホスト名: mmm120

--6.2.3 配信管理情報の登録


--mmm120での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"TEST1"を入力
「1.配信管理情報」を選択
下記内容を登録
ファイルID: TEST1
配信ファイル名: /tmp/snddata
転送タイプ: T(TEXT)
コード変換: N(無変換)
転送グループID: grp01
その他の項目: デフォルト値

--6.2.4 集信管理情報の登録

--mmm123での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"TEST1"を入力
「2.集信管理情報」を選択
下記内容を登録
ファイルID: TEST1
ファイル名: /tmp/rcvdata
登録モード: R(置き換え)
異常時の処置: K(保存)
集信形態: S(単一集信)
世代管理: N(無し)
転送グループ: ID grp11
その他の項目: デフォルト値

--6.3 配信要求(配信側起動のファイル転送)[mmm120]

/usr/local/HULFT/bin/utlsend -f TEST1

--6.4.1 配信履歴の確認(配信側起動のファイル転送)[mmm120]

/usr/local/HULFT/bin/utllist -s

--6.4.2 集信履歴の確認(配信側起動のファイル転送)[mmm123]

/usr/local/HULFT/bin/utllist -r


【6.2】 送信要求(集信側起動のファイル転送)のテスト

--6.1.1 自ホストとの接続確認[mmm123]
ping mmm120

--6.1.2 配信ファイルの作成[mmm123]

echo rcvtest > /tmp/snddata

--6.2 管理情報の登録
HULFTでは配信側と集信側に同一のファイルIDを指定します。
ファイルIDは1ファイルごとに配信側(配信管理情報)および集信側(集信管理情報)に登録する必要があります。
ファイル転送を行う際に配信側および集信側で最低限必要な管理情報は以下のとおりです。


配信側HULFT
配信管理情報(配信ファイルID)
詳細ホスト情報(集信側ホストのホスト名)
転送グループ情報(転送グループID)
集信側HULFT
集信管理情報(集信ファイルID)
詳細ホスト情報(配信側ホストのホスト名)
転送グループ情報(転送グループID)

--6.2.3 配信管理情報の登録


--mmm123での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"TEST2"を入力
「1.配信管理情報」を選択
下記内容を登録
ファイルID: TEST2
配信ファイル名: /tmp/snddata
転送タイプ: T(TEXT)
コード変換: N(無変換)
転送グループID: grp11
その他の項目: デフォルト値

--6.2.4 集信管理情報の登録

--mmm120での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"TEST2"を入力
「2.集信管理情報」を選択
下記内容を登録
ファイルID: TEST2
ファイル名: /tmp/rcvdata
登録モード: R(置き換え)
異常時の処置: K(保存)
集信形態: S(単一集信)
世代管理: N(無し)
転送グループ: ID grp01
その他の項目: デフォルト値


--6.5 送信要求(集信側起動のファイル転送)[mmm120]

/usr/local/HULFT/bin/utlrecv -f TEST2


--6.6 要求受付履歴の確認(集信側起動のファイル転送)[mmm123]


/usr/local/HULFT/bin/utlobslist

--6.7.1 配信履歴の確認(集信側起動のファイル転送)[mmm123]

/usr/local/HULFT/bin/utllist -s

--6.7.2 集信履歴の確認(集信側起動のファイル転送)[mmm120]

/usr/local/HULFT/bin/utllist -r

 

【7】HULFTの終了


【7.1】クラスタ環境のHULFTの終了[mmm121]

----配信デーモン終了同期コマンド
/usr/local/HULFT/bin/hulclustersnd -stop -m

----集信デーモン終了同期コマンド
/usr/local/HULFT/bin/hulclusterrcv -stop -m

----要求受付デーモン終了同期コマンド
/usr/local/HULFT/bin/hulclusterobs -stop -m

----HULFTの終了確認

ps -ef | grep hul

----配信デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclustersnd -status -m

----集信デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclusterrcv -status -m

----要求受付デーモン生存確認コマンド
/usr/local/HULFT/bin/hulclusterobs -status -m

 

【7.2】シングル環境のHULFTの終了[mmm123]


--7.2.1 配信デーモンの終了

/usr/local/HULFT/bin/utlkillsnd

--7.2.2 集信デーモンの終了

/usr/local/HULFT/bin/utlkillrcv


--7.2.3 要求受付デーモンの終了

/usr/local/HULFT/bin/utlkillobs


--7.2.4 HULFTの終了確認

ps -ef | grep hul

 

HULFTインストール(シングル)

参考マニュアル:
HULFT8 UNIX/Linux 導入マニュアル
HULFT8 UNIX/Linux オペレーション マニュアル

配信側: mmm124 CentOS7
集信側: mmm125 CentOS7

 

導入先ディレクトリ: /usr/local/HULFT

 


【1】ソフトウェア説明書確認[mmm124,mmm125]

必須ソフトウェア: 64bitOSにて32bitモジュールを導入する場合、
glibc.i686パッケージ
・nss-softokn-freebl.i686パッケージ


rpm -qa | grep glibc
rpm -qa | grep nss-softokn-freebl


yum update -y
yum -y install glibc.i686
yum -y install nss-softokn-freebl.i686


【2】ソフトウェアインストール[mmm124,mmm125]


--2.1.3 セットアップモジュールの展開

cd
tar xvzf hulft-unix-linux-v840a-64bit_linux_x86.tar.gz

mkdir -p /usr/local/HULFT/insttmp
cd /usr/local/HULFT/insttmp
pwd
ls -l
tar xf /root/linux_x86/hulft.tar
ls -l


--2.1.4 セットアッププログラムの起動準備
TERM=vt100
export TERM
LANG=ja_JP.UTF8
export LANG


--2.2.1 セットアッププログラムの起動

cd /usr/local/HULFT/insttmp
./installer


--2.2.2 インストールの開始


--2.2.3 シリアル番号とプロダクトキーの入力

シリアル番号とプロダクトキーを入力

--2.2.5 インストール方法の選択

標準インストールを選択


--2.2.7 インストール条件の確認


--2.2.8 インストールの終了

cat install.log


【3】環境設定[mmm124,mmm125]

--4.1 環境変数の設定
--4.1.1 実行モジュール格納ディレクトリの設定
--4.1.2 環境設定ファイル格納ディレクトリの設定

cd
vim .bash_profile
HULEXEP=/usr/local/HULFT/bin
export HULEXEP
PATH=/usr/local/HULFT/bin:$PATH
export PATH
HULPATH=/usr/local/HULFT/etc
export HULPATH

. .bash_profile


--4.2 HULFTのシステム動作環境設定

/usr/local/HULFT/bin/utladmin


必要に応じて設定を行う

 

【4】HULFTの起動[mmm124,mmm125]

--5.1.1 環境変数の確認

echo $HULPATH
echo $HULEXEP
echo $PATH

--5.1.2 配信デーモンの起動

/usr/local/HULFT/bin/hulsndd

--5.1.3 集信デーモンの起動

/usr/local/HULFT/bin/hulrcvd

--5.1.4 要求受付デーモンの起動

/usr/local/HULFT/bin/hulobsd

--5.1.5 HULFTの起動確認

ps -ef | grep hul

 

【5】疎通テスト

--6.1.1 自ホストとの接続確認[mmm124]
ping mmm125

--6.1.2 配信ファイルの作成[mmm124]

echo test > /tmp/snddata


--6.2 管理情報の登録
HULFTでは配信側と集信側に同一のファイルIDを指定します。
ファイルIDは1ファイルごとに配信側(配信管理情報)および集信側(集信管理情報)に登録する必要があります。
ファイル転送を行う際に配信側および集信側で最低限必要な管理情報は以下のとおりです。


配信側HULFT
配信管理情報(配信ファイルID)
詳細ホスト情報(集信側ホストのホスト名)
転送グループ情報(転送グループID)
集信側HULFT
集信管理情報(集信ファイルID)
詳細ホスト情報(配信側ホストのホスト名)
転送グループ情報(転送グループID)


--6.2.1 詳細ホスト情報の登録

--mmm124での作業

/usr/local/HULFT/bin/utladmin

「6.システム管理」 を選択
「IDまたはホスト名」に"mmm125"を入力
「4.詳細ホスト情報」を選択
下記内容を登録

ホスト名: mmm125
ホスト種: U(UNIX
転送コードセット: 8(UTF-8
集信ポートNo.: 30000
要求受付ポートNo.: 31000
その他の項目: デフォルト値

--mmm125での作業

/usr/local/HULFT/bin/utladmin

「6.システム管理」 を選択
「IDまたはホスト名」に"mmm124"を入力
「4.詳細ホスト情報」を選択
下記内容を登録

ホスト名: mmm125
ホスト種: U(UNIX
転送コードセット: 8(UTF-8
集信ポートNo.: 30000
要求受付ポートNo.: 31000
その他の項目: デフォルト値

--6.2.2 転送グループ情報の登録

--mmm124での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"grp01"を入力
「5.転送グループ情報」を選択
下記内容を登録
転送グループID: grp01
ホスト名: mmm125


--mmm125での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"grp11"を入力
「5.転送グループ情報」を選択
下記内容を登録
転送グループID: grp11
ホスト名: mmm124

--6.2.3 配信管理情報の登録


--mmm124での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"LOOPTEST"を入力
「1.配信管理情報」を選択
下記内容を登録
ファイルID: LOOPTEST
配信ファイル名: /tmp/snddata
転送タイプ: T(TEXT)
コード変換: N(無変換)
転送グループID: grp01
その他の項目: デフォルト値

--6.2.4 集信管理情報の登録

--mmm125での作業

/usr/local/HULFT/bin/utladmin
「6.システム管理」 を選択
「IDまたはホスト名」に"LOOPTEST"を入力
「2.集信管理情報」を選択
下記内容を登録
ファイルID: LOOPTEST
ファイル名: /tmp/rcvdata
登録モード: R(置き換え)
異常時の処置: K(保存)
集信形態: S(単一集信)
世代管理: N(無し)
転送グループ: ID grp11
その他の項目: デフォルト値


--6.3 配信要求(配信側起動のファイル転送)[mmm124]

/usr/local/HULFT/bin/utlsend -f LOOPTEST


--6.4.1 配信履歴の確認(配信側起動のファイル転送)[mmm124]

/usr/local/HULFT/bin/utllist -s


--6.4.2 集信履歴の確認(配信側起動のファイル転送)[mmm125]

/usr/local/HULFT/bin/utllist -r


--6.5 送信要求(集信側起動のファイル転送)[mmm125]

/usr/local/HULFT/bin/utlrecv -f LOOPTEST


--6.6 要求受付履歴の確認(集信側起動のファイル転送)[mmm124]


/usr/local/HULFT/bin/utlobslist

--6.7.1 配信履歴の確認(集信側起動のファイル転送)[mmm124]

/usr/local/HULFT/bin/utllist -s

--6.7.2 集信履歴の確認(集信側起動のファイル転送)[mmm125]

/usr/local/HULFT/bin/utllist -r

 

【6】HULFTの終了[mmm124,mmm125]

--7.2.1 配信デーモンの終了

/usr/local/HULFT/bin/utlkillsnd

--7.2.2 集信デーモンの終了

/usr/local/HULFT/bin/utlkillrcv


--7.2.3 要求受付デーモンの終了

/usr/local/HULFT/bin/utlkillobs


--7.2.4 HULFTの終了確認

ps -ef | grep hul