久久精品人人爽,华人av在线,亚洲性视频网站,欧美专区一二三

RHEL 5.5+DRBD+heartbeat+Oracle10R2雙機安裝的示例分析

146次閱讀
沒有評論

共計 13873 個字符,預計需要花費 35 分鐘才能閱讀完成。

這篇文章將為大家詳細講解有關 RHEL 5.5+DRBD+heartbeat+Oracle10R2 雙機安裝的示例分析,丸趣 TV 小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

1、操作系統版本:Red Hat Enterprise Linux Server release 5.5 (Tikanga)

2、Drbd、Heartbeat 文件版本及文件名列表(本人已經將以下文件打包為 Heartbeat3.0.3.tar.bz2):

Cluster-Resource-Agents-agents-1.0.3.tar.bz2

drbd-8.3.8.1.tar.gz

Heartbeat-3-0-STABLE-3.0.3.tar.bz2

Load drbd modules

Pacemaker-1-0-Pacemaker-1.0.9.tar.bz2 Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0.tar.bz2

Reusable-Cluster-Components-glue-1.0.6.tar.bz2

3、網絡配置(雙網卡采用 BOND 模式)

RHEL5.5 系統安裝完成之后需要修改網絡配置,首先將各節點中 eth0、eth2 分別設置為靜態 IP。修改節點 hosts 文件,內容如圖

同時修改各節點 /etc/sysconfig/network 文件,將 HOSTNAME 一行的內容改為節點對應的主機名,如圖(以 node2 為例)

4、節點名及存儲分配

a、主機名及 IP

====Node2====
Hostname: node2.localdomain
Ip:10.109.1.38 
====Node3====
Hostname: node3.localdomain
Ip: 10.109.1.39

b、DRBD 鏡像分區:

資源名稱:oradata 設備:/dev/drbd0

掛載點:/oradata(存放 Oracle 實例)

c、浮動主機名及 IP

====Node1====
Hostname: node1.localdomain
Ip: 10.109.1.37

5、安裝 Heartbeat

進入 Linux 根目錄

cd /

建立 HA 目錄

mkdir Ha

上傳 Heartbeat3.0.3.tar.bz2 文件到 HA 目錄

進入 HA 目錄

cd /HA/

5.1  解壓 Heartbeat 壓縮包,得到后續安裝需要的各個安裝文件

tar -jxvf Heartbeat3.0.3.tar.bz2

編譯的順序是:先 Cluster Glue,再 Resource Agents,然后才是 Heartbeat。

解壓 Reusable-Cluster-Components

tar -jxvf Reusable-Cluster-Components-glue-1.0.6.tar.bz2

進入 Reusable-Cluster-Components-glue-1.0.6 目錄

cd Reusable-Cluster-Components-glue-1.0.6

打開 lib/stonith/main.c 文件

vi lib/stonith/main.c

編輯:

找到其 64 行,將其注釋掉。

找到其 76 到 81 行全部注釋掉。

找到其 390 行,將其注釋

使用以下兩個進行配置

./autogen.sh
./configure LIBS= /lib/libuuid.so.1

使用如下命令創建 Heartbeat 管理用戶:

groupadd haclient useradd -g haclient hacluster

使用如下命令編譯并安裝:

make
make install

5.2  解壓 Cluster-Resource-Agents

tar -jxvf Cluster-Resource-Agents-agents-1.0.3.tar.bz2

進入 Cluster-Resource-Agents-agents-1.0.3 目錄

cd Cluster-Resource-Agents-agents-1.0.3

使用如下命令配置、編譯并安裝

./autogen.sh ./configure
make install

5.3  解壓 Heartbeat-3-0-STABLE

tar -jxvf Heartbeat-3-0-STABLE-3.0.3.tar.bz2

進入 Heartbeat-3-0-STABLE-3.0.3 目錄

cd Heartbeat-3-0-STABLE-3.0.3

首先執行如下命令進行配置

./autogen.sh ./bootstrap ./ConfigureMe configure
make

此時系統會報一個 hbaping.lo 錯誤,我們需要使用如下一組命令對 hbaping.loT 文件進行改名操作:

cd lib
cd plugins/
cd HBcomm
mv hbaping.loT hbaping.lo

之后再次執行以下兩條命令進行安裝操作,應該就不會報錯了。

make
make install

使用 cd /usr/etc/ 命令進入 /usr/etc/ 目錄中

使用 cp -R ha.d/ /etc/ 命令將 /usr/etc/ha.d 全部復制到 /etc/ 目錄中

使用 rm -rfv ha.d 刪除 /usr/etc/ 中整個 ha.d 目錄

使用 cd /etc/ 命令進入 /etc/ 目錄中

使用 ln -s /etc/ha.d /usr/etc/ha.d 命令創建 /etc/ha.d 到 /usr/etc/ha.d 的軟連接文件。

5.4 解壓 Pacemaker-1-0

tar -jxvf Pacemaker-1-0-Pacemaker-1.0.9.tar.bz2

進入 Pacemaker-1-0-Pacemaker-1.0.9 目錄

cd Pacemaker-1-0-Pacemaker-1.0.9

執行如下命令配置、編譯并安裝

./autogen.sh ./ConfigureMe configure
make install

5.5  解壓 Pacemaker-Python-GUI

tar -jxvf Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0.tar.bz2

進入 Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0 目錄

cd Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0

首先執行如下命令

./bootstrap

使用 rpm 命令在 RHEL5.5 安裝光盤中安裝 gettext-devel、intltool 包,具體命令如下:

cd /media/RHEL_5.5\ i386\ DVD/Server/ rpm -ivh gettext-devel-0.14.6-4.el5.i386.rpm rpm -ivh intltool-0.35.0-2.i386.rpm

之后再次進入 Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0 目錄

cd Pacemaker-Python-GUI-pacemaker-mgmt-2.0.0

執行如下命令:

./ConfigureMe configure autoreconf -ifs ./bootstrap
make install

使用 passwd 命令設置 hacluster 用戶口令

將 hbmgmtd 復制到 /etc/pam.d/ 目錄

cp /usr/etc/pam.d/hbmgmtd /etc/pam.d/

6、安裝 DRBD

使用 tar zxvf drbd-8.3.8.1.tar.gz 解壓該文件

使用 cd /media/RHEL_5.5\ i386\ DVD/Server/ 進入光盤掛載目錄中

使用 rpm 依次安裝內核相關的源碼包

rpm -ivh kernel-devel-2.6.18-194.el5.i686.rpm rpm -ivh kernel-headers-2.6.18-194.el5.i386.rpm rpm -ivh kernel-doc-2.6.18-194.el5.noarch.rpm

使用 cd drbd-8.3.8.1 命令進入 drbd-8.3.8.1 目錄中依次執行如下命令配置、編譯并安裝

./autogen.sh ./configure --prefix=/usr --localstatedir=/var --sysconfdir=/etc/ --with-km
make install

使用 chkconfig –add drbd 命令創建 drbd 服務啟動腳本

使用 chkconfig –add heartbeat 命令創建 heartbeat 服務啟動腳本

使用 chkconfig heartbeat off 命令關閉 heartbeat 服務

使用 chkconfig drbd off 命令關閉 drbd 服務

使用 cat Load\ drbd\ modules /etc/rc.d/rc.sysinit 命令將 Load drbd modules 中的內容添加到 rc.sysinit 系統文件的 *** 部分,以便系統啟動時能自動將 drbd.ko 驅動模塊加載到核心中,正常使用 drbd 服務。(該步逐在 rhel5.5 中需要省略,否則 drbd 服務將無法正常啟動)。

7、配置 DRBD

7.1、修改各節點主機 DEBD 配置文件 /etc/drbd.d/global_common.conf 中 usage-count 的參數為 no, 如圖:

完成后存盤退出。

7.2、在各節點主機中創建文件 /etc/drbd.d/oradata.res, 并在 oradata.res 文件中添加如下內容:

resource oradata { #  資源組的名稱
 protocol C;
 startup {
 degr-wfc-timeout 120; # 2 minutes.  啟動時連接其他節點的超時時間
 }
 disk {
 on-io-error detach; #  當磁盤有錯誤時,不連接
 }
 net { }
syncer {
 rate 10M; #  設置主備節點同步時的網絡速率 *** 值
 al-extents 257;
 }
 on node2.localdomain{ #  節點主機名
 device /dev/drbd0; #  今后使用的設備
 disk /dev/vda5; #  該節點上的用于存放數據的分區號
 address 10.109.1.38:7788; #  該節點的 IP 地址
 meta-disk internal; # meta data 信息存放的方式
 }
 on node3.localdomain{
 device /dev/drbd0;
 disk /dev/vda5;
 address 10.109.1.39:7788;
 meta-disk internal;
 }
}

如圖例:

7.3、初始化分區

在各節點上執行 drbdadm create-md oradata 命令,初始 化分區(創建 meta data 信息),這里的 oradata 即為配置文件中的資源組名稱。

7.4、啟動服務在兩臺節點服務器上啟動 drbd 服務。如圖:

之后用 cat /proc/drbd 或 service drbd status 查看當前狀態,出現下圖信息說明 DRBD 服務已經正常啟動了,如圖:

※ 注意,現在兩機器都是處于 Secondary,即備機狀態,還進行數據同步。

7.5、設置 primary 主機

在確認作為主數據服務器的機器上執行:

[root@node1 ~]# drbdadm adjust oradata
[root@node1 ~]# drbdsetup /dev/drbd0 primary -o

這樣,將把 node1 作為主機,把 vda5 中的數據以塊的方式同步到 node2 中。可再次查看狀態:

[root@node1 ~]# cat /proc/drbd
version: 8.3.8 (api:88/proto:86-94)
GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by root@hatest1, 2010-07-07 08:59:44
0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r----
 ns:719756 nr:0 dw:0 dr:720896 al:0 bm:43 lo:0 pe:62 ua:36 ap:0 ep:1 wo:b oos:1378556
 [===== ..............] sync ed: 34.4% (1378556/2096348)K delay_probe: 149
 finish: 0:04:59 speed: 4,580 (7,248) K/sec
[root@node2 ~]# cat /proc/drbd
version: 8.3.8 (api:88/proto:86-94)
GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by root@hatest1, 2010-07-07 08:59:44
0: cs:SyncTarget ro:Secondary/Primary ds:Inconsistent/UpToDate C r----
 ns:0 nr:752096 dw:751584 dr:0 al:0 bm:45 lo:17 pe:49 ua:16 ap:0 ep:1 wo:b oos:1344764
 [====== .............] sync ed: 36.0% (1344764/2096348)K queue_delay: 2.9 ms
 finish: 0:02:11 speed: 10,224 (10,020) want: 10,240 K/sec

從藍色比較的 地方,可區分主機在 DRBD 集群中的位置。使用下面的命令也可確認:

[root@node1 ~]# drbdadm role oradata
Primary/Secondary
[root@node2 ~]# drbdadm role oradata
Secondary/Primary

把 drbd 服務設置為自啟動方式:

[root@node1 ~]# chkconfig --level 235 drbd on
[root@node2 ~]# chkconfig --level 235 drbd on

至此,鏡像分區已創建完成。

最終同步完 成后,兩機器 drbd 的狀態會變為:

[root@hatest1 ~]# cat /proc/drbd
version: 8.3.8 (api:88/proto:86-94)
GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by root@hatest1, 2010-07-07 08:59:44
0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r----
 ns:2096348 nr:0 dw:0 dr:2096348 al:0 bm:128 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0
[root@hatest2 ~]# cat /proc/drbd
version: 8.3.8 (api:88/proto:86-94)
GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by root@hatest1, 2010-07-07 08:59:44
0: cs:Connected ro:Secondary/Primary ds:UpToDate/UpToDate C r----
 ns:0 nr:2096348 dw:2096348 dr:0 al:0 bm:128 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:0

7.6、DRBD 中的 split brain 的處理

split brain 實際上是指在某種情況下,造成 drbd 的兩個節點斷開了連接,都已 Primary 狀態來運行。這通常發生在主節點斷開,而備節點手動修改數據 后,因 meta data 數據不一致的情況。當 drbd 某 primary 節點連接對方節點準 備發送信息的時候如果發現對方也是 primary 狀態,那么會會立刻自行斷開連接,并認定當前已經發生 split brain 了,這時候他會在系統日志中記錄以下信息:“Split-Brain detected,dropping connection!”當發生 split brain 之后,如果查看連接狀態,其中至少會有一個是 StandAlone 狀態,另外一個可能也是 StandAlone(如果是同時發現 split brain 狀態),也有可能是 WFConnection 的狀態。

DRBD 可在配置文件中設定發生 split brain 時的處理機制,但這可能與實際情況不一致,不建議使用。若沒有配置 split brain 自動解決方案,我們可以手動來處理。

首先我們必須要確定哪一邊應該作為解決問題后的 primary(也就是擁有 *** 數據的一邊). 一旦確定好這一點,那么我們同時也就確定接受 丟失在 split brain 之后另外一個節點上面所做的所有數據變更了。當這些確定下來后,我們就可以通過以下操作來恢復了:

(1)首先在確定要作為 secondary 的節點上面切換成 secondary 并放棄該資源的數據:

drbdadm disconnect resource_name
drbdadm secondary resource_name
drbdadm -- --discard-my-data connect resource_name

(2)在要作為 primary 的節點重新連 接 secondary(如果這個節點當前的連接狀態為 WFConnection 的話,可以省略)

drbdadm connect resource_name

當作完這些動作之后,從新的 primary 到 secondary 的 re- synchnorisation 會自動開始(重新同步)。

7.7、格式化分區

7.7.1、與軟 RAID、LVM 等類似,要使用 DRBD 創建的鏡像分區,不是直接使用 /dev/vda5 設備,而是在配置文件中指定的 /dev/drbd0。同樣的,不必等待初始化完成后才使用 drbd0 設 備。

[root@node1 ~]# drbdadm role oradata
Primary/Secondary
[root@node1 ~]# mkfs.ext3 /dev/drbd0
[root@node1 ~]# tune2fs -c 0 -i 0 /dev/drbd0

7.7.2 注意事項

需要注意,drbd0 設備只能在 Primary 一端使用,下面的操作都是會報錯的:

[root@node2 ~]# mount /dev/vda5 /oradata
mount: /dev/vda5 already mounted or /oradata busy
[root@node2 ~]# drbdadm role oradata
Secondary/Primary
[root@node2 ~]# mount /dev/drbd0 /oradata/
mount: block device /dev/drbd0 is write-protected, mounting read-only
mount:  錯誤的介質類型 

另外,為避免誤操作,當機器重啟后,默認都處于 Secondary 狀態,如要使用 drbd 設備,需手動把其設置為 Primary。

7.7.3、掛載

先把 drbd0 設備掛載到 /oradata 目錄中:

[root@hatest1 ~]# mount /dev/drbd0 /oradata
[root@hatest1 ~]# df -h /oradata
文件系   統   容量   已用   可用   已用 %  掛載點
/dev/drbd0 2.0G 36M 1.9G 2% /oradata

8、安裝 ORACLE10.2

8.1、分別在各節點配置 Linux 內核參數。

以 root 身份登錄后,進入 etc 目錄,打開 sysctl.conf 文件,然后將以下內容寫入圖中位置:

kernel.shmall = 2097152kernel.shmmax = 1717986918kernel.shmmni= 4096
kernel.sem = 250 32000 100 128
fs.file-max = 65536
net.ipv4.ip_local_port_range = 1024 65000
net.core.rmem_default = 262144
net.core.rmem_max = 262144
net.core.wmem_default = 262144
net.core.wmem_max = 262144

這些參數都可按照該列表填寫,在這些參數中的 shmmax(紅色標注)則有自己的計算方法:內存以 G 為單位,將其換算成 Byte 單位在乘以 80%,例如;2G 內存,換算公式為

2*1024*1024*1024*80%=1717986918

8.2、創建 oracle 安裝要求的用戶名和用戶組,并修改 oracle 用戶環境變量(即修改 oracle 用戶目錄下的.bash_profile 文件)

8.2.1、在兩個節點中分別執行如下 groupadd oinstall、groupadd dba、useradd -m -g oinstall -G dba oracle 命令,創建 oracle 用戶,如圖

8.2.2、在各節點修改 oracle 環境變量,以 oracle 用戶身份,打開.bash_profile 文件將如下內容添加到環境變量中, 如圖

export ORACLE_BASE=/oradata
export ORACLE_HOSTNAME=node1.localdomain
export ORACLE_HOME=$ORACLE_BASE/product/10.2.0/db_1
export ORACLE_SID=orcl
export ORACLE_TERM=xterm
export NLS_LANG=american_america.ZHS16GBK;
export ORA_NLS33=$ORACLE_HOME/ocommon/nls/admin/data
LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib
export LD_LIBRARY_PATH
export PATH=$PATH:$ORACLE_HOME/bin

8.3、創建 ORACLE 安裝掛載點

在各 oracle 安裝節點使用如下命令創建 DRBD 資源掛載點,并修改掛載點屬組

[root@node1 ~]# cd /
[root@node1 /]# mkdir oradata
[root@node1 /]# chown -R oracle:oinstall oradata

8.4 修改 IP 地址為浮動 IP 并設置 DEBD 資源為 primary

在安裝 oracle10G2 的機器上首先需要將 IP 地址及主機名修改為未來浮動 IP 及主機名(這樣主要是為了未來雙機應用時 oracle 能順利切換,并正常啟動),執行 drbdadm primary oradata 命令 設置 DRBD 資源為 primary 如圖:

執行 drbdadm role oradata 查看狀態,如圖:

8.5、掛載 DRBD 資源并修改資源屬組

執行 mount /dev/drbd0 /oradata 命令掛載 DRBD 資源,如圖:

之后執行 mount 命令查看信息,如圖

信息中出現 /dev/drbd0 on /oradata type ext3 (rw) 行,說明資源掛載正常,之后執行

chown -R oracle:oinstall oradata

命令修改 oradata 屬組,并使用 ls - l 查看信息,如圖:

8.6、安裝 oracle10G2 數據庫

具體可以查看其他文檔。

8.7、*** 配置

8.7.1、修改 listenter.ora 文件,添加如下內容,解決雙機切換報監聽 ORA-12514 錯誤問題。

(SID_DESC =
(GLOBAL_DBNAME =orcl)
(ORACLE_HOME = /oradata/product/10.2.0/db_1)
(SID_NAME = orcl)

如圖:

8.7.2、修改主機名為原節點主機名及 IP。

8.7.3、終止在用 oracle 節點的各 oracle 進程,并卸載掉 oracle 資源;

在另一節點中掛載資源并啟動 oracle 應用進程并進行測試。如果沒有問題可進行 HA 的配置。

9、heartbeat 的配置

9.1、配置 authkeys

這里我用隨機數來獲得密鑰,命令如下:

# (echo -ne  auth 1\n1 sha1  dd if=/dev/urandom bs=512 count=1 | openssl md5)   /etc/ha.d/authkeys
# cat authkeys
# chmod 600 /etc/ha.d/authkeys

效果如圖:

9.2、配置 ha.cf

使用命令 vi /etc/ha.d/ha.cf 編輯配置文件,修改為如下內容:

debugfile /var/log/ha-debug
logfile /var/log/ha-log
logfacility local0
auto_failback none
mcast eth0 239.0.0.43 694 1 0
udpport 694
bcast eth0
deadtime 30
initdead 30
keepalive 2
node node2.localdomain
node node3.localdomain
compression bz2
compression_threshold 2
crm respawn
apiauth mgmtd uid=root
respawn root /usr/lib/heartbeat/mgmtd -v

之后存盤退出。如圖

9.3、同步節點 HA 配置文件

執行# /usr/share/heartbeat/ha_propagate 命令,并安提示輸入同步節點主機 root 賬戶密碼,如圖

9.4、啟動 heartbeat

使用如下命令在兩節點上啟動 heartbeat:

#service heartbeat start

如圖:

9.5、配置 DRBD+Oracle 的 HA 資源。

9.5.1、執行命令

# crm_attribute -t crm_config -n stonith-enabled -v false

或者

# crm configure property stonith-enabled= false

關閉 heartbeat 的 STONITH 支持,避免啟用了 stonith 而集群中又沒有 stonith 資源時,集群中的資源都是無法啟動的問題。

9.5.2、清空舊配置文件,以 crm 交互方式提交如下命令:

# crm
crm(live)# configure
crm(live)configure# erase
crm(live)configure# commit
crm(live)configure# exit

清空舊配置文件。

9.5.3、關閉 quorum

HA 中有 quorum 的概念,即集群中必須有一半的節點處于 online 的狀態,則集群被認為是 have quorum(可以認為是達到合法節點數要求)。如果少于一半的節點在線,那么 HA 認為集群達不到節點數要求,從而拒絕啟動集群中的資源。但是這種策略對于 2 個節點的集群明顯是不合理的,所以就會發生當 2 個節點的集群其中一個節點失效時所有的集群都無法啟動的情況。
同樣的,也關閉 STONITH,執行以下兩條命令即可關閉 quorun 及 STONITH 支持

# crm configure property no-quorum-policy=ignore
# crm configure property stonith-enabled= false

9.5.3、使用 pacemaker 進行 HA 資源配置

把 DRBD 設置為主備資源,其他 oracle 資源放在同一個組里面,并通過“順序”、“協同”等限制條件讓兩資源配合運行。根據監控的情況,加入 start 超時、monitor 間隔時間等操作。
進入 crm 交互模式:

# crm configure
crm(live)configure#

然 后在 configure 狀態下輸入以下內容:

primitive drbd_oracle ocf:linbit:drbd \
 params drbd_resource= oradata  \
 op monitor interval= 15s 
primitive fs_oracle ocf:heartbeat:Filesystem \
 params device= /dev/drbd/by-res/oradata  directory= /oradata  fstype= ext3 
primitive ip_oracle ocf:heartbeat:IPaddr2 \
 params ip= 10.109.1.37  nic= bond0  cidr_netmask= 24 
primitive oracle_instant ocf:heartbeat:oracle \
 op monitor interval= 120  timeout= 30  \
 op start interval= 0  timeout= 120  \
 params sid= orcl 
primitive oracle_lsnrctl ocf:heartbeat:oralsnr \
 params sid= orcl  \
 operations $id= oracle_lsnrctl-operations  \
 op monitor interval= 10  timeout= 30 
primitive route_oracle ocf:heartbeat:Route \
 operations $id= route_oracle-operations  \
 params destination= 0.0.0.0/0  gateway= 10.109.1.1 
group group_oracle ip_oracle route_oracle fs_oracle oracle_lsnrctl oracle_instant \
 meta target-role= Started  is-managed= true 
ms ms_drbd_oracle drbd_oracle \
 meta master-max= 1  master-node-max= 1  \
 clone-max= 2  clone-node-max= 1  notify= true 
colocation oracle_on_drbd inf: group_oracle ms_drbd_oracle:Master
order oracle_after_drbd inf: ms_drbd_oracle:promote group_oracle:start

*** 用 commit 提交即可。

※ 說明:

a、根據 DRBD 官網的資料,ocf:heartbeat:drbd 已經被丟棄,不建議使用,故用 ocf:linbit:drbd 代替;

b、IP 的設定 RA,用 ocf:heartbeat:IPaddr2,其用 ip 命令設定虛擬 IP,虛擬 IP 生效后,用 ifconfig 命令看不到,可用 ip addr 查看;

c、輸入上述命令時,可能會提示警 告,start、stop 的超時時間少于建議值等,這可根據應用啟動、停止的實際環境在“操作”中加入(可參考 oracle_instant 資源);

d、ms 是設置“主備資源”;

e、colocation 是設置“協同”限制,即 group_oracle 和 ms_drbd_oracle 必須在同一臺機器上運行,并且若 ms_drbd_oracle 不能作為 Master 運行時,不會運行 group_oracle,相反 group_oracle 的狀態不會影響 ms_drbd_oracle;

g、order 是設置“順序”限制,即先激活 ms_drbd_oracle 資源(把 drbd 設備設置為 primary 狀態),然后再啟動 group_oracle 組資 源;

f、掛載操作中,/dev/drbd/by-res/oradata 是為了方便使用,由 drbd 創建的一個指向 /dev/drbd0 的鏈接;

h、如果您輸入的命令比較長,可以用“\”調到下一行繼續,但是必須注意,下一行前面的空白只能用空格,不能用 Tab 等字符。

配置提交后,兩資源會自動運行(根據全局配置,有延遲),也可手動使用如下命令啟動資源:

# crm resource start group_oracle

9.6、HA 的管理命令

9.6.1、查看 HA 狀態,執行如下命令:

# crm status

執行效果如圖:

9.6.2、手動切換,執行如下命令

# crm resource migrate group_oracle node2.localdomain

如圖

切機前資源均在 node3.localdomain 上,執行命令后再次執行 crm status 命令可以看到資源已經全部被 node2.localdomain 接管。如圖

9.7、維護

有時候,我們需要對當前主機進行維護,這時,可先把資源遷移到備機上,然后把主機設置為“非管理”的 standby 狀態,如圖:

使用鼠標點擊圖中 standby 即可將選中主機設置為“非管理”狀態,如圖:

之后,就可以把主機上的 heartbeat 服務關掉,甚至關閉該機器或進行維護的工作。

關于“RHEL 5.5+DRBD+heartbeat+Oracle10R2 雙機安裝的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

正文完
 
丸趣
版權聲明:本站原創文章,由 丸趣 2023-08-25發表,共計13873字。
轉載說明:除特殊說明外本站除技術相關以外文章皆由網絡搜集發布,轉載請注明出處。
評論(沒有評論)
主站蜘蛛池模板: 林州市| 孟村| 潜山县| 池州市| 赣榆县| 尖扎县| 云和县| 凤山县| 高安市| 灵寿县| 台湾省| 泽库县| 遵义市| 贵溪市| 龙井市| 保亭| 隆安县| 盐亭县| 宣化县| 台南县| 依安县| 马鞍山市| 平武县| 通城县| 临桂县| 济源市| 绿春县| 聂拉木县| 枞阳县| 乳源| 辽阳市| 锡林浩特市| 特克斯县| 额济纳旗| 宜兴市| 广河县| 墨竹工卡县| 扎鲁特旗| 收藏| 永德县| 漯河市|