注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

古城风~~~

竹密无妨溪水过,天高不碍白云飞。这天下总有一份是属于我古城的天地!

 
 
 

日志

 
 

VMware下RedHat安装Oracle 9i RAC全攻略  

2008-05-25 14:32:22|  分类: 数据库(oracle,m |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

摘要:大家都知道,Oracle 9i RAC(以下简称RAC)是oracle里相对比较复杂的部分,很大一部分原因是由于RAC的环境搭建相对不如单实例方便。通常典型的配置是两台主机加一台存储,但是平常我们个人假如想在家研究测试RAC的话,很少会去购买这么多设备来做测试的。 幸好,我们有VMware GSX Server(以下简称VMware),通过使用这款非常好的虚拟机模拟工具,我们可以在一台PC电脑上模拟出多台主机加存储的这样一个RAC环境。     本文首先简要介绍了RAC的原理,随后着重具体叙述了如何在一台PC电脑上,使用VMware构建两台RedHat Linux AS3(以下简称AS3),并虚拟一个共享存储,创建裸设备,最后在实现RAC的搭建。     1.RAC简介     简单来说,RAC就是位于多个主机(通常都称为节点)上的多个oracle实例同时治理一个数据库。数据库必须放在共享存储设备上,包括数据文件、控制文件、联机日志以及spfile都必须放在共享存储上,这样每个节点才能同时访问存储设备。每个节点之间通过高速光纤互相连接,并同步内存数据。oracle在治理不同实例里的内存里的数据结构,同时要最大程度的降低I/O,引入了全局缓冲服务(GCS:Global Cache Service),同时还引入了全局锁定服务(GES:Global Enqueue Service)用来在不同节点之间通讯时进行同步治理。这些服务都是通过一组非凡的后台进程完成的,这些后台进程主要包括:     (1)global cache service processes(LMSN):n从0到9,具体由信息传输的数量决定。用来控制信息到其他实例的流向,同时还治理对全局数据块的访问。LMSn进程同样在不同实例的数据块缓存(buffer cache)里传递数据库镜像(block image)。该进程是Cache Fusion特性的一部分。     (2)global enqueue service monitor(LMON):监控全局锁定(global enqueues)及其资源,并提供global enqueues资源的恢复操作。enqueues是用来进行串行化行更新的共享的内存结构。     (3)global enqueue service daemon(LMD):治理对全局锁定(global enqueues)以及全局资源的访问。在每个实例中,LMD进程对传入当前实例的对其他资源的访问请求进行治理。     (4)lock process(LCK)治理non-Cache Fusion资源的请求,比如library cache或row cache的请求。     (5)diagnosability daemon(DIAG):获得实例中有关进程失败的诊断信息。该daemon的操作是自动的,并且它会更新alert<SID>.log文件,以记录它所做的动作。     注重:cache fusion表示一种在RAC里的非磁盘交互方式的内存同步机制。该机制使得获得block的实例能够将block直接从内存转移到需要该block的实例的SGA里去。这样,由于减少了磁盘交互,所以将block从一个实例转移到另一个实例的性能提高很多。而且治理也更加简便。     RAC能够对客户端的连接请求进行负载均衡,把所有客户的连接尽可能的平均分布在不同的实例上。同时,RAC还提供failover的功能,也就是说假如其中一个节点发生意外,只要这个时候连在该损坏节点上的session没有正在进行事务运行,则该session不需要退出后重新登录,oracle会自动将该session连接到一个可用的节点上,从而保证了7×24应用的安全性和稳定性。     不过,RAC不提供容灾的功能,也就是说假如共享存储损坏,仍然会导致整个应用崩溃。所以,需要采用其他容灾方案结合使用,比如RAC+DataGuard等。     2.预备工作     VMware GSX Server:笔者测试所使用的是3.2版本,建议使用3.2及以上的版本。

    Linux:笔者使用的是RedHat Linux AS3。请使用AS2.1以上版本的linux。因为AS2.1以下的版本假如要

    支持RAC需要进行很多额外的配置,比如watchdog之类的,到了AS2.1以后缺省都不使用了,而是使用hangcheck,假如要使用watchdog,需要进行很多不必要的配置。安装介质可以是光盘,也可以是ISO文件。笔者使用的是ISO文件。

    Oracle:笔者使用的是oracle 9204 for linux,可以直接从oracle的官方网站上下载。笔者是从oracle官方网站上下载下来的三个压缩包。     主要的预备工作就是这些,当然安装过程中可能还会需要其他的一些软件,比如plainmaker等。在需要的时候,笔者也会说明如何使用这些软件的。    3.安装虚拟节点     3.1 创建虚拟节点     VMware安装好以后,进入主界面,我们就可以创建两个虚拟节点。点击File->New Virtual Machine…,在打开的窗口中,在选择所安装的操作系统时,我们选择RedHat Enterprise Linux 3,其他都选择缺省值,点击next,一直到让你输入disk size时,缺省事4G,我们改成8G,最后点击finish。这样就创建好了一个虚拟节点,取名为linux1。同样的方法,我们创建第二个虚拟节点,取名为linux2。     3.2安装linux     创建完两个虚拟节点以后,我们要开始安装linux了。在窗口的左边的Inventory框里,右键节点linux1,选择virtual machine settings…,在弹出的框中,我们选中CD-ROM,然后选择Use ISO Image,并输入相应的linux安装介质的第一个ISO文件的位置,如下图所示。选择ok以后,点击Power->Power On,相当于为节点

   

点击查看大图    加电,剩下的工作与在单PC机器上安装linux过程一样。这里提一点,就是在给磁盘分区时,假如不使用LVM,那么在分区时,/boot给120M,/swap给256M,/给2900M,然后再创建一个/oracle,把剩下的空间都给/oracle。在安装过程中,当提示需要换另外一张盘时,你只要再次进入图一所示界面,更改ISO文件并确定以后,再进入虚拟机,选择提示中的ok即可。同样的方法,我们可以安装好另外一台虚拟机上的linux。     RAC里每个节点都需要两块网卡并使用固定ip,一块作为两个节点互相内部通信用,另外一块作为外部连接用。我们同样的,选择linux1,进入图一界面,选择add按钮,然后选择Ethernet Adapter,然后都选择缺省值并点击next直到结束。这样就为linux1添加了第二块网卡。同样的方法为linux2添加第二块网卡。分别启动两个节点以后,我们在linux为网卡配置ip地址。笔者的配置是linux1的内部通信ip为:134.251.0.140,外部通信ip为:134.251.114.141。而linux2的内部通信ip为:134.251.0.141,外部通信ip为:134.251.114.140。     4.安装共享磁盘     4.1 创建共享磁盘     在VMware里,共享磁盘需要使用plainmaker.exe这个工具来创建。可以到VMware GSX Server的安装目录下找该工具是否存在。假如不存在,则可以到Google上搜索。很多站点提供该工具的下载。进入命令提示符,输入下面的命令来创建共享磁盘。     C:\>plainmaker D:\virtualos\sharedisk.pln 2048m     该命令运行以后,就会在D:\virtualos目录下创建一个名位sharedisk.pln的共享磁盘,大小为2G。     4.2 添加共享磁盘     共享磁盘安装好以后,我们需要把它加入到前面安装好的两台linux虚拟机里。选择linux1,仍然进入到图一所示的界面里,选择左边的add按钮,在弹出的框中,选择Hard Disk,并点击next,选择方式如下面图二         所示,并点击next,输入我们刚才创建的共享磁盘名:D:\virtualos\sharedisk.pln,然后不要点击finish,要点击advanced,选择磁盘为SCSI 1:0。如下图三所示。最后点击finish。这样,我们就为linux1节点添加了共享存储。随后,我们用同样的方法为linux2节点也添加该共享存储。

   

    4.3 配置共享磁盘     把共享存储添加到两个节点以后,还不算完,必须修改两个虚拟机的配置文件。在每个节点所在目录下都存在一个后缀名为vmx的文件,这就是虚拟机的配置文件了,用notepad打开,把下面三行记录添加进去。注重,这三行中的每一行都不能重复,所以仔细检查一下vmx文件,确保这三行记录唯一。每个节点的配置文件都必须添加这三行记录。     disk.locking = FALSE

    scsi1.sharedBus = "virtual"

    scsi1:0.mode = "persistent"     到这里,我们才算是为两个节点都配置好了共享存储。分别启动两个linux节点以后,进入linux,我们可以使用如下命令来确定两个节点是否都能够找到该存储了。假如提示出有设备,则表示能够识别共享存储。fdisk –l /dev/sdb

    5.设置两个节点的互相信任机制     由于RAC的节点之间需要完全无障碍的访问,因此需要设定主机名互相访问以及互相信任机制。注重:以下所有步骤都必须在两台节点上各自完成。     5.1 设置主机名     首先,RAC之间互相不能通过ip来访问,而必须使用主机名来访问,因此需要设定hosts内容。笔者设定的是节点linux1的内部访问主机名为linux1-prv,而外部访问节点名为linux1;节点linux2的内部访问主机名为linux2-prv,而外部访问节点名为linux2。需要将这些信息添加到/etc/hosts文件里去,如下所示。注重,要将127.0.0.1原来所对应的linux1改名为localhost。     # Do not remove the following line, or various programs

    # that require network functionality will fail.

    127.0.0.1localhostlocalhost.localdomainlocalhost

    134.251.114.140 linux1

    134.251.114.141 linux2

    134.251.0.140linux1-prv

    134.251.0.141linux2-prv     同样的,修改linux2的/etc/hosts文件,也要将127.0.0.1原来所对应的linux2改名为localhost。其他设置与linux1节点一样。设置好以后,在linux1上ping linux2,在linux2上也ping linux1,假如都通的话,说明设置无误。     5.2 设置telnet访问     (1)通常缺省都会安装telnet-client。主要确定是否安装了telnet-server软件。 [root@linux1 root]# rpm –qa grep telnet

    (2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。     (3)安装好以后,需要启动telnet服务。输入以下命令,并从弹出的框中选中telnet后确认。 [root@linux1 root]# ntsysv

    (4)激活telnet服务 [root@linux1 root]# service xinetd restart

    (5)设置答应root进行telnet登录 [root @linux1 /root]# vi /etc/pam.d/login

    将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。     5.3 设置rlogin、rsh     由于在第一个节点上安装oracle软件时,oracle会自动将第一个节点上安装完毕的文件拷贝到第二个节点上,因此需要配置rlogin和rsh以及rcp等。     (1)确定是否安装了rsh-server软件。 [root@linux1 root]# rpm –qa grep rsh

    (2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。     (3)安装好以后,需要启动rsh、rlogin、rexec服务。输入以下命令,并从弹出的框中选中rsh、rlogin、rexec后确认。 [root@linux1 root]# ntsysv

    (4)激活rsh、rlongin服务 [root@linux1 root]# service xinetd restart

    (5)修改/etc/securetty [root@linux1 root]# echo "rexec" >> /etc/securetty;echo "rlogin" >> /etc/securetty;echo "rsh" >> /etc/securetty

    (6)设置答应root进行rsh、rlogin [root @linux1 /root]# vi /etc/pam.d/rlogin

    将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。     (7)在/etc目录下建立hosts.equiv文件,表示两台linux节点互相信任。 [root @linux1 /root]# vi /etc/hosts.equiv

    在该文件里添加如下内容:     linux1

    linux2

    linux1-prv

    linux2-prv     (8)在root的$HOME目录下,建立.rhosts文件。 [root @linux1 /root]# vi .rhosts

    在该文件里添加如下内容。这样,root用户就可以直接rlogin、rsh而不用输入密码。     linux1 root

    linux2 root

    linux1-prv root

    linux2-prv root     (9)配置完以后,我们可以测试一下是否成功。 [root @linux1 /root]# rlogin linux2 [root @linux1 /root]# rsh –l root linux2 cat /etc/hosts [root @linux1 /root]# rcp /tmp/testlinux2:/tmp

   6.修改linux内核参数以及其他相应配置 [root @linux1 /root]# vi /etc/sysctl.conf

    在该文件末尾添加如下内容:

    kernel.shmmax = 2147483648

    kernel.shmmni = 4096

    kernel.shmall = 2097152

    kernel.sem = 250 32000 100 128

    fs.file-max = 65536

    这里,对每个参数值做个简要的解释和说明。     (1)shmmax:该参数定义了共享内存段的最大尺寸(以字节为单位)。缺省为32M,对于oracle来说,该缺省值太低了,通常将其设置为2G。

    (2)shmmni:这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是 4096 。通常不需要更改。

    (3)shmall:该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值就是2097152,通常不需要修改。

    (4)sem:该参数表示设置的信号量。

    (5)file-max:该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量。     修改好内核以后,执行下面的命令使新的配置生效。 [root @linux1 /root]# /sbin/sysctl -p

    通常,出于性能上的考虑,还需要进行如下的设定,以便改进Oracle用户的有关 nofile(可打开的文件描述符的最大数)和nproc(单个用户可用的最大进程数量)。方法如下: [root @linux1 /root]# vi /etc/security/limits.conf

    在该文件里添加如下内容:     oracle soft nofile 65536

    oracle hard nofile 65536

    oracle soft nproc 16384

    oracle hard nproc 16384    7.配置 hangcheck-timer 内核模块     Oracle9202以前,都是使用watchdog来检查系统是否挂起。从9202以后,oracle使用hangcheck-timer模块。hangcheck-timer模块被加载到内核中,能够定时检查系统是否挂起。有个可配置的参数用来表示多少时间以后系统没响应就认为是挂起。该模块在AS3中是自带的。     使用如下命令检查该模块是否存在: [root @linux1 /root]# find /lib/modules -name "hangcheck-timer.o"

    使用相应的参数加载该模块: [root @linux1 /root]# /sbin/insmod hangcheck-timer hangcheck_tick=30 hangcheck_margin=180

    这里解释一下两个参数的含义:     hangcheck_tick:该参数定义了模块启动的间隔时段。其默认值为 60 秒。 Oracle建议将其设置为 30 秒。

    hangcheck_margin:该参数定义了多少时间以后系统没响应就认为是挂起。以秒为单位。其默认值为 180秒。Oracle 建议将其设置为 180 秒。     检查该模块是否被成功加载: [root @linux1 /root]# grep Hangcheck /var/log/messages

    为了在linux重启以后,自动加载该模块,可以将加载模块的命令添加到/etc/modules.conf中 [root @linux1 /root]# echo "options hangcheck-timer hangcheck_tick=30 hangcheck_margin=180" >> /etc/modules.conf

   8.创建oracle用户和dba组 [root @linux1 /root]# groupadd dba [root @linux1 /root]# useradd –g dba oracle [root @linux1 /root]# passwd oracle

    创建安装oracle所需要的目录。 [root @linux1 /root]# mkdir –p /oracle/ora9/prodUCt/9.2 [root @linux1 /root]# chown –R oracle.dba /oracle/ora9

     为oracle用户配置.bashrc文件。 [root @linux1 /root]# su – oracle [oracle@linux1 oracle]$ vi .bashrc

    将以下内容添加到.bashrc文件里。 eXPort LD_ASSUME_KERNEL=2.4.1 export ORACLE_BASE=/oracle/ora9 export ORACLE_HOME=/oracle/ora9/product/9.2 export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH export ORACLE_OWNER=oracle export ORACLE_SID=rac9i1 export ORACLE_TERM=vt100 export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib: /usr/local/lib:$LD_LIBRARY_PATH

    以上步骤必须在两个节点上分别完成。     注重: 红色部分,在节点linux1上ORACLE_SID=rac9i1,而在节点linux2上则为ORACLE_SID=rac9i2。而蓝色部分,很多资料上只是说LD_LIBRARY_PATH=$ORACLE_HOME/lib即可。但是经过笔者测试,只写这些是不够的,在下面srvconfig –init时会报错。必须按照上面蓝色部分的内容进行配置。     9.为共享设备划分裸设备     通常,对于RAC,我们都会使用裸设备来存放数据文件等需要共享的数据库文件。这就需要我们对共享存储划分出若干的裸设备,每个裸设备对应一个文件。     9.1 磁盘分区     我们要对共享存储进行分区,该步骤只需要在其中一个节点上完成即可。笔者划分了3个主分区(primary)和一个包含11个分区的扩展分区(extend)。注重,linux上最多只能划分15个分区。超过的部分,linux是无法识别的。对每个分区的规划如下所示:     分区名尺寸存放的文件

    /dev/sdb110M用于存放Cluster Manager Quorum文件

    /dev/sdb2350M回滚段表空间1:Undotbs1

    /dev/sdb3350M回滚段表空间1:Undotbs2

    /dev/sdb5500M系统表空间:system

    /dev/sdb610MSpfile

    /dev/sdb7300M临时表空间:temp

    /dev/sdb8300M用户表空间:user和indx,也可以不设置该分区

    /dev/sdb910M控制文件:control file

    /dev/sdb1010M控制文件:control file

    /dev/sdb1120M第一个节点的第一组联机日志文件

    /dev/sdb1220M第一个节点的第二组联机日志文件

    /dev/sdb1320M第二个节点的第一组联机日志文件

    /dev/sdb1420M第二个节点的第二组联机日志文件

    /dev/sdb15100MSrvconfig模块所需要的Shared Configuration文件     规划好以后,我们可以开始实际创建这些分区了。进入linux,执行如下命令进入分区界面。 [root @linux1 /root]# fdisk /dev/sdb

    首先输入n,然后输入p,再输入1,回车接受缺省值,再输入+10M,这样我们就创建了/dev/sdb1。同样的方法,我们可以创建sdb2和sdb3。再次输入n,然后输入e,回车接受缺省值,再回车接受缺省值,这样,我们就创建了扩展分区sdb4,同时把剩下的空间全都给了sdb4。接下来,我们输入n,然后回车接受缺省值,再输入+500M,这样,我们就创建了sdb5。同样的方法,我们可以把剩下的所有分区都创建出来。     创建完毕以后,输入p,显示我们刚才所创建的所有分区,确认无误以后,输入w,从而保存我们所创建的分区,并更新分区表。     9.2 挂载裸设备     该步骤需要在两个节点分别进行。对裸设备的规划如下:     裸设备文件名挂载的分区存放的文件

    /dev/raw/raw1/dev/sdb1Cluster Manager Quorum

    /dev/raw/raw2/dev/sdb2Undotbs1

    /dev/raw/raw3/dev/sdb3Undotbs2

    /dev/raw/raw4/dev/sdb5system

    /dev/raw/raw5/dev/sdb6Spfile

    /dev/raw/raw6/dev/sdb7temp

    /dev/raw/raw7/dev/sdb8user和indx

    /dev/raw/raw8/dev/sdb9control file

    /dev/raw/raw9/dev/sdb10control file

    /dev/raw/raw10/dev/sdb11Log1-thread1

    /dev/raw/raw11/dev/sdb12Log2-thread1

    /dev/raw/raw12/dev/sdb13Log3-thread2

    /dev/raw/raw13/dev/sdb14Log4-thread2

    /dev/raw/raw14/dev/sdb15Shared Configuration     确定了裸设备的规划以后,将以下内容添加到/etc/rc.local文件。

    raw /dev/raw/raw1 /dev/sdb1# Cluster Manager Quorum

    raw /dev/raw/raw2 /dev/sdb2#undotbs1

    raw /dev/raw/raw3 /dev/sdb3#undotbs2

    raw /dev/raw/raw4 /dev/sdb5#sys01

    raw /dev/raw/raw5 /dev/sdb6#spfile

    raw /dev/raw/raw6 /dev/sdb7#temp01

    raw /dev/raw/raw7 /dev/sdb8#user01&indx01

    raw /dev/raw/raw8 /dev/sdb9#ctl1

    raw /dev/raw/raw9 /dev/sdb10#ctl2

    raw /dev/raw/raw10 /dev/sdb11#log1-thread1

    raw /dev/raw/raw11 /dev/sdb12#log2-thread1

    raw /dev/raw/raw12 /dev/sdb13#log3-thread2

    raw /dev/raw/raw13 /dev/sdb14#log4-thread2

    raw /dev/raw/raw14 /dev/sdb15#share configuration file     检查无误后,修改/dev/raw1、/dev/raw/raw2一直到/dev/raw/raw15这15个裸设备文件的宿主为oracle。 [root @linux1 /root]# chown oracle.dba /dev/raw/raw1 [root @linux1 /root]# chown oracle.dba /dev/raw/raw2 。。。。。。。 [root @linux1 /root]# chown oracle.dba /dev/raw/raw15

    分别重新启动两个节点。启动完毕以后,运行如下命令确定裸设备的配置情况。 [root @linux1 /root]# raw -aq

    10.检查安装oracle所需要的linux模块以及补丁     在两个节点上分别确定以下这些rpm包是否都存在。     make-3.79

    binutils-2.11

    openmotif-2.2.2-16

    setarch-1.3-1 compat-gcc-c++-7.3-2.96.122

    compat-libstdc++-7.3-2.96.122

    compat-gcc-7.3-2.96.122

    compat-db-4.0.14-5

    compat-libstdc++-devel-7.3-2.96.122     假如没有,则从AS3的安装介质上找到这些包并加以安装。安装好上面这些模块以后,需要打补丁,补丁号为:3006854。可以到oracle官方网站下载该补丁,发送到两个节点上以后,执行:

    [root @linux1 /root]# sh rhel3_pre_install.sh     11.安装Oracle Cluster Manager     11.1 生成OCM治理文件     该OCM治理文件必须位于共享存储上,按照我们的规划,应该放在/dev/raw/raw1上。该步骤只需要在其中一个节点上执行即可。 [root @linux1 /root]# su - oracle [oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw1 bs=1024 count=1024

    11.2 安装OCM [oracle@linux1 oracle]$ su - root [root @linux1 /root]# mv /usr/bin/gcc /usr/bin/gcc323 [root @linux1 /root]# ln -s /usr/bin/gcc296 /usr/bin/gcc [root @linux1 /root]# mv /usr/bin/g++ /usr/bin/g++323 [root @linux1 /root]# ln -s /usr/bin/g++296 /usr/bin/g++

    检验一下gcc和g++的版本。 [root@linux1 root]# gcc -v Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122) [root@linux1 root]# g++ -v Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122)

    将下载下来的oracle安装介质(笔者下载的是ship_9204_linux_disk1.cpio.gz、ship_9204_linux_disk2.cpio.gz和ship_9204_linux_disk3.cpio.gz)拷贝到其中一个节点上。可以通过FTP拷贝也可以通过samba服务来拷贝。笔者个人倾向samba,很方便。拷贝完毕以后,使用如下命令解压。 [root @linux1 /setup]# gunzip ship_9204_linux_disk1.cpio.gz [root @linux1 /setup]# gunzip ship_9204_linux_disk2.cpio.gz [root @linux1 /setup]# gunzip ship_9204_linux_disk3.cpio.gz [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk1.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk1.cpio [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk2.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk2.cpio [root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk3.cpio [root @linux1 /setup]# rm –f ship_9204_linux_disk3.cpio

    解压完毕,在当前目录下有三个目录:Disk1、Disk2、Disk3。修改宿主信息。 [root @linux1 /setup]# chown –R oracle.dba Disk1 [root @linux1 /setup]# chown –R oracle.dba Disk2 [root @linux1 /setup]# chown –R oracle.dba Disk3

     设置xhost + [root @linux1 /setup]# xhost +

    开始安装OCM [root @linux1 /setup]# su - oracle [oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh

    在界面上,选择安装oracle cluster manager。点击next,会要求你输入public node,这时你分两行输入linux1和linux2。点击next,会要求你输入private node,这时你分两行输入linux1-prv和linux2-prv。点击next,会要求输入Quorum文件,这时输入/dev/raw/raw1。点击next开始安装cluster manager软件。这个软件很小,安装很快就会结束。     11.3 配置OCM [oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/admin [oracle@linux1 admin]$ cp cmcfg.ora.tmp cmcfg.ora [oracle@linux1 admin]$ vi cmcfg.ora

    将该文件内容修改为如下内容:     HeartBeat=15000

    ClusterName=Oracle Cluster Manager, version 9i

    PollInterval=1000

    MissCount=20

    PrivateNodeNames=linux1-prv linux2-prv

    PublicNodeNames=linux1 linux2

    ServicePort=9998

    HostName=linux1

    CmDiskFile=/dev/raw/raw1     11.4 启动OCM [oracle@linux1 oracle]$ rm $ORACLE_HOME/oracm/log/*.ts [oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/bin [oracle@linux1 bin]$ ./ocmstart.sh [oracle@linux1 bin]$ ps –efgrep oracm

     假如没有发现oracm进程,则检查$ORACLE_HOME/oracm/log/下的cm.log文件,查看错误消息。       12.安装Oracle软件 [oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh

    安装过程比较简单,也没有出现任何错误。注重选择只安装oracle软件,不要安装数据库。     13.初始化Shared Configuration文件     Oracle软件安装完毕以后,开始设置Shared Configuration文件。 [oracle@linux1 oracle]$ su - root [root @linux1 /root]# mkdir -p /var/opt/oracle [root @linux1 /root]# touch /var/opt/oracle/srvConfig.loc [root @linux1 /root]# chown oracle:dba /var/opt/oracle/srvConfig.loc [root @linux1 /root]# chmod 755 /var/opt/oracle/srvConfig.loc

    在srvConfig.loc文件中添加Shared Configuration文件所在的路径。而笔者的Shared Configuration文件位于共享存储上,对应/dev/raw/raw14。 [root @linux1 /root]# echo “srvconfig_loc=/dev/raw/raw14” >> /var/opt/oracle/srvConfig.loc

    创建该Shared Configuration文件。 [root @linux1 /root]# su - oracle [oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw14 bs=1024 count=102400

     初始化该Shared Configuration文件 [oracle@linux1 oracle]$ srvconfig -init

    笔者一开始执行报错,结果把环境变量$LD_LIBRARY_PATH在.bashrc中设置为如下值后,再启动就不会报错了:$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib:$LD_LIBRARY_PATH。     14.创建数据库     使用dbca创建数据库还是很简单的。不过,笔者还是走了些弯路。主要是undotbs1不能太小,笔者一开始设置为240M,结果建库时总是报错。后来加大到350M后,成功建库。启动dbca前,要先在两个节点上分别启动gsd进程。 [oracle@linux1 oracle]$ $ORACLE_HOME/bin/gsdctl start

    然后启动dbca。 [oracle@linux1 oracle]$ dbca

    选择创建cluster database,点击next,把所有可以不选的组件都不选,点击next后,在初始化参数设置的地方,修改spfile的路径为:/dev/raw/raw5。然后点击next,直到最后界面,笔者把表空间indx、users、tools都删除了,为了建库干净。然后按照前面的规划,分别把裸设备文件名填写到对应的文件上去。注重,每个文件都不要设定autoextend on。最后选择生成脚本,点击finish。     当脚本生成完毕时,先别急着点ok。进入脚本所在目录,检查一下init.ora.xxxxxxxxxxxxx文件(这里xxxxxxxxxxxxx为随即序列号)。着重检查最后几行,不知为何,自动生成的init.ora文件会有点问题。比如,笔者这里生成的init.ora.7232006164055内容为:     rac9i1.instance_name=rac9i

    rac9i2.instance_name=rac9i2

    rac9i1.instance_number=1

    rac9i2.instance_number=2

    rac9i2.local_listener=LISTENER_RAC9I

    rac9i1.local_listener=LISTENER_RAC9I1

    rac9i2.thread=2

    rac9i1.thread=1

    rac9i2.undo_tablespace=UNDOTBS2

    rac9i1.undo_tablespace=UNDOTBS1     笔者用红色标示出来的地方是有问题的,按照这样的初始化参数建立起来的RAC数据库,第二个节点没有办法通过负载均衡来访问。同时,最好把local_listener和remote_listener修改掉。最后修改后的这块内容为:     rac9i1.instance_name=rac9i1

    rac9i2.instance_name=rac9i2

    rac9i1.instance_number=1

    rac9i2.instance_number=2

    rac9i2.local_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'

    rac9i2.remote_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'

    rac9i1.local_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'

    rac9i1.remote_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'

    rac9i2.thread=2

    rac9i1.thread=1

    rac9i2.undo_tablespace=UNDOTBS2

    rac9i1.undo_tablespace=UNDOTBS1

   

    修改完这些内容以后,回到原来的dbca界面,点击ok,就开始数据库的正式安装了。当然,也可以在dbca创建好数据库以后再修改这些内容也是可以的。创建完数据库以后,第二个节点的实例也会自动启动。这时,整个RAC数据库环境就已经搭建完毕了。     15.验证并测试RAC数据库     在服务器端,执行如下语句。观察是否有两个实例在运行。 SQL> select INSTANCE_NUMBER, STATUS,HOST_NAME from gv$instance; INSTANCE_NUMBER STATUSHOST_NAME --------------- ------------ ------------------ 1OPENlinux1 2OPENlinux2

    15.1 测试负载均衡     在客户端上修改tnsnames.ora文件,添加如下内容:

    rac =

    (DESCRIPTION =

    (ADDRESS_LIST =

    (ADDRESS = (PROTOCOL = TCP)(HOST = linux2)(PORT = 1521))

    (ADDRESS = (PROTOCOL = TCP)(HOST = linux1)(PORT = 1521))

    )

    (CONNECT_DATA =

    (service_name = rac9i)

    (failover_mode=(type=select)(method=basic))

    )

    (LOAD_BALANCE=ON)

    (FAILOVER=ON)

    )     然后,为了能识别主机名linux1和linux2,笔者还修改了C:\WINDOWS\system32\drivers\etc目录下的hosts文件,添加如下内容:     134.251.114.140linux1

    134.251.114.141linux2     最后,在命令窗口执行tnsping rac来检验是否能够连通。检测无误以后,开始测试。分两种方法,第一种方法是开两个命令行窗口,在一个窗口中分别输入如下的命令,然后再在另外一个窗口也输入如下的命令。 D:\>sqlplus /nolog SQL> connect sys/hanson@rac as sysdba SQL> select instance_name from v$instance; SQL> exit

    但是,从结果看起来,并没有实现负载均衡。两个窗口出现的都是rac9i1。而不是笔者想象中的一个窗口是rac9i1,另一个窗口是rac9i2。笔者又开了一个命令行窗口,再次重复执行上面的命令,仍然显示rac9i1。     换第二种测试方法,建立一个test.sql文件,内容如下: connect test/test@rac; select instance_name from v$instance; exit

    然后,打开一个命令行窗口,反复执行如下命令: D:\>sqlplus /nolog @c:\test.sql

    这时,显示出来的实例名确实是负载均衡了,rac9i1和rac9i2交替出现。笔者认为,这样的负载均衡意义似乎不是很大。     15.2 测试failover     实现failover,需要在客户端的tnsnames.ora文件的CONNECT_DATA节点里添加如下行:     (failover_mode=(type=select)(method=basic))     进入命令行窗口。 D:\>sqlplus /nolog SQL> connect sys/hanson@rac as sysdba SQL> select instance_name from v$instance; INSTANCE_NAME --------------- rac9i1

    这时,进入linux1节点,shutdown实例以后,再次回到上面的命令行窗口,再次执行如下语句: SQL> select instance_name from v$instance; INSTANCE_NAME --------------- rac9i2

     从结果可以看到,确实自动切换到了rac9i2实例上。说明failover起作用了。

  评论这张
 
阅读(337)| 评论(0)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017