ImageVerifierCode 换一换
格式:DOCX , 页数:8 ,大小:23.04KB ,
资源ID:6121180      下载积分:10 金币
快捷注册下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/6121180.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

开通VIP折扣优惠下载文档

            查看会员权益                  [ 下载后找不到文档?]

填表反馈(24小时):  下载求助     关注领币    退款申请

开具发票请登录PC端进行申请

   平台协调中心        【在线客服】        免费申请共赢上传

权利声明

1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前可先查看【教您几个在下载文档中可以更好的避免被坑】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时联系平台进行协调解决,联系【微信客服】、【QQ客服】,若有其他问题请点击或扫码反馈【服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【版权申诉】”,意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:0574-28810668;投诉电话:18658249818。

注意事项

本文(RAC 添加节点.docx)为本站上传会员【xrp****65】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4009-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

RAC 添加节点.docx

1、 1、 如果是两个节点的RAC:node1和node2,node2操作系统宕机,重装操作系统之后再把node2添加进去。则在node1现在是一个单节点的RAC,一定要在node1上把node2的信息删除干净,再添加node2。 先dbca删除实例 \./runInstaller -updateNodeList 1、准备工作: node2先安装下cvuqdisk包,这个包在GI安装文件中有。 /home/grid/grid/rpm # rpm -ivh cvuqdisk-1.0.9-1.rpm 检查硬件和软件信息、

2、补丁包是否安装、网络、存储是否配置合理: 检查node2是否满足rac安装条件(在node1节点下面用grid用户执行) [root@node1 ~]# su - grid 原来节点检查 [grid@node1 ~]$ cluvfy stage -post hwos -n sgdb1 -verbose 确定节点信息 [grid@node1 ~]$ cluvfy stage -pre nodeadd -n sgdb1 -fixup -verbose 使用cluster verify工具验证新增节点是否满足cluster的要求: cluvfy stage

3、pre nodeadd -n 2、添加新节点node2的集群软件 在已经有节点node1下面执行这个命令添加新节点的集群软件(grid用户执行) [root@node1 ~]# su - grid [grid@node1 ~]$cd /u01/app/11.2.0/grid/oui/bin/ 下面命令是执行addNode.sh时忽略检测,因为上面已经检查过。 [grid@node1 bin]$ export IGNORE_PREADDNODE_CHECKS=Y [grid@node1~]$./addNode.sh

4、 -silent "CLUSTER_NEW_NODES={sgdb2}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={sgdb2vip}" "CLUSTER_NEW_PRIVATE_NODE_NAMES={sgdb2priv}" &>~/add_node.log 在另一个窗口中查看日志信息: tail -f add_node.log 在新节点 node2用root用户执行 运行提示的root.sh脚本 [root@node2 ~]#/u01/app/oraInventory/orainstRoot.sh [root@node2~]#/u

5、01/app/11.2.0/grid/root.sh 报错1: [grid@SGDB1 ~]$ tail -f add_node.log Checking swap space: must be greater than 500 MB. Actual 4095 MB Passed Oracle Universal Installer, Version 11.2.0.4.0 Production Copyright (C) 1999, 2013, Oracle. All rights reserved. Performing tests to see

6、whether nodes sgdb2,sgdb2 are available ............................................................... 100% Done. Error ocurred while retrieving node numbers of the existing nodes. Please check if clusterware home is properly configured. SEVERE:Error ocurred while retrieving node numbers of th

7、e existing nodes. Please check if clusterware home is properly configured. tail: add_node.log: file truncated -bash: ./addNode.sh: No such file or directory 报错检测不到两个节点的信息,原因是因为在正常节点宕机节点的信息没有删除干净。重新删除。 第一步:dba (一定要dbca删除废掉的实例) 第二步: [grid@SGDB1 bin]$ ./runInstaller -silent -updateNodeL

8、ist ORACLE_HOME=/oracle/app/11.2.0/grid/ "CLUSTER_NODES={sgdb1}" CRS=TRUE 集群软件添加之后在节点2启动集群:此时在node2 crs_stat -t -v 可能没有反应,要先启动集群。 crsctl start crs crsctl start cluster 在新加节点用GRID用户通过下面命令对RAC扩展结果进行验证 [grid@node2 ~]$ cluvfy stage -post nodeadd -sgdb1,sgdb2 Oracle Cluster

9、Time Synchronization Services check passed Post-check for node addition was unsuccessful on all the nodes. scan name和ip是写在/etc/hosts中的,而没有采用DNS或GNS 通过查询metalink,文档ID为887471.1 Cause Cause 1. SCAN name is resolved by hosts file instead of DNS or GNS, this could happen even you list a

10、ll SCAN IP(s) in hosts file Solution List For cause 1: Oracle strongly recommend to use DNS or GNS for SCAN name resolution as hosts file support only one IP for SCAN name. If you intended to use hosts file for SCAN name resolution, and ping command returns correct SCAN VIP, you can ignore the

11、 error and move forward. 采用/etc/hosts方式的话,只能一个scan name和ip, ping scan name能返回正确ip的话,那这个报错可以忽略。 [grid@node2 ~]$ ping rac-scan PING tony-scan (10.0.0.150) 56(84) bytes of data. 64 bytes from tony-scan (10.0.0.150): icmp_seq=1 ttl=64 time=1.17 ms 3、为新节点安装数据库软件 为新节点安装数据库软件(在已经有节点下用oracle用户执行)

12、 [root@node1 ~]# su - oracle [root@node1 ~]# cd $ORACLE_HOME/oui/bin [oracle@node1 ~]$./addNode.sh -silent "CLUSTER_NEW_NODES={sgdb2}" &>~/add_node.log 运行提示的root.sh脚本 ,在新节点 node2用root用户执行 /oracle/app/oracle/product/11.2.0/db_1/root.sh 报错: 执行上述./addNode.sh -silent "CLUSTER_NEW_NO

13、DES={sgdb2}" 命令时还是报错:提示不能识别节点或者虚拟节点,在命令中按提示添加。 [oracle@node1 ~]$./addNode.sh -silent "CLUSTER_NEW_NODES={sgdb2}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={sgdb2vip}" 好像是标红部分虚拟名称,具体根据提示。因为在以前测试中没有出现让添加虚拟信息。 报错2: [oracle@node1 bin]$ ./addNode.sh "CLUSTER_NEW_NODES={node2}" &>~/add_node.log

14、 [oracle@node1 ~]$ tail -f add_node.log Performing pre-checks for node addition Shared resources check for node addition failed Cannot identify existing nodes in cluster The required component "olsnodes" is missing Verification cannot proceed 4、为新节点添加实例 用命令行直接添加实例(在已经有

15、节点下面用oracle用户执行) [oracle@node1 ~]$ dbca -silent -addInstance -nodeList sgdb2 -gdbName orcl -instanceName orcl2 -sysDBAUserName sys -sysDBAPassword oracle 报错1: 提示不能识别虚拟IP什么的,出现一个未知的IP,删除。 [root@node1 bin]# ./srvctl remove vip -i node2 报错2: 再次执行添加实例的命令,提示实例orcl2已经存在。 因为当初在正常节

16、点node1删除宕机节点node2信息时,没有在node1上执行dbca删除实例。现在node2配置了和原先一模一样的环境和信息。node2又活了过来。 关机重启服务器,查看资源、实例等信息是否正常,如何正常则OK。重启后资源等正常。 增加完成,验证: [root@node2 grid]# /u01/app/11.2.0/grid/bin/crsctl stat res -t [root@node2 grid]# /u01/app/11.2.0/grid/bin/crs_stat -t -v 5、网络不稳定的问题:

17、 节点2添加进集群后,出现网络不稳定的问题: ifconfig service network restart:提示端口不正常。 重启后节点2登陆不上,但是通过节点1 SSH 能够登陆。 心跳一会儿通一会儿不通。 检查网络IP配置,配置都正常。 最终关闭网络自动管理功能: service NetworkManager stop chkconfig NetworkManager off 原正常节点node1 UDEV绑定的内容: 存储和服务器都是华为的,华为有自带的

18、多路径,光盘安装多路径之后,将此文件拷贝到新装操作系统的相应目录下,重启服务器,节点2正常识别到了存储。 UDEV绑定: [root@SGDB2 rules.d]# cat 99-x-asmdisk.rules KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -d /dev/$parent", RESULT=="36105172100114193000844e500000001", NAME="asmdisk1", OWNER="grid", GROUP="asmadmin", MODE="0660" KERN

19、EL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -d /dev/$parent", RESULT=="36105172100114193000844e500000001", NAME="asmdisk2", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd?1", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -d /dev/$parent", RESULT=="3610517210011419300082c8100000000", NAME="asmdisk3", OWNER="grid", GROUP="asmadmin", MODE="0660" KERNEL=="sd?2", BUS=="scsi", PROGRAM=="/sbin/scsi_id -g -u -d /dev/$parent", RESULT=="3610517210011419300082c8100000000", NAME="asmdisk4", OWNER="grid", GROUP="asmadmin", MODE="0660"

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        抽奖活动

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:0574-28810668  投诉电话:18658249818

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :微信公众号    抖音    微博    LOFTER 

客服