SUSEHA配置手册
- 格式:docx
- 大小:9.89 KB
- 文档页数:4
Sure HA 双机linux环境配置手册(镜像型)一、基础环境设置1、设置IP ,请在两个服务器上分别进行操作host1:公网IP:192.168.2.101 私网IP:192.168.20.101host2: 公网IP :192.168.2.102 私网IP :192.168.20.102修改IP的方法为:vi /etc/sysconfig/network/ifcfg-eth0vi /etc/sysconfig/network/ifcfg-eth1eth0修改后的结果eth1修改后的结果查看并确认IP地址2、设置/etc/HOSTNAME,请在两个服务器上分别进行操作vi /etc/HOSTNAME修改主机名为:host1查看修改后的结果为:重启后hostname才能生效3、查看防火墙的状态,如果是打开状态则关闭防火墙,请在两个服务器上分别进行操作chkconfig --list |grep firewall 注:list前面是两个短线--关闭防火墙chkconfig SuSEfirewall2_setup offchkconfig SuSEfirewall2_init offSuSEfirewall2 stop4、设置/etc/hosts,请在两个服务器上分别进行操作修改/etc/hosts文件,内容如下5、设置硬盘分区,请在两个服务器上分别进行操作说明:在本文环境中只有两个主分区,故在下文中首先新建了一个扩展分区,然后建立了一个20M的cluster分区,剩余的分区划分成数据分区。
关于fdisk的基础知识,n:新建分区,p:主分区,e:扩展分区,l:逻辑分区,w:把修改写入分区表1.查看硬盘分区对/dev/sda进行分区fdisk /dev/sda输入n,然后选择e,建立扩展分区,输入分区号3(1和2已经被使用)分区大小选择默认,直接两次回车即可然后再次输入n,然后输入l(建立逻辑分区)。
BluePoint-HA用户指南Support forSUSE Linux Enterprise Server 11.1 x86 i586目录第一部分:BluePoint-HA 简介 (3)第二部分:安装BluePoint-HA (5)第三部分:配置BluePoint-HA(普通配置) (7)第四部分:配置BluePoint-HA(进阶配置) (16)第五部分:使用Corosync/OpenAIS集群引擎 (20)修改记录 (23)第一部分:BluePoint-HA 简介BluePoint-HA是基于开源linux集群软件heartbeat(Linux-HA)和Corosync/OpenAIS 集成整合开发而成,目前主要运行于INTEL/AMD x86硬件平台的Linux操作系统高可用性集群软件。
BluePoint-HA各个主要模块关系如下图所示:BluePoint-HA支持的工作模式有两种:Active/Passive模式和Multiple Services模式Active/Passive模式如下图:Multiple Services工作模式如下图第二部分:安装BluePoint-HA将BluePoint-HA 安装包suse11.1_x86_i586_BluePoint-HA.zip 上传到服务器上面去,记得要采用二进制方式上传,否则将无法正常解压和安装。
解压suse11.1_x86_i586_BluePoint-HA.zip # unzip suse11.1_x86_i586_BluePoint-HA.zip 安装BluePoint-HA# cd suse11.1_x86_i586_BluePoint-HA # ./install.sh 或者# sh install.sh注意:安装程序一定要在root 用户下面运行,否则安装程序无法正常进行下去而弹出出错对话框注意:suse11.1_x86_i586_BluePoint-HA.zip 安装包只支持SUSE Linux Enterprise Server 11.1 x86 32位操作系统版本。
天新网09年03月24日【转载】作者:天新网[评论]新安装的OpenSuse10.3,开启ssh后,用Fterm登录ssh,登录失败,Fterm提示”Server does not suppo rt passWord auth”.解决办法:ssh默认不支持密码方式验证.修改/etc/ssh/sshd_config文件,把PasswordAuthentication nodf 修改为PasswordAuthentication yes再重启ssh服务即可:/etc/init.d/sshd restart11月22日『Linux』SUSE 开启SSH服务1.修改sshd_config文件,命令为:vi /etc/ssh/sshd_config2.将#PasswordAuthentication no的注释去掉,并且将NO修改为YES3.将#PasswordAuthentication no的注释去掉,并且将NO修改为YES4.将#PermitRootLogin yes的注释去掉5.重新启动SSH服务,命令为:/etc/init.d/sshd restart6.验证SSH服务状态,命令为:/etc/init.d/sshd status解决SUSE Linux下SSH无法使用密码登录问题新安装的OpenSuse10.3,开启ssh后,用Fterm登录ssh,登录失败,Fterm提示”Server doest not support password auth”.解决办法:ssh默认不支持密码方式验证.修改/etc/ssh/sshd_config文件,把PasswordAuthentication no修改为PasswordAuthentication yes再重启ssh服务即可:/etc/init.d/sshd restart。
Suse 11 sp2—HA部署文档1安装HA的软、硬件要求1) 服务器不要求有相同的硬件(内存、磁盘空间等),但它们必须具有相同的体系结构。
不支持跨平台群集。
2) 群集节点使用多路广播或单路广播进行通讯,因此网络设备必须能支持您采用的通讯方式。
可使用ping命令进行测试。
3) 在所有群集组成的节点上,安装了可用联机更新的 SUSE?Linux Enterprise Server 11SP2。
4) 时间同步:群集节点同步相同时间。
5) 主机名和 IP 地址:通过编辑群集中每台服务器上的 /etc/hosts 文件,配置主机名解析。
确保群集通讯速度不受任何 DNS 影响:每台使用静态 IP 地址并且配置不同的主机名。
6) SSH:所有群集节点都必须能通过 SSH 相互访问2 系统源安装2.1 将系统iso包拷贝至服务器上,采用zypper直接安装,可参考《zypper.txt》,suse 环境下比较复杂,建议使用下述方案2;2.2 将系统光盘通过光驱直接挂到服务器上,通过VNC方式连接服务器进行系统源安装。
具体步骤如下:1)进入yast界面,选择“软件安装源”2)进入“已配置安装源”界面,选择“添加”后,进入“媒体类型”界面,选择“DVD”3)点击“下一步”,弹出一个提示框,请点击“继续”4)点击继续后,系统就会从系统DVD中读取系统源文件,结束后选择“完成”即可。
3 Suse HA ISO包安装1)下载suse sp2下的关于HA的ISO包,本文档是针对sp2进行梳理,故下载SLE-HA-11-SP2-x86_64-GM-CD1.iso下载地址:http://mirror.excellent.co.id/linux/SLES/2)下载结束后,将iso包拷贝至服务器上,进入yast界面,选择“软件安装源”3)进入“已配置安装源”界面,选择“添加”后,进入“媒体类型”界面,选择“本地ISO镜像”,选择“下一步”4)进入“本地ISO镜像”界面,在“ISO映像路径”处,通过“浏览”选择拷贝的SLE-HA-11-SP2-x86_64-GM-CD1.iso所在路径,“安装源名称”任意添加,也可以为空。
SUSE Enterprise Storage 5 Administration Section 1 : Introduction to SES 5 and Ceph Architecture●Ceph Features●Ceph Architecture●Core Components○RADOS○CRUSH○Ceph Nodes and Daemons●Storage Structure○Pool○Placement Group○Example●Hardware Requirements and Recommendations○Minimum Requirements○Minimum Disk Size○Using SSD for OSD Journals○Maximum Recommended Number of Disks○Monitor Nodes○RADOS Gateway Nodes●Operating Ceph Services○Starting, Stopping, and Restarting Services using Targets○Starting, Stopping, and Restarting Individual Services○Identifying Individual Services○Service Status●Determining Cluster State○Checking Cluster Health○Watching a Cluster○Checking a Cluster's Usage Stats○Checking a Cluster's Status○Checking OSD Status○Checking for Full OSDs○Checking Monitor Status○Checking Placement Group States○Using the Admin Socket●Authentication with Cephx○Authentication Architecture○Key ManagementSection 2 : OpenATTIC Management Console●OpenATTIC Deployment and Configuration○Deploying OpenATTIC○OpenATTIC Initial Setup●OpenATTIC Web User Interface●DashboardSection 3 : Configure and access Block Storage using rbd●RADOS Block Device○Block Device Commands○Mounting and Unmounting RBD Images○Block Device Snapshots○rbdmap: Map RBD Devices at Boot Time○RADOS Block Device Mirroring●Erasure Coded Pools○Creating a Sample Erasure Coded Pool○Erasure Code Profiles○Erasure Coded Pool and Cache Tiering○Erasure Coded Pools with RADOS Block DeviceSection 4 : C onfigure and access Object Storage using the Ceph Object Gateway●RADOS Gateway Manual Installation●RADOS Gateway ConfigurationSection 5 : C onfigure and use File Storage with CephFS●Supported CephFS Scenarios and Guidance●Ceph Metadata Server○Adding a Metadata Server○Configuring a Metadata Server●CephFS○Creating CephFSSection 6 : C onfigure access to Block Storage using iSCSI●iSCSI Block Storage●General Information about lrbd●Installation and Configuration○Installing the ceph_iscsi Patter○Create RBD Images○Export RBD Images via iSCSISection 7 : C onfigure access to Object and File Storage via NFS●Installation●Configuration●Starting or Restarting NFS Ganesha●Setting Log Level●Verifying the Exported NFS Share●Mounting the Exported NFS ShareSection 8 : M onitoring a SES Cluster using OpenATTIC●Common Web UI Features●Listing OSD Nodes●Managing RADOS Block Devices (RBDs)●Managing Pools●Listing Nodes●Managing NFS Ganesha●Managing iSCSI Gateways●Viewing the Cluster CRUSH Map●Managing Object Gateway Users and Bucket。
SUSE HA配置手册1.SUSE HA软件包安装两个节点均使用yast2安装suse HA软件包(需要额外HA CD与SUSE 11SP3的系统ISO)。
2.初始化配置集群执行yast2 cluster初始化配置集群拷贝配置文件到节点 2scp -rp /etc/corosync/corosync.confsapprdap2:/etc/corosync/ 节点2执行Chkconfigopenais onrcopenais on两个节点执行passwdhacluster3.配置SDB/etc/sysconfig/kernel中增加红框中的行使用sbd命令创建sbd盘创建sbd文件4.配置HA资源执行crm_gui创建克隆资源组,SBD与PING。
具体配置如下图:双击配置之前创建好的sbd盘指向网关创建资源组saprg并按顺序配置各种SAP资源各资源的详细属性如下:需要提前在两个节点创建/etc/nfsexport目录nfs_ip指向虚拟主机名SAP脚本是lsb类型,脚本需要提前放在/etc/init.d下,名字就叫sapecp. 脚本详细内容为:sapprdap1:~ # cat /etc/init.d/sapecp#!/bin/sh### BEGIN INIT INFO# Provides: sapbip.sh# Required-Start: $local_fs $network# Required-Stop: $local_fs# Default-Start: 2 3 4 5# Default-Stop: 0 1 6# Short-Description: sapbip.sh# Description: sapbip.sh pop &imap daemon### END INIT INFO## Run-level Startup script for the SAP instance## chkconfig: 345 91 19# description: Startup/Shutdown SAP instanceSAP_OWNR="ecpadm"HOST_NAME=`hostname`HOST1="sapprdap1"HOST2="sapprdap2"# depending on parameter -- startup, shutdown, restart# of the instance and listener or usage displaycase "$1" instart)# SAP instance startupecho "mount nfssfilesystem"num=`df -h |grepsapmnt|wc -l`if [ $num == 1 ]thenmountsapprdap:/export/sapmnt/ECP /sapmnt/ECP mountsapprdap:/export/usr/sap/trans /usr/sap/transfiecho -n "Starting SAP instance"su - $SAP_OWNR -c "startsap R3 ASCS01 sapecpap"echo "Start SAP ASCS01 ok."su - ecpadm -c "startsap R3"echo "start remote SAP Instance"num2=`ssh $HOST1 df -h |grepsapmnt|wc -l` if [ $num2 != 2 ]thenssh $HOST1 sapprdap:/export/sapmnt/ECP /sapmnt/ECPssh $HOST1 sapprdap:/export/usr/sap/trans /usr/sap/transfissh $HOST2 su - $SAP_OWNR -c "startsap R3 D00"echo "Start D00 instance in sapprdap2 ok.";;stop)# SAP instance shutdownecho -n "Shutdown SAP instance"su - ecpadm -c "stopsap R3"su - ecpadm -c "stopsap R3 ASCS01 sapprdap"su - $SAP_OWNR -c "saposcol -k"su - $SAP_OWNR -c "cleanipc 00 remove"su - $SAP_OWNR -c "cleanipc 01 remove"su - $SAP_OWNR -c "cleanipc 10 remove"su - ecpadm -c "sapcontrol -nr 00 -function StopService"su - ecpadm -c "sapcontrol -nr 01 -function StopService"su - ecpadm -c "sapcontrol -nr 10 -function StopService"kill -9 `ps -ef|grep $SAP_OWNR|grep -v grep|awk '{print $2}'`echo "Stop SAP instance ok."# umount -l /sapmnt/ECP;;restart)$0 stop$0 start;;reload)echo "reload command not supported.";;status)num=`ps aux --cols=1024|grep ms.sapECP_ASCS01|grep -v grep|wc -l`echo "running process ms.sapECP_ASCS01 $num"# [ $num -gt 0 ] || exit 1# num=`ps aux --cols=1024|grep en.sapECP_ASCS01|grep -v grep|wc -l`# echo "running process en.sapECP_ASCS01 $num"# [ $num -gt 0 ] || exit 1exit 0;;*)echo "Usage: $0 start|stop|restart|reload|status"exit 1esacexit 0sapprdap1:~ #配置SAP启停超时为10分钟HA配置完成。
虚拟机环境检查:⏹每台虚拟机至少2张网卡(1张业务,1张心跳);⏹两台虚拟机共享一块100M硬盘用来做sbd fence设备;⏹两台虚拟机应共享存储空间模拟3Par SAP映射存储(由于本实验环境存储空间有限,用代替之)主机名及IP规划:⏹主机名:HA01、HA02⏹业务IP:(HA01)、(HA02)⏹Oracle虚拟IP:虚拟IP:心跳IP:(HA01)、(HA02)⏹业务IP在eth0上,心跳IP在eth1上共享100M SBD设备这样就添加完了一块共享盘。
注意要点:⏹硬盘模式:独立—>持久;⏹设备节点:SCSI(1:0)⏹SCSI总线共享:虚拟或物理第二台虚拟机添加流程如下:两台虚拟机如上所述流程,完成共享盘的添加。
共享存储添加模拟为了与现实环境类似,还需要添加硬盘(分别为:800M、800M、800M、200M),过程与上一致。
完成后的截图如下所示:虚拟机主机名及相关IP设置以2号虚拟机为例,设置如下:两台虚拟机设置完毕后,测试如下:修改HA02虚拟机/etc/hosts文件,并SCP至另一台虚拟机HA01上:另一台虚拟机HA01上检查如下:群集框架搭建以HA01为主,配置群集如下:通道Bind Network Address选择“心跳IP”段,其余默认。
配置完的同步主机列表:配置主机心跳网卡:配置群集服务,注意打开管理工具和关闭防火墙:配置群集完成后,把配置文件/etc/corosync/同步到另一台虚拟主机HA02上:两台虚拟主机均打开服务,并修改hacluster用户密码:并通过crm_gui或者Yast2 Pacemaker GUI观察是否正常,如下:也可以通过crm_mon观察如下:Fence设备设置由于本环境为虚拟机,因此采用SBD方式来通过共享100M的存储盘做Fence设备,如果是物理机可以通过IPMI管理口完成设置。
添加SBD stonith 配置,在两台虚机的/etc/sysconfig/kernel文件中查找BOOT并添加softdog 内核模块,完成后如下所示:两台虚拟机同时设置共享SBD分区:格式化/dev/sdb1完成后,到另一台虚拟机HA01上检查,应该分区也同样可以查到:创建SBD并关联相关群集节点:创建/etc/sysconfig/sbd文件并同步到另一虚拟机HA01节点中:两台虚机(HA01、HA02)重启群集服务:检查群集服务状态如下:添加Fence SBD资源到HA中为保证Fence资源正常切换,CRM配置如下更改:相关SBD资源添加命令如下:Commit提交完毕后,群集资源组如下所示:cLVM 配置1、将LVM2 的锁定类型更改为群集感知的。
联想SureHA集群管理软件OPS用 户 手 册版本号:V1.0联想集团有限公司1999-2003年版权所有。
如事先未得到联想集团有限公司任何书面许可,本文件中的任何部分都不得进行复制,或以任何形式、任何手段进行转载。
联想集团有限公司对本材料未作任何形式的担保,包括对具体用途的商品性和适用性的隐含担保。
联想集团有限公司对本材料中可能出现的任何错误都不承担任何责任。
联想集团有限公司未做出对本手册中的信息更新或保持是最新信息的承诺。
第三方的品牌和名称是他们相应的拥有者的产权。
目 录第一章 前 言1.1 SureHA概述感谢您使用联想SureHA集群管理软件,我们的集群管理软件将帮助您构建高可靠的双机系统,以保护您的数据和服务,本手册将为您介绍我们的SureHA集群软件并指导您安装和配置您的系统。
信息是企业的首要财富。
在一个企业内用于归档、处理和传输信息的计算机系统必须日复一日不断地监控和提供可靠的、及时的、连续的服务。
客户/服务结构已经成为一个主要的倾向。
多服务器协作有以下优点。
¾提高效率:任务可发送到指定服务器运行,每台服务器的所有资源可用于一个特殊任务。
¾改善可用性 :一台服务器宕机不妨碍用户使用其他服务器。
¾降低费用:NT 平台下的所有费用远低于其他服务器平台。
集群软件是在系统不可避免地发生故障时的软件解决方案。
它的基础是构造服务器集群的高可用性。
国际互联网、企业网(Intranet )以及各种应用程序都可以从集群软件中受益。
任何导致系统崩溃或服务中断的错误都将启动集群软件,鉴别故障,隔离错误并在线恢复中断的服务。
中断的服务将被指定的备份服务器接管并继续。
用户只需等待响应延迟,服务在最短的时间内可以继续使用。
1.2 SureHA 特点¾提供两节点集群高可用性方案¾纯软件解决方案,针对系统不可避免的预期和非预期宕机问题¾系统宕机或服务中断时可提供错误识别、故障分离和服务的在线恢复等功能¾支持对多种常用系统服务和应用软件的保护¾通过用户自定义服务管理,支持其它应用软件的保护1.3 SureHA 工作方式SureHA 支持主从方式和对等方式。
Suse用户管理与配置实验目标1.通过学习本实验手册,能够熟练通过命令行建立用户和删除用户;2.能够熟练的完成对用户权限的分配。
实验内容1.创建用户;2.切换用户;3.注销;4.管理员root用户的切换;5.删除用户;6.创建组;7.将用户添加到指定s组;8.用自己的用户登录;9.用户权限及组权限的管理。
实验步骤1.用户管理1.以root登录。
2.创建marry用户。
3.创建jason用户。
4.查看/home下的变化。
5.查看/etc/passwd后5行。
6.设置用户密码均为“123456”,。
7./etc/shadow 查看用户密码(后5行)。
8.Root切换marry用户,(查看是否需要密码)?9.在marry用户登录状态下,输入useradd test是否能够创建用户。
10.输入exit 切换到root。
11.禁用marry帐户。
12./etc/shadows 查看用户(marry)属性注意观察,多出了感叹号!。
13.打开新的终端,marry将无法登录。
14.启用marry用户,查看/etc/shadows。
15.Ctrl+D注销。
(注销直接退出系统啦)16.输入su marry,切换至marry状态。
17.输入su 回车切换到root。
18.输入root密码。
19.删除marry主目录2.组管理1.创建组Dev、Test。
2./etc/group 查看组信息。
3.创建一个属于Dev组的用户dev1。
4.将marry与jason加入Test组。
5.删除组Dev(查看能否成功删除)。
3.图形化用户和组管理工具1.管理用户。
在命令行下输入system-config-users或通过图形界面打开,如图所示。
图4.1 管理工具界面图4.2 用户列表界面2.管理组3.设置组成员图4.5 指定组中用户4.管理文件目录的权限和归属1.文件/目录的权限和归属访问权限读取:允许查看文件内容、显示目录列表写入:允许修改文件内容,允许在目录中新建、移动、删除文件或子目录可执行:允许运行程序、切换目录归属(所有权)属主:拥有该文件或目录的用户帐号属组:拥有该文件或目录的组帐号2.查看文件/目录的权限和归属查看/etc目录和/etc/passwd文件的权限和归属3.设置文件/目录的权限拷贝mkdir命令到宿主目录,命名为rootmkdir使用rootmkdir创建目录dir1查看权限去掉u用户g组o其他用户的执行权限再次执行命令创建目录没有权限为所有人授权能执行mymkdir a代表all 所有人即重新设置mymkdir文件的权限去除组与其他用户的权限重新设置mymkdir文件的访问权限,恢复为rwxr-xr-xLinux文件夹权限不继承设置dir目录中的所有子目录及文件的权限4.设置文件/目录的归属在dir下创建subdir,subdir的宿主改为jason设置属组为test同时修改文件夹的属主和属组,宿主修改为root,组改为test递归设置文件夹属主使用附加权限5.设置set位权限。
一、概念群集LVM 集成了不同工具:分布式锁管理器(DLM)集成了对cLVM 的磁盘访问。
逻辑卷管理器2 (LVM2)支持将一个文件系统灵活分布到多个磁盘上。
LVM 可提供磁盘空间虚拟池。
群集式逻辑卷管理器(cLVM)集成了对LVM2 元数据的访问,以使每个节点都了解相关更改。
cLVM 未集成对共享数据本身的访问;要使cLVM 可执行此操作,必须在cLVM 管理的储存区上配置OCFS2 或其他群集感知应用程序。
二、集群管理1、集群服务/etc/init.d/openais statusservice openais statusrcopenais status2、集群进程ps -ef | egrep "corosync|heartbeat"3、集群状态crm_mon4、资源状态crm_resource -L5、集群管理命令行:crm图形界面:crm_gui6、自定义OCF代理的服务资源1)编写一个脚本test,该脚本必须支持start stop status:将脚本放入文件夹:/usr/lib/ocf/resource.d/heartbeat脚本需要选择ocf:heartbeat:test #将ocf换成lsb将会报错。
test脚本内容如下:#!/bin/bashlogger $0 called with $1case "$1" instart)# Start commands go here;;stop)# Stop commands go here;;status)# Status commands go here;;esac这里的logger命令用于给syslog守护进程发送消息,然后syslog基于/etc/syslog.conf文件中的配置将接收到消息写入到适当的日志文件中。
注意:这个脚本中的case语句不做任何事情,这里只是为你将来自己开发资源脚本时提供一个样本,以便可以处理start,stop,status参数。
SUSE双机环境安装指导手册任务:搭建一个带磁阵的双机环境,运行Oracle服务。
双机软件版本:NewStartHA v2.1 for Linux操作系统:SuSE 9 sp3心跳线:配置两根交叉以太网线,一根串口线工作链路:要求配置bonding磁阵:存储数据库文件。
用ext3文件系统。
操作步骤1、准备硬件环境两台服务器,每台服务器四张网卡,两根交叉网线,一根串口线。
假设每台服务器有四张网卡eth0-eth3。
eth0和eth1设置bonding(步骤见后文),采用热备模式,其中eth0作为Active,连接到交换机A,eth1作为Backup,连接到交换机B。
通过在NewStartHA中设置对外服务管理,产生公共网卡IP(public IP)地址,作为工作链路,而安装后业务服务的浮动IP也会自动设置在工作链路上。
eth2和eth3和另一节点对应的网卡通过交叉网线相连,并且两个节点通过串口线将各自的第一个串口相连,这些连接将作为心跳链路,负责传输心跳信号。
2、安装SLES9操作系统,并打上sp3补丁(如果需要安装该补丁),设置主机名。
具体过程略,我们这里假设系统是完全安装的,两个主机的节点名设置分别是NMG-WAP1-2和NMG-WAP1-1 (全部小写)安装后,可用uname -n命令检查主机名是否正确,如下:[root@NMG-WAP1-1 ~]# uname -nNMG-WAP1-1如果主机名还未设置正确,则修改/etc/HOSTNAME文件vi /etc/HOSTNAME修改主机名为NMG-WAP1-2,修改另一台主机名为NMG-WAP1-1然后执行一台执行hostname NMG-WAP1-2使主机名立刻修改,同样另一台执行:hostname NMG-WAP1-1检查有没有安装orarun(SLES9中的一个用于支持Oracle的软件包):rpm –q orarun如果提示没有安装,请以root权限执行:ln -s /bin/fuser /sbin/fuser然后可执行:which fuser来检查应输出/sbin/fuser3、配置心跳链路及工作链路配置心跳接口ip地址心跳接口ip用于集群内部节点间通讯,其网络号应与对外工作的网络号分开,假设为192.168.1.0,并假设两台主机名为NMG-WAP1-2和NMG-WAP1-1,两个节点的心跳ip可以如下设置:eth1 eth3192.168.10.2 192.168.20.2NMG-WAP1-2心跳IP192.168.10.1 192.168.20.1NMG-WAP1-1心跳IP1) 检查心跳网卡配置文件,查看/etc/sysconfig/network/目录下是否存在心跳网卡对应的ifcfg-eth-id-xx:xx:xx:xx:xx:xx文件(其中xx将被设备的MAC地址所代替),每个文件对应一块网卡,如果不存在,通过运行yast生成网卡配置文件ifcfg-eth-id-xx:xx:xx:xx:xx:xx,只需要简单的配置ip地址和网络掩码,如下图:2) 修改心跳网卡的配置文件,修改后该文件的以下几项必须正确:#vi /etc/sysconfig/network/ifcfg-eth-id-xx:xx:xx:xx:xx:xx按tab键显示可用网卡。
集群基本信息服务器IP 主机名称节点功能172.18.22.49 linux-120 管理节点,调度器,IPVS虚拟服务器172.18.22.81 mgm1 管理节点,调度器,IPVS虚拟服务器172.18.22.55 ndb1 数据节点,SQL节点,IPVS真实服务器172.18.22.55 ndb2 数据节点,SQL节点,IPVS真实服务器Msyql Cluster安装配置管理节点:172.18.22.49 ID:1管理节点:172.18.22.81 ID:6数据节点:172.18.22.55 ID:2数据节点:172.18.22.51 ID:3SQL节点:172.18.22.55 ID:4SQL节点:172.18.22.51 ID:5下载安装包mysql-cluster-gpl-7.3.3.tar.gz,上传到服务器/root目录下面解压包mgm1:~ # tar zxvf mysql-cluster-gpl-7.3.3.tar.gz进入解压后目录:mgm1:~ # cd mysql-cluster-gpl-7.3.3/mgm1:~/mysql-cluster-gpl-7.3.3 #修改 terminal.c文件877行area=NULLmgm1:~/mysql-cluster-gpl-7.3.3 # find / -name terminal.c/root/mysql-cluster-gpl-7.3.3/cmd-line-utils/libedit/terminal.c mgm1:~/mysql-cluster-gpl-7.3.3 # vim/root/mysql-cluster-gpl-7.3.3/cmd-line-utils/libedit/terminal.c建mysql用户组,mysql用户mgm1:~/mysql-cluster-gpl-7.3.3 # groupadd mysqlmgm1:~/mysql-cluster-gpl-7.3.3 # useradd -g mysql mysqlmgm1:~/mysql-cluster-gpl-7.3.3 # id mysqluid=1000(mysql) gid=1000(mysql) groups=16(dialout),33(video),1000(mysql) mgm1:~/mysql-cluster-gpl-7.3.3 #建相关目录/mysql 修改权限mgm1:~/mysql-cluster-gpl-7.3.3 # mkdir /mysqlmgm1:~/mysql-cluster-gpl-7.3.3 # chown mysql:mysql /mysqlmgm1:~/mysql-cluster-gpl-7.3.3 #安装库文件libncursesmgm1:~/zypper in ncurse*编译cmake .mgm1:~/mysql-cluster-gpl-7.3.3 # cmake . -DCMAKE_INSTALL_PREFIX=/mysql -DMYSQL_DATADIR=/mysql/data -DDEFAULT_CHARSET=utf8 -DWITH_DEBUG=1-DWITH_BUNDLED_LIBEVENT=ON -DWITH_BUNDLED_MEMCACHED=ON -DWITH_NDBMTD=ON -DWITH_NDB_TEST=ON安装 make &&make installmgm1:~/mysql-cluster-gpl-7.3.3 # make && make install修改目录权限:mgm1:~/mysql-cluster-gpl-7.3.3 # cd /mysql/mgm1:/mysql # chown -R mysql:mysql /mysql将/mysql 复制到所有节点mgm1:/mysql # scp –r /mysql/* ndb1:/mysqlmgm1:/mysql # scp -r /mysql/* ndb2:/mysqlmgm1:/mysql # scp -r /mysql/* linux-120:/mysql管理节点上面配置:mgm1:~ # mkdir /var/lib/mysql-cluster/mgm1:~ # vim /var/lib/mysql-cluster/config.ini[ndbd default]NoOfReplicas=2# Using 2 replicas is recommended to guarantee availability of data;# using only 1 replica does not provide any redundancy, which means# that the failure of a single data node causes the entire cluster to# shut down. We do not recommend using more than 2 replicas, since 2 is # sufficient to provide high availability, and we do not currently test # with greater values for this parameter.DataMemory=500MIndexMemory=200M# The values provided for DataMemory and IndexMemory assume 4 GB RAM# per data node. However, for best results, you should first calculate# the memory that would be used based on the data you actually plan to# store (you may find the ndb_size.pl utility helpful in estimating# this), then allow an extra 20% over the calculated values. Naturally,# you should ensure that each data node host has at least as much# physical memory as the sum of these two values.LockPagesInMainMemory=1# On Linux and Solaris systems, setting this parameter locks data node# processes into memory. Doing so prevents them from swapping to disk,# which can severely degrade cluster performance.# ODirect=1# Enabling this parameter causes NDBCLUSTER to try using O_DIRECT# writes for local checkpoints and redo logs; this can reduce load on# CPUs. We recommend doing so when using MySQL Cluster on systems running # Linux kernel 2.6 or later.NoOfFragmentLogFiles=300DataDir=/mysql/dataMaxNoOfConcurrentOperations=100000SchedulerSpinTimer=400SchedulerExecutionTimer=100RealTimeScheduler=1# Setting these parameters allows you to take advantage of real-time scheduling # of NDB threads to achieve increased throughput when using ndbd. They# are not needed when using ndbmtd; in particular, you should not set# RealTimeScheduler for ndbmtd data nodes.TimeBetweenGlobalCheckpoints=1000TimeBetweenEpochs=200DiskCheckpointSpeed=10MDiskCheckpointSpeedInRestart=100MRedoBuffer=32M# CompressedLCP=1# CompressedBackup=1# Enabling CompressedLCP and CompressedBackup causes, respectively, local checkpoint files and backup files to be compressed, which can result in a space savings of up to 50% over noncompressed LCPs and backups.# MaxNoOfLocalScans=64MaxNoOfTables=1024MaxNoOfOrderedIndexes=256[tcp default]portnumber=2202SendBufferMemory=2MReceiveBufferMemory=2M# Increasing the sizes of these 2 buffers beyond the default values# helps prevent bottlenecks due to slow disk I/O.[ndb_mgmd default]DataDir=/var/lib/mysql-cluster# It is possible to use a different data directory for each management# server, but for ease of administration it is preferable to be# consistent.[ndb_mgmd]nodeid=1hostname=172.18.22.49[ndb_mgmd]nodeid=6hostname=172.18.22.81[ndbd]nodeid=2hostname=172.18.22.55#datadir=/mysql/dataLockExecuteThreadToCPU=1LockMaintThreadsToCPU=0# On systems with multiple CPUs, these parameters can be used to lock NDBCLUSTER # threads to specific CPUs[ndbd]nodeid=3hostname=172.18.22.51#datadir=/mysql/dataLockExecuteThreadToCPU=1LockMaintThreadsToCPU=0# On systems with multiple CPUs, these parameters can be used to lock NDBCLUSTER # threads to specific CPUs[mysqld]nodeid=4hostname=172.18.22.55[mysqld]nodeid=5hostname=172.18.22.51将config.ini复制到所有管理节点linux-120:~# mkdir /var/lib/mysql-clusterlinux-120:~# chown mysql:mysql /var/lib/mysql-clustermgm1:/mysql # scp –r /var/lib/mysql-cluster/config.ini linux-120:/var/lib/mysql-cluster数据节点和SQL节点配置:ndb2:~ # vim /etc/f[mysqld]basedir=/mysqldatadir=/mysql/datauser=mysqlport=3306socket=/tmp/mysql.sockcharacter-set-server=utf8collation-server=utf8_general_cindbclusterndb-connectstring=linux-120,mgm1[mysql_cluster]ndb-connectstring=linux-120,mgm1ndb2:~ #将f复制到所有SQL节点ndb2:~ # scp /etc/f ndb1:/etc/SQL节点初始化数据库,修改root密码mgm1:~ # /mysql/scripts/mysql_install_db --user=mysql --basedir=/mysql --datadir=/mysql/datamgm1:~ # /mysql/bin/mysqladmin -u root password '123456'管理节点启动mgmdmgm1:~ # /mysql/bin/ndb_mgmd –f /var/lib/mysql-cluster/config.ini linux-120:~ # /mysql/bin/ndb_mgmd -f /var/lib/mysql-cluster/config.ini数据节点启动ndbdndb1:~# /mysql/bin/ndbd --initialndb2:~# /mysql/bin/ndbd --initialSQL节点启动mysqldndb1:~# /mysql/bin/mysqld_safe &ndb2:~# /mysql/bin/mysqld_safe &管理节点查看集群状态:mgm1:~ # /mysql/bin/ndb_mgm -e showConnected to Management Server at: localhost:1186Cluster Configuration---------------------[ndbd(NDB)] 2 node(s)id=2 @172.18.22.55 (mysql-5.6.14 ndb-7.3.3, Nodegroup: 0, *)id=3 @172.18.22.51 (mysql-5.6.14 ndb-7.3.3, Nodegroup: 0)[ndb_mgmd(MGM)] 2 node(s)id=1 @172.18.22.49 (mysql-5.6.14 ndb-7.3.3)id=6 @172.18.22.81 (mysql-5.6.14 ndb-7.3.3)[mysqld(API)] 2 node(s)id=4 @172.18.22.55 (mysql-5.6.14 ndb-7.3.3)id=5 @172.18.22.51 (mysql-5.6.14 ndb-7.3.3)mgm1:~ #MySQL用户权限设置默认MySQL的user表是MyISAM引擎,要同步所有节点的用户权限需要将权限相关的表设置为ndbcluster引擎,MySQL Cluster提供了脚本来实现权限共享。
SUSE Linux Enterprise Server 11 SP1High Availability安装指南SuSE 11.04 HA 安装指南安装指南 (1)1准备 (3)2安装HA (3)3配置HA (5)2SuSE 11.04 HA 安装指南 31 准备本文档SuSE 系统应是基于SLES-11-SP1-DVD-x86_64-GM-DVD1.iso 来进行安装的(系统的完整版本名为SUSE Linux Enterprise Server 11 SP1),请先将SLES-11-SP1-DVD-x86_64-GM-DVD1.iso 和SLE-11-SP1-HA-x86_64-GM-Media1.iso 刻录到DVD 上,然后再进行安装。
2 安装HA将刻有SLE-11-SP1-HA-x86_64-GM-Media1.iso 的DVD 插入光驱,然后以root 用户登入,运行yast2命令启动YaST2控制中心,如下图:图2.1 YaST2控制中心点击YaST2控制中心里的“附加产品”,出现如下图所示的“媒体类型”选择界面:SuSE 11.04 HA 安装指南4图2.2 媒体类型选择DVD ,然后点击下一步,在确认完授权信息后,将显示如下的软件安装选择界面,在左边列表中勾选“高可用性”后点击“确定”即可进行安装。
图2.3 选择安装高可用性组件SuSE 11.04 HA 安装指南3配置HA3.1 Cluster配置SuSE的HA提供了直观的图形配置管理界面,为了便于理解和操作我们以图形配置管理为主进行HA配置,并配以相关的配置命令及文件。
本文档的配置按下图所示的网络拓扑结构来进行,其中suseA和suseB的eth1网络接口作为HA心跳连接网络(10.0.0.0网段),使用直连线进行连接,eth0网络接口作为生产(192.168.1.0网段)。
心跳网络(eth1):10.0.0.0/24图3.1.1 HA网络拓扑结构在终端中执行如下命令启动cluster配置管理:yast2 cluster然后在“通讯通道”里的“Bind Network Address”里选择心跳连接的网段,本示例为10.0.0.0;在“Multicast Address”里填入组播IP 地址(组播IP地址范围是从224.0.0.0到239.255.255.255,详细内容请参阅“组播”的相关资料);在“Multicast Port”里填入组播端口;在“节点ID”处勾选中“Auto Generate Node ID”。
SUSE Linux Enterprise Server 11 SP2High Availability1前言suse高可用性功能是基于SLE-HA-11-SP2-x86_64-GM-CD1.iso和SLES-11-SP2-DVD-x86_64-GM-DVD1.iso来进行安装的,首先请将这两个iso文件刻录到光盘上进行安装前的准备工作。
2安装HA将刻有SLE-HA-11-SP2-x86_64-GM-CD1.iso的光盘放置到服务器的光驱内,然后在终端运行yast2命令打开如下界面图2.1 YaST2控制中心点击YaST2控制中心里的附加产品,会出现已安装附加产品的界面图2.2 附加产品列表点击添加图2.3 媒体类型选择选择DVD点击下一步,会出现插入附加产品DVD的选项,点击继续图2.4 许可协议界面选择‘是,我同意许可协议’并点击下一步图2.5 附加产品安装界面选择高可用性并点击接受,在弹出的框体中点击继续图2.6 安装界面在安装过程中会要求插入SLES-11-SP2-DVD-x86_64-GM-DVD1.iso的DVD光盘(原因在于HA安装包需要提取操作系统安装包的部分介质文件),退出SLE-HA-11-SP2-x86_64-GM-CD1.iso光盘,然后插入SLES-11-SP2-DVD-x86_64-GM-DVD1.iso光盘,点击重试,然后在安装完SLES-11-SP2-DVD-x86_64-GM-DVD1.iso上所支持的安装文件后,会提示再重新插入SLE-HA-11-SP2-x86_64-GM-CD1.iso文件以便继续安装高可用性文件,如下图所示图2.7 安装界面成功安装完,会有suse自带高可用性方案的订购提示,因为suse HA只提供了一个产品,但是并不提供免费的服务,所以这里我们选择稍后配置图2.8 客户中心配置图2.9 安装完成3配置HA3.1.1配置主机IPsuse高可用性方案要达到最少两台主机固定使用的IP,同时还有个浮动IP能够在两台主机间跳跃,在主机down掉之后,浮动IP可以快速到达辅机上面,下面以图形为例PS:图形界面配置IP浮浮IP(eth0):192.168.78.45/24图3.1 HA网络拓扑结构配置完IP后手动更改/etc/hosts文件,并把节点上其他所有机器的hosts文件修改成一样图3.2 hosts文件配置3.1.2 ssh通信(非必须)①hostname1:~#ssh-keygen -t dsaGenerating public/private dsa key pair.Enter file in which to save the key (/root/.ssh/id_dsa): <回车>Enter passphrase (empty for no passphrase): <回车>Enter same passphrase again: <回车>Your identification has been saved in /root/.ssh/id_dsa.Your public key has been saved in /root/.ssh/id_dsa.pub.The key fingerprint is:95:f5:97:c3:9f:b1:98:86:13:66:02:aa:35:81:6b:8a root@lhostname1 ②修改密钥文件名字并修改权限。
SUSE HA配置手册
1.SUSE HA软件包安装
两个节点均使用yast2安装suse HA软件包(需要额外HA CD与SUSE 11SP3的系统ISO)。
2.初始化配置集群
执行yast2 cluster初始化配置集群
拷贝配置文件到节点2
scp -rp /etc/corosync/corosync.conf sapprdap2:/etc/corosync/
节点2执行
Chkconfig openais on
rcopenais on
两个节点执行passwd hacluster
3.配置SDB
/etc/sysconfig/kernel中增加红框中的行
使用sbd命令创建sbd盘
创建sbd文件
4.配置HA资源
执行crm_gui
创建克隆资源组,SBD与PING。
具体配置如下图:
双击
配置之前创建好的sbd盘
指向网关
创建资源组saprg
并按顺序配置各种SAP资源
各资源的详细属性如下:
需要提前在两个节点创建/etc/nfsexport目录
nfs_ip指向虚拟主机名
SAP脚本是lsb类型,脚本需要提前放在/etc/init.d下,名字就叫sapecp.
脚本详细内容为:
sapprdap1:~ # cat /etc/init.d/sapecp
#!/bin/sh
### BEGIN INIT INFO
# Provides: sapbip.sh
# Required-Start: $local_fs $network
# Required-Stop: $local_fs
# Default-Start: 2 3 4 5
# Default-Stop: 0 1 6
# Short-Description: sapbip.sh
# Description: sapbip.sh pop & imap daemon
### END INIT INFO
#
# Run-level Startup script for the SAP instance
#
# chkconfig: 345 91 19
# description: Startup/Shutdown SAP instance
SAP_OWNR="ecpadm"
HOST_NAME=`hostname`
HOST1="sapprdap1"
HOST2="sapprdap2"
# depending on parameter -- startup, shutdown, restart
# of the instance and listener or usage display
case "$1" in
start)
# SAP instance startup
echo "mount nfss filesystem"
num=`df -h |grep sapmnt|wc -l`
if [ $num == 1 ]
then
mount sapprdap:/export/sapmnt/ECP /sapmnt/ECP
mount sapprdap:/export/usr/sap/trans /usr/sap/trans
fi
echo -n "Starting SAP instance"
su - $SAP_OWNR -c "startsap R3 ASCS01 sapecpap"
echo "Start SAP ASCS01 ok."
su - ecpadm -c "startsap R3"
echo "start remote SAP Instance"
num2=`ssh $HOST1 df -h |grep sapmnt|wc -l`
if [ $num2 != 2 ]
then
ssh $HOST1 sapprdap:/export/sapmnt/ECP /sapmnt/ECP
ssh $HOST1 sapprdap:/export/usr/sap/trans /usr/sap/trans
fi
ssh $HOST2 su - $SAP_OWNR -c "startsap R3 D00"
echo "Start D00 instance in sapprdap2 ok."
;;
stop)
# SAP instance shutdown
echo -n "Shutdown SAP instance"
su - ecpadm -c "stopsap R3"
su - ecpadm -c "stopsap R3 ASCS01 sapprdap"
su - $SAP_OWNR -c "saposcol -k"
su - $SAP_OWNR -c "cleanipc 00 remove"
su - $SAP_OWNR -c "cleanipc 01 remove"
su - $SAP_OWNR -c "cleanipc 10 remove"
su - ecpadm -c "sapcontrol -nr 00 -function StopService"
su - ecpadm -c "sapcontrol -nr 01 -function StopService"
su - ecpadm -c "sapcontrol -nr 10 -function StopService"
kill -9 `ps -ef|grep $SAP_OWNR|grep -v grep|awk '{print $2}'`
echo "Stop SAP instance ok."
# umount -l /sapmnt/ECP
;;
restart)
$0 stop
$0 start
;;
reload)
echo "reload command not supported."
;;
status)
num=`ps aux --cols=1024|grep ms.sapECP_ASCS01|grep -v grep|wc -l`
echo "running process ms.sapECP_ASCS01 $num"
# [ $num -gt 0 ] || exit 1
# num=`ps aux --cols=1024|grep en.sapECP_ASCS01|grep -v grep|wc -l`
# echo "running process en.sapECP_ASCS01 $num"
# [ $num -gt 0 ] || exit 1
exit 0
;;
*)
echo "Usage: $0 start|stop|restart|reload|status"
exit 1
esac
exit 0
sapprdap1:~ #
配置SAP启停超时为10分钟
HA配置完成。
5.SUSE HA常用命令
1.启停
rcopenais start
rcopenais stop
2.配置
crm_gui
3.切换
或者直接重启主机
4.监控
crm_mon。