当前位置:文档之家› LVS 搭建集群的一些介绍(方案,优化)

LVS 搭建集群的一些介绍(方案,优化)

LVS 搭建集群的一些介绍(方案,优化)
LVS 搭建集群的一些介绍(方案,优化)

LVS集群介绍:

三种运作方式

VS-NAT (Virtual Server via NAT)

VS-DR(Virtual Server via Direct Routing)VS-TUN (Virtual Server via IP Tunneling) LVS运作方式的比较

十种调度算法介绍

1.轮叫调度(Round Robin)(简称rr)

2.加权轮叫(Weighted Round Robin)(简称wrr)

3.最少链接(Least Connections)(LC)

4.加权最少链接(Weighted Least Connections)(WLC)

5.基于局部性的最少链接(Locality-Based Least Connections)(LBLC)

6.带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)(LBLCR)

7.目标地址散列(Destination Hashing)(DH)

8.源地址散列(Source Hashing)(SH)

9. 最短的期望的延迟(Shortest Expected Delay Scheduling SED)(SED)

10.最少队列调度(Never Queue Scheduling NQ)(NQ)

LVS解决方案:

(环境:两台调度机,N台真实机)

1、heartbeat高可用

2、ipvsadm负载均衡

3、heartbeat-ldirectord真实服务器健康检测

1、Keepalived高可用(VRRP Stack功能,vrrp子进程)与真实服务器健康检测(Checkers功能,checkers子进程)

2、ipvsadm负载均衡

##################

=======运维========

watch ipvsadm -L -n //动态监控连接情况

ipvsadm -C

ipvsadm -L -n --stats

ipvsadm -L -n --rate

ipvsadm -L -n -c

参数备忘

-L|-l --list 显示内核虚拟服务器表

-Z --zero 虚拟服务表计数器清零(清空当前的连接数量等)

-C --clear 清除内核虚拟服务器表中的所有记录。

--stats 显示统计信息

--rate 显示速率信息

-c --connection 显示LVS 目前的连接

调度机tcp连接优化

1、增加以下内容到/etc/sysctl.conf末尾kernel.core_uses_pid = 1

net.ipv4.ip_forward = 1

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2 net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2 net.ipv4.tcp_tw_reuse = 1

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_fin_timeout = 30

net.ipv4.tcp_keepalive_time = 300

net.ipv4.tcp_window_scaling = 0

net.ipv4.tcp_sack = 0

net.ipv4.tcp_timestamps = 0

net.ipv4.tcp_syncookies = 1

net.ipv4.icmp_echo_ignore_broadcasts = 1 net.ipv4.icmp_ignore_bogus_error_responses = 1 net.ipv4.conf.all.log_martians = 1

net.ipv4.tcp_max_syn_backlog = 4096

net.ipv4.tcp_max_tw_buckets = 1440000

net.ipv4.ip_local_port_range = 1024 65536 net.core.rmem_max = 16777216

net.core.wmem_max = 16777216

net.ipv4.tcp_rmem = 4096 87380 16777216 net.ipv4.tcp_wmem = 4096 65536 16777216 net.ipv4.tcp_keepalive_intvl = 15

net.ipv4.tcp_retries2 = 5

fs.file-max = 655360

net.core.somaxconn = 4096

执行:

sysctl -p

使之生效

2、加大可允许打开的文件句柄数

echo "* soft nofile 65536" >>/etc/security/limits.conf echo "* hard nofile 65536" >>/etc/security/limits.conf

Websphere for Linux集群安装和配置

前言 目前天安保险的WAS环境中有5台服务器,每台服务器配成一个node,每个node上配置了2个application server,组成了一个ND的环境。前台有一台F5做负载均衡,后面连接了1套oracle RAC的数据库。但5个node之间没有做成集群。为了保证Websphere系统高可用性,提高系统性能和负载均衡,考虑配置成集群,下面说明创建、配置集群的整个过程与注意事项。 1. 集群系统架构 操作系统:Linux version 2.6.18-8.el5 Websphere版本:WAS6.1ND 根据天安的环境,可使用如下拓扑: 其中cisapp1~cisapp5表示5台WebSphere,cisCluster表示5台做成一个cluster,dmgr一般是5台中的一台。

2. 创建集群(含session复制) (截图为我本机测试截图,只是示意图,与天安保险的节点名和集群名不符) 在DMGR控制台中,选择集群,然后新建。 注意:先创建一个空的集群,然后我们再向该集群中添加成员即可。 这里还要注意勾选“配置HTTP会话内存到内存复制”,这样就能使session 在集群内共享,比如用户登录,加入被集群分配给node1来处理,用户的登录信息就会被保存在session中,如果此时node1宕机了,用户就会被分配到其他节点来处理而不会要求重新登录。 如果在创建集群时没有勾选此选项,也可按如下方式操作: 配置会话复制 服务器 --> 应用程序服务器 --> 选择集群成员 --> 容器设置:会话管理--> 其他属性:分布式环境设置 --> 确认分布式会话选择的是内存到内存复制,其他属性:定制调整参数 --> 调整级别: 低(故障转移优化) 写频率 servlet服务结束

was8.5.5 linux集群部署

概述 linux集群部署,记录关键的几个步骤如下: 1.做两个InstallationManager安装工具,一个控制平台(79),一个HIS(78),两个node 2.服务器获取文件,sftp root@10.224.130.18p@ssw0rd 3.get /opt/software/IBM/agent.zip /opt/software/IBM/ exit 安装InstallationManager # 78、79上安装InstallationManager cd /opt/software mkdir agent unzip -q agent.zip -d agent cdagent /tools ./imcl install com.ibm.cic.agent -repositories ../repository.config -acceptLicense 安装WAS AS 8.5.5 #两个服务器都安装WAS mkdir WAS_ND_V8.5.5_3 unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_1_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_2_OF_3.zip unzip -q -d WAS_ND_V8.5.5_3 WAS_ND_V8.5.5_3_OF_3.zip cd /opt/IBM/InstallationManager/eclipse/tools/ ./imcllistAvailablePackages -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 ./imcl install com.ibm.websphere.ND.v85_8.5.5000.20130514_1044 -repositories /opt/software/IBM/WAS_ND_V8.5.5_3 -acceptLicense 安装HIS #78 安装HIS mkdirWAS_V8.5.5_SUPPL unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_1_OF_3.zip unzip -q -d WAS_V8.5.5_SUPPLWAS_V8.5.5_SUPPL_2_OF_3.zip

LINUX中使用IPVSADM配置LVS集群的基本方法

LVS集群有DR、TUN、NAT三种配置模式,可以对www服务、FTP服务、MAIL服务等做负载均衡,下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。 一、 Director Server的配置 在Director Server上配置LVS负载均衡集群,有两种方法: a. 通过ipvsadm命令行进行配置 b. 通过Redhat提供的工具piranha来配置LVS 通过ipvsadm命令行方式配置LVS 安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令: 复制代码 代码如下: [root@localhost ~]#ifconfig eth0:0 192.168.60.200 broadcast 192.168.60.200 netmask 255.255.255.255 up 此处在eth0设备上绑定了一个虚拟设备eth0:0,同时设置了一个虚拟IP是192.168.60.200,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.60.200,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设备eth0:0指定一条路由,执行如下指令: 代码如下: [root@localhost ~]#route add -host 192.168.60.200 dev eth0:0 接着启用系统的包转发功能,从而使系统充当路由器,执行如下指令: 代码如下: [root@localhost ~]#echo 1 ;/proc/sys/net/ipv4/ip_forward 指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是必须的,而在NAT模式下此操作是必须的。 然后开始配置ipvs,执行如下操作:

DM7集群部署方案之数据共享集群Linux(2节点)

DM7集群部署方案之数据共享集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 前期准备工作 (1) 1.1硬件准备 (1) 1.2网络架构 (1) 1.3硬件环境建议 (1) 1.4硬件环境环境验证 (2) 1.5集群规划 (2) 1.6修改主机名 (2) 1.7关闭防火墙 (3) 1.8网卡自启 (3) 1.9修改系统参数 (3) 2 创建目录并安装数据库 (3) 2.1A机器 (3) 2.2B机器 (4) 3 存储准备 (4) 3.1划存储 (4) 3.2挂存储方法1:直接挂 (4) 3.3挂存储方法2:多路径绑定 (5) 4 搭建DSC (6) 4.1配置DMDCR_CFG.INI (6) 4.2初始化磁盘组 (7) 4.3配置DMASVRMAL.INI (7) 4.4配置DMDCR.INI (7) 4.5启动CSS、ASM服务 (8) 4.6创建DMASM磁盘组 (9) 4.7配置DMINIT.INI (9) 4.8初始化数据库 (9) 4.9配置DMARCH.INI (10)

4.10启动DMSERVER服务 (10) 4.11设置后台启动脚本 (11) 4.12启停集群 (12) 5 配置监视器 (13) 5.1配置DMCSSM.INI (13) 5.2启动监视器 (13) 6配置DM_SVC.CONF文件 (13) 6.1 DM_SVC.CONF配置内容 (13) 6.2应用连接 (14) 7附加操作 (14) 7.1操作系统/数据库调优 (14) 7.2数据库备份 (14) 7.3项目管理维护 (14)

Torque在Linux集群上的安装配置

服务器的基本状况: 一个2T硬盘的前端存储节点,名称为tccl_front;9台8核的计算节点,名称分别为tccl01-tccl09。操作系统为CentOS 5.3 x86_64版本的Linux系统。 NIS服务已经配置好,存储节点的磁盘用NFS挂载在每个计算节点上作为共享磁盘。所有的应用软件都安装在此共享磁盘上。 1.ssh免密码登录.对每个用户都要设置。 2.下载Torque,解压缩,编译。 目前,torque 2.3是稳定版本,2.4是beta版本。为了稳定,我下载的是2.3.9版本。下载地址: https://www.doczj.com/doc/8817240259.html,/downloads/torque 在PBS服务器节点上: tar xvfz torque-2.3.9.tar.gz configure需要加参数 ./configure --enable-docs --with-scp --enable-syslog make make packages make install 将torque-package-mom-linux-i686.sh,torque-package-clients-linux-i686.sh安装到计算节点上。 将这两个文件拷贝到计算节点上(或者是共享磁盘上),登录进计算节点,运行: ./torque-package-mom-linux-i686.sh --install ./torque-package-clients-linux-i686.sh --install 可以使用dsh之类的工具来辅助。或者手工写一个脚本来完成这些工作。 3.配置pbs_mom为服务 在torque源码包contrib目录中有一个文件 cp contrib/init.d/pbs_mom /etc/init.d/pbs_mom chkconfig --add pbs_mom 在所有的机器(pbs服务器和计算节点)上都需要如此设置。 写脚本来完成吧!比如 for i in `seq 1 9` do echo tccl0$i ssh tccl0$i "some command" done 4.配置torque 1) ldconfig 2) Specify Compute Nodes 编辑文件 /var/spool/torque/server_priv/nodes 内容如下(注意,这里使用的都是机器的简称,与使用免密码登录时的机器名称相同):

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群 + Tomcat负载均衡集群配置手册

在这个配置手册中,使用的操作系统和软件清单如下: 操作系统: RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装) 软件: jdk-1_5_0_15-linux-amd64.bin Tomcat5.5.26 httpd-2.0.63.tar.gz jakarta-tomcat-connectors-jk2-src-current.tar.gz ipvsadm-1.24.tar.gz libnet.tar.gz heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。 jdk-1_5_0_15-linux-amd64.bin JAVA环境包使用的是64位1.5版 Tomcat版本为公司指定的5.5版本 Apache为2.0.63版 jakarta-tomcat-connectors-jk2-src-current.tar.gz 是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载 ipvsadm-1.24.tar.gz libnet.tar.gz 这两个是用于2台Apache服务器虚拟一个IP地址使用 heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 这3个软件是用于2台Apache服务器之间的心跳检测

DM7集群部署方案之数据守护集群Linux(主备)

DM7集群部署方案之数据守护集群 Linux(主备) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (8) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

1.3硬件环境建议 心跳网络方面:①集群间的心跳网络要走数据,最好走两个交换机,来实现冗余和负载均衡。②需要把服务器多个心跳网卡绑定为一个逻辑网卡来使用(比如bond方式)。③交换机速度建议至少为千兆。 存储方面:①需要在每台机器上挂在独立存储,其中主机所在机器挂载的存储建议大一些。②需要格式化好,且所有机器挂载路径保持一致。③在空间不够用时,要求支持在挂载目录上直接进行扩充。④文件系统建议使用ext4。 1.4硬件环境环境验证 心跳网络方面:①关闭其中一台交换机或者模拟其中一条线路故障,是否能做到网络方面的冗余。②测试心跳网络的稳定性,会不会出现断连或者丢包等情况。 存储方面:反复重启集群机器,检查存储是否会出现只读、脱挂、挂载路径是否会发生改变等情况。 1.5A机器:实例、启服务 2配置A机器 2.1注册服务 ①复制数据库和守护进程服务文件到/etc/rc.d/init.d目录 ②vi /etc/rc.d/init.d/DmServiceRT1_01文件 ③vi /etc/rc.d/init.d/DmServiceWatcher文件 ④修改启动服务的等级连接

CAS集群部署(Linux)

安装CAS集群(v1.0)

目录 1部署操作 (2) 1.1硬件及部署要求 (2) 1.1.1部署图 (2) 1.2操作系统安装—SERVER1,2 .................................................................................................. 错误!未定义书签。 1.3安装M EMCACHED (2) 1.3.1安装环境 (2) 1.3.2安装步骤 (3) 1.4安装LVS (7) 1.5配置CAS集群模式 (11)

1 部署操作 1.1 硬件及部署要求 以下几种集群部署策略请根据实际情况选择确定。 (1)使用认证平台人数在3万人以下,并发5000以下,不推荐集群化部署,单台即可; 节点服务器要求(2路4核,8G 内存以上)物理机优先。 1.1.1 部署图 说明:此架构为CAS 的集群模式,考虑高并发的模式及双击热备的模式,Memcached 需要配置1-2G 内存,可以考虑单独部署服务器,可以与其中一台CAS 服务器进行一起部署。 如果Memcached 挂了或者不能访问了,CAS 服务器就不能访问。 ● CPU 类型:Intel/AMD (64位,主频2.6GHz 以上,2核及以上) ● 内存容量:4GB 及以上 ● 硬盘容量:160GB 以上,Raid 1/5 ● 网络控制器:千兆以太网卡(两块以上) ● IP (对外提供服务):3个,其中一个为虚拟ip ● 集群策略:MirrorMode ● 拓扑图: PC Smart Phone IP :Memcached 1.2 安装Memcached 1.2.1 安装环境 redhat server 6.3(64bit)/ Centos 6.3(64bit)

linux集群应用实战

课程描述: 网络的飞速发展,给网络带宽和服务器性能带来了巨大的挑战,基于互联网的应用系统越来越多的瓶颈出现在服务器端,这就对服务器提出了更高的要求,同时,在互联网运营和管理上,也要求更加的智能和灵活,如何能够实时的了解每个服务器的运行状态,并在应用出现故障的第一时间内来处理问题,成为互联网运维中的一个重中之重。 本课程就重点介绍这方面的应用和案例,首先介绍开源的网络存储应用ISCSI,iSCSI技术以其低廉的构建成本和优秀的存储性能,博得了很多CIO和存储管理员的喜爱,目前已经陆续进入企业应用领域,这种技术推动了企业向集中式存储环境转变。 接着介绍nagios监控系统,Nagios是系统管理人员和运维监控人员必须的工具之一,使用nagios可以监控本地或远程主机资源,例如磁盘空间、系统负载等信息,也可以监控各种应用服务,例如httpd服务、ftp服务等,当主机或者服务出现故障时,nagios还可以通过邮件、手机短信等方式在第一时间内通知系统维护人员。利用nagios可以以低廉的成本达到商业监控系统所完成的功能。 最后,讲解了集群系统在企业级方面的应用,主要讲述了红帽集群套件RHCS开源HA heartbeat、负载均衡器LVS、Oracle集群数据库RAC、Mysql+DRBD集群等方面的应用案例,通过使用Linux搭建集群,可以用较低的价格来实现高可伸缩、高可用的网络服务,弥补单一服务器无法达到的性能。 购买地址:https://www.doczj.com/doc/8817240259.html,/3501607 在线观看: 讲师介绍: 高俊峰,网名南非蚂蚁,经常活跃于国内著名技术社区IXPUB (https://www.doczj.com/doc/8817240259.html,)、ITPUB (https://www.doczj.com/doc/8817240259.html,)、ChinaUnix(https://www.doczj.com/doc/8817240259.html,),在IXPUB任“Linux与开源世界”及“存储设备与容灾技术”版主,多年专注于Linux+Oracle技术方面的研究与实践,擅长Linux系统管理与应用,实战经验丰富。 课程目录一览 第1讲 iscsi的概念、组成和工作原理 课程目标:了解iscsi的组成和工作原理。 课程内容: iscsi的概念。 iscsi的组成。 iscsi的工作原理。 第2-3讲基于iscsi的ip san存储系统 课程目标:

linux安装weblogic10集群

Weblogic10集群负载均衡安装和配置 1、集群系统架构 操作系统: linux as4 u8 Weblogic版本 Weblogic10 注意:有工作流或MQ时要单独安装,不要放到集群中 2、系统整体架构 2.1、Weblogic方案:(建议服务器有4G以上的内存) 一台管理服务器:安装weblogic10 管理节点、受管节点。 二至五台应用服务器节点:安装Weblogic10 受管节点。 一台工作流服务器:安装WebSphere Application Server。 一台MQ服务器:安装WebSphere Application Server。 2.2、本例中的部署如下所示: 管理节点和受管节点安装在主机 JWZHYY1,另一个受管节点单独安装主机名为JWZHYY2,组成一个集群,通过代理服务器来完成负载均衡。 3、集群的安装 3.1、安装集群的先决条件 注意,必须在每个服务器中编辑/etc/hosts文件使群集的服务器之间能够互相使用机器名访问。保证每一台应用服务器都可以使用ping 群集应用服务器名称来访问,实例文件/etc/hosts内容如下 127.0.0.1 localhost.localdomain localhost #本机 192.168.1.3 https://www.doczj.com/doc/8817240259.html, jwzhyy1 #节点1 192.168.1.4 https://www.doczj.com/doc/8817240259.html, jwzhyy2 #节点2 192.168.1.8 https://www.doczj.com/doc/8817240259.html, jwzhdb1 #数据库1 192.168.1.9 https://www.doczj.com/doc/8817240259.html, jwzhdb2 #数据库2 以 root 用户身份登录并在每个主机上配置 Linux 内核参数。 cat >> /etc/sysctl.conf >>EOF kernel.shmall = 2097152 kernel.shmmax = 4294967295 kernel.shmmni = 4096 kernel.sem = 250 32000 100 128 fs.file-max = 65536 net.ipv4.ip_local_port_range = 1024 65000 net.core.rmem_default=262144 net.core.wmem_default=262144

linux服务器集群的详细配置

linux服务器集群的详细配置 一、计算机集群简介 计算机集群简称集群是一种计算机系统,它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作。在某种意义上,他们可以被看作是一台计算机。集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式。集群计算机通常用来改进单个计算机的计算速度和/或可靠性。一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多。 二、集群的分类 群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同。集群计算机按功能和结构可以分成以下几类: 高可用性集群High-availability (HA) clusters 负载均衡集群Load balancing clusters 高性能计算集群High-performance (HPC) clusters 网格计算Grid computing 高可用性集群 一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行。 负载均衡集群 负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务 器上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)。一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。 Linux虚拟服务器(LVS)项目在Linux操作系统上提供了最常用的负载均衡软件。 高性能计算集群 高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费软件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库 集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。 网格计算 网格计算或网格集群是一种与集群计算非常相关的技术。网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机。还有,网格通常比集群支持更多不同类型的计算机集合。 网格计算是针对有许多独立作业的工作任务作优化,在计算过程中作业间无需共享数据。网格主要服务于管理在独立执行工作的计算机间的作业分配。资源如存储可以被所有结点共享,但作业的中间结果不会影响在其他网格结点上作业的进展。

linux集群

RHCS集群配置 需要用到的各组件功能: RHCS(Red Hat Cluster Suite):能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合。 LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。 CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。 CMAN:分布式集群管理器。 GFS(Google File System):以本地文件系统的形式出现。多个Linux机器通过网络共享存储设备,每一台机器都可以将网络共享磁盘看作是本地磁盘,如果某台机器对某个文件执行了写操作,则后来访问此文件的机器就会读到写以后的结果。 实验需求: 集群管理/ISCSI共享存储主机IP:192.168.0.40主机名:https://www.doczj.com/doc/8817240259.html, 集群节点一IP:192.168.0.41主机名:https://www.doczj.com/doc/8817240259.html, 集群节点二IP:192.168.0.42主机名:https://www.doczj.com/doc/8817240259.html, 一、【准备工作】 1、修改管理主机和每个节点的hosts文件,保证三台服务器的hosts文件一样。 注:主机名最好使用域名形式,因为之前只用了gfs1这样的主机名,到后来,配置都顺利结束,但重启节点后,发现共享存储挂不上,看到是clvmd启动超时,估计是主机名的原因,解析不到?有待斟酌。 2、两台节点上分别关闭selinux、iptables和NetworkManager

注:两台节点上都得操作,操作完后reboot重启两台节点,使配置生效 二、【群集管理主机设置】 1、安装并启用luci集群管理 这时,你就可以用https://https://www.doczj.com/doc/8817240259.html,:8084(或https://192.168.0.40:8084)登陆集群web管理界面了,以root登陆即可 三、【各节点配置】 1、在两台节点分别yum安装ricci、rgmanager、cman 启动cman如出现错误: Starting cman... xmlconfig cannot find /etc/cluster/cluster.conf [FAILED] 是因为节点还没有加入集群,没有产生配置文件/etc/cluster/cluster.conf 2、在两台节点上给ricci用户设置与root相同的密码 四、【集群web管理界面配置】 1、浏览器打开https://192.168.0.40:8084 输入root和root密码进行登陆 2、添加集群 点击Manager Clusters---> Create 创建一个集群,如下图,输入集群名称,添加每个节点的主机名、密码,勾选Download Packages、Reboot Nodes Before Jo ining Cluster、Enable Shared Storage Support,最后点击Create Cluster创建集群,耐心等待,创建过程中两台节点会重启...

Oracle在Linux下集群RAC的安装与启停

Oracle在Linux下集群RAC的安装与启停 陈方辉2012-7-15 以下讲解了Oracle数据库在Linux服务器上部署RAC集群的整个过程,共分8小节,包括硬件硬置,操作系统配制,集群软件Clusterware的安装,以及Oracle数据库软件的安装和集群数据库的创建。 如操作中有疑问或需要虚拟安装部署实验环境,以及Oracle数据库的安装包,请发邮件至chenfanghui12@https://www.doczj.com/doc/8817240259.html,。 1、硬件配置 加载虚拟机,修改虚拟机的名称为rac1。 增加一个类型为SCSI、模式为Independent-Persistent的20G硬盘做为共享存储,并即时分配存储空间,将此硬盘设备的节点设置为SCSI1:0。 增加一块网卡用来作为RAC内部通信。 在虚拟机的.vmx配制文件中增加以下内容: disk.locking = "false" diskLib.dataCacheMaxSize = "0" diskLib.dataCacheMaxReadAheadSize = "0" diskLib.DataCacheMinReadAheadSize = "0" diskLib.dataCachePageSize = "4096" diskLib.maxUnsyncedWrites = "0" 2、Linux操作系统配制 修改主机名为rac1(修改后要重启才能生效) /etc/sysconfig/network 修改主机2个网卡的IP地址:(注意重新获取网卡的mac地址) system-config-network eth0:192.168.1.10 255.255.255.0 192.168.1.1(注意:这个网关一定要写,否则在安装完clusterware时进行vipca 会报错) eth1:10.10.10.10 255.255.255.0 修改域名文件 /etc/hosts 127.0.0.1 localhost 192.168.1.10 https://www.doczj.com/doc/8817240259.html, rac1 192.168.1.11 https://www.doczj.com/doc/8817240259.html, rac2 10.10.10.10 https://www.doczj.com/doc/8817240259.html, rac1-priv 10.10.10.11 https://www.doczj.com/doc/8817240259.html, rac2-priv 192.168.1.210 https://www.doczj.com/doc/8817240259.html, rac1-vip

Linux下Weblogic9集群配置

Linux下Weblogic9集群配置 作者:zzm 1 目的 本文讲述如何在WebLogic Server 9.2上配置集群,以及通过Proxy Server来访问集群,可以参照这个文档进行linux下weblogic群集的配置,群集启动和节点启动,发布应用,同步应用,session的复制共享,测试应用的自动分发功能,自动接管功能。 2 预备知识 什么是Domain和Server Domain Domain是WebLogic Server实例的基本管理单元。所谓Domain就是,由配置为Administrator Server的WebLogic Server实例管理的逻辑单元,这个单元是有所有相关资源的集合。 Server Server是一个相对独立的,为实现某些特定功能而结合在一起的单元。 Domain and Server的关系 一个Domain 可以包含一个或多个WebLogic Server实例,甚至是Server集群。一个Domain 中有一个且只能有一个Server 担任管理Server的功能,其它的Server具体实现一个特定的逻辑功能。 3 本文环境 平台:Linux as 4 软件:Bea WebLogic Server 9.2 MP3 配置WebLogic Server集群 WebLogic集群的体系结构 单层混合型的集群架构(Cluster) 这种架构将所有的Web应用以及相关的服务应用全部置于集群中的单一WLS实例中,这种架构的优势在于: 易于管理 灵活的负载平衡机制

更强的安全控制 多层结构的集群架构(Cluster) 这种架构使用两个WLS集群,一个放置表静态内容和集群Servlet,另一个放置集群EJB。一般应用于下面这些情况: 在负载平衡机制需要调用集群EJB中的方法时; 在提供内容与提供对象的服务之间需要更大的机动性时; 在需要更高的系统稳定性时; 3.1配置集群应用的必要条件 集群中的所有Server必须位于同一网段,并且必须是IP广播(UDP)可到达的? 集群中的所有Server必须使用相同的版本,包括Service Pack 集群中的Server必须使用永久的静态IP地址。动态IP地址分配不能用于集群环境。如果服务器位于防火墙后面,而客户机位于防火墙外面,那么服务器必须有公共的静态IP地址,只有这样,客户端才能访问服务器 要以CLUSTER方式运行,必须有包含CLUSTER许可的LICENSE才行(从Bea网站上下载的试用版本就可以进行Cluster配置) 3.2配置前的准备工作 在配置集群应用前要对集群的配置信息有一个良好的设计,下面就是我们这次配置的集群信息: 在同一网段内的不同机器上配置集群,以下是以2台机器做群集, 机器类型操作系统硬件配置角色备注 普通PC Linux as 4 IP:192.168.140.196 PORT:7001 AdministratorServer Pc1 普通PC Linux as 4 IP: 192.168.140.196 PORT:7003 ProxyServer Pc1 普通PC Linux as 4 IP: 192.168.140.196 PORT:7002 Managed Server Pc1 普通PC Linux as 4 IP: 192.168.140.197 PORT:7001 Managed Server Pc2 4配置步骤 4.1配置管理服务(adminServer) 使用Domain Configuration Wizard进行配置 创建新的Domain 第一步:

linux双机热备

目前,双机和集群采用的操作系统主要有UNIX、Linux、BSD及微软公司的Windows NT/2000。随着Linux的迅速发展,稳定性、安全性及功能的不断增强,人们对Linux的使用越来越广泛,Linux已成为服务器市场中的一个重要操作系统,基于Linux的双机和集群系统也越来越多。 Linux集群的主要优点有:高可靠性、高性能、低成本等等。 1.1 概述 1.1.1 实现目的 双机热备份(Hot Standby)是一种软硬件相结合的高可靠性应用方案。双机热备系统由两台独立 的服务器以及相应的控制软件构成,两台服务器在网络中表现为单一的系统,对外表现为一个独 立的网络IP,并以单一系统的模式进行控制和管理。该系统将两台服务器的数据和运行状态(包 括硬盘数据和内存数据)进行镜像,可以实现两台服务器之间的热备份,并能够做到无缝切换, 从而对外提供稳定可靠的服务,实现双机系统的高可用性解决方案。 1.1.2 功能概述 双机热备份系统由相应的应用软件进行控制,操作系统和应用程序安装在两台服务器的系统盘上。 每一台服务器分配一个固定的IP地址,此外还指定了一个独立IP地址作为集群IP(cluster IP),该IP是双机系统对外提供服务的接口。 两台服务器一台成为主节点(Primary Server),另一台成为从节点(Standby Server),主节 点与从节点之间保持固定时间间隔的心跳信号,通过心跳信号实现两个对等系统之间的周期性的 握手,从而能够监视对方的运行状态,进行主机及网络的故障检测。 在系统正常情况下,主节点占用系统资源并运行所有的服务,为信息系统提供支持,从节点通过 心跳信号监视主节点的运行情况。一旦主节点发生故障(如主机故障,网络故障,软件故障等), 从节点就会自动接管(Take Over)主节点的资源和服务,继续支持信息的运营,从而保证整个双 机系统能够不间断的运行(Non-Stop)。主节点在恢复运行后,又可以自动获取资源并取代从节点。 1.2 运行环境 1.2.1 硬件需求 在集群系统的实现方案中双机热备份系统是硬件配置最简单和价格最低廉的解决方案,通常镜像 服务的硬件配置需要两台独立的服务器,每台服务器有独立的操作系统硬盘和数据存贮硬盘, 每台服务器有提供网络连接功能的网卡,此外还可以有一对完成内部连接和数据镜像功能的网卡。 双机系统的两台服务器拥有共享的数据存储空间(可以是一个数据存储硬盘或一台专门的数据存 储服务器)。任何一台服务器在运行服务时,从共享的数据存储空间内读取和存储数据。每台服 务器的操作系统和应用程序文件存储在各自的本地存储空间上。 双机热备份系统采用内存镜像的技术,即把两台服务器的数据和运行状态(包括硬盘数据和内存 数据)进行镜像。这个技术的优点是所有的应用程序和操作数据在两台服务器上镜像同步,当主 节点出现故障时,从节点可以在几乎没有延迟的情况下接管主节点运行的服务,从而实现无缝切 换和热备份。该技术的缺点是,由于两台服务器的内存完全一致,当由于系统应用程序带有缺陷 而导致系统宕机时,两台服务器会同步宕机。 也可以在双机系统中使用第三方生产的磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵 列柜可以直接将柜中的硬盘配置成为逻辑盘阵。该结构不采用内存镜像技术,因此需要有一定的 切换时间,同时由于所有的数据全部存贮在磁盘阵列柜中,当主节点出现故障时,从节点接替主 节点,从磁盘阵列柜中读取数据,所以不会产生数据不同步的问题。由于这种方案不需要网络镜 像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多。 双机热备份系统的两台服务器通过内部局域网进行连接,通过周期性的心跳信号保持通信和进行 相互监视。两台服务器之间可以采用多种连接方式,可以使用串口线,也可以通过以太网ethernet 进行连接,还可以采用并存的多种连接方式实现两台主机的多重互连。如果双机系统有冗余连接,

DM8集群部署方案之读写分离集群Linux(2节点)

DM8集群部署方案之读写分离集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (9) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

浅谈Linux集群的行业应用

浅谈Linux集群的行业应用 据最近公布的数据显示,世界500强超级计算机系统中,使用Linux操作系统的。已占到了280席,而在我国,越来 越多行业中,Linux高性能计算产品也正得到广泛的应用。 所谓Linux集群,就是利用商品化的工业标准互联网络 将各种普通Linux服务器连接起来,通过特定的方法向用户 提供更高的系统计算性能、存储性能和I/O性能,也就是具备单一系统映像(SSI)特征的分布式存储MIMD(多指令流多数据流)并行计算机系统。Linux有大量的集群系统可供选择, 适合于不同的用途和需要。 通过几十甚至几百个运行Linux操作系统的计算节点, 组成一个庞大的虚拟计算机,提供强大的并行运算能力,而价格却比传统小型机要便宜得多。 高可用性集群也可以在其节点之间均衡用户负载,同时仍试图维持高可用性程度。同样,可以从要编入应用程序的集群中找到一个并行集群,它可以在节点之间执行负载均衡。 目前,Linux集群在石油行业的应用主要集中在地震资料处理和油藏数值模拟两大领域。因数据量大、计算量大、通信量大等行业特点,地震资料处理成为Linux集群发挥自身 优势最主要的平台。

最早,辽河油田、新疆油田、青海油田等国内企业采用了IBM公司具有Linux集群技术的LCl300系统。2002年10月,中国石油东方地球物理公司涿州物探研究院将曙光4000L Linux/PC Cluster作为应用平台。2004年涿州物探研究院和新疆油田公司把由IBMeServer BladeCenter刀片服务器组成的Linux集群用于石油勘探地震资料处理的高性能计算。两地搭建的高性能计算平台以该刀片服务器作为计算节点,分别有194个节点和200多个节点,主要负责地震勘探资料处理。同年7月,东方地球物理公司研究院大港分院采用HPProLiant BL20P G2刀片式服务器作为计算节点的高性能计算集群系统正式投产。该系统包括119个HP ProLiant BL20P 计算节点和14个ProLiant DL380G2 I/O节点,以集群技术组成的超级并行计算机作为地震资料处理的主机系统。整个系统共133个节点、266个处理器,安装了CGG、Geodepth等先进的处理软件,能够提供更精准的地构造及地下成像。 2006年10月,国内最大规模的集群地震资料处理系统在大庆油田勘探开发研究院正式投入使用。该地震资料处理系统采用了中国惠普公司开发出的刀片服务器集群架构,集成了692台惠普公司的第三代服务器产品――HPBL20PG3、HPDL380G3和HPDL580G3服务器,选用了1432个Intel至强中国刀片服务器集群系统,是国内处理规模最大、系统配置最优、技术性能最好的地震资料处理CPU。

Linux集群cluster详细实战配置过程(双节点)及问题解答

Linux集群cluster详细配置过程(双节点) 一、配置环境: HP_DL388G7服务器(ILO3)两台,交换机一台。 由于安装系统时已安装集群服务,因此不用再次安装集群包。 1、配置ILO3信息: a)启动时按F8进入ILO配置界面,配置IP,用户名及密码信息。 2、配置主机名、IP地址及hosts文件。 a)将两台主机加入hosts文件,以便能互相解析。 二、配置自启动检查: Chkconfig --del acpid Service acpid stop Chkconfig –level 2345 cman on Chkconfig –level 2345 rgmanager on Chkconfig –level 2345 luci on Chkconfig –level 2345 ricci on Chkconfig –level 2345 iptables off Chkconfig –level 2345 NetworkManager off 三、使用图形界面(conga)配置cluster 1、启动luci服务(conga user interface server) Service luci start 2、启动ricci服务(在RHEL6中,ricci替代ccsd,运行于每个节点,传播集群配置的更新) Service ricci start 首次启动需配置密码,使用命令passwd ricci 以更新密码,ricci使用端口号11111,配置防火墙以允许。 3、输入https://主机名(主机IP):8084下图所示 输入用户名root,密码登录

相关主题
文本预览
相关文档 最新文档