当前位置:文档之家› Linux下高可用集群方案

Linux下高可用集群方案

Linux下高可用集群方案
Linux下高可用集群方案

Linux下高可用集群方案很多,本文介绍的是性价比比较高的一种: 使用Heartbeat 2.0配置Linux高可用性集群。

一、准备工作

你首先需要两台电脑,这两台电脑并不需要有相同的硬件(或者内存大小等),但如果相同的话,当某个部件出现故障时会容易处理得多。接下来您需要决定如何部署。你的集群是通过Heartbeat 软件产生在两台电脑之间心跳信号来建立的。为了传输心跳信号,需要在节点之间存在一条或多条介质通路(串口线通过modem电线,以太网通过交叉线,等等)。现在可以开始配置硬件了。既然想要获得高可用性(HA),那么您很可能希望避免单点失效。在本例中,可能是您的null modem线/串口,或者网卡(NIC)/ 交叉线。因此便需要决定是否希望为每个节点添加第二条串口null modem连线或者第二条NIC/交叉线连接。我使用一个串口和一块额外的网卡来作为heartbeat的通路,这是因为我只有一条null modem线和一块多余的网卡,并且认为有两种介质类型传输heartbeat信号比较好。硬件配置完成之后,便需要安装操作系统以及配置网络(我在本文中使用的是RedHat)。假设您有两块网卡,那么有一块应该配置用于常规网络用途,另一块作为集群节点之间的专用网络连接(通过交叉线)。例如,假设集群节点有如表-1下的IP地址:

表-1集群节点的IP地址

输入如下命令检查您的配置:

ifconfig

这将显示您的网卡及其配置。也可以使用命令“netstat –nr”来获得网络路由信息。如果一切正常,接下来要确定可以来两个节点之间通过所有接口ping通对方。如果使用了串口,便需要检测其连接情况。把一个节点作为接收者,输入命令:

cat

在另一个节点上,输入:

echo hello >/dev/ttyS0

应该可以在接收节点上看到该文本。如果正常的话交换这两个节点的角色再作一次,否则有可能是使用了错误的设备文件。现在就开始动手搭建和配置一个简单的高性能计算集群系统。关闭不需要的服务:

初始方案是使用两台PC(系统的具体结构如图-1所示),CPU为Pentium D 805,内存为 512MB,用1000Mbps交换机连接,整个硬件环境可以说是再普通不过了。操作系统采用的是Red Hat Enterprise Linux 5.0,该方法对于红旗Linux、Fedora Linux和SuSE等发布版本均可实现。

图-1系统的物理结构

参考文献:Achieving High Availability in Linux-based Cluster Environments

https://www.doczj.com/doc/2a3785239.html,/downloads/global/power/ps3q06-20060219-Guinn-OE.pdf

二、下载安装软件包

接下来便可以安装Heartbeat软件。可以从如下位置得到:

https://www.doczj.com/doc/2a3785239.html,/download">https://www.doczj.com/doc/2a3785239.html,/download Heartbeat软件包。在网站上也有RPM安装包,您也可以选择从源代码编译。取得源代码tar文件或者安装source RPM包,将其解包到某个文件夹。在源代码树的顶端,输入

"./ConfigureMe configure", 之后输入"make"和"make install"。

如果使用RPM安装包的话需要包括如下软件包: ipfail,Stonith,Ldirectord。

ipfail的功能直接包含在heartbeat里面,是一个能够在探知服务IP失效了便立即将服务IP抓取来用的功能。

Stonith是为了要在任何server停止时,确保剩下的server不会被正在运作的server所影响,可以选择性强制停止一些server的解决方案。可能会使用在例如共享数据的情况之下。

Ldirector是一个负载平衡的服务器。

安装命令:

也可以使用yum命令在线安装,这样做不需要考虑依赖包所带来的麻烦。命令:

yum install heartbeat

1、配置主服务器的heartbeat

在启用Heartbeat之前,安装后要配置三个文件(如没有可手动建立):ha.cf、haresources、authkeys。这三个配置文件需要在/etc/ha.d目录下面,但是默认是没有这三个文件的,可以到官网上下这三个文件,也可以在源码包里找这三个文件,在源码目录下的DOC子目录里。

1 配置ha.cf

第一个是ha.cf该文件位于在安装后创建的/etc/ha.d目录中。该文件中包括为Heartbeat使用何种介质通路和如何配置他们的信息。在源代码目录中的ha.cf文件包含了您可以使用的全部选项,详述如下:

serial /dev/ttyS0

使用串口heartbeat-如果不使用串口heartbeat,则必须使用其他的介质,

如bcast(以太网)heartbeat。用适当的设备文件代替/dev/ttyS0。

watchdog /dev/watchdog

该选项是可选配置。通过Watchdog 功能可以获得提供最少功能的系统,该系统不提供heartbeat,可以在持续一份钟的不正常状态后重新启动。该功能有助于避免一台机器在被认定已经死亡之后恢复heartbeat的情况。如果这种情况发生并且磁盘挂载因故障而迁移(fail over),便有可能有两个节点同时挂载一块磁盘。如果要使用这项功能,则除了这行之外,也需要加载“softdog”内核模块,并创建相应的设备文件。方法是使用命令“insmod softdog”加载模块。然后输入“grep misc /proc/devices”并记住得到的数字(应该是10)。然后输入”cat /proc/misc | grep watchdog”并记住输出的数字(应该是130)。根据以上得到的信息可以创建设备文件,“mknod /dev/watchdog c 10 130”。 bcast eth1

表示在eth1接口上使用广播heartbeat(将eth1替换为eth0,eth2,或者您使用的任何接口)。

keepalive 2

设定heartbeat之间的时间间隔为2秒。

warntime 10

在日志中发出“late heartbeat“警告之前等待的时间,单位为秒。

deadtime 30

在30秒后宣布节点死亡。

initdead 120

在某些配置下,重启后网络需要一些时间才能正常工作。这个单独

的”deadtime”选项可以处理这种情况。它的取值至少应该为通常deadtime的两倍。

baud 19200

波特率,串口通信的速度。

udpport 694

使用端口694进行bcast和ucast通信。这是默认的,并且在IANA官方注册的端口号。

auto_failback on

该选项是必须配置的。对于那些熟悉Tru64 Unix的人来说,heartbeat的工作方式类似于“favored member“模式。在failover之前,haresources文件中列出的主节点掌握所有的资源,之后从节点接管这些资源。当

auto_failback设置为on时,一旦主节点重新恢复联机,将从从节点取回所有资源。若该选项设置为off,主节点便不能重新获得资源。该选项与废弃的

nice_failback选项类似。如果要从一个nice_failback设置为off的集群升级到这个或更新的版本,需要特别注意一些事项以防止flash cut。请参阅FAQ中关于如何处理这类情况的章节。

node https://www.doczj.com/doc/2a3785239.html,

该选项是必须配置的。集群中机器的主机名,与“uname –n”的输出相同。 node https://www.doczj.com/doc/2a3785239.html,

该选项是必须配置的。同上。

respawn

该选项是可选配置的:列出将要执行和监控的命令。例如:要执行ccm守护进程,则要添加如下的内容:

respawn hacluster /usr/lib/heartbeat/ccm

使得Heartbeat以userid(在本例中为hacluster)的身份来执行该进程并监视该进程的执行情况,如果其死亡便重启之。对于ipfail,则应该是:

respawn hacluster /usr/lib/heartbeat/ipfail

注意:如果结束进程的退出代码为100,则不会重启该进程。

2 配置haresources

配置好ha.cf文件之后,便是haresources文件。该文件列出集群所提供的服务以及服务的默认所有者。注意:两个集群节点上的该文件必须相同。集群的IP地址是该选项是必须配置的,不能在haresources文件以外配置该地址, haresources文件用于指定双机系统的主节点、集群IP、子网掩码、广播地址以及启动的服务等。其配置语句格式如下:

node-name network-config

其中node-name指定双机系统的主节点,取值必须匹配ha.cf文件中node 选项设置的主机名中的一个,node选项设置的另一个主机名成为从节点。network-config用于网络设置,包括指定集群IP、子网掩码、广播地址等。resource-group用于设置heartbeat启动的服务,该服务最终由双机系统通过集群IP对外提供。在本文中我们假设要配置的HA服务为Apache和Samba。

在haresources文件中需要如下内容:

https://www.doczj.com/doc/2a3785239.html, 192.168.85.3 httpd smb

该行指定在启动时,节点linuxha1得到IP地址192.168.85.3,并启动Apache和Samba。在停止时,Heartbeat将首先停止smb,然后停止Apache,最后释放IP地址192.168.85.3。这里假设命令“uname –n”的输出为“https://www.doczj.com/doc/2a3785239.html,”-如果输出为“primary”,便应使用“primary”。

正确配置好haresources文件之后,将ha.cf和haresource拷贝到

/etc/ha.d目录。

3 配置Authkeys

需要配置的第三个文件authkeys决定了您的认证密钥。共有三种认证方式:crc,md5,和sha1。您可能会问:“我应该用哪个方法呢?”简而言之:如果您的Heartbeat运行于安全网络之上,如本例中的交叉线,可以使用crc,从资源的角度来看,这是代价最低的方法。如果网络并不安全,但您也希望降低CPU 使用,则使用md5。最后,如果您想得到最好的认证,而不考虑CPU使用情况,则使用sha1,它在三者之中最难破解。

文件格式如下:

auth

[]

因此,对于sha1,示例的/etc/ha.d/authkeys可能是

auth 1

1 sha1 key-for-sha1-any-text-you-want

对于md5,只要将上面内容中的sha1换成md5就可以了。对于crc,可作如下配置:

auth 2

2 crc

不论您在关键字auth后面指定的是什么索引值,在后面必须要作为键值再次出现。如果您指定“auth 4”,则在后面一定要有一行的内容为“4

”。

确保该文件的访问权限是安全的,如600。

4、配置备份服务器的heartbeat

依次安装主服务器上的rpm软件包到备份服务器的heartbeat。然后使用ssh 命令把主服务器配置文件传输到备份服务器。

#scp -r /etc/ha.d backupnode:/etc/ha.d

Backupnode是备份服务器的ip地址。

5、设置主服务器和备份服务器时间同步

虽然Heartbeat不要求在两个服务器上使系统钟同步主要和备份服务器,但是系统时钟应该在的几十秒之内,否则在高可用性服务的环境下会产生故障。在在两个系统启动Heartbeat之前,你应该人工检查并且放置系统时间(使用date命令)。关于一种更好的长期的解决的方法你应该在两个系统上使用NTP 软件同步钟。

6、启动主服务器的Heartbeat

在启动主服务器的Heartbeat,使用命令:

#/etc/init.d/heartbeat start

或者

#service heartbeat start

可以使用命令查看日志文件:

#tail -f /var/log/messages

此时会发现出现如下信息:

https://www.doczj.com/doc/2a3785239.html, heartbeat[2886]: WARN: node

https://www.doczj.com/doc/2a3785239.html,: is dead

表示备份服务器死机的警告,原因是备份服务器的Heartbeat还没有启动。

主服务器的web服务应该被heartbeat启动,同时heartbeat为主节点设置IP地址192.168.100.10。使用ifconfig eth0:0可以看到如下信息:

同时/dev/sdb1,应该被挂接。使用df -h,可以看到的信息包含下面的行: /dev/sdb1 485M 8.1M 452M 2% /ha

7、启动备份服务器的Heartbeat

启动主服务器的Heartbeat,使用命令:

#/etc/init.d/heartbeat start

或者

#service heartbeat start

可以使用命令查看日志文件:

#tail -f /var/log/messages

此时会发现出现如下信息:

backup heartbeat[4656]: info: No local resources

[/usr/lib/heartbeat/

ResourceManager listkeys https://www.doczj.com/doc/2a3785239.html,]

https://www.doczj.com/doc/2a3785239.html, heartbeat[4656]: info: Resource acquisition completed.

表示备份服务器没有可以使用的资源,原因是备份服务器的现在是闲置状态,它只监听主服务器心跳,直到主服务器失效。

8、查看主服务器日志信息

可以使用命令查看日志文件:

#tail -f /var/log/messages

此时会发现出现如下信息:

可以使用tcpdump命令查看心跳广播是否到达两个服务器节点。 #tcpdump -i all -n -p udp port 694

9、停止主服务器的Heartbeat

停止主服务器的Heartbeat,使用命令:

#/etc/init.d/heartbeat stop

或者

#service heartbeat stop

此时可以使用命令查看备份服务器日志文件:

#tail -f /var/log/messages

此时会发现出现如下信息:

在这个过程中,使用ping命令进行不间断监测,可以发现集群IP地址一直处于可通状态,并没有产生任何阻塞或延迟,所以,在关闭处于激活状态的heartbeat的情况下,双机系统可以实现无缝切换。但是在另外一些情况下,比如网络故障、主机关机或重启等,如果该主机的heartbeat处于激活状态,则不能实现双机的无缝切换,切换过程需要有一定的延迟,使用ping命令可以发现集群IP地址暂时无法使用。

10、配置ipfail

ipfail插件的用途是检测网络故障,并作出合理的反应,如果需要的话使集群资源failover。为了实现这样的功能ipfail使用ping节点或者ping节点组,这些节点在集群中作为“哑”节点出现。如果HA节点间可以相互通信ipfail 便可以可靠地检测到其中一个网络连接失效的情况,并作出补救。

配置ipfail的步骤如下:

a.选择好的候选ping节点

这步很重要。你的选择越好,则得到的HA集群便越强壮。选择固定的交换机路由器等是一个好主意。不要选择HA集群中的任一个成员,也不要选择其他人的工作站。选择能反映您HA节点的连接状况的ping节点也很重要。如果您要监视两个接口的连接情况,明智的做法是为每个接口选择一个只对该接口可用的ping节点。

b.设置auto_failback为on或者off

只有当Heartbeat被配置为非legacy时ipfail才会起作用。在ha.cf文件中,如下将auto_failback设置为on或者off:

auto_failback on

或者

auto_failback off

c.配置ha.cf使之启动ipfail。

向ha.cf中增加如下一行(假设您在编译时的PREFIX为/usr):

respawn hacluster /usr/lib/heartbeat/ipfail

d.向ha.cf中加入ping节点:

ping pnode1 pnode2 pnodeN

将pnode1,pnode2,…pnodeN等替换为您ping节点的IP地址。

确保向集群中各个成员的ha.cf中加入以上相同的配置指令。

e. 修改Heartbeat配置文件

如果修改了配置文件etc/ha.d/ authkeys或者 /etc/ha.d/ha.cf后要使用下面的命令重新加载服务。

#/etc/init.d/heartbeat reload

或者

#service heartbeat reload

三、配置Stonith

Stonith 即shoot the other node in the head使Heartbeat软件包的一部分,该组件允许系统自动地复位一个失败的服务器使用连接到一个健康的服务器的遥远电源设备。Stonith设备是一种能够自动关闭电源来响应软件命令的设备。图-1是Heartbeat与配置Stonith示例。

图 -1 Heartbeat与配置Stonith示例 Stonith设备清单如下表-1:

查看当前支持Stonith设备清单的命令:

#/usr/sbin/stonith -L

查看当前支持Stonith设备其他情况的命令

例如查看rps10的设备配置的命令:

# /usr/sbin/stonith -l -t rps10 test

命令输出:

所以在rps10设备在/etc/ha.d/ha.cf 配置文件中的格式如下: STONITH_host backupserver rps10 /dev/ttyS0 https://www.doczj.com/doc/2a3785239.html, 0

四、配置内核看门狗支持Heartbeat

1 Linux下watchdog的工作原理

Watchdog在实现上可以是硬件电路也可以是软件定时器,能够在系统出现故障时自动重新启动系统。在Linux 内核下, watchdog的基本工作原理是:当watchdog启动后(即/dev/watchdog 设备被打开后),如果在某一设定的时间间隔内/dev/watchdog没有被执行写操作, 硬件watchdog电路或软件定时器就会重新启动系统。

/dev/watchdog 是一个主设备号为10,从设备号130的字符设备节点。Linux内核不仅为各种不同类型的watchdog硬件电路提供了驱动,还提供了一个基于定时器的纯软件watchdog驱动。驱动源码位于内核源码树

drivers\char\watchdog\目录下。

2 硬件与软件watchdog的区别

硬件watchdog必须有硬件电路支持, 设备节点/dev/watchdog对应着真实的物理设备,不同类型的硬件watchdog设备由相应的硬件驱动管理。软件watchdog由一内核模块softdog.ko 通过定时器机制实现,/dev/watchdog并不对应着真实的物理设备,只是为应用提供了一个与操作硬件watchdog相同的接口。

硬件watchdog比软件watchdog有更好的可靠性。软件watchdog基于内核的定时器实现,当内核或中断出现异常时,软件watchdog将会失效。而硬件watchdog由自身的硬件电路控制, 独立于内核。无论当前系统状态如何,硬件watchdog在设定的时间间隔内没有被执行写操作,仍会重新启动系统。

一些硬件watchdog卡如WDT501P 以及一些Berkshire卡还可以监测系统温度,提供了 /dev/temperature接口。对于应用程序而言, 操作软件、硬件watchdog的方式基本相同:打开设备/dev/watchdog, 在重启时间间隔内对

/dev/watchdog执行写操作。即软件、硬件watchdog对应用程序而言基本是透明的。

在任一时刻,只能有一个watchdog驱动模块被加载,管理/dev/watchdog 设备节点。如果系统没有硬件watchdog电路,可以加载软件watchdog驱动softdog.ko。

3 Linux内核中关于watchdog的配置

在/usr/src/linux目录运行命令:makemenu config

确保在下面的菜单已经启用Software Watchdog选项

如图2 。

图 2 编译内核支持Software Watchdog选项

4 加载模块

#insmod softdog

说明:watchdog能让系统在出现故障1分钟后重启该机器。这个功能可以帮助服务器在确实停止心跳后能够重新恢复心跳。如果使用该特性,则在内核中装入"softdog"内核模块,用来生成实际的设备文件,输入"insmod softdog"加载模块。输入"grep misc /proc/devices"(应为10),输入"cat /proc/misc | grep watchdog"(应为130)。生成设备文件:"mknod /dev/watchdog c 10 130" 。

5 测试软件狗

编辑文件 /etc/ha.d/ha.cf

如掉下面一行的注释号:

watchdog /dev/watchdog

重新启动Heartbeat

#service heartbeat restart

使用命令杀掉heartbeat进程

killall -9 heartbeat

此时日志文件中应当出现一行:

Softdog: WDT device closed unexpectedly. WDT will not stop!

表示软件狗生效。另外使用命令lsmod可以看到软件狗已经加载。如图3 。

图-3

6 删除软件狗的方法

使用命令可以从内核中删除软件狗:

#modprobe -r softdog

五、测试Heartbeat配置

在你把你的Heartbeat的高可用性服务器放到生产中之前,这里是对试图的一些事情:

1. 在主服务器上拔去电源线

在备份服务器上的Heartbeat应该从主要的服务器发现heartbeat若干数据包损失,并且开始故障转移。使用Stonith,备份服务器应该把电源关闭或者复位到主要的服务器。在备份服务器上的Heartbeat然后应该运行适当的资源脚本(当Stonith事件有“清除”时或者完成)拿资源的所有权。在备份服务器上的Heartbeat也应该发送ARP广播通知顾客或者网络设备MAC地址因为资源IP地址已变化。

2. 测试hb_standby命令的行为

使用在主要的服务器上的hb_standby命令把资源强迫到迁移到备份服务器。然后再一次在备份服务器上使用命令来把资源往回强迫迁移到主服务器. ipfail如果hb_standby命令不适当地工作,也将不适当地工作。

3. 拔去在主服务器上的网络电缆

使用ipfail可以检测到网络联系失败,并且应该被发现到备份服务器,并且资源和IP别名迁移到备份服务器。

4. 在两个服务器之间删除所有heartbeat路径

当你在两个服务器之间删除所有heartbeat路径时,什么会发生?如果你使用Stonith,备份服务器将假定主要的服务器已死去,开始一个Stonith事件,而接管资源。

5. 在主要的服务器( 使用命令:killall - 9 heartbeat )上杀死heartbeat 守护进程

当你使用IP别名到提供资源到顾客计算机时,Stonith是尤其重要的。备份服务器必须Stonith或者在试图假定资源的所有权避免裂痕脑条件之前复位主服务器。

6. 重新引导两个服务器

六、配置Mon

1 什么是Mon

mon是针对linux开发的工具,但众所周知在sorlaris下他也可以工作。因为客户和服务端都是由perl语言书写,因此在轻便性上不会有问题。

简单来说Heartbeat用来实现心跳和高可用性,Mon用来监控服务。

2 Mon方案

图 4 是基于集群监视的Mon方案。

图 5 是Mon检查每个集群节点MIB的过程

3 首先自行搜尋以下的 Perl 模块

安装命令:

4 下载安装fping

Ping命令大概是网管员最常用的命令了,使用Ping可以监测网络的通断、设备是否宕机,遗憾的是每次只能针对一台设备。在一个拥有20余台服务器和80多个可网管交换机的局域网内,Ping上一遍是很艰难的事情,而运行在Linux 下的Fping(https://www.doczj.com/doc/2a3785239.html,)可以轻松完成这一工作。Fping 命令与Ping 命令非常相似,使用ICMP回应请求和应答来确定系统的可达性。它提供了一些Ping没有的特殊功能,比如,Fping可以在命令行上指定主机名或IP地址的列表、可以处理一个包含主机名或IP地址清单的文件。Fping并不是发送一个请求到单一目标(Ping的做法),而是用循环的方法发送ICMP请求到每个目标。另外,Fping可以用于脚本编程中。

5 下载安装Mon

建立Mon报告目录和Mon报告文件

内容如下:

weblogic集群负载均衡部署文档(支持win7+linux6.5)

Weblogic集群和负载分发的部署(支持win7+linux6.5 64位)

目录 1.集群目的 (3) 2.部署环境 (3) 3.注意问题 (3) 4.安装weblogic过程 (3) 5.weblogic集群部署过程 (9) 5.1创建weblogic域 (9) 5.2 weblogic集群化配置 (15) 5.3 weblogic简单负载均衡配置 (28) 5.4 weblogic集群复杂均衡测试 (32)

1.集群目的 项目成功部署后,可能会出现运行过程中服务器挂掉不能正常使用。为了防止这种情况,采用weblogic 集群方式部署,以消除客户的担心。 2.部署环境 3.注意问题 因为时间仓促和作者水平有限有些待解决问题需要说明 1.请不要登陆后在地址栏按回车键重新访问地址来验证session复制。 2.如果按F5刷新页面则会跳到选择模块界面,无法说明session复制失败。 3.服务器地址默认用127.0.0.1 ,如果用ip地址(如:192.169.1.169),则把配置过程所有地方的127.0.0.1改成你的实际ip地址,记住创建时候ip地址要统一。 4.安装weblogic过程 1)首先登陆 https://www.doczj.com/doc/2a3785239.html,/technetwork/cn/middleware/ias/downloads/wls-main-091116-z hs.html 去下载一个windows版的weblogic 我下载的是1036版本

2)双击打开后3)初始化完成后 4)点击下一步

把“我希望通过这个。。。。。。”勾选取消。

SUSELinux搭建企业服务器的双机配置过程

SUSE Linux搭建企业服务器的双机配置过程 当集群中的某个节点由于软件或硬件原因发生故障时,集群系统可以把资源切换到其他健康的节点上,使整个系 统能连续不间断的对外提供服务,从而为机构24x365的关键业务提供了可靠的保障,达到了系统99.999%的高可用性和可靠性。SuSE Enterprise Linux 10.0是内置Linux 2.6.16内核的企业级服务器,较之SuSE Enterprise Linux 9.0,它在性能、可扩展性、易管理性和安全等方面都予以加强,并有众多硬件和应用软件支持。 最近,笔者使用SuSE Enterprise Linux 10.0作为系统平台(使用其它Linux平台在安装部署时可能有小差异),在其上采用HeartBeat、Mon和Rsync等开源软件打造了一个高可用系统,挖掘了SuSE Linux的高可用性。下面我为大家 详细介绍如何在Suse Linux搭建双机的配置过程。 一、HeartBeat、Mon、Rsync简介 二、安装环境 首先,需要准备两台PC服务器,每台服务器有两块网卡,其物理网络图如图 1 安装环境 图1 网络拓扑图 虽然在YaST2控制中心里有"高可用性"图形化的配置向导,我们这里不介绍一个过程,中在讲述原理和方法,主 要是基于命令行的配置方式。首先在PC服务器上安装SuSE Enterprise Linux 10.0系统,并将eth0配置为192.168.8.*网段,eth1配置为10.1.1.*网段,eth0链接对外的交换机,eth1用于两台机器的对连。 修改/etc /hosts文件,修改内容如下:

详解Linux服务器集群

服务器集群系统(二) 集群的体系结构 本文主要介绍了集群的体系结构。先给出集群的通用体系结构,并讨论了其的设计原则和相应的特点;最后将集群应用于建立可伸缩的、、和等网络服务。 .引言 在过去的十几年中,从几个研究机构相连为信息共享的网络发展成为拥有大量应用和服务的全球性网络,它正成为人们生活中不可缺少的一部分。虽然发展速度很快,但建设和维护大型网络服务依然是一项挑战性的任务,因为系统必须是高性能的、高可靠的,尤其当访问负载不断增长时,系统必须能被扩展来满足不断增长的性能需求。由于缺少建立可伸缩网络服务的框架和设计方法,这意味着只有拥有非常出色工程和管理人才的机构才能建立和维护大型的网络服务。 针对这种情形,本文先给出集群的通用体系结构,并讨论了其的设计原则和相应的特点;最后将集群应用于建立可伸缩的、、和等网络服务。 集群的通用体系结构 集群采用负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。

图:集群的体系结构 为此,在设计时需要考虑系统的透明性、可伸缩性、高可用性和易管理性。一般来说,集群采用三层结构,其体系结构如图所示,三层主要组成部分为: ?负载调度器(),它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个地址(我们可称之为虚拟地址)上的。 ?服务器池(),是一组真正执行客户请求的服务器,执行的服务有、、和等。 ?共享存储(),它为服务器池提供一个共享的存储区,这样很容易使得服务器池拥有相同的内容,提供相同的服务。 调度器是服务器集群系统的唯一入口点(),它可以采用负载均衡技术、基于内容请求分发技术或者两者相结合。在负载均衡技术中,需要服务器池拥有相同的内容提供相同的服务。当客户请求到达时,调度器只根据服务器负载情况和设定的调度算法从服务器池中选出一个服务器,将该请求转发到选出的服务器,并记录这个调度;当这个请求的其他报文到达,也会被转发到前面选出的服务器。在基于内容请求分发技术中,服务器可以提供不同的服务,当客户请求到达时,调度器可根据请求的内容选择服务器执行请求。因为所有的操作都是在操作系统核心空间中将完成的,它的调度开销很小,所以它具有很高的吞吐率。 服务器池的结点数目是可变的。当整个系统收到的负载超过目前所有结点的处理能力时,可以在服务器池中增加服务器来满足不断增长的请求负载。对大多数网络服务来说,请求间不存在很强的相关性,请求可以在不同的结点上并行执行,所以整个系统的性能基本上可以随着服务器池的结点数目增加而线性增长。

Linux负载均衡的设置步骤

Linux负载均衡的设置步骤 本文主要介绍了Linux负载均衡的设置步骤。包括ipvsadm的安装,设置IPVS,Load Balancer,LDirectord等方面的具体介绍,希望大家通过本文的学习能对这方面有所了解。 Linux作为一个具有代表性的开源系统,受到广大的用户所喜爱。那么如何在LVS下进行负载均衡的使用呢?现在我们就来详细地为大家介绍一下,主要是使用ipvsadm来实现负载均衡。那么按照一贯的程序,首先是安装程序,然后是配置。 Linux Virtua Server负载均衡ipvsadm使用方法 1.安装ipvsadm 下载ipvsadm,下载时需注意对应自己的内核版本? ipvsadm下载网址:http://www.Linux https://www.doczj.com/doc/2a3785239.html,/software/ 本文使用的是FC8系统,内核版本2.6.23.1,对应ipvsadm版本1.24? 安装时需要Linux内核源码,如果安装系统时没有安装源码,需要再下载内核源码?本文使用的内核是Linux-2.6.23.1.tar.bz2?把内核解压到/usr/src/Linux-2.6.23.1?下面开始编译安装: 建立内核快捷方式:ln-s/usr/src/Linux-2.6.23.1/usr/src/Linux 解压ipvsadm:tar zxvf ipvsadm-1.24.tar.gz 安装ipvsadm: cd ipvsadm-1.24 make make install 安装完成后,下一步我们开始配置IPVS,本文主要介绍Direct Routing方式的配置? 2.配置IPVS(Direct Routing)

Linux上搭建Java Web服务器

建立Java Web服务器 技术:Apache+Tomcat+JDK+Mysql 由于Apache整合了Tomcat,所以这个直接拿来用 首先上传上去 1.安装JDK jdk-6u18-linux-i586.bin:此文件为Linux可执行文件,所以直接运行但是这里不能运行,所以chmod 755必须赋予权限

安装完之后Java还不能运行,但是这不影响后面的,要让Java运行,先进入/bin/目录建立快捷方式:(注意此Java目录,我给移动到/目录下了) ln -sf /java/jdk1.6.0_18/bin/java ln -sf /java/jdk1.6.0_18/bin/javac ln -sf /java/jdk1.6.0_18/bin/javadoc ln -sf /java/jdk1.6.0_18/bin/javaws 2.安装Tomcat,直接解压缩就可以了 apache-tomcat-5.5.28.tar.gz 这种文件是先经过tar压缩,再由gzip压缩 gzip -d apache-tomcat-5.5.28.tar.gz tar -xvf apache-tomcat-5.5.28.tar

改名和移动文件都使用mv 启动Tomcat 配置一些环境变量 JAVA_HOME=/usr/java/jdk1.6.0_18 export JAVA_HOME 后启动Tomcat ./startup.sh

先安装Mysql Server,后安装Mysql Client 一些注意: ps -ef | grep tomcat(列出进程) kill ID号(结束进程) service iptables off ----彻底关闭防火墙 命令行下上网:wget http://IP .rpm:redHat package managerment rpm -qa:列出所有安装的包 rpm -qa | grep jdk是否安装jdk rpm -e 包名:卸载此包 rpm -ivh 文件名:安装文件 文件名》package名 文件名:MySQL-server-community-5.0.89-0.rhel4.i386.rpm 包名:MySQL 设置JAVA_HOME JAVA_HOME不能每次手动设

利用LVS+Keepalived 实现高性能高可用负载均衡服务器

LVS+Keepalived 介绍 LVS LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR); 十种调度算法(rrr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq)。 Keepalvied Keepalived在这里主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP 主机之间failover的实现 二. 网站负载均衡拓朴图 IP信息列表: 名称 IP LVS-DR-Master 61.164.122.6 ? LVS-DR-BACKUP 61.164.122.7 ? LVS-DR-VIP 61.164.122.8 ? WEB1-Realserver 61.164.122.9 ? WEB2-Realserver 61.164.122.10 ? GateWay 61.164.122.1 复制代码 三. 安装LVS和Keepalvied软件包 1. 下载相关软件包 #mkdir /usr/local/src/lvs ? #cd /usr/local/src/lvs ? #wget https://www.doczj.com/doc/2a3785239.html,/software/kernel-2.6/ipvsadm-1.24.tar.gz ? #wget https://www.doczj.com/doc/2a3785239.html,/software/keepalived-1.1.15.tar.gz 复制代码 2. 安装LVS和Keepalived #lsmod |grep ip_vs ? #uname -r ? 2.6.18-53.el5PAE ? #ln -s /usr/src/kernels/2.6.18-53.el5PAE-i686/ /usr/src/linux ? ? #tar zxvf ipvsadm-1.24.tar.gz ? #cd ipvsadm-1.24 ? #make && make install ? #find / -name ipvsadm # 查看ipvsadm的位置 ? ? #tar zxvf keepalived-1.1.15.tar.gz ? #cd keepalived-1.1.15 ? #./configure && make && make install

F5负载均衡双机热备实施方案

F5双机热备实施说明 2012/12/4

一、项目拓扑图及说明 两台F5负载均衡设备采用旁挂的方式连接至交换机,设备地址和虚拟地址在服务器的内网地址段中划分;使用F5为认证应用服务器进行流量负载均衡。 二、设备信息及IP分配表 F5:型号BIG-IP LTM 1600 软件版本:V10.2.4 对外地址对外端口内网地址内网端口协议设备名备注 192.168.100.21 https://www.doczj.com/doc/2a3785239.html, F5-1IP地址 192.168.100.22 https://www.doczj.com/doc/2a3785239.html, F5-2IP地址 192.168.100.23 F5浮动地址 10.168.100.21 F5-1数据同步 10.168.100.22 F5-2数据同步 192.168.100.150 80 192.168.100.4 80 TCP 认证服务器1 192.168.100.5 80 TCP 认证服务器2 三、实施步骤及时间

3.1、F5设备加电测试 3.2、配置F5及F5双机,需2.5小时 3.3、测试F5双机切换,需0.5小时,这部分作为割接准备工作。3.4、先添加认证服务器单节点到F5设备192.168.100.150的虚拟服务中,在内网测试应用,需0.5小时 3.5、将应用服务器从双机模式更改为集群模式,将认证服务器两个节点添加到F5设备,这个时间取决于服务器模式更改的时间。 3.6、在防火墙上更改认证服务器的映射地址,将原来的地址更改为F5设备上的虚拟服务IP地址192.168.100.150 ,TCP 协议80端口。 四、回退方法 在外部网络不能访问认证服务时,回退的方法是在防火墙上把F5设备虚拟服务器192.168.100.150地址映射,更改为原单台认证服务器IP地址,将认证服务器集群模式退回双机模式。 五、F5设备配置步骤 5.1、设置负载均衡器管理网口地址 F5 BIG-IP 1600 设备的面板结构: BIG-IP 1600应用交换机具备四个10/100/1000M自适应的网络接口及二个光纤接口. 10/100/1000 interface — 4个10/100/1000 M 自适应的网络接口 Gigabit fiber interface — 2个1000M 多模光纤接口

负载均衡集群系统解决方案

Linux负载均衡集群系统解决方案 行业: 跨行业 功能:Linux,负载均衡集群 供应商: 中国软件股份集团 方案正文: Linux虚拟服务器简介 基于中软Linux的虚拟服务器(Linux Virtual Server,即LVS)是一个具有高可用性特点的负载均衡集群系统。该系统可以提供与服务器节点的数量、性能成正比的负载能力,有效提高服务的吞吐量、可靠性、冗余度、适应性,性能价格比高。同时,LVS也是利用低端设备实现高端服务器性能的有效途径。 中软Linux虚拟服务器(Linux Virtual Server,即LVS)是建立在一个主控服务器(director)及若干真实服务器(real-server)所组成的集群之上。real-server负责实际提供服务,主控服务器根据指定的调度算法对real-server进行控制。而集群的结构对于用户来说是透明的,客户端只与单个的IP(集群系统的虚拟IP)进行通信,也就是说从客户端的视角来看,这里只存在单个服务器。 Real-server可以提供众多服务,如ftp, http, dns, telnet, nntp, smtp 等。主控服务器负责对Real-Server进行控制。客户端在向LVS发出服务请求时,Director会通过特定的调度算法来指定由某个Real-Server来应答请求,而客户端只与Load Balancer的IP(即虚拟IP,VIP)进行通信。 二、优点 *提高吞吐量:为获得更高的吞吐量,在LVS中增加real-servers,其开销只是线性增长;而如果我们选择更换一台更高性能的服务器来获得相当的吞吐量,其开销要大得多,而且被替换掉的旧服务器会造成资源的浪费。 *冗余:如果LVS中某real-server由于需要升级或其它原因而停止服务,其退出以及恢复工作,并不会造成整个LVS对客户端服务的中断。 *适应性:不管是需要吞吐量逐渐地变化(因日常事务量变化),还是快速地变化(因突发事务量变化),服务器数量的增减对于客户端都是透明的。 三、结构图

linux下用apache搭建web服务器

Linux下搭建web服务器 Apache源于NCSAhttpd服务器,经过多次修改,成为世界上最流行的 Web服务器软件之一。Apache取自“a patchy server”的读音,意 思是充满补丁的服务器,因为它是自由软件,所以不断有人来为它开发新的功能、新的特性、修改原来的缺陷。Apache的特点是简单、 速度快、性能稳定,并可做代理服务器来使用。 本来它只用于小型或试验 Internet网络,后来逐步扩充到各种Unix 系统中,尤其对Linux的支持相当完美。Apache有多种产品,可以支持SSL技术,支持多个虚拟主机。Apache是以进程为基础的结构,进程要比线程消耗更多的系统开支,不太适合于多处理器环境,因此,在一个Apache Web站点扩容时,通常是增加服务器或扩充群集节点 而不是增加处理器。到目前为止Apache仍然是世界上用的最多的Web 服务器,市场占有率达60%左右。世界上很多著名的网站如Amazon.c om、Yahoo!、W3 Consortium、Financial Times等都是Apache的产物,它的成功之处主要在于它的源代码开放、有一支开放的开发队伍、支持跨平台的应用(可以运行在几乎所有的Unix、Windows、Linux 系统平台上)以及它的可移植性等方面。 Apache的诞生极富有戏剧性。当NCSA WWW服务器项目停顿后,那些 使用NCSA WWW服务器的人们开始交换他们用于该服务器的补丁程序,他们也很快认识到成立管理这些补丁程序的论坛是必要的。就这样,诞生了Apache Group,后来这个团体在NCSA的基础上创建了Apache。 Apache的主要特征是: 可以运行上所有计算机平台; 支持最新的H TT P1.1协议; 简单而强有力的基于文件的配置; 支持通用网关接口CGI; 支持虚拟主机; 支持H TT P认证; 集成P erl脚本编程语言;

LINUX下双网卡绑定技术实现负载均衡和失效保护

保持服务器的高可用性是企业级 IT 环境的重要因素。其中最重要的一点是服务器网络连接的高可用性。网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能。 我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel 技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。 说了半天理论,其实配置很简单,一共四个步骤: 实验的操作系统是Redhat Linux Enterprise 3.0 绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片 双网卡邦定的拓朴图(见下图) 1. 1.编辑虚拟网络接口配置文件,指定网卡IP 2.vi /etc/sysconfig/ network-scripts/ ifcfg-bond0 3.[root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 4. 2 #vi ifcfg-bond0 5.将第一行改成 DEVICE=bond0 6.# cat ifcfg-bond0 7.DEVICE=bond0 8.BOOTPROTO=static 9.IPADDR=172.31.0.13 https://www.doczj.com/doc/2a3785239.html,MASK=255.255.252.0 11.BROADCAST=172.31.3.254 12.ONBOOT=yes 13.TYPE=Ethernet 14.这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 15.[root@rhas-13 network-scripts]# cat ifcfg-eth0 16.DEVICE=eth0 17.ONBOOT=yes 18.BOOTPROTO=dhcp 19.[root@rhas-13 network-scripts]# cat ifcfg-eth1 20.DEVICE=eth0 21.ONBOOT=yes 22.BOOTPROTO=dhcp 复制代码 3 # vi /etc/modules.conf “自己实验结果:centos文件为:/etc/modprobe.conf“ 1.编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0 2.

Radware负载均衡解决实施方案

Radware负载均衡解决实施方案

————————————————————————————————作者:————————————————————————————————日期:

Radware WSD 服务器负载均衡解决方案

1.1 WSD ―服务器负载均衡 1.1.1Radware 网络应用系统负载均衡的基本工作原理 Radware的WSD通过对于数据包的4-7层信息的检查来进行负载均衡的判断,服务器负载均衡是最普遍的一种4-7层交换的例子,下面我们就以服务器负载均衡的整个流程来介绍Radware WSD的工作原理: 1.1.1.1 会话“session”。 请看下面会话的例子: 为了识别会话,客户机和服务器都使用TCP“埠”。客户机和服务器之间的TCP会话由四个参数定义:客户机IP地址、客户机TCP端口、服务器IP地址和服务器TCP端口。所以,如果IP地址为199.1.1.1的客户机使用TCP端口1234与IP地址为145.145.100.100的服务器(TCP埠80)建立会话,则该会话定义如下: (clntIP,clntPORT,srvrIP,crvrPORT )= (199.1.1.1,1234,145.145.100.100,80) 1.1.1.2 服务器负载均衡 假设图1中所示的样例,客户机通过访问服务器负载均衡设备WSD的虚拟地址145.1.1.1 进行HTTP应用的访问。再假设选择服务器145.145.100.100响应此客户机,则客户表的记录如下所示:

如果启用此记录,WSD 会执行以下两个任务: 1. 所有从客户机199.1.1.1发送到服务器群145.145.1.1且目标TCP 端口为80的数据包将被发送到服务器145.145.100.100。 2. 所有从服务器145.145.100.100发送到客户机199.1.1.1且源TCP 端口为80的数据包将被改为源地址145.145.1.1发送出去。 即:对于用户199.1.1.1 来说,145.145.1.1 是他要访问的服务器IP 地址,当WSD(145.145.1.1),收到用户请求后,会根据后面2台服务器的“健康状况”和负载均衡算法将用户的请求转发到某一台服务器145.145.100.100 1.1.1.3 健康检查 由于负载均衡设备同应用的关系比较紧密,所以需要对负载均衡的元素进行“健康”检查,如果负载均衡设备不能在应用进行健康检查,就无法做到对应用的高可靠性的保障。 Radware 的高级健康检查模块,可以准确的做到应用层的健康检查。这种新的模块与流量复位向模块紧密相连, 可以提前检验所有应用和网络部件的可用

Linux下高可用集群方案

Linux下高可用集群方案很多,本文介绍的是性价比比较高的一种: 使用Heartbeat 2.0配置Linux高可用性集群。 一、准备工作 你首先需要两台电脑,这两台电脑并不需要有相同的硬件(或者内存大小等),但如果相同的话,当某个部件出现故障时会容易处理得多。接下来您需要决定如何部署。你的集群是通过Heartbeat 软件产生在两台电脑之间心跳信号来建立的。为了传输心跳信号,需要在节点之间存在一条或多条介质通路(串口线通过modem电线,以太网通过交叉线,等等)。现在可以开始配置硬件了。既然想要获得高可用性(HA),那么您很可能希望避免单点失效。在本例中,可能是您的null modem线/串口,或者网卡(NIC)/ 交叉线。因此便需要决定是否希望为每个节点添加第二条串口null modem连线或者第二条NIC/交叉线连接。我使用一个串口和一块额外的网卡来作为heartbeat的通路,这是因为我只有一条null modem线和一块多余的网卡,并且认为有两种介质类型传输heartbeat信号比较好。硬件配置完成之后,便需要安装操作系统以及配置网络(我在本文中使用的是RedHat)。假设您有两块网卡,那么有一块应该配置用于常规网络用途,另一块作为集群节点之间的专用网络连接(通过交叉线)。例如,假设集群节点有如表-1下的IP地址: 表-1集群节点的IP地址 输入如下命令检查您的配置: ifconfig 这将显示您的网卡及其配置。也可以使用命令“netstat –nr”来获得网络路由信息。如果一切正常,接下来要确定可以来两个节点之间通过所有接口ping通对方。如果使用了串口,便需要检测其连接情况。把一个节点作为接收者,输入命令: cat

DM7集群部署方案之数据守护集群Linux(主备)

DM7集群部署方案之数据守护集群 Linux(主备) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 安装前准备 (1) 1.1集群规划 (1) 1.2网络架构 (1) 1.3硬件环境建议 (2) 1.4硬件环境环境验证 (2) 1.5A机器:实例、启服务 (2) 2 配置A机器 (2) 2.1注册服务 (2) 2.2配置DM.INI (3) 2.3配置DMARCH.INI (3) 2.4配置DMMAL.INI (4) 2.5配置DMWATCHER.INI (4) 2.6配置DMWATCHER.CTL (4) 2.7拷贝实例 (5) 3 配置B机器 (5) 3.1注册服务 (5) 3.2配置DM.INI (6) 3.3配置DMARCH.INI (6) 3.4相同配置项 (6) 4 配置监视器 (6) 4.1注册服务 (6) 4.2配置DMMONITOR.INI (7) 4.3监视器使用 (7) 5 启动服务及查看信息 (8) 5.1启动数据库服务并修改参数 (8) 5.2查询主备库信息是否一致 (8) 5.3启动守护进程 (8)

5.4启动监视器 (8) 5.5启停集群 (9) 6 配置DM_SVC.CONF文件 (9) 6.1 DM_SVC.CONF配置内容 (9) 6.2应用连接 (9) 7 附加操作 (10) 7.1操作系统/数据库调优 (10) 7.2数据库备份 (10) 7.3项目管理维护 (10)

1安装前准备 1.1集群规划 说明:具体规划及部署方式以现场环境为准。 1.2网络架构 主机备机

1.3硬件环境建议 心跳网络方面:①集群间的心跳网络要走数据,最好走两个交换机,来实现冗余和负载均衡。②需要把服务器多个心跳网卡绑定为一个逻辑网卡来使用(比如bond方式)。③交换机速度建议至少为千兆。 存储方面:①需要在每台机器上挂在独立存储,其中主机所在机器挂载的存储建议大一些。②需要格式化好,且所有机器挂载路径保持一致。③在空间不够用时,要求支持在挂载目录上直接进行扩充。④文件系统建议使用ext4。 1.4硬件环境环境验证 心跳网络方面:①关闭其中一台交换机或者模拟其中一条线路故障,是否能做到网络方面的冗余。②测试心跳网络的稳定性,会不会出现断连或者丢包等情况。 存储方面:反复重启集群机器,检查存储是否会出现只读、脱挂、挂载路径是否会发生改变等情况。 1.5A机器:实例、启服务 2配置A机器 2.1注册服务 ①复制数据库和守护进程服务文件到/etc/rc.d/init.d目录 ②vi /etc/rc.d/init.d/DmServiceRT1_01文件 ③vi /etc/rc.d/init.d/DmServiceWatcher文件 ④修改启动服务的等级连接

在linux(redhat)下双网卡负载均衡(lacp)

(一)linux配置 #cat /boot/config-kernel-version |grep -i bonding CONFIG_BONDING=m 返回CONFIG_BONDING=m表示支持,否则需要编译内核使它支持bonding 也可以用:查看一下内核是否已经支持bonding:modinfo bonding 第一步:创建一个ifcfg-bondX # touch /etc/sysconfig/network-scripts/ifcfg-bond0 新建一个bond0配置文件 # cat /etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 BOOTPROTO=static IPADDR=1.1.1.2 NETMASK=255.255.255.0 BROADCAST=1.1.1.255 NETWORK=1.1.1.0 GATEWAY=1.1.1.1 ONBOOT=yes TYPE=Ethernet 编辑ifcfg-bond0如上 第二步:修改/etc/sysconfig/network-scripts/ifcfg-ethX 这个实验中把网卡1和2绑定,修改/etc/sysconfig/network-scripts/ifcfg-ethX相应网卡配置如下: # cat /etc/sysconfig/network-scripts/ifcfg-eth1 TYPE=Ethernet DEVICE=eth1 HWADDR=00:d0:f8:40:f1:a0 网卡1mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes # cat /etc/sysconfig/network-scripts/ifcfg-eth2 TYPE=Ethernet DEVICE=eth2 HWADDR=00:d0:f8:00:0c:0c 网卡2mac BOOTPROTO=none ONBOOT=yes USERCTL=no MASTER=bond0 SLAVE=yes

Linux系统下Web服务器配置详细介绍

1.MYSQL的配置过程: [root@mailweb]#tar zxvf mysql-5.0.18.tar.gz [root@mailweb]#cdmysql-5.0.18 [root@mailmysql-5.0.18]#groupaddmysql [root@mailmysql-5.0.18]#useradd-gmysqlmysql [root@mailmysql-5.0.18]#./configure——prefix=/usr/local/mysql#把MYSQL安装到指定目录 [root@mailmysql-5.0.18]#make [root@mailmysql-5.0.18]#makeinstall [root@mailmysql-5.0.18]#scripts/mysql_install_db [root@mailmysql-5.0.18]#chown-Rroot/usr/local/mysql [root@mailmysql-5.0.18]#chown-Rmysql/usr/local/mysql/var [root@mailmysql-5.0.18]#chgrp-Rmysql/usr/local/mysql [root@mailmysql-5.0.18]#cpsupport-files/https://www.doczj.com/doc/2a3785239.html,f/etc/https://www.doczj.com/doc/2a3785239.html,f 用如下命令启动MySQL数据库(如果操作系统默认安装的有MySQL数据库请确认其没有启动): [root@mailmysql-5.0.18]#/usr/local/mysql/bin/safe_mysqld——user=mysql& 将上面的启动命令追加到文件"/etc/rc.d/rc.local"的尾部,使操作系统启动时就自动MySQL数据库服务器。以下对MYSQL进行初始化设置: [root@mailmysql-5.0.18]#/usr/local/mysql/bin/mysql进入MYSQL客户端工具,进行相关设置 mysql>dropdatabasetest;mysql>usemysql;mysql>deletefrommysql whereuser="";mysql>deletefrommysqlwherehost="%";mysql>delet efromdb; 现在mysql数据库将只允许本机的mysql管理员root用户(和操作系统的root 用户不同)连接,用如下命令为root用户指定密码:

linux集群应用实战

课程描述: 网络的飞速发展,给网络带宽和服务器性能带来了巨大的挑战,基于互联网的应用系统越来越多的瓶颈出现在服务器端,这就对服务器提出了更高的要求,同时,在互联网运营和管理上,也要求更加的智能和灵活,如何能够实时的了解每个服务器的运行状态,并在应用出现故障的第一时间内来处理问题,成为互联网运维中的一个重中之重。 本课程就重点介绍这方面的应用和案例,首先介绍开源的网络存储应用ISCSI,iSCSI技术以其低廉的构建成本和优秀的存储性能,博得了很多CIO和存储管理员的喜爱,目前已经陆续进入企业应用领域,这种技术推动了企业向集中式存储环境转变。 接着介绍nagios监控系统,Nagios是系统管理人员和运维监控人员必须的工具之一,使用nagios可以监控本地或远程主机资源,例如磁盘空间、系统负载等信息,也可以监控各种应用服务,例如httpd服务、ftp服务等,当主机或者服务出现故障时,nagios还可以通过邮件、手机短信等方式在第一时间内通知系统维护人员。利用nagios可以以低廉的成本达到商业监控系统所完成的功能。 最后,讲解了集群系统在企业级方面的应用,主要讲述了红帽集群套件RHCS开源HA heartbeat、负载均衡器LVS、Oracle集群数据库RAC、Mysql+DRBD集群等方面的应用案例,通过使用Linux搭建集群,可以用较低的价格来实现高可伸缩、高可用的网络服务,弥补单一服务器无法达到的性能。 购买地址:https://www.doczj.com/doc/2a3785239.html,/3501607 在线观看: 讲师介绍: 高俊峰,网名南非蚂蚁,经常活跃于国内著名技术社区IXPUB (https://www.doczj.com/doc/2a3785239.html,)、ITPUB (https://www.doczj.com/doc/2a3785239.html,)、ChinaUnix(https://www.doczj.com/doc/2a3785239.html,),在IXPUB任“Linux与开源世界”及“存储设备与容灾技术”版主,多年专注于Linux+Oracle技术方面的研究与实践,擅长Linux系统管理与应用,实战经验丰富。 课程目录一览 第1讲 iscsi的概念、组成和工作原理 课程目标:了解iscsi的组成和工作原理。 课程内容: iscsi的概念。 iscsi的组成。 iscsi的工作原理。 第2-3讲基于iscsi的ip san存储系统 课程目标:

DM7集群部署方案之数据共享集群Linux(2节点)

DM7集群部署方案之数据共享集群 Linux(2节点) 武汉达梦数据库有限公司 2019年9月

版本历史

目录 1 前期准备工作 (1) 1.1硬件准备 (1) 1.2网络架构 (1) 1.3硬件环境建议 (1) 1.4硬件环境环境验证 (2) 1.5集群规划 (2) 1.6修改主机名 (2) 1.7关闭防火墙 (3) 1.8网卡自启 (3) 1.9修改系统参数 (3) 2 创建目录并安装数据库 (3) 2.1A机器 (3) 2.2B机器 (4) 3 存储准备 (4) 3.1划存储 (4) 3.2挂存储方法1:直接挂 (4) 3.3挂存储方法2:多路径绑定 (5) 4 搭建DSC (6) 4.1配置DMDCR_CFG.INI (6) 4.2初始化磁盘组 (7) 4.3配置DMASVRMAL.INI (7) 4.4配置DMDCR.INI (7) 4.5启动CSS、ASM服务 (8) 4.6创建DMASM磁盘组 (9) 4.7配置DMINIT.INI (9) 4.8初始化数据库 (9) 4.9配置DMARCH.INI (10)

4.10启动DMSERVER服务 (10) 4.11设置后台启动脚本 (11) 4.12启停集群 (12) 5 配置监视器 (13) 5.1配置DMCSSM.INI (13) 5.2启动监视器 (13) 6配置DM_SVC.CONF文件 (13) 6.1 DM_SVC.CONF配置内容 (13) 6.2应用连接 (14) 7附加操作 (14) 7.1操作系统/数据库调优 (14) 7.2数据库备份 (14) 7.3项目管理维护 (14)

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

Linux文件服务器与Web服务配置

实训项目5 Linux文件与Web服务 一、实训目的 ●掌握Linux系统之间资源共享和互访方法。 ●掌握Linux文件服务器的配置方法(企业NFS服务器和客户端的安装与配置)。 ●掌握Linux系统中Apache服务器的安装与配置。 ●掌握个人主页、虚拟目录、基于用户和主机的访问控制及虚拟主机的实现方法(可选)。 二、实训内容 ●练习Linux系统NFS服务器与NFS客户端的配置方法。 ●练习Linux系统Apache服务器的安装与配置方法。 三、实训步骤 子项目1.NFS服务器与NFS客户端的配置(必做) 某企业的销售部有一个局域网,域名为https://www.doczj.com/doc/2a3785239.html,。网络拓扑图如下图所示。网内有一台Linux的共享资源服务器www,域名为https://www.doczj.com/doc/2a3785239.html,。现要在www上配置NFS 服务器,使销售部内的所有主机都可以访问www服务器中的/share共享目录中的内容,但不允许客户机更改共享资源的内容。同时,让主机china在每次系统启动时自动挂载www 的/share目录中的内容到china3的/share1目录下。

(一)、软件安装及准备工作 检测系统是否安装了NFS服务器对应的软件包,如果没有安装的话,进行安装。 # rpm -qa | grep nfs //确认NFS已经安装,NFS是默认安装选项 nfs-utils-lib-1.1.5-1.el6.i686 # service nfs status rpc.svcgssd is stopped //如果NFS已经安装,则查看其服务是否启动 rpc.mountd is stopped nfsd is stopped rpc.rquotad is stopped # ll /share //查看/share目录是否已经建立 ls: cannot access /share: No such file or directory # mkdir /share # cat > /share/hello.txt hello! ^C //注意:此处的^C不是输入的字符内容,而是一个Ctrl+C的键盘输入 (二)、配置主配置文件/etc/exports # vim /etc/exports /share *(ro,async) //所有网段访问,只读,同步 /tmp 192.168.0.0/255.255.255.0(rw,async) //只允许192.168.5网段访问,可读写 (三)、启动服务 # service nfs start Starting NFS services: [ OK ] Starting NFS quotas: [ OK ] Starting NFS daemon: [ OK ] Starting NFS mountd: [ OK ] # service named start //启动域名服务 Starting named: [ OK ] (四)、配置防火墙

相关主题
文本预览
相关文档 最新文档