RH436-1数据管理、存储及集群技术概述
- 格式:doc
- 大小:167.00 KB
- 文档页数:6
本手册只针对RHCA-436高可用科目题库,环境、虚拟机配置、yum源等其他方面本文概不涉及版权所有者为Master-ztj,如转载请著名出处,欢迎下载学习,禁止用于商业用途考试环境:1台物理机:3台虚拟机:第一题:请配置一个高可用集群,要求如下:1.集群名称:cluster02.集群默认用户的密码请设置为:redhat解:1.三个节点通过yum安装集群组件:yum –y install pcs fence-virt fence-virtd fence-virtd-* fence-agents-all如果太长,记不住可以这样yum –y install pcs fence*2. 三个节点关闭防火墙或使防火墙通过集群服务,建议使用方法2systemctl disable firewalldsystemctl stop firewalld或firewall-cmd - -permanent - -add-service=http #后续题里面会有http服务firewall-cmd - -permanent - -add-service=high-availablity #集群服务firewall-cmd - -permanent - -add-port=1229/tcp #tcp协议下fence端口打开firewall-cmd - -permanent - -add-port=1229/udp #udp协议下fence端口打开firewall-cmd - -reload #防火墙策略刷新,使其即时生效请注意上文中单- 和双- -的区别3. 三个节点启动pcsd服务systemctl enable pcsd ; systemctl start pcsd4.单节点效验虚拟机是否符合集群要求pcs cluster auth node{a,b,c}.private.example #此命令单节点运行即可,命令中的那个大括号为正则表达式代表和的关系输入集群默认用户:hacluster 密码:redhat提示Authorized代表配置是没有问题的5. pcs cluster setup --name cluster0 node{a,b,c}#建立名称为cluster0的集群集群内主机名称为nodea、nodeb、nodec6. pcs cluster enable --all#将集群设置为开机自启,这里先不要用start命令启动集群第二题,配置集群的fence功能,此功能的作用是手动切换资源,防止集群脑裂背景:1.这里我们使用fence_xvm方式来配置集群fence功能2.环境里面需要在物理机上使用:dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=1K count=4 这条命令创建fence密钥“fence_xvm.key”然后CP到3个节点的/etc/cluster/目录下,拷贝之前,还需要在物理上运行fence_virtd -c命令来配置fence功能使用哪块网卡,一般选择私网的那块网卡,环境配置,这里就不多讲了解:1.pcs cluster start --all #启动集群2.pcs stonith create fence_nodea fence_xvm port=”nodea”pcmk_host_list="" #单节点输入即可pcs stonith create fence_nodeb fence_xvm port=”nodeb”pcmk_host_list=""pcs stonith create fence_nodec fence_xvm port=”nodec”pcmk_host_list=""3.pcs stonith showpcs stonith --fullpcs status #查看fence服务是否启动,配置是否正常如下图所示如上所示代表集群fence功能正常,集群状态正常第三题,配置集群的日志文件为本地/var/log目录下的nodea.log nodeb.log nodec.log 解:1.vim /etc/corosync/corosync.conf最下面logging {to_syslog: yes在这行下面添加:to_file: yeslogfile: /var/log/nodea.log}绿色这2行然后:按ESC在冒号后面输入wq 保存退出重启集群服务pcs cluster stop --allpcs cluster start --allcat /var/log/nodea.log查看是否有内容,如下图所示:代表成功将日志文件改写定位第四题,配置集群报警邮箱地址为****************************.com资源名称为:ClusterAlert解:1. pcs resource create clustermonitor mailto email="***************************.com" subject=ClusterAlert --group clustergroup第七题和第八题一起来,配置集群iscsi磁盘和多路径背景:这里先做7/8/9/10 再做5/61. yum -y install iscsi-initiator-utils device-mapper-multipath装iscsi和多路径包2. vim /etc/iscsi/initiatorname.iscsi编辑iscsi配置文件改为:InitiatorName=.example:nodea另外2台机器分别改为:InitiatorName=.example:nodebInitiatorName=.example:nodec保存后三台机器都要改下链接刷新值sed -i ‘s/120/5/g ‘ /etc/iscsi/iscsi.conf从2分钟改为5秒3. iscsiadm -m discovery -t st -p 192.168.1.9:3260iscsiadm -m discovery -t st -p 192.168.2.9:3260iscsiadm -m node -l配置iscsi链接,如下图所示fdisk -l 查看磁盘4.配置多路径软件mpathconf --enable启用多路径配置文件修改vim /etc/multipath.conf在最后的大括号中添加: devnode “^vd[a-z]” 如下图所示:保存退出5.输入multipath -v3multipath -ll将2个盘虚拟为1个,fdisk -l 查看结果如图所示将sda和sdb 虚拟为mpatha第九题,配置集群资源磁盘锁和文件系统1.pcs resource create dlm controld op monitor interval=30s on-fail=fence clone interleave=true ordered=truepcs resource create clvmd clvm op monitor interval=30s on-fail=fence clone interleave=true ordered=true创建dlm和clvmd这2个集群资源2.pcs constraint order start dlm-clone then clvmd-clone设置先启动dlm 再启动clvmdpcs constraint colocation add clvmd-clone with dlm-clone设置clvmd随dlm一起启动3.yum -y install dlm lvm2-cluster gfs2-utils安装dlm锁、lvm2和gfs2文件系统lvmconf --enable-cluster启用lvm集群管理功能systemctl stop lvm2-lvmetad.service停止本地lvm服务pcs property set no-quorum-policy=freeze 配置no-quorum-policy为freeze4.pvcreate /dev/mapper/mpathavgcreate -Ay -cy clustervg /dev/mapper/mpathalvcreate -L 1G -n servicedata clustervgmkfs.gfs2 -j3 -p lock_dlm -t cluster0:data /dev/clustervg/servicedata创建pv vg lv 并格式化为gfs2文件系统按y 然后回车,格式化格式化完毕第十题,创建集群文件系统clusterfs解:1. pcs resource create clusterfs Filesystem device=/dev/clustervg/servicedata directory=/var/www/ fstype="gfs2" options="noatime" op monitor interval=10s on-fail=fence clone interleave=true单节点输入即可2.pcs resource show clusterfs 查看资源3. pcs constraint order start clvmd-clone then clusterfs-clone配置启动顺序先启锁再启文件系统4. pcs constraint colocation add clusterfs-clone with clvmd-clone锁成功启动后,启动文件系统第五题和第六题配置集群阿帕奇服务,使集群服务永不在nodea上运行,资源首先会在nodeb上运行,如果nodeb宕掉,资源会顺利漂移到nodec上解:1. yum -y install httpd 安装阿帕奇包2. cd /var/www/html3. cat >>index.html<< EOF 自己写一个网页文件,考试的时候会给你一个写好的4. pcs resource create clusterservice apache --group clustergrouppcs resource create clusterip IPaddr2 ip=172.25.0.88 cidr_netmask=24 --group clustergrouppcs constraint order start clusterfs-clone then clustergroup创建apache服务资源和漂移IP资源,先启动集群文件系统再启动集群资源如下图所示:5.配置集群资源在nodeb节点上运行,并且永不在nodea上运行pcs constraint location clustergroup prefers pcs constraint location clustergroup avoids 6. pcs config查看集群的全部配置信息7.打开网页172.25.0.88 看看是否有内容将节点nodeb poweroff后查看网页是否依然能够打开在节点nodec上pcs status 查看群集状态:资源全部在nodec上,代表集群功能正常,全部题目完成。
...海康威视IP SAN/NAS存储解决方案杭州海康威视数字技术有限公司杭分公司二〇〇九年六月目录1.基本需求 (4)1.1DVR/DVS需求 (4)1.2容量计算公式 (4)1.3容量计算 (4)1.4集中式共享存储 (5)1.5数据可靠性 (5)1.6可扩展性 (5)1.7高性能 (6)1.8网络需求 (6)2.解决方案 (7)2.1.方案选择 (7)2.1.1.DVR直接存储 (7)2.1.2.NAS附网存储 (7)2.1.3.IP存储网络 (7)2.2.方案描述 (8)2.2.1.系统原理图 (9)2.3.存储技术参数 (10)2.3.1.存储配置 (10)2.4.方案分析 (13)2.4.1.监控专用存储系统,充分满足性能要求 (13)2.4.2.同时提供IP SAN和NAS (13)2.4.3.极易管理(全中文) (14)2.4.4.独有安全技术 (14)2.4.5.高可扩充性 (14)2.4.6.高性价比 (15)2.4.7.数据存储的高可靠性和可用性 (15)3.DS-A20系列IP SAN/NAS存储产品 (16)4.DS-6X00HC/HF视频服务器 (19)4.1.产品概述 (19)4.2.订货型号 (19)4.3.硬件接口 (19)4.4.技术参数 (20)5.DS-6X00HC/HF-ATA视频服务器 (21)5.1.产品概述 (21)5.2.订货型号 (21)5.3.物理接口 (21)5.4.技术参数 (22)5.5.DS-2DF1-6XY系列网络球机 (23)1. 基本需求某银行需要64路视频监控系统,7*24小时监控,数据保存3个月便可以覆盖。
存储方案采用IP SAN/NAS 集中存储。
采用4CIF 格式,1Mbps 码流。
1.1 DVR/DVS 需求➢ 64路➢ 图象分辨率: 1Mpbs➢ 7*24小时➢ 保存时间:90天1.2 容量计算公式第一步:根据式(1)计算单个通道每小时所需要的存储容量i q , 单位MByte 。
数据管理、存储及集群技术概述一、数据1.数据的分类1.1.用户数据:用户数据的保护比系统数据更具有挑战性,用户数据的丢失或泄露则是致命的,比如银行业务1.2.系统数据:系统数据丢失了并不会造成企业真正的损失1.3.应用数据:应用数据在企业中是最不能轻视的,大量攻击都是通过系统上应用的漏洞来开展的2.数据可用性2.1.哪些数据必需保证高可用2.2.注意数据的生命周期:分类存储(打包归档还是直接存储)2.3.数据的访问方法和频率:是只读的还是可读写的?是应用程序的数据,还是可以直接访问的数据?是一个网络配置文件,还是为为了安全的配置?2.4.应用程序的“data starved”数据饥饿:不应该是数据跟不上来,而应该是程序跟不上2.5.所有的一切都要防止单点故障(SPOF:single points of failur)3.规划设计3.1. 数据越少要求越小3.2. 减小复杂性3.3. 增加灵活性3.4. 保证数据的完整性二、集群集群是有一组计算机来共同完成一件比较复杂的事情。
1.集群的目标1.1. HPC(High Performance):高性能集群,追求性能,大型的运算,1.2. HA(High Availability):高可用,追求稳定,主要是为了防止单点故障,为了实现的是24小时不间断的工作,并不要求有多快1.3. LBC(Load Balancing):负载均衡集群,基本不用(现大多数利用硬件LBC设备)2.redhat的cluster products2.1. RHCS(Redhat cluster suite):红帽集群套件,在RHEL5的AP版自带的2.2. GFS(Global File system):全局文件系统,GFS支持并发写入。
是一个集群级的文件系统。
2.3. CLVM (Clusterd logical volume manager):集群级的逻辑卷,的LVM只是单机版的逻辑卷,在一个节点做了LVM,只能在这个节点看到。
服务器存储管理RAIDSSDSAN和NAS服务器存储管理:RAID、SSD、SAN和NAS在当今数字化时代,服务器存储管理是企业运营中至关重要的一个环节。
随着数据量的不断增长和对数据安全性的更高要求,合理而高效地管理服务器存储成为了各个行业的迫切需求。
本文将介绍几种常见的服务器存储管理解决方案,分别是RAID、SSD、SAN和NAS。
1. RAID(冗余磁盘阵列)RAID技术是一种通过将数据分布在多个磁盘驱动器之间,提高数据存储性能和冗余度的技术。
通过使用虚拟化技术,RAID可以将多个磁盘驱动器组合成一个逻辑卷,从而提供更高的数据吞吐量和可靠性。
常见的RAID级别包括RAID 0、RAID 1、RAID 5和RAID 10,每种级别都有不同的性能和冗余特性,使得RAID成为服务器存储管理中一种常见的解决方案。
2. SSD(固态硬盘)SSD技术是一种基于闪存存储芯片的存储设备,相比传统的机械硬盘,SSD具有更高的数据读写速度和更低的延迟。
SSD采用固态存储技术,在数据存储和读取过程中没有机械部件的运动,因此具有更高的耐用性和稳定性。
在服务器存储管理中,将SSD用作主数据存储设备可以大幅提高数据的访问速度,从而加快服务器响应时间,提升工作效率。
3. SAN(存储区域网络)SAN是一种高速存储网络,用于连接服务器和存储设备。
通过将存储设备独立出来,通过专用网络与服务器相连,SAN可以有效地管理和共享存储资源。
SAN技术可以提供高性能、高可靠性和可扩展性,适用于大型企业和需要大容量数据存储和远程复制的场景。
SAN通常采用光纤通信,并使用高级存储技术(如快照、复制和迁移)来提高数据的可靠性和可用性。
4. NAS(网络附加存储)NAS是一种通过网络连接的独立存储设备,可以提供文件级别的存储访问。
NAS将存储设备直接连接到网络,并使用标准网络协议(如NFS、CIFS)来共享文件。
NAS设备通常具有易用性和可扩展性,适用于小型企业和需要共享文件的场景。
服务器冗余技术在当今的数字化世界中,服务器的高可用性和稳定性对于企业的正常运营至关重要。
服务器冗余技术是一种确保服务器系统在遇到硬件或软件故障时仍能继续运行的技术。
本文将探讨服务器冗余技术的几个关键方面。
一、服务器冗余的类型1、热备:热备是最常见的冗余方式之一。
在热备系统中,一台服务器作为主服务器,另一台作为备份服务器。
备份服务器会实时监控主服务器的状态,一旦主服务器出现故障,备份服务器将立即接管。
2、冷备:冷备是一种较为简单的冗余方式。
在这种方式中,备份服务器只在主服务器发生故障时才启动。
因此,冷备的切换时间较长,可能会造成一定的服务中断。
3、温备:温备是介于热备和冷备之间的冗余方式。
在这种方式中,备份服务器会定期启动,以测试其功能和与主服务器的连接。
这种方式结合了热备和冷备的优点,提高了系统的可用性。
二、服务器冗余的技术1、RAID技术:RAID(独立冗余磁盘阵列)是一种通过将多个硬盘组合成一个逻辑硬盘来提高数据可靠性和性能的技术。
RAID可以通过数据冗余和校验实现数据的完整性和可靠性。
2、集群技术:集群技术是一种通过将多个服务器联合起来以实现高可用性和可伸缩性的技术。
在集群中,一个节点(服务器)发生故障时,其他节点可以接管并继续提供服务。
3、负载均衡:负载均衡是一种通过将网络流量分配到多个服务器上以提高性能和可用性的技术。
这种方式可以确保服务器的负载不会过重,同时还可以提供更好的用户体验。
三、服务器冗余的优点1、提高可用性:通过实现服务器的冗余,可以确保在单点故障发生时,服务能够继续运行,从而提高了系统的可用性。
2、提高性能:通过负载均衡和集群技术,可以将网络流量分配到多个服务器上,从而提高系统的整体性能。
3、数据保护:RAID技术可以提供数据冗余和校验功能,从而保护数据的安全性和完整性。
4、可伸缩性:集群技术可以方便地添加或移除节点,从而使系统能够适应不断变化的业务需求。
四、总结服务器冗余技术对于企业的业务连续性和稳定性至关重要。
数据管理、存储及集群技术概述一、数据1.数据的分类1.1.用户数据:用户数据的保护比系统数据更具有挑战性,用户数据的丢失或泄露则是致命的,比如银行业务λ1.2.系统数据:系统数据丢失了并不会造成企业真正的损失λ1.3.应用数据:应用数据在企业中是最不能轻视的,大量攻击都是通过系统上应用的漏洞来开展的λ2.数据可用性2.1.哪些数据必需保证高可用λ2.2.注意数据的生命周期:分类存储(打包归档还是直接存储)λ2.3.数据的访问方法和频率:是只读的还是可读写的?是应用程序的数据,还是可以直接访问的数据?是一个网络配置文件,还是为为了安全的配置?λ2.4.应用程序的“data starved”数据饥饿:不应该是数据跟不上来,而应该是程序跟不上λ2.5.所有的一切都要防止单点故障(SPOF:single points of failur)λ3.规划设计3.1. 数据越少要求越小λ3.2. 减小复杂性λ3.3. 增加灵活性λ3.4. 保证数据的完整性λ二、集群集群是有一组计算机来共同完成一件比较复杂的事情。
1.集群的目标1.1. HPC(High Performance):高性能集群,追求性能,大型的运算,λ1.2. HA(High Availability):高可用,追求稳定,主要是为了防止单点故障,为了实现的是24小时不间断的工作,并不要求有多快λ1.3. LBC(Load Balancing):负载均衡集群,基本不用(现大多数利用硬件LBC设备)λ2.redhat的cluster products2.1. RHCS(Redhat cluster suite):红帽集群套件,在RHEL5的AP版自带的λ2.2. GFS(Global File system):全局文件系统,GFS支持并发写入。
是一个集群级的文件系统。
λ2.3. CLVM (Clusterd logical volume manager):集群级的逻辑卷,的LVM只是单机版的逻辑卷,在一个节点做了LVM,只能在这个节点看到。
若果使用的是CLVM,做的LVM则可以在整个集群中看到。
λ2.4. Piranha:LVS 基础上设计的一套负载均衡高可用解决方案,LVS是基于IP 的负载均衡技术,由负载调度器和服务访问节点组成。
λ3.集群的基本拓扑4.RHEL storage Model存储模型红帽的存储模型包括五部分:4.1. 物理磁盘卷λ4.2. 块设备λ4.3. 文件系、λ4.4. VFS虚拟文件系统λ4.5. 应用程序的数据结构λ三、底层卷的管理1.磁盘卷是由描述数据物理限制的Block块组成的集合体1.1.卷可由多个设备合并组成。
λ1.2.磁盘卷可以通过条带化(RAID)技术来提高数据的可用性λ2.LUN(逻辑单元号)和UUID(通用唯一识别码)2.1. LUN:逻辑单元号,作用:主要是为了在SCSI只能接指定数量的磁盘,这样会限制数量的使用,则使用LUN号,来更加方便的扩展设备,更方便管理使用。
只是一个标识。
λ2.2. UUID:文件系统的唯一的表示号,可以使用blkid 进行查看λ[root@station9 proc]# blkid/dev/mapper/VolGroup00-LogVol00:UUID="ed31c60e-5371-4372-9d9c-a7f55f50641c" TYPE="ext3"/dev/sda2: LABEL="SWAP-sda2" TYPE="swap"/dev/sda1: LABEL="/boot" UUID="d51a6fdf-3997-4ab7-a4a7-af2b6899a7d1" TYPE="ext3"/dev/VolGroup00/LogVol00: UUID="ed31c60e-5371-4372-9d9c-a7f55f50641c" TYPE="ext3"3.访问卷(存储设备)3.1. DAS(Direct Attached Storage):直连附加存储λ3.2. shared storage:共享存储,多台主机共享一个设备。
共享存储可分为:λ 3.2.1. SAN(storage area network):存储区域网络⌝υ 3.2.1.1. scope of domain defined by membersυ 3.2.1.2. encapsulated scsi over fibre channelυ 3.2.1.3. deliver volume data blocks3.2.2. NAS(network attached storage):网络附加存储⌝υ 3.2.2.1. scope of domain defined by ip domainυ 3.3.3.2. NFS/CIFS/HTTP over tcp/ipυ 3.3.3.3. delivers file data blocks四、SAN(storage area network)存储区域网络1.SAN的拓扑结构1.1.传输的是scsi协议λ1.2.类似于本地直连(被识别成本地设备)λ1.3.光纤通道:通过fiber通道传输scsi协议λ1.4.ISCSI(internet scsi):通过tcp/ip网络通道传输scsi协议λ1.5.GNBD(Global network block device):通过基于kernel模块访问以太网上设备(现基本淘汰)λ2.Fiber channel:光纤通道组成:2.1.光纤λ2.2.Interface card (host bus adaptor):HBA卡,光纤卡λ2.3.光纤通道交换技术λ3.HBA3.1.通过光纤连接主机λ3.2.被识别成scsi适配器λ3.3.减轻I/O负载λ3.4.支持多路径λ4.Fibre channel switch:光纤交换机功能:4.1.为非块设备连接提供高速通道λ4.2.fabric服务λ4.3.扩展端口λ4.4.提供冗余λ5.交换技术:5.1.点对点:两设备相连λ5.2.环形λ5.3.交换fabricλ6.ISCSI(Internet SCSI)6.1.协议:客户端(initiator)发送scsi命令到远程存储设备(target)λ6.2.使用TCP/IP(tcp:3260)λ6.3.代替价格昂贵的fibre channel的低层方案,相对来性能要地很多。
λ7.GNBD(Global network block device)7.1.类似ISCSI,现在已不再发展λ7.2.利用以太网,传输的是块设备λ7.3.用于在fibre channel中实现类似GFS功能λ7.4.client-server模型:1. server共享本地block设备λ2. client访问共享设备8.NPS(network power switch)网络电源控制器,即电源FenceFence的工作原理:以双机的HA集群为例,当空闲节点通过心跳线得知服务节点发生问题,如通信失败等,空闲节点就会利用服务节点上的Fence卡将该节点关机或重启,并将服务资源“抢”到本节点上。
电源Fence则是检测到集群节点断电时则切换服务到另一节点。
λ9.ACPI(Advanced configuration and power interface)高级配置和电源接口9.1.用途:空闲cpu的电源管理,如当计算机比较空闲时,通过apci将其进入休眠λ9.2.硬件ACPI:λ⌝ 1.Dell DRAC:戴尔的远程访问接口卡⌝ 2.ILO:惠普的是iLo⌝ 3.IpmI: 英特尔的是IpmI(智能平台管理接口)⌝4功能:模拟电源键,可发送“shutdown -h now”集群发送"power off NOW"9.3.关闭apci服务λ#service acpid start#chkcofnig acpid off或启动是加入参数acpi=off#建议开启apci功能。
work Cluster Nodes(网络集群节点)10.1. 最好将集成心跳网络和服务网络分开λPrivate network :cluster trafficPublic network: service traffic10.2. 心跳线监控对方服务是否失败λ10.3. 防止单点故障,绑定两块以上的网卡,可以实现冗余和负载均衡的作用λ10.4. 网络设备必须支持组播λ⌝1组播用于集群间各节点之间的通信⌝2地址是集群创建之时自动生成的,但也可以手动地用其他地址覆盖⌝ 3.网络硬件(路由、交换、集线器、网卡等)必须支持组播11.广播与组播11.1.广播的特点就是单对多,广播是不管你需不需要这信息,通通都发一遍λ11.2.组播则是数据包发送给指定的接收者,组播则是有针对性地发送,效率自然比较好λ11.3.不是所有的以太网卡都支持组播λ11.4.IPv6很依赖组播,因为IPv6取消了广播,采用了更合理的组播λ12.多路径:12.1.多路径是用于访问共享存储的,可防止单点故障导致服务不可用。
λ12.2.设备映射多路径允许节点通过多条路径访问存储,多路径支持FC、iSCSI、GNBD等存储架构λ五、以太通道的绑定1.功能1.1.防止单点故障λ1.2.实现负载均衡λ1.3.多网卡绑定成单一的虚拟网卡λ2.以太通道绑定的配置2.1.配置加载bonding内核模块,使得支持绑定功能;λ[root@station9 ~]# vim /etc/modprobe.confalias bond0 bondingoptions bond0 mode=1 miimon=100 use_carrier=0#mode=0/1,0表示提供容错和负载均衡的功能,1表示只提供容错的功能;mode =1时可以使用primary参数指定哪块网卡作为主要优先的。
miimon=100表示连接监控的频度,单位为毫秒;use_carrier表示如何确定连接状态;0内核检测,1由mii-tool或ethtool外部工具检测。
2.2.配置网卡配置文件:λ[root@station9 ~]# cd /etc/sysconfig/network-scripts/假设要将eth0和eth1绑定成bond0,则作如下修改:[root@station9 ~]# vim ifcfg-eth0DEVICE=eth0MASTER=bond0SLAVE=yesONBOOT=yesBOOTPROTO=static[root@station9 ~]# vim ifcfg-eth1DEVICE=eth1MASTER=bond0SLAVE=yesONBOOT=yesBOOTPROTO=static[root@station9 ~]# vim ifcfg-bond0DEVICE=bond0IPADDR=192.168.32.39NETMASK=255.255.255.0GATEWAY=192.168.32.254ONBOOT=yesBOOTPROTO=static2.3.重启网络:[root@station9 ~]#/etc/init.d/network restart六、集群的安全cluser security1.集群间多有节点的通信默认都经过了加密,OpenAIS使用集群名作为密钥,但这并不是彻底安全的策略。