分布式集群存储系统的应用探讨
- 格式:doc
- 大小:14.00 KB
- 文档页数:2
基于分布式系统的大数据存储与处理研究大数据存储与处理技术是当前科技领域的一个热门研究方向,随着网络技术的不断发展和物联网的快速发展,数据的规模和复杂性呈现爆炸式增长。
传统的单机存储和处理已经无法满足大规模数据的需求,因此分布式系统成为了解决大数据存储与处理问题的有效技术手段之一。
本文将对基于分布式系统的大数据存储与处理技术进行研究和探讨。
在大数据存储与处理技术中,分布式系统通过将数据分散存储在多个节点上,并使用并行处理技术来实现高效的数据处理。
分布式存储系统是大数据处理的基础,它可以将海量的数据分布式地存储在多个存储节点上,从而实现数据的高可靠性和高并发访问。
分布式存储系统常用的技术包括分布式文件系统(如HDFS)、分布式键值存储系统(如Redis)等。
分布式文件系统是一种用于存储大规模数据的分布式存储系统。
Hadoop Distributed File System(HDFS)是大数据处理领域中最流行的分布式文件系统之一。
HDFS具有高可靠性、高吞吐量和可扩展性的特点,通过数据块的分布式存储和备份来实现数据的容错、高可用和高可靠性。
HDFS采用了主从架构,其中包括一个主节点(NameNode)和多个从节点(DataNode)。
主节点负责管理文件系统的元数据,而从节点负责实际存储数据块。
HDFS的设计使得它能够适应大数据场景下的高速读写和并发访问需求。
分布式键值存储系统是另一种常见的大数据存储技术,它将数据存储为键值对的形式。
Redis是一种流行的开源分布式键值存储系统,它具有高性能、高可用性和可扩展性的特点。
Redis支持多种数据结构,如字符串、哈希表、列表、集合等,使得它可以满足不同类型的数据存储和处理需求。
Redis还支持数据的持久化存储和高可用性的备份机制,确保数据的安全和可靠性。
在大数据的处理过程中,Redis还可以用作分布式缓存,提高数据的访问速度和处理效率。
在大数据处理方面,分布式计算框架是必不可少的工具。
集群存储技术的研究与应用一、前言随着信息化发展的深入,企业、机构、以及个人的数据存储需求不断增长,为保证数据的安全性、可靠性、高效性和可扩展性,集群存储技术应运而生。
本文将对集群存储技术的研究和应用做出详细的探讨。
二、集群存储技术概述1、定义和特点所谓集群存储技术,是指将多个存储节点或多个存储设备连接在一起形成一个存储系统,这些存储设备之间的通信和协作关系由专门的软件进行管理和协调,共同为用户提供一个统一的、高可靠性、高性能、高扩展性的存储空间。
集群存储技术的主要特点包括高可靠性、高性能、高扩展性、容错性与可靠性、易维护、成本低等。
2、分类根据不同的技术实现方式,集群存储技术可以分为以下几种类型:(1)共享磁盘集群存储技术。
是指将多个服务器连接在一起共享同一个存储设备,这个存储设备通常是Fibre Channel SAN、iSCSI SAN或者NAS。
(2)分布式文件系统集群存储技术。
是指多个存储节点通过一个分布式文件系统进行协作,用户可以将数据存储在任何一个存储节点上,而不必限制在某一个节点上。
(3)分布式块存储集群存储技术。
是指多个机器节点利用NFS协议或iSCSI协议将分布式块存储设备进行共享,用户可以直接将数据访问到任何一个节点上。
3、应用领域根据不同的应用领域,集群存储技术的应用可以分为以下几个场景:(1)高性能计算。
借助集群存储技术,高性能计算机可以将存储节点组成一个高性能、高可靠性的分布式存储系统,以满足各种科学计算和工程计算的需求。
(2)数据备份。
借助集群存储技术,企业可以将多个存储节点组成一个分布式存储系统,可以快速、灵活、可靠地备份公司数据,以保证数据安全性。
(3)云存储。
借助集群存储技术,互联网公司可以以分布式存储系统的方式提供云存储服务,以满足用户在任何时任何地访问企业数据的需求。
三、集群存储技术研究1、关键技术在集群存储技术的研究过程中,以下技术是必不可少的:(1)数据分发和负载均衡技术数据分发和负载均衡技术是实现多台存储设备间协作最基本的技术,其核心问题是如何将数据分发到各个存储节点,并保证各节点的访问负载均衡。
分布式存储系统及解决方案介绍分布式存储系统是指将数据分散存储在多个节点或服务器上,以实现高可靠性、高性能和可扩展性的存储解决方案。
分布式存储系统广泛应用于云计算、大数据分析和存储等领域。
本文将介绍几种常见的分布式存储系统及其解决方案。
1. Hadoop分布式文件系统(HDFS):Hadoop分布式文件系统是Apache Hadoop生态系统的一部分,用于存储大规模数据集。
该系统基于块存储模型,将文件划分为块,并将这些块分布式存储在多个节点上。
HDFS使用主从架构,其中NameNode负责管理文件系统的命名空间和协调数据块的存储位置,而DataNode负责实际的数据存储。
HDFS提供了高吞吐量和容错性,但对于小型文件存储效率较低。
2. Ceph分布式文件系统:Ceph是一个开源的分布式存储系统,能够提供可伸缩的冗余存储。
其架构包括一个Ceph存储集群,其中包含多个Ceph Monitor节点、Ceph Metadata Server节点和Ceph OSD(对象存储守护进程)节点。
Ceph仅需依赖于普通的网络和标准硬件即可构建高性能和高可靠性的存储系统。
Ceph分布式文件系统支持POSIX接口和对象存储接口,适用于各种应用场景。
3. GlusterFS分布式文件系统:GlusterFS是一个开源的分布式文件系统,能够提供高可用性和可扩展性的存储解决方案。
它使用类似于HDFS的块存储模型,将文件划分为固定大小的存储单元,并将这些存储单元分布式存储在多个节点上。
GlusterFS采用主从架构,其中GlusterFS Server节点负责存储数据和文件系统元数据,而GlusterFS Client节点提供文件系统访问接口。
GlusterFS具有良好的可伸缩性和容错性,并可以支持海量数据存储。
4. Amazon S3分布式存储系统:Amazon S3(Simple Storage Service)是亚马逊云服务提供的分布式对象存储系统。
hdfs使用场景HDFS使用场景Hadoop分布式文件系统(Hadoop Distributed File System,简称HDFS)是一种用于存储和处理大规模数据的分布式文件系统。
HDFS以其高容错性、高可扩展性和高吞吐量等特点,被广泛应用于大数据领域。
本文将探讨HDFS的使用场景,介绍HDFS在不同应用场景下的优势和适用性。
1. 大数据存储HDFS最常见的使用场景就是用于存储大量的数据。
由于HDFS的分布式特性,它可以轻松地扩展到数以百计的节点,从而实现海量数据的存储和管理。
对于需要存储PB级别甚至更大规模数据的企业或组织来说,HDFS是一种理想的选择。
2. 数据备份与容灾HDFS具有高容错性的特点,它会将文件切分成多个数据块,并在集群中的多个节点上进行备份存储。
这种备份机制可以保证数据的可靠性和容灾能力,即使某个节点发生故障,也能够从其他节点恢复数据。
因此,HDFS被广泛应用于需要保证数据安全和可用性的场景,如金融、医疗等领域。
3. 数据处理与分析HDFS作为Hadoop生态系统的一部分,与Hadoop的计算框架MapReduce紧密结合。
MapReduce可以在HDFS上进行数据处理和分析,通过将计算任务分发到集群中的多个节点上并行执行,实现了高效的大数据处理能力。
因此,HDFS在大数据分析、机器学习、人工智能等领域具有广泛的应用场景。
4. 流式数据处理HDFS支持流式数据的高吞吐量读写,这使得它在实时数据处理场景中具有优势。
例如,电信运营商可以使用HDFS来存储和分析大量的实时通信数据,从而实时监控网络状态、进行故障排除等工作。
此外,HDFS还可以与流式处理框架如Apache Storm、Apache Flink等结合使用,实现实时数据的处理和分析。
5. 日志收集与分析HDFS可以用作大规模日志数据的存储和分析平台。
很多企业和组织需要对各种应用系统、网络设备等产生的日志进行收集、存储和分析。
分布式存储系统及解决方案介绍目录一、概述 (2)二、XX分布式存储系统主要特性 (3)2.1 海量存储,在线横向扩展 (3)2.2 数据可靠性与性能的平衡 (3)2.3 不间断的业务服务 (3)2.4 直观、人性化的管理 (4)三、XX分布式存储系统架构图 (4)四、XX分布式存储系统应用场景 (5)一、概述分布式存储系统,是将数据分散存储在多台独立的设备上。
该方案采用领先的全分布式架构,无单点故障,具有高弹性和高可靠性,性能和容量可横向扩展,分层分级存储数据,并可自定义存储系统的性能、容量、数据保护能力。
打破现有存储技术瓶颈,专有分布式存储解决方案,无单点故障、集群越大性能越好、支持平滑扩展。
XX分布式存储系统,能对上层应用多副本同时提供块存储、对象存储、文件存储等多种数据存储服务,为云计算、大数据业务等提供大容量、高可靠、经济的存储解决方案。
存储平台支持容量、性能等自由扩展,满足客户多样化的存储需求。
二、XX分布式存储系统主要特性2.1 海量存储,在线横向扩展●支持块存储接口可为主流的Windows和Linux操作系统提供磁盘卷,磁盘空间可调整。
●支持对象存储接口可通过APP、Web、API等方式访问存储资源池,也可通过Web随时随地接入访问;基于通用标准API接口,可定制企业专属网盘应用、为开发者提供通用访问接口。
●支持通用存储介质支持SAS/SATA/PCI-E接口及协议,支持固态硬盘和机械硬盘的组合模式。
2.2 数据可靠性与性能的平衡●支持数据多副本、数据纠删码等数据冗余配置●支持数据快照、快照回滚、用户数据隔离等数据保障措施●支持SSD存储池与HDD池组合模式,加速读写性能●支持软硬件故障系统自动修复,系统服务数据可靠性可达99.999%●支持集群跨机房灾备2.3 不间断的业务服务●控制管理通道与用户数据平面分离●支持物理卷镜像、存储资源快照等数据保障功能●用户可构建跨存储池、跨地区海量统一存储空间资源池●扩容、设备硬件故障及节点系统故障处理,均不会导致存储集群服务中断2.4 直观、人性化的管理●管理系统提供直观的集群中设备、磁盘、资源、状态可视化清单管理员设设置全局数据备份机制(多副本和EC码)●提供实时动态和历史记录告警、错误数据,以及多点提示●统一的部署、管维平台●可定制客户端APP,优化用户体验三、XX分布式存储系统架构图高效、极简的数据存储及管理解决方案,满足超大并发、超高性能、超大容量等各类业务场景。
分布式存储系统简介从以下三个⽅⾯对分布式存储系统进⾏简单介绍:1.⾸先,什么是分布式存储系统呢?简单的说,就是将⽂件存储到多个服务器中。
2.其次,为什么需要分布式存储系统?因为单机存储资源和计算资源已经不能满⾜⽤户的需求。
3.最后,如何实现⼀个分布式存储系统或者说实现⼀个分布式存储系统需要做哪些⼯作?(1)既然是将⽂件存储到多个服务器中那就需要确定将⽂件具体存储到哪些服务器⾥,两种⽅式,⼀种是通过控制服务器,由这个控制服务器负责统⼀调度,客户端请求存储⼀个⽂件时,⾸先与控制服务器交互,控制服务器返回需要保存到服务器的地址,读取⽂件时也需要与控制服务器交互,获取存储位置信息,其中HDFS、GFS等分布式存储使⽤此种技术,namenode就类似于控制服务器⾓⾊。
另外⼀个⽅式是,不需要控制服务器,客户端⾃⼰计算需要存储到哪⾥,最简单的⽅式是直接取hash,⽐如有8台存储服务器,只需要把⽂件内容或者⽂件名取hash模8即可计算出应该存储到哪台存储服务器。
但有个问题是,当服务器数量增减时,hash就失效了,⼏乎需要重排迁移所有数据,根本没有办法实现⽔平扩展,这在分布式系统中是⽆法忍受的。
为了避免出现这种情况,引⼊了⼀致性hash算法,⼜称为环哈希,其中OpenStack Swift、华为FusionStorage就是使⽤的该⽅法。
除了环hash,当然还有其他的类hash算法,⽐如CRUSH算法,其中开源分布式存储系统Ceph就是使⽤的该⽅法。
需要注意的是虽然基于hash的⽂件分布映射⽅法不需要控制节点计算需要存储的位置,但仍然需要控制服务器保存⼀些集群元数据,⽐如集群的成员信息、映射规则、监控等等,如Ceph的mon服务。
(2)但是,如果只有⼀个控制服务,则存在单点故障,挂掉了就会导致服务不可⽤。
为了避免单点故障,具备⾼可⽤特点,必然需要同时启动多个控制服务,有多个控制服务就必须区分谁是leader,谁是slave,因此需要分布式⼀致性来协调选主,可以基于现有的分布式协调系统实现,如Zookeeper、Etcd服务等,也可以直接基于Paxos、Raft算法实现。
数据库中的分布式与集群技术在当今信息化时代,数据的存储和处理已经成为各个企业和组织所面临的重要挑战。
为了应对这一挑战,数据库的分布式与集群技术应运而生。
这项技术可以实现数据的分布式存储和处理,提高系统的可扩展性和容错性。
本文将深入探讨数据库中的分布式与集群技术,并分析其特点和应用。
首先,我们来了解什么是分布式数据库。
分布式数据库是将数据存储和处理分布到不同的物理节点上的数据库系统。
它通过将数据分片存储在不同的节点上,并在节点之间共享数据访问的方式,实现数据的高效管理。
分布式数据库可以提高系统的并发性能,增加系统的可拓展性,并具备一定的容错性。
分布式数据库的核心技术有数据分片和数据副本。
数据分片是指将数据按照某种规则分成多个部分存储在不同的节点上,每个节点只存储一部分数据。
这样可以降低单个节点的存储负担,并提高系统的并发处理能力。
数据副本是指将一个数据的副本存储在多个节点上,保证数据的高可用性和容错性。
当某个节点发生故障时,其他节点依然可以继续提供服务。
而与分布式数据库相比,集群技术更加广义,可以包含分布式数据库。
集群是指将多个服务器组合成一个共享资源的系统。
在集群中,每个节点都可以独立地进行数据存储和处理,同时也可以相互协作,实现负载均衡和故障转移。
集群技术可以提高服务器的可用性和性能,并且可以动态地扩展和缩小规模。
在实际应用中,分布式数据库和集群技术通常是结合使用的。
通过将分布式数据库部署在集群环境中,可以充分发挥两者的优势,并应对大规模数据处理的需求。
在这种架构下,数据分片和数据副本可以同时在节点级别和机器级别上进行。
数据分片可以在集群中的不同节点间进行,而数据副本可以在同一节点的不同机器上进行。
这样既可以充分利用集群的计算和存储资源,又可以提高数据的可用性和容错性。
分布式数据库和集群技术在很多领域都得到了广泛的应用。
例如,电子商务行业中,随着交易量和用户量的增加,需要更强大的数据处理和存储能力。
分布式系统的优缺点与应用方式在现代计算机科学中,分布式系统已成为一种广泛应用的技术架构。
在这种架构下,计算机系统被分解为多个节点,这些节点协同工作完成计算任务。
分布式系统在大数据处理、云计算和网络服务等领域都有着广泛的应用。
本文将从优缺点和应用方式两个角度对分布式系统进行探讨。
一、分布式系统的优缺点1.1 优点(1)高可用性在分布式系统中,每个节点都可以独立工作,系统出现故障或者节点宕机不会影响整个系统的工作。
分布式系统的故障容忍性非常高,即使出现了部分节点故障,其他节点依然可以保证工作进行。
(2)可伸缩性分布式系统可以根据应用需要扩展节点数量,来增加系统处理能力。
例如,对于一个需要处理海量数据的应用,只需增加更多节点,就可以提高数据处理速度。
(3)灵活性由于分布式系统将任务拆分至多个节点,因此任务可以并发执行,使得整个系统的计算能力提高了多倍。
同时,只需添加更多节点,就可以进一步提高系统的处理能力,满足应用的需求。
1.2 缺点(1)复杂性分布式系统需要管理多个节点,这对于系统开发、部署以及维护都是一项极其复杂的任务。
因为不同节点之间的通信必须好并出现了故障,就需要考虑数据一致性、负载均衡等问题。
(2)性能问题尽管分布式系统可以扩展节点,但是在一个节点上执行单个任务的性能往往比单机系统要低。
由于节点之间的通信不可避免会产生一定的时间成本,因此,分布式系统在执行任务时的响应时间会受到一定的影响。
同时,一些分布式系统需要根据各个节点间的负载均衡来算法选择,就需要对数据进行适当的处理,增加系统处理时间。
(3)安全问题由于分布式系统涉及到多个节点之间的数据传输和共享,因此一旦存在一个节点被攻击或出现安全问题,都会影响整个系统的安全性。
对于分布式系统而言,保持所有节点的安全性是一项非常重要的任务。
二、分布式系统的应用方式2.1 平台即服务(PaaS)在云计算领域,PaaS 是将云平台即服务应用于分布式系统的一种方式。
在企业级应用中,数据存储的可靠性和性能至关重要。
随着数据规模的不断扩大,传统的存储方式已经无法满足需求。
分布式存储技术成为了企业数据管理的关键。
在众多分布式存储系统中,Ceph以其高可扩展性、高性能和高可靠性成为了备受关注的企业级分布式存储解决方案。
Ceph是一个开源的分布式存储系统,它通过将数据分布到多个节点上,实现了存储资源的共享和高可靠性。
Ceph的核心原理是将数据分块存储在各个节点上,并通过数据复制和数据恢复机制实现高可靠性和数据冗余。
Ceph还通过数据分布和负载均衡机制实现了高性能的数据访问,可以满足企业对大规模数据存储和高并发访问的需求。
在工程实践中,Ceph的部署和管理相对复杂,但是通过合理的架构设计和优化配置,可以充分发挥Ceph的优势。
企业需要根据自身业务需求和数据规模来设计Ceph的存储架构,包括确定不同类型数据的存储方式和容量规划。
需要合理的部署Ceph的各个组件,包括Ceph Monitor、Ceph OSD和Ceph Metadata Server等。
通过监控和调优,可以进一步提高Ceph的性能和稳定性。
总结来说,Ceph作为一种企业级分布式存储解决方案,通过其独特的原理和工程实践,为企业用户提供了高可靠性和高性能的数据存储解决方案。
在大规模数据管理和高并发访问的场景下,Ceph表现出了强大的优势,为企业数据管理带来了全新的可能性。
个人观点和理解:作为我的文章写手,我个人对Ceph的认识和理解是:Ceph作为一种开源的分布式存储系统,在企业级应用中有着广泛的应用前景。
通过对Ceph的深入研究和工程实践,可以充分发挥其优势,为企业数据管理带来了全新的可能性。
我相信,随着Ceph技术的不断发展和完善,它将成为企业级数据存储的首选解决方案,为企业用户带来更好的数据管理体验。
知识文章格式:1. 引言2. Ceph的原理和核心技术3. Ceph的优势和应用场景4. Ceph的工程实践和部署架构设计5. Ceph的性能监控和调优6. 总结与展望在文章中,我会多次提及“Ceph企业级分布式存储”的关键词,并以全面、深刻和灵活的方式探讨这一主题。
高性能分布式计算与存储系统设计与实现分布式计算与存储系统是一种能够利用多台计算机资源,实现高性能计算和存储的系统。
它通过将任务或数据分发到多台计算机上,同时进行并行处理,以提高计算和存储的速度和效率。
在本文中,我们将讨论高性能分布式计算与存储系统的设计与实现。
首先,一个高性能分布式计算与存储系统需要具备以下几个重要的特征:1. 可扩展性:系统应能够很容易地扩展到大规模计算和存储的需求,以适应不断增长的数据量。
2. 可靠性:系统应具备高度可靠性,即使在部分节点发生故障的情况下,仍能正常工作,并且能够自动进行故障恢复。
3. 高吞吐量:系统应能够处理大量的并发请求,并能够提供高吞吐量的处理能力,以满足用户的需求。
4. 高性能:系统应具备较低的延迟和较快的响应速度,以提供高性能的计算和存储服务。
在实现高性能分布式计算与存储系统时,我们需要考虑以下几个关键方面:1. 数据分布与负载均衡:在分布式系统中,如何将数据分布到不同的节点上,并保持负载均衡是一个重要的问题。
通常采用哈希函数来分配数据,以确保数据能够均匀地分布到不同的节点上,并最大限度地减少通信开销。
2. 数据一致性与容错性:在分布式系统中,由于网络延迟和节点故障等原因,数据的一致性和容错性是非常重要的。
采用一致性哈希算法和副本机制可以确保数据的一致性和容错性。
3. 并行计算与任务调度:分布式计算系统中,任务的并行计算和调度是非常重要的。
通过将任务分解为多个小任务,并分配给不同的节点进行并行计算,可以提高计算的速度和效率。
4. 存储系统设计:在分布式存储系统中,如何设计存储结构以提高读写性能和容错性是一个关键问题。
采用分布式文件系统、对象存储系统和分布式数据库等技术可以实现高性能的存储系统。
在实际设计和实现高性能分布式计算与存储系统时,可以借鉴以下一些开源框架和技术:1. Apache Hadoop:Hadoop是一个开源的分布式计算框架,可以提供高性能的分布式计算和存储能力。
分布式集群存储系统的应用探讨
作者:高峰
来源:《传播力研究》2019年第35期
摘要:本文主要介绍了分布式集群存储系统的特点,以及在广播电视台制播网中的应用。
关键词:高清编辑制作网;分布式架构;集群存储系统
随着广播电视技术数字化、网络化、高清化的发展,国家广电总局从2009年开始大力推进电视高清化建设,明确了以现有频道高标清同播过渡的方式,自上而下有序推进高清电视发展。
随着央视和各省级卫视率先实现高标清同播,全国众多的县市级广播电视台高清化建设成为大势所趋。
为此,我台从2016年开始,加快了电视频道高清化转换进程,对全台电视制播体系的高清化升级改造进行了科学规划。
其中,高清编辑制作网和媒体资产管理系统于2017年开始建设,2018年初投入使用,经过近两年的实际运行,系统各项功能稳定可靠。
下面就该项目建設中的核心设备——分布式架构集群存储系统的技术特点和应用情况做些探讨。
广播电视台的制播网对存储系统的读写带宽、并发访问效率、存储容量、安全性、容错性都有着极高的要求。
通过对FC-SAN(光纤通道区域网)、IP-SAN(IP通道区域网)、NAS (网络附加存储)、集群存储系统等几种存储技术的比较,我们选择了技术先进、成熟稳定的分布式集群存储系统。
传统的SAN与NAS存储设备,分别提供的是数据块与文件这两种不同级别的存储服务。
虽然SAN存储具有较高的读写带宽,但是构建和维护起来非常不便,而且由于数据块和网络需求等原因,SAN存储也很难扩容。
NAS存储的构建和维护虽然比较简单,但是由于其聚合设备(NAS头)的瓶颈,造成其性能受到局限。
而分布式集群存储技术将NAS和SAN两种存储结构的优势进行了有效地整合,使之既具有NAS的跨平台共享数据和基于策略的安全访问,易于构建和操作等优点,又具有SAN的高读写带宽和交换网络结构可伸缩性的优点。
分布式集群存储系统将多台单一的存储设备,通过高速交换网络连接起来,聚合成一个存储设备来使用。
以多个存储节点来分担存储负荷,数据分布在各个节点上,即使整个存储节点故障,系统也能自动恢复。
它突破了传统存储设备容量、性能上的局限,可以根据业务需要进行动态扩展,且在扩展容量的同时,存储性能随之呈线性增长,可轻松获得PB级的存储容量和10GB级的并发访问带宽。
因此,无论是节目资料存储管理所需的海量数据存储,还是高清节目制作所需的高并发访问带宽,都能很好的满足。
系统的空间管理十分方便,其具有的统一命名功能,可以将所有节点的存储容量聚合成统一的存储资源池,进行统一管理,避免了维护多个存储设备的困难。
我台的分布式集群存储系统配置了6个节点,每个节点16只盘位,共安装96只6TB SATA盘,集群裸容量576TB,采用3+3副本模式节点冗余后,约有260TB实际使用容量。
每个节点有2个10Gbps的万兆以太网端口,用万兆光纤分别接入2台核心交换机,2台交换机之间用40Gbps堆叠线缆互联,避免了集群存储网络的单一故障点,提升了带宽和安全性。
每个存储节点读写复合带宽约500MB/s,集群带宽约3000MB/s,足够支持40个站点4轨100 Mbps码流高清视音频的实时编辑,以及6台转码合成服务器的集群打包服务。
集群中的每个节点均为可热插拔的硬件架构,电源等关键部件冗余配置,全局热备6只硬盘,在3+3的副本模式下,可任意坏掉1个节点,不影响系统运行。
我台的高清制作网和媒资系统共用一个存储资源池,根据节目制作和资料存储这两种工作的特点及需求,我们利用系统的空间管理功能,将存储资源池进行虚拟切割分配。
编辑制作划分70%存储空间,约180TB,媒资管理划分30%存储空间,约80TB,两个存储空间相对独立,互不侵占对方使用空间,实现了存储资源池的物理隔离。
同时,我们利用系统的带宽控制功能,灵活调配集群带宽资源,实现有限资源的高效管理。
我们对提供节目打包服务的6台转码合成服务器进行限速,指定每台带宽最大20MB/s,集群带宽最大120MB/s,避免打包服务满负荷运行时占用大量带宽资源,充分保障编辑制作对高带宽的需求。
对于广电行业来说,制播网络的安全性是首要考虑的问题,而中心存储的安全性,更是至关重要,除了加强人工巡检维护以外,一套存储安全监测控制模块必不可少。
我们使用系统的运维监控功能,对分布式集群存储系统中的各个节点、电源、硬盘等硬件和存储容量、读写带宽、网络流量等资源消耗情况进行实时监控,并将其投放在技术办公室的显示屏上,一旦出现硬件故障或者资源不足等情况,可以通过闪烁、变色等方式进行提示。
以期在故障发生之前,就预测可能出现的故障隐患,或在故障发生之后迅速定位故障点,为及时排除故障、恢复工作提供相关依据。
我台的这套6节点分布式集群存储系统已经投入使用2年,在此期间运行高效、安全可靠、读写带宽稳定,保障了我台20多个栏目的制作和资料存储,得到了编辑记者们的一致好评。