数据分级存储解决方案
- 格式:docx
- 大小:20.32 KB
- 文档页数:4
云计算解决方案中的数据分类与分级存储云计算作为一项快速发展的技术,为企业和个人提供了更高效、灵活和可扩展的计算和数据存储解决方案。
在云计算解决方案中,数据的分类和分级存储是一个重要的环节,它可以帮助用户更好地组织和管理数据,提高数据的安全性和可用性。
一、数据分类的重要性在云计算解决方案中,数据分类是一个必不可少的步骤。
通过合理的分类,可以更好地组织和管理数据,提高数据的存取效率和处理速度。
同时,数据分类还可以帮助用户更好地了解数据的特性和用途,为后续的数据处理提供依据。
根据数据的不同特征和用途,我们可以将数据分为结构化数据和非结构化数据两大类。
1. 结构化数据结构化数据是指具有固定格式和规则的数据,如数据库中的表格、关系型数据等。
这类数据的特点是易于组织和管理,适合进行传统数据库的存储和处理。
在云计算解决方案中,结构化数据通常使用关系型数据库进行存储和管理。
2. 非结构化数据非结构化数据是指没有固定格式和规则的数据,如文本、图像、音频、视频等。
这类数据通常具有大量的内容和复杂的结构,传统的数据库难以对其进行有效的存储和管理。
在云计算解决方案中,非结构化数据通常使用对象存储来进行存储和管理。
二、数据分级存储的方法数据分级存储是一种将数据按照重要性和访问频率的不同分为多个层次,并根据不同层次的需求选择合适的存储介质和技术的方法。
通过数据分级存储,可以更好地管理数据的存储空间,提高数据的存取效率,并节省存储成本。
在云计算解决方案中,常用的数据分级存储方法包括以下几种:1. 热数据和冷数据存储热数据是指经常被访问和使用的数据,而冷数据则是不经常被访问和使用的数据。
根据数据的访问频率,可以将数据分为热数据和冷数据,并采用不同的存储技术进行存储。
对于热数据,可以选择使用高性能的存储介质,并对其进行高速缓存,以提高数据的读写速度和响应时间。
而对于冷数据,可以选择使用低成本的存储介质,并将其存储在离线或不经常访问的存储设备中,以节省存储成本。
统计系统工作中的难点与解决方案统计系统工作中的难点与解决方案随着数字化时代的到来,人们对于数据的需求越来越大。
统计系统作为数据分析的一种重要手段,得到了越来越广泛的应用。
然而,在统计系统工作中,也存在着一些难点。
本文将对统计系统工作中的难点进行探讨,并提出解决方案。
一、数据质量问题数据质量是每一个数据分析工作者都必须面对的问题。
如果数据的质量不高,分析结果就会存在误差,从而影响决策的准确性。
数据质量问题包括错误的数据格式、缺失的数据、重复的数据等等。
这些问题都需要耗费大量的时间进行清洗和处理。
解决方案:提高数据采集和管理的效率。
可以借助专业的数据采集工具和数据清洗工具,对数据进行处理和校验,提高数据的准确性和完整性。
二、算法选择问题在进行数据分析时,需要选择合适的算法。
不同的数据分析算法对于数据的处理方式、数据的处理效果、计算复杂度等等都存在着不同的要求。
如果算法选择不合适,分析结果往往会偏差较大,影响决策的准确性。
解决方案:提高算法的选择和应用的能力。
需要对不同的算法进行研究和分析,了解其优点和缺点,以及适用的场景。
同时也需要运用一些数据分析的模型工具,来进行算法的选择和应用,提高分析的准确性和实用效果。
三、数据可视化问题数据可视化是信息传递和决策制定的重要手段。
通过数据可视化的方式,可以直观地展示数据的分布情况、趋势变化、影响因素等等,从而为决策提供参考。
然而,在进行数据可视化时也存在一些问题。
比如,如何选取合适的可视化工具,如何展示数据的关联关系和情况,如何进行合理的数据呈现等等。
解决方案:依托数据可视化平台,选择合适的可视化工具和方式。
对于所需要展示的数据,需要进行合理的数据筛选和精炼,挑选出关键的信息和变量进行可视化展示。
同时,也需要合理运用视觉设计原理和数据可视化规则,进行数据的呈现和解读。
四、数据安全问题在进行统计系统工作时,涉及到的数据往往都是涉密的数据,而数据的安全问题也是一个非常关键的问题。
数据安全存储解决方案第1篇数据安全存储解决方案一、背景随着信息技术的高速发展,数据已成为企业核心资产之一。
保障数据安全,防止数据泄露、篡改、丢失等安全风险,是企业持续稳定发展的基础。
本方案旨在制定一套合法合规的数据安全存储解决方案,确保企业数据在全生命周期的安全性、完整性和可用性。
二、目标1. 符合国家相关法律法规和政策要求,确保数据存储合法合规。
2. 降低数据安全风险,防止数据泄露、篡改、丢失等事件发生。
3. 提高数据存储的可靠性、可用性和扩展性,满足企业业务发展需求。
三、方案设计1. 数据分类与分级根据企业业务特点和数据价值,对数据进行分类和分级,明确不同类别和级别的数据安全保护要求。
2. 数据存储架构采用分布式存储架构,实现数据的高可用、高可靠和高扩展性。
(1)存储设备选型选用符合国家标准的存储设备,确保设备性能、可靠性和安全性。
(2)数据冗余策略实施数据冗余策略,确保数据在多个存储设备上备份,降低数据丢失风险。
(3)数据加密对敏感数据实施加密存储,防止数据泄露。
3. 数据访问控制(1)身份认证采用多因素认证方式,确保数据访问者身份的真实性和合法性。
(2)权限管理实施细粒度的权限管理,确保数据访问权限的最小化原则。
(3)访问审计对数据访问行为进行审计,发现异常行为并采取措施。
4. 数据备份与恢复(1)备份策略制定定期备份策略,确保数据在多个时间点的备份。
(2)恢复演练定期进行数据恢复演练,验证备份的有效性和完整性。
5. 安全运维(1)运维人员管理对运维人员进行背景调查、安全培训,签订保密协议。
(2)运维流程规范制定运维流程规范,确保数据安全。
(3)安全监控实施安全监控,发现异常情况并报警。
6. 合规性检查与评估定期进行合规性检查与评估,确保数据存储解决方案符合国家法律法规和政策要求。
四、实施与验收1. 按照方案设计,分阶段实施数据安全存储项目。
2. 设立项目组,明确项目成员职责,确保项目顺利进行。
数据分类分级制度的国际标准与规范解析在信息时代,数据的分类和分级标准变得尤为重要。
数据分类分级制度可以帮助组织和个人理解数据的性质和敏感程度,从而采取相应的安全措施来保护数据。
本文将对国际上常见的数据分类分级制度进行解析,并探讨其标准与规范。
一、数据分类分级制度的重要性数据分类分级制度的建立对于信息安全至关重要。
通过对数据进行分类和分级,可以更好地识别数据的敏感性,并根据敏感性采取相应的安全措施。
数据分类分级制度有助于保护个人隐私、对抗网络攻击、防止数据泄露等。
二、国际上常见的数据分类分级制度1. 美国国家标准与技术研究所(NIST)的数据分类分级制度美国NIST制定了一套数据分类分级的标准,将数据分为四个级别:公开信息、内部信息、限制信息和机密信息。
不同级别的数据需要采取不同的保护措施。
例如,机密信息需要进行加密、访问控制和审计等安全措施。
2. 欧洲联盟数据保护通用数据保护条例(GDPR)的数据分类分级制度GDPR是欧洲联盟制定的一项有关数据隐私和保护的法规。
根据GDPR,个人数据可以分为普通数据、特殊数据、敏感个人数据等多个级别。
特殊数据和敏感个人数据有更高的安全要求,需要经过用户明确同意,并采取额外的安全措施来保护。
3. 国际电信联盟(ITU)的电子通信保密标准ITU是一个由联合国成员国组成的国际电信标准组织。
ITU制定了一系列关于电信安全的标准,包括电子通信的保密标准。
这些标准包括对数据的分类和分级要求,以及相应的保密措施。
ITU的标准能够引导各国制定和实施适当的数据分类分级制度。
三、数据分类分级制度的规范与实施数据分类分级制度的规范与实施可以借鉴以下几个方面的经验:1. 清晰明确的分类标准一个有效的数据分类分级制度需要明确的分类标准,以使用户和组织能够准确判断数据的敏感性和风险级别。
标准应包括数据的性质、机密程度、个人隐私等因素。
2. 安全保护措施的制定和执行根据数据的分类分级结果,相应的安全保护措施应得到制定和执行。
数据分类分级的技术挑战与解决方案随着互联网的快速发展和信息爆炸式增长,大量的数据被积累和生成。
为了更好地管理和处理这些数据,数据分类分级成为一项关键任务。
数据分类分级的目的是将数据按照预定义的规则和标准进行划分,以便更好地进行数据分析和应用。
然而,面对庞大且多样化的数据,存在着一些技术挑战。
本文将探讨数据分类分级的技术挑战,并提出解决方案。
首先,数据分类分级面临的主要技术挑战之一是数据的异质性。
在现实世界中,数据来源和格式多种多样,如结构化数据、半结构化数据和非结构化数据。
不同数据类型之间存在差异,这给数据分类分级带来了困难。
解决这个问题的一种方法是引入自动化技术,例如自然语言处理和机器学习算法。
通过对数据进行自动分析和处理,我们可以识别和提取数据中的关键特征,然后根据特征将数据分类分级。
其次,数据分类分级还面临着数据量大和高速增长的挑战。
如今,数据以指数级增长,这给数据分类分级的处理效率和性能提出了较高要求。
为了解决这个问题,一种有效的解决方案是使用分布式计算和存储技术。
通过将数据划分为多个分片,并利用多个计算节点进行并行处理和存储,可以提高数据处理速度和系统可扩展性。
此外,使用压缩算法和索引技术可以进一步提高数据处理效率和节省存储空间。
此外,数据分类分级还需要面对隐私和安全等问题。
对于一些敏感数据,往往需要进行进一步的安全保护和权限控制。
数据分类分级的安全性是保护用户隐私和防止数据泄露的关键。
为了解决这个问题,一种解决方案是采用加密和访问控制技术。
通过数据加密和基于角色的权限控制,可以确保只有合法的用户能够访问和使用特定的数据分类。
同时,为了避免数据的非法访问和篡改,还可以采用数字签名和数据完整性校验等技术。
此外,数据分类分级还需要面对数据更新和迁移的问题。
随着数据不断增加和更新,分类分级需要及时地对新数据进行处理和更新。
同时,当系统进行升级或数据迁移时,将现有数据从一个环境迁移到另一个环境也是一个技术挑战。
随着互联网的快速发展,云存储已经成为了现代人们生活中不可或缺的一部分。
它不仅为我们提供了便捷的存储和分享功能,还能保护我们的数据安全。
但是,在使用云存储的过程中,我们也会遇到一些常见的问题,比如数据丢失、网络攻击等。
本文将从技术和操作两个方面,为大家介绍云存储安全使用中常见问题的解决方案。
一、数据丢失问题在使用云存储时,数据丢失是一个常见的问题。
造成数据丢失的原因有很多,比如操作失误、网络中断、系统故障等。
为了避免数据丢失,我们可以采取以下几种措施:1. 定期备份数据定期备份数据是避免数据丢失的最有效的方法之一。
我们可以选择将重要数据备份到本地硬盘或其他云存储空间中,以防止原始数据丢失。
2. 使用可靠的云存储服务在选择云存储服务时,我们要选择那些有良好口碑和稳定性高的服务商,这样可以降低数据丢失的风险。
同时,还要注意查看服务商的数据恢复政策,以便在数据丢失时能够及时找回。
3. 加强数据安全意识在使用云存储时,我们要加强对数据安全的意识,避免操作失误造成数据丢失。
比如,避免在公共网络环境下使用云存储,保护账号密码等信息的安全性。
二、网络攻击问题由于云存储是通过网络进行数据传输和存储的,所以在使用过程中会面临网络攻击的风险。
为了保护数据安全,我们可以采取以下几种措施:1. 使用强密码在注册云存储账号时,我们要使用复杂度高的密码,包括大小写字母、数字和特殊字符,以提高账号的安全性。
同时,还要定期更换密码,避免密码泄露。
2. 加密数据传输在使用云存储时,我们可以选择使用加密技术对数据进行加密,这样即使数据在传输过程中被窃取,黑客也无法解密数据。
大部分云存储服务商都提供了数据加密功能,我们可以充分利用这些功能来保护数据安全。
3. 更新安全补丁为了防止黑客利用系统漏洞对云存储进行攻击,我们要及时更新操作系统和云存储客户端的安全补丁,以消除潜在的安全隐患。
三、隐私泄露问题在使用云存储的过程中,我们要注意保护个人隐私,避免隐私信息泄露。
基础数据方案第1篇基础数据方案一、方案背景随着我国信息化建设的不断深入,数据资源已成为企业、政府及社会各界的重要资产。
为进一步发挥数据的基础性作用,提高数据利用效率,确保数据安全,本方案针对基础数据的收集、处理、存储、分析和应用等方面进行详细规划,旨在构建一个合法合规、高效稳定的基础数据管理体系。
二、方案目标1. 确保基础数据的真实性、准确性、完整性和及时性;2. 提高基础数据收集、处理、存储、分析和应用的效率;3. 保障基础数据安全,防止数据泄露、篡改等风险;4. 促进数据资源的共享与开放,推动数据创新应用。
三、方案内容1. 数据收集(1)明确数据收集范围和目的,遵循合法、正当、必要的原则;(2)采取自动化采集、人工录入等多种方式,确保数据来源的多样性;(3)对收集的数据进行严格审核,确保数据真实、准确、完整;(4)遵循相关法律法规,尊重个人隐私,保护敏感数据。
2. 数据处理(1)对收集的数据进行清洗、去重、归一化等预处理操作,提高数据质量;(2)采用先进的数据分析技术和方法,挖掘数据价值,为决策提供支持;(3)建立数据更新机制,确保数据的及时性和有效性。
3. 数据存储(1)选择合适的数据存储系统,确保数据存储的安全、稳定、高效;(2)对数据进行分类、分级别存储,便于管理和使用;(3)建立数据备份和恢复机制,防止数据丢失和损坏。
4. 数据安全(1)建立健全数据安全管理制度,明确数据安全责任;(2)采取技术手段,如加密、访问控制、安全审计等,保障数据安全;(3)定期进行数据安全检查和风险评估,防范安全风险;(4)对数据泄露、篡改等事件进行应急处理,降低损失。
5. 数据分析和应用(1)结合业务需求,开展数据挖掘、分析、可视化等工作;(2)推动数据在业务、管理、决策等领域的创新应用;(3)建立健全数据共享和开放机制,促进数据资源的合理利用。
四、实施方案1. 组织保障(1)成立项目实施小组,明确各成员职责;(2)制定项目实施计划,明确时间节点、任务分工;(3)加强对项目实施过程的监控和管理,确保项目进度和质量。
数据治理项目解决方案用户单位:日期:2024年元月目录1. 项目概述 (2)1.1. 项目背景 (2)2. 现状描述及需求分析 (3)2.1. 存在的主要问题 (3)3. 总体设计 (6)3.1. 设计原则 (6)3.2. 系统架构 (7)4. 建设内容 (9)4.1. 第一期数据治理平台整体架构 (9)4.2. 第一期数据治理平台建设功能 (10)1.项目概述1.1.项目背景以习近平同志为核心的党中央高度重视数字化发展,明确提出数字中国战略,《关于国民经济和社会发展第十四个五年规划和2035年远景目标纲要》指出要“迎接数字时代,激活数据要素潜能,推进网络强国建设,加快建设数字经济、数字社会、数字政府,以数字化转型整体驱动生产方式、生活方式和治理方式变革。
”为了真正实现数据“多跑路”,群众“少跑腿”,提升住房服务水平和治理能力,切实提升人民群众获得感和满意度,在开展信息化顶层设计和住房高质量发展课题研究的基础上,制定了“打造符合新时代高质量发展要求的数字管理服务机构”的数字化转型愿景,规划通过“场景驱动,数据赋能”,实现数据共享、业务协同和组织进化,从而推动住房事业高质量发展,发挥住房在住房制度改革、优化营商环境、支持人才集聚等方面的制度优势,实现共同富裕贡献力量。
2.现状描述及需求分析2.1.存在的主要问题总体来说,当前我国数据要素基础市场化建设尚处于起步阶段。
数据要素在一个完善的数据要素市场制度下,从获取、开发到价值实现主要需要经历数据供给、数据流通、数据需求三个层次。
除此以外,完善的数据基础制度还需要包含持有数据资产的单位将其核算入表以及贯穿数据供给到需求的安全治理两个方面。
数据供给层面包含数据要素从原始信息通过收集获取、加工处理、设计开发等阶段到产出初始数据、数据资源和数据产品等数据要素的不同形态。
在数据流通层,各形态数据要素经过确权、定价、评估等过程后经由数据交易中介机构进行交易流通。
方案简介由于计算机技术的不断发展,硬件服务器平台已经具有了相当好的可用性。
据统计,一般计算机系统配用RAID以及一些好的系统管理工具,其可用性可达到99%。
即使这样,一年365天仍然有44~87小时的停机时间,这对于企业用户意味着什么?客户、财产还是名誉?为了解决高可用性问题,人们提出了各种解决方案:完全硬件冗余,其可用性达99.9999%,但价格昂贵,且造成资源浪费。
联想集团有限公司服务器网络事业部应用MSCS双机软件搭建系统平台解决方案,使系统可用性达到99.99%,适用范围广,性价比高,提供抗错甚至是容错功能。
联想MSCS高可用双机系统是基于Windows2000Advanced Server的MSCS集群软件和联想万全中高端服务器和全系列存储产品硬件的高可用性平台解决方案。
此系统通过冗余的互连、存储设备和网络可以防止单点故障的发生。
群集软件不间断地监视成员节点是否完好,从而防止应用失效。
同时,群集软件监视应用程序和相关的系统资源,并在出故障时进行失效切换或重新启动应用程序。
其卓越的性能与合理的性价比必将为企业用户、关键行业带来系统的高可用性,为现有NT、2000服务器环境增加HA特性。
并可以根据用户的需求,提供安装、培训、维护等一系列服务。
方案功能概述、特点及优势1功能概述我们知道,传统用户的计算机系统很多是单机工作环境,任何一个单点故障,都会影响企业业务的正常运转,而且产生很多不良后果。
而我们采用的MSCS高可用双机系统正是克服这种单点故障,是中小企业和关键行业普遍采用的一种冗错方案。
服务器双机系统的目的是在发生故障和计划停机时保持客户机对应用程序和资源的访问。
在一个承担关键业务的计算中心,该集群方案采用一组各自独立的服务器,两台主机共享一套存储设备存储业务数据,这样,与相应的MSCS群集软件配合,这些服务器将作为一个系统共同工作。
如果群集中的一台服务器由于发生故障或需要维护而无法使用,都有相应的冗余部件代替发挥相应的功能,从而保证业务的正常进行,有效防止了系统崩溃给企业带来的巨大损失,提高了系统稳定性、可靠性和容错能力。
数据分级存储解决方案随着信息化的高度发展和广泛应用,企业对信息的依赖性越来越强的今天,信息已经成为企业的生命源泉——“企业财富”。
数据信息的存储是企业面临的最大的挑战,面对成几何级增长的海量数据,传统的存储方式已经不能满足这种快速增长的数据存储需求。
如何在竞争激烈的市场下突颖而出,取得更大的市场利益;如何在有效地控制成本的前提下,更有效地防范系统的突发事件,提高信息可靠性、可用性和客观理性已经成为每个企业信息化工作中的关键问题。
从而一种兴新的分级存储技术就应运而生了,它能够满足企业存储无限存储的需要,而且部署的成本相对较低。
这种存储技术比较适合中等企业的存储需求。
数据迁移分级存储管理随着计算机技术和网络技术的飞速发展和在各个领域中广泛应用。
近几年来其于计算机的数据信息成爆炸性的增长,几乎所有的企业均面临海量数据存储的需要。
而在真正要部署一个能无限满足企业数据存储需要的存储解决方案是一项非常专业技术,因为这需要预算企业每天的存储增长的同时还要考虑到存储的可扩展性和可用性。
数据迁移分级存储管理技术正是在这样情况下应运而生得。
而分级存储管理技术的发展大致经历了两个历程。
第一个历程也就是采用最传统人工手动方法进行数据的迁移和调度,具体方法如下:将不常用的数据按照一定的人工策略迁移至其它存储设备,如大容量的磁带库和磁带机中。
这种方法对于专业化的网络数据管理来说,具有安全可靠的优点。
然而,将数据从非在线设备(大容量磁带库)迁移回到在线设备(硬盘)时,需要有专业网管人士进行操作。
第二个阶段就是现在的智能的分级存储管理技术。
这种技术是实现计算机系统大容量存储数据的方法之一。
它将高速、高容量的非在线存储设备(如大容量磁带库)作为硬盘的下一级设备,然后将硬盘中常用的数据按指定的策略自动迁移到磁带库等二级大容量存储设备上。
当需要使用这些数据时,分级存储系统会自动将这些数据从后级存储设备调回到硬盘上。
对于用户来说,上述数据迁移操作完全是透明的。
用户可能会感到访问硬盘的速度稍慢一点,但会明显感觉其逻辑硬盘的容量大大提高。
相对传统的数据管理模式,这种技术的解决方案所带来的优势是显而易见的。
分级存储的工作原理对于用户来说,他们总是期望将所有数据都放在硬盘上以便随时待查和调用。
然而,由于信息量总是以几何级数快速增长,硬盘容量的增长无法从根本上满足用户对数据容量增长的要求。
同时往往有些数据存储的“生命期”较短,也就是说这些数据一旦被产生后,在短时间内就变成老化文件——不被经常地访问,但是它在某些时候又会被访问,只不过是此文件的“命中率”较低。
但它被长时间地放置在磁盘上,其实已造成存储资源的大大浪费,特别是在数据成爆炸性增长的信息化时代。
然而,分级存储管理技术的出现使得以上的担忧均能迎刃而解。
分级存储管理技术有如下优点:能满足快速的成几何级增长数据存储需要大大地降低单位存储成本,增强存储系统利用率增强系统在灾难状态下的系统抗灾能力提供磁带虚拟磁盘的存储技术分级存储的工作原理是:将所有可移动的存储设备,逻辑捆绑在一起进行管理,它将某个逻辑硬盘与磁带库连在一起,并对该逻辑硬盘实行分级存储。
具体操作时,本方案可以提供各种数据迁移策略的选择,如自上次访问以来的最短时间、最短文件长度、文件类型、磁带设备容量与硬盘容量的比例等,条件可有复合的选择,在满足条件的前提下,然后,系统会自动进行迁移操作。
转移后的文件被用很小的“占位”文件取代,由该占位文件指向原文件被转移后的新位置。
因此该文件对于应用和用户仍是可见的。
一旦系统接收到对被转移文件的请求,它会从最快捷的途径进行检索,以透明的方式恢复该文件。
部分文件高速缓存使应用可以立即访问文件中的某一部分;而同时系统则取回整个文件。
当用户需要访问被迁移文件时,系统会将磁带设备上的相应数据调回到硬盘供用户访问。
本方案中,文件系统的备份只需写入被转移文件的占位文件即可。
同时,您也可以对系统进行配置,使文件在转移时被写入备份系统。
这样,您所有的数据都可以随时恢复,而且备份的速度大大提高。
分级存储系统的组成部分1、数据迁移服务器数据迁移服务器顾名思义就是负责整个存储网络中数据迁移的服务器。
它主要担当整个存储网络中的数据管理员身份,当数据达到某一事先规定的标准时,此服务器便将数据从一级存储设备(磁盘阵列)向下一级存储设备(光盘库和磁带库)复制,并且释放出一级存储设备中的存储空间。
同时,此服务器管理所有数据迁移策略的制定和磁带库设备驱动和管理。
2、存储系统存储系统按照数据操作层次不同可分为:近线存储系统(系统盘、磁盘阵列)和离线存储系统(光盘库和磁带库)。
所谓近线存储就是提供实时的数据存储的设备,它必须始终是在线的。
而离线存储系统就是它并不需要提供实时的存储服务,只在某一时刻才涉及数据的存储,这种设备所保存的数据可进行离线管理。
3、客户端其实就是在网络中的一台计算机系统。
而这台计算机上有许多数据需要通过数据迁移服务器来完成数据从其本地磁盘复制到数据迁移服务器上,并释放其本地磁盘空间。
分级存储管理软件保持关键应用系统的高可用性意味着时刻拥有足够的存储空间。
应用系统的持续扩展使许多企业面临着新的挑战——IT人员必须对异构平台间分布的大量存储进行备份、监控和维护。
对于高端应用,Sun SAM-FS可以提供Sun服务器平台上的高效稳固的数据迁移能力,而对于应用更广泛的中低端系统,Veritas Storage Migrator分级存储管理软件可以提供更高性能价格比的选择。
VERITAS Storage Migrator ™ (HSM)可帮助用户保持关键数据的可用性,减少了必须管理和维护的在线存储量。
Storage Migrator监控网络服务器上的磁盘容量,在必要时将很少使用的数据转移到二级存储器,如磁带或光盘库中。
这样可以节省网络服务器上的磁盘空间,消除存储空间不足的现象。
用户和应用可以在任何时候访问被移动的文件,而不用了解文件转移的过程。
产品特性➢减少备份时间——可对storage Migrator和VERITAS NetBackup™ 或Backup Exec ™ 进行集成,减少备份时间并对关键的数据进行保护。
➢消除存储空间不足的现象——通过对网络服务器上磁盘空间的监控和磁盘空间接近饱和时自动将不经常使用的文件转移到二级存储器中,StorageMigrator可以消除由于存储空间不足而导致停运的现象。
➢应用和用户的透明访问——应用和用户在访问某个文件时不必了解文件具体存放位置,Storage Migrator会自动以透明方式检索被访问文件。
➢简单灵活的配置——通过对storage Migrator的配置,管理员们的独特要求可以得到满足:禁止特定文件转移、提前安排检索或设计多层转移策略等。
Storage Migrator是一种简单、经济有效的方案,省去了不断购买新磁盘的必要。
由于不必对应用作任何改变,您可以在安装Storage Migrator之后立即享受到自动化磁盘空间管理所带来的优势。
该产品同时支持UNIX和Windows NT服务器,因而可以从一个中央管理控制台方便地管理异构存储环境。
Storage Migrator使关键应用可以透明地访问无限数量的存储空间,包括光盘,磁带或数据中心存储设备等。
VERITAS 数据迁移软件优势无人值守的自动转移——Storage Migrator不断对关键网络服务器的磁盘存储空间进行监控。
当磁盘空间达到预定的饱和度(“高水位”)时,storage Migrator开始将不常使用的文件转移到二级存储设备中。
转移过程持续进行,直至磁盘的占用率达到预定的下限(“低水位”)为止。
这时,磁盘空间已足够使用。
如果管理员预计在特定时间内将有大量新的数据进入,也可手工启动转移过程。
转移后的文件被用很小的“占位”文件取代,由该占位文件指向原文件被转移后的新位置。
灵活的配置——Storage Migrator管理员可以利用大量的参数来确定可转移的文件。
例如,管理员可选择不对某种关键的文件类型进行转移。
其它转移参数包括最短文件长度和自上次访问以来的最短时间等。
对被转移数据的透明访问——Storage Migrator会在主磁盘上留下一个占位文件。
因此该文件对于应用和用户仍是可见的。
一旦Storage Migrator接收到对被转移文件的请求,它会从最快捷的途径进行检索,以透明的方式恢复该文件。
部分文件高速缓存(目前仅适用于UNIX系统)使应用可以立即访问文件中的某一部分;而同时Storage Migrator则取回整个文件。
多层次转移——Storage Migrator支持多层次转移。
例如,部门可以采用光学存储设备和磁带库来创建两层转移方案。
文件首先被转移到光学存储系统中。
经过一段时间,如果仍未被访问,或光学存储系统已经饱和,则将其转移到磁带库中进行长期存储。
利用这种策略,最旧的、访问次数最少的文件仍可保留,且被存放于最经济有效的介质之中。
与基于大型机的存储进行集成——Storage Migrator系列中的Storage Migrator Remote 产品使您可以利用大型机数据中心被集中维护的存储设备,存储从分布式应用中转移的数据。
采用这种配置时,Storage Migrator服务器本身不需要任何二级存储设备。
与NetBackup和Backup Exec集成,实现更快速的备份——不断增加的存储意味着每次备份工作所耗费的时间越来越长。
通过减少每次备份时要写入的数据量,Storage Migrator 可以帮助您减少备份的时间。
如果与VERITAS的NetBackup和Backup Exec集成,任何文件系统的备份只需写入被转移文件的占位文件即可。
同时,您也可以对Storage Migrator 进行配置,使文件在转移时被写入备份系统。
这样,您所有的数据都可以随时恢复,而且备份的速度大大提高。
Storage Migrator系列产品可方便地与任何企业体系结构进行集成。
Storage Migrator for UNIX支持大部分流行的UNIX平台。
Storage Migrator支持多数光盘系统及磁带库,以及基于大型机的数据中心。
Storage Migrator Remote for UNIX作为代理使用,可将数据转移到FTP服务器中。