NetApp 重复数据删除技术
- 格式:ppt
- 大小:3.40 MB
- 文档页数:35
英文描述中文描述1.Data ONTAP®Netapp开发的具有多项独家知识产权,结合WAFL文件系统设计安全可靠的微内核操作系统。
通过多任务实时微内核和专利的WAFL文件系统的设计,对网络数据访问提供优化的存储服务,具有高稳定性,高效率,多重通讯协议的特性。
2.FlexVol®NetApp FlexVol 技术提供了真正的存储虚拟化解决方案,不仅可以降低管理费用和资本支出、减少中断故障并降低风险,而且还可提供出色的灵活性以帮助企业快速适应不断变化的需求。
3.FlexShare™借助 FlexShare 技术,管理员能够轻松整合不同的应用、确定特定数据集的优先级,并根据业务的变化情况动态调整优先级。
借助 FlexShare,单个 NetApp 系统将能托管多个工作负载,并为每个负载分配相应的优先级4.Snapshot™提供在线备份功能,支持对之前版本的数据进行近乎即时的访问,而无需完整、单独的副本。
5.Deduplication FAS 重复数据删除技术可以在 FAS 卷中搜索并删除重复数据。
通过与 NetApp Data ONTAP® 软件紧密集成,FAS 重复数据删除功能可在后台运行,而且几乎不会对读写性能造成任何影响。
6.FilerView®是用于执行从安装到完成配置的管理任务的主界面。
利用 FilerView,管理员不必再学习特殊的语言或命令行界面来配置和维护 NetApp 存储设备。
只需一个 Web 浏览器,管理员就可以进入易用的图形用户界面,并且可以通过浏览各个屏幕来执行任务。
界面上将始终显示一个浏览树,以便于在各个任务间切换。
7.SecureAdmin™安全模式需要 SecureAdmin 软件,该软件在 Filer 上实施安全套接字层 (Secure Socket Layer, SSL 3.0)服务,用于进行用户验证和保密通过 HTTP 处理的命令8.AutoSupport™9.FlexCache®FlexCache技术能够自动地复制、存储和服务基于NFS协议请求的数据。
重复数据删除技术详解(一)在之前的文章“备份系统中的常见功能特性”中简单介绍了下重复数据删除的概念,本文就重复数据删除(也叫数据去重)技术进行深入讲解。
概述重复数据删除(后文简称“重删”)是灾备系统中非常重要的一项能力,它通过删除数据集中的重复数据达到缩减数据量的效果,以此满足日益增长的数据存储需求。
重复数据删除技术在灾备系统中应用十分广泛,当然这项技术本身也不仅仅用于灾备系统,同样应用于存储系统、数据传输和同步、论文查重等场景。
其带来的主要优势包括:•降低数据存储量,节省空间。
•降低网络数据传输量,节省带宽。
•提升存储效率。
•减小备份窗口。
重删基本原理重删的基本原理是通过某种算法计算出数据集中的某部分数据的hash值,以此hash值作为此部分数据的唯一标识(因此也称作指纹)。
当某两部分数据的hash值(指纹)相同时,我们就认为这两部分数据是一致的。
注意:需要尽量确保hash值的唯一性,避免hash值碰撞(即2个不同数据的hash值一致)。
一些厂商为了避免此种情况,可能会采用2种hash算法来确保数据的唯一性。
某些场景下,为了提升效率,还会同时使用强hash和弱hash。
弱hash的计算速度快,但碰撞率高,用于快速找到不同的数据块;强hash的计算速度慢,但碰撞率低(约等于0)。
当2个数据块的弱hash值相同时,会再进行一次强hash值的校验,以此确定数据块内容是否一致。
因为需要对数据进行指纹计算和存储,所以使用重删技术都会需要用到指纹库。
除了指纹库之外,其实还需要记录原数据与实际存储数据之间的映射关系,此种关系一般称为索引信息,有的也叫做元数据信息,元数据信息本文中就不做过多介绍了。
那么如何衡量重复数据删除技术的好坏呢?主要通过两个指标:重复数据删除率和性能。
其中,重复数据删除率(后面简称“重删率”)很大一部分情况下依赖于数据自身的特征。
一般来讲,有固定格式、变化频率低的数据重删率高。
此外,数据量越大,重删率越高;数据切片越小,重删率越高。
重复数据删除+VMwareDR=提高成本效益随着存储技术的快速普及,越来越多的企业用户开始意识到:从物理服务器转变为整合的虚拟化基础设施将具有不可否认的IT优势。
但是,快速迁移到VMwa re使灾难恢复(DR)的传统方法已经过时了,而且会增加DR实施的复杂性,因此人们又开始寻求新的方式。
用于VMware Virtual Infrastructure 3(v13)的DR要求你的所有VM(虚拟机)都需要定期复制到远程站点,从而消耗了大量的存储和网络带宽。
而我们则尝试通过在VMware主存储系统上使用NetApp重复数据删除,来最大限度地减少你的主存储环境中的数据量。
数据量的减少会使得你的下游基础设施的优势不断加强,从而减少复制所需的带宽以及DR站点上所需的存储。
使用重复数据删除所节约的成本可以使DR在成本可能会受到控制的情况下变得切实可行。
例如,有个企业曾报告在重复删除其VMwa re Virtual DesktopInfrastructure(VDI)环境之后,为其桌面提供DR所需的存储和带宽变得很少了,并且为其VDI环境和V13环境添加DR切实可行。
在本文中,我将探讨通过VMwareDR实施重复数据删除所需要采取的措施。
我还将讨论利用你的DR环境中的复制数据用于DR测试及其它目的的情况。
在主VMWare环境中实施重复数据删除由于VMware环境中的每个虚拟机都要求为其操作系统采用专用的存储,因此会出现大量的重复数据。
你可能有很多VM 安装了同一个操作系统和应用程序。
如果100个VM运行同一个操作系统,且每个虚拟机需要10GB至20GB的存储空间,即1TB至2TB的存储空间专用于同一数据的几乎相同的拷贝。
应用重复数据删除可以有效消除此冗余。
概括地说,如果将x个虚拟机指定给一个存储卷,在重复数据删除后,你所需的操作系统存储空间量将是非重复数据删除环境下所需存储空间量的1/x。
很显然,所获得的实际结果将取决于卷中有多少个VM和这些VM相似程度。
配置 NetApp重复数据删除时最常见的四个错误作为现场工程师,我需要与各行各业的客户打交道。
当我向客户谈到我所看到的生产环境 VMware 负载的重复数据删除率通常保持在 60% 到 70%时,他们经常表示怀疑。
我会得到这样的回答:“但是我们的 VM 负载不是这样的”,然后是“眼见为实”。
我偶尔也会碰到一些我喜欢的回答:“你们的竞争对手不是这样告诉我的,我要亲眼看到才相信。
”事实往往是:当客户进行了概念验证或直接购买了我们的产品并开始实施时,他们在自己的 VMware 环境中看到的真真切切就是他们所希望看到的空间节省。
最近,我的一个客户将 600 多台 VM 从使用着 11.9TB 磁盘的现有阵列迁移到了一个新的 NetApp 阵列上。
这些 VM 上有不同的应用程序、操作系统类型和配置,通过重复数据删除,其容量降低为 3.2TB,实现了高达 73% 的节省。
不过,偶尔客户会打电话跟我说:“嘿,我只有 5%的重复数据删除率!怎么办?”这些较低的重复数据删除率几乎总是因为以下某个重复数据删除配置错误造成的。
配置错误 #1 —— 没有立即启动重复数据删除(或者忘记 - s 或扫描选项)Dedupe 博士最近在博客上指出,NetApp 建议对所有的 VMware 负载进行重复数据删除。
你可能已经注意到,如果你将我们的虚拟存储控制台 (VSC) 插件用于 vCenter,那么使用该插件创建 VMware 数据存储时会导致启动重复数据删除。
我们建议立即启用重复数据删除功能,这里面有很多原因,但以下是最主要的原因:在 NetApp 卷上启用重复数据删除 (ASIS) 后,控制器将跟踪写入该卷的新数据块。
然后,在定期删除重复数据的期间,控制器会查看这些新的数据块并消除所有重复数据。
但是,如果在启用重复数据删除之前你的卷里已经有一些 VM 呢?除非你明确地指示 NetApp 去扫描现有的数据,否则 NetApp 根本不会检查那些 VM 或是对其执行重复数据删除!这最终导致了很低的重复数据删除率。