多重优化手段逐一击破效率难题
手段一:自动精简配置
自动精简配置是一项根据应用实际需求分配容量的技术。传统存储系统或划分出足够大的空间分配给某项应用,但实际上很多容量是闲置的。而自动精简配置打破了这种分配模式,是解决存储过量供给的有效方式,使你不用购买或者维护超过实际所需的存储。
自动精简配置可以优化可用存储的利用率,在真正需要的时候从共享池中划分存储容量,减少闲置存储容量和降低系统总拥有成本。
手段二:重复数据删除
重复数据删除是一种减少冗余数据的技术,留下并只保存一个数据副本,以及指向重复数据块的指示符。如果按照重复数据删除发生的时间,可以分为Post-process和in-line两种方式;如果按照发生的地点,则可以分为源端和目标端重复数据删除两种。
当信息量越来越多,备份的难度和成本也随之增加,大多数备份的数据都不是唯一的,是有很高重复性的原始数据副本。重复数据删除技术可以减少备份数据,增加对存储容量的需求。
手段三:自动分层
自动分层存储是一种根据数据价值或者数据访问频率迁移到合适的存储层中的技术。手动迁移数据是既耗费时间又带有风险的,而自动分层技术可以自动地将搜索和访问频率较高的“热”数据自动迁移到诸如固态硬盘(SSD)等高速存储中,而将访问频率较低的“冷”数据存放在成本和速度较低的存储介质中。
自动分层技术可以有效地优化数据放置,加快搜索和访问,减轻了存储管理员的负担,最大限度降低存储开销和保存信息的成本。
手段四:存储虚拟化
用户对于存储的需求正在快速增加,导致存储环境分散化和异构化的问题更加凸显,这对于提高利用率、为新用户和新应用分配存储空间是非常不利的。存储虚拟化技术,可以对这些环境进行简化,将分散的存储硬件资源抽象化并整合成一个“存储池”,按照具体需求将存储资源动态地分配给应用,从而降低系统管理难度和成本,提高整体系统效率。
存储虚拟化还可以提高老旧设备的利用率,使其充分发挥“余热”;让数据能够在不同平台时间实时迁移,提高管理员的工作效率。
手段五:数据压缩
目的:现在很多企业都面临着削减主存储和动态存储空间的难题,解决这个挑战是非常关键的,因为“牵一发而动全身”,存储效率提高了,数据复制和备份的效率也会随之增加。数据实时压缩技术虽然没有重复数据删除那么普及,但是门槛相对比较低,能够精简写入到存储系统的数据,减少对带宽的需求,提高磁盘和存储系统缓存效率,从而达到优化主存储的目的。
由此可见,利用以上这些存储优化技术提高存储效率,不外乎有两个方面:一是使用例如重复数据删除和数据压缩等技术减少数据占用的空间,利用自动精简配置和存储虚拟化在多个存储设备之间调配资源,提高容量利用率;二是用相同的钱获得更高性能,例如使用自动分层存储使用少量固态盘应对高IO应用,提高高价值资产的利用率。
“高”与“低”的相辅相成
不同价值的数据需要用不同价值的存储资源来保存,同时也应该有不同的数据保护等级。用户不能只顾着提高效率而忽略数据保护,实际上,在运用高效存储技术的同时也可以降低数据保护成本,反过来数据保护对于系统效率也是有促进作用的。因此,提高存储效率和降低数据风险这两者是需要紧密结合,可以同时实现并且相互作用的。
对于以上介绍的存储优化手段,并不是说用户采用了就可以高枕无忧了,风险意识应该贯穿于整个存储管理过程中。例如,使用自动精简配置和自动分层及虚拟化,但没有使用备份就不可能完全规避风险。在备份过程中,采用诸如重复数据删除等提高效率的方法,可以减少实际备份的数据量,高效地降低数据风险。
同样,在改善存储效率的环节,如果已经对数据所具备的价值进行了分析与区分,那么还将一些长期不用的数据保存在生产系统中的话,就是非常低效的做法,这时候应该适当考虑进行归档并实施数据保护,以便于日后的访问读取以及避免法律风险。这样既提供了保护,存储效率也得到了提升。
当下有很多企业用户,尤其是中小企业出于成本考虑选择云存储的方式。云存储是在云计算概念上延伸和发展出来的,不同之处在于云存储只是将数据保存在云中,如果部署的是通过互联网连接的公共云,那 么带宽受限决定了云存储并不太适合于一些在线应用,但在数据备份方面大有用武之地。
对于广大中小企业来说,如果把备份数据和生产数据都放在一个数据中心内,如果发生地震等自然灾害的话就无法保证这些数据得到妥善保护,而且很多中小企业建不起容灾中心。相对来说,云存储提供了一种廉价的远程存储,用户可以将备份数据保存在云中,甚至作为一个远程容灾站点,既提供了异地保护,又不用花很多钱建造容灾中心,而且对于中小企业来说,这样做即使短时间出现中断而无法访问备份数据也是可以接受的,所以这种方式也是当前云存储一个比较广泛的应用。
相较而言,云计算则是指将数据和处理能力同时放在云中,用户只是远程调用一些计算结果。那些建不起机房的企业可以选择使用Salesforce等提供商的云计算服务,或者使用自己的应用,配合网络中的服务器和存储。这样做虽然可以显著降低成本,但同样无法避免数据风险问题。
前段时间Amazon数据中心发生大规模崩溃事故就很好地说明了这一点。这次故障导致保存在EC2云中的数据长时间无法访问,用户业务完全停顿影响非常严重,甚至Amazon因此付出了可能丢掉很多客户的沉重代价。
随着数据越来越重要,哪些数据都不能丢,哪些数据需要快速访问,这都是需要判别和优化的。即使是Amazon这样专门做IT服务的厂商都会遭遇数据风险问题,广大用户就更应该加以重视,尽可能地优化自己的架构,在提高效率的同时规避风险。控风险能力越强,遭遇意外的可能性就越小。