由于闪存比传统媒介有着更为明显的优势,在过去一年里,闪存的普及率开始飙升。不过,我们总是很难判断不同闪存产品之间的区别。在本文中,我们对四种常见闪存设计部署方法进行了分析,它们都有各自的优点和缺点。
首先,让我们看看服务器中的PCIe闪存卡以及将闪存作为系统内存扩展的软件。这些卡很适合需要进行低延迟性高性能数据库访问的应用程序。
基于非常高性能的需求,数据通常是作为块移动到应用程序。与传统的磁盘I/O相比,这种闪存卡的延迟性更低,每IOPS成本也很低。由于NFS不是用于数据访问的主要协议,青睐于这种闪存卡的通常是对延迟很敏感的用户。
这种方法的缺点是,它不是共享存储模型;服务器必须配备闪存卡才能受益。其次,它将占用大量CPU,因为耗损均衡和疏导算法需要大量的处理器周期。第三,对于一些客户而言,PCIe插槽值得关注。在考虑如何配置服务器时,所有这些因素都需要考虑到,确保足够的处理器和PCIe插槽支持。
第二种设计方法是完全从闪存中建立存储阵列,这些作为SAN上的共享存储目标。你不会购买这些系统来加速或者取代NAS,但你可以支持NFS缓存,只要闪存阵列位于NFS网关服务器旁。加入这一个网关所增加的延迟性对于性能敏感的环境并不是那么理想。纯SAN模式得到了延迟敏感环境(例如金融市场) 供应商的青睐,他们希望用它来取代传统存储。
除了性能外,该存储管理工具往往有些滞后。这些系统的主要缺点之一是存储阵列中的处理器利用率。这很可能是限制可扩展性的瓶颈。一旦处理器利用率达到100%,无论再安装多少个闪存,该系统将无法产生增量I/O。更好的办法是将闪存用于存储合适的数据,而对于其他数据,使用较便宜的媒介。老旧或不太重要的数据不需要像“热数据”一样高的IOPS。
第三种设计方法具有变色龙般的特质,它既可以作为卸载NAS或文件服务器的直写式缓存设备,也可以作为文件服务器。作为文件服务器时,它被定位为提供性能给用户的边缘NAS(Edge NAS),这个设备后还会有一个后端NAS来存储所有数据。活动数据不会移动到边缘NAS,而是复制到边缘NAS,这种方法利用更快的媒介来为用户提高性能。
这种产品是节点(可形成集群)的形式存在,节点被配置了DRAM、NVRAM以及高性能SAS硬盘驱动器或闪存。这些节点形成一个高性能集群,可作为全局命名空间(Global Name Space)来管理。
数据可以移动到不同集群的边缘NAS节点,以减少与WAN相关的延迟性。写入数据可以立即转到后端文件管理器(直写式缓存模式),或者“存储”在集群上,并在设定的时间间隔内,写入块将被转回来。在这种模式中不存在任何形式的WAN优化,无论是重复数据还是压缩。
这种设计方法的优点是,当后端文件管理器无法产生IOPS时,它可以为用户产生增量性能。随着时间的推移,它还可以发展成为强大的完整功能的NAS产品。但这个模式中对后端NAS的使用是暂时的。
这个设计的主要缺点是它没有被优化为纯粹的缓存解决方案,并且当它被用作文件服务器,会影响现有的NAS。如果在这种模式下写入,后端NAS不能接收,并将执行复制。对于那些寻求具有成本效益的集群模式的人而言,这种方法更加适用,特别是当这些产品演变成全功能NAS设备而不需要依赖于其他后端存储后。
第四种设计是NFS加速设备。在这种设计中,闪存被用作高速缓存,而不是存储。该设备包含DRAM和闪存作为活动数据的缓存,基于LRU和数据加速技术,包含10GbE加速硬件。
这种加速技术进行了优化来处理NFS请求,以及在最小延迟和CPU利用率的情况下获取数据。该设备位于NAS旁,作为性能Read和NFS元数据高速缓存和加速器。基于典型的NFS混合,这种模式中的设备吸收了90%的NFS流量,而不需要文件管理器来做。
在这种模式下,设备可以支持多个文件管理器,而不只是一个,所以它具有可共享和可扩展性。这样做的目的是提供周期给NAS,以提供性能到应用程序以及延长寿命。其优点是简单性和具有成本效益的性能。缺点包括无法缓存CIFS流量,以及依赖后端NAS来处理非缓存操作。如果文件管理器遇到瓶颈,可能会造成暂时的延迟。但在很多客户端访问大量相同数据的环境,当缓存增加时,这不会是问题。 |