YHYT JPC文件NAS系统产品优势技术介绍

YHYT JPC文件NAS系统产品优势技术介绍

 

  • YHYT JPC文件NAS系统定义及与NAS的区别

YHYT JPC文件NAS系统是全对称(去元数据服务器中心节点)、低延迟、高带宽的单一命名空间的分布式文件系统。元数据和数据存储介质隔离;自研元数据/数据存取驱动,优化和缩短数据访问路径、高效加速IO低延迟类型应用。分布式全Hash计算技术,支持在集群范围内文件查找和定位在近似常数阶时间内完成,并且不受文件系统扩容的影响。

NAS是基于传统文件系统,并通过共享协议,比如NFS、CIFS、FTP、HTTP等,在网络上向其他终端共享数据的功能。

区别:

 

YHYT JPC文件NAS系统

NAS

定义

分布式文件系统

基于传统文件系统的数据共享功能

检索方式

通过数据的ID快速定位

通过树形目录结构检索

目录层级

1

多层

  • YHYT JPC文件NAS系统技术架构

YHYT JPC文件NAS系统是大型分布式文件系统,在统一的平台上管理结构化和非结构化数据。其技术架构图如下:

YHYT JPC文件NAS系统作为分布式文件系统,可部署于独立的服务器节点,也可内嵌在存储阵列内部,并通过多种协议对外提供服务。

  • YHYT JPC文件NAS系统模块结构

  • YHYT JPC文件NAS系统的高性能说明
  1. UniMem技术:

 

常见的分布式文件系统中,需要经常在节点之间交互和传输数据;其数据传输路径通常较长,导致应用层的文件IO访问延迟较大、整体性能较低。例如,一份数据从节点A传递向另外一台机器B,通常会从A的内存、应用层中间件(例如RPC)、网卡的驱动buffer,再到节点B的网卡buffer、应用层中间件和内存。如果是涉及到IO的内存,有可能还会增加到IO驱动层的内存数据拷贝。

YHYT JPC文件NAS系统的UniMem技术有效压缩或减少了上述一列些中间的内存拷贝。例如,在YHYT JPC文件NAS系统分布式文件系统中,各组件之间必要的共享对象、也共享使用相同的内存区域。这些技术降低了整个系统的硬件消耗、提高了数据发送效率、减少了数据转发延迟;进而对延迟敏感型应用(例如影视播放、流式计算等)提供更好的支持。

YHYT JPC文件NAS系统的UniMem是文件访问协议栈和数据传输路径上整体的内存使用优化,而不仅仅是网络层、类似于RDMA的传输优化。

 

  1. BigHash技术:

 

    一套分布式文件系统可能会管理上千万、乃至上亿数量的文件。给定一个路径、如何在巨大的Namespace中高效查找和定位与之对应的文件是一项重要的性能指标。

    BigHash是YHYT JPC文件NAS系统文件查找过程使用的一系列Hash技术的统称;文件不同类型的查找(例如大小写敏感或大小写不敏感)、文件所在位置(节点和存储设备)查找,不同的阶段和查找类型会自适应不同的Hash算法。

    YHYT JPC文件NAS系统使用了BigHash技术,将文件的路径和它的存储位置(节点、存储设备)进行了高效映射,从而任何文件的查找定位可以在近似常数阶时间复杂度上完成。

对于Windows和Mac OS操作系统上的大小写不敏感文件名查找的支持,很多基于*nix的文件系统必须扫描目录下全部的文件后才能获取到、其效率是非常低下的。YHYT JPC文件NAS系统在元数据Layout层面维护按照大小写不敏感方式BigHash索引的文件名称,从而可以快速(近似于常数阶时间复杂度)完成大小写不敏感的文件查找。这个技术也使得YHYT JPC文件NAS系统可以更好的支持Windows/Mac OS上原生应用所需的文件查找操作。

 

  1. MultiPathX技术

 

大多数存储系统会为主机和存储设备间的链路配置多路径,保证某条路径失效情况下数据访问的可达性、以及提升部分情况下的数据访问性能。但是节点之间数据交换时,很多分布式文件系统通常只会使用一条网络链路;例如GlusterFS、Hadoop HDFS等。这会导致大负载情况下节点间的数据交互效率降低、也容易导致某些故障情况下数据不可访问或者访问延迟变大。现在单卡多口的(网络)硬件较为常见,能否充分和有效使用这些网络接口也是分布式文件系统待突破的一个技术问题。

 

YHYT JPC文件NAS系统的MultiPathX技术不仅支持主机和存储设备之间的传统的多链路配置,同时也支持分布式文件系统集群的节点间数据传输多链路。部署YHYT JPC文件NAS系统时,如果节点之间有充分的物理网络可用,支持将它们纳入YHYT JPC文件NAS系统的节点间网络多路径管理。当节点之间需要传输交换时,会根据节点间网络互联状态、智能地选择不同的物理网络路径进行数据传输。当其中部分的网络连接路径故障时,数据传输过程也会自适应的避开故障路径。

 

除了传统的存储设备多路径带来的好处外,MultiPathX的意义还包括充分使用普通硬件提升节点之间的数据传输聚合性能,解决传统网卡Bond方式的数据传输低效问题,以及平衡某些情况下的硬件配置代价。例如使用4个10GbE的网口聚合近似达到1个40GbE的网口的性能(无需配置昂贵的40GbE网卡和交换机)。无需额外的网口Bonding操作,文件系统内部更高效的数据传输管理比Bonding效率、容错性更好。

 

  1. LLH技术(Long Latency Hidden)

 

对于某些使用传统机械磁盘的集群,受限于这类介质的访问特性、一些长的IO访问延迟是客观存在的。并且,当集群负载很大时、某些网络硬件也会造成一些较长的网络传输时延。当这些长延迟出现时,通常会使得应用程序长时间陷入文件访问系统调用中,这会降低整个系统的聚合访问能力。

LLH技术可以有效管理这类长延迟、提升整体的文件访问效率。例如,每个节点有16个伺服线程处理应用程序下发的IO请求。如果出现(块设备或者网络层面的)长延迟,则这些伺服线程会需要很长的时间才能将数据返回给应用程序;与此同时、当有新的应用请求下发时,这些伺服线程已经处于Busy状态、无法为新请求服务。这种情况下增加更多的伺服线程只能会加重处理器负担和降低CPU调度效率。LLH技术充分使用有限的软硬件资源、将长延迟请求放入自管理的异步队列;快速解放这种可能陷入忙等的伺服线程、为新的应用请求提供服务。LLH中的智能的流控策略会监控相关的设备负荷、提升设备的QoS;从而避免过量的请求导致底层设备出现更长的延迟。

 

  1. AI-RA技术(智能预读插件技术)

 

针对特定的应用,YHYT JPC文件NAS系统支持智能的预读插件。例如,在4K/8KB序列帧影视文件的播放中,传统的单文件预读策略无法适应这种应用;因为它是按照每个文件的访问规律进行预读,而不是针对一系列相关文件进行预读。AI-RA技术会自动探测和发现这些序列帧文件的规律,并在播放时智能的预读相关的若干帧文件、提升播放效率。

 

基于以上两个核心的技术,再加存储的RAID技术,保证运行于YHYT JPC文件NAS系统文件系统下的存储设备,能够在提供NAS功能的同时,具有单节点3GB/S的带宽性能。而普通的NAS一般只能提供几百MB/S。

 

 

优势参考

 

1、架构灵活,我们可单独扩展网关节点或存储,比如:业务有变化需要连接存储系统的客户端数量很多,造成节点的处理能力不足但对性能又没有什么更高要求的事时候,可以单独增加数个服务网关节点来提升整个集群的客户端承载能力;又比如:在性能要求没有什么变化的情况下仅仅想增加整个集群的容量,这时就可以仅增加存储节点的容量即可(可以通过为存储加盘,增加扩展柜,增加一套存储。。。。)。而传统EC架构产品必须以节点为单位进行扩展,无论是仅需增加承载力还是仅需增加容量,而这么扩容可能就造成了一些不必要的成本投入上的浪费(购入成本,后期使用成本等等)。简单的说就是我们的存储容量和服务节点是分开的,都可以单独的进行扩展,而EC的是在一个节点内的,所有扩容都必须以节点为单位。

2、在线扩容无需数据重构,由于我们未对文件进行切片打散等操作,所以当有新节点扩容时无需进行数据重构等操作。而传统EC架构扩容时可能会对某些EC分组内的数据造成影响,导致某些数据部分分片失效或者需要重新计算分散,这会对性能和可靠性造成一定的影响(重构时需要占用一定的节点计算资源和磁盘的IO资源,在有数据重构的前提下整体性能一定会受到影响,而这种大面积重构往往持续时间可能数天甚至以月为单位,而整个系统处于这种临界状态持续数天甚至1、2个月,在这期间如果再有节点出现异常很可能造成大量的数据丢失)。简单的说就是我们扩容对性能和可靠性没有影响,而EC在扩容的时候会出现数据重构的现象对性能和可靠性有影响。

3、可靠性高,我们未对文件进行切片打散等操作,直接将多个文件存放于磁盘阵列的多个LUN中,磁盘阵列的LUN均使用了RAID进行了数据保护。最坏的情况下,即便由于某些极端的原因导致某个LUN出现损坏,我们也仅仅会损失掉存放在该LUN中的文件,对存放在其他LUN上的文件没有任何影响。而传统EC架构中由于数据被切片打散分布到多个节点的多个磁盘中去了,当出现极端情况时丢失就是全部数据了。简单的说就是我们的文件不切片,是整个文件存到存储上面的,而EC是将文件切片分散到多个节点上面去的,出现问题就会丢所有数据。

4、空间利用率高,底层使用RAID技术进行数据保护,空间利用率比EC架构高,使用9块盘RAID5的情况下空间利用率约为88.9%,使用10块盘RAID6的情况下空间利用率约为80%,而EC如果使用4+2、8+4利用率为66%,8+3为72%,空间利用率优势明显。

5、组网简单,在同等性能容量我们的组网更加简单,2个网关可以提供10GB/s以上的性能,高达数PB的容量。而EC版本,想要达到这样的性能或容量需要十数个甚至数十个节点,组网复杂程度可想而知。

6、高性能、高容量,我们每2个网关即可提供10GB/s以上的性能,数PB的容量,同样的性能容量EC产品需要很多节点才能实现。

7、高可扩展性,最高支持512节点,256PB容量,可横向、纵向扩容,而EC产品只能纵向扩容。