现在的位置: 首页 > 综合 > 正文

关于DAS、NAS与SAN的一些概念

2013年01月30日 ⁄ 综合 ⁄ 共 5192字 ⁄ 字号 评论关闭

一直以来,对NAS和SAN的区别一直比较模糊,比较直观的感觉就是SAN走的是光纤,价格比较贵。其他方面就说不出个所以然来了。今天一时兴起,顺手google了一下,嘿,还真有收获。

在此转摘2篇我觉得写得比较好,说得比较透彻的文章。当然这两篇文章里的一些数据都过时了,比如说SAN的光纤网络现在主流都已经上到4G了,不过文章的精髓没有问题。

 

转摘一:转自net130

 

SAN是Storage Area Network的缩写,也就是说SAN是一个网络;
NAS是Network Attached Storage的缩写,也就是说NAS是一个存储设备;

 

因此SAN和NAS根本不是同一类东西,因此根本无法将它们进行比较。

为什么有许多人要比较SAN和NAS,有以下两种情况:

一,他们比较的是服务器是连接到Fabric网络(SAN)还是通过IP(LAN)网络连接到存储设备,前一种连接的是光线阵列,后一种连接的NAS设备。为了卖出设备,因此一定要说出那个好,那个不好。
二,说明SAN和NAS互为补充,例如NAS后面使用SAN的网络作为存储。

比较fabric网络和以太网络:

 

观点一:fabric网络性能高于以太网络,原因如下:
      1,从设计上,fabric网络就设计为高速传输的网络,
      2,在Fabric网络中,没有竞争,不需要确认,数据传输效率高,一个镇最大可谓2112字节。
      3,Fabric是一个智能网络,自动重新路由,trunking(多端口绑定,带宽可达8Gb)
      4,Fabric网络中数据传输为块操作,因此对要求直接对磁盘能够读写的数据库有很好的支持能力。而NAS一般不支持数据库。

观点二:
    FC网络性能再好,也是一个存储网络,服务器连接存储的性能再高,也是要对外提供服务的,服务器需要通过网络对外提供服务,你后端再快,也要受到前端网络的限制。
    FC网络相当于使用了一个第二网络传输存储数据,如果使用第二个IP网络访问NAS设备,因为第二网中机器少,因此效率肯定会大大提高。
    FC网络目前带宽为1Gb,2Gb,即使通过trunk也只能达到8Gb,而万维网10Gb已开发出来并投入使用。
    FC网络号称传输效率高,而IP网络如果使用cisco的0干扰交换机,高性能的千兆以太网卡,传输性能也很高。
    FC的先天性缺陷就是数据共享能力差,如果要多台机器共享一个数据卷,需要sanergy,cvfs等软件的支持,而且管理信息也需要通过IP网络进行传输,而且不支持迁移等操作,性能也很差。
     NAS自身就是为数据共享设计的。

有许多大型数据库不支持NAS设备,因为在数据访问时,为了提高数据读写速度,数据库同场要对磁盘进行直接管理,这是如果中间多了一层文件系统,会大大降低数据访问性能。
    “裸设备和文件
   数据库厂商都推荐使用裸设备作为数据库存储,这是因为这样可以使数据库完全控制I/O,因而可以锁定和并行处理I/O来提高性能,但这些特点要付出一个代价,裸设备非常难于管理, 通常需要系统管理员干涉,因为管理它们需要超级用户的权限。此外,裸设备的管理工具相对文件管理工具来说都比较原始。
   今天,文件系统技术已经消除了基于文件和基于裸设备的性能上的不同。可以使用基于文件的数据库而不会牺牲性能。
   使用文件的作为数据库存储的数据库提高了系统的可用性,因为它减少了人为错误的可能,还促进了一些应用,如:正规备份。
   为提高恢复速度,数据库底层文件应该采用日志型的文件系统。
                                 —Paul Massiglia VERITAS Software”

 

看了上面的话,相信以后大家在创建数据库时,很少会使用罗设备了吧。

但是虽然数据库是基于文件系统了,但还不是NAS,因为NAS使用的文件传输协议,也就是说,当把数据库建立在NAS上时,如果要取得一条记录,需要对整个数据文件进行传输(如果数据库不更改数据访问方式)

Oracle数据库在9.0版本后开始支持DAFS协议:

DAFS(直接存储文件系统--Direct Access File System)

作为一种文件系统协议,可以在大量甚至过量负载时,有效的减轻存储服务器的计算压力,提高存储系统的性能。
   DAFS的基本原理,就是通过缩短服务器读写文件时的数据路径,来减少和重新分配CPU的计算任务。它提供内存到内存的直接传输途径,使数据块的复制工作不需要经过应用服务器和文件服务器的CPU,而是在两个物理设备的预先映射的缓冲区中直接传输。也就是说,文件可以直接由应用服务器内存传输到存储服务器内存,而不必先填满各种各样的系统缓冲区和网络接受器。这样一来,文件的I/O操作加快了,而存储网络的流量反而降低了。同时,由于操作系统对文件操作的介入更少了,节省下来的处理能力就被释放出来,用于其它方面的任务。

 

DAFS由NetApp公司提出,虽然很好,但只有solaris平台的版本,也就是说必须使用SUN的服务器,和NetApp的NAS设备,

MS也推出了支持NAS的SQLServer数据库。

但是虽然数据库是基于文件系统了,但还不是NAS,因为NAS使用的文件传输协议,也就是说,当把数据库建立在NAS上时,如果要取得一条记录,需要对整个数据文件进行传输(如果数据库不更改数据访问方式)

SAN走的是光纤协议,NAS走的是TCP/IP协议。
SAN多用于关链性数据库,即所谓block,
NAS多用于file.
简单说,nas是在利用你的现有网络,san是在你的sever所端再架一个网络。

SAN更多的是强调范围,高效!
NAS则主要是强调共享!

 

转摘2:摘自51cto

 

目前磁盘存储市场上,存储分类(如下表一)根据服务器类型分为:封闭系统的存储和开放系统的存储,封闭系统主要指大型机,AS400等服务器,开放系统指基于包括Windows、UNIX、Linux等操作系统的服务器;开放系统的存储分为:内置存储和外挂存储;开放系统的外挂存储根据连接的方式分为:直连式存储(Direct-Attached Storage,简称DAS)和网络化存储(Fabric-Attached Storage,简称FAS);开放系统的网络化存储根据传输协议又分为:网络接入存储(Network-Attached Storage,简称NAS)和存储区域网络(Storage Area Network,简称SAN)。由于目前绝大部分用户采用的是开放系统,其外挂存储占有目前磁盘存储市场的70%以上,因此本文主要针对开放系统的外挂存储进行论述说明。

存储分类

今天的存储解决方案主要为:直连式存储(DAS)、存储区域网络(SAN)、网络接入存储(NAS)。

 

今日存储方案

 

开放系统的直连式存储(Direct-Attached Storage,简称DAS)已经有近四十年的使用历史,随着用户数据的不断增长,尤其是数百GB以上时,其在备份、恢复、扩展、灾备等方面的问题变得日益困扰系统管理员。

  主要问题和不足为:
  直连式存储依赖服务器主机操作系统进行数据的IO读写和存储维护管理,数据备份和恢复要求占用服务器主机资源(包括CPU、系统IO等),数据流需要回流主机再到服务器连接着的磁带机(库),数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。直连式存储的数据量越大,备份和恢复的时间就越长,对服务器硬件的依赖性和影响就越大。

  直连式存储与服务器主机之间的连接通道通常采用SCSI连接,带宽为10MB/s、20MB/s、40MB/s、80MB/s等,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限。

  无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。

  存储区域网络(Storage Area Network,简称SAN)采用光纤通道(Fibre Channel)技术,通过光纤通道交换机连接存储阵列和服务器主机,建立专用于数据存储的区域网络。SAN经过十多年历史的发展,已经相当成熟,成为业界的事实标准(但各个厂商的光纤交换技术不完全相同,其服务器和SAN存储有兼容性的要求)。SAN娲⒉捎玫拇宽?00MB/s、200MB/s,发展到目前的1Gbps、2Gbps。

  网络接入存储(Network-Attached Storage,简称NAS)采用网络(TCP/IP、ATM、FDDI)技术,通过网络交换机连接存储系统和服务器主机,建立专用于数据存储的存储私网。随着IP网络技术的发展,网络接入存储(NAS)技术发生质的飞跃。早期80年代末到90年代初的10Mbps带宽,网络接入存储作为文件服务器存储,性能受带宽影响;后来快速以太网(100Mbps)、VLAN虚网、Trunk(Ethernet Channel) 以太网通道的出现,网络接入存储的读写性能得到改善;1998年千兆以太网(1000Mbps)的出现和投入商用,为网络接入存储(NAS)带来质的变化和市场广泛认可。由于网络接入存储采用TCP/IP网络进行数据交换,TCP/IP是IT业界的标准协议,不同厂商的产品(服务器、交换机、NAS存储)只要满足协议标准就能够实现互连互通,无兼容性的要求;并且2002年万兆以太网(10000Mbps)的出现和投入商用,存储网络带宽将大大提高NAS存储的性能。NAS需求旺盛已经成为事实。首先NAS几乎继承了磁盘列阵的所有优点,可以将设备通过标准的网络拓扑结构连接,摆脱了服务器和异构化构架的桎梏;其次,在企业数据量飞速膨胀中,SAN、大型磁带库、磁盘柜等产品虽然都是很好的存储解决方案,但他们那高贵的身份和复杂的操作是资金和技术实力有限的中小企业无论如何也不能接受的。NAS正是满足这种需求的产品,在解决足够的存储和扩展空间的同时,还提供极高的性价比。因此,无论是从适用性还是TCO的角度来说,NAS自然成为多数企业,尤其是大中小企业的最佳选择。

  NAS与SAN的分析与比较

  针对I/O是整个网络系统效率低下的瓶颈问题,专家们提出了许多种解决办法。其中抓住症结并经过实践检验为最有效的办法是:将数据从通用的应用服务器中分离出来以简化存储管理。

  问题:
DAS

由上图可知原来存在的问题:每个新的应用服务器都要有它自己的存储器。这样造成数据处理复杂,随着应用服务器的不断增加,网络系统效率会急剧下降。

  解决办法:

改进方法

 

从上图可看出:将存储器从应用服务器中分离出来,进行集中管理。这就是所说的存储网络(Storage Networks)。

  使用存储网络的好处:

  统一性:形散神不散,在逻辑上是完全一体的。
  实现数据集中管理,因为它们才是企业真正的命脉。
  容易扩充,即收缩性很强。
  具有容错功能,整个网络无单点故障。

  专家们针对这一办法又采取了两种不同的实现手段,即NAS(Network Attached Storage)网络接入存储和SAN(Storage Area Networks)存储区域网络。

  NAS:用户通过TCP/IP协议访问数据,采用业界标准文件共享协议如:NFS、HTTP、CIFS实现共享。
  SAN:通过专用光纤通道交换机访问数据,采用SCSI、FC-AL接口。

  什么是NAS和SAN的根本不同点?
  NAS和SAN最本质的不同就是文件管理系统在哪里。如图:
SAN与NAS主要区别

 

由上图可以看出,SAN结构中,文件管理系统(FS)还是分别在每一个应用服务器上;而NAS则是每个应用服务器通过网络共享协议(如:NFS、CIFS)使用同一个文件管理系统。换句话说:NAS和SAN存储系统的区别是NAS有自己的文件系统管理。

  NAS是将目光集中在应用、用户和文件以及它们共享的数据上。SAN是将目光集中在磁盘、磁带以及联接它们的可靠的基础结构。将来从桌面系统到数据集中管理到存储设备的全面解决方案将是NAS加SAN。

 

最后我自己总结一下吧,DAS非常简单,一般不会有概念上的混淆,我个人觉得转摘的第一篇里把NAS说成是存储设备的说法可能有点偏颇,也许是从英文字面上的直译造成的。NAS与SAN本质区别就是文件系统的位置

抱歉!评论已关闭.