当前光纤通道和以太网已经能够支持10Gbps和更高的速率。因此,在计算机中的主机I/O总线必须能够以同样的速率发送数据。然而,与所有的并行总线一样,PCI总线限制了网络速度的进一步提高。 事实上,基于网络架构的PCI总线带宽要达到双向2Gbps都很困难。
InfiniBand代表一种新兴的I/O技术,它很有可能在高端服务器中取代PCI总线。作为一种介质,InfiniBand定义了各种铜电缆和光导纤维线缆,它为铜缆和光缆指定的最大长度分别是 17m 和 10000m;也可以在使用导轨的线路板上直接实现InfiniBand。
在InfiniBand网络中的端点称作通道适配器。lnfiniBand使用两种通道适配器:主机通道适配器(HCA:Host ChannelAdapter)和目标通道适配器(TCA:TargetChannelAdapter)。
HCA在InfiniBand网络和连接到CPU和RAM的系统总线之间起桥梁作用。 TCA在InfiniBand网络和通过SCSI、光纤通道或以太网连接的外部设备之间起连接作用。与PCI比较,HCA对应于PCI桥接芯片,TCA对应于光纤通道主机适配卡或以太网卡。
InfiniBand有可能完全改变服务器和存储设备的体系结构,需要考虑的是,网卡和主机总线适配卡可能被放置在100m距离之外。这就意味着,配有CPU和内存的母板、网卡、主机总线适配卡和存储设备都作为物理上分离的非耦合的设备单独安装。这些设备都通过一个网络连接在一起。现在还不明朗,TCA连接存储设备、光纤通道或以太网这3种传输技术中的哪一种将会在这一领域中占主导地位。
智能磁盘子系统的功能正在变得越来越强大,而InfiniBand有助于在服务器和减少了CPU负荷的存储设备之间快速通信。因此至少在理论上,诸如文件系统的缓存和共享磁盘文件系统的锁定同步这类子功能可以直接实现在磁盘子系统中或特别的处理机上。
InfiniBand发展的初衷是把服务器中的总线网络化。所以InfiniBand除了具有很强的网络性能以外还直接继承了总线的高带宽和低时延。人们熟知的在总线技术中采用的DMA(DirectMemoryAccess,直接内存访问)技术在InfiniBand中以RDMA(RemoteDirectMemoryAccess,远地直接内存访问)的形式得到了继承。
RDMA通过网络把数据直接传入计算机的存储区域,将数据从本地系统快速移动到远程系统的存储器中。它消除了外部存储器复制和文本交换操作,因而能腾出总线空间和CPU周期用于改进应用系统性能。日前通用的做法是由系统先对传入的信息进行分析,然后再存储到正确的区域。
当一个应用执行RDMA读或写请求时,不执行任何数据复制。在不需要任何内核内存参与的条件下,RDMA请求从运行在用户空间中的应用中发送到本地网卡,然后经过网络传送到远程网卡。RDMA操作使应用可以从一个远程应用的内存中读数据或向这个内存写数据。用于操作的远程虚拟内存地址包含在RDMA信息中。远程应用除了为其本地网卡注册相关内存缓冲区外,不需要做其他任何事情。远程节点中的CPU完全不参与输入的RDMA操作。这项技术在网卡中实施可靠的数据传输协议,并通过减少对带宽和处理器的开销降低了时延。
这种优化了的性能是通过在网卡的硬件中支持零复制技术和内核内存旁路技术实现的。零复制技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核内存之间复制数据的需要。内核内存旁路技术使应用无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA请求从用户空间发送到本地网卡,并通过网络发送给远程网卡,这就减少了在处理网络传输流时内核内存空间与用户空间之间的环境切换次数,从而降低了时延。
整理自《存储网络技术与应用》
------------------------------------------------------------------------------
Blog: http://blog.csdn.net/tianlesoftware
网上资源: http://tianlesoftware.download.csdn.net
相关视频:http://blog.csdn.net/tianlesoftware/archive/2009/11/27/4886500.aspx
DBA1 群:62697716(满); DBA2 群:62697977(满)
DBA3 群:62697850 DBA 超级群:63306533;
聊天 群:40132017
--加群需要在备注说明Oracle表空间和数据文件的关系,否则拒绝申请
分享到:
相关推荐
Infiniband网络结构分析2
Infiniband 网络架构分析1. InfiniBand 简介InfiniBand 是一个用于高性能计算的计算机网络通信标准,它具有极高的吞吐量和极低的延迟
InfiniBand网络技术及主流厂商分析.docx
网络游戏-一种在龙芯刀片服务器上实现Infiniband网络的方法.zip
基于InfiniBand网络的MPI实现研究,冯云,周淑秋,近年来,利用普通PC和高速网络搭建集群已经成为构建高性能计算环境的一种趋势。虽然InfiniBand在高性能计算领域还是相对比较新的技术
2、该技术不是用于一般网络连接的,它的主要设计目的是针对服务器端的连接问题的 2、通过InfiniBand传送数据时,数据是以数据包方式传输,这些数据包会组合成
二、InfiniBand架构InfiniBand采用双队列程序提取技术,使应用程序直接将数据从适配器送入到应用内存(称为远程直接存储器存取或RDMA), 反之依
2、链路层:链路层描述了数据包的格式和数据包操作的协议,如流量控制和子网内数据包的路由 3、网络层:网络层是子网间转发数据包的协议,类似于IP网络中的网络层 4
一、概述 二、IB 协议简介及网络结构 三、IB 网络传送数据方式 四、IB 技术的优点
1、物理层 2、 链路层 3、 网络层 4、 传输层 5、上层协议
1、物理层物理层定义了电气特性和机械特性,包括光纤和铜媒介的电缆和插座、底板连接器、热交换特性等 2、 链路层链路层描述了数据包的格式和数据包操作的协议,如流量
1、物理层物理层定义了电气特性和机械特性,包括光纤和铜媒介的电缆和插座、底板连接器、热交换特性等 2、 链路层链路层描述了数据包的格式和数据包操作的协议,如流量
1、物理层 2、 链路层 3、 网络层 4、 传输层 5、上层协议
InfiniBand的应用范围一度曾局限于超级计算领域,不过如今作为企业存储互连技术,InfiniBand正开始流行起来。InfiniBand技术提供了低时延和10Gbps的现有速率,作为一种I/O互连技术,它将来的速率有望高达120Gbps。...
InfiniBand+网络.doc