带 Virtual Protocol Interconnect® 的单/双端口适配器,ConnectX-3 Pro 适配器卡支持 Virtual Protocol Interconnect (VPI) 技术,通过针对叠加 (Overlay) 网络(“隧道”)的硬件卸载引擎支持 InfiniBand 和以太网连接,为用于公共云和私有云、企业数据中心和高性能计算的 PCI Express Gen3 服务器提供最高性能和最灵活的互连解决方案。
优势
– 针对 InfiniBand、以太网 (10/40/56GbE) 和数据中心桥接架构采用同一种设计
– 世界一流的集群、网络和存储性能
– 虚拟化叠加 (Overlay) 网络(VXLAN 和 NVGRE)方面的领先性能
– 有保证的带宽和低延迟服务
– I/O 整合
– 虚拟化加速
– 高能效
– 可扩展到数万个节点
主要功能特性
– 虚拟协议互连
– 1 微秒 MPI ping 延迟
– 每端口最高 56
公共云和私有云集群数据库、并行处理、事务性服务和高性能嵌入式 I/O 应用程序会实现显著的性能改进,从而缩短完成时间并降低每操作成本。支持 VPI 的 ConnectX-3 Pro 还可以通过一种硬件设计来服务于多种架构,从而简化系统开发。
Virtual Protocol Interconnect
支持 VPI 的适配器使任何标准的网络、集群、存储和管理协议均可在利用整合软件栈的聚合网络上无缝运行。凭借自动感知功能,每个 ConnectX-3 Pro 端口可以识别 InfiniBand、以太网或数据中心桥接 (DCB) 架构,并在其上运行。FlexBoot™ 通过允许从远程 InfiniBand 或 LAN 存储目标引导服务器,提供了额外的灵活性。支持 VPI 和 FlexBoot 的 ConnectX-3 Pro 简化了 I/O 系统设计,使得 IT 经理能够更方便地部署可解决动态数据中心难题的基础架构。
世界一流的性能
虚拟化叠加 (Overlay) 网络 —
基础架构即服务 (IaaS) 云要求数据中心托管和服务于多个租户,每个租户在共享网络基础架构上都有自己的隔离网络域。为了实现最高效率,数据中心运营商正在创建叠加 (Overlay) 网络,通过逻辑“隧道”以封装格式(如 NVGRE 和 VXLAN)传输来自各个虚拟机 (VM) 的流量,从而将工作负载的位置与其网络地址分离。叠加 (Overlay) 网络体系架构在 Hypervisor 级别引入了额外的数据包处理层,为封装的流量添加和删除协议标头。新的封装防止在网卡中执行许多传统的“卸载”功能(例如校验和、TSO)。
ConnectX-3 Pro 可以有效地应对不断增长的叠加 (Overlay) 网络需求并实现卓越的性能,而这是通过引入先进的 NVGRE 和 VXLAN 硬件卸载引擎实现的,这些引擎支持对封装流量执行传统卸载。使用 ConnectX-3 Pro,数据中心运营商可以将叠加 (Overlay) 网络层与物理网卡性能分离,从而在新的网络体系架构中实现本机性能。
I/O 虚拟化 — ConnectX-3 Pro SR-IOV 技术为服务器中的虚拟机 (VM) 提供专用适配器资源以及有保证的隔离和保护。ConnectX-3 Pro 的 I/O 虚拟化为数据中心管理员提供更好的服务器利用率,同时降低成本、功耗和线缆复杂性。
InfiniBand — ConnectX-3 Pro 为性能驱动型服务器和存储集群应用程序提供低延迟、高带宽和高计算效率。通过从 CPU 卸载协议处理和数据移动开销(如 RDMA 和发送/接收语义)实现高效计算,从而为应用程序提供更多处理器能力。CORE-Direct™ 通过卸载数据广播和收集等应用程序开销,以及全局同步通信例程,带来了更高水平的性能提升。GPU 通信加速通过消除不必要的内部数据复制提供了额外的效率,从而大幅缩短应用程序运行时间。ConnectX-3 Pro 高级加速技术可实现更高的集群效率,并且可大规模地扩展到数万个节点。
基于融合以太网的 RDMA — 利用 IBTA RoCE 技术的 ConnectX-3 Pro 通过以太网网络提供类似的低延迟和高性能。利用数据中心桥接功能,RoCE 通过第 2 层以太网提供高效的低延迟 RDMA 服务。借助现有以太网基础架构中的链路级别互操作性,网络管理员可以利用现有数据中心架构管理解决方案。
套接字加速 — 利用 TCP/UDP/IP 传输的应用程序可以在 InfiniBand、10/40/56GbE 上实现行业领先的吞吐量。ConnectX-3 Pro 中基于硬件的无状态卸载引擎可降低 IP 数据包传输的 CPU 开销。套接字加速软件可进一步提高延迟敏感型应用程序的性能。
存储加速 — 与多架构网络相比,将计算和存储进行整合的网络可实现显著的性价比优势。标准块和文件访问协议可利用以太网或 InfiniBand RDMA 进行高性能存储访问。
软件支持
所有 Mellanox 适配器卡均受 Windows、Linux 发行版、VMware、FreeBSD、Ubuntu 和 Citrix XENServer 支持。ConnectX-3 Pro VPI 适配器支持基于 OpenFabrics 的 RDMA 协议和软件,并与 OEM 和操作系统供应商的配置和管理工具兼容。
功能特性摘要
INFINIBAND
– 符合 IBTA 规范 1.2.1
– 基于硬件的拥塞控制
– 1600 万 I/O 信道
– 256 至 4K 字节 MTU,1G 字节消息
增强的 INFINIBAND
– 基于硬件的可靠传输
– 集合操作卸载
– GPU 通信加速
– 基于硬件的可靠多播
– 扩展可靠连接传输
– 增强的原子操作
以太网
– IEEE Std 802.3ae 10 Gb 以太网
– IEEE Std 802.3ba 40 Gb 以太网
– IEEE Std 802.3ad 链路聚合
– IEEE Std 802.3az 高能效以太网
– IEEE Std 802.1Q/.1P VLAN 标记和优先级
– IEEE Std 802.1Qau 拥塞通知
– IEEE Std 802.1Qbg
– IEEE P802.1Qaz D0.2 ETS
– IEEE P802.1Qbb D1.0 基于优先级的流量控制
– IEEE 1588v2
– 巨型帧支持 (9600B)
叠加 (Overlay) 网络
– VXLAN 和 NVGRE - 在第 3 层网络上叠加虚拟化第 2 层网络的框架。网络虚拟化硬件卸载引擎
基于硬件的 I/O 虚拟化
– 单根 IOV
– 地址转换和保护
– 专用适配器资源
– 每个虚拟机多个队列
– 针对 vNIC 的增强型 QoS
– VMware NetQueue 支持
其他 CPU 卸载
– 基于融合以太网的 RDMA
– TCP/UDP/IP 无状态卸载
– 智能中断合并
FLEXBOOT™ 技术
– 通过 InfiniBand 远程启动
– 通过以太网远程启动
– 通过 iSCSI 远程启动
协议支持
– Open MPI、OSU MVAPICH、Intel MPI、MS
– MPI、Platform MPI
– TCP/UDP、EoIB、IPoIB、RDS
– SRP、iSER、NFS RDMA
– uDAPL
管理和控制
– NC-SI、MCTP over SMBus - 基板管理控制器接口
兼容性
PCI EXPRESS 接口
– 符合 PCIe Base 3.0 标准,兼容 1.1 和 2.0
– 2.5、5.0 或 8.0GT/s 链路速率 x8
– 自动协商为 x8、x4、x2 或 x1
– 支持 MSI/MSI-X 机制
连接
– 可与 InfiniBand 或 10/40GbE 以太网交换机互操作。可与 56GbE Mellanox 交换机互操作。
– 具有 ESD 保护的无源铜缆
– 用于光纤和有源线缆支持的供电连接器
–通过 QSA 模块实现的 QSFP 到 SFP+ 连接
操作系统/分发版
– Citrix XenServer 6.1
– RHEL/CentOS 5.X 和 6.X、Novell SLES10 SP4;SLES11 SP1、SLES 11 SP2、OEL、Fedora 14/15/17、Ubuntu 12.04
– Windows Server 2008/2012/2012 R2
– FreeBSD
– OpenFabrics 企业发行版 (OFED)
– OpenFabrics Windows 发行版 (WinOF)
– VMware ESXi 4.x 和 5.x
