网站导航

ConnectX-6

当前位置:主页 > 产品展示 > InfiniBand 网卡 > ConnectX-6 >

ConnectX® -6 VPI

产品时间:2021-03-24 11:31

简要描述:

200Gb/s InfiniBand 和以太网适配器卡。全球第一款 200Gb/s HDR InfiniBand 和以太网适配器卡,提供世界领先的性能、智能卸载和网络内计算,从而为高性能计算、云、Web 2.0、存储和机器学习应...

详细介绍
200Gb/s InfiniBand 和以太网适配器卡。全球第一款 200Gb/s HDR InfiniBand 和以太网适配器卡,提供世界领先的性能、智能卸载和网络内计算,从而为高性能计算、云、Web 2.0、存储和机器学习应用带来最高的投资回报。
 
功能特性
 
– 最高性能
 
• 每端口最高 200Gb/s 连接速度
 
• 最大带宽 200Gb/s
 
• 最高 2 亿条消息/秒
 
• 低于 0.6 微秒的延迟
 
– 数据块级 XTS-AES 模式硬件加密
 
– FIPS 兼容适配器卡
 
– PCIe Gen3 和 PCIe Gen4 支持
 
优势
 
– 行业领先的吞吐量、低延迟、低 CPU 利用率和高消息速率
 
– 面向计算和存储基础架构的最高性能和最智能的结构
 
– 高级存储功能,包括数据块级加密及校验和卸载
 
– 面向经济型机架设计的主机链接技术
 
– 面向基于 x86、Power、Arm、GPU 和 FPGA 的计算和存储平台的智能互连
 
ConnectX-6 Virtual Protocol Interconnect® 提供两个 200Gb/s 端口用于 InfiniBand 和以太网连接,具有低于 600 纳秒的延迟,每秒传输 2 亿条消息,可以为要求最严苛的数据中心应用提供最高性能和最灵活的解决方案。
ConnectX-6 是对行业领先的 Mellanox ConnectX 系列适配器卡的突破性补充。除了以往版本中所有创新功能,ConnectX-6 还提供了许多增强功能,以进一步提高性能和可扩展性。ConnectX-6 VPI 支持 HDR、HDR100、EDR、FDR、QDR、DDR 和 SDR InfiniBand 速度,以及 200、100、50、40、25 和 10Gb/s 以太网速度。
 
HPC 环境
 
在过去十年中,Mellanox 不断将 HPC 性能推向新的创纪录高度。随着 ConnectX-6 适配器卡的推出,Mellanox 继续凭借新功能特性和前所未有的性能为 HPC 市场铺平道路。
 
ConnectX-6 VPI 提供业界最高的吞吐量和消息速率。作为第一款提供 200Gb/s HDR InfiniBand、100Gb/s HDR100 InfiniBand 和 200Gb/s 以太网速度的适配器,ConnectX-6 VPI 是引领 HPC 数据中心迈向百亿亿次级性能和可扩展性的完美产品。
 
ConnectX-6 支持不断发展的协同设计模式,该模式让网络成为分布式处理器。借助其网络内计算和网络内内存功能,ConnectX-6 可将更多计算任务卸载到网络,从而节省 CPU 周期并提高网络效率。
 
ConnectX-6 VPI 同时利用 IBTA RDMA(远程数据内存访问)和 RoCE(基于融合以太网的 RDMA)技术来提供低延迟和高性能。ConnectX-6 通过提供端到端数据包级流量控制来进一步增强 RDMA 网络能力。
 
机器学习和大数据环境
 
数据分析已经成为许多企业数据中心、云和超大规模平台中的一项重要功能。机器学习特别依赖于高吞吐量和低延迟来训练深度神经网络,并提高识别和分类的准确性。作为第一款提供 200Gb/s 吞吐量的适配器卡,ConnectX-6 是为机器学习应用程序提供所需性能和可扩展性级别的完美解决方案。
 
ConnectX-6 利用 RDMA 技术来提供低延迟和高性能。ConnectX-6 通过提供端到端数据包级流量控制来进一步增强 RDMA 网络能力。
 
安全
 
通过提供数据块级加密,ConnectX-6 为网络安全提供了关键性创新。传输的数据在存储或检索时进行加密和解密。通过 ConnectX-6 硬件对基于 IEEE XTS-AES 标准的加密/解密进行卸载,从而减少延迟和卸载 CPU。因为可以使用不同的加密密钥,ConnectX-6 数据块级加密卸载启用了共享相同资源的用户之间的保护。
 
通过在适配器中执行加密,ConnectX-6 还使得在网络中的其他位置无需额外加密,如在存储中。此外,ConnectX-6 还支持联邦信息处理标准 (FIPS) 合规性,减少了对自加密磁盘的系统需求。凭借该功能,客户可以自由选择他们偏好的存储设备,包括可按字节寻址和 NVDIMM(否则将在没有加密的情况下使用)。
 
存储环境
 
NVMe 存储设备发展势头迅猛,提供非常快速的存储介质访问。不断发展的 NVMe over Fabric (NVMeOF) 协议利用 RDMA 连接从远程高效地访问 NVMe 存储设备,同时让端到端 NVMe 模式保持最低延迟。通过其 NVMeOF 目标端和发起端卸载,ConnectX-6 为 NVMeoF 带来了进一步优化,提高了 CPU 利用率和可扩展性。
 
云和 Web2.0 环境
 
电信、云和 Web2.0 客户在基于软件定义网络 (SDN) 的环境中开发其平台,利用其服务器上操作系统中的虚拟交换功能,在其网络的管理和路由协议中实现最大的灵活性。
 
开放虚拟交换机 (OVS) 是虚拟交换机的一个示例,允许虚拟机在它们内部以及与外部世界之间进行通信。传统驻留在 Hypervisor 中的软件虚拟交换机占用大量 CPU 资源,会影响系统性能,并妨碍将可用 CPU 全部用于计算功能。
 
为了解决这一问题,ConnectX-6 提供了 Mellanox ASAP2 技术,通过在网卡硬件中处理数据层面来卸载虚拟交换机/虚拟路由器,同时保持控制层面不被修改。因此,显著提高了虚拟交换机/虚拟路由器的性能,而不会产生相关的 CPU 负载。
 
ConnectX-5 和 ConnectX-6 支持的虚拟交换机/虚拟路由器卸载功能包括叠加 (Overlay) 网络包头的封装和解封,以及内部数据包的无状态卸载、数据包头重写(实现 NAT 功能)、Hairpin 等等。
 
此外,ConnectX-6 提供智能灵活管线功能,包括可编程的灵活解析器和灵活的匹配动作表,可实现面向未来协议的硬件卸载。
 
标准主机管理
 
Mellanox 主机管理和控制功能包括 NC-SI over MCTP over SMBus 和 MCTP over PCIe - 基板管理控制器 (BMC) 接口,以及用于监视和控制 DSP0248 的 PLDM 和用于固件更新 DSP0267 的 PLDM。
 
SOCKET DIRECT
 
Mellanox ConnectX-6 还能为支持 PCIe Gen3 的服务器提供 200Gb/s 的传输速率。该适配器的 32 通道 PCIe 总线划分为两个 16 通道总线,其中一个总线可通过 PCIe x16 边缘连接器访问,另一个总线通过 x16 并行连接器连接到辅助 PCIe 连接卡。这两张卡应该安装到两个相邻的 PCIe x16 插槽中,并使用专用线束连接。
 
功能特性
 
InfiniBand
 
– HDR/HDR100/EDR/FDR/QDR/DDR/SDR
 
– 符合 IBTA 规范 1.3
 
– RDMA、发送/接收语义
 
– 基于硬件的拥塞控制
 
– 原子操作
 
– 1600 万 I/O 通道
 
– 256 至 4K 字节 MTU,2G 字节消息
 
– 8 个虚拟通道 + VL15
 
以太网
 
– 200GbE / 100GbE / 50GbE / 40GbE / 25GbE / 10GbE / 1GbE
 
– IEEE 802.3bj、802.3bm 100 Gb 以太网
 
– IEEE 802.3by、Ethernet Consortium 25、50 Gb 以太网,支持所有 FEC 模式
 
– IEEE 802.3ba 40 Gb 以太网
 
– IEEE 802.3ae 10 Gb 以太网
 
– IEEE 802.3az 高能效以太网
 
– 基于 IEEE 802.3ap 的自动协商和 KR 启动
 
– IEEE 802.3ad、802.1AX 链路聚合
 
– IEEE 802.1Q、802.1P VLAN 标记和优先级
 
– IEEE 802.1Qau (QCN) – 拥塞通知
 
– IEEE 802.1Qaz (ETS)
 
– IEEE 802.1Qbb (PFC)
 
– IEEE 802.1Qbg
 
– IEEE 1588v2
 
– 巨型帧支持 (9.6KB)
 
增强的功能特性
 
– 基于硬件的可靠传输
 
– 集合操作卸载
 
– 矢量集合操作卸载
 
– PeerDirect™ RDMA(亦称 GPUDirect®)通信加速
 
– 64/66 编码
 
– 增强的原子操作
 
– 高级内存映射支持,允许用户模式内存注册和重新映射 (UMR)
 
– 扩展可靠连接传输 (XRC)
 
– 动态连接传输 (DCT)
 
– 按需分页 (ODP)
 
– MPI 标签匹配
 
– 集合协议卸载
 
– 支持自适应路由的无序 RDMA
 
– 突发缓冲区卸载
 
– 网络内内存免注册 RDMA 内存访问
 
CPU 卸载
 
– 基于融合以太网的 RDMA (RoCE)
 
– TCP/UDP/IP 无状态卸载
 
– LSO、LRO 校验和卸载
 
– RSS(也在封装的数据包上)、TSS、HDS、VLAN 和 MPLS 标记插入/剥离、接收流转向
 
– 面向内核旁路应用程序的数据层面开发工具包 (DPDK)
 
– 使用 ASAP2 的开放虚拟交换机 (OVS) 卸载
 
• 灵活的匹配动作流表
 
• 隧道封装/解封
 
– 智能中断合并
 
– 支持 NAT 路由器硬件卸载的包头重写
 
存储卸载
 
– 数据块级加密:
 
XTS-AES 256/512 位密钥
 
– 针对目标机器的 NVMe over Fabric 卸载
 
– 纠删码卸载 - 卸载 Reed Solomon 计算
 
– T10 DIF - 针对进口和出口流量的线速签名移交操作
 
– 存储协议:SRP、iSER、NFS RDMA、SMB Direct、NVMeOF
 
叠加 (Overlay) 网络
 
– 基于叠加 (Overlay) 网络的 RoCE
 
– 用于叠加 (Overlay) 网络隧道协议的无状态卸载
 
– VXLAN、NVGRE 和 GENEVE 叠加 (Overlay) 网络的封装和解封硬件卸载
 
基于硬件的 I/O 虚拟化
 
– 单根 IOV
 
– 地址转换和保护
 
– VMware NetQueue 支持
 
– SR-IOV:最多 512 个虚拟功能
 
– SR-IOV:每主机最多 16 个物理功能
 
– 虚拟化层次结构(例如 NPAR 和多主机)
 
• 虚拟化物理端口上的物理功能
 
• 每个物理功能上的 SR-IOV
 
– 用户可编程且可配置的 QoS
 
– 保证虚拟机的 QoS
 
HPC 软件库
 
– HPC-X、OpenMPI、MVAPICH、MPICH、OpenSHMEM、PGAS 及各种商业软件包
 
管理和控制
 
– NC-SI、MCTP over SMBus 和 MCTP over PCIe - 基板管理控制器接口
 
– 用于监控和控制 DSP0248 的 PLDM
 
– 用于固件更新 DSP0267 的 PLDM
 
– 用于管理 eSwitch 的 SDN 管理接口
 
– 用于设备控制和配置的 I2C 接口
 
– 通用 I/O 引脚
 
– SPI 闪存接口
 
– JTAG IEEE 1149.1 和 IEEE 1149.6
 
远程启动
 
– 通过 InfiniBand 远程启动
 
– 通过以太网远程启动
 
– 通过 iSCSI 远程启动
 
– 统一可扩展固件接口 (UEFI)
 
– 预执行环境 (PXE)
 
兼容性
 
PCI Express 接口
 
– PCIe Gen 4.0、3.0、2.0、1.1 兼容
 
– 2.5、5.0、8、16GT/s 链路速率
 
– 32 通道,2x 16 PCIe 通道
 
– 支持 PCIe x1、x2、x4、x8 和 x16 配置
 
– PCIe 原子
 
– TLP(事务层数据包)处理提示 (TPH)
 
– PCIe 交换机下行端口控制 (DPC) 启用以实现 PCIe 热插拔
 
– 高级错误报告 (AER)
 
– 用于对等安全通信的访问控制服务 (ACS)
 
– 进程地址空间 ID (PASID)
 
地址转换服务 (ATS)
 
– IBM CAPIv2(一致的加速器处理器接口)
 
– 支持 MSI/MSI-X 机制
 
操作系统/发行版*
 
– RHEL、SLES、Ubuntu 及其他主要 Linux 发行版
 
– Windows
 
– FreeBSD
 
– VMware
 
– OpenFabrics 企业发行版 (OFED)
 
– OpenFabrics Windows 发行版 (WinOF-2)
 
连接
 
– 与 InfiniBand 交换机的互操作性(最高 HDR,4 个 50Gb/s 数据速率通道)
 
– 与以太网交换机的互操作性(最高 200GbE,4 个 50Gb/s 数据速率通道)
 
– 具有 ESD 保护的无源铜缆
 
– 用于光纤和有源线缆支持的供电连接器

 


产品咨询

留言框

  • 产品:

  • 留言内容:

  • 您的姓名:

  • 联系电话:

上一篇:没有了

下一篇:MCX653105A-EFAT

推荐产品

迈络思24小时服务热线:4001616691

联系我们

Copyright © 2002-2020 北京中科新远科技有限公司 版权所有 京ICP备19012332号-1

地址:北京市-海淀区-上地信息路7号 昊海大厦305室

在线客服 联系方式 二维码

服务热线

4001616691

扫一扫,关注我们