186-1111-5727
端到端 InfiniBand 和以太网互连解决方案及服务商
全国招募运营合伙人
MCX556M-ECAT-S35A ConnectX®-5 VPI adapter card with Socket Direct supporting dual-socket server, EDR IB (100Gb/s) and 100GbE, dual-port QSFP28, 2x PCIe3.0 x8, 35cm harness, active auxiliary PCIe connection card, tall bracket

MCX556M-ECAT-S35A    ConnectX®-5 VPI adapter card with Socket Direct supporting dual-socket server, EDR IB (100Gb/s) and 100GbE, dual-port QSFP28, 2x PCIe3.0 x8, 35cm harness, active auxiliary PCIe connection card, tall bracket

采用VPI并支持100Gb/s的ConnectX®-5单/双端口网卡

支持协同设计和网络内计算的智能ConnectX-5网卡是Mellanox智能互联套件的成员,它提供了加速引擎,可使高性能、Web 2.0、云、数据分析和存储平台发挥最大的功用。

ConnectX-5采用虚拟协议互联(Virtual Protocol Interconnect®),支持双端口100Gb/s InfiniBand和以太网连接,并提供小于600纳秒的延迟和非常高的消息传输速率,此外还拥有PCIe交换机和NVMe over Fabric卸载功能,可为要求最苛刻的应用程序和市场提供性能最强、最灵活的解决方案。

借助MPI标签匹配和MPI AlltoAll操作、高级动态路由以及执行各种数据算法的新功能等新型消息传递接口(MPI)卸载功能,ConnectX-5实现了更高的HPC性能。

此外,ConnectX-5加速交换和数据包处理(ASAP2)技术可增强诸如Open V-Switch(OVS)等虚拟交换机的卸载能力,这可以在不导致CPU过载的情况下大幅提高数据传输性能。结合对RDMA和RoCE的原生支持,ConnectX-5可大幅改善云和NFV平台的效率。

对于未配备x16 PCIe插槽的服务器,Mellanox提供替代的ConnectX-5 Socket Direct网卡,使其也能够实现100Gb/s的传输速率。此网卡的16通道PCIe总线被分成两条8通道总线,其中一条总线可以直接连接到PCIe x8主卡,另一条总线可以通过x8并行连接器连到PCIe副卡。两卡之间用线连接。通过双卡可以使双路服务器中的每个都直接通过其专用的PCIe x8接口直接访问网络。


OCP组织的目标是开发低成本、低能耗和高扩展性的企业及Web2.0数据中心技术,并定制规范。Mellanox ConnectX-5 VPI OCP网卡为HPC、机器学习、Web 2.0、企业数据中心和云环境中的高性能服务器和存储应用提供领先的以太网连接。OCP Mezzanine网卡的形状经过专门设计,可与OCP服务器匹配。如需了解有关Mellanox OCP产品的更多信息,请点击此处

*图片仅供参考。实际产品可能有所不同。

  • 行业领先的吞吐量、低延迟、低CPU利用率和高消息传输速率
  • Host Chaining技术革新了存储和机器学习系统在机架内的设计
  • 针对x86、IBM Power CPU、ARM以及基于GPU的计算和存储平台的智能互联
  • 包括NVMe over Fabric卸载功能在内的先进存储能力
  • 支持灵活的流水线编程技术的智能网卡
  • 顶级网络虚拟化性能,包括网络功能虚拟化(NFV)
  • 有助于实现高效简化的支持和服务
    • 每端口速率为EDR 100Gb/s InfiniBand或100Gb/s以太网,向下兼容各种低速传输
    • 最高传输速率达2亿条消息/秒
    • 标签匹配和Rendezvous卸载
    • 可靠传输之上的自适应路由
    • 支持突发缓冲区的后台Checkpoint卸载
    • NVMe over Fabric(NVMf)Target Offloads
    • 通过Host Chaining,避免使用后端交换机
    • 嵌入式PCIe交换机
    • 更强的虚拟交换机/虚拟路由器卸载功能
    • 灵活流水线
    • 用于叠加网络的RoCE
    • 支持PCIe Gen 4
    • 纠删码卸载
    • 支持IBM CAPI v2
    • T10-DIF Signature Handover
    • Mellanox PeerDirect™通信加速
    • 针对NVGRE和VXLAN封装流量的硬件卸载
    • 端到端QoS和拥塞控制
    • 基于硬件的I/O虚拟化

MCX556M-ECAT-S35A规格

物理

薄型适配器卡尺寸:167.65毫米x 68.90毫米(6.6英寸x 2.71英寸)
辅助PCIe连接卡尺寸:113.0毫米x 40.00毫米(4.44英寸x 1.57英寸)
Slim-Line SAS电缆: 9.8英寸x 1.02英寸(350厘米x 25.95毫米)

连接器:双QSFP28 InfiniBand和以太网(铜缆和光纤)

协议支持

InfiniBand:IBTA v1.3 a

自动协商:1X / 2X / 4X SDR(每通道2.5Gb / s),DDR(每通道5Gb / s),QDR(每通道10Gb / s),FDR10(每通道10.3125Gb / s),FDR(14.0625)每通道Gb / s),EDR(每通道25Gb / s)端口

以太网:100GBASE-CR4、100GBASE-KR4、100GBASE-SR4、50GBASE-R2、50GBASE-R4、40GBASE-CR4、40GBASE-KR4、40GBASE-SR4、40GBASE-LR4、40GBASE-ER4、40GBASE-R2、25GBASE-R, 20GBASE-KR2、10GBASE-LR,10GBASE-ER,10GBASE-CX4、10GBASE-KX4、10GBASE-CR,10GBASE-KR,SGMII,1000BASE-CX,1000BASE-KX,10GBASE-SR

 

数据速率

InfiniBand的

SDR / DDR / QDR / FDR / EDR

以太网络

1/10/25/40/50/100 Gb /秒

PCI Express Gen3:SERDES @ 16.0GT / s,2x x8通道(2.0和1.1兼容)

适配卡电源

 

 

 

 

 

 

电压:12V

功率

电缆

典型功率b

无源电缆

17.1W

 

最大功率

 

 

无源电缆

20.0W

1.5W有源电缆

23.3W

2.5W有源电缆

25.5W

通过QSFP28端口可提供的最大功率:  5W

主动辅助PCIe连接卡电源 典型功率 1.46W
最大功率 1.85W

环境的

 

 

 

 

温度

操作

0°C至55°C

非经营性

-40°C至70°C

湿度:  90%相对湿度c

空气流量:请参阅空气流量规格

监管

安全性:CB / cTUVus / CE

EMC:CE / FCC / VCCI / ICES / RCM

RoHS:符合RoHS

a  ConnectX-5适配器补充了IBTA自动协商规范,以提高误码率,延长电缆连接距离。仅当连接到另一台Mellanox InfiniBand产品时,才会启动此补充功能。 
b  ATIS流量负载的典型功率。
c  对于运行和非运行状态。

 

北京市海淀区上地三街中黎科技园3号楼
联系我们
4006-776-256
微信扫一扫 关注我们
地址:
电话:
邮箱: