NVIDIA ConnectX-7 NDR 400Gb/s Adaptateur InfiniBand MCX75310AAS-HEAT

Détails sur le produit:

Nom de marque: Mellanox
Numéro de modèle: MCX75310AAS-HEAT (900-9x766-003N-S0)
Document: Connectx-7 infiniband.pdf

Conditions de paiement et expédition:

Quantité de commande min: 1 pièces
Prix: Negotiate
Détails d'emballage: Boîte extérieure
Délai de livraison: Basé sur l'inventaire
Conditions de paiement: T/T
Capacité d'approvisionnement: Fourniture par projet / lot
meilleur prix Contact

Détail Infomation

Numéro de modèle.: MCX75310AAS-HEAT (900-9x766-003N-S0) Ports: Port unique
Technologie: Infiniband Type d'interface: OSFP56
Spécification: 16,7 cm x 6,9 cm Origine: Inde / Israël / Chine
taux de transmission: 200 gbe Interface hôte: Gen3 x16

Description de produit

Adaptateur intelligent InfiniBand NDR 400 Gbit/s NVIDIA ConnectX-7
MCX75310AAS-HEAT | PCIe Gen5 double port 400 GbE / NDR

Réseau RDMA à latence ultra-faible pour les usines d'IA, les clusters HPC et le cloud hyperscale. Prend en charge InfiniBand NDR (400 Gbit/s) et Ethernet jusqu'à 400 GbE. Moteurs de calcul en réseau, accélération matérielle de la sécurité et prêt pour GPUDirect® Storage.

✓ PCIe 5.0 x16 ✓ RoCE & InfiniBand ✓ Démarrage sécurisé + IPsec/TLS/MACsec en ligne ✓ Déchargements collectifs SHARPv3
Présentation du produit

La famille NVIDIA ConnectX-7 redéfinit l'interconnexion des centres de données avec une bande passante allant jusqu'à 400 Gbit/s, un transport fiable basé sur le matériel et un calcul avancé en réseau. Le modèle MCX75310AAS-HEAT appartient à la série d'adaptateurs ConnectX-7 VPI prenant en charge InfiniBand (NDR/HDR/EDR) et Ethernet (400 GbE à 10 GbE). Conçu pour l'IA, le calcul scientifique et le stockage moderne défini par logiciel, il offre une latence inférieure à la microseconde et libère les cœurs de processeur grâce à des moteurs d'accélération pour la sécurité, la virtualisation et NVMe-oF. Avec une interface hôte PCIe Gen5, cet adaptateur maximise le mouvement des données pour les clusters GPU et les environnements de trading à haute fréquence.

Exploitant ASAP² (Accelerated Switch and Packet Processing) et Zero-Touch RoCE, l'adaptateur simplifie le déploiement tout en fournissant un chiffrement matériel en ligne – du bord au cœur. Les entreprises peuvent pérenniser leur infrastructure avec des vitesses NDR et un support multi-hôtes flexible.

Caractéristiques principales
 Débit ultra-élevé

Double port InfiniBand NDR 400 Gbit/s ou 400 GbE, PCIe Gen5 x16 (jusqu'à 32 voies).

 Calcul en réseau

Déchargement des opérations collectives SHARPv3, déchargement du protocole de jonction, mémoire intégrée pour les rafales.

 Moteurs de sécurité matériels

Chiffrement IPsec/TLS/MACsec AES-GCM 128/256 bits en ligne, démarrage sécurisé avec racine de confiance matérielle, chiffrement flash.

 Synchronisation de précision

IEEE 1588v2 PTP (précision de 12 ns), SyncE, classe C G.8273.2, cadencement déclenché par le temps.

 Stockage accéléré & GPUDirect

GPUDirect RDMA, GPUDirect Storage, déchargement NVMe-oF, transfert de signature T10-DIF.

 Déchargements SDN & Overlay

VXLAN, GENEVE, NVGRE, analyseur flexible programmable, suivi de connexion (pare-feu L4).

Technologie – Conçu pour l'accélération pilotée par les données

NVIDIA ASAP² (Accelerated Switch and Packet Processing) décharge des chemins de données entiers, offrant des performances SDN à débit de ligne sans surcharge CPU. ConnectX-7 intègre une virtualisation de mémoire avancée : pagination à la demande (ODP), enregistrement en mode utilisateur (UMR) et services de traduction d'adresses (ATS) pour des charges de travail conteneurisées efficaces. Avec la prise en charge de SR-IOV, de l'accélération VirtIO et de la technologie Multi-Host (jusqu'à 4 hôtes), l'adaptateur offre des performances bare-metal dans les environnements virtualisés. Le moteur RoCE matériel garantit un déploiement sans intervention pour les fabrics Ethernet convergées, tandis que la mémoire en réseau réduit la latence pour les bibliothèques de communication MPI et collectives (NVIDIA HPC-X, UCX, NCCL).

Pour répondre aux exigences de sécurité du bord au cœur, les moteurs de chiffrement en ligne gèrent IPsec, TLS 1.3 et MACsec sans consommer de cœurs d'exécution, ce qui les rend idéaux pour les clouds multi-locataires et les services financiers.

Déploiements typiques
  • Clusters IA & grands modèles linguistiques : RDMA & GPUDirect accélérant l'entraînement distribué sur des centaines de GPU.
  • Calcul haute performance (HPC) : Déchargements MPI, SHARPv3 pour la réduction en réseau, routage adaptatif.
  • Centres de données cloud et périphériques : Accélération du réseau overlay, déchargement VXLAN, SR-IOV.
  • Stockage défini par logiciel (SDS) : NVMe/TCP, NVMe-oF, iSER, NFS sur RDMA.
  • Analyses en temps réel & trading : Latence ultra-faible + synchronisation de classe C PTP.
Compatibilité
Composant / Écosystème Options prises en charge
Interface hôte PCIe Gen5 (jusqu'à x32 voies, x16 typique), bifurcation PCIe, Multi-Hôte (4 hôtes)
Systèmes d'exploitation Linux (RHEL, Ubuntu, pilotes intégrés), Windows Server, VMware ESXi (SR-IOV), Kubernetes
Virtualisation & Conteneurs SR-IOV, accélération VirtIO, déchargement NVMe sur TCP pour les conteneurs
Middleware / Bibliothèques HPC OpenMPI, MVAPICH, MPICH, UCX, NCCL, UCC, OpenSHMEM, PGAS
Protocoles de stockage NVMe-oF (RDMA/TCP), SRP, iSER, NFS sur RDMA, SMB Direct, GPUDirect Storage
Spécifications techniques
Paramètre Spécification
Modèle de produit MCX75310AAS-HEAT
Facteurs de forme PCIe HHHL / FHHL, OCP 3.0 SFF/TSFF (voir guide de commande)
Vitesses InfiniBand NDR 400 Gbit/s, HDR 200 Gbit/s, EDR 100 Gbit/s
Vitesses Ethernet 400 GbE, 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE (NRZ/PAM4)
Ports réseau Configurations 1/2/4 ports (selon le SKU ; 2 ports typiques pour ce modèle)
Bus hôte PCI Express Gen 5.0 (compatible Gen4/Gen3), jusqu'à x32 voies, indices de traitement TLP, ATS, PASID
Déchargements de sécurité IPsec en ligne (AES-GCM 128/256), TLS 1.3, MACsec, démarrage sécurisé, chiffrement flash, authentification de périphérique
RDMA / Transport Transport fiable matériel, XRC, DCT, pagination à la demande, UMR, GPUDirect RDMA
Synchronisation et cadencement IEEE 1588v2 PTP, G.8273.2 Classe C, précision de 12 ns, SyncE, PPS entrée/sortie, planification déclenchée par le temps
Gestion NC-SI, MCTP sur PCIe/SMBus, PLDM (DSP0248/0267/0218), SPDM, flash SPI, JTAG
Démarrage à distance Démarrage à distance InfiniBand, iSCSI, UEFI, PXE
Réseau ouvert ASAP² pour SDN, déchargement VXLAN/GENEVE/NVGRE, mise en miroir de flux, QoS hiérarchique, suivi de connexion L4
Alimentation et environnement Voir le manuel d'utilisation (typiquement ~15W-25W selon la configuration), température de fonctionnement : 0°C à 55°C (non spécifié publiquement, confirmer par SKU)
Remarque : Les spécifications complètes varient selon le SKU exact. Veuillez confirmer le nombre de ports et la prise en charge des câbles avec la fiche technique officielle ou l'équipe de vente.
Guide de sélection – Adaptateurs ConnectX-7 VPI
Exemple de numéro de pièce Ports / Vitesse Facteur de forme Utilisation typique
MCX75310AAS-HEAT Double port NDR 400 Gbit/s, PCIe 5.0 x16 PCIe HHHL / FHHL IA et HPC en haut de rack, clusters GPU
MCX75340AAS-HEAT (exemple) 4 ports NDR200 / 200 GbE OCP 3.0 Hyperscale et multi-hôtes
Autres SKUs ConnectX-7 Port simple/double, 100G/200G/400G OCP, FHHL Appareils d'entreprise, de stockage

Pour obtenir de l'aide pour choisir le bon SKU (prise en charge des câbles, type de support, support haut/bas) contactez l'équipe Starsurge.

Avantages – Pourquoi choisir Starsurge + NVIDIA ConnectX-7
  • Pièces authentiques et certifiées – garantie complète, chaîne d'approvisionnement sécurisée.
  • Conseil en architecture avant-vente – conception de clusters HPC / IA, réglage RDMA.
  • Logistique mondiale et expédition rapide – stocks en Asie/Europe/Amériques.
  • Firmware personnalisé et options OEM – demande de configuration en volume.
  • Support technique après-vente – intégration de pilotes, mises à jour de firmware, RMA.
Service et support

Hong Kong Starsurge Group fournit un support complet sur le cycle de vie : de la validation de la compatibilité au déploiement et à la maintenance continue. Nos ingénieurs assistent pour :

  • Conception de fabric InfiniBand et optimisation des performances.
  • Configuration RoCE pour les environnements Ethernet.
  • Intégration avec les cibles GPUDirect Storage et NVMe-oF.
  • Garantie standard de 3 ans plus couverture étendue disponible.

Prix de volume, expédition en gros et personnalisation (supports, languettes de traction) disponibles sur demande.

Questions fréquemment posées
1. Quelle est la principale différence entre le mode NDR InfiniBand et le mode 400 GbE ?

NDR inclut des fonctionnalités de calcul en réseau avancées comme SHARP, le routage adaptatif et le transport fiable matériel nativement ; le mode Ethernet utilise RoCE pour RDMA avec le même débit. ConnectX-7 prend en charge les deux via une double personnalité.

2. Le MCX75310AAS-HEAT est-il compatible avec les cartes mères PCIe Gen4 ?

Oui, l'adaptateur est rétrocompatible avec PCIe Gen4 et Gen3, mais à une vitesse de voie réduite. Les meilleures performances sont obtenues sur les slots PCIe Gen5.

3. Ce modèle prend-il en charge le Multi-Host ?

Oui, ConnectX-7 prend en charge la technologie NVIDIA Multi-Host, permettant à jusqu'à 4 hôtes indépendants de partager le même adaptateur (dépend du SKU spécifique et du câblage). Veuillez confirmer avec le guide de commande.

4. Quelles normes de chiffrement sont accélérées en ligne ?

IPsec (AES-GCM 128/256 bits), TLS (AES-GCM 128/256 bits) et MACsec (AES-GCM 128/256 bits). Tous déchargés du CPU.

5. Puis-je utiliser cet adaptateur pour l'accélération NVMe/TCP ?

Absolument. ConnectX-7 décharge NVMe sur TCP ainsi que NVMe-oF, réduisant la surcharge du CPU hôte pour le stockage.

Précautions et notes d'installation
  • Assurez une bonne circulation de l'air dans le châssis du serveur lors de l'utilisation d'émetteurs-récepteurs haute puissance (optiques actifs ou DAC).
  • Utilisez le firmware fourni par NVIDIA ou validé par Starsurge pour les correctifs de sécurité.
  • Installez le dernier pilote (MLNX_OFED ou natif intégré) pour activer les déchargements matériels complets.
  • Vérifiez la compatibilité QSFP-DD ou OSFP pour les optiques 400G ; consultez le guide des émetteurs-récepteurs Ethernet NVIDIA.
  • Manipulation antistatique requise – l'adaptateur contient des composants PCIe sensibles.
Présentation de l'entreprise
NVIDIA ConnectX-7 NDR 400Gb/s Adaptateur InfiniBand MCX75310AAS-HEAT 0

Hong Kong Starsurge Group Co., Limited est un fournisseur axé sur la technologie de matériel réseau, de services informatiques et de solutions d'intégration de systèmes. Fondée en 2008, l'entreprise dessert des clients dans le monde entier avec des produits tels que des commutateurs réseau, des cartes réseau, des points d'accès sans fil, des contrôleurs, des câbles et des équipements associés. Soutenu par une équipe de vente et technique expérimentée, Starsurge dessert des industries telles que le gouvernement, la santé, la fabrication, l'éducation, la finance et les entreprises. L'entreprise propose également des solutions IoT, des systèmes de gestion de réseau, le développement de logiciels personnalisés, un support multilingue et une livraison mondiale. Avec une approche axée sur le client, Starsurge se concentre sur une qualité fiable, un service réactif et des solutions sur mesure qui aident les clients à construire une infrastructure réseau efficace, évolutive et fiable.

✓ Partenaire agréé pour les grandes marques, y compris les produits réseau NVIDIA.

Faits clés – En bref
Débit maximal 400 Gbit/s (NDR / 400 GbE) PCIe Gen5 Jusqu'à 32 voies
Prise en charge RDMA InfiniBand & RoCE Sécurité IPsec/TLS/MACsec en ligne
GPUDirect RDMA + Stockage Précision de synchronisation PTP 12 ns
Matrice de compatibilité – Référence rapide
Composant Recommandé / Pris en charge Remarques
Serveurs GPU (HGX/DGX) Entièrement compatible avec GPUDirect Déchargement SHARP sur InfiniBand
Commutateurs Top-of-Rack NVIDIA QM9700 (NDR), SN4000 (Ethernet) Pris en charge
Hôtes de virtualisation VMware ESXi 7.0/8.0, KVM, Hyper-V SR-IOV activé
Systèmes de stockage PureStorage, VAST Data, WEKA, Dell PowerScale Prêt pour NVMe-oF / RoCE
Câbles / Optiques Câbles DAC passifs NVIDIA, optiques actifs (400G SR4/DR4) Confirmer la matrice de compatibilité
Liste de contrôle de l'acheteur – MCX75310AAS-HEAT
  • Confirmer que la configuration des ports (NDR double port ou 2x200G divisé) correspond à votre plan de commutation.
  • Confirmer la longueur physique du slot PCIe et le type de support (HHHL / FHHL).
  • Vérifier la direction du flux d'air et les exigences des câbles passifs/actifs.
  • Assurer la prise en charge des pilotes OS (version MLNX_OFED pour votre noyau).
  • Pour les fonctionnalités de sécurité : activer le démarrage sécurisé et le chiffrement en ligne dans le firmware.
  • Examiner les options de garantie et de remplacement anticipé.
Produits associés
Commutateur NVIDIA Quantum-2 NDR

64 ports 400G InfiniBand, intégration SHARPv3.

Adaptateur ConnectX-6 HDR 200G

200 Gbit/s rentable pour les clusters plus petits.

DPU NVIDIA BlueField-3

Accélération du stockage et de la sécurité + chemin de données programmable.

Câbles DAC / AOC 400G

OSFP conforme vers 2xOSFP ou 2xQSFP56.

Vous voulez en savoir plus sur ce produit
Je suis intéressé à NVIDIA ConnectX-7 NDR 400Gb/s Adaptateur InfiniBand MCX75310AAS-HEAT pourriez-vous m'envoyer plus de détails tels que le type, la taille, la quantité, le matériau, etc.
Merci!
Dans l'attente de votre réponse.