NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s Adaptateur InfiniBand

Détails sur le produit:

Nom de marque: Mellanox
Numéro de modèle: MCX75310AAS-NEAT (900-9x766-003N-SQ0)
Document: Connectx-7 infiniband.pdf

Conditions de paiement et expédition:

Quantité de commande min: 1 pièces
Prix: Negotiate
Détails d'emballage: Boîte extérieure
Délai de livraison: Basé sur l'inventaire
Conditions de paiement: T/T
Capacité d'approvisionnement: Fourniture par projet / lot
meilleur prix Contact

Détail Infomation

Numéro de modèle.: MCX75310AAS-NEAT (900-9x766-003N-SQ0) Ports: Port unique
Technologie: Infiniband Type d'interface: OSFP56
Spécification: 16,7 cm x 6,9 cm Origine: Inde / Israël / Chine
taux de transmission: 400 gbe Interface hôte: Gen3 x16
Mettre en évidence:

Adaptateur InfiniBand NVIDIA ConnectX-7

,

Carte réseau Mellanox de 400 Gb/s

,

Adaptateur NDR InfiniBand avec garantie

Description de produit

Adaptateur InfiniBand NDR 400 Gbit/s NVIDIA ConnectX-7 MCX75310AAS-NEAT

Le NVIDIA ConnectX-7 MCX75310AAS-NEAT est un adaptateur intelligent InfiniBand NDR 400 Gbit/s phare doté d'une interface PCIe Gen5 x16 pour InfiniBand et RoCE. Conçu pour les usines d'IA, les clusters HPC et les centres de données cloud hyperscale, cet adaptateur à latence ultra-faible intègre le calcul en réseau, les déchargements de sécurité matériels et la virtualisation avancée pour accélérer le calcul scientifique moderne et les infrastructures définies par logiciel.

Présentation du produit

La famille NVIDIA ConnectX-7 offre des performances révolutionnaires avec une bande passante allant jusqu'à 400 Gbit/s par port, prenant en charge InfiniBand (NDR/HDR/EDR) et Ethernet (jusqu'à 400 GbE). Le modèle MCX75310AAS-NEAT dispose d'une interface hôte PCIe Gen5 (jusqu'à 32 voies), d'une capacité multi-hôtes et de moteurs avancés pour GPUDirect RDMA, l'accélération NVMe-oF et le chiffrement en ligne. Conçu pour l'entraînement IA exigeant, la simulation et l'analyse en temps réel, cet adaptateur réduit la charge du processeur tout en maximisant le débit et la sécurité des données.

Avec une mémoire intégrée pour le déchargement de la réunion, l'accélération collective SHARP et les déchargements SDN ASAP2, ConnectX-7 transforme les serveurs standard en nœuds réseau haute performance avec une gigue quasi nulle et une synchronisation de précision nanoseconde (IEEE 1588v2 Classe C).

Caractéristiques principales
  • Prêt pour NDR InfiniBand et 400 GbE - Bande passante totale jusqu'à 400 Gbit/s, prend en charge NDR, HDR, EDR InfiniBand et 400/200/100/50/25/10 GbE
  • PCIe Gen5 x16 (jusqu'à 32 voies) - Interface hôte à haut débit avec indices de traitement TLP, ATS, PASID et SR-IOV
  • Calcul en réseau - Déchargement matériel des opérations collectives (SHARP), protocole de réunion, déchargement de tampon de rafale
  • GPUDirect RDMA et GPUDirect Storage - Chemin de données direct GPU-vers-NIC, accélérant l'apprentissage profond et l'analyse de données
  • Moteurs de sécurité matériels - Chiffrement/déchiffrement IPsec/TLS/MACsec en ligne (AES-GCM 128/256 bits) + démarrage sécurisé avec racine de confiance matérielle
  • Accélération de stockage avancée - NVMe-oF (sur Fabrics/TCP), déchargement NVMe/TCP, transfert de signature T10-DIF, iSER, NFS sur RDMA
  • ASAP2 SDN et accélération VirtIO - Déchargement OVS, encapsulation VXLAN/GENEVE/NVGRE, suivi de connexion et analyseur programmable
  • Synchronisation de précision - PTP (IEEE 1588v2) avec une précision de 12 ns, SyncE, planification déclenchée par le temps, cadencement des paquets
Technologie : À l'intérieur de ConnectX-7

Construit sur un processus 7 nm, ConnectX-7 intègre plusieurs moteurs d'accélération matériels qui déchargent le processeur et offrent des performances déterministes. Les principaux piliers technologiques comprennent :

  • RDMA sur Ethernet Convergé (RoCE) - RoCE Zero-Touch pour les fabrics Ethernet à faible latence
  • Transport dynamique connecté (DCT) et XRC - Communication MPI et HPC efficace
  • Pagination à la demande (ODP) et enregistrement de mémoire utilisateur (UMR) - Simplifie la gestion de la mémoire pour les applications à grande échelle
  • Protocole d'agrégation et de réduction hiérarchique évolutif (SHARP) - Réduction des données en réseau pour les collectives MPI
  • Technologie Multi-Hôtes - Permet à jusqu'à 4 hôtes indépendants de partager un seul adaptateur, optimisant l'utilisation du serveur
  • Gestion PLDM et SPDM - Mise à jour du firmware, surveillance et attestation de périphérique pour la sécurité d'entreprise
Déploiements typiques
  • Clusters d'IA et d'apprentissage automatique - Entraînement à grande échelle avec NCCL, UCX et GPUDirect RDMA
  • Simulation et recherche HPC - Modélisation météorologique, génomique, dynamique moléculaire nécessitant un MPI à faible latence
  • Cloud Hyperscale et SDDC - Réseaux superposés, accélération NFV, multi-locataire sécurisé (SR-IOV)
  • Systèmes de stockage d'entreprise - Déchargement de cible NVMe-oF et systèmes de fichiers distribués (Lustre, GPUDirect Storage)
  • Bord 5G et télécommunications - Infrastructures sensibles au temps avec PTP Classe C et sécurité MACsec
Compatibilité

Systèmes d'exploitation et virtualisation : Pilotes inclus pour Linux (RHEL, Ubuntu, Rocky Linux), Windows Server, VMware ESXi (SR-IOV) et Kubernetes (plugins CNI). Optimisé pour NVIDIA HPC-X, UCX, OpenMPI, MVAPICH, MPICH, OpenSHMEM, NCCL et UCC.

Compatibilité matérielle : Emplacements PCIe Gen5 standard (mécanique x16, électrique x16/x32). Certifié avec les principales plateformes serveur de Dell, HPE, Supermicro, Lenovo et les systèmes NVIDIA DGX.

Interopérabilité : Entièrement conforme aux spécifications 1.5 de l'InfiniBand Trade Association, IEEE 802.3 pour Ethernet et aux spécifications PCI-SIG Gen5.

Spécifications - ConnectX-7 MCX75310AAS-NEAT
Paramètre Détail
Modèle de produit MCX75310AAS-NEAT
Facteur de forme PCIe HHHL (Half Height Half Length), support FHHL inclus
Interface hôte PCIe Gen5.0 x16 (jusqu'à 32 voies, prend en charge la bifurcation et le Multi-Hôtes)
Protocoles réseau InfiniBand (NDR/HDR/EDR) et Ethernet (400 GbE, 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE)
Configuration du port QSFP-DD à port unique (prend en charge 1x 400G NDR ou 2x 200G divisé ; veuillez confirmer la densité des ports par SKU)
Vitesses InfiniBand NDR 400 Gbit/s, HDR 200 Gbit/s, EDR 100 Gbit/s, FDR (compatible)
Vitesses Ethernet 400/200/100/50/25/10 GbE NRZ/PAM4
Mémoire intégrée Mémoire intégrée en réseau pour le déchargement de la réunion et le tampon de rafale
Déchargements de sécurité IPsec, TLS, MACsec en ligne (AES-GCM 128/256 bits), démarrage sécurisé, chiffrement Flash
Déchargements de stockage NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, SRP, iSER, NFS sur RDMA, SMB Direct
Synchronisation et horodatage IEEE 1588v2 PTP (précision de 12 ns), SyncE, PPS programmable, planification déclenchée par le temps
Virtualisation SR-IOV, accélération VirtIO, déchargement VXLAN/NVGRE/GENEVE, suivi de connexion (pare-feu L4)
Gestion NC-SI, MCTP sur SMBus/PCIe, PLDM (Moniteur/Firmware/FRU/Redfish), SPDM, Flash SPI, JTAG
Démarrage à distance Démarrage InfiniBand, iSCSI, UEFI, PXE
Consommation électrique Non spécifié publiquement - les adaptateurs haute performance typiques nécessitent un flux d'air adéquat ; veuillez confirmer avant de commander
Température de fonctionnement 0°C à 55°C (avec refroidissement de châssis approprié)
Remarque : Certains paramètres peuvent varier en fonction du firmware et de la configuration du système. Consultez la documentation NVIDIA ou contactez Starsurge pour une validation spécifique.
Guide de sélection - Portefeuille ConnectX-7
Modèle (partiel) Port/Vitesse Interface hôte Facteur de forme Cas d'utilisation
MCX75310AAS-NEAT 1x NDR 400 Gbit/s InfiniBand/Ethernet PCIe Gen5 x16 HHHL IA, HPC, Cloud - phare avec Multi-Hôtes et démarrage sécurisé
MCX75310AAS-NCAT 1x NDR 400 Gbit/s PCIe Gen5 x16 HHHL Ensemble de fonctionnalités similaire avec cryptographie activée
MCX75510AAS-NEAT 2x NDR 200 Gbit/s ou 1x 400 Gbit/s PCIe Gen5 x16 FHHL Double port pour la redondance
Variante OCP 3.0 Jusqu'à 2x 200 Gbit/s PCIe Gen5 x16 OCP 3.0 SFF Plateformes OCP hyperscale

Pour les codes de commande exacts et les configurations personnalisées, veuillez vous référer au manuel officiel de l'adaptateur PCIe ConnectX-7 (docs.nvidia.com) ou contacter Hong Kong Starsurge Group.

Avantages - Conçu pour les centres de données modernes

Coût total de possession le plus bas - Décharge le processeur des tâches réseau, de stockage et de sécurité -- réduisant les coûts d'énergie et de refroidissement par Gbit/s.

Bande passante prête pour l'avenir - La prise en charge de PCIe Gen5 et NDR 400G élimine les goulots d'étranglement pour les serveurs GPU de nouvelle génération et les clusters d'IA.

Sécurité d'entreprise - Le chiffrement en ligne matériel (IPsec/TLS/MACsec) et la chaîne de confiance sécurisée répondent aux exigences de conformité (FIPS, DoD).

Intégration transparente - Compatibilité totale avec les principales distributions, hyperviseurs et plateformes d'orchestration de conteneurs.

Service et support

Hong Kong Starsurge Group fournit un support de cycle de vie de bout en bout : conseils architecturaux avant-vente, validation de compatibilité, gestion de la garantie et services RMA. Notre équipe technique assiste dans le réglage des pilotes, les mises à jour du firmware et l'intégration des clusters. Garantie standard : support matériel limité de 3 ans avec couverture étendue en option. Expédition mondiale et assistance technique multilingue disponibles.

Questions fréquemment posées (FAQ)
Q : Le MCX75310AAS-NEAT est-il compatible avec les commutateurs InfiniBand et Ethernet ?
Oui. ConnectX-7 prend en charge le fonctionnement bi-protocole ; vous pouvez l'utiliser en mode InfiniBand (fabric NDR) ou en mode Ethernet (RoCE). L'adaptateur détecte automatiquement ou peut être configuré via le firmware.
Q : Ce modèle prend-il en charge GPUDirect Storage ?
Absolument. GPUDirect Storage et GPUDirect RDMA sont entièrement pris en charge, permettant le mouvement direct des données entre le stockage et la mémoire GPU sans tampons de rebond du processeur.
Q : Quelles options de bifurcation PCIe sont disponibles ?
Il prend en charge la bifurcation standard (x16, x8/x8) et NVIDIA Multi-Host permettant jusqu'à 4 hôtes indépendants avec des plateformes de commutateurs PCIe appropriées.
Q : Puis-je utiliser cet adaptateur pour le déchargement NVMe/TCP ?
Oui. Le déchargement matériel pour NVMe sur TCP réduit l'utilisation du processeur et améliore la latence pour le stockage défini par logiciel.
Q : Où puis-je trouver le dernier firmware et les derniers pilotes ?
Les pilotes sont inclus dans les noyaux Linux grand public (MLNX_OFED). Les outils officiels Mellanox de NVIDIA (mlxconfig, flint) prennent en charge les mises à jour du firmware. Starsurge fournit également des packages de firmware sélectionnés.
Précautions et notes de commande
  • Assurez-vous que la carte mère du serveur fournit un emplacement PCIe Gen5 avec un refroidissement adéquat (flux d'air actif recommandé pour le fonctionnement 400G)
  • Pour les configurations Multi-Hôtes, vérifiez la prise en charge de la plateforme et les exigences de câblage (des câbles séparateurs peuvent être nécessaires)
  • Les modules optiques / câbles DAC sont vendus séparément ; utilisez des émetteurs-récepteurs qualifiés par NVIDIA pour la conformité
  • La consommation électrique maximale n'est pas publiée par NVIDIA ; la conception thermique typique suppose une plage de 25W-30W en charge lourde, veuillez valider avec le guide thermique de votre châssis
  • Pour les fonctionnalités cryptographiques (déchargement IPsec/TLS), des licences supplémentaires peuvent être requises ; veuillez confirmer avec les ventes
À propos de Hong Kong Starsurge Group Co., Limited
NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s Adaptateur InfiniBand 0

Fondé en 2008, Starsurge est un fournisseur axé sur la technologie de matériel réseau, de services informatiques et d'intégration de systèmes. Nous servons des clients mondiaux avec des cartes réseau de qualité professionnelle, des commutateurs, des solutions sans fil et un développement logiciel personnalisé. Soutenu par des équipes de vente et techniques expérimentées, Starsurge soutient les secteurs gouvernemental, de la santé, de la finance, de la fabrication, de l'éducation et des entreprises. Notre approche centrée sur le client garantit une qualité fiable, une logistique réactive et des solutions d'infrastructure sur mesure dans le monde entier.

En tant que partenaire agréé des principales marques de réseau, Starsurge offre des conseils professionnels avant-vente, une livraison mondiale et un support multilingue pour vous aider à construire des réseaux évolutifs et efficaces.

Faits clés - En un coup d'œil
  • Débit maximal : 400 Gbit/s par port
  • PCIe Gen5 : Jusqu'à 32 GT/s
  • Prise en charge RDMA : InfiniBand et RoCE
  • Sécurité : IPsec/TLS/MACsec en ligne
  • NVIDIA SHARP : Agrégation en réseau
  • GPUDirect : RDMA + Stockage
Matrice de compatibilité (simplifiée)
Composant / Écosystème Pris en charge Notes
NVIDIA DGX H100 / GH200 Oui Certifié
VMware vSphere / ESXi Oui (SR-IOV) Support de pilote inclus
Noyau Linux 5.x+ Oui (In-box) MLNX_OFED recommandé
Windows Server 2022 Oui RDMA / RoCE natif
Kubernetes / CNI Oui Multus, SR-IOV CNI
OpenMPI / MVAPICH Oui Optimisé pour les verbes InfiniBand
Liste de contrôle d'achat - Adoption de ConnectX-7
  • Vérifier la plateforme hôte : emplacement PCIe Gen5 (ou Gen4 avec rétrocompatibilité mais bande passante limitée)
  • Confirmer le type de câble : 400G NDR (OSFP/QSFP-DD) ou séparateur pour 2x200G
  • Vérifier le refroidissement : l'adaptateur haute puissance nécessite au moins 300 LFM de flux d'air
  • Pour les fonctionnalités de sécurité : confirmer si le démarrage sécurisé et le déchargement cryptographique sont nécessaires (le modèle NEAT inclut une racine de confiance matérielle)
  • Pile logicielle : compatibilité de la version MLNX_OFED ou du pilote intégré avec votre noyau/OS
Produits associés - Écosystème réseau NVIDIA
  • Commutateur InfiniBand NVIDIA Quantum-2 NDR (Q9700) - 64 ports 400G
  • NVIDIA BlueField-3 DPU - infrastructure de centre de données programmable
  • ConnectX-6 Dx - adaptateur double port 200G pour des déploiements économiques
  • Câbles de la série LinkX - DAC/AOC 400G certifiés pour ConnectX-7
Guides et ressources associés
  • Manuel de l'utilisateur de l'adaptateur PCIe NVIDIA ConnectX-7 (docs.nvidia.com)
  • Guide de déploiement RDMA sur Ethernet Convergé (RoCE)
  • Meilleures pratiques pour GPUDirect Storage
  • Livre blanc sur la technologie NVIDIA SHARP

Vous voulez en savoir plus sur ce produit
Je suis intéressé à NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s Adaptateur InfiniBand pourriez-vous m'envoyer plus de détails tels que le type, la taille, la quantité, le matériau, etc.
Merci!
Dans l'attente de votre réponse.