NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s Adaptateur InfiniBand
Détails sur le produit:
| Nom de marque: | Mellanox |
| Numéro de modèle: | MCX75310AAS-NEAT (900-9x766-003N-SQ0) |
| Document: | Connectx-7 infiniband.pdf |
Conditions de paiement et expédition:
| Quantité de commande min: | 1 pièces |
|---|---|
| Prix: | Negotiate |
| Détails d'emballage: | Boîte extérieure |
| Délai de livraison: | Basé sur l'inventaire |
| Conditions de paiement: | T/T |
| Capacité d'approvisionnement: | Fourniture par projet / lot |
|
Détail Infomation |
|||
| Numéro de modèle.: | MCX75310AAS-NEAT (900-9x766-003N-SQ0) | Ports: | Port unique |
|---|---|---|---|
| Technologie: | Infiniband | Type d'interface: | OSFP56 |
| Spécification: | 16,7 cm x 6,9 cm | Origine: | Inde / Israël / Chine |
| taux de transmission: | 400 gbe | Interface hôte: | Gen3 x16 |
| Mettre en évidence: | Adaptateur InfiniBand NVIDIA ConnectX-7,Carte réseau Mellanox de 400 Gb/s,Adaptateur NDR InfiniBand avec garantie |
||
Description de produit
Le NVIDIA ConnectX-7 MCX75310AAS-NEAT est un adaptateur intelligent InfiniBand NDR 400 Gbit/s phare doté d'une interface PCIe Gen5 x16 pour InfiniBand et RoCE. Conçu pour les usines d'IA, les clusters HPC et les centres de données cloud hyperscale, cet adaptateur à latence ultra-faible intègre le calcul en réseau, les déchargements de sécurité matériels et la virtualisation avancée pour accélérer le calcul scientifique moderne et les infrastructures définies par logiciel.
La famille NVIDIA ConnectX-7 offre des performances révolutionnaires avec une bande passante allant jusqu'à 400 Gbit/s par port, prenant en charge InfiniBand (NDR/HDR/EDR) et Ethernet (jusqu'à 400 GbE). Le modèle MCX75310AAS-NEAT dispose d'une interface hôte PCIe Gen5 (jusqu'à 32 voies), d'une capacité multi-hôtes et de moteurs avancés pour GPUDirect RDMA, l'accélération NVMe-oF et le chiffrement en ligne. Conçu pour l'entraînement IA exigeant, la simulation et l'analyse en temps réel, cet adaptateur réduit la charge du processeur tout en maximisant le débit et la sécurité des données.
Avec une mémoire intégrée pour le déchargement de la réunion, l'accélération collective SHARP et les déchargements SDN ASAP2, ConnectX-7 transforme les serveurs standard en nœuds réseau haute performance avec une gigue quasi nulle et une synchronisation de précision nanoseconde (IEEE 1588v2 Classe C).
- Prêt pour NDR InfiniBand et 400 GbE - Bande passante totale jusqu'à 400 Gbit/s, prend en charge NDR, HDR, EDR InfiniBand et 400/200/100/50/25/10 GbE
- PCIe Gen5 x16 (jusqu'à 32 voies) - Interface hôte à haut débit avec indices de traitement TLP, ATS, PASID et SR-IOV
- Calcul en réseau - Déchargement matériel des opérations collectives (SHARP), protocole de réunion, déchargement de tampon de rafale
- GPUDirect RDMA et GPUDirect Storage - Chemin de données direct GPU-vers-NIC, accélérant l'apprentissage profond et l'analyse de données
- Moteurs de sécurité matériels - Chiffrement/déchiffrement IPsec/TLS/MACsec en ligne (AES-GCM 128/256 bits) + démarrage sécurisé avec racine de confiance matérielle
- Accélération de stockage avancée - NVMe-oF (sur Fabrics/TCP), déchargement NVMe/TCP, transfert de signature T10-DIF, iSER, NFS sur RDMA
- ASAP2 SDN et accélération VirtIO - Déchargement OVS, encapsulation VXLAN/GENEVE/NVGRE, suivi de connexion et analyseur programmable
- Synchronisation de précision - PTP (IEEE 1588v2) avec une précision de 12 ns, SyncE, planification déclenchée par le temps, cadencement des paquets
Construit sur un processus 7 nm, ConnectX-7 intègre plusieurs moteurs d'accélération matériels qui déchargent le processeur et offrent des performances déterministes. Les principaux piliers technologiques comprennent :
- RDMA sur Ethernet Convergé (RoCE) - RoCE Zero-Touch pour les fabrics Ethernet à faible latence
- Transport dynamique connecté (DCT) et XRC - Communication MPI et HPC efficace
- Pagination à la demande (ODP) et enregistrement de mémoire utilisateur (UMR) - Simplifie la gestion de la mémoire pour les applications à grande échelle
- Protocole d'agrégation et de réduction hiérarchique évolutif (SHARP) - Réduction des données en réseau pour les collectives MPI
- Technologie Multi-Hôtes - Permet à jusqu'à 4 hôtes indépendants de partager un seul adaptateur, optimisant l'utilisation du serveur
- Gestion PLDM et SPDM - Mise à jour du firmware, surveillance et attestation de périphérique pour la sécurité d'entreprise
- Clusters d'IA et d'apprentissage automatique - Entraînement à grande échelle avec NCCL, UCX et GPUDirect RDMA
- Simulation et recherche HPC - Modélisation météorologique, génomique, dynamique moléculaire nécessitant un MPI à faible latence
- Cloud Hyperscale et SDDC - Réseaux superposés, accélération NFV, multi-locataire sécurisé (SR-IOV)
- Systèmes de stockage d'entreprise - Déchargement de cible NVMe-oF et systèmes de fichiers distribués (Lustre, GPUDirect Storage)
- Bord 5G et télécommunications - Infrastructures sensibles au temps avec PTP Classe C et sécurité MACsec
Systèmes d'exploitation et virtualisation : Pilotes inclus pour Linux (RHEL, Ubuntu, Rocky Linux), Windows Server, VMware ESXi (SR-IOV) et Kubernetes (plugins CNI). Optimisé pour NVIDIA HPC-X, UCX, OpenMPI, MVAPICH, MPICH, OpenSHMEM, NCCL et UCC.
Compatibilité matérielle : Emplacements PCIe Gen5 standard (mécanique x16, électrique x16/x32). Certifié avec les principales plateformes serveur de Dell, HPE, Supermicro, Lenovo et les systèmes NVIDIA DGX.
Interopérabilité : Entièrement conforme aux spécifications 1.5 de l'InfiniBand Trade Association, IEEE 802.3 pour Ethernet et aux spécifications PCI-SIG Gen5.
| Paramètre | Détail |
|---|---|
| Modèle de produit | MCX75310AAS-NEAT |
| Facteur de forme | PCIe HHHL (Half Height Half Length), support FHHL inclus |
| Interface hôte | PCIe Gen5.0 x16 (jusqu'à 32 voies, prend en charge la bifurcation et le Multi-Hôtes) |
| Protocoles réseau | InfiniBand (NDR/HDR/EDR) et Ethernet (400 GbE, 200 GbE, 100 GbE, 50 GbE, 25 GbE, 10 GbE) |
| Configuration du port | QSFP-DD à port unique (prend en charge 1x 400G NDR ou 2x 200G divisé ; veuillez confirmer la densité des ports par SKU) |
| Vitesses InfiniBand | NDR 400 Gbit/s, HDR 200 Gbit/s, EDR 100 Gbit/s, FDR (compatible) |
| Vitesses Ethernet | 400/200/100/50/25/10 GbE NRZ/PAM4 |
| Mémoire intégrée | Mémoire intégrée en réseau pour le déchargement de la réunion et le tampon de rafale |
| Déchargements de sécurité | IPsec, TLS, MACsec en ligne (AES-GCM 128/256 bits), démarrage sécurisé, chiffrement Flash |
| Déchargements de stockage | NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, SRP, iSER, NFS sur RDMA, SMB Direct |
| Synchronisation et horodatage | IEEE 1588v2 PTP (précision de 12 ns), SyncE, PPS programmable, planification déclenchée par le temps |
| Virtualisation | SR-IOV, accélération VirtIO, déchargement VXLAN/NVGRE/GENEVE, suivi de connexion (pare-feu L4) |
| Gestion | NC-SI, MCTP sur SMBus/PCIe, PLDM (Moniteur/Firmware/FRU/Redfish), SPDM, Flash SPI, JTAG |
| Démarrage à distance | Démarrage InfiniBand, iSCSI, UEFI, PXE |
| Consommation électrique | Non spécifié publiquement - les adaptateurs haute performance typiques nécessitent un flux d'air adéquat ; veuillez confirmer avant de commander |
| Température de fonctionnement | 0°C à 55°C (avec refroidissement de châssis approprié) |
| Modèle (partiel) | Port/Vitesse | Interface hôte | Facteur de forme | Cas d'utilisation |
|---|---|---|---|---|
| MCX75310AAS-NEAT | 1x NDR 400 Gbit/s InfiniBand/Ethernet | PCIe Gen5 x16 | HHHL | IA, HPC, Cloud - phare avec Multi-Hôtes et démarrage sécurisé |
| MCX75310AAS-NCAT | 1x NDR 400 Gbit/s | PCIe Gen5 x16 | HHHL | Ensemble de fonctionnalités similaire avec cryptographie activée |
| MCX75510AAS-NEAT | 2x NDR 200 Gbit/s ou 1x 400 Gbit/s | PCIe Gen5 x16 | FHHL | Double port pour la redondance |
| Variante OCP 3.0 | Jusqu'à 2x 200 Gbit/s | PCIe Gen5 x16 | OCP 3.0 SFF | Plateformes OCP hyperscale |
Pour les codes de commande exacts et les configurations personnalisées, veuillez vous référer au manuel officiel de l'adaptateur PCIe ConnectX-7 (docs.nvidia.com) ou contacter Hong Kong Starsurge Group.
Coût total de possession le plus bas - Décharge le processeur des tâches réseau, de stockage et de sécurité -- réduisant les coûts d'énergie et de refroidissement par Gbit/s.
Bande passante prête pour l'avenir - La prise en charge de PCIe Gen5 et NDR 400G élimine les goulots d'étranglement pour les serveurs GPU de nouvelle génération et les clusters d'IA.
Sécurité d'entreprise - Le chiffrement en ligne matériel (IPsec/TLS/MACsec) et la chaîne de confiance sécurisée répondent aux exigences de conformité (FIPS, DoD).
Intégration transparente - Compatibilité totale avec les principales distributions, hyperviseurs et plateformes d'orchestration de conteneurs.
Hong Kong Starsurge Group fournit un support de cycle de vie de bout en bout : conseils architecturaux avant-vente, validation de compatibilité, gestion de la garantie et services RMA. Notre équipe technique assiste dans le réglage des pilotes, les mises à jour du firmware et l'intégration des clusters. Garantie standard : support matériel limité de 3 ans avec couverture étendue en option. Expédition mondiale et assistance technique multilingue disponibles.
- Assurez-vous que la carte mère du serveur fournit un emplacement PCIe Gen5 avec un refroidissement adéquat (flux d'air actif recommandé pour le fonctionnement 400G)
- Pour les configurations Multi-Hôtes, vérifiez la prise en charge de la plateforme et les exigences de câblage (des câbles séparateurs peuvent être nécessaires)
- Les modules optiques / câbles DAC sont vendus séparément ; utilisez des émetteurs-récepteurs qualifiés par NVIDIA pour la conformité
- La consommation électrique maximale n'est pas publiée par NVIDIA ; la conception thermique typique suppose une plage de 25W-30W en charge lourde, veuillez valider avec le guide thermique de votre châssis
- Pour les fonctionnalités cryptographiques (déchargement IPsec/TLS), des licences supplémentaires peuvent être requises ; veuillez confirmer avec les ventes
Fondé en 2008, Starsurge est un fournisseur axé sur la technologie de matériel réseau, de services informatiques et d'intégration de systèmes. Nous servons des clients mondiaux avec des cartes réseau de qualité professionnelle, des commutateurs, des solutions sans fil et un développement logiciel personnalisé. Soutenu par des équipes de vente et techniques expérimentées, Starsurge soutient les secteurs gouvernemental, de la santé, de la finance, de la fabrication, de l'éducation et des entreprises. Notre approche centrée sur le client garantit une qualité fiable, une logistique réactive et des solutions d'infrastructure sur mesure dans le monde entier.
En tant que partenaire agréé des principales marques de réseau, Starsurge offre des conseils professionnels avant-vente, une livraison mondiale et un support multilingue pour vous aider à construire des réseaux évolutifs et efficaces.
- Débit maximal : 400 Gbit/s par port
- PCIe Gen5 : Jusqu'à 32 GT/s
- Prise en charge RDMA : InfiniBand et RoCE
- Sécurité : IPsec/TLS/MACsec en ligne
- NVIDIA SHARP : Agrégation en réseau
- GPUDirect : RDMA + Stockage
| Composant / Écosystème | Pris en charge | Notes |
|---|---|---|
| NVIDIA DGX H100 / GH200 | Oui | Certifié |
| VMware vSphere / ESXi | Oui (SR-IOV) | Support de pilote inclus |
| Noyau Linux 5.x+ | Oui (In-box) | MLNX_OFED recommandé |
| Windows Server 2022 | Oui | RDMA / RoCE natif |
| Kubernetes / CNI | Oui | Multus, SR-IOV CNI |
| OpenMPI / MVAPICH | Oui | Optimisé pour les verbes InfiniBand |
- Vérifier la plateforme hôte : emplacement PCIe Gen5 (ou Gen4 avec rétrocompatibilité mais bande passante limitée)
- Confirmer le type de câble : 400G NDR (OSFP/QSFP-DD) ou séparateur pour 2x200G
- Vérifier le refroidissement : l'adaptateur haute puissance nécessite au moins 300 LFM de flux d'air
- Pour les fonctionnalités de sécurité : confirmer si le démarrage sécurisé et le déchargement cryptographique sont nécessaires (le modèle NEAT inclut une racine de confiance matérielle)
- Pile logicielle : compatibilité de la version MLNX_OFED ou du pilote intégré avec votre noyau/OS
- Commutateur InfiniBand NVIDIA Quantum-2 NDR (Q9700) - 64 ports 400G
- NVIDIA BlueField-3 DPU - infrastructure de centre de données programmable
- ConnectX-6 Dx - adaptateur double port 200G pour des déploiements économiques
- Câbles de la série LinkX - DAC/AOC 400G certifiés pour ConnectX-7
- Manuel de l'utilisateur de l'adaptateur PCIe NVIDIA ConnectX-7 (docs.nvidia.com)
- Guide de déploiement RDMA sur Ethernet Convergé (RoCE)
- Meilleures pratiques pour GPUDirect Storage
- Livre blanc sur la technologie NVIDIA SHARP







