NVIDIA ConnectX-6 MCX653105A-HDAT Adaptateur intelligent InfiniBand à port unique de 200 Gb / s avec chiffrement matériel et PCIe 4.0

Détails sur le produit:

Nom de marque: Mellanox
Numéro de modèle: MCX653105A-HDAT
Document: connectx-6-infiniband.pdf

Conditions de paiement et expédition:

Quantité de commande min: 1 pièces
Prix: Negotiate
Détails d'emballage: Boîte extérieure
Délai de livraison: Basé sur l'inventaire
Conditions de paiement: T/T
Capacité d'approvisionnement: Fourniture par projet / lot
meilleur prix Contact

Détail Infomation

Statut des produits: Action Application: Serveur
Condition: Nouveau et original Taper: Filaire
Vitesse maximale: Jusqu'à 200 Go / s Connecteur Ethernet: QSFP56
Modèle: MCX653105A-HDAT
Mettre en évidence:

NVIDIA ConnectX-6 adaptateur Infiniband

,

Carte réseau PCIe 4.0 de 200 Gb/s

,

Adaptateur InfiniBand avec chiffrement matériel

Description de produit

Adaptateur InfiniBand NVIDIA ConnectX-6 MCX653105A-HDAT

Adaptateur intelligent monoport HDR 200 Gb/s avec calcul en réseau et chiffrement matériel

Le NVIDIA ConnectX-6 MCX653105A-HDAT offre un débit complet de 200 Gb/s sur un seul port QSFP56, combinant une latence ultra-faible, des délestages matériels et un chiffrement XTS-AES au niveau du bloc. Conçu pour les clusters HPC, IA et le stockage NVMe-oF, cet adaptateur PCIe 4.0 x16 décharge les opérations collectives, RDMA et le chiffrement du CPU, maximisant les performances des applications et la scalabilité dans les environnements de centres de données exigeants.

InfiniBand et Ethernet 200 Gb/s Chiffrement matériel (XTS-AES) RDMA / GPUDirect Délestages NVMe-oF
Présentation du produit

Le MCX653105A-HDAT appartient à la famille d'adaptateurs InfiniBand NVIDIA ConnectX-6, conçue pour des performances extrêmes dans les centres de données modernes. Cette carte QSFP56 monoport prend en charge jusqu'à 200 Gb/s (HDR InfiniBand ou 200 GbE) avec une accélération matérielle complète pour RDMA, le transport fiable et le calcul en réseau. En intégrant les délestages d'opérations collectives, la mise en correspondance des balises MPI et l'accélération NVMe over Fabrics, l'adaptateur réduit considérablement la charge du CPU tout en améliorant l'efficacité du réseau. Son chiffrement intégré au niveau du bloc AES-XTS garantit la sécurité des données sans pénalité de performance, ce qui le rend idéal pour les services financiers, la recherche gouvernementale et les déploiements cloud hyperscale.

Caractéristiques principales
Vitesse du port
Jusqu'à 200 Gb/s (HDR InfiniBand / 200 GbE) sur QSFP56 unique
Taux de messages
Jusqu'à 215 millions de messages/sec
Chiffrement matériel
XTS-AES 256/512 bits au niveau du bloc, conforme FIPS
calcul en réseau
Délestages collectifs, délestages cible/initiateur NVMe-oF, tampon de rafale
Interface hôte
PCIe Gen 4.0 / 3.0 x16 (rétrocompatible)
Virtualisation et délestages
SR-IOV (1K VFs), ASAP2, délestage Open vSwitch, tunnels de superposition
RDMA et GPUDirect
RoCE, XRC, DCT, pagination à la demande, prise en charge GPUDirect RDMA
Facteur de forme
PCIe bas profil autonome, support haut préinstallé + support court inclus
Technologie avancée : Calcul en réseau et sécurité

NVIDIA ConnectX-6 intègre des moteurs d'accélération de calcul en réseau qui déchargent les opérations critiques du centre de données du CPU hôte. Le MCX653105A-HDAT prend en charge le transport fiable basé sur le matériel, le routage adaptatif et le contrôle de congestion, garantissant des performances prévisibles dans les réseaux à grande échelle. L'accès direct à la mémoire à distance (RDMA) permet des transferts de données sans copie, en contournant le noyau du système d'exploitation. Avec NVIDIA GPUDirect RDMA, la mémoire GPU communique directement avec l'adaptateur réseau, réduisant la latence pour l'entraînement IA et les simulations HPC. Le chiffrement XTS-AES au niveau du bloc intégré (clé 256/512 bits) garantit la sécurité des données en transit et au repos sans charge CPU, et l'adaptateur est conçu pour répondre aux exigences de conformité FIPS 140-2.

Déploiements typiques
  • Calcul haute performance (HPC) : Simulations à grande échelle, prévisions météorologiques et dynamique des fluides computationnelle nécessitant une interconnexion à faible latence de 200 Gb/s.
  • Clusters IA et apprentissage profond : Entraînement distribué avec GPUDirect RDMA, maximisant le débit entre les nœuds GPU.
  • Systèmes de stockage NVMe-oF : Stockage désagrégé haute performance avec délestages complets cible/initiateur, réduisant l'utilisation du CPU.
  • Centres de données hyperscale et cloud : Environnements virtualisés avec SR-IOV, réseaux de superposition et chiffrement accéléré par matériel.
  • Plateformes de trading financier : Réseau déterministe à latence ultra-faible pour le trading algorithmique.
Compatibilité et écosystème

Le ConnectX-6 MCX653105A-HDAT interopère de manière transparente avec les commutateurs InfiniBand NVIDIA Quantum (HDR 200 Gb/s), les commutateurs 200 GbE standard et une large gamme de plateformes serveur. Il prend en charge les principaux systèmes d'exploitation et piles de virtualisation, garantissant une intégration flexible dans l'infrastructure existante.

Spécifications techniques
Paramètre Spécification
Modèle de produit MCX653105A-HDAT
Débit de données 200 Gb/s, 100 Gb/s, 50 Gb/s, 40 Gb/s, 25 Gb/s, 10 Gb/s, 1 Gb/s (InfiniBand et Ethernet)
Ports et connecteur 1x QSFP56 (prend en charge les câbles en cuivre passifs, optiques actifs et AOC)
Interface hôte PCIe Gen 4.0 x16 (également compatible avec Gen 3.0, 2.0 ; prend en charge les configurations x8, x4, x2, x1)
Latence Inframicroseconde (typique <0.7µs)
Taux de messages Jusqu'à 215 millions de messages par seconde
Chiffrement Délestage matériel XTS-AES 256/512 bits, prêt pour FIPS 140-2
Facteur de forme PCIe bas profil autonome (support haut préinstallé, accessoire de support court inclus)
Dimensions (sans support) 167,65 mm x 68,90 mm
Consommation électrique Typique 22W – 24W (dépend de l'utilisation du lien)
Virtualisation SR-IOV (jusqu'à 1K fonctions virtuelles), VMware NetQueue, NPAR, délestage de flux ASAP2
Gestion et surveillance NC-SI, MCTP sur PCIe/SMBus, PLDM (DSP0248, DSP0267), I2C, flash SPI
Démarrage à distance InfiniBand, iSCSI, PXE, UEFI
Systèmes d'exploitation RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OpenFabrics Enterprise Distribution (OFED), WinOF-2
Guide de sélection – Variantes d'adaptateurs ConnectX-6
Numéro de pièce de commande (OPN) Ports Vitesse max. Interface hôte Caractéristiques principales
MCX653105A-HDAT 1x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 Monoport, chiffrement matériel, délestages complets ConnectX-6, idéal pour les serveurs haute densité
MCX653106A-HDAT 2x QSFP56 200 Gb/s (double port) PCIe 3.0/4.0 x16 Double port 200 Gb/s avec chiffrement, densité de bande passante maximale
MCX653105A-ECAT 1x QSFP56 100 Gb/s PCIe 3.0/4.0 x16 Monoport 100 Gb/s, optimisé en coût pour les exigences de vitesse inférieures
MCX653106A-ECAT 2x QSFP56 100 Gb/s (double port) PCIe 3.0/4.0 x16 Double port 100 Gb/s, délestages de virtualisation et de stockage
MCX653436A-HDAT (OCP 3.0) 2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 petit facteur de forme, double port 200 Gb/s
Remarque : Le MCX653105A-HDAT comprend un moteur de chiffrement matériel complet (XTS-AES) et prend en charge les protocoles InfiniBand et Ethernet jusqu'à 200 Gb/s. Pour les configurations double port, envisagez les variantes -HDAT avec deux cages QSFP56.
Pourquoi choisir le MCX653105A-HDAT pour votre infrastructure
  • Bande passante complète de 200 Gb/s : La conception monoport offre un débit maximal pour les nœuds de calcul où la haute densité par port est prioritaire.
  • Sécurité matérielle intégrée : Chiffrement par bloc XTS-AES sans charge CPU, conforme FIPS pour les industries réglementées.
  • Stockage et IA accélérés : Les délestages NVMe-oF et GPUDirect RDMA augmentent considérablement les performances pour l'entraînement IA et le stockage défini par logiciel.
  • PCIe 4.0 prêt pour l'avenir : Double la bande passante de l'interconnexion vers l'hôte, éliminant les goulots d'étranglement pour le réseau 200 Gb/s.
  • Gestion simplifiée : La pile de pilotes unifiée (OFED, WinOF-2) et la large compatibilité OS réduisent la complexité du déploiement.
Service et support

Hong Kong Starsurge Group fournit une assistance technique experte, une couverture de garantie et des services RMA mondiaux pour tous les adaptateurs NVIDIA ConnectX. Nos spécialistes réseau assistent à l'installation des pilotes, à l'optimisation des performances et à l'intégration du réseau. Nous offrons des prix flexibles, des devis groupés pour les projets de centres de données et une expédition rapide dans le monde entier. Pour des solutions personnalisées, contactez notre équipe commerciale pour discuter des délais et des remises sur volume.

Questions fréquemment posées
Q : Quelle est la vitesse maximale prise en charge par le MCX653105A-HDAT ?
R : Il prend en charge jusqu'à 200 Gb/s (HDR) côté InfiniBand et 200 GbE côté Ethernet, avec une rétrocompatibilité complète avec les vitesses inférieures (100/50/40/25/10/1 Gb/s).
Q : Cet adaptateur inclut-il le chiffrement matériel ?
R : Oui. Le MCX653105A-HDAT dispose d'un délestage de chiffrement par bloc XTS-AES 256/512 bits intégré, réduisant la charge du CPU et garantissant la sécurité des données.
Q : Puis-je utiliser cette carte dans un slot PCIe 3.0 ?
R : Absolument. L'adaptateur est rétrocompatible avec PCIe 3.0 et 2.0. Cependant, le débit maximal peut être limité par la génération du slot.
Q : La prise en charge de GPUDirect RDMA est-elle assurée ?
R : Oui, la série ConnectX-6 prend entièrement en charge NVIDIA GPUDirect RDMA, permettant un accès direct à la mémoire GPU sur le réseau pour les charges de travail IA et HPC.
Q : Quels types de câbles sont compatibles avec le port QSFP56 ?
R : Il prend en charge les câbles DAC en cuivre passifs (jusqu'à 5 m), les câbles optiques actifs (AOC) et les émetteurs-récepteurs optiques QSFP56 pour les longues distances.
Précautions importantes
• Assurez un flux d'air adéquat dans le châssis pour l'adaptateur 200 Gb/s ; utilisez le refroidissement recommandé selon les directives du fournisseur du serveur.
• Vérifiez que le slot PCIe fournit suffisamment d'alimentation (75 W du slot ; l'adaptateur consomme environ 22-24 W en typique).
• Pour les plateformes refroidies par liquide, cette carte standard refroidie par air n'est pas compatible avec les variantes de plaque froide ; contactez Starsurge pour les besoins en SKU refroidis par liquide.
• Utilisez toujours des câbles ou des modules certifiés QSFP56 pour atteindre les performances de 200 Gb/s.
• Confirmez la compatibilité de la version du pilote avec votre système d'exploitation et votre noyau avant le déploiement.
À propos de Hong Kong Starsurge Group

Depuis 2008, Hong Kong Starsurge Group Co., Limited est un fournisseur de confiance de matériel réseau d'entreprise, d'intégration de systèmes et de services informatiques. En tant que partenaire agréé pour les solutions réseau NVIDIA, Starsurge fournit de véritables adaptateurs, commutateurs et câbles ConnectX aux clients gouvernementaux, financiers, de santé, d'éducation et hyperscale du monde entier. Nos équipes commerciales et techniques expérimentées assurent un déploiement fluide, de l'architecture avant-vente au support après-vente, avec un engagement envers une qualité fiable et un service réactif.

Livraison mondiale · Support multilingue · Services OEM et d'intégration sur mesure

Faits clés en un coup d'œil
Monoport 200 Gb/s
215M Msgs/sec
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VFs)
NVMe-oF et GPUDirect
Matrice de compatibilité
Composant / Écosystème Statut de prise en charge Remarques
Commutateurs InfiniBand NVIDIA Quantum HDR ✓ Entièrement pris en charge Réseau 200 Gb/s, routage adaptatif
Commutateurs 200 GbE (IEEE 802.3) ✓ Compatible Nécessite des modes FEC selon les spécifications du commutateur
GPU Direct RDMA ✓ Oui Séries de GPU NVIDIA (Volta, Ampere, Hopper, etc.)
VMware vSphere 7.0/8.0 ✓ Certifié Pilotes natifs, prise en charge SR-IOV
Linux (RHEL, Ubuntu, SLES) ✓ Prise en charge complète MLNX_OFED, pilotes intégrés disponibles
Windows Server 2019/2022 ✓ Pris en charge Package de pilotes WinOF-2
Liste de contrôle de l'acheteur – Avant de commander le MCX653105A-HDAT
  • [ ] Confirmer la vitesse de liaison requise : le monoport 200 Gb/s correspond aux exigences de bande passante de votre nœud.
  • [ ] Vérifier le slot PCIe du serveur : slot physique x16, Gen 4 recommandé pour des performances complètes de 200 Gb/s.
  • [ ] Sélectionner les câbles ou émetteurs-récepteurs QSFP56 appropriés (cuivre passif jusqu'à 5 m, AOC ou optiques).
  • [ ] Vérifier la prise en charge des pilotes OS (version OFED ou intégrée).
  • [ ] S'assurer que les exigences de conformité du chiffrement sont satisfaites (XTS-AES, FIPS).
  • [ ] Évaluer le refroidissement environnemental : les adaptateurs haute vitesse peuvent nécessiter un flux d'air dirigé.
Produits associés

Vous voulez en savoir plus sur ce produit
Je suis intéressé à NVIDIA ConnectX-6 MCX653105A-HDAT Adaptateur intelligent InfiniBand à port unique de 200 Gb / s avec chiffrement matériel et PCIe 4.0 pourriez-vous m'envoyer plus de détails tels que le type, la taille, la quantité, le matériau, etc.
Merci!
Dans l'attente de votre réponse.