Carte intelligente InfiniBand double port NVIDIA ConnectX-6 MCX653106A-HDAT 200 Gb/s

Détails sur le produit:

Nom de marque: Mellanox
Numéro de modèle: MCX653106A-HDAT-SP
Document: connectx-6-infiniband.pdf

Conditions de paiement et expédition:

Quantité de commande min: 1 pièces
Prix: Negotiate
Détails d'emballage: Boîte extérieure
Délai de livraison: Basé sur l'inventaire
Conditions de paiement: T/T
Capacité d'approvisionnement: Fourniture par projet / lot
meilleur prix Contact

Détail Infomation

Statut des produits: Action Application: Serveur
Condition: Nouveau et original Taper: Filaire
Vitesse maximale: Jusqu'à 200 Go / s Connecteur Ethernet: QSFP56
Modèle: MCX653106A-HDAT Nom: Coffre-fort intelligent à grande vitesse de la carte réseau 200gbe de MCX653106A-HDAT-SP Mellanox
Mettre en évidence:

NVIDIA ConnectX-6 adaptateur Infiniband

,

Carte réseau Mellanox de 200 Gb/s

,

Adaptateur intelligent InfiniBand à double port

Description de produit

NVIDIA ConnectX-6 MCX653106A-HDAT

Adaptateur intelligent HDR InfiniBand à double port de 200 Gb/s

Débloquez des performances HPC et IA extrêmes avec NVIDIA In-Network Computing. Cet adaptateur PCIe 4.0 x16 fournit 215 millions de messages / seconde et une accélération basée sur le matériel pour les centres de données les plus exigeants.

Numéro de la partie:Le numéro de série de l'appareil doit être identifié.
Facteur de forme:Résistance au PCIe
Les ports2x QSFP56
Interface de l'hôte:Le système d'exploitation de l'appareil doit être conforme à l'annexe I.

Vue d'ensemble du produit

Le NVIDIA ConnectX-6 MCX653106A-HDAT est un adaptateur intelligent InfiniBand et Ethernet à double port de 200 Gb / s, conçu comme une pierre angulaire de la plate-forme NVIDIA Quantum InfiniBand.Il intègre des fonctionnalités avancées comme l'accès direct à la mémoire à distance (RDMA)En déplaçant le calcul dans le tissu de réseau, le processeur est en mesure de gérer les flux de données.Cet adaptateur améliore l'évolutivité et l'efficacité pour l'informatique haute performance, des charges de travail d'apprentissage automatique et des infrastructures cloud hyperscale.

Principales caractéristiques

  • Le débit ultra-haute:une connectivité de 200 Gbps par port avec une bande passante globale maximale de 200 Gbps.
  • L'informatique en réseau:Déchargement du matériel pour les opérations collectives, correspondance des balises MPI et protocole de rendez-vous.
  • chiffrement au niveau du bloc:chiffrement matériel XTS-AES 256/512 bits pour la sécurité des données conforme au FIPS.
  • Prise en charge du PCIe 4.0:16 GT/s de vitesse de liaison avec une compatibilité arrière complète avec PCIe 3.0/2.0/1.1.
  • Taux de diffusion:Jusqu'à 215 millions de messages par seconde pour des performances extrêmes de petits paquets.
  • Décharges de stockage:Les décharges de cible et d'initiateur NVMe-oF, T10-DIF, et le support de SRP, iSER, NFS RDMA.
  • Virtualisation:SR-IOV avec des fonctions virtuelles allant jusqu'à 1K et ASAP2 pour le déchargement OVS.

Technologie de calcul en réseau NVIDIA

ConnectX-6 intègre les moteurs In-Network Computing uniques de NVIDIA, déchargeant les opérations de communication collective (comme MPI all-reduce) du processeur vers le tissu réseau.Cela réduit considérablement la latence et libère des cycles de processeur pour le traitement des applicationsCombiné avec RDMA et la cartographie avancée de mémoire (UMR), l'adaptateur permet la communication GPU Direct RDMA et peer-to-peer GPU à travers le réseau,accélérer les groupes de formation en IA et les simulations complexes.

Des déploiements typiques

  • "Télécommunications" à haute performance (HPC):Des grappes à grande échelle qui exécutent la simulation météorologique, la dynamique des fluides et la dynamique moléculaire.
  • IA et apprentissage automatique:Formation distribuée de réseaux neuronaux profonds nécessitant un débit élevé et une faible latence.
  • Centres de données d'entreprise:Objectifs de stockage NVMe-oF, accélération de base de données et infrastructure virtualisée.
  • Le nuage hyperscale:Environnements multi-locataires nécessitant un isolement et une qualité de service basés sur le matériel.
  • Plateformes refroidies par liquide:Compatible avec le système de serveur Intel D50TNP pour les déploiements à haute densité.

Compatibilité

Système et processeur:x86, Power, Arm, GPU (avec GPUDirect) et plateformes basées sur FPGA.
Commutateur:Entièrement interopérable avec les commutateurs NVIDIA Quantum InfiniBand jusqu'à 200 Gbps et les commutateurs Ethernet standard.
Les câbles:Des câbles en cuivre passif, optique actif et DAC avec connecteurs QSFP56.

Spécifications techniques

Paramètre Détails
Nom du produit NVIDIA ConnectX-6 MCX653106A-HDAT
Vitesses prises en charge Pour les appareils de communication électronique, le nombre de lignes de fréquences est déterminé en fonction de la fréquence de l'appareil.
Ports réseau 2x QSFP56
Interface de l'hôte PCIe Gen 4.0/3.0 x16 (prend également en charge x8, x4, x2, x1)
Taux de diffusion Jusqu'à 215 millions de messages par seconde
Caractéristiques InfiniBand RDMA, XRC, DCT, ODP, contrôle de la congestion matérielle, canaux d'entrée/sortie 16M, 8 VL + VL15
Décharges Ethernet Le système de gestion de l'équipement est basé sur les critères suivants:
Décharges de stockage Les activités de recherche et de développement doivent être réalisées par des professionnels qualifiés.
Sécurité Hardware XTS-AES 256/512 bits de chiffrement par bloc, conforme à FIPS
La gestion NC-SI, MCTP sur SMBus/PCIe, PLDM pour le moniteur/firmware, I2C, JTAG
Les dimensions 167.65 mm x 68,90 mm (sans crochets)
Réglementation Compatible avec les normes RoHS et ODCC

Remarque: les spécifications sont basées sur la documentation disponible. Pour plus de détails, veuillez confirmer avant de commander.

Guide de sélection: MCX653106A-HDAT

Ce modèle est la variante QSFP56 à double port dans le facteur de forme stand-up PCIe. Il prend en charge à la fois InfiniBand et Ethernet à des vitesses allant jusqu'à 200 Gb / s. Pour les besoins de port unique, considérez le MCX653105A-HDAT.Pour l'OCP 3.0 facteur de forme, voir la série MCX653436A-HDAT.

Les ports Facteur de forme OPN Cas d' utilisation
2x QSFP56 Résistance au PCIe Le numéro de série de l'appareil doit être identifié. Deux ports 200 Gb/s pour les nœuds HPC/IA à haute disponibilité
1x QSFP56 Résistance au PCIe Le numéro de série de l'appareil doit être identifié. Port unique 200 Gb/s pour le calcul standard
2x QSFP56 Socket Direct Le nombre d'émissions de CO2 est déterminé par la méthode suivante: Optimisation du serveur multi-sockets

Avantages du connecteur connectX-6 MCX653106A-HDAT

  • Résistant au futur:La préparation PCIe 4.0 assure une bande passante pour les processeurs et GPU de nouvelle génération.
  • Sécurité par défaut:Le cryptage intégré conforme à FIPS élimine le besoin de disques auto-cryptés.
  • Consolidation des infrastructures:Un adaptateur prend en charge à la fois InfiniBand et Ethernet, simplifiant l'inventaire.
  • Stockage évolutif:Les décharges NVMe-oF complètes réduisent la charge du processeur dans les architectures de stockage désagrégées.

Service et soutien

Soutenus par l'équipe technique expérimentée de Hong Kong Starsurge Group, nous fournissons:

  • Assistance à la configuration avant vente pour votre environnement HPC ou d'entreprise spécifique.
  • Expédition mondiale avec suivi et emballage sécurisé.
  • Guide de mise à jour du micrologiciel et support de téléchargement des pilotes.
  • Services de garantie et RMA (les conditions peuvent varier selon les régions).

Questions fréquemment posées

Q: Cette carte est-elle compatible avec les commutateurs Ethernet standard?
R: Oui, le MCX653106A-HDAT prend en charge InfiniBand et Ethernet. Il peut fonctionner à 200/100/50/40/25/10/1GbE.

Q: Est-ce qu'il prend en charge NVIDIA GPUDirect?
R: Absolument. Il prend en charge GPUDirect RDMA et PeerDirect pour la communication directe GPU-GPU sur le réseau.

Q: Quelle est la différence entre MCX653106A-HDAT et MCX653106A-ECAT?
R: Le suffixe -HDAT indique la variante haute vitesse prenant en charge 200Gb/s, tandis que -ECAT désigne généralement une version à basse vitesse (100Gb/s).

Q: Puis-je utiliser cette carte dans un emplacement PCIe Gen 3?
R: Oui, il est rétrocompatible avec PCIe Gen 3.0, mais la bande passante sera limitée à ~ 100 Gb/s par port en raison du bus plus lent.

Précautions d'installation

  • Assurer un débit d'air adéquat; l'adaptateur peut nécessiter un refroidissement actif dans des environnements denses.
  • Utiliser uniquement des modules et des câbles QSFP56 validés pour un fonctionnement de 200 Gb/s afin d'éviter l'instabilité des liaisons.
  • Vérifiez le support de bifurcation des fentes PCIe de votre carte mère si vous utilisez la variante Socket Direct.
  • Confirmer le budget énergétique: la carte reçoit de l'énergie du slot PCIe; les modules optiques à haute puissance peuvent nécessiter une prise en compte supplémentaire de l'énergie.
Carte intelligente InfiniBand double port NVIDIA ConnectX-6 MCX653106A-HDAT 200 Gb/s 0

À propos de Hong Kong Starsurge Group Co., Limited

Fondé en 2008, le groupe Starsurge de Hong Kong est un fournisseur de matériel réseau, de services informatiques et de solutions d'intégration de systèmes axé sur la technologie.Nous servons des clients dans le monde entier avec des produits incluant des commutateurs réseauNotre équipe expérimentée de ventes et technique soutient des industries telles que le gouvernement, la santé, la fabrication, l'éducation,les financesAvec une approche axée sur le client, Starsurge se concentre sur une qualité fiable, un service réactif et des solutions sur mesure qui aident les clients à construire des solutions efficaces, évolutives,et une infrastructure de réseau fiableNous offrons des solutions IoT, des systèmes de gestion de réseau, le développement de logiciels personnalisés, le support multilingue, et la livraison mondiale.

Un aperçu des faits clés

200 Gb/s HDR QSFP56 à double port Le PCIe 4.0 x16 L'informatique en réseau

Matrice de compatibilité

Composant Soutenu? Les notes
Les commutateurs quantiques NVIDIA - Oui, oui. Interopérabilité HDR complète de 200 Gb/s
Les cartes mères PCIe de la génération 4.0 - Oui, oui. Taux de ligne complet de 200 Gb/s
Les cartes mères PCIe de la génération 3.0 - Oui, oui. Limité à ~ 100 Gb/s par port
VMware vSphere - Oui, oui. Chauffeurs disponibles
Intel D50TNP refroidi par liquide UGS spéciales La version de la plaque froide existe; confirmer le PNO

Liste de vérification de l'acheteur

  • Le serveur de confirmation dispose d'un emplacement libre PCIe 4.0 x16 (physique et électrique).
  • Vérifier la vitesse de fabrication InfiniBand: cette carte est compatible HDR (200 Gb/s).
  • Choisissez les modules QSFP56 appropriés (SR, LR ou DAC) pour votre distance.
  • Veiller à ce que la puissance et le refroidissement soient suffisants pour un fonctionnement à grande vitesse.
  • Vérifiez le support du système d'exploitation/du pilote: RHEL, Ubuntu, Windows Server, etc.

Vous voulez en savoir plus sur ce produit
Je suis intéressé à Carte intelligente InfiniBand double port NVIDIA ConnectX-6 MCX653106A-HDAT 200 Gb/s pourriez-vous m'envoyer plus de détails tels que le type, la taille, la quantité, le matériau, etc.
Merci!
Dans l'attente de votre réponse.