Mellanox (NVIDIA Mellanox) 920-9B210-00FN-0D0 Application pratique du commutateur InfiniBand

January 6, 2026

Dernières nouvelles de l'entreprise Mellanox (NVIDIA Mellanox) 920-9B210-00FN-0D0 Application pratique du commutateur InfiniBand

Contexte et défis : le goulot d'étranglement du réseau dans l'informatique moderne

Dans la course à la découverte scientifique et aux percées en IA, les capacités de calcul d'une importante institution de recherche étaient freinées non pas par un manque de puissance de traitement brute, mais par leur infrastructure réseau. Leur infrastructure HDR InfiniBand existante, bien que performante, avait du mal à suivre le rythme des demandes de communication massives et synchronisées de leurs nouveaux clusters NVIDIA DGX et des charges de travail HPC traditionnelles. Les chercheurs ont été confrontés à des retards importants dans les délais d'exécution des tâches, la latence du réseau et la congestion lors des schémas de communication de type « tout à tous » devenant le principal goulot d'étranglement.

Le défi était double : d'abord, réduire considérablement la latence des opérations d'accès direct à la mémoire à distance (RDMA) essentielles pour les simulations HPC basées sur MPI. Deuxièmement, fournir une infrastructure transparente et non bloquante pour les tâches d'entraînement en IA qui nécessitaient une synchronisation constante des paramètres sur des centaines de GPU. L'institution avait besoin d'une solution évolutive capable de gérer des vitesses NDR de 400 Gbit/s tout en étant entièrement compatible avec son écosystème existant, garantissant une voie de mise à niveau rentable sans refonte complète.

Solution et déploiement : mise en œuvre de l'infrastructure 920-9B210-00FN-0D0

Après une évaluation approfondie, l'institution a sélectionné le NVIDIA Mellanox 920-9B210-00FN-0D0 comme pierre angulaire de sa nouvelle infrastructure haute performance. La solution était centrée sur le déploiement de plusieurs commutateurs 920-9B210-00FN-0D0 MQM9790-NS2F NDR 400 Gbit/s pour former une couche dorsale à haut débit et à faible latence, connectant tous les nœuds de calcul et de stockage.

Le déploiement a été structuré comme une topologie hybride en arbre gras à deux niveaux pour maximiser la bande passante de bissection et minimiser le nombre de sauts. Les principaux aspects de la mise en œuvre comprenaient :

  • Cœur de l'infrastructure : Une couche dorsale construite entièrement avec des commutateurs 920-9B210-00FN-0D0, fournissant la dorsale NDR 400 Gbit/s.
  • Intégration transparente : Tirant parti de la compatibilité descendante du commutateur, les commutateurs et les cartes d'interface réseau (NIC) HDR existants ont été connectés, protégeant les investissements antérieurs tout en permettant des mises à niveau progressives des nœuds vers NDR.
  • Gestion avancée : L'ensemble de l'infrastructure, y compris les nouvelles unités commutateur InfiniBand 920-9B210-00FN-0D0 OPN, a été géré sous un seul écran grâce à NVIDIA UFM®, permettant une télémétrie précise des performances, un provisionnement automatisé de l'infrastructure et une isolation rapide des pannes.
  • Validation : L'équipe informatique a rigoureusement consulté la fiche technique 920-9B210-00FN-0D0 et les spécifications pour valider la portée des câbles, l'alimentation et les exigences de refroidissement dans leur centre de données, garantissant des performances optimales.

Cette architecture a établi une solution commutateur InfiniBand 920-9B210-00FN-0D0 OPN unifiée, desservant à la fois les charges de travail HPC classiques et les charges de travail IA émergentes de l'institution sur un seul réseau puissant.

Effets et avantages : gains quantifiables en termes de performances et d'efficacité

L'impact du déploiement du 920-9B210-00FN-0D0 a été immédiatement mesurable et transformateur dans de multiples dimensions de leurs opérations.

Métrique Avant le déploiement Après le déploiement du 920-9B210-00FN-0D0
Latence MPI moyenne (aller-retour) ~0,7 microsecondes ~0,5 microsecondes
Durée d'exécution des tâches d'entraînement en IA (modèle volumineux) 5,2 jours 3,8 jours(réduction de 27 %)
Utilisation de l'infrastructure pendant le pic de type « tout à tous » Dépassait souvent 85 %, provoquant une congestion Stable en dessous de 60 % aux vitesses NDR
Tâches administratives (reconfiguration de l'infrastructure) Processus manuels et chronophages Automatisé via l'intégration UFM®

L'avantage le plus important a été la réduction spectaculaire du temps d'exécution des applications. Les simulations HPC, en particulier celles impliquant la dynamique des fluides complexes, ont connu une amélioration de 20 à 30 % grâce à une latence MPI plus faible et plus constante. Pour les équipes d'IA, les performances quasi théoriques de RDMA sur la nouvelle infrastructure signifiaient que les ressources GPU étaient entièrement saturées de calcul, et non bloquées en attente de transferts réseau. Bien que l'évaluation du prix 920-9B210-00FN-0D0 total ait fait partie de l'approvisionnement, l'accélération résultante des résultats de la recherche a généré un retour sur investissement (ROI) convaincant, dépassant de loin les dépenses d'investissement initiales.

Conclusion et perspectives : un modèle pour les infrastructures évolutives

L'application réussie du NVIDIA Mellanox 920-9B210-00FN-0D0 dans cet environnement de recherche sert de modèle puissant pour toute organisation confrontée à des défis d'interconnexion similaires. Elle démontre qu'investir dans une infrastructure réseau de pointe n'est pas un coût accessoire, mais un multiplicateur stratégique pour les investissements informatiques.

Le déploiement de l'institution prouve que le 920-9B210-00FN-0D0 est plus qu'un simple commutateur ; c'est une plateforme d'activation pour la convergence. Il unit de manière transparente les charges de travail HPC et IA basées sur RDMA sur un seul réseau ultra-réactif, simplifiant les opérations et accélérant la découverte. À mesure que cette technologie devient plus largement disponible à la vente, elle établit une nouvelle norme pour ce qui est possible dans le clustering haute performance.

À l'avenir, l'évolutivité et la marge de performance inhérentes de l'infrastructure NDR 400 Gbit/s signifient que l'institution est bien placée pour intégrer des ressources informatiques encore plus puissantes à l'avenir. Le 920-9B210-00FN-0D0 a effectivement éliminé le réseau en tant que goulot d'étranglement, permettant aux chercheurs de se concentrer uniquement sur les limites de leurs algorithmes et de leur imagination.