Accueil🇫🇷Chercher

Bus InfiniBand

L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes.

Façade d'un switch InfiniBand
Câble InfiniBand

Historique

L'infiniBand est le fruit de la fusion de deux technologies concurrentes : Future I/O, développée par Compaq, IBM, et Hewlett-Packard, avec Next Generation I/O (ngio), développée par Intel, Microsoft, et Sun Microsystems[1]. Pendant un bref temps avant l'adoption de son nom définitif, il fut aussi nommé System I/O[2]. Intel s'est depuis ré-investi dans une technologie quasiment alternative, le bus PCI Express, exprimant ses doutes sur le futur de l'infiniBand.

Description

L'infiniBand utilise un bus bi-directionnel Ă  faible coĂ»t qui se place au mĂŞme niveau que Ethernet mais a Ă©tĂ© conçu pour la haute performance. Il bĂ©nĂ©ficie d'une latence faible (environ 1 microseconde) et de dĂ©bits de plusieurs dizaines de Gbit/s. L'infiniBand utilise une technologie permettant Ă  plusieurs pĂ©riphĂ©riques d'accĂ©der en mĂŞme temps au rĂ©seau. Les donnĂ©es sont transmises sous la forme de paquets, qui, rassemblĂ©s, forment des messages.

L'infiniBand est très utilisĂ© dans le monde du HPC (High Performance Computing) sous forme de cartes PCI-X ou PCI-Express nommĂ©es HCA (Host Channel Adapter) fonctionnant Ă  10 Gbit/s (SDR, Single Data Rate), 20 Gbit/s (DDR, Double Data Rate), 40 Gbit/s (QDR, Quad Data Rate), 56 Gbit/s (FDR, Fourteen Data Rate), 100 Gbit/s (EDR, Eighteen DataRate) ou 200 Gbit/s (HDR, High Data Rate). Ce rĂ©seau spĂ©cialisĂ© nĂ©cessite aussi l'utilisation de switchs (ou commutateurs) InfiniBand ainsi que de câbles cuivre de types CX4 ou QSFP, ou Fibre pour les longues distances.

Le protocole InfiniBand permet d'utiliser ces cartes de façon native en faisant usage de l'interface de programmation VERBS qui permet des écritures ou lectures à distance (RDMA) à travers des connexions entre Queue-Pair ouvertes par les différents processus. Il est également utilisable avec des surcouches logicielles :

  • IPoIB (IP sur InfiniBand) qui prĂ©sente une couche IP au-dessus de l'infiniband.
  • SDP (Sockets Direct Protocol) qui prĂ©sente une couche socket au-dessus de l'infiniband avec transferts zĂ©ro-copie par RDMA.
  • SRP (SCSI RDMA Protocol) qui permet d'encapsuler des trames SCSI Ă  travers l'infiniband. Certains constructeurs proposent des baies de stockage reliĂ©es en InfiniBand plutĂ´t qu'en Fibre Channel.

Ces surcouches offrent des performances inférieures au protocole natif, mais sont plus faciles à utiliser car elles ne nécessitent pas le redéveloppement des applications pour utiliser le réseau InfiniBand.

Dans le monde du HPC les bibliothèques MPI (Message Passing Interface) utilisent en général la couche native VERBS directement pour offrir les meilleures performances possibles. Mais la complexité des VERBS et leur adaptation imparfaite aux cartes InfiniBand de dernière génération a conduit le constructeur Mellanox a réimplementer MPI sur une autre interface, MXM (MellanoX Messaging). Certains concurrents de Mellanox dans le monde InfiniBand ont également développé des interfaces spécifiques à leur matériel. En particulier, Qlogic recommandait d'utiliser son interface spécifique PSM (Performance Scaled Messages) pour ses cartes TrueScale. Après le rachat de cette technologie par Intel, c'est désormais PSM2 qui est recommandé pour les cartes OmniPath (qui ont remplacé TrueScale). En conséquence, les VERBS sont de moins en moins utilisés.

À l'origine, chaque constructeur de matériel InfiniBand proposait son propre pilote. À l'heure actuelle, tous les constructeurs utilisent les pilotes OpenFabrics (présent de base dans les noyaux Linux depuis la version 2.6.11 en 2005 et dans la majorité des distributions GNU/Linux), qui supportent toutes les cartes InfiniBand. Cependant, Mellanox continue de distribuer sa propre version de la suite logicielle OpenFabrics (MOFED, Mellanox OpenFabrics Enterprise Edition) avec des pilotes un peu plus optimisés que ceux disponibles dans les distributions GNU/Linux.

Notes et références

  1. (en)Warring NGIO and Future I/O groups to merge., sur le site eetimes.com du 31 août 1999, consulté le 16 février 2016.
  2. Voir note en bas de page 1, sur le site psu.edu, consulté le 16 février 2016.

Voir aussi

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.