Accueil🇫🇷Chercher

Microprocesseur multi-cœur

Un microprocesseur multi-cœur (multi-core en anglais) est un microprocesseur possédant plusieurs cœurs physiques fonctionnant simultanément. Il se distingue d'architectures plus anciennes (360/91) où un processeur unique commandait plusieurs circuits de calcul simultanés.

Un processeur quad-core AMD Opteron.
L’Intel Core 2 Duo E6300 est un processeur double cœur.

Un cœur (en anglais, core) est un ensemble de circuits capables d’exécuter des programmes de façon autonome. Toutes les fonctionnalités nécessaires à l’exécution d'un programme sont présentes dans ces cœurs : compteur ordinal, registres, unités de calcul, etc. Il peut exister plusieurs niveaux de mémoires cache, certaines à l'intérieur de chaque cœur, d'autre partagées entre certains, ou tous les cœurs.

Histoire

Origines

Le terme « multi-cœur » est employé pour décrire un processeur composé d’au moins deux cœurs (ou unités de calcul) gravés au sein de la même puce.

On doit Ă  IBM le premier processeur multi-cĹ“ur Ă  avoir Ă©tĂ© commercialisĂ© : il s'agit du POWER4, en 2001. En 2003, Sun lance l’UltraSPARC IV composĂ© de 2 cĹ“urs UltraSPARC III. En 2004, HP lance le PA-8800 composĂ© de 2 cĹ“urs PA-8700.

Les premiers exemplaires de processeurs multi-cœurs d’Intel et d’AMD sont arrivés sur le marché des ordinateurs personnels en 2005[1]. Il s’agissait de cœurs homogènes, c’est-à-dire identiques. Le cas de cœurs différents et spécialisés dans des domaines bien précis (audio, affichage, calcul pur, etc) a été exploité pour le processeur Cell conçu par IBM, Sony et Toshiba. Ce type d’architecture permet d’augmenter la puissance de calcul sans augmenter la fréquence d’horloge, et donc de réduire la quantité de chaleur dissipée par effet Joule (comme pour les systèmes multiprocesseurs).

Les premières puces double cĹ“ur basĂ©es sur l’architecture x86 sont apparues en 2005 sur le marchĂ© des serveurs (Opterons d’AMD). Elles sont apparues parce qu’en pratique la course au GHz devenait onĂ©reuse et compliquĂ©e. La gĂ©nĂ©ration de processeurs de cette Ă©poque ne possĂ©dait qu’un seul cĹ“ur et avait une consommation qui pouvait dĂ©passer largement les 100 W (notamment sur les processeurs Intel Pentium 4). Elle devait donc faire face Ă  de graves problèmes de refroidissement des circuits[2]. La solution qui a semblĂ© la plus Ă©vidente a Ă©tĂ© de privilĂ©gier non plus la frĂ©quence, mais d'accroĂ®tre la puissance grâce Ă  une architecture parallèle, de façon Ă  pouvoir augmenter le nombre d’opĂ©rations exĂ©cutĂ©es simultanĂ©ment en un cycle d’horloge.

Évolution de la technologie

Depuis le lancement du premier ordinateur sur le marché, les demandes en capacité de calcul sont devenues de plus en plus importantes. Le multitraitement symétrique (SMP) a longtemps été utilisé pour améliorer les performances et l’efficacité informatiques en répartissant les charges sur plusieurs processeurs. Le SMP est particulièrement efficace dans les environnements multiprocessus où plusieurs tâches (processus) doivent être gérées simultanément.

Avec l’évolution des demandes de performances applicatives, les concepteurs de processeurs sont confrontés à un problème : L’augmentation des capacités informatiques est tributaire de la puissance, et le fait d’augmenter la puissance nécessite de gérer aussi les niveaux de dissipation. À cela s’ajoutent les demandes des industriels qui souhaitent des ordinateurs moins encombrants, à savoir plus de serveurs par baie, des ordinateurs portables plus fins et plus légers, et un encombrement réduit pour les systèmes de bureau. Le traitement multicœur contribue à relever ces défis. Cette évolution technologique augmente les performances et la productivité dans des ordinateurs de plus petite taille capables d’exécuter simultanément plusieurs applications complexes et de réaliser davantage de tâches en moins de temps.

Un langage comme Go permet de concevoir des programmes qui fonctionneront sans réécriture sur un nombre quelconque de cœurs.

Processeurs multicœurs existants

Il existe actuellement plusieurs architectures de processeurs multi-cœurs. Outre les modèles d’Intel et AMD déjà cités, Sun Microsystems a développé sa gamme Niagara et Niagara II ; IBM a développé sa gamme de PowerPC et sa ligne CellBE, commercialisée par IBM sous forme de serveur lame, par Mercury sous forme de châssis renforcé. Le tout premier processeur double cœur pour smartphone lancé par Nvidia fut le Tegra 2 lancé en 2011.

L’industrie cherche dans le même temps à multiplier le nombre de cœurs présents sur un processeur, par exemple Intel dans son projet Tera-Scale.

En février 2020, lors de la conférence internationale des circuits à semi-conducteurs de San Francisco, le Laboratoire d'électronique et de technologie de l'information y présente un processeur à 96 cœurs[3] - [4].

Partage des caches

Caches dédiés.

Tout processeur actuel contient des mémoires caches, qui rendent les accès à la mémoire plus rapides. Sur les processeurs multicœurs, l'organisation de ces mémoires caches est adaptée à la présence de plusieurs cœurs. Deux grandes organisations de base sont utilisées : celle à base de caches dédiés à chaque cœur, et celle à base de caches partagés.

Dans le cas des caches dédiés, chaque cœur possède son propre cache, que lui seul peut utiliser. On trouve donc un cache pour chaque cœur.

Caches partagés.

Avec les caches partagés, la mémoire cache est partagée entre tous les processeurs, qui peuvent y accéder de façon concurrente.

Avantages et inconvénients des caches dédiés

L'organisation à base de caches dédiés a quelques avantages :

  • Un programme qui s’exĂ©cute sur un cĹ“ur ne va pas polluer le cache d'un autre processeur : deux programmes exĂ©cutĂ©s sur des cĹ“urs diffĂ©rents n’interfèrent pas ;
  • Le temps d'accès Ă  un cache dĂ©diĂ© est souvent plus faible que celle d'un cache partagĂ©. Il faut dire que les caches dĂ©diĂ©s sont souvent d'une taille assez faible comparĂ© Ă  un gros cache partagĂ©, conçu pour rĂ©pondre aux besoins de plusieurs cĹ“urs.

Avantages et inconvénients des caches partagés

Mais l'organisation à base de caches partagés a aussi des avantages :

  • Deux programmes peuvent se partager le cache dynamiquement : ils peuvent ainsi se rĂ©partir l'occupation du cache d'une manière bien plus souple que ce qui est permis avec un cache dĂ©diĂ© ;
  • L’implĂ©mentation de mĂ©canismes de cohĂ©rence des caches est facilitĂ©e ;
  • Elle Ă©vite de rĂ©pliquer des donnĂ©es partagĂ©es entre plusieurs threads. Avec l'organisation en caches dĂ©diĂ©s, une donnĂ©e utilisĂ©e par deux threads lancĂ©s sur deux cĹ“urs diffĂ©rents doit ĂŞtre prĂ©sente dans chacun des caches dĂ©diĂ©s. Avec un cache partagĂ©, la donnĂ©e est prĂ©sente en une seule fois dans le cache partagĂ©.

Toutefois, quelques inconvénients des caches partagés sont à signaler :

  • Un cache partagĂ© doit avoir une bande passante suffisante pour alimenter plusieurs cĹ“urs, ce qui se fait souvent au dĂ©triment de sa latence ;
  • Un cache partagĂ© doit pouvoir permettre Ă  plusieurs cĹ“urs d’accĂ©der Ă  des donnĂ©es diffĂ©rentes dans le cache simultanĂ©ment, afin d'Ă©viter de mettre un cĹ“ur en attente pendant un accès au cache. ConsĂ©quence : ces caches sont des mĂ©moires multiports, ce qui a un impact sur leur consommation Ă©nergĂ©tique, leur latence, et leur dĂ©bit binaire ;
  • Leur grande taille a un impact nĂ©gatif sur leur latence et leur consommation Ă©nergĂ©tique ;
  • Plusieurs programmes peuvent se marcher sur les pieds dans leur rĂ©partition de la mĂ©moire cache. Ce phĂ©nomène est rare, mais pas impossible.

Dans la réalité, compte tenu de ces contraintes, tous les caches du processeur ne sont pas partagés. Ceux qui ont besoin d'une faible latence (cache L1) sont des caches dédiés, tandis que les autres sont partagés (L2, L3).

Atouts

Avant l’apparition des processeurs multicœurs, les constructeurs de processeurs augmentaient la puissance de leurs produits en élevant la fréquence de calcul de leurs processeurs monocœurs. Mais cette méthode a fini par atteindre ses limites. En effet, l'augmentation de fréquence d’un processeur cause rapidement des problèmes de surchauffe, le refroidissement à air (ventilateur) n'étant plus suffisant. Pour lutter contre cette surchauffe, il faut passer à un refroidissement par eau délicat et onéreux, ou bien passer à des ventilations de plus grande taille et vitesse, créatrices de nuisances sonores. D'autre part le besoin croissant en énergie des microprocesseurs était problématique notamment pour les ordinateurs portables.

L'autre problème est la vitesse de propagation des signaux ainsi que leur fréquence de fonctionnement, limitée respectivement par la vitesse de la lumière et par les effets de bord à haute fréquence (le bruit et le signal commençant à se mêler). Les processeurs monocœurs les plus puissants utilisés dans les ordinateurs de grande distribution ont des fréquences ne dépassant pas en général, les 3 à GHz, car au-delà la température devient trop importante. Dans les salons de technologie, des processeurs sont sur-cadencés grâce au refroidissement à l'azote liquide (température négative).

C’est pour contourner cette limite que les constructeurs se sont tournés vers la fragmentation des puces. Il existait déjà des ordinateurs fonctionnant avec plusieurs processeurs distincts (par exemple, les supercalculateurs). L’idée ici est de reproduire ce parallélisme au sein d’un unique processeur : en bref, introduire plusieurs unités de calcul dans un même processeur. Le principe est simple : plutôt que d’avoir un processeur « simple » à fréquence élevée, on utilise par exemple deux cœurs, de fréquence moitié moindre. On obtient alors un processeur théoriquement de même puissance, mais de fréquence d’horloge plus basse, et de consommation électrique réduite. Le processeur ne rencontre pas les problèmes d’alimentation et de surchauffe de son homologue monocœur : la puissance dissipée double quand on double les cœurs, alors qu'elle serait quadruplée si on doublait la fréquence d'horloge.

En plus de ces avantages purement techniques, il s’avère que ces microprocesseurs sont également bien plus efficaces dans le traitement multitâche. Sur les systèmes mono-cœurs, le système d'exploitation change régulièrement le programme en cours d’exécution pour passer d'un programme à un autre. Ces changements sont très rapides, et ne sont donc pas visibles par l’utilisateur, qui a l'impression que plusieurs programmes s’exécutent en même temps. Sur les systèmes multi-cœurs, si plusieurs applications sont exécutées simultanément sur l’ordinateur, celui-ci peut dès lors répartir ce travail entre les cœurs de processeurs, plutôt que d’effectuer les opérations en alternance sur un seul processeur.

La notion d'affinité processeur (processor affinity) permet de lier une application ou la gestion d'un périphérique à un cœur donné pour obtenir une meilleure réactivité (clavier, souris...). Cela permet de limiter des ralentissements d'exécution dû à un trop grand nombre de migration d'une tâche entre les cœurs, qui implique des reprises de contextes d'exécution coûteux en temps d'accès mémoire.

Contraintes logicielles

Malheureusement, cette approche comporte quelques désavantages, puisque les programmes doivent être repensés pour pouvoir exploiter pleinement les caractéristiques de ces processeurs. En effet, les composants d’un processeur multicœur ont une puissance individuelle inférieure à celle d’un processeur monocœur classique ; un logiciel non adapté au multicœur et qui ne saura donc effectuer ses différents calculs qu’à l’aide d’un seul des cœurs du processeur sera par conséquent exécuté à une vitesse moindre.

En 2006, très peu de logiciels gèrent le bi-cœurs, et globalement les logiciels ne sont pas conçus pour tirer le maximum de cette technologie (excepté dans le monde GNU/Linux où les applications sont portées en très grande majorité — près de 99,8 % — sous plusieurs types d’architectures). Une fois effectuée une mise à niveau de tous les programmes vers la nouvelle architecture, les performances se sont nettement améliorées dans les applications gourmandes telles que les jeux vidéo.

Ces mises à jour touchent également les systèmes d’exploitation, qui peuvent diviser par eux-mêmes les calculs effectués par les logiciels qu’ils exécutent. La technique multicœur est alors utilisable même avec des logiciels non adaptés à ce type de traitement, cette utilisation étant cependant moins performante que si le logiciel indique lui-même comment doivent se diviser les calculs. De telles adaptations sont nécessaires à chaque augmentation du nombre de cœurs dans les processeurs. Ce n’est que lorsque celles-ci ont été effectuées que les nouveaux processeurs peuvent être exploités à plein potentiel.

L'industrie des télécommunications a été l’un des premiers à adopter les processeurs multi-cœurs, aussi bien pour la couche d’acheminement des données que pour la couche de commande. Depuis, ces MPU sont en train de remplacer rapidement les processeurs réseaux (NP) qui étaient basés sur des architectures privées à base de microcode et de picocode. 6WIND (en) a été la première société à fournir du logiciel réseau embarqué optimisé pour ces architectures multi-cœurs.

La programmation parallèle bénéficie également du passage à plusieurs cœurs. Des modèles de programmation comme OpenMP, MPI ou OpenHMPP peuvent être utilisés sur ces plates-formes multi-cœurs. D’autres efforts de recherche sont également menés, par exemple le système Sieve de l'éditeur Codeplay (en), les langages Chapel de Cray, Fortress de Sun et X10 d’IBM.

Exemples commerciaux

  • (en) 6WINDGate. Plan donnĂ© et plan de contrĂ´le embarquĂ© parallèle de 6WIND pour les processeurs rĂ©seaux multi-cĹ“urs
  • (fr) National Instruments. Tutoriel sur les principes fondamentaux de la programmation multi-cĹ“ur

Notes et références

  1. Intel présente son premier dual core cette semaine, article rédigé le 7 février 2005.
  2. Pourquoi Intel et AMD se convertissent aux puces double cœur.
  3. « Le CEA-Leti présente un processeur à 96 cœurs ! », sur www.tomshardware.fr, (consulté le )
  4. (en) « 96-Core Processor Made of Chiplets », sur spectrum.ieee.org, (consulté le )

Voir aussi

Article connexe

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.