High Performance Computing n°18 15 mar 2016
High Performance Computing n°18 15 mar 2016
  • Prix facial : gratuit

  • Parution : n°18 de 15 mar 2016

  • Périodicité : bimensuel

  • Editeur : HPC Media

  • Format : (271 x 361) mm

  • Nombre de pages : 80

  • Taille du fichier PDF : 8,6 Mo

  • Dans ce numéro : HPC et entreprise, un mariage de raison pour bosster la croissance.

  • Prix de vente (PDF) : gratuit

Dans ce numéro...
< Pages précédentes
Pages : 16 - 17  |  Aller à la page   OK
Pages suivantes >
16 17
newsfeed interview de traiter un milliard d’opérations en parallèle pour chaque cycle horloge, et nous devrons être en mesure de doubler ce chiffre pour atteindre l’Exascale. Comment voyez-vous évoluer l’architecture mémoire des supercalculateurs ? Une autre tendance que nous constatons est l’évolution vers une hiérarchie de mémoire parallélisée, avec plusieurs threads et plusieurs nœuds, ce qui se traduit par une triple hiérarchie à gérer pour les programmeurs. Et ce n’est pas fini, puisque nous ajoutons des niveaux supplémentaires à la hiérarchie mémoire pour gagner en performances. Au fil du temps, les processeurs ont embarqué de la mémoire cache. Et à présent, ce sont plusieurs niveaux de cache qui coexistent. Le cache le plus rapide est sur le même circuit intégré que le processeur lui-même. Le second niveau est habituellement logé sur la carte-mère et nous prévoyons l’arrivée d’un nouveau type de mémoire HIC REVIEW En matière de performances et de consommation énergétique, l’architecture Armn’est pas supérieure à l’architecture x86. Au départ conçus pour les appareils mobiles, les processeurs Armsont intrinsèquement plus efficaces d’un point de vue consommation. Cependant, les processeurs Armde classe serveur consomment à peu près autant que les processeurs x86. cache empilée à trois dimensions, laquelle autorisera une bande passante très élevée et qui devrait être disponible cette année. Ces nouveaux niveaux de mémoire permettront d’améliorer significativement la bande passante mémoire tout en réduisant considérablement la consommation d’énergie. Un autre type de mémoire qui pourrait entrer à moyen terme dans cette hiérarchie est la mémoire non volatile 3D Xpoint, alias Optane annoncée par Intel et Micron. Cependant, d’autres technologies devraient arriver comme la ReRAM, qui offrira une rapport capacité/coût moins coûteux que les barrettes DIMM actuelles, au prix d’un léger perte de performance. L’évolution de cette hiérarchie mémoire est extrêmement difficile à gérer pour le programmeur système. La différence se fera sur la latence et la bande passante dans ce modèle de mémoire vertical, et sur la façon dont les données seront déplacées entre les différentes couches. C’est un domaine tellement nouveau quenous n’avons pas encore beaucoup d’expérience en la matière, et c’est donc une grande opportu-
newsfeed interview HIC nité pour les programmeurs. Le plus grand défi est où et comment déplacer les données. Obtenir ce droit aura un impact majeur sur la performance, parce que la capacité est encore limitée. Ainsi, les développeurs devront savoir comment trancher le problème afin d’avoir une partie non négligeable de code exécuté dans la mémoire. Y at-il une différence de performance entre les ARM et les architectures x86 ? En matière de performances et de consommation énergétique, l’architecture Armn’est pas supérieure à l’architecture x86. Au départ conçus pour les appareils mobiles, les processeurs Armsont intrinsèquement plus efficaces d’un point de vue consommation. Cependant, les processeurs Armde classe serveur consomment à peu près autant que les processeurs x86. Voyez-vous l’usage des GPU croître dans les prochaines années ? REVIEW Les GPU vont certainement continuer à jouer un rôle, mais la majorité des cas d’utilisation ne tire pas pleinement parti d’eux, bien qu’ils soient de plus en plus performants et efficaces. Nvidia a rendu les GPU plus facile à utiliser et à programmer avec CUDA, qui est un modèle de programmation différent, mais que certains programmeurs répugnent à apprendre et/ou à utiliser. Dans les années à venir, je pense que les GPU vont peut-être légèrement étendre leur présence dans le HPC, mais leur usage ne devrait pas croître significativement. Le principal avantage est qu’ils permettent d’accélérer grandement des parties spécifiques de code, selon le cas. La plupart des traitements lourds continueront cependant à être effectués par le CPU, puisque la loi de Moore est toujours en vigueur. Nos tests préliminaires avec prochain Xeon Phi d’Intel Knight’s Landing sont très positifs, et nous avons d’ores et déjà vendu quelques grands systèmes basés sur ce processeur. Comment voyez-vous évoluer les technologies d’interconnexion ? La performance des interconnexion entre les différents nœuds et sous-systèmes est déterminante pour permettra à un supercalculateur d’atteindre une performance opérationnelle optimale. Cray a lancé une topologie de réseau appelée Dragonfly, qui permet à deux noeuds de communiquer à travers quelques sauts d’un noeud à un autre. Cette topologie est très tolérante avec le placement physique et utilise un mélange de signalisation optique et électrique. Il est très bien adapté l’interconnexion de centaines de racks et de processeurs. Notre topologie Dragonfly rend le réseau à la fois performant et rentable. La technologie réseau Omni Path 2 d’Intel utilisera également un mélange de connectique optique et de câble. En termes d’évolution, il y aura probablement une autre itération nécessaire du côté des technologies d’interconnexion afin d’atteindre la capacité Exascale. Cray a travaillé avec l’Argonne National Laboratory sur le supercalculateur Aurora, qui, sur l’appel d’offres Coral utilisera Omni Path 2 en 2018 lors de la prochaine évolution du supercalculateur. Nous pensons que l’état de l’architecture du système devrait permettre d’atteindre l’Exascale dès 2018-2019. Cependant, avant que les technologies sortent des laboratoires de R & D, de nouveaux sous-systèmes devront être mis en place ce qui ne permettra pas de lancer des systèmes complets de classe Exascale avant 2023 selon les prévisions du gouvernement des États-Unis. La raison principale est que même s’il et fonctionnel à petite échelle dès 2020, les premiers systèmes Exascale seront très coûteux et gourmands en énergie. Côté processeurs, nous devrons également



Autres parutions de ce magazine  voir tous les numéros


Liens vers cette page
Couverture seule :


Couverture avec texte parution au-dessus :


Couverture avec texte parution en dessous :


High Performance Computing numéro 18 15 mar 2016 Page 1High Performance Computing numéro 18 15 mar 2016 Page 2-3High Performance Computing numéro 18 15 mar 2016 Page 4-5High Performance Computing numéro 18 15 mar 2016 Page 6-7High Performance Computing numéro 18 15 mar 2016 Page 8-9High Performance Computing numéro 18 15 mar 2016 Page 10-11High Performance Computing numéro 18 15 mar 2016 Page 12-13High Performance Computing numéro 18 15 mar 2016 Page 14-15High Performance Computing numéro 18 15 mar 2016 Page 16-17High Performance Computing numéro 18 15 mar 2016 Page 18-19High Performance Computing numéro 18 15 mar 2016 Page 20-21High Performance Computing numéro 18 15 mar 2016 Page 22-23High Performance Computing numéro 18 15 mar 2016 Page 24-25High Performance Computing numéro 18 15 mar 2016 Page 26-27High Performance Computing numéro 18 15 mar 2016 Page 28-29High Performance Computing numéro 18 15 mar 2016 Page 30-31High Performance Computing numéro 18 15 mar 2016 Page 32-33High Performance Computing numéro 18 15 mar 2016 Page 34-35High Performance Computing numéro 18 15 mar 2016 Page 36-37High Performance Computing numéro 18 15 mar 2016 Page 38-39High Performance Computing numéro 18 15 mar 2016 Page 40-41High Performance Computing numéro 18 15 mar 2016 Page 42-43High Performance Computing numéro 18 15 mar 2016 Page 44-45High Performance Computing numéro 18 15 mar 2016 Page 46-47High Performance Computing numéro 18 15 mar 2016 Page 48-49High Performance Computing numéro 18 15 mar 2016 Page 50-51High Performance Computing numéro 18 15 mar 2016 Page 52-53High Performance Computing numéro 18 15 mar 2016 Page 54-55High Performance Computing numéro 18 15 mar 2016 Page 56-57High Performance Computing numéro 18 15 mar 2016 Page 58-59High Performance Computing numéro 18 15 mar 2016 Page 60-61High Performance Computing numéro 18 15 mar 2016 Page 62-63High Performance Computing numéro 18 15 mar 2016 Page 64-65High Performance Computing numéro 18 15 mar 2016 Page 66-67High Performance Computing numéro 18 15 mar 2016 Page 68-69High Performance Computing numéro 18 15 mar 2016 Page 70-71High Performance Computing numéro 18 15 mar 2016 Page 72-73High Performance Computing numéro 18 15 mar 2016 Page 74-75High Performance Computing numéro 18 15 mar 2016 Page 76-77High Performance Computing numéro 18 15 mar 2016 Page 78-79High Performance Computing numéro 18 15 mar 2016 Page 80