Nvidia pousse son avantage en intelligence artificielle. L’Américain vient de présenter officiellement la plateforme HGX H200, basée sur l’architecture Hopper et combinant les cœurs GPU Tensor H200 et, pour la première fois, une mémoire HBM3e. Grâce à ces 141Go de mémoire à très large bande passante, le H200 délivre 4,8To/s, deux fois plus que son prédécesseur, l’A100. Le H200 sera disponible sur des cartes HGX pour serveurs à quatre et huit voies, et, associé à une mémoire HBM3e sur le module Grace Hopper GH200. Une carte HGX H200 à huit voies délivre une puissance de calcul de 32Pflops au format FP8 et une bande passante de 1,1To. Les premiers systèmes en bénéficiant devraient être commercialisés au deuxième trimestre 2024.
Dans la même rubrique
Le 03/05/2024 à 9:29 par Christelle Erémian
PSMC a inauguré sa nouvelle usine à Taïwan
PSMC a inauguré hier sa nouvelle usine située à Taïwan, dans le parc scientifique de Miaoli Tongluo près de Hsinchu.…
Le 03/05/2024 à 8:43 par Frédéric Rémond
Microchip durcit ses FPGA PolarFire à cœurs RISC-V
Pour répondre aux besoins des applications spatiales soumises aux radiations, Microchip Technology proposait déjà ses FPGA PolarFire RT. L'Américain va…
Le 03/05/2024 à 8:35 par Frédéric Rémond
CUI Devices multiplie les dissipateurs BGA
L'Américain CUI Devices vient d'étendre son catalogue de dissipateurs thermiques pour boîtiers BGA en présentant la famille HSB. Ces modèles…
Le 02/05/2024 à 9:57 par Christelle Erémian
SK hynix annonce que sa production 2025 de mémoires HBM est déjà réservée
Lors d’une conférence de presse qui s’est tenue aujourd’hui en Corée, le fabricant SK hynix a fait le point sur…