Automated Tensor-Relational Decomposition for Large-Scale Sparse Tensor Computation

Cet article présente \texttt{EinSum}, une extension de la notation d'Einstein pour les calculs tensoriels relationnels, permettant de réécrire automatiquement les calculs afin d'exécuter les parties intensives via des noyaux numériques optimisés tout en gérant la grande sparsité des données par des systèmes relationnels.

Yuxin Tang, Zhiyuan Xin, Zhimin Ding, Xinyu Yao, Daniel Bourgeois, Tirthak Patel, Chris JermaineWed, 11 Ma🤖 cs.AI

Accelerating High-Order Finite Element Simulations at Extreme Scale with FP64 Tensor Cores

Ce papier présente la première utilisation des cœurs tensoriels FP64 des GPU NVIDIA, combinée à des optimisations de fusion de noyaux, pour accélérer significativement les simulations d'éléments finis d'ordre élevé à l'échelle exascale, offrant jusqu'à un doublement des performances et des gains d'efficacité énergétique de 83 % sur les architectures Grace Hopper et Grace Blackwell.

Jiqun Tu, Ian Karlin, John Camier, Veselin Dobrev, Tzanio Kolev, Stefan Henneking, Omar GhattasWed, 11 Ma💻 cs

A Lock-Free, Fully GPU-Resident Architecture for the Verification of Goldbach's Conjecture

Cet article présente une architecture entièrement résidente sur GPU et sans verrou qui, grâce à une migration complète du pipeline de génération de segments et à un mécanisme de vol de travail asynchrone, permet de vérifier la conjecture de Goldbach jusqu'à 10¹³ en seulement 133,5 secondes sur un cluster de quatre GPU, réalisant ainsi une accélération algorithmique de 45,6 fois par rapport aux méthodes précédentes.

Isaac Llorente-SaguerTue, 10 Ma🔢 math