Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

L'expérience ATLAS au LHC a annoncé la découverte d'une nouvelle particule compatible avec le boson de Higgs du Modèle Standard, avec une masse de 126,0 GeV et une signification statistique de 5,9 écarts-types, en combinant les données de 2011 et 2012.

Voici une explication simple et imagée de ce document scientifique historique, qui raconte l'une des plus grandes découvertes de la physique moderne.…

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

L'expérience CMS au LHC a observé un excès d'événements correspondant à une nouvelle particule, probablement le boson de Higgs du modèle standard, avec une masse d'environ 125 GeV et une signification statistique de 5,0 écarts-types.

Voici une explication simple et imagée de ce document scientifique majeur, qui annonce la découverte du boson de Higgs par l'expérience CMS au CERN.…

The CMS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Le 14 septembre 2015, les détecteurs LIGO ont réalisé la première détection directe d'ondes gravitationnelles provenant de la fusion de deux trous noirs stellaires, confirmant ainsi la prédiction de la relativité générale et ouvrant une nouvelle ère pour l'astronomie.

Voici une explication de cette découverte historique, racontée comme une grande aventure cosmique, en français simple et imagé.…

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

En utilisant le réseau de télescopes Event Horizon Telescope, les chercheurs ont obtenu la première image directe de l'ombre du trou noir supermassif au centre de la galaxie M87, confirmant ainsi les prédictions de la relativité générale et permettant de mesurer sa masse avec une précision inédite.

Voici une explication simple et imagée de cette découverte historique, racontée comme une grande aventure astronomique.…

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Attention Is All You Need

Les auteurs proposent le Transformer, une nouvelle architecture de réseau basée uniquement sur des mécanismes d'attention qui remplace les modèles récurrents et convolutifs, offrant ainsi de meilleures performances en traduction automatique avec un temps d'entraînement considérablement réduit.

Voici une explication du célèbre article **"Attention Is All You Need"** (L'attention est tout ce dont vous avez besoin), écrite en français simple, avec des images pour rendre les concepts techniques plus vivants.…

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Deep Residual Learning for Image Recognition

Ce papier présente un cadre d'apprentissage résiduel qui facilite l'entraînement de réseaux de neurones extrêmement profonds, permettant d'atteindre des performances record sur les tâches de reconnaissance visuelle comme ImageNet et COCO.

Voici une explication simple et imagée de l'article révolutionnaire **"Deep Residual Learning for Image Recognition"** (Apprentissage par résidus pour la reconnaissance d'images), écrit par Kaiming He et son équipe chez Microsoft.…

Kaiming He, Xiangyu Zhang, Shaoqing Ren + 1 more2015-12-10👁️ cs.CV

Generative Adversarial Networks

Ce papier propose un nouveau cadre d'estimation de modèles génératifs basé sur un processus adversarial où un modèle générateur et un modèle discriminateur sont entraînés simultanément via un jeu minimax, permettant de générer des échantillons réalistes sans recourir à des chaînes de Markov ou à des réseaux d'inférence approchée.

Voici une explication simple et imagée de l'article fondateur sur les **Réseaux Antagonistes Génératifs (GANs)** de Ian Goodfellow et son équipe.…

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza + 5 more2014-06-10📊 stat.ML

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Ce papier présente BERT, un modèle de représentation linguistique bidirectionnelle pré-entraîné sur du texte non étiqueté qui, grâce à un simple réglage fin, atteint des performances de pointe sur une large gamme de tâches de traitement du langage naturel.

Imaginez que vous essayez d'apprendre à parler une langue étrangère, disons le français, mais avec une méthode très étrange.…

Jacob Devlin, Ming-Wei Chang, Kenton Lee + 1 more2018-10-11💬 cs.CL

Denoising Diffusion Probabilistic Models

Cette présentation de modèles de diffusion probabilistes pour la synthèse d'images atteint des performances de pointe sur CIFAR10 et LSUN en s'appuyant sur une nouvelle connexion théorique entre ces modèles et le score matching avec dynamique de Langevin.

Voici une explication simple et imagée de l'article sur les **Modèles Diffusionnels Probabilistes** (Denoising Diffusion Probabilistic Models), écrite en français pour un public général.…

Jonathan Ho, Ajay Jain, Pieter Abbeel2020-06-19🤖 cs.LG

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Ce papier introduit la normalisation par lots, une technique qui accélère considérablement l'entraînement des réseaux de neurones profonds en réduisant le décalage de covariance interne, permettant ainsi d'utiliser des taux d'apprentissage plus élevés et d'atteindre des performances de classification supérieures à celles des humains sur ImageNet.

Voici une explication de l'article de recherche sur la **Normalisation par Lots (Batch Normalization)**, racontée comme une histoire simple avec des analogies du quotidien.…

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Auto-Encoding Variational Bayes

Cet article présente un algorithme d'inférence variationnelle stochastique scalable, basé sur une reparamétrisation du bound inférieur et un modèle d'inférence approximative, permettant un apprentissage efficace de modèles probabilistes dirigés avec des variables latentes continues et des ensembles de données massifs.

Imaginez que vous essayez de comprendre comment un artiste peintre crée ses tableaux, mais vous n'avez jamais vu le processus en action.…

Diederik P Kingma, Max Welling2013-12-20📊 stat.ML

Scaling Laws for Neural Language Models

Cette étude établit des lois d'échelle empiriques montrant que la performance des modèles de langage suit une loi de puissance par rapport à leur taille, la taille des données et le calcul, révélant qu'il est optimal d'entraîner des modèles très grands sur des quantités de données modérées en s'arrêtant bien avant la convergence pour maximiser l'efficacité.

Voici une explication de l'article **"Scaling Laws for Neural Language Models"** (Lois d'échelle pour les modèles de langage neuronaux), imagée et simplifiée pour le grand public.…

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

L'article présente la méthode de « dropout », qui consiste à omettre aléatoirement des neurones durant l'entraînement pour prévenir la co-adaptation des détecteurs de caractéristiques et ainsi réduire le surapprentissage, améliorant considérablement les performances de reconnaissance sur divers benchmarks.

Voici une explication de ce papier révolutionnaire, imagée et simplifiée, pour comprendre comment les chercheurs ont appris aux ordinateurs à mieux "apprendre".…

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky + 2 more2012-07-03💻 cs.NE