Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

Il documento presenta l'osservazione, con una significatività statistica di 5.9 deviazioni standard, di una nuova particella neutra con massa di 126,0 GeV, compatibile con il bosone di Higgs del Modello Standard, ottenuta dall'analisi combinata dei dati raccolti dal rivelatore ATLAS al Large Hadron Collider nel 2011 e nel 2012.

Ecco una spiegazione semplice e creativa di questo storico documento scientifico, pensata per chiunque, anche senza un background in fisica.…

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

L'esperimento CMS al LHC ha osservato, con una significatività statistica di 5.0 deviazioni standard, un nuovo bosone con una massa di circa 125 GeV, prodotto nelle collisioni protone-protone e rilevato principalmente attraverso i canali di decadimento in due fotoni e in due bosoni Z.

Ecco una spiegazione semplice e creativa di questo documento storico, pensata per chiunque voglia capire cosa è successo senza dover essere un fisico.…

The CMS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Il 14 settembre 2015, i rivelatori LIGO hanno osservato per la prima volta direttamente le onde gravitazionali generate dalla fusione di un sistema binario di buchi neri, confermando le previsioni della relatività generale e dimostrando l'esistenza di tali sistemi stellari.

Ecco una spiegazione semplice e creativa della scoperta storica descritta in questo documento, pensata per chiunque, anche senza un background scientifico.…

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Il primo articolo sui risultati dell'Event Horizon Telescope presenta l'immagine diretta dell'ombra del buco nero supermassiccio al centro della galassia M87, ottenuta tramite interferometria a lunghissima base a 1,3 mm, che conferma le previsioni della relatività generale e permette di stimarne la massa in circa 6,5 miliardi di masse solari.

Immagina di voler fotografare un fantasma.…

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Deep Residual Learning for Image Recognition

Questo paper introduce un framework di apprendimento residuo che facilita l'addestramento di reti neurali estremamente profonde, ottenendo risultati record nel 2015 su ImageNet e COCO grazie alla capacità di migliorare l'accuratezza all'aumentare della profondità del modello.

Ecco una spiegazione del famoso articolo "Deep Residual Learning for Image Recognition" (che ha dato vita alle **ResNet**), raccontata in italiano semplice, con l'aiuto di qualche metafora creativa.…

Kaiming He, Xiangyu Zhang, Shaoqing Ren + 1 more2015-12-10👁️ cs.CV

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Il paper introduce BERT, un nuovo modello di rappresentazione linguistica basato su trasformatori bidirezionali pre-addestrati su testo non etichettato che, grazie alla semplice sintonizzazione fine con un solo strato aggiuntivo, raggiunge risultati all'avanguardia in undici compiti di elaborazione del linguaggio naturale.

Immagina di dover insegnare a un robot a capire l'italiano.…

Jacob Devlin, Ming-Wei Chang, Kenton Lee + 1 more2018-10-11💬 cs.CL

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Il paper introduce la Batch Normalization, una tecnica che accelera l'addestramento delle reti neurali profonde riducendo lo spostamento interno della covariata attraverso la normalizzazione degli input di ogni layer, permettendo l'uso di tassi di apprendimento più elevati, migliorando la regolarizzazione e raggiungendo risultati di classificazione su ImageNet superiori a quelli umani.

Ecco una spiegazione semplice e creativa del paper "Batch Normalization", pensata per chiunque, anche senza un background tecnico.…

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Auto-Encoding Variational Bayes

Questo articolo introduce un algoritmo di inferenza variazionale stocastica basato su un ricalcolo del limite inferiore che, sfruttando un modello di riconoscimento e metodi di discesa del gradiente stocastico, permette un'apprendimento efficiente su grandi dataset e in presenza di variabili latenti continue con distribuzioni posteriori intrattabili.

Immagina di essere un detective che deve risolvere un caso misterioso.…

Diederik P Kingma, Max Welling2013-12-20📊 stat.ML

Scaling Laws for Neural Language Models

Il paper stabilisce leggi empiriche secondo cui le prestazioni dei modelli linguistici seguono una legge di potenza rispetto a dimensioni del modello, dataset e calcolo, dimostrando che l'allocazione ottimale delle risorse computazionali prevede l'addestramento di modelli molto grandi su dataset relativamente piccoli e l'arresto dell'addestramento ben prima della convergenza.

Ecco una spiegazione semplice e creativa del paper "Scaling Laws for Neural Language Models", pensata per chiunque voglia capire come funzionano i grandi modelli di intelligenza artificiale senza impantanarsi nelle formule matematiche.…

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

Il paper dimostra che l'uso della tecnica di "dropout", che consiste nell'omettere casualmente metà dei rilevatori di caratteristiche durante l'addestramento, riduce drasticamente l'overfitting prevenendo le co-adattazioni complesse e migliorando significativamente le prestazioni su compiti di riconoscimento vocale e di oggetti.

Ecco una spiegazione semplice e creativa del paper "Improving neural networks by preventing co-adaptation of feature detectors" (Migliorare le reti neurali prevenendo la co-adattamento dei rilevatori di caratteristiche), scritta in italiano.…

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky + 2 more2012-07-03💻 cs.NE