Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

Het ATLAS-experiment bij de LHC heeft in proton-protonbotsingen duidelijke aanwijzingen gevonden voor de productie van een nieuw neutraal boson met een massa van ongeveer 126 GeV, wat compatibel is met het Standard Model Higgs-boson.

**De Grote Deeltjeshunt: Hoe ATLAS het "Heilige Graal"-deeltje vond** Stel je voor dat het heelal een gigantisch, onzichtbaar web is, een soort lijm die alles bij elkaar houdt.…

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Op 14 september 2015 detecteerde LIGO voor het eerst direct zwaartekrachtgolven veroorzaakt door de samensmelting van twee sterrenmassa-zwarte gaten, wat de existentie van dergelijke systemen bevestigt en een directe observatie van een binair zwart gat-gebeurtenis oplevert.

**De Grote Ontdekking: Een Rimpeling in de Tekenrol van het Heelal** Stel je voor dat het heelal een gigantisch, onzichtbaar trampolinezeil is.…

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Het Event Horizon Telescope-team heeft voor het eerst de schaduw van het supermassieve zwarte gat in het centrum van het sterrenstelsel M87 afgebeeld, waarbij de waarnemingen de voorspellingen van de algemene relativiteitstheorie bevestigen en een massa van ongeveer 6,5 miljard zonsmassa opleveren.

Hier is een uitleg van dit baanbrekende wetenschappelijke artikel, vertaald naar eenvoudig Nederlands met behulp van creatieve vergelijkingen.…

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Attention Is All You Need

Dit paper introduceert de Transformer, een nieuw netwerkarchitectuur dat uitsluitend op attentiemechanismen is gebaseerd en recurrente en convolutie-neuronale netwerken vervangt, wat resulteert in superieure vertaalkwaliteit, snellere training en betere schaalbaarheid.

Stel je voor dat je een enorme bibliotheek hebt met boeken in verschillende talen, en je wilt een vertaler die elk boek in een seconde kan vertalen.…

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Generative Adversarial Networks

Deze paper introduceert een nieuw raamwerk voor generatieve modellen dat gebruikmaakt van een adversariaal proces waarbij een generatief model en een discriminatief model gelijktijdig worden getraind in een minimax-spel om de dataverdeling te leren zonder Markov-ketens of geschatte inferentie.

Stel je voor dat er een **kunstvervalser** en een **politieagent** zijn die een oneindig duel spelen.…

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza + 5 more2014-06-10📊 stat.ML

Denoising Diffusion Probabilistic Models

Dit paper introduceert hoogwaardige beeldsynthese met behulp van Diffusie Probabilistische Modellen, die een state-of-the-art FID-score van 3,17 op CIFAR10 bereiken en een progressief verliesgevoelig decompressieschema bieden dat is geïnspireerd op niet-evenwichtsthermodynamica.

**Denoising Diffusion Probabilistic Models: Een Simpele Uitleg** Stel je voor dat je een schilderij wilt maken, maar je begint niet met een leeg canvas en een penseel.…

Jonathan Ho, Ajay Jain, Pieter Abbeel2020-06-19🤖 cs.LG

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Het paper introduceert Batch Normalization, een techniek die de training van diepe neurale netwerken versnelt en stabiliseert door de interne covariatieverschuiving te verminderen via normalisatie van de laag-invoeren, waardoor hogere leerpercentages mogelijk worden en de noodzaak voor Dropout afneemt.

**Batch Normalization: De "Stabilisator" voor diepe neurale netwerken** Stel je voor dat je een heel diep, complex gebouw bouwt.…

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Scaling Laws for Neural Language Models

Dit artikel onthult empirische schalingswetten voor taalmodellen die aantonen dat grotere modellen op een relatief kleine dataset trainen de meest rekenkracht-efficiënte strategie is, aangezien de prestaties volgens een machtsverband schalen met modelgrootte, datasetgrootte en rekenkracht.

Stel je voor dat je een gigantische bibliotheek bouwt om de taal van de wereld te leren begrijpen.…

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

Het introduceren van 'dropout', een techniek waarbij willekeurig de helft van de neurale detectors tijdens het trainen wordt uitgeschakeld, voorkomt overfitting door complexe co-aanpassingen te onderdrukken en leidt tot aanzienlijke verbeteringen in spraak- en objectherkenning.

Hier is een uitleg van het beroemde paper over "Dropout" in het Nederlands, vertaald naar alledaagse taal met creatieve vergelijkingen.…

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky + 2 more2012-07-03💻 cs.NE

Efficient Estimation of Word Representations in Vector Space

De auteurs presenteren twee nieuwe modelarchitecturen die efficiënt hoogwaardige woordvectoren leren van zeer grote datasets met aanzienlijk lagere rekentijd dan eerdere methoden, terwijl ze state-of-the-art prestaties behalen op zowel semantische als syntactische vergelijkingsopdrachten.

**De "Woord-Map" van Google: Hoe computers leren wat woorden betekenen** Stel je voor dat je een computer wilt leren spreken.…

Tomas Mikolov, Kai Chen, Greg Corrado + 1 more2013-01-16💬 cs.CL