Gist.Science
VandaagZoekenMijlpalenBeoordeeldOver onsTestimonialsSign inDigestMy Digest
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT

Mijlpaalpapers

De papers die de moderne wetenschap en AI vormden

Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

Het ATLAS-experiment bij de LHC heeft in proton-protonbotsingen duidelijke aanwijzingen gevonden voor de productie van een nieuw neutraal boson met een massa van ongeveer 126 GeV, wat compatibel is met het Standard Model Higgs-boson.

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

Het CMS-experiment heeft bij proton-protonbotsingen een nieuw deeltje waargenomen met een massa van ongeveer 125 GeV, wat sterk wijst op de ontdekking van het Higgs-boson.

The CMS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Op 14 september 2015 detecteerde LIGO voor het eerst direct zwaartekrachtgolven veroorzaakt door de samensmelting van twee sterrenmassa-zwarte gaten, wat de existentie van dergelijke systemen bevestigt en een directe observatie van een binair zwart gat-gebeurtenis oplevert.

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Het Event Horizon Telescope-team heeft voor het eerst de schaduw van het supermassieve zwarte gat in het centrum van het sterrenstelsel M87 afgebeeld, waarbij de waarnemingen de voorspellingen van de algemene relativiteitstheorie bevestigen en een massa van ongeveer 6,5 miljard zonsmassa opleveren.

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Attention Is All You Need

Dit paper introduceert de Transformer, een nieuw netwerkarchitectuur dat uitsluitend op attentiemechanismen is gebaseerd en recurrente en convolutie-neuronale netwerken vervangt, wat resulteert in superieure vertaalkwaliteit, snellere training en betere schaalbaarheid.

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin2017-06-12💬 cs.CL

Deep Residual Learning for Image Recognition

Dit paper introduceert een residual learning framework dat het trainen van uiterst diepe neurale netten mogelijk maakt, wat leidt tot state-of-the-art resultaten op diverse beeldherkennings- en detectiecompetities zoals ILSVRC en COCO 2015.

Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun2015-12-10👁️ cs.CV

Generative Adversarial Networks

Deze paper introduceert een nieuw raamwerk voor generatieve modellen dat gebruikmaakt van een adversariaal proces waarbij een generatief model en een discriminatief model gelijktijdig worden getraind in een minimax-spel om de dataverdeling te leren zonder Markov-ketens of geschatte inferentie.

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio2014-06-10📊 stat.ML

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Dit paper introduceert BERT, een nieuw taalmodel dat diepe bidirectionele representaties pre-traint op ongelabelde tekst en vervolgens met minimale aanpassingen state-of-the-art resultaten behaalt op diverse natuurlijke taalverwerkingstaken.

Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova2018-10-11💬 cs.CL

Denoising Diffusion Probabilistic Models

Dit paper introduceert hoogwaardige beeldsynthese met behulp van Diffusie Probabilistische Modellen, die een state-of-the-art FID-score van 3,17 op CIFAR10 bereiken en een progressief verliesgevoelig decompressieschema bieden dat is geïnspireerd op niet-evenwichtsthermodynamica.

Jonathan Ho, Ajay Jain, Pieter Abbeel2020-06-19🤖 cs.LG

Adam: A Method for Stochastic Optimization

Dit paper introduceert Adam, een efficiënt en eenvoudig te implementeren algoritme voor stochastische optimalisatie dat adaptieve momenten gebruikt en uitstekend presteert bij grote, ruige of schaarse datasets.

Diederik P. Kingma, Jimmy Ba2014-12-22🤖 cs.LG

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Het paper introduceert Batch Normalization, een techniek die de training van diepe neurale netwerken versnelt en stabiliseert door de interne covariatieverschuiving te verminderen via normalisatie van de laag-invoeren, waardoor hogere leerpercentages mogelijk worden en de noodzaak voor Dropout afneemt.

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Auto-Encoding Variational Bayes

Dit paper introduceert een schaalbaar, stochastisch variatieal Bayes-algoritme dat efficiënte inferentie en leren mogelijk maakt in gerichte probabilistische modellen met continue latente variabelen en grote datasets, door middel van een herschreven variatiele ondergrens en het gebruik van een herkenningmodel.

Diederik P Kingma, Max Welling2013-12-20📊 stat.ML

Scaling Laws for Neural Language Models

Dit artikel onthult empirische schalingswetten voor taalmodellen die aantonen dat grotere modellen op een relatief kleine dataset trainen de meest rekenkracht-efficiënte strategie is, aangezien de prestaties volgens een machtsverband schalen met modelgrootte, datasetgrootte en rekenkracht.

Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

Het introduceren van 'dropout', een techniek waarbij willekeurig de helft van de neurale detectors tijdens het trainen wordt uitgeschakeld, voorkomt overfitting door complexe co-aanpassingen te onderdrukken en leidt tot aanzienlijke verbeteringen in spraak- en objectherkenning.

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, Ruslan R. Salakhutdinov2012-07-03💻 cs.NE

Efficient Estimation of Word Representations in Vector Space

De auteurs presenteren twee nieuwe modelarchitecturen die efficiënt hoogwaardige woordvectoren leren van zeer grote datasets met aanzienlijk lagere rekentijd dan eerdere methoden, terwijl ze state-of-the-art prestaties behalen op zowel semantische als syntactische vergelijkingsopdrachten.

Tomas Mikolov, Kai Chen, Greg Corrado, Jeffrey Dean2013-01-16💬 cs.CL
Gist.Science
Over onsTestimonialsPrivacyDisclaimerContact

Met dank aan arXiv, bioRxiv en medRxiv voor het gebruik van hun open access interoperabiliteit.

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

Gemaakt in Nederland 🇳🇱