Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

Das ATLAS-Experiment am LHC meldet in dieser Studie die Entdeckung eines neuen neutralen Bosons mit einer Masse von 126,0 GeV, das mit einer statistischen Signifikanz von 5,9 Standardabweichungen beobachtet wurde und mit dem Standardmodell-Higgs-Boson übereinstimmt.

**Die Entdeckung des „Heiligen Grals" der Teilchenphysik: Eine einfache Erklärung** Stellen Sie sich das Universum vor wie ein riesiges, chaotisches Fest.…

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

Das CMS-Experiment am LHC hat in Proton-Proton-Kollisionen bei Energien von 7 und 8 TeV ein neues Boson mit einer Masse von etwa 125 GeV entdeckt, dessen Signifikanz von 5,0 Standardabweichungen die Entdeckung eines neuen Teilchens, höchstwahrscheinlich des Higgs-Bosons, bestätigt.

Hier ist eine Erklärung der wissenschaftlichen Arbeit des CMS-Experiments am CERN, die auf Deutsch und in einfacher, bildhafter Sprache verfasst ist.…

The CMS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Dieser Artikel beschreibt die erste direkte Beobachtung von Gravitationswellen, die am 14. September 2015 durch die Verschmelzung zweier schwarzer Löcher erzeugt wurden und damit sowohl die Existenz von binären schwarzen Löchern als auch die Vorhersagen der Allgemeinen Relativitätstheorie experimentell bestätigen.

Hier ist eine einfache und bildhafte Erklärung dieser bahnbrechenden wissenschaftlichen Arbeit auf Deutsch: ### **Der erste "Klang" des Universums: Wie wir die unsichtbare Schwerkraft hörbar gemacht haben** Stellen Sie sich das Universum nicht als einen leeren, stillen Raum vor, sondern als einen riesigen, elastischen Trampolinboden.…

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Das Event-Horizon-Teleskop hat erstmals den Schatten des supermassereichen Schwarzen Lochs im Zentrum der Galaxie M87 abgebildet, wodurch die Vorhersagen der Allgemeinen Relativitätstheorie bestätigt und die Masse des Objekts auf 6,5 Milliarden Sonnenmassen bestimmt werden konnte.

Hier ist eine einfache und kreative Erklärung der bahnbrechenden Arbeit des Event Horizon Telescope (EHT) über das Schwarze Loch in M87, geschrieben für ein breites Publikum.…

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Attention Is All You Need

Das Paper stellt die Transformer-Architektur vor, die ausschließlich auf Aufmerksamkeitsmechanismen statt auf Rekursion oder Faltungen setzt und damit bei maschinellen Übersetzungs- und Parsing-Aufgaben sowohl eine höhere Qualität als auch eine deutlich effizientere Trainingszeit erreicht.

Hier ist eine einfache Erklärung des bahnbrechenden Papiers „Attention Is All You Need" (Aufmerksamkeit ist alles, was man braucht), die die komplexen technischen Details in eine anschauliche Geschichte verwandelt.…

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Deep Residual Learning for Image Recognition

Die Autoren stellen ein Residual-Learning-Framework vor, das das Training extrem tiefer neuronaler Netze erleichtert und durch den Einsatz von Restfunktionen auf Datensätzen wie ImageNet und COCO neue State-of-the-Art-Ergebnisse in der Bilderkennung erzielt.

Hier ist eine einfache Erklärung der bahnbrechenden Arbeit „Deep Residual Learning for Image Recognition" (ResNet) von Kaiming He und seinem Team, übersetzt in eine anschauliche Geschichte mit Metaphern.…

Kaiming He, Xiangyu Zhang, Shaoqing Ren + 1 more2015-12-10👁️ cs.CV

Generative Adversarial Networks

Die Autoren stellen ein neues Framework vor, das zwei Modelle – ein generatives Modell G und ein diskriminatives Modell D – in einem adversären Minimax-Spiel gleichzeitig trainiert, um die Datenverteilung zu erfassen, ohne dabei Markov-Ketten oder aufwendige Inferenznetzwerke zu benötigen.

Hier ist eine einfache Erklärung des bahnbrechenden Papiers „Generative Adversarial Nets" (GANs) von Ian Goodfellow und seinem Team, verpackt in eine Geschichte für den Alltag.…

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza + 5 more2014-06-10📊 stat.ML

Denoising Diffusion Probabilistic Models

Diese Arbeit stellt hochwertige Bildsyntheseergebnisse mittels Diffusions-Wahrscheinlichkeitsmodellen vor, die durch eine neuartige Verbindung zu Denoising Score Matching und Langevin-Dynamik trainiert werden und auf CIFAR10 sowie LSUN neue State-of-the-Art-Ergebnisse erzielen.

Hier ist eine einfache Erklärung der Arbeit „Denoising Diffusion Probabilistic Models" (DDPM) von Jonathan Ho und seinem Team, verpackt in eine Geschichte für den Alltag.…

Jonathan Ho, Ajay Jain, Pieter Abbeel2020-06-19🤖 cs.LG

Adam: A Method for Stochastic Optimization

Die Arbeit stellt Adam vor, einen effizienten und leicht zu implementierenden Algorithmus zur stochastischen Optimierung, der auf adaptiven Schätzungen niedrigerer Momente basiert und sich durch geringen Speicherbedarf sowie gute Leistung bei großen, verrauschten oder spärlichen Problemen auszeichnet.

**Titel: Adam – Der clevere Navigator für das Lernen von Computern** Stell dir vor, du musst einen riesigen, nebligen Berg hinabsteigen, um den tiefsten Punkt im Tal (den besten Punkt) zu finden.…

Diederik P. Kingma, Jimmy Ba2014-12-22🤖 cs.LG

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Die vorgestellte Arbeit führt Batch Normalization ein, eine Methode zur Normalisierung von Layereingaben in neuronalen Netzen, die das Problem des internen Kovariaten-Shifts löst, das Training durch höhere Lernraten und weniger sorgfältige Initialisierung erheblich beschleunigt und als Regularisierer dient, wodurch auf dem ImageNet-Datensatz ein neuer Rekord mit einer Top-5-Fehlerrate von 4,9 % erzielt wird.

Hier ist eine einfache Erklärung des Papiers „Batch Normalization" auf Deutsch, verpackt in anschauliche Bilder und Metaphern.…

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Auto-Encoding Variational Bayes

Dieses Paper stellt einen skalierbaren stochastischen Variationsinferenz-Algorithmus vor, der durch eine Reparametrisierung des unteren Schranken-Schätzers effizientes Lernen und Inferenz in gerichteten probabilistischen Modellen mit kontinuierlichen latenten Variablen und großen Datensätzen ermöglicht.

Stell dir vor, du versuchst, ein riesiges, chaotisches Lagerfeuer zu verstehen, bei dem du nur die Rauchwolken (die Daten) siehst, aber nicht das Holz und die Flammen (die versteckte Ursache) dahinter.…

Diederik P Kingma, Max Welling2013-12-20📊 stat.ML

Scaling Laws for Neural Language Models

Die Studie zeigt, dass die Leistung von Sprachmodellen durch einfache Potenzgesetze in Abhängigkeit von Modellgröße, Datensatzgröße und Rechenkapazität bestimmt wird, was zu der Empfehlung führt, sehr große Modelle auf moderaten Datenmengen zu trainieren und den Prozess vor der Konvergenz zu stoppen, um die Rechenressourcen optimal zu nutzen.

Hier ist eine einfache Erklärung der Studie „Scaling Laws for Neural Language Models" (Skalierungsgesetze für neuronale Sprachmodelle), verpackt in eine Geschichte mit Alltagsanalogien.…

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

Das Paper stellt die Dropout-Technik vor, die durch das zufällige Deaktivieren von Neuronen während des Trainings die Ko-Adaptation von Merkmalserkennern verhindert, Überanpassung reduziert und damit die Leistung von neuronalen Netzen bei verschiedenen Aufgaben wie Spracherkennung und Objekterkennung signifikant verbessert.

Hier ist eine einfache Erklärung des Papiers „Improving neural networks by preventing co-adaptation of feature detectors" (Verbesserung neuronaler Netze durch Verhinderung der Koadaptation von Merkmalserkennern) auf Deutsch, verpackt in anschauliche Bilder und Metaphern.…

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky + 2 more2012-07-03💻 cs.NE

Efficient Estimation of Word Representations in Vector Space

Diese Arbeit stellt zwei neue Modellarchitekturen vor, die es ermöglichen, innerhalb eines Tages hochwertige Wortvektoren aus einem sehr großen Datensatz zu berechnen und dabei sowohl die Genauigkeit als auch die Recheneffizienz im Vergleich zu früheren Methoden signifikant zu steigern.

Hier ist eine einfache Erklärung der Arbeit von Mikolov und seinem Team, als würde man sie einem Freund beim Kaffee erzählen – auf Deutsch.…

Tomas Mikolov, Kai Chen, Greg Corrado + 1 more2013-01-16💬 cs.CL