Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC

O artigo relata a observação de uma nova partícula com massa de 126,0 GeV, compatível com o bóson de Higgs do Modelo Padrão, com base na análise combinada de dados de colisões próton-próton coletados pelo detector ATLAS no LHC em 2011 e 2012, apresentando uma significância estatística de 5,9 desvios padrão.

**A Descoberta do "Grande Quebra-Cabeça" Perdido: O Higgs** Imagine que o universo é como uma grande festa de gala.…

The ATLAS Collaboration2012-07-31⚛️ hep-ex

Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC

O experimento CMS no LHC relatou a observação de uma nova partícula bosônica com massa de aproximadamente 125 GeV, com significância estatística de 5 desvios padrão, consistente com o bóson de Higgs do Modelo Padrão.

Imagine que o universo é como uma imensa e complexa fábrica de brinquedos, onde as partículas são as peças que formam tudo o que vemos: estrelas, árvores, você e eu.…

The CMS Collaboration2012-07-31⚛️ hep-ex

Observation of Gravitational Waves from a Binary Black Hole Merger

Este artigo relata a primeira detecção direta de ondas gravitacionais, observadas em 14 de setembro de 2015 pelo LIGO, provenientes da fusão de um par de buracos negros estelares a uma distância de aproximadamente 410 Mpc, confirmando a existência de sistemas binários de buracos negros e validando as previsões da relatividade geral.

**A Primeira Vez que "Ouvimos" o Universo: Uma História de Ondas, Buracos Negros e um Grito Cósmico** Imagine que o Universo é um oceano gigante e silencioso.…

The LIGO Scientific Collaboration, the Virgo Collaboration2016-02-11⚛️ gr-qc

First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Este estudo apresenta as primeiras imagens do Event Horizon Telescope do buraco negro supermassivo no centro da galáxia M87, revelando uma sombra consistente com as previsões da relatividade geral e permitindo a medição direta de sua massa, o que fornece evidências poderosas da existência desses objetos e abre novas fronteiras para o estudo da gravidade extrema.

Imagine que você está tentando tirar uma foto de um fantasma invisível que vive no centro de uma galáxia gigante.…

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Attention Is All You Need

O artigo apresenta o Transformer, uma nova arquitetura de rede neural baseada exclusivamente em mecanismos de atenção que dispensa recorrência e convoluções, alcançando resultados superiores em tarefas de tradução automática e demonstrando alta eficiência no treinamento e generalização para outras tarefas.

Imagine que você está tentando ensinar um robô a traduzir um livro inteiro de inglês para alemão.…

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Generative Adversarial Networks

Este artigo propõe um novo framework para estimar modelos generativos por meio de um processo adversarial que treina simultaneamente um modelo gerador e um discriminador em um jogo minimax, permitindo o treinamento eficiente via retropropagação sem a necessidade de cadeias de Markov ou redes de inferência aproximada.

Imagine que você está em uma cidade onde dois grupos rivais estão em uma competição constante: **os Falsificadores** e **a Polícia**.…

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza + 5 more2014-06-10📊 stat.ML

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

O artigo apresenta o BERT, um novo modelo de representação linguística baseado em Transformers bidirecionais pré-treinados em texto não rotulado, que pode ser ajustado para diversas tarefas de processamento de linguagem natural com apenas uma camada adicional, alcançando resultados state-of-the-art em onze benchmarks.

Imagine que você quer ensinar um robô a entender a linguagem humana, não apenas como um dicionário, mas como um ser humano que entende contexto, ironia e nuances.…

Jacob Devlin, Ming-Wei Chang, Kenton Lee + 1 more2018-10-11💬 cs.CL

Denoising Diffusion Probabilistic Models

Este artigo apresenta resultados de alta qualidade na síntese de imagens utilizando Modelos Probabilísticos de Difusão com Desembarulhamento, alcançando desempenho de ponta no conjunto de dados CIFAR10 e qualidade comparável ao ProgressiveGAN no LSUN, graças a uma nova conexão teórica entre esses modelos e a correspondência de pontuação com dinâmica de Langevin.

Imagine que você tem uma foto linda e colorida de um cachorro.…

Jonathan Ho, Ajay Jain, Pieter Abbeel2020-06-19🤖 cs.LG

Adam: A Method for Stochastic Optimization

O artigo apresenta o Adam, um algoritmo de otimização estocástica eficiente e adaptativo baseado em estimativas de momentos de primeira ordem, que se destaca por sua facilidade de implementação, baixo uso de memória e robustez em problemas com grandes volumes de dados, gradientes ruidosos ou esparsos, além de discutir suas propriedades teóricas e uma variante chamada AdaMax.

Imagine que você está tentando encontrar o ponto mais baixo de um terreno montanhoso e escuro, onde você só consegue ver os passos imediatamente ao seu redor.…

Diederik P. Kingma, Jimmy Ba2014-12-22🤖 cs.LG

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

O artigo apresenta a Normalização de Lotes (Batch Normalization), uma técnica que acelera o treinamento de redes neurais profundas ao normalizar as entradas de cada camada para reduzir a mudança de covariância interna, permitindo o uso de taxas de aprendizado mais altas, inicializações menos rigorosas e atuando como regularizador, o que resulta em desempenho superior na classificação de imagens no ImageNet.

Imagine que você está tentando ensinar um grupo de alunos a resolver um problema matemático complexo.…

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Auto-Encoding Variational Bayes

Este artigo apresenta o algoritmo Auto-Encoding Variational Bayes (VAE), que combina reparametrização e redes neurais para permitir inferência e aprendizado escaláveis e eficientes em modelos probabilísticos direcionados com variáveis latentes contínuas e grandes conjuntos de dados.

Imagine que você tem uma caixa cheia de fotos de gatos e cachorros, mas você não sabe como o fotógrafo tirou essas fotos.…

Diederik P Kingma, Max Welling2013-12-20📊 stat.ML

Scaling Laws for Neural Language Models

O artigo estabelece leis empíricas de escala que demonstram como o desempenho de modelos de linguagem segue uma relação de lei de potência com o tamanho do modelo, do conjunto de dados e do poder computacional, revelando que o uso mais eficiente de recursos envolve treinar modelos muito grandes em conjuntos de dados menores e interromper o treinamento antes da convergência.

Imagine que você está tentando ensinar um robô a escrever histórias, contar piadas ou responder perguntas.…

Jared Kaplan, Sam McCandlish, Tom Henighan + 7 more2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

O artigo demonstra que a técnica de "dropout", que consiste na omissão aleatória de metade dos detectores de características durante o treinamento, reduz significativamente o sobreajuste em redes neurais ao prevenir co-adaptações complexas, resultando em melhorias substanciais e novos recordes em tarefas de reconhecimento de fala e objetos.

Imagine que você está tentando ensinar um grupo de alunos muito inteligentes, mas inexperientes, a passar em um exame difícil.…

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky + 2 more2012-07-03💻 cs.NE

Efficient Estimation of Word Representations in Vector Space

Os autores propõem duas novas arquiteturas de modelo que permitem o aprendizado eficiente de representações vetoriais de palavras de alta qualidade em grandes conjuntos de dados, alcançando desempenho superior em tarefas de similaridade semântica e sintática com custo computacional significativamente reduzido.

Imagine que, até recentemente, ensinar um computador a entender a linguagem humana era como tentar ensinar uma criança a reconhecer frutas usando apenas etiquetas de código de barras.…

Tomas Mikolov, Kai Chen, Greg Corrado + 1 more2013-01-16💬 cs.CL