First M87 Event Horizon Telescope Results. I. The Shadow of the Supermassive Black Hole

Este estudo apresenta as primeiras imagens do Event Horizon Telescope do buraco negro supermassivo no centro da galáxia M87, revelando uma sombra consistente com as previsões da relatividade geral e permitindo a medição direta de sua massa, o que fornece evidências poderosas da existência desses objetos e abre novas fronteiras para o estudo da gravidade extrema.

The Event Horizon Telescope Collaboration2019-06-26🔭 astro-ph.GA

Generative Adversarial Networks

Este artigo propõe um novo framework para estimar modelos generativos por meio de um processo adversarial que treina simultaneamente um modelo gerador e um discriminador em um jogo minimax, permitindo o treinamento eficiente via retropropagação sem a necessidade de cadeias de Markov ou redes de inferência aproximada.

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio2014-06-10📊 stat.ML

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

O artigo apresenta a Normalização de Lotes (Batch Normalization), uma técnica que acelera o treinamento de redes neurais profundas ao normalizar as entradas de cada camada para reduzir a mudança de covariância interna, permitindo o uso de taxas de aprendizado mais altas, inicializações menos rigorosas e atuando como regularizador, o que resulta em desempenho superior na classificação de imagens no ImageNet.

Sergey Ioffe, Christian Szegedy2015-02-11🤖 cs.LG

Scaling Laws for Neural Language Models

O artigo estabelece leis empíricas de escala que demonstram como o desempenho de modelos de linguagem segue uma relação de lei de potência com o tamanho do modelo, do conjunto de dados e do poder computacional, revelando que o uso mais eficiente de recursos envolve treinar modelos muito grandes em conjuntos de dados menores e interromper o treinamento antes da convergência.

Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B. Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, Dario Amodei2020-01-23🤖 cs.LG

Improving neural networks by preventing co-adaptation of feature detectors

O artigo demonstra que a técnica de "dropout", que consiste na omissão aleatória de metade dos detectores de características durante o treinamento, reduz significativamente o sobreajuste em redes neurais ao prevenir co-adaptações complexas, resultando em melhorias substanciais e novos recordes em tarefas de reconhecimento de fala e objetos.

Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, Ruslan R. Salakhutdinov2012-07-03💻 cs.NE