Gist.Science
HojePesquisarMarcosSobreTestimonials
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT
💬 Category

cs.CL

2026 artigos

Anticipating Safety Issues in E2E Conversational AI: Framework and Tooling

Este artigo aborda os desafios de segurança em agentes conversacionais de ponta a ponta, propondo um quadro de referência baseado em design sensível a valores e um conjunto de ferramentas para auxiliar os pesquisadores na tomada de decisões sobre o treinamento e a liberação responsável desses modelos.

Emily Dinan, Gavin Abercrombie, A. Stevie Bergman + 4 more2021-07-07💬 cs.CL

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

O artigo apresenta o BERT, um novo modelo de representação linguística baseado em Transformers bidirecionais pré-treinados em texto não rotulado, que pode ser ajustado para diversas tarefas de processamento de linguagem natural com apenas uma camada adicional, alcançando resultados state-of-the-art em onze benchmarks.

Jacob Devlin, Ming-Wei Chang, Kenton Lee + 1 more2018-10-11💬 cs.CL

Attention Is All You Need

O artigo apresenta o Transformer, uma nova arquitetura de rede neural baseada exclusivamente em mecanismos de atenção que dispensa recorrência e convoluções, alcançando resultados superiores em tarefas de tradução automática e demonstrando alta eficiência no treinamento e generalização para outras tarefas.

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Efficient Estimation of Word Representations in Vector Space

Os autores propõem duas novas arquiteturas de modelo que permitem o aprendizado eficiente de representações vetoriais de palavras de alta qualidade em grandes conjuntos de dados, alcançando desempenho superior em tarefas de similaridade semântica e sintática com custo computacional significativamente reduzido.

Tomas Mikolov, Kai Chen, Greg Corrado + 1 more2013-01-16💬 cs.CL
← Anterior

Gostou desta explicação? Receba uma assim todos os dias.

Verifique sua caixa de entrada para confirmar sua inscrição.

Algo deu errado. Tentar novamente?

Sem spam, cancele quando quiser.

Gist.Science
SobreTestimonialsPrivacidadeDisclaimerContact

Obrigado ao arXiv, bioRxiv e medRxiv pelo uso de sua interoperabilidade de acesso aberto.

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

Feito nos Paises Baixos 🇳🇱