Gist.Science
HeuteSuchenMeilensteineInfoTestimonials
  • EN
  • NL
  • DE
  • FR
  • ES
  • 中文
  • 日本語
  • 한국어
  • PT
  • IT
💬 Category

cs.CL

2026 Arbeiten

Anticipating Safety Issues in E2E Conversational AI: Framework and Tooling

Dieser Artikel stellt einen Rahmenwerk und ein Toolset vor, das auf wertebasiertem Design basiert, um Forschern zu helfen, Sicherheitsrisiken end-zu-end neuronaler Konversationsagenten zu antizipieren und fundierte Entscheidungen über deren Training und Veröffentlichung zu treffen.

Emily Dinan, Gavin Abercrombie, A. Stevie Bergman + 4 more2021-07-07💬 cs.CL

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Die Arbeit stellt BERT vor, ein bidirektionales Transformer-Modell, das durch Vor-Training auf ungelabelten Texten und anschließendes Feinabstimmen mit nur einer zusätzlichen Ausgabeschicht neue State-of-the-Art-Ergebnisse auf elf verschiedenen NLP-Aufgaben erzielt.

Jacob Devlin, Ming-Wei Chang, Kenton Lee + 1 more2018-10-11💬 cs.CL

Attention Is All You Need

Das Paper stellt die Transformer-Architektur vor, die ausschließlich auf Aufmerksamkeitsmechanismen statt auf Rekursion oder Faltungen setzt und damit bei maschinellen Übersetzungs- und Parsing-Aufgaben sowohl eine höhere Qualität als auch eine deutlich effizientere Trainingszeit erreicht.

Ashish Vaswani, Noam Shazeer, Niki Parmar + 5 more2017-06-12💬 cs.CL

Efficient Estimation of Word Representations in Vector Space

Diese Arbeit stellt zwei neue Modellarchitekturen vor, die es ermöglichen, innerhalb eines Tages hochwertige Wortvektoren aus einem sehr großen Datensatz zu berechnen und dabei sowohl die Genauigkeit als auch die Recheneffizienz im Vergleich zu früheren Methoden signifikant zu steigern.

Tomas Mikolov, Kai Chen, Greg Corrado + 1 more2013-01-16💬 cs.CL
← Zurück

Hat Ihnen diese Erklärung gefallen? Erhalten Sie täglich eine.

Prüfen Sie Ihr Postfach, um Ihr Abonnement zu bestätigen.

Etwas ist schiefgelaufen. Nochmal versuchen?

Kein Spam, jederzeit abbestellbar.

Gist.Science
InfoTestimonialsDatenschutzDisclaimerContact

Vielen Dank an arXiv, bioRxiv und medRxiv für die Nutzung der offenen Zugänglichkeit.

Gist.Science is a product of Bition B.V.
Verdunplein 17, 5627SZ Eindhoven
KvK: 95743731 | BTW-ID: NL867271966B01
mail@gist.science

Made in den Niederlanden 🇳🇱