Robust Training of Neural Networks at Arbitrary Precision and Sparsity

Deze paper introduceert een unificerend raamwerk dat kwantisatie en verduidelijking als additief ruis modelleert en een afgeleid denoising-dekwantisatietransform toepast om stabiele training van neurale netwerken op willekeurige precisie- en sparsiteitsniveaus mogelijk te maken, waardoor state-of-the-art resultaten worden behaald in ultra-lage precisie-regimes zoals A1W1.

Chengxi Ye, Grace Chu, Yanfeng Liu, Yichi Zhang, Lukasz Lew, Li Zhang, Mark Sandler, Andrew HowardWed, 11 Ma🤖 cs.AI

HyConEx: Hypernetwork classifier with counterfactual explanations for tabular data

Dit paper introduceert HyConEx, een innovatief diep leermodel voor tabulaire data dat gelijktijdig nauwkeurige classificaties en lokale uitleggen in de vorm van contrafactuele voorbeelden biedt, waardoor het de eerste interpreteerbare classifier is die beide functies in één neurale netwerkbouwkundige combineert.

Patryk Marszałek, Kamil Ksi\k{a}\.zek, Oleksii Furman, Ulvi Movsum-zada, Przemysław Spurek, Marek SmiejaWed, 11 Ma🤖 cs.AI

A Consequentialist Critique of Binary Classification Evaluation: Theory, Practice, and Tools

Dit paper pleit vanuit een consequentiaalistisch perspectief voor het gebruik van proper scoring rules in plaats van binaire classificatiemetrics, onderbouwd met een theoretisch kader, een empirische analyse van huidige praktijken en de introductie van het Python-pakket `briertools` om deze aanpak toegankelijker te maken.

Gerardo Flores, Abigail Schiff, Alyssa H. Smith, Julia A Fukuyama, Ashia C. WilsonWed, 11 Ma🤖 cs.AI

Let's Verify Math Questions Step by Step

Dit paper introduceert MathQ-Verify, een nieuw vijfstapsproces dat zorgvuldig slecht gestelde wiskundeproblemen filtert door syntactische validatie, formalisering, logicacontrole en volledigheidstests, waardoor de kwaliteit van wiskundedatasets aanzienlijk verbetert en de F1-score tot 25 procentpunten stijgt ten opzichte van bestaande methoden.

Chengyu Shen, Zhen Hao Wong, Runming He, Hao Liang, Meiyi Qiang, Zimo Meng, Zhengyang Zhao, Bohan Zeng, Zhengzhou Zhu, Bin Cui, Wentao ZhangWed, 11 Ma🤖 cs.AI

UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Language Models

Dit paper introduceert UltraEdit, een trainings-, onderwerp- en geheugenloze methode voor het levenslang bijwerken van taalmodellen die aanzienlijk sneller en minder geheugenintensief is dan bestaande technieken, waardoor het zelfs op consumentenhardware mogelijk wordt om miljoenen bewerkingen uit te voeren zonder bestaande vaardigheden te verliezen.

Xiaojie Gu, Ziying Huang, Jia-Chen Gu, Kai ZhangWed, 11 Ma🤖 cs.AI