LBM: Hierarchical Large Auto-Bidding Model via Reasoning and Acting

Ce papier propose LBM, un modèle hiérarchique d'enchères automatisées qui combine un module de raisonnement et un module d'action pour surmonter les limites des approches actuelles en fusionnant des données textuelles et numériques, tout en utilisant une technique de fine-tuning par renforcement offline (GQPO) pour réduire les hallucinations et améliorer la généralisation dans les environnements publicitaires dynamiques.

Yewen Li, Zhiyi Lyu, Peng Jiang + 4 more2026-03-06🤖 cs.AI

Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic

Cet article présente une méthode novatrice utilisant un apprentissage par distillation pour transformer les spécifications de logique temporelle sur les signaux (STL) en représentations neuronales continues, permettant ainsi une inférence rapide, inversible et fidèle aux sémantiques formelles sans le coût computationnel des noyaux symboliques traditionnels.

Sara Candussio, Gabriele Sarti, Gaia Saveri + 1 more2026-03-06💬 cs.CL

Oral to Web: Digitizing 'Zero Resource'Languages of Bangladesh

Cet article présente le Multilingual Cloud Corpus, premier corpus numérique national et multimodal du Bangladesh, qui documente systématiquement 42 variétés linguistiques autochtones et minoritaires, dont beaucoup sont en danger, grâce à des enregistrements audio et des transcriptions textuelles collectés lors d'un travail de terrain rigoureux pour soutenir la préservation linguistique et le traitement automatique des langues à ressources limitées.

Mohammad Mamun Or Rashid2026-03-06💬 cs.CL

SarcasmMiner: A Dual-Track Post-Training Framework for Robust Audio-Visual Sarcasm Reasoning

SarcasmMiner est un cadre d'entraînement postérieur basé sur l'apprentissage par renforcement qui améliore la détection de la sarcasme audio-visuelle en reformulant la tâche comme un raisonnement structuré et en utilisant une stratégie de distillation à double piste avec un modèle de récompense génératif pour optimiser à la fois la précision et la qualité du raisonnement.

Zhu Li, Yongjian Chen, Huiyuan Lai + 3 more2026-03-06💬 cs.CL

PersianPunc: A Large-Scale Dataset and BERT-Based Approach for Persian Punctuation Restoration

Cet article présente PersianPunc, un vaste ensemble de données de 17 millions d'échantillons et une approche basée sur ParsBERT pour la restauration de la ponctuation en persan, démontrant une efficacité supérieure et une meilleure adaptation aux applications en temps réel par rapport aux grands modèles de langage.

Mohammad Javad Ranjbar Kalahroodi, Heshaam Faili, Azadeh Shakery2026-03-06🤖 cs.AI

A Multilingual Human Annotated Corpus of Original and Easy-to-Read Texts to Support Access to Democratic Participatory Processes

Ce papier présente un corpus multilingue annoté par des humains, comprenant des textes originaux et leurs versions simplifiées en langage facile à lire pour le catalan, l'espagnol et l'italien, afin de soutenir l'accès aux processus de participation démocratique et de combler le manque de ressources pour l'automatisation de la simplification textuelle dans ces langues.

Stefan Bott, Verena Riegler, Horacio Saggion + 2 more2026-03-06💬 cs.CL