Learning to Unscramble: Simplifying Symbolic Expressions via Self-Supervised Oracle Trajectories

Il paper presenta un nuovo approccio di apprendimento automatico auto-supervisionato che utilizza traiettorie di oracolo generate da espressioni matematiche semplificate per addestrare una rete neurale basata su transformer, ottenendo prestazioni superiori rispetto ai metodi precedenti nel semplificare espressioni simboliche complesse in fisica delle alte energie, come la riduzione dei dilogaritmi e la semplificazione delle ampiezze di scattering.

David ShihFri, 13 Ma⚛️ hep-th

Distilling Formal Logic into Neural Spaces: A Kernel Alignment Approach for Signal Temporal Logic

Il paper presenta un approccio basato sull'allineamento dei kernel che utilizza un framework di distillazione teacher-student per mappare la semantica della Logica Temporale sui Segnali (STL) in spazi vettoriali neurali continui e invertibili, superando i limiti computazionali dei metodi simbolici esistenti e permettendo un ragionamento neuro-simbolico scalabile ed efficiente.

Sara Candussio, Gabriele Sarti, Gaia Saveri + 1 more2026-03-06💬 cs.CL

R1-Code-Interpreter: LLMs Reason with Code via Supervised and Multi-stage Reinforcement Learning

Il paper presenta R1-Code-Interpreter, un modello LLM potenziato da un approccio di apprendimento curricolare multi-fase che combina fine-tuning supervisionato e rinforzato, permettendo di generare codice autonomamente e raggiungendo prestazioni superiori rispetto a GPT-4o su una vasta gamma di compiti di ragionamento e pianificazione.

Yongchao Chen, Yueying Liu, Junwei Zhou + 5 more2026-03-05🤖 cs.AI