Escaping the BLEU Trap: A Signal-Grounded Framework with Decoupled Semantic Guidance for EEG-to-Text Decoding

Die Arbeit stellt SemKey vor, ein neuartiges Framework zur EEG-zu-Text-Decodierung, das durch die Entkopplung semantischer Ziele und eine signalgefundene Architektur die häufigen Probleme von Halluzinationen und der irreführenden BLEU-Metrik überwindet, um eine präzisere und diversere Sprachgenerierung aus neuronalen Signalen zu erreichen.

Yuchen Wang, Haonan Wang, Yu Guo + 2 more2026-03-05🤖 cs.AI

How does fine-tuning improve sensorimotor representations in large language models?

Die Studie zeigt, dass eine aufgabenspezifische Feinabstimmung die sensorischen und motorischen Repräsentationen in großen Sprachmodellen verbessern und die Lücke zu menschlichen Erfahrungen schließen kann, wobei diese Verbesserungen zwar sprachübergreifend generalisieren, aber stark vom Lernziel abhängen und nicht auf völlig unterschiedliche Aufgabenformate übertragbar sind.

Minghua Wu, Javier Conde, Pedro Reviriego + 1 more2026-03-05🤖 cs.AI

Discern Truth from Falsehood: Reducing Over-Refusal via Contrastive Refinement

Die Arbeit stellt DCR (Discernment via Contrastive Refinement) vor, eine neue Ausrichtungsphase, die durch kontrastives Feinabstimmen die Überverweigerung von Large Language Models reduziert, indem sie zwischen tatsächlich toxischen und nur scheinbar toxischen Eingaben präziser unterscheidet, ohne dabei die allgemeine Sicherheit oder Leistungsfähigkeit des Modells zu beeinträchtigen.

Yuxiao Lu, Lin Xu, Yang Sun + 2 more2026-03-05🤖 cs.AI

A benchmark for joint dialogue satisfaction, emotion recognition, and emotion state transition prediction

Dieses Paper stellt ein neues mehrsprachiges, mehrstufiges chinesisches Dialogdatenset vor, das die gleichzeitige Vorhersage von Zufriedenheit, Emotionserkennung und emotionalen Zustandsübergängen ermöglicht, um die Limitationen bestehender Ressourcen zu überwinden und die Dynamik von Benutzeremotionen in Dialogsystemen besser zu erfassen.

Jing Bian, Haoxiang Su, Liting Jiang + 6 more2026-03-05🤖 cs.AI

AutoHarness: improving LLM agents by automatically synthesizing a code harness

Die Arbeit stellt AutoHarness vor, ein Verfahren, bei dem ein kleineres Sprachmodell durch automatische Synthese und iterative Verfeinerung eines Code-Harnesses oder einer vollständigen Policy so verbessert wird, dass es in TextArena-Spielen größere Modelle wie Gemini-2.5-Pro und GPT-5.2-High sowohl in der Leistung als auch in der Kosteneffizienz übertrifft.

Xinghua Lou, Miguel Lázaro-Gredilla, Antoine Dedieu + 3 more2026-03-05🤖 cs.AI