One Model, Many Skills: Parameter-Efficient Fine-Tuning for Multitask Code Analysis

Diese Studie zeigt, dass parameter-effizientes Feintuning (PEFT) für Code-Analyse-Aufgaben nicht nur die Speicherkosten und Rechenleistung im Vergleich zum vollständigen Feintuning drastisch reduziert, sondern auch durch geschicktes Multi-Task-Learning die Leistung von einzelnen spezialisierten Modellen und sogar von großen generischen LLMs übertreffen kann.

Amal Akli, Maxime Cordy, Mike Papadakis, Yves Le Traon2026-03-12💻 cs

MoE-SpAc: Efficient MoE Inference Based on Speculative Activation Utility in Heterogeneous Edge Scenarios

Die Arbeit stellt MoE-SpAc vor, ein Inferenzframework für Mixture-of-Experts-Modelle in heterogenen Edge-Umgebungen, das durch die Nutzung von spekulativer Dekodierung als Informationsquelle für das Speichermanagement und dynamische Lastverteilung eine signifikante Steigerung der Verarbeitungsgeschwindigkeit und Effizienz erreicht.

Shuhuai Li, Jianghao Lin, Dongdong Ge, Yinyu Ye2026-03-12🤖 cs.LG

Evolving Demonstration Optimization for Chain-of-Thought Feature Transformation

Die vorgestellte Arbeit entwickelt einen Rahmen zur Optimierung von Kontextdaten für LLM-gesteuerte Feature-Transformationen, der durch einen geschlossenen Regelkreis mit evolutionären, auf Reinforcement Learning basierenden Erfahrungsbibliotheken und einer diversitätsbewussten Auswahl die Effizienz und Leistungsfähigkeit gegenüber bestehenden Methoden signifikant steigert.

Xinyuan Wang, Kunpeng Liu, Arun Vignesh Malarkkan, Yanjie Fu2026-03-12💬 cs.CL

Beyond the Prompt in Large Language Models: Comprehension, In-Context Learning, and Chain-of-Thought

Diese Studie liefert theoretische Erklärungen für die Leistungsfähigkeit von Large Language Models, indem sie zeigt, dass In-Context Learning die Aufgabenambiguität reduziert und Chain-of-Thought das Zerlegen komplexer Probleme in bereits gelernte Teilsequenzen ermöglicht, was durch die Analyse der Token-Übergangswahrscheinlichkeiten und statistischer Fehlergrenzen untermauert wird.

Yuling Jiao, Yanming Lai, Huazhen Lin, Wensen Ma, Houduo Qi, Defeng Sun2026-03-12💬 cs.CL

Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Die Studie nutzt Wikidata und Wikipedia, um einen mehrsprachigen Datensatz mit über 26.000 Fragen zu lateinamerikanischen soziokulturellen Themen zu erstellen, mit dem sich nachweisen lässt, dass große Sprachmodelle bei der Behandlung lateinamerikanischer Kulturen im Vergleich zur iberischen spanischen Kultur sowie in den jeweiligen Originalsprachen signifikante Wissenslücken und Verzerrungen aufweisen.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)2026-03-12💬 cs.CL

SpreadsheetArena: Decomposing Preference in LLM Generation of Spreadsheet Workbooks

Die Studie stellt SpreadsheetArena vor, eine Plattform zur blinden Paarvergleichsbewertung von LLM-generierten Tabellenkalkulationsworkbooks, die zeigt, dass Präferenzen für Stil, Struktur und Funktionalität stark variieren und aktuelle Spitzenmodelle oft noch nicht mit domänenspezifischen Best Practices übereinstimmen.

Srivatsa Kundurthy, Clara Na, Michael Handley, Zach Kirshner, Chen Bo Calvin Zhang, Manasi Sharma, Emma Strubell, John Ling2026-03-12💬 cs.CL

GATech at AbjadGenEval Shared Task: Multilingual Embeddings for Arabic Machine-Generated Text Classification

Das Team GATech stellt bei der AbjadGenEval-Shared-Task einen Ansatz zur Erkennung von KI-generiertem arabischen Text vor, bei dem ein feinabgestimmter multilingualer E5-large-Encoder mit einfacher Mittelwert-Pooling-Strategie die besten Ergebnisse (F1 0,75) erzielt, da komplexere Pooling-Methoden bei begrenzten Daten nicht besser generalisieren und zudem ein deutlicher Längenunterschied zwischen menschlichen und maschinellen Texten festgestellt wurde.

Ahmed Khaled Khamis2026-03-12💬 cs.CL

Personalized Group Relative Policy Optimization for Heterogenous Preference Alignment

Die vorgestellte Arbeit führt Personalized GRPO (P-GRPO) ein, ein neuartiges Ausrichtungsframework, das durch die Entkopplung der Vorteilsschätzung von der aktuellen Batch-Statistik und die Normalisierung gegenüber gruppenspezifischen Belohnungshistorien die Verzerrung zugunsten dominanter Präferenzen in heterogenen Szenarien überwindet und so eine schnellere Konvergenz sowie eine präzisere Anpassung an individuelle Nutzerpräferenzen ermöglicht.

Jialu Wang, Heinrich Peters, Asad A. Butt, Navid Hashemi, Alireza Hashemi, Pouya M. Ghari, Joseph Hoover, James Rae, Morteza Dehghani2026-03-12🤖 cs.LG

LWM-Temporal: Sparse Spatio-Temporal Attention for Wireless Channel Representation Learning

LWM-Temporal ist ein neuer, aufgabenunabhängiger Basis-Modell-Ansatz für drahtlose Kanäle, der durch eine physikalisch ausgerichtete, sparse spatio-temporale Aufmerksamkeit und ein selbstüberwachtes Vortraining mit physikbasiertem Maskierungscurriculum universelle, geometrie-konsistente Kanal-Embeddings lernt, die insbesondere bei langen Vorhersagehorizonten und begrenzten Fine-Tuning-Daten signifikante Verbesserungen gegenüber bestehenden Methoden erzielen.

Sadjad Alikhani, Akshay Malhotra, Shahab Hamidi-Rad, Ahmed Alkhateeb2026-03-12🤖 cs.LG

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Die Studie zeigt, dass autonome Cyber-Angreifer-Agenten durch IP-Adressänderungen in ihrer Generalisierungsfähigkeit stark beeinträchtigt werden, wobei zwar promptgesteuerte LLM-Agenten die höchste Erfolgswahrscheinlichkeit aufweisen, dies jedoch auf Kosten von Rechenleistung, Transparenz und Zuverlässigkeit geht.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian Garcia2026-03-12💻 cs

Gated Adaptation for Continual Learning in Human Activity Recognition

Die vorgeschlagene Methode zur kontinuierlichen Lernfähigkeit in der menschlichen Aktivitätserkennung nutzt eine parametereffiziente, kanalweise gated Modulation eingefrorener vortrainierter Merkmale, um durch selektive Skalierung statt neuer Merkmalsgenerierung sowohl Stabilität gegen katastrophales Vergessen als auch Plastizität für neue Subjekte zu gewährleisten.

Reza Rahimi Azghan, Gautham Krishna Gudur, Mohit Malu, Edison Thomaz, Giulia Pedrielli, Pavan Turaga, Hassan Ghasemzadeh2026-03-12🤖 cs.LG