CFG-Ctrl: Control-Based Classifier-Free Diffusion Guidance

El artículo presenta CFG-Ctrl, un marco unificado que reinterpreta la Guía Libre de Clasificadores (CFG) como un control de flujo generativo y propone SMC-CFG, un método basado en control por modo deslizante que supera las limitaciones de inestabilidad y overshooting de los enfoques lineales existentes, logrando una mejor alineación semántica y convergencia en modelos de generación de imágenes.

Hanyang Wang, Yiyang Liu, Jiawei Chi, Fangfu Liu, Ran Xue, Yueqi Duan2026-03-12🤖 cs.LG

One Model, Many Skills: Parameter-Efficient Fine-Tuning for Multitask Code Analysis

Este artículo presenta la primera evaluación exhaustiva del ajuste fino eficiente en parámetros (PEFT) para el análisis de código multitarea, demostrando que un único módulo PEFT compartido puede igualar o superar al ajuste completo con una reducción drástica de costos computacionales y de almacenamiento, aunque su éxito depende críticamente de factores como la estabilidad de las tareas, la arquitectura del modelo y la calidad de los datos.

Amal Akli, Maxime Cordy, Mike Papadakis, Yves Le Traon2026-03-12💻 cs

Evolving Demonstration Optimization for Chain-of-Thought Feature Transformation

Este artículo presenta un marco que optimiza la transformación de características impulsada por modelos de lenguaje grande mediante la evolución de demostraciones en bucle cerrado y la selección de contextos diversos, superando así las limitaciones de eficiencia y diversidad de los métodos existentes para mejorar el rendimiento en tareas predictivas tabulares.

Xinyuan Wang, Kunpeng Liu, Arun Vignesh Malarkkan, Yanjie Fu2026-03-12💬 cs.CL

TAMUSA-Chat: A Domain-Adapted Large Language Model Conversational System for Research and Responsible Deployment

Este artículo presenta TAMUSA-Chat, un marco de investigación para desarrollar sistemas conversacionales de modelos de lenguaje grandes adaptados a contextos institucionales mediante técnicas de ajuste fino y generación aumentada por recuperación, priorizando la transparencia, el cumplimiento normativo y las prácticas de IA responsable.

Izzat Alsmadi, Anas Alsobeh2026-03-12💬 cs.CL

Beyond the Prompt in Large Language Models: Comprehension, In-Context Learning, and Chain-of-Thought

Este estudio ofrece una fundamentación teórica sobre la comprensión semántica, el aprendizaje en contexto y el razonamiento paso a paso en los modelos de lenguaje grandes, demostrando que estas capacidades surgen de la inferencia de probabilidades de transición, la reducción de ambigüedad y la descomposición de tareas durante el proceso autoregresivo.

Yuling Jiao, Yanming Lai, Huazhen Lin, Wensen Ma, Houduo Qi, Defeng Sun2026-03-12💬 cs.CL

Leveraging Wikidata for Geographically Informed Sociocultural Bias Dataset Creation: Application to Latin America

Este trabajo presenta la creación de LatamQA, un conjunto de datos de más de 26.000 preguntas y respuestas en español y portugués derivadas de Wikipedia y Wikidata, para evaluar y revelar sesgos socioculturales y geográficos en los modelos de lenguaje grande hacia las diversas culturas de América Latina.

Yannis Karmim (ALMAnaCH), Renato Pino (UCHILE), Hernan Contreras (UCHILE), Hernan Lira (CENIA), Sebastian Cifuentes (CENIA), Simon Escoffier (PUC), Luis Martí (UP4, ALPAGE), Djamé Seddah (UP4, ALPAGE), Valentin Barrière (UCHILE, CENIA)2026-03-12💬 cs.CL

SpreadsheetArena: Decomposing Preference in LLM Generation of Spreadsheet Workbooks

El artículo presenta SpreadsheetArena, una plataforma de evaluación mediante comparaciones ciegas que revela que, aunque los modelos de lenguaje avanzados generan hojas de cálculo, a menudo no se alinean consistentemente con las mejores prácticas específicas de dominios como las finanzas debido a la variabilidad de criterios de preferencia.

Srivatsa Kundurthy, Clara Na, Michael Handley, Zach Kirshner, Chen Bo Calvin Zhang, Manasi Sharma, Emma Strubell, John Ling2026-03-12💬 cs.CL

GATech at AbjadGenEval Shared Task: Multilingual Embeddings for Arabic Machine-Generated Text Classification

En la tarea compartida AbjadGenEval, el equipo GATech demostró que el ajuste fino del codificador multilingüe E5-large combinado con un simple promedio de pooling (que alcanzó un F1 de 0.75) superó a estrategias de agrupación más complejas, destacando además que los textos escritos por humanos tienden a ser significativamente más largos que los generados por máquinas.

Ahmed Khaled Khamis2026-03-12💬 cs.CL

GATech at AbjadMed: Bidirectional Encoders vs. Causal Decoders: Insights from 82-Class Arabic Medical Classification

Este artículo demuestra que los codificadores bidireccionales especializados, como AraBERTv2 con estrategias de agrupación híbridas, superan significativamente a los decodificadores causales en la clasificación de texto médico árabe de 82 clases, debido a su capacidad para capturar mejor los límites semánticos globales necesarios para esta tarea.

Ahmed Khaled Khamis2026-03-12💬 cs.CL

Personalized Group Relative Policy Optimization for Heterogenous Preference Alignment

Este artículo presenta P-GRPO, un marco de alineación novedoso que supera las limitaciones de los métodos estándar al decouplar la estimación de ventajas de las estadísticas del lote inmediato y normalizarlas según historiales específicos de grupos de preferencia, logrando así una convergencia más rápida y una alineación efectiva con señales de preferencias heterogéneas en modelos de lenguaje grandes.

Jialu Wang, Heinrich Peters, Asad A. Butt, Navid Hashemi, Alireza Hashemi, Pouya M. Ghari, Joseph Hoover, James Rae, Morteza Dehghani2026-03-12🤖 cs.LG

Defining AI Models and AI Systems: A Framework to Resolve the Boundary Problem

Este artículo propone definiciones conceptuales y operativas claras para distinguir entre "modelos de IA" y "sistemas de IA", con el objetivo de resolver las ambigüedades actuales que dificultan la asignación de responsabilidades y obligaciones en la cadena de valor de la inteligencia artificial bajo marcos regulatorios como la Ley de IA de la UE.

Yuanyuan Sun, Timothy Parker, Lara Gierschmann, Sana Shams, Teo Canmetin, Mathieu Duteil, Rokas Gipiškis, Ze Shen Chin2026-03-12🤖 cs.AI

LWM-Temporal: Sparse Spatio-Temporal Attention for Wireless Channel Representation Learning

LWM-Temporal es un modelo fundacional de aprendizaje automático diseñado para representar canales inalámbricos mediante un mecanismo de atención espaciotemporal dispersa y alineada con la propagación física, lo que le permite aprender incrustaciones universales reutilizables en diversas tareas de predicción de canales, especialmente en escenarios de alta movilidad y con datos limitados.

Sadjad Alikhani, Akshay Malhotra, Shahab Hamidi-Rad, Ahmed Alkhateeb2026-03-12🤖 cs.LG

HTM-EAR: Importance-Preserving Tiered Memory with Hybrid Routing under Saturation

El artículo presenta HTM-EAR, un sistema de memoria jerárquica que combina almacenamiento de trabajo basado en HNSW y almacenamiento de archivo con enrutamiento híbrido y reordenamiento, logrando preservar la precisión de consultas activas y gestionar eficazmente el olvido controlado bajo condiciones de saturación extrema, superando significativamente a estrategias tradicionales como LRU.

Shubham Kumar Singh2026-03-12🤖 cs.AI

Evaluating Generalization Mechanisms in Autonomous Cyber Attack Agents

Este artículo evalúa la capacidad de generalización de agentes de ciberataque autónomos ante cambios en la asignación de direcciones IP, concluyendo que aunque los agentes impulsados por LLM logran el mejor rendimiento en escenarios no vistos, lo hacen a costa de un mayor consumo computacional, menor transparencia y la aparición de fallos prácticos como bucles de acciones inválidas.

Ondřej Lukáš, Jihoon Shin, Emilia Rivas, Diego Forni, Maria Rigaki, Carlos Catania, Aritran Piplai, Christopher Kiekintveld, Sebastian Garcia2026-03-12💻 cs