Adversarial Batch Representation Augmentation for Batch Correction in High-Content Cellular Screening

Este trabajo presenta ABRA, un nuevo enfoque de generalización de dominio que utiliza aumentos de representación adversaria para mitigar efectos de lote biológico en imágenes de cribado de alto contenido, logrando un estado del arte en la clasificación de perturbaciones de ARN de interferencia sin depender de conocimientos previos.

Lei Tong, Xujing Yao, Adam Corrigan, Long Chen, Navin Rathna Kumar, Kerry Hallbrook, Jonathan Orme, Yinhai Wang, Huiyu Zhou2026-03-09🤖 cs.AI

Post Fusion Bird's Eye View Feature Stabilization for Robust Multimodal 3D Detection

El artículo presenta el Estabilizador de Fusión Posterior (PFS), un módulo ligero que mejora la robustez de los detectores 3D multimodales existentes frente a cambios de dominio y fallos de sensores mediante la estabilización de características en la vista cenital, logrando un rendimiento superior sin requerir reentrenamiento ni modificar la arquitectura base.

Trung Tien Dong, Dev Thakkar, Arman Sargolzaei, Xiaomin Lin2026-03-09🤖 cs.AI

Relational Semantic Reasoning on 3D Scene Graphs for Open World Interactive Object Search

El artículo presenta SCOUT, un método innovador que utiliza grafos de escena 3D y un marco de destilación procedimental para realizar búsquedas interactivas de objetos en entornos abiertos de manera eficiente, superando las limitaciones de los métodos basados en similitud de embeddings y los modelos de lenguaje grandes en términos de velocidad y costo.

Imen Mahdi, Matteo Cassinelli, Fabien Despinoy, Tim Welschehold, Abhinav Valada2026-03-09🤖 cs.AI

The Fragility Of Moral Judgment In Large Language Models

El estudio demuestra que los juicios morales de los modelos de lenguaje grandes son altamente frágiles y dependientes de la presentación, ya que cambian significativamente ante alteraciones en el punto de vista, las señales persuasivas y, sobre todo, en la estructura de la instrucción, lo que plantea graves preocupaciones sobre la equidad y la reproducibilidad de sus evaluaciones éticas.

Tom van Nuenen, Pratik S. Sachdeva2026-03-09🤖 cs.AI

The DSA's Blind Spot: Algorithmic Audit of Advertising and Minor Profiling on TikTok

Este estudio revela que, aunque TikTok cumple formalmente con la prohibición de la Ley de Servicios Digitales de mostrar publicidad basada en perfiles a menores, el algoritmo sigue exponiéndolos a una publicidad encubierta e influidora altamente personalizada que evade la regulación debido a una definición legal demasiado estrecha de "anuncio".

Sara Solarova, Matej Mosnar, Matus Tibensky, Jan Jakubcik, Adrian Bindas, Simon Liska, Filip Hossner, Matúš Mesarčík, Ivan Srba2026-03-09🤖 cs.AI

When Rubrics Fail: Error Enumeration as Reward in Reference-Free RL Post-Training for Virtual Try-On

Este artículo propone el Recuento de Errores Implícito (IEC), un método de aprendizaje por refuerzo sin referencias que enumera y penaliza errores específicos en lugar de depender de rúbricas basadas en respuestas ideales, logrando así un rendimiento superior en la tarea de probador virtual donde existen múltiples soluciones válidas.

Wisdom Ikezogwo, Mehmet Saygin Seyfioglu, Ranjay Krishna, Karim Bouyarmane2026-03-09🤖 cs.AI

SecureRAG-RTL: A Retrieval-Augmented, Multi-Agent, Zero-Shot LLM-Driven Framework for Hardware Vulnerability Detection

El artículo presenta SecureRAG-RTL, un marco innovador basado en generación aumentada por recuperación (RAG) y agentes múltiples que mejora significativamente la detección de vulnerabilidades en diseños de hardware descritos en HDL al superar las limitaciones de conocimiento de los modelos de lenguaje grandes, logrando un aumento promedio del 30% en la precisión y liberando un nuevo conjunto de datos de referencia para la investigación futura.

Touseef Hasan, Blessing Airehenbuwa, Nitin Pundir, Souvika Sarkar, Ujjwal Guin2026-03-09🤖 cs.AI

Longitudinal Lesion Inpainting in Brain MRI via 3D Region Aware Diffusion

Este trabajo presenta un nuevo marco de inpainting longitudinal pseudo-3D basado en modelos de difusión que, al integrar contexto temporal y un mecanismo de atención regional, supera a los métodos existentes en fidelidad perceptual, estabilidad temporal y eficiencia computacional para el análisis de resonancias magnéticas cerebrales con lesiones evolutivas.

Zahra Karimaghaloo, Dumitru Fetco, Haz-Edine Assemlal, Hassan Rivaz, Douglas L. Arnold2026-03-09🤖 cs.AI

Reasoning Models Struggle to Control their Chains of Thought

El estudio introduce la suite de evaluación CoT-Control para demostrar que los modelos de razonamiento actuales tienen una capacidad significativamente limitada para controlar sus cadenas de pensamiento en comparación con sus salidas finales, lo que sugiere que la monitorización de estas cadenas sigue siendo una herramienta viable para detectar comportamientos indeseables.

Chen Yueh-Han, Robert McCarthy, Bruce W. Lee, He He, Ian Kivlichan, Bowen Baker, Micah Carroll, Tomek Korbak2026-03-09🤖 cs.AI

The Rise of AI in Weather and Climate Information and its Impact on Global Inequality

El artículo advierte que la rápida adopción de la IA en la ciencia climática, al depender de una infraestructura computacional y de datos concentrada en el Norte Global, corre el riesgo de exacerbar las desigualdades globales y propone un cambio hacia un desarrollo centrado en los datos, infraestructura digital pública y co-producción de conocimiento para democratizar la soberanía tecnológica y garantizar una resiliencia sistémica equitativa.

Amirpasha Mozaffari, Amanda Duarte, Lina Teckentrup, Stefano Materia, Gina E. C. Charnley, Lluis Palma, Eulalia Baulenas Serra, Dragana Bojovic, Paula Checchia, Aude Carreric, Francisco Doblas-Reyes2026-03-09🤖 cs.AI

Cultural Perspectives and Expectations for Generative AI: A Global Survey Approach

Este artículo presenta los resultados de una encuesta global que examina las actitudes hacia la representación cultural en la IA generativa, definiendo el concepto de cultura a partir de las comunidades estudiadas y proponiendo recomendaciones para un desarrollo más inclusivo y sensible.

Erin van Liemt, Renee Shelby, Andrew Smart, Sinchana Kumbale, Richard Zhang, Neha Dixit, Qazi Mamunur Rashid, Jamila Smith-Loud2026-03-09🤖 cs.AI

LTLGuard: Formalizing LTL Specifications with Compact Language Models and Lightweight Symbolic Reasoning

El artículo presenta LTLGuard, una herramienta modular que combina la generación de modelos de lenguaje compactos con verificación simbólica ligera para traducir requisitos informales en especificaciones de lógica temporal lineal (LTL) correctas y sin conflictos.

Medina Andresel, Cristinel Mateis, Dejan Nickovic, Spyridon Kounoupidis, Panagiotis Katsaros, Stavros Tripakis2026-03-09🤖 cs.AI

Knowing without Acting: The Disentangled Geometry of Safety Mechanisms in Large Language Models

Este artículo propone la Hipótesis de Seguridad Desentrelazada (DSH), que revela una separación geométrica entre la detección de peligros y la ejecución de denegaciones en los modelos de lenguaje, permitiendo tanto la creación de un benchmark para validar esta disociación como el desarrollo del ataque de borrado de rechazo (REA) que logra tasas de éxito sin precedentes al eliminar quirúrgicamente el mecanismo de denegación.

Jinman Wu, Yi Xie, Shen Lin, Shiqian Zhao, Xiaofeng Chen2026-03-09🤖 cs.AI

PVminerLLM: Structured Extraction of Patient Voice from Patient-Generated Text using Large Language Models

El artículo presenta PVminer, un benchmark, y PVminerLLM, un modelo de lenguaje grande ajustado para la extracción estructurada de la voz del paciente a partir de texto generado por pacientes, logrando un rendimiento superior a los métodos basados en prompts y demostrando que es posible analizar señales sociales y experienciales a escala sin necesidad de modelos extremadamente grandes.

Samah Fodeh, Linhai Ma, Ganesh Puthiaraju, Srivani Talakokkul, Afshan Khan, Ashley Hagaman, Sarah Lowe, Aimee Roundtree2026-03-09🤖 cs.AI

Balancing Domestic and Global Perspectives: Evaluating Dual-Calibration and LLM-Generated Nudges for Diverse News Recommendation

Este estudio evalúa un marco de empujes personalizados que combina un algoritmo de calibración dual de temas y localización con nudges generados por modelos de lenguaje grande, demostrando mediante un experimento de cinco semanas que las intervenciones algorítmicas aumentan efectivamente la diversidad de consumo de noticias domésticas y mundiales, mientras que la relevancia personalizada supera a la personalización genérica.

Ruixuan Sun, Matthew Zent, Minzhu Zhao, Thanmayee Boyapati, Xinyi Li, Joseph A. Konstan2026-03-09🤖 cs.AI