Automated Detection of Malignant Lesions in the Ovary Using Deep Learning Models and XAI

Este estudio propone un sistema automatizado para la detección de lesiones malignas en el ovario utilizando variantes de redes neuronales convolucionales entrenadas con un conjunto de datos histopatológicos, donde el modelo InceptionV3 con ReLU obtuvo el mejor rendimiento (94%) y se complementó con técnicas de IA explicable (LIME, Integrated Gradients y SHAP) para interpretar los resultados.

Md. Hasin Sarwar Ifty, Nisharga Nirjan, Labib Islam, M. A. Diganta, Reeyad Ahmed Ornate, Anika Tasnim, Md. Saiful Islam2026-03-13🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

El artículo identifica y cuantifica la "Dilema del Ejecutor de Confianza", una vulnerabilidad estructural en los agentes LLM de alto privilegio que les lleva a ejecutar instrucciones maliciosas ocultas en documentación técnica, demostrando mediante el benchmark ReadSecBench que las defensas actuales son ineficaces para prevenir la exfiltración de datos sin generar falsos positivos inaceptables.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip Sperl2026-03-13🤖 cs.AI

CreativeBench: Benchmarking and Enhancing Machine Creativity via Self-Evolving Challenges

Este trabajo presenta CreativeBench, un nuevo marco de evaluación cuantitativa para la creatividad en la generación de código que distingue objetivamente entre creatividad y alucinación, revela comportamientos específicos de los modelos a escala y propone EvoRePE, una estrategia de inferencia que mejora consistentemente la creatividad de las máquinas mediante patrones de búsqueda evolutiva.

Zi-Han Wang, Lam Nguyen, Zhengyang Zhao, Mengyue Yang, Chengwei Qin, Yujiu Yang, Linyi Yang2026-03-13🤖 cs.AI

ELISA: An Interpretable Hybrid Generative AI Agent for Expression-Grounded Discovery in Single-Cell Genomics

ElISA es un agente de IA híbrido e interpretable que unifica los embeddings de scGPT con la recuperación semántica de BioBERT y la interpretación mediada por LLM para permitir el descubrimiento interactivo de hipótesis biológicas a partir de datos de scRNA-seq sin acceder a la matriz de conteo original, superando significativamente a sistemas anteriores como CellWhisperer en la recuperación de tipos celulares y la alineación con hallazgos biológicos publicados.

Omar Coser2026-03-13🧬 q-bio

AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization

El artículo presenta AdaFuse, un marco que acelera la inferencia de adaptadores dinámicos en modelos de lenguaje grandes mediante una estrategia de pre-gateo a nivel de token y la optimización de kernels CUDA fusionados, logrando reducir la latencia de decodificación en más de 2,4 veces sin comprometer la precisión.

Qiyang Li, Rui Kong, Yuchen Li, Hengyi Cai, Shuaiqiang Wang, Linghe Kong, Guihai Chen, Dawei Yin2026-03-13🤖 cs.AI

Bielik-Minitron-7B: Compressing Large Language Models via Structured Pruning and Knowledge Distillation for the Polish Language

Este informe presenta Bielik-Minitron-7B, un modelo de lenguaje comprimido para el polaco que, mediante poda estructurada y destilación de conocimiento, reduce un 33,4% los parámetros del modelo original Bielik-11B-v3.0 recuperando el 90% de su rendimiento y logrando una aceleración de inferencia de hasta un 50%.

Remigiusz Kinas, Paweł Kiszczak, Sergio P. Perez, Krzysztof Ociepa, Łukasz Flis, Krzysztof Wróbel, Adrian Gwozdziej2026-03-13💬 cs.CL

Think While Watching: Online Streaming Segment-Level Memory for Multi-Turn Video Reasoning in Multimodal Large Language Models

El artículo presenta "Think While Watching", un marco de razonamiento en streaming para modelos multimodales que, mediante una memoria anclada a nivel de segmento y una estrategia de entrenamiento de tres etapas, permite la percepción y generación simultáneas para mejorar la interacción de múltiples vueltas en flujos de video continuos.

Lu Wang (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Zhuoran Jin (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yupu Hao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yubo Chen (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Kang Liu (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yulong Ao (Beijing Academy of Artificial Intelligence), Jun Zhao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China)2026-03-13💬 cs.CL

Understanding LLM Behavior When Encountering User-Supplied Harmful Content in Harmless Tasks

Este estudio revela que los modelos de lenguaje actuales, incluso los más avanzados, a menudo fallan en mantener principios éticos al procesar contenido dañino proporcionado por el usuario dentro de tareas aparentemente benignas, lo que destaca una vulnerabilidad de seguridad de nivel de contenido que requiere medidas de mitigación.

Junjie Chu, Yiting Qu, Ye Leng, Michael Backes, Yun Shen, Savvas Zannettou, Yang Zhang2026-03-13🤖 cs.AI

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

El artículo presenta MobileKernelBench, un marco de evaluación que revela las limitaciones actuales de los LLMs para generar kernels eficientes en dispositivos móviles, y propone MoKA, un agente multiagente que supera estos desafíos logrando una tasa de compilación del 93,7% y mejoras de velocidad significativas.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG

Fair Learning for Bias Mitigation and Quality Optimization in Paper Recommendation

El artículo presenta Fair-PaperRec, un modelo basado en redes neuronales que utiliza criterios interseccionales y una función de pérdida personalizada para mitigar los sesgos demográficos en la aceptación de artículos académicos, logrando simultáneamente un aumento significativo en la participación de grupos subrepresentados y una mejora en la utilidad general sin comprometer el rigor académico.

Uttamasha Anjally Oyshi, Susan Gauch2026-03-13🤖 cs.AI

Effective Resistance Rewiring: A Simple Topological Correction for Over-Squashing

El artículo presenta la Reconfiguración de Resistencia Efectiva (ERR), una estrategia de corrección topológica que utiliza la resistencia efectiva global para identificar y mitigar los cuellos de botella estructurales que causan el "sobre-aplastamiento" en las Redes Neuronales de Grafos, mejorando la propagación de información a larga distancia mientras gestiona el equilibrio entre la conectividad y el sobre-suavizado mediante técnicas de normalización.

Bertran Miquel-Oliver, Manel Gil-Sorribes, Victor Guallar, Alexis Molina2026-03-13🤖 cs.LG

Delayed Backdoor Attacks: Exploring the Temporal Dimension as a New Attack Surface in Pre-Trained Models

Este trabajo introduce los Ataques de Puerta Trasera Retardados (DBA), una nueva clase de amenazas que desacoplan temporalmente la activación maliciosa del disparador mediante el módulo DND, demostrando que es posible utilizar palabras cotidianas como triggers y mantener la puerta trasera latente hasta alcanzar un umbral configurado, lo que revela una superficie de ataque temporal previamente inexplorada en modelos preentrenados.

Zikang Ding, Haomiao Yang, Meng Hao, Wenbo Jiang, Kunlan Xiang, Runmeng Du, Yijing Liu, Ruichen Zhang, Dusit Niyato2026-03-13🤖 cs.AI

Learning Transferable Sensor Models via Language-Informed Pretraining

El artículo presenta SLIP, un marco de preentrenamiento de código abierto que alinea representaciones de sensores con el lenguaje mediante un embebido de parches flexible y un modelo de lenguaje preentrenado, logrando un rendimiento superior en transferencia cero, descripción de señales y preguntas sobre sensores a través de configuraciones y resoluciones temporales diversas.

Yuliang Chen, Arvind Pillai, Yu Yvonne Wu, Tess Z. Griffin, Lisa Marsch, Michael V. Heinz, Nicholas C. Jacobson, Andrew Campbell2026-03-13🤖 cs.AI