HELM: Hierarchical and Explicit Label Modeling with Graph Learning for Multi-Label Image Classification

Le papier présente HELM, un cadre novateur pour la classification hiérarchique multi-étiquettes d'images de télédétection qui combine des tokens de classe spécifiques à la hiérarchie, des réseaux de convolution graphique et un apprentissage auto-supervisé pour atteindre des performances de pointe, notamment dans des scénarios à faible quantité de données étiquetées.

Marjan Stoimchev, Boshko Koloski, Jurica Levatic, Dragi Kocev, Sašo Džeroski2026-03-13🤖 cs.AI

Locating Demographic Bias at the Attention-Head Level in CLIP's Vision Encoder

Cette étude propose une audit de biais mécanistique pour localiser les préjugés démographiques au niveau des têtes d'attention individuelles dans l'encodeur visuel de CLIP, démontrant que l'ablation de têtes spécifiques réduit efficacement les biais de genre tout en révélant une localisation plus diffuse pour les biais liés à l'âge.

Alaa Yasser, Kittipat Phunjanna, Marcos Escudero Viñolo, Catarina Barata, Jenny Benois-Pineau2026-03-13🤖 cs.AI

DocSage: An Information Structuring Agent for Multi-Doc Multi-Entity Question Answering

Le papier présente DocSage, un cadre agentique innovant qui améliore significativement la réponse aux questions multi-documents et multi-entités en intégrant la découverte dynamique de schémas, l'extraction d'informations structurées et un raisonnement relationnel, surpassant ainsi les systèmes RAG et les LLMs à contexte étendu de plus de 27 % en précision.

Teng Lin, Yizhang Zhu, Zhengxuan Zhang, Yuyu Luo, Nan Tang2026-03-13🤖 cs.AI

Automating Skill Acquisition through Large-Scale Mining of Open-Source Agentic Repositories: A Framework for Multi-Agent Procedural Knowledge Extraction

Ce rapport présente un cadre automatisé pour l'extraction de compétences procédurales à partir de dépôts open-source d'agents, démontrant que l'exploitation systématique de ces ressources permet d'améliorer l'efficacité du transfert de connaissances éducatives de 40 % sans nécessiter de réentraînement des modèles.

Shuzhen Bi, Mengsong Wu, Hao Hao, Keqian Li, Wentao Liu, Siyu Song, Hongbo Zhao, Aimin Zhou2026-03-13🤖 cs.AI

RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset

Le papier présente RADAR, un système entièrement autonome en boucle fermée qui élimine l'intervention humaine dans la collecte de données robotiques en combinant un modèle langage-vision pour la planification sémantique, un réseau de neurones graphiques pour l'exécution, et un mécanisme de réinitialisation causale autonome pour générer à grande échelle des données d'interaction physique complexes.

Yongzhong Wang, Keyu Zhu, Yong Zhong, Liqiong Wang, Jinyu Yang, Feng Zheng2026-03-13🤖 cs.AI

VisiFold: Long-Term Traffic Forecasting via Temporal Folding Graph and Node Visibility

Le papier présente VisiFold, un cadre innovant de prévision du trafic à long terme qui surpasse les méthodes existantes en réduisant drastiquement la consommation de ressources grâce à un graphe de pliage temporel et un mécanisme de visibilité des nœuds, tout en maintenant des performances élevées même avec un taux de masquage élevé.

Zhiwei Zhang, Xinyi Du, Weihao Wang, Xuanchi Guo, Wenjuan Han2026-03-13🤖 cs.AI

Automated Detection of Malignant Lesions in the Ovary Using Deep Learning Models and XAI

Cette étude propose une méthode automatisée de détection des lésions malignes de l'ovaire en utilisant des modèles de deep learning, notamment InceptionV3, et des techniques d'intelligence artificielle explicable (XAI) pour améliorer la précision diagnostique et interprétabilité des résultats.

Md. Hasin Sarwar Ifty, Nisharga Nirjan, Labib Islam, M. A. Diganta, Reeyad Ahmed Ornate, Anika Tasnim, Md. Saiful Islam2026-03-13🤖 cs.AI

Hybrid Human-Agent Social Dilemmas in Energy Markets

Cette étude démontre que l'introduction d'agents artificiels capables d'utiliser des signaux observables dans les marchés de l'énergie favorise l'émergence de comportements coopératifs et améliore les résultats collectifs, même lors d'une adoption partielle par les consommateurs humains, bien que cela puisse créer des asymétries de bénéfices entre adoptants et non-adoptants.

Isuri Perera, Frits de Nijs, Julian Garcia2026-03-13🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

Cette étude révèle que les agents LLM à hauts privilèges sont vulnérables à une fuite de données privée via l'injection d'instructions malveillantes dans la documentation technique, un problème structurel de leur conception qui échappe aux défenses actuelles et crée un écart critique entre leur conformité fonctionnelle et leur sécurité.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip Sperl2026-03-13🤖 cs.AI

CreativeBench: Benchmarking and Enhancing Machine Creativity via Self-Evolving Challenges

Ce papier présente CreativeBench, un benchmark quantitatif évaluant la créativité des modèles d'IA via une métrique combinant qualité et nouveauté, révèle des limites de l'augmentation de l'échelle dans l'exploration créative, et propose EvoRePE, une stratégie d'inférence améliorant ces capacités par des motifs de recherche évolutive.

Zi-Han Wang, Lam Nguyen, Zhengyang Zhao, Mengyue Yang, Chengwei Qin, Yujiu Yang, Linyi Yang2026-03-13🤖 cs.AI

AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization

AdaFuse est un cadre qui accélère l'inférence des adaptateurs dynamiques dans les grands modèles de langage en combinant une stratégie de pré-gating au niveau des tokens avec une optimisation de noyau CUDA fusionné, réduisant ainsi la latence de décodage d'un facteur supérieur à 2,4 tout en maintenant des performances précises.

Qiyang Li, Rui Kong, Yuchen Li, Hengyi Cai, Shuaiqiang Wang, Linghe Kong, Guihai Chen, Dawei Yin2026-03-13🤖 cs.AI

Bielik-Minitron-7B: Compressing Large Language Models via Structured Pruning and Knowledge Distillation for the Polish Language

Ce rapport présente la création de Bielik-Minitron-7B, un modèle de langue polonaise compressé à 7,35 milliards de paramètres via une méthode de deux étapes combinant élagage structuré et distillation de connaissances, qui permet de récupérer 90 % des performances du modèle original tout en accélérant l'inférence de 50 %.

Remigiusz Kinas, Paweł Kiszczak, Sergio P. Perez, Krzysztof Ociepa, Łukasz Flis, Krzysztof Wróbel, Adrian Gwozdziej2026-03-13💬 cs.CL

Think While Watching: Online Streaming Segment-Level Memory for Multi-Turn Video Reasoning in Multimodal Large Language Models

L'article présente « Think While Watching », un cadre de raisonnement vidéo en flux continu pour les modèles multimodaux qui, en maintenant une mémoire par segment et en superposant l'observation à la réflexion, permet des interactions multi-tours efficaces tout en améliorant la précision et en réduisant le nombre de tokens générés.

Lu Wang (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Zhuoran Jin (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yupu Hao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yubo Chen (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Kang Liu (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yulong Ao (Beijing Academy of Artificial Intelligence), Jun Zhao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China)2026-03-13💬 cs.CL

EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting

Ce papier présente EnTransformer, un cadre de prévision génératif profond qui combine l'engression et les Transformers pour produire des prévisions probabilistes multivariées bien calibrées et cohérentes, surpassant les modèles de référence sur plusieurs benchmarks sans imposer d'hypothèses paramétriques restrictives.

Rajdeep Pathak, Rahul Goswami, Madhurima Panja, Palash Ghosh, Tanujit Chakraborty2026-03-13📊 stat

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

Ce papier présente MobileKernelBench, un cadre d'évaluation révélant les limites actuelles des LLMs pour générer des noyaux efficaces sur mobile, et propose MoKA, un système multi-agents qui améliore considérablement le taux de compilation et les performances par rapport aux bibliothèques natives.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG