Automating Skill Acquisition through Large-Scale Mining of Open-Source Agentic Repositories: A Framework for Multi-Agent Procedural Knowledge Extraction

Ce rapport présente un cadre automatisé pour l'extraction de compétences procédurales à partir de dépôts open-source d'agents, démontrant que l'exploitation systématique de ces ressources permet d'améliorer l'efficacité du transfert de connaissances éducatives de 40 % sans nécessiter de réentraînement des modèles.

Shuzhen Bi, Mengsong Wu, Hao Hao, Keqian Li, Wentao Liu, Siyu Song, Hongbo Zhao, Aimin Zhou2026-03-13🤖 cs.AI

RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset

Le papier présente RADAR, un système entièrement autonome en boucle fermée qui élimine l'intervention humaine dans la collecte de données robotiques en combinant un modèle langage-vision pour la planification sémantique, un réseau de neurones graphiques pour l'exécution, et un mécanisme de réinitialisation causale autonome pour générer à grande échelle des données d'interaction physique complexes.

Yongzhong Wang, Keyu Zhu, Yong Zhong, Liqiong Wang, Jinyu Yang, Feng Zheng2026-03-13🤖 cs.AI

VisiFold: Long-Term Traffic Forecasting via Temporal Folding Graph and Node Visibility

Le papier présente VisiFold, un cadre innovant de prévision du trafic à long terme qui surpasse les méthodes existantes en réduisant drastiquement la consommation de ressources grâce à un graphe de pliage temporel et un mécanisme de visibilité des nœuds, tout en maintenant des performances élevées même avec un taux de masquage élevé.

Zhiwei Zhang, Xinyi Du, Weihao Wang, Xuanchi Guo, Wenjuan Han2026-03-13🤖 cs.AI

Automated Detection of Malignant Lesions in the Ovary Using Deep Learning Models and XAI

Cette étude propose une méthode automatisée de détection des lésions malignes de l'ovaire en utilisant des modèles de deep learning, notamment InceptionV3, et des techniques d'intelligence artificielle explicable (XAI) pour améliorer la précision diagnostique et interprétabilité des résultats.

Md. Hasin Sarwar Ifty, Nisharga Nirjan, Labib Islam, M. A. Diganta, Reeyad Ahmed Ornate, Anika Tasnim, Md. Saiful Islam2026-03-13🤖 cs.AI

Hybrid Human-Agent Social Dilemmas in Energy Markets

Cette étude démontre que l'introduction d'agents artificiels capables d'utiliser des signaux observables dans les marchés de l'énergie favorise l'émergence de comportements coopératifs et améliore les résultats collectifs, même lors d'une adoption partielle par les consommateurs humains, bien que cela puisse créer des asymétries de bénéfices entre adoptants et non-adoptants.

Isuri Perera, Frits de Nijs, Julian Garcia2026-03-13🤖 cs.AI

You Told Me to Do It: Measuring Instructional Text-induced Private Data Leakage in LLM Agents

Cette étude révèle que les agents LLM à hauts privilèges sont vulnérables à une fuite de données privée via l'injection d'instructions malveillantes dans la documentation technique, un problème structurel de leur conception qui échappe aux défenses actuelles et crée un écart critique entre leur conformité fonctionnelle et leur sécurité.

Ching-Yu Kao, Xinfeng Li, Shenyu Dai, Tianze Qiu, Pengcheng Zhou, Eric Hanchen Jiang, Philip Sperl2026-03-13🤖 cs.AI

CreativeBench: Benchmarking and Enhancing Machine Creativity via Self-Evolving Challenges

Ce papier présente CreativeBench, un benchmark quantitatif évaluant la créativité des modèles d'IA via une métrique combinant qualité et nouveauté, révèle des limites de l'augmentation de l'échelle dans l'exploration créative, et propose EvoRePE, une stratégie d'inférence améliorant ces capacités par des motifs de recherche évolutive.

Zi-Han Wang, Lam Nguyen, Zhengyang Zhao, Mengyue Yang, Chengwei Qin, Yujiu Yang, Linyi Yang2026-03-13🤖 cs.AI

AdaFuse: Accelerating Dynamic Adapter Inference via Token-Level Pre-Gating and Fused Kernel Optimization

AdaFuse est un cadre qui accélère l'inférence des adaptateurs dynamiques dans les grands modèles de langage en combinant une stratégie de pré-gating au niveau des tokens avec une optimisation de noyau CUDA fusionné, réduisant ainsi la latence de décodage d'un facteur supérieur à 2,4 tout en maintenant des performances précises.

Qiyang Li, Rui Kong, Yuchen Li, Hengyi Cai, Shuaiqiang Wang, Linghe Kong, Guihai Chen, Dawei Yin2026-03-13🤖 cs.AI

Bielik-Minitron-7B: Compressing Large Language Models via Structured Pruning and Knowledge Distillation for the Polish Language

Ce rapport présente la création de Bielik-Minitron-7B, un modèle de langue polonaise compressé à 7,35 milliards de paramètres via une méthode de deux étapes combinant élagage structuré et distillation de connaissances, qui permet de récupérer 90 % des performances du modèle original tout en accélérant l'inférence de 50 %.

Remigiusz Kinas, Paweł Kiszczak, Sergio P. Perez, Krzysztof Ociepa, Łukasz Flis, Krzysztof Wróbel, Adrian Gwozdziej2026-03-13💬 cs.CL

Think While Watching: Online Streaming Segment-Level Memory for Multi-Turn Video Reasoning in Multimodal Large Language Models

L'article présente « Think While Watching », un cadre de raisonnement vidéo en flux continu pour les modèles multimodaux qui, en maintenant une mémoire par segment et en superposant l'observation à la réflexion, permet des interactions multi-tours efficaces tout en améliorant la précision et en réduisant le nombre de tokens générés.

Lu Wang (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Zhuoran Jin (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yupu Hao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yubo Chen (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Kang Liu (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China), Yulong Ao (Beijing Academy of Artificial Intelligence), Jun Zhao (The Key Laboratory of Cognition and Decision Intelligence for Complex Systems, Institute of Automation, Chinese Academy of Sciences, Beijing, China)2026-03-13💬 cs.CL

EnTransformer: A Deep Generative Transformer for Multivariate Probabilistic Forecasting

Ce papier présente EnTransformer, un cadre de prévision génératif profond qui combine l'engression et les Transformers pour produire des prévisions probabilistes multivariées bien calibrées et cohérentes, surpassant les modèles de référence sur plusieurs benchmarks sans imposer d'hypothèses paramétriques restrictives.

Rajdeep Pathak, Rahul Goswami, Madhurima Panja, Palash Ghosh, Tanujit Chakraborty2026-03-13📊 stat

MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

Ce papier présente MobileKernelBench, un cadre d'évaluation révélant les limites actuelles des LLMs pour générer des noyaux efficaces sur mobile, et propose MoKA, un système multi-agents qui améliore considérablement le taux de compilation et les performances par rapport aux bibliothèques natives.

Xingze Zou, Jing Wang, Yuhua Zheng, Xueyi Chen, Haolei Bai, Lingcheng Kong, Syed A. R. Abu-Bakar, Zhaode Wang, Chengfei Lv, Haoji Hu, Huan Wang2026-03-13🤖 cs.LG

Effective Resistance Rewiring: A Simple Topological Correction for Over-Squashing

Ce papier propose l'Effective Resistance Rewiring (ERR), une méthode simple et sans paramètre qui corrige le problème de « sur-écrasement » dans les réseaux de neurones à graphes en ajoutant et supprimant des arêtes basées sur la résistance effective pour améliorer la connectivité globale, tout en démontrant que cette approche nécessite des techniques de normalisation comme PairNorm pour équilibrer la propagation du signal et éviter l'homogénéisation excessive des représentations.

Bertran Miquel-Oliver, Manel Gil-Sorribes, Victor Guallar, Alexis Molina2026-03-13🤖 cs.LG