GateLens: A Reasoning-Enhanced LLM Agent for Automotive Software Release Analytics

Le papier présente GateLens, un agent LLM innovant qui utilise l'algèbre relationnelle comme représentation intermédiaire formelle pour améliorer la fiabilité et l'efficacité de l'analyse de données tabulaires complexes dans le secteur automobile, surpassant les approches traditionnelles tout en réduisant considérablement le temps d'analyse.

Arsham Gholamzadeh Khoee, Shuai Wang, Robert Feldt, Dhasarathy Parthasarathy, Yinan YuWed, 11 Ma🤖 cs.AI

Evaluating Large Language Models for Multilingual Vulnerability Detection at Dual Granularities

Cette étude empirique démontre que les grands modèles de langage (LLM), notamment GPT-4o optimisé par ajustement d'instructions et quelques exemples, surpassent les modèles de langage préentraînés (PLM) pour la détection de vulnérabilités multilingues à la fois au niveau des fonctions et des lignes de code.

Honglin Shu, Michael Fu, Junji Yu, Dong Wang, Chakkrit Tantithamthavorn, Junjie Chen, Yasutaka KameiWed, 11 Ma💻 cs

Floating-Point Usage on GitHub: A Large-Scale Study of Statically Typed Languages

Cette étude empirique à grande échelle analyse l'utilisation de l'arithmétique à virgule flottante dans des millions de dépôts GitHub de langages typés statiquement, révélant que les benchmarks existants ne reflètent que partiellement la réalité du code et publiant un jeu de données de 10 millions de fonctions pour guider les futures recherches.

Andrea Gilot, Tobias Wrigstad, Eva DarulovaWed, 11 Ma💻 cs

A Tale of 1001 LoC: Potential Runtime Error-Guided Specification Synthesis for Verifying Large-Scale Programs

Ce papier présente Preguss, un cadre modulaire qui combine l'analyse statique et les grands modèles de langage pour générer automatiquement des spécifications formules et vérifier l'absence d'erreurs d'exécution dans de grands programmes, réduisant ainsi l'effort de vérification humaine de 80,6 % à 88,9 %.

Zhongyi Wang, Tengjie Lin, Mingshuai Chen, Haokun Li, Mingqi Yang, Xiao Yi, Shengchao Qin, Yixing Luo, Xiaofeng Li, Bin Gu, Liqiang Lu, Jianwei YinWed, 11 Ma💻 cs

Towards a Goal-Centric Assessment of Requirements Engineering Methods for Privacy by Design

Cet article propose une approche centrée sur les objectifs pour évaluer les méthodes d'ingénierie des exigences en matière de protection de la vie privée dès la conception, afin de mieux les adapter aux besoins spécifiques des organisations plutôt que de se limiter à leurs caractéristiques de processus.

Oleksandr Kosenkov, Ehsan Zabardast, Jannik Fischbach, Tony Gorschek, Daniel MendezWed, 11 Ma💻 cs

SkillCraft: Can LLM Agents Learn to Use Tools Skillfully?

Le papier présente SkillCraft, une nouvelle norme d'évaluation conçue pour tester la capacité des agents LLM à acquérir et réutiliser des compétences composées (des « Skills ») dans des flux de travail complexes, démontrant que cette approche améliore considérablement l'efficacité et les taux de réussite.

Shiqi Chen, Jingze Gai, Ruochen Zhou, Jinghan Zhang, Tongyao Zhu, Junlong Li, Kangrui Wang, Zihan Wang, Zhengyu Chen, Klara Kaleb, Ning Miao, Siyang Gao, Cong Lu, Manling Li, Junxian He, Yee Whye TehWed, 11 Ma💬 cs.CL

SiliconMind-V1: Multi-Agent Distillation and Debug-Reasoning Workflows for Verilog Code Generation

L'article présente SiliconMind-V1, un cadre multi-agents qui génère des données d'entraînement axées sur le raisonnement et intègre une vérification par banc d'essai pour permettre à des modèles de langage localement affinés de générer, tester et déboguer itérativement du code Verilog, surpassant ainsi les méthodes actuelles en matière de correction fonctionnelle avec moins de ressources.

Mu-Chi Chen, Yu-Hung Kao, Po-Hsuan Huang, Shao-Chun Ho, Hsiang-Yu Tsou, I-Ting Wu, En-Ming Huang, Yu-Kai Hung, Wei-Po Hsin, Cheng Liang, Chia-Heng Tu, Shih-Hao Hung, Hsiang-Tsung KungWed, 11 Ma🤖 cs.AI

KernelCraft: Benchmarking for Agentic Close-to-Metal Kernel Generation on Emerging Hardware

Le papier présente KernelCraft, le premier benchmark évaluant la capacité des agents LLM à générer et optimiser des noyaux bas niveau pour des accélérateurs émergents via un processus itératif guidé par des retours automatiques, démontrant ainsi leur potentiel pour réduire les coûts de développement sur de nouvelles architectures matérielles.

Jiayi Nie, Haoran Wu, Yao Lai, Zeyu Cao, Cheng Zhang, Binglei Lou, Erwei Wang, Jianyi Cheng, Timothy M. Jones, Robert Mullins, Rika Antonova, Yiren ZhaoWed, 11 Ma🤖 cs.LG

LDP: An Identity-Aware Protocol for Multi-Agent LLM Systems

Ce papier présente le LLM Delegate Protocol (LDP), un protocole de communication natif pour l'IA qui introduit des mécanismes d'identité et de gouvernance pour optimiser la délégation entre agents, démontrant par une implémentation et des évaluations des gains significatifs en latence et en efficacité des tokens, bien que la métadonnée de confiance sans vérification puisse nuire à la qualité.

Sunil PrakashWed, 11 Ma🤖 cs.AI