Using Vision Language Foundation Models to Generate Plant Simulation Configurations via In-Context Learning

Dit paper introduceert een synthetische benchmark die aantoont dat Vision Language Foundation-modellen, zoals Gemma 3 en Qwen3-VL, via in-context learning dronebeelden kunnen vertalen naar JSON-configuraties voor plantensimulaties, waarmee een schaalbaar raamwerk wordt geboden voor digitale tweelingen in de landbouw, hoewel de modellen nog steeds vatbaar zijn voor contextuele bias en afhankelijkheid van datasetgemiddelden.

Heesup Yun, Isaac Kazuo Uyehara, Earl Ranario, Lars Lundqvist, Christine H. Diepenbrock, Brian N. Bailey, J. Mason EarlesWed, 11 Ma🤖 cs.AI

PathoScribe: Transforming Pathology Data into a Living Library with a Unified LLM-Driven Framework for Semantic Retrieval and Clinical Integration

Het artikel presenteert PathoScribe, een geïntegreerd framework dat op grote schaal digitale pathologierapporten omzet in een interactieve, redenerende kennisbron die artsen in staat stelt om via natuurlijke taal gevallen te doorzoeken, onderzoeksgroepen te bouwen en klinische vragen te beantwoorden, wat leidt tot een aanzienlijke tijdsbesparing en verbeterde patiëntenzorg.

Abdul Rehman Akbar, Samuel Wales-McGrath, Alejadro Levya, Lina Gokhale, Rajendra Singh, Wei Chen, Anil Parwani, Muhammad Khalid Khan NiaziWed, 11 Ma🤖 cs.AI

AgentOS: From Application Silos to a Natural Language-Driven Data Ecosystem

Dit artikel introduceert AgentOS, een nieuw paradigma dat traditionele besturingssystemen vervangt door een natuurlijke taalgedreven omgeving waarin een 'Agent Kernel' taken ontleedt en applicaties als modules fungeert, waardoor het realiseren van dit systeem fundamenteel wordt gedefinieerd als een probleem van kennisontdekking en data mining.

Rui Liu, Tao Zhe, Dongjie Wang, Zijun Yao, Kunpeng Liu, Yanjie Fu, Huan Liu, Jian PeiWed, 11 Ma🤖 cs.AI

MEMO: Memory-Augmented Model Context Optimization for Robust Multi-Turn Multi-Agent LLM Games

Dit paper introduceert MEMO, een zelfspel-framework dat de prestaties en stabiliteit van multi-agent LLM-games verbetert door een persistent geheugen voor inzichten te combineren met een exploratiestrategie voor prompt-evolutie, wat leidt tot aanzienlijk hogere winniveaus en minder variatie in de uitkomsten.

Yunfei Xie, Kevin Wang, Bobby Cheng, Jianzhu Yao, Zhizhou Sha, Alexander Duffy, Yihan Xi, Hongyuan Mei, Cheston Tan, Chen Wei, Pramod Viswanath, Zhangyang WangWed, 11 Ma🤖 cs.AI