InFusionLayer: a CFA-based ensemble tool to generate new classifiers for learning and modeling

本文介绍了名为 InFusionLayer 的开源 Python 工具,该工具基于组合融合分析(CFA)中的秩分特征函数和认知多样性,构建了一种通用的机器学习架构,旨在通过融合多个基模型来优化监督与无监督的多分类问题,并已在多种计算机视觉数据集上验证了其易用性与有效性。

Eric Roginek, Jingyan Xu, D. Frank. Hsu2026-03-12🤖 cs.LG

Training Language Models via Neural Cellular Automata

该论文提出利用神经细胞自动机生成可控且廉价的合成非语言数据对大语言模型进行“预预训练”,结果发现仅使用 1.64 亿个合成 token 即可在语言建模和推理任务上取得优于 16 亿自然语言 token 预训练的效果,并揭示了注意力层的高可迁移性及不同领域对合成数据复杂度的差异化需求。

Dan Lee, Seungwook Han, Akarsh Kumar, Pulkit Agrawal2026-03-12🤖 cs.LG

Stochastic Port-Hamiltonian Neural Networks: Universal Approximation with Passivity Guarantees

本文提出了一种参数化哈密顿量并强制满足互连矩阵斜对称性与耗散矩阵半正定性的随机端口哈密顿神经网络(SPH-NN),在理论上证明了其具备通用逼近能力与期望弱无源性,并在实验中对含噪振荡器系统实现了比传统多层感知机更优的长时程预测精度与能量守恒性能。

Luca Di Persio, Matthias Ehrhardt, Youness Outaleb2026-03-12🤖 cs.LG

KernelSkill: A Multi-Agent Framework for GPU Kernel Optimization

KernelSkill 是一个采用双层级记忆架构的多智能体框架,通过利用知识驱动且感知任务轨迹的专家优化技能替代传统大模型中的隐式启发式方法,显著提升了 GPU 内核的生成效率与可解释性,并在 KernelBench 基准测试中实现了远超现有基线的加速效果。

Qitong Sun, Jun Han, Tianlin Li, Zhe Tang, Sheng Chen, Fei Yang, Aishan Liu, Xianglong Liu, Yang Liu2026-03-12🤖 cs.LG

Equivariant Asynchronous Diffusion: An Adaptive Denoising Schedule for Accelerated Molecular Conformation Generation

本文提出了一种名为等变异步扩散(EAD)的新型模型,通过引入自适应的动态去噪调度机制,有效结合了异步自回归与同步扩散模型的优势,从而在捕捉分子层级因果关系的同时实现了分子级生成视野,显著提升了三维分子构象生成的性能。

Junyi An, Chao Qu, Yun-Fei Shi, Zhijian Zhou, Fenglei Cao, Yuan Qi2026-03-12🧬 q-bio