[编辑]

第280卷:简约与学习会议,2025年3月24日至27日,美国斯坦福大学

[编辑]

编辑:陈贝迪、刘诗佳、Mert Pilanci、苏伟杰、Jeremias Sulam、王玉祥、朱志辉

[bib][citeproc]

用于鲁棒视觉Transformer的近似零空间增强微调

刘浩洋、Aditya Singh、李艺江、王浩瀚简约与学习会议,PMLR 280:1-23

具有差分隐私优化的快速 John Ellipsoid 计算

李晓宇、梁颖瑜、史振梅、宋赵、于俊伟简约与学习会议,PMLR 280:24-64

大规模多路聚类与种子聚类

胡嘉鑫简约与学习会议,PMLR 280:65-88

用于图像重建的基于 Patch 的 Smooth-Plus-Sparse 模型学习

Stanislas Ducotterd、Sebastian Neumayer、Michael Unser简约与学习会议,PMLR 280:89-104

HSR 增强的稀疏注意力加速

陈博、梁颖瑜、沙志洲、史振梅、宋赵简约与学习会议,PMLR 280:105-133

AdaProx:一种在悲观框架下的双层优化新方法

关子伟、Daouda Sow、林森、梁颖斌简约与学习会议,PMLR 280:134-164

神经网络表示中低秩自表达结构的案例研究

Uday Singh Saini、William Shiao、Yahya Sattar、Yogesh Dahiya、Samet Oymak、Evangelos E. Papalexakis简约与学习会议,PMLR 280:165-236

异构联邦学习中全局和局部是协同还是对抗?

吴慧文、张硕简约与学习会议,PMLR 280:237-254

混合交通中的异构决策:不确定性感知规划与有限理性

王航、方巧怡、张俊山简约与学习会议,PMLR 280:255-277

具有数据和模型并行性的语言模型分布式训练的自适应批大小调度

Lau Tsz-Kit Tim、李伟健、徐陈伟、刘瀚、Kolar Mladen简约与学习会议,PMLR 280:278-304

重新审视自适应梯度下降优化中的初始步骤

Abuduweili Abulikemu、刘昌柳简约与学习会议,PMLR 280:305-322

用于过度参数化矩阵和图像恢复的验证方法

丁立军、秦震、江丽伟、周金鑫、朱志辉简约与学习会议,PMLR 280:323-350

双重推理:用于知识图谱问答的 GNN-LLM 协同框架

刘广毅、张永奇、李勇、姚泉明简约与学习会议,PMLR 280:351-372

维度混合器:用于高效函数逼近的输入维度组混合

Sapkota Suman、Bhattarai Binod简约与学习会议,PMLR 280:373-391

具有并行消涨的分布式主成分分析的可证明模型并行性

Liao Fangshuo、Su Wenyi、Kyrillidis Anastasios简约与学习会议,PMLR 280:392-416

Meta ControlNet:通过元学习增强任务适应性

杨俊杰、赵金泽、王沛豪、王张扬、梁颖斌简约与学习会议,PMLR 280:417-432

零性能损失的概念瓶颈模型

Zhenzhen Wang, Aleksander Popel, Jeremias Sulam; 简约与学习会议, PMLR 280:433-461

FedPeWS:通过子网络进行个性化预热,以增强异构联邦学习

Nurbek Tastan, Samuel Horváth, Martin Takáč, Karthik Nandakumar; 简约与学习会议, PMLR 280:462-483

用于 LLM 的稀疏加低秩矩阵分解的统一框架

Mehdi Makni, Kayhan Behdin, Zheng Xu, Natalia Ponomareva, Rahul Mazumder; 简约与学习会议, PMLR 280:484-499

贪婪输出近似:无需重新训练的 LLM 高效结构化剪枝

Jianwei Li, Yijun Dong, Qi Lei; 简约与学习会议, PMLR 280:500-520

MoXCo:我如何学会停止探索并热爱我的局部最小值?

Esha Singh, Shoham Sabach, Yu-Xiang Wang; 简约与学习会议, PMLR 280:521-544

解锁 1 位神经网络扩展背后的理论

Majid Daliri, Zhao Song, Chiwun Yang; 简约与学习会议, PMLR 280:545-598

连接领域自适应与图神经网络:用于有效标签传播的基于张量的框架

Tao Wen, Elynn Chen, Yuzhou Chen, Qi Lei; 简约与学习会议, PMLR 280:599-614

森林剪枝的理论和实证进展

Albert Dorador; 简约与学习会议, PMLR 280:615-651

奇异模型中坐标上升变分推断的渐近行为

Sean C Plummer, Anirban Bhattacharya, Debdeep Pati, Yun Yang; 简约与学习会议, PMLR 280:652-674

注意力的诅咒:基于核的视角,解释为什么 Transformer 在时间序列预测及其他方面无法泛化

Yekun Ke, Yingyu Liang, Zhenmei Shi, Zhao Song, Chiwun Yang; 简约与学习会议, PMLR 280:675-738

通过电路复杂度的视角,理解状态空间模型和 Mamba 的计算极限

Yifang Chen, Xiaoyu Li, Yingyu Liang, Zhenmei Shi, Zhao Song; 简约与学习会议, PMLR 280:739-767

分组顺序优化策略 - 超参数重要性评估在深度学习中的应用

Ruinan Wang, Ian T. Nabney, MOHAMMAD GOLBABAEE; 简约与学习会议, PMLR 280:768-779

你只需要偏置一次:在推理时实现灵活的准确性-公平性权衡

Xiaotian Han, Tianlong Chen, Kaixiong Zhou, Zhimeng Jiang, Zhangyang Wang, Xia Hu; 简约与学习会议, PMLR 280:780-809

使用白盒语言模型改进神经元级别的可解释性

Hao Bai, Yi Ma; 简约与学习会议, PMLR 280:810-836

用于激发态计算的量子 EigenGame

David A. Quiroga, Jason Han, Anastasios Kyrillidis; 简约与学习会议, PMLR 280:837-864

具有稀疏连接的对抗鲁棒性脉冲神经网络

Mathias Schmolli, Maximilian Baronig, Robert Legenstein, Ozan Ozdenizci; 简约与学习会议, PMLR 280:865-883

驯服敏感权重:用于鲁棒 LLM 量化的噪声扰动微调

DONGWEI WANG, Huanrui Yang; 简约与学习会议, PMLR 280:884-896

RecCrysFormer:通过循环训练运行,从 3D Patterson 图中提炼蛋白质结构预测

Tom Pan, Evan Dramko, Mitchell D. Miller, George N Phillips Jr., Anastasios Kyrillidis; 简约与学习会议, PMLR 280:897-912

学习复杂流的时空尺度动态

韩高, 塞巴斯蒂安·卡尔滕巴赫, 彼得罗斯·库莫佐斯; 简约与学习会议, PMLR 280:913-931

具有截止实例的快速高效匹配算法

赵松, 王伟鑫, 尹辰博, 尹俊泽; 简约与学习会议, PMLR 280:932-959

使用基于网格的强化学习发现粗粒度偏微分方程的闭包

Jan-Philipp von Bassewitz, 塞巴斯蒂安·卡尔滕巴赫, 彼得罗斯·库莫佐斯; 简约与学习会议, PMLR 280:960-984

FedOSAA:利用一步安德森加速改进联邦学习

薛峰, M. Paul Laiu, 托马斯·斯特罗默; 简约与学习会议, PMLR 280:985-1006

利用时间微分增强视频表征学习

陈思毅, Minkyu Choi, 赵泽森, 韩宽, 屈清, 刘忠明; 简约与学习会议, PMLR 280:1007-1034

Q-GaLore:具有INT4投影和层自适应低秩梯度的量化GaLore

张振宇, AJAY KUMAR JAISWAL, 尹陆, 刘世伟, 赵嘉伟, 田渊栋, 王张扬; 简约与学习会议, PMLR 280:1035-1050

消失的特征:诊断模型合并及其他

曲星宇, Samuel Horváth; 简约与学习会议, PMLR 280:1051-1086

两层线性网络的精确且丰富的特征学习动态

黄伟, 陈武阳, 徐志强, 王张扬, 铃木太司; 简约与学习会议, PMLR 280:1087-1111

稀疏MoE作为一种新的处理方法:解决多模态多任务学习中的遗忘、拟合和学习问题

彭杰, Sukwon Yun, 周凯雄, 周瑞达, Thomas Hartvigsen, 张燕勇, 王张扬, 陈天龙; 简约与学习会议, PMLR 280:1112-1145

AgentHPO:大型语言模型代理用于超参数优化

刘思毅, 高晨, 李勇; 简约与学习会议, PMLR 280:1146-1169

用于Transformer中鲁棒N:M稀疏性训练的渐进梯度流

Abhimanyu Rajeshkumar Bambhaniya, Amir Yazdanbakhsh, Suvinay Subramanian, Sheng-Chun Kao, Shivani Agrawal, Utku Evci, Tushar Krishna; 简约与学习会议, PMLR 280:1170-1190

充分且必要的解释(以及介于两者之间的一切)

Beepul Bharti, Paul Yi, Jeremias Sulam; 简约与学习会议, PMLR 280:1191-1215

具有小空间的流式核PCA算法

邓一川, 龙江轩, 赵松, 王子凡, 张瀚; 简约与学习会议, PMLR 280:1216-1254

特征学习的哈密顿力学:Leaky ResNets中的瓶颈结构

Arthur Jacot, Alexandre Kaiser; 简约与学习会议, PMLR 280:1255-1273

迭代幅度修剪如何发现全连接神经网络中的局部感受野

William T Redman, 王张扬, Alessandro Ingrosso, Sebastian Goldt; 简约与学习会议, PMLR 280:1274-1291

白盒纠错码Transformer

郑子言, Chin Wa Lau, 郭念, 史翔, 黄少伦; 简约与学习会议, PMLR 280:1292-1306

所有层都是平等的吗:来自神经坍塌的视角

周金鑫, 蒋嘉辰, 朱志辉; 简约与学习会议, PMLR 280:1307-1327

协作且高效的个性化与自适应混合

Abdulla Jasem Almansoori, Samuel Horváth, Martin Takáč; 简约与学习会议, PMLR 280:1328-1364

解释和缓解对比多模态学习中的模态差距

Can Yaras, 陈思毅, Wang Peng, 屈清; 简约与学习会议, PMLR 280:1365-1387

具有权重衰减的SGD秘密地最小化了您的神经网络的秩

Tomer Galanti, Zachary S Siegel, Aparna Gupte, Tomaso A Poggio; 简约与学习会议, PMLR 280:1388-1412

面向低维向量符号架构的向量优化

段世锦, 刘野佳, 刘高文, Ramana Rao Kompella, 任少雷, 徐晓林; 简约与学习会议, PMLR 280:1413-1432

订阅 通过 RSS