[编辑]
第280卷:简约与学习会议,2025年3月24日至27日,美国斯坦福大学
[编辑]
编辑:陈贝迪、刘诗佳、Mert Pilanci、苏伟杰、Jeremias Sulam、王玉祥、朱志辉
[bib][citeproc]
用于鲁棒视觉Transformer的近似零空间增强微调
刘浩洋、Aditya Singh、李艺江、王浩瀚;简约与学习会议,PMLR 280:1-23
[摘要][下载 PDF][OpenReview]
具有差分隐私优化的快速 John Ellipsoid 计算
李晓宇、梁颖瑜、史振梅、宋赵、于俊伟;简约与学习会议,PMLR 280:24-64
[摘要][下载 PDF][OpenReview]
用于图像重建的基于 Patch 的 Smooth-Plus-Sparse 模型学习
Stanislas Ducotterd、Sebastian Neumayer、Michael Unser;简约与学习会议,PMLR 280:89-104
[摘要][下载 PDF][OpenReview]
AdaProx:一种在悲观框架下的双层优化新方法
关子伟、Daouda Sow、林森、梁颖斌;简约与学习会议,PMLR 280:134-164
[摘要][下载 PDF][OpenReview]
神经网络表示中低秩自表达结构的案例研究
Uday Singh Saini、William Shiao、Yahya Sattar、Yogesh Dahiya、Samet Oymak、Evangelos E. Papalexakis;简约与学习会议,PMLR 280:165-236
[摘要][下载 PDF][OpenReview]
具有数据和模型并行性的语言模型分布式训练的自适应批大小调度
Lau Tsz-Kit Tim、李伟健、徐陈伟、刘瀚、Kolar Mladen;简约与学习会议,PMLR 280:278-304
[摘要][下载 PDF][OpenReview]
重新审视自适应梯度下降优化中的初始步骤
Abuduweili Abulikemu、刘昌柳;简约与学习会议,PMLR 280:305-322
[摘要][下载 PDF][OpenReview]
双重推理:用于知识图谱问答的 GNN-LLM 协同框架
刘广毅、张永奇、李勇、姚泉明;简约与学习会议,PMLR 280:351-372
[摘要][下载 PDF][OpenReview]
维度混合器:用于高效函数逼近的输入维度组混合
Sapkota Suman、Bhattarai Binod;简约与学习会议,PMLR 280:373-391
[摘要][下载 PDF][OpenReview]
具有并行消涨的分布式主成分分析的可证明模型并行性
Liao Fangshuo、Su Wenyi、Kyrillidis Anastasios;简约与学习会议,PMLR 280:392-416
[摘要][下载 PDF][OpenReview]
Meta ControlNet:通过元学习增强任务适应性
杨俊杰、赵金泽、王沛豪、王张扬、梁颖斌;简约与学习会议,PMLR 280:417-432
[abs][下载 PDF][OpenReview]
零性能损失的概念瓶颈模型
Zhenzhen Wang, Aleksander Popel, Jeremias Sulam; 简约与学习会议, PMLR 280:433-461
[abs][下载 PDF][OpenReview]
FedPeWS:通过子网络进行个性化预热,以增强异构联邦学习
Nurbek Tastan, Samuel Horváth, Martin Takáč, Karthik Nandakumar; 简约与学习会议, PMLR 280:462-483
[abs][下载 PDF][OpenReview]
用于 LLM 的稀疏加低秩矩阵分解的统一框架
Mehdi Makni, Kayhan Behdin, Zheng Xu, Natalia Ponomareva, Rahul Mazumder; 简约与学习会议, PMLR 280:484-499
[abs][下载 PDF][OpenReview]
贪婪输出近似:无需重新训练的 LLM 高效结构化剪枝
Jianwei Li, Yijun Dong, Qi Lei; 简约与学习会议, PMLR 280:500-520
[abs][下载 PDF][OpenReview]
MoXCo:我如何学会停止探索并热爱我的局部最小值?
Esha Singh, Shoham Sabach, Yu-Xiang Wang; 简约与学习会议, PMLR 280:521-544
[abs][下载 PDF][OpenReview]
解锁 1 位神经网络扩展背后的理论
Majid Daliri, Zhao Song, Chiwun Yang; 简约与学习会议, PMLR 280:545-598
[abs][下载 PDF][OpenReview]
连接领域自适应与图神经网络:用于有效标签传播的基于张量的框架
Tao Wen, Elynn Chen, Yuzhou Chen, Qi Lei; 简约与学习会议, PMLR 280:599-614
[abs][下载 PDF][OpenReview]
奇异模型中坐标上升变分推断的渐近行为
Sean C Plummer, Anirban Bhattacharya, Debdeep Pati, Yun Yang; 简约与学习会议, PMLR 280:652-674
[abs][下载 PDF][OpenReview]
注意力的诅咒:基于核的视角,解释为什么 Transformer 在时间序列预测及其他方面无法泛化
Yekun Ke, Yingyu Liang, Zhenmei Shi, Zhao Song, Chiwun Yang; 简约与学习会议, PMLR 280:675-738
[abs][下载 PDF][OpenReview]
通过电路复杂度的视角,理解状态空间模型和 Mamba 的计算极限
Yifang Chen, Xiaoyu Li, Yingyu Liang, Zhenmei Shi, Zhao Song; 简约与学习会议, PMLR 280:739-767
[abs][下载 PDF][OpenReview]
分组顺序优化策略 - 超参数重要性评估在深度学习中的应用
Ruinan Wang, Ian T. Nabney, MOHAMMAD GOLBABAEE; 简约与学习会议, PMLR 280:768-779
[abs][下载 PDF][OpenReview]
你只需要偏置一次:在推理时实现灵活的准确性-公平性权衡
Xiaotian Han, Tianlong Chen, Kaixiong Zhou, Zhimeng Jiang, Zhangyang Wang, Xia Hu; 简约与学习会议, PMLR 280:780-809
[abs][下载 PDF][OpenReview]
用于激发态计算的量子 EigenGame
David A. Quiroga, Jason Han, Anastasios Kyrillidis; 简约与学习会议, PMLR 280:837-864
[abs][下载 PDF][OpenReview]
具有稀疏连接的对抗鲁棒性脉冲神经网络
Mathias Schmolli, Maximilian Baronig, Robert Legenstein, Ozan Ozdenizci; 简约与学习会议, PMLR 280:865-883
[abs][下载 PDF][OpenReview]
驯服敏感权重:用于鲁棒 LLM 量化的噪声扰动微调
DONGWEI WANG, Huanrui Yang; 简约与学习会议, PMLR 280:884-896
[abs][下载 PDF][OpenReview]
RecCrysFormer:通过循环训练运行,从 3D Patterson 图中提炼蛋白质结构预测
Tom Pan, Evan Dramko, Mitchell D. Miller, George N Phillips Jr., Anastasios Kyrillidis; 简约与学习会议, PMLR 280:897-912
[abs][下载PDF][OpenReview]
学习复杂流的时空尺度动态
韩高, 塞巴斯蒂安·卡尔滕巴赫, 彼得罗斯·库莫佐斯; 简约与学习会议, PMLR 280:913-931
[abs][下载PDF][OpenReview]
使用基于网格的强化学习发现粗粒度偏微分方程的闭包
Jan-Philipp von Bassewitz, 塞巴斯蒂安·卡尔滕巴赫, 彼得罗斯·库莫佐斯; 简约与学习会议, PMLR 280:960-984
[abs][下载PDF][OpenReview]
FedOSAA:利用一步安德森加速改进联邦学习
薛峰, M. Paul Laiu, 托马斯·斯特罗默; 简约与学习会议, PMLR 280:985-1006
[abs][下载PDF][OpenReview]
利用时间微分增强视频表征学习
陈思毅, Minkyu Choi, 赵泽森, 韩宽, 屈清, 刘忠明; 简约与学习会议, PMLR 280:1007-1034
[abs][下载PDF][OpenReview]
Q-GaLore:具有INT4投影和层自适应低秩梯度的量化GaLore
张振宇, AJAY KUMAR JAISWAL, 尹陆, 刘世伟, 赵嘉伟, 田渊栋, 王张扬; 简约与学习会议, PMLR 280:1035-1050
[abs][下载PDF][OpenReview]
两层线性网络的精确且丰富的特征学习动态
黄伟, 陈武阳, 徐志强, 王张扬, 铃木太司; 简约与学习会议, PMLR 280:1087-1111
[abs][下载PDF][OpenReview]
稀疏MoE作为一种新的处理方法:解决多模态多任务学习中的遗忘、拟合和学习问题
彭杰, Sukwon Yun, 周凯雄, 周瑞达, Thomas Hartvigsen, 张燕勇, 王张扬, 陈天龙; 简约与学习会议, PMLR 280:1112-1145
[abs][下载PDF][OpenReview]
AgentHPO:大型语言模型代理用于超参数优化
刘思毅, 高晨, 李勇; 简约与学习会议, PMLR 280:1146-1169
[abs][下载PDF][OpenReview]
用于Transformer中鲁棒N:M稀疏性训练的渐进梯度流
Abhimanyu Rajeshkumar Bambhaniya, Amir Yazdanbakhsh, Suvinay Subramanian, Sheng-Chun Kao, Shivani Agrawal, Utku Evci, Tushar Krishna; 简约与学习会议, PMLR 280:1170-1190
[abs][下载PDF][OpenReview]
充分且必要的解释(以及介于两者之间的一切)
Beepul Bharti, Paul Yi, Jeremias Sulam; 简约与学习会议, PMLR 280:1191-1215
[abs][下载PDF][OpenReview]
具有小空间的流式核PCA算法
邓一川, 龙江轩, 赵松, 王子凡, 张瀚; 简约与学习会议, PMLR 280:1216-1254
[abs][下载PDF][OpenReview]
特征学习的哈密顿力学:Leaky ResNets中的瓶颈结构
Arthur Jacot, Alexandre Kaiser; 简约与学习会议, PMLR 280:1255-1273
[abs][下载PDF][OpenReview]
迭代幅度修剪如何发现全连接神经网络中的局部感受野
William T Redman, 王张扬, Alessandro Ingrosso, Sebastian Goldt; 简约与学习会议, PMLR 280:1274-1291
[abs][下载PDF][OpenReview]
白盒纠错码Transformer
郑子言, Chin Wa Lau, 郭念, 史翔, 黄少伦; 简约与学习会议, PMLR 280:1292-1306
[abs][下载PDF][OpenReview]
协作且高效的个性化与自适应混合
Abdulla Jasem Almansoori, Samuel Horváth, Martin Takáč; 简约与学习会议, PMLR 280:1328-1364
[abs][下载PDF][OpenReview]
解释和缓解对比多模态学习中的模态差距
Can Yaras, 陈思毅, Wang Peng, 屈清; 简约与学习会议, PMLR 280:1365-1387
[abs][下载PDF][OpenReview]
具有权重衰减的SGD秘密地最小化了您的神经网络的秩
Tomer Galanti, Zachary S Siegel, Aparna Gupte, Tomaso A Poggio; 简约与学习会议, PMLR 280:1388-1412
[abs][下载PDF][OpenReview]
面向低维向量符号架构的向量优化
段世锦, 刘野佳, 刘高文, Ramana Rao Kompella, 任少雷, 徐晓林; 简约与学习会议, PMLR 280:1413-1432
[abs][下载 PDF][OpenReview]