[编辑]
第234卷:简约与学习会议,2024年1月3日至6日,香港,中国
[编辑]
编辑:池跃杰、金塔雷·卡罗琳娜·吉乌盖特、屈清、王阿特拉斯,王志辉,朱
[bib][citeproc]
WS-iFSD:无遗忘的弱监督增量小样本目标检测
龚新宇、尹丽、Perez-Rua Juan-Manuel、王张扬、严志成; 简约与学习会议, PMLR 234:20-38
[摘要][下载 PDF][OpenReview]
高效解耦因果表征
李元鹏、Hestness Joel、Elhoseiny Mohamed、赵梁、Church Kenneth; 简约与学习会议, PMLR 234:54-71
[摘要][下载 PDF][OpenReview]
具有简约白盒 Transformer 的分割涌现
余耀东、楚天哲、童胜邦、吴子扬、Pai Druv、Buchanan Sam、马毅; 简约与学习会议, PMLR 234:72-93
[摘要][下载 PDF][OpenReview]
具有动态稀疏训练的持续学习:探索有效的模型更新算法
Yildirim Murat Onur、Gok Elif Ceren、Sokar Ghada、Mocanu Decebal Constantin、Vanschoren Joaquin; 简约与学习会议, PMLR 234:94-107
[摘要][下载 PDF][OpenReview]
从 StyleGAN 的低维潜在空间解码微动作
吴秋成、江一帆、吴俊儒、王凯、Zhang Eric、Shi Humphrey、王张扬、常世宇; 简约与学习会议, PMLR 234:108-133
[摘要][下载 PDF][OpenReview]
FIXED:使用 Mixup 的令人沮丧的简单域泛化
陆王、王金栋、余涵、黄磊、张翔、陈益强、谢兴; 简约与学习会议, PMLR 234:159-178
[摘要][下载 PDF][OpenReview]
通过核范数正则化进行域泛化
史振梅、明一飞、范莹、Sala Frederic、梁莹宇; 简约与学习会议, PMLR 234:179-201
[摘要][下载 PDF][OpenReview]
多模态大型语言模型微调中的灾难性遗忘调查
翟跃祥、童胜邦、李潇、蔡牧、屈清、Lee Yong Jae、马毅; 简约与学习会议, PMLR 234:202-227
[摘要][下载 PDF][OpenReview]
受大脑启发的神经网络中的稀疏激活与相关权重
Chun Chanwoo、Lee Daniel; 简约与学习会议, PMLR 234:248-268
[摘要][下载 PDF][OpenReview]
用于深度度量学习的逐段线性流形
Bhatnagar Shubhang、Ahuja Narendra; 简约与学习会议, PMLR 234:269-281
[摘要][下载 PDF][OpenReview]
HRBP:面向稀疏 CNN 训练的块式剪枝的硬件友好重组
马浩宇、张成明、项丽智、马晓龙、袁耿、张文凯、刘世伟、陈天龙、陶丁文、王彦志、王张扬、谢晓辉; 简约与学习会议, PMLR 234:282-301
[摘要][下载 PDF][OpenReview]
用于合金屈服强度预测的交叉质量小样本迁移:一个新的材料科学基准和一个稀疏性导向的优化框架
陈旭熙、陈天龙、Olivares Everardo Yeriel、Elder Kate、McCall Scott、Perron Aurelien、McKeown Joseph、Kailkhura Bhavya、王张扬、Gallagher Brian; 简约与学习会议, PMLR 234:302-323
[摘要][下载 PDF][OpenReview]
平衡是本质:通过自适应梯度校正加速稀疏训练
雷 Bowen、徐东宽、张如琦、何树仁、Mallick Bani; 简约与学习会议, PMLR 234:341-378
[摘要][下载 PDF][OpenReview]
神经网络的自适应切线特征视角
LeJeune Daniel、Alemohammad Sina; 简约与学习会议, PMLR 234:379-394
[摘要][下载 PDF][OpenReview]
使用任务相关的神经流形探测生物和人工神经网络
Kuoch Michael、Chou Chi-Ning、Parthasarathy Nikhil、Dapello Joel、DiCarlo James J.、Sompolinsky Haim、Chung SueYeon; 简约与学习会议, PMLR 234:395-418
[abs][下载PDF][OpenReview]
通过闭环转录无监督学习结构化表示
童胜邦, 戴希立, 陈予贝, 李明阳, 李增毅, Brent Yi, Yann LeCun, 马毅; 简约与学习会议, PMLR 234:440-457
[abs][下载PDF][OpenReview]
具有任务边界检测的在线元学习的算法设计
Daouda Sow, 林森, 梁应斌, 张俊山; 简约与学习会议, PMLR 234:458-479
[abs][下载PDF][OpenReview]
NeuroMixGDP:一种受神经坍塌启发的随机混合用于私有数据发布
李东浩, 曹阳, 姚远; 简约与学习会议, PMLR 234:480-514
[abs][下载PDF][OpenReview]
Jaxpruner:用于稀疏性研究的简洁库
Joo Hyung Lee, Wonpyo Park, Nicole Elyse Mitchell, Jonathan Pilault, Johan Samir Obando Ceron, Han-Byul Kim, Namhoon Lee, Elias Frantar, Yun Long, Amir Yazdanbakhsh, Woohyun Han, Shivani Agrawal, Suvinay Subramanian, Xin Wang, Sheng-Chun Kao, Xingyao Zhang, Trevor Gale, Aart J.C. Bik, Milen Ferev, Zhonglin Han, Hong-Seok Kim, Yann Dauphin, Gintare Karolina Dziugaite, Pablo Samuel Castro, Utku Evci; 简约与学习会议, PMLR 234:515-528
[abs][下载PDF][OpenReview]
如何修剪你的语言模型:在“稀疏性可能会哭泣”基准上恢复准确性
Eldar Kurtic, Torsten Hoefler, Dan Alistarh; 简约与学习会议, PMLR 234:542-553
[abs][下载PDF][OpenReview]
利用稀疏输入和稀疏模型:资源受限环境中的高效分布式学习
Emmanouil Kariotakis, Grigorios Tsagkatakis, Panagiotis Tsakalides, Anastasios Kyrillidis; 简约与学习会议, PMLR 234:554-569
[abs][下载PDF][OpenReview]
通过卷积稀疏编码的闭环转录
戴希立, 陈科, 童胜邦, 张景远, 高星健, 李明阳, Druv Pai, 翟跃祥, 袁晓军, Heung-Yeung Shum, Lionel Ni, 马毅; 简约与学习会议, PMLR 234:570-589
[abs][下载PDF][OpenReview]
少即是多 – 使用结构化稀疏性实现简约的多任务模型
Richa Upadhyay, Ronald Phlypo, Rajkumar Saini, Marcus Liwicki; 简约与学习会议, PMLR 234:590-601
[abs][下载PDF][OpenReview]