[编辑]

第234卷:简约与学习会议,2024年1月3日至6日,香港,中国

[编辑]

编辑:池跃杰、金塔雷·卡罗琳娜·吉乌盖特、屈清、王阿特拉斯,王志辉,朱

[bib][citeproc]

PC-X:通过慢速示例进行深刻聚类

潘元刚、姚英华、Tsang Ivor; 简约与学习会议, PMLR 234:1-19

WS-iFSD:无遗忘的弱监督增量小样本目标检测

龚新宇、尹丽、Perez-Rua Juan-Manuel、王张扬、严志成; 简约与学习会议, PMLR 234:20-38

通过非凸优化进行稀疏 Fréchet 充分降维

翁嘉颖、柯辰璐、王沛; 简约与学习会议, PMLR 234:39-53

高效解耦因果表征

李元鹏、Hestness Joel、Elhoseiny Mohamed、赵梁、Church Kenneth; 简约与学习会议, PMLR 234:54-71

具有简约白盒 Transformer 的分割涌现

余耀东、楚天哲、童胜邦、吴子扬、Pai Druv、Buchanan Sam、马毅; 简约与学习会议, PMLR 234:72-93

具有动态稀疏训练的持续学习:探索有效的模型更新算法

Yildirim Murat Onur、Gok Elif Ceren、Sokar Ghada、Mocanu Decebal Constantin、Vanschoren Joaquin; 简约与学习会议, PMLR 234:94-107

从 StyleGAN 的低维潜在空间解码微动作

吴秋成、江一帆、吴俊儒、王凯、Zhang Eric、Shi Humphrey、王张扬、常世宇; 简约与学习会议, PMLR 234:108-133

HARD:超平面排列下降

丁天骄、彭梁祖、Vidal Rene; 简约与学习会议, PMLR 234:134-158

FIXED:使用 Mixup 的令人沮丧的简单域泛化

陆王、王金栋、余涵、黄磊、张翔、陈益强、谢兴; 简约与学习会议, PMLR 234:159-178

通过核范数正则化进行域泛化

史振梅、明一飞、范莹、Sala Frederic、梁莹宇; 简约与学习会议, PMLR 234:179-201

多模态大型语言模型微调中的灾难性遗忘调查

翟跃祥、童胜邦、李潇、蔡牧、屈清、Lee Yong Jae、马毅; 简约与学习会议, PMLR 234:202-227

深度自表达学习

赵晨、李春光、何伟、You Chong; 简约与学习会议, PMLR 234:228-247

受大脑启发的神经网络中的稀疏激活与相关权重

Chun Chanwoo、Lee Daniel; 简约与学习会议, PMLR 234:248-268

用于深度度量学习的逐段线性流形

Bhatnagar Shubhang、Ahuja Narendra; 简约与学习会议, PMLR 234:269-281

HRBP:面向稀疏 CNN 训练的块式剪枝的硬件友好重组

马浩宇、张成明、项丽智、马晓龙、袁耿、张文凯、刘世伟、陈天龙、陶丁文、王彦志、王张扬、谢晓辉; 简约与学习会议, PMLR 234:282-301

用于合金屈服强度预测的交叉质量小样本迁移:一个新的材料科学基准和一个稀疏性导向的优化框架

陈旭熙、陈天龙、Olivares Everardo Yeriel、Elder Kate、McCall Scott、Perron Aurelien、McKeown Joseph、Kailkhura Bhavya、王张扬、Gallagher Brian; 简约与学习会议, PMLR 234:302-323

联邦学习中来自模型的深度泄漏

赵子豪、罗孟根、丁文博; 简约与学习会议, PMLR 234:324-340

平衡是本质:通过自适应梯度校正加速稀疏训练

雷 Bowen、徐东宽、张如琦、何树仁、Mallick Bani; 简约与学习会议, PMLR 234:341-378

神经网络的自适应切线特征视角

LeJeune Daniel、Alemohammad Sina; 简约与学习会议, PMLR 234:379-394

使用任务相关的神经流形探测生物和人工神经网络

Kuoch Michael、Chou Chi-Ning、Parthasarathy Nikhil、Dapello Joel、DiCarlo James J.、Sompolinsky Haim、Chung SueYeon; 简约与学习会议, PMLR 234:395-418

通过标签无关补丁增强探索主动学习中的最小充分表示

薛志宇, 戴银龙, 雷琦; 简约与学习会议, PMLR 234:419-439

通过闭环转录无监督学习结构化表示

童胜邦, 戴希立, 陈予贝, 李明阳, 李增毅, Brent Yi, Yann LeCun, 马毅; 简约与学习会议, PMLR 234:440-457

具有任务边界检测的在线元学习的算法设计

Daouda Sow, 林森, 梁应斌, 张俊山; 简约与学习会议, PMLR 234:458-479

NeuroMixGDP:一种受神经坍塌启发的随机混合用于私有数据发布

李东浩, 曹阳, 姚远; 简约与学习会议, PMLR 234:480-514

Jaxpruner:用于稀疏性研究的简洁库

Joo Hyung Lee, Wonpyo Park, Nicole Elyse Mitchell, Jonathan Pilault, Johan Samir Obando Ceron, Han-Byul Kim, Namhoon Lee, Elias Frantar, Yun Long, Amir Yazdanbakhsh, Woohyun Han, Shivani Agrawal, Suvinay Subramanian, Xin Wang, Sheng-Chun Kao, Xingyao Zhang, Trevor Gale, Aart J.C. Bik, Milen Ferev, Zhonglin Han, Hong-Seok Kim, Yann Dauphin, Gintare Karolina Dziugaite, Pablo Samuel Castro, Utku Evci; 简约与学习会议, PMLR 234:515-528

图像质量评估:整合模型中心和数据中心方法

曹沛贝, 李丁泉, 马科德; 简约与学习会议, PMLR 234:529-541

如何修剪你的语言模型:在“稀疏性可能会哭泣”基准上恢复准确性

Eldar Kurtic, Torsten Hoefler, Dan Alistarh; 简约与学习会议, PMLR 234:542-553

利用稀疏输入和稀疏模型:资源受限环境中的高效分布式学习

Emmanouil Kariotakis, Grigorios Tsagkatakis, Panagiotis Tsakalides, Anastasios Kyrillidis; 简约与学习会议, PMLR 234:554-569

通过卷积稀疏编码的闭环转录

戴希立, 陈科, 童胜邦, 张景远, 高星健, 李明阳, Druv Pai, 翟跃祥, 袁晓军, Heung-Yeung Shum, Lionel Ni, 马毅; 简约与学习会议, PMLR 234:570-589

少即是多 – 使用结构化稀疏性实现简约的多任务模型

Richa Upadhyay, Ronald Phlypo, Rajkumar Saini, Marcus Liwicki; 简约与学习会议, PMLR 234:590-601

订阅 通过RSS