[编辑]

第 262 卷:NeurIPS 效率自然语言与语音处理研讨会,2024 年 12 月 14 日,加拿大不列颠哥伦比亚省温哥华

[编辑]

编辑:Mehdi Rezagholizadeh、Peyman Passban、Soheila Samiee、Vahid Partovi Nia、Yu Cheng、Yue Deng、Qun Liu、Boxing Chen

[bib][citeproc]

训练

使用小模型初始化加速大型语言模型预训练

Mohammad Samragh、Seyed Iman Mirzadeh、Keivan Alizadeh-Vahid、Fartash Faghri、Minsik Cho、Moin Nabi、Devang Naik、Mehrdad Farajtabar第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:1-13

小规模大型语言模型训练的计算瓶颈

Saleh Ashkboos、Seyed Iman Mirzadeh、Keivan Alizadeh-Vahid、Mohammad Hossein Sekhavat、Moin Nabi、Mehrdad Farajtabar、Fartash Faghri第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:14-21

QuAILoRA:用于 LoRA 的量化感知初始化

Neal G Lawton、Aishwarya Padmakumar、Judith Gaspers、Jack FitzGerald、Anoop Kumar、Greg Ver Steeg、Aram Galstyan第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:22-33

SuperPos-Prompt:利用多token嵌入的叠加增强语言模型的软提示调整

Mohammad Ali Sadraei Javaheri、Ehsaneddin Asgari、Alice C. McHardy、Hamid R. Rabiee第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:34-46

RGP:通过随机梯度投影实现内存高效的模型微调

Ali Saheb Pasand、Pouya Bashivan第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:47-54

通过数据采样实现大型语言模型的有效对齐

Amrit Khera、Rajat Ghosh、Debojyoti Dutta第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:55-72

KD-LoRA:结合 LoRA 和知识蒸馏的有效微调混合方法

Rambod Azimi、Rishav Rishav、Marek Teichmann、Samira Ebrahimi Kahou第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:73-80

模型设计与架构

密集反向传播改进了稀疏门控混合专家路由

Ashwinee Panda、Vatsal Baherwani、Zain Sarwar、Benjamin Therien、Sambit Sahu、Stephen Rawls、Supriyo Chakraborty、Tom Goldstein第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:81-101

VL-Mamba:探索用于多模态学习的状态空间模型

Yanyuan Qiao、Zheng Yu、Zijia Zhao、Sihan Chen、Mingzhen Sun、Longteng Guo、Qi Wu、Jing Liu第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:102-113

MisD-MoE:具有自适应特征选择的多模态错误信息检测框架

Moyang Liu、Kaiying Yan、Yukun Liu、Ruibo Fu、Zhengqi Wen、Xuefei Liu、Chenxing Li第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:114-122

Zipper:一种用于融合模态的多塔解码器架构

Vicky Zayats、Peter Chen、Melissa Ferrari、Dirk Padfield第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:123-135

视频分析是否真的需要使用 5D 张量的 3D 卷积?

Habib Hajimolahoseini、Walid Ahmed、Shuangyue Wen、Yang Liu第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:136-144

软混合专家中的隐式偏差:超越参数数量

Youngseog Chung、Dhruv Malik、Jeff Schneider、Yuanzhi Li、Aarti Singh第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:145-164

通过任务特定专家剪枝重新审视 SMoE 语言模型中的效率低下

Soumajyoti Sarkar、Leonard Lausen、Volkan Cevher、Thomas Brox、Sheng Zha、George Karypis第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:165-181

StructMoE:使用低秩专家的结构化混合专家

Zain Sarwar、Ashwinee Panda、Benjamin Thérien、Stephen Rawls、Anirban Das、Kartik Balasubramaniam、Berkcan Kapusuzoglu、Shixiong Zhang、Sambit Sahu、Milind Naphade、Supriyo Chakraborty第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:182-193

稀疏升级:推理效率低下的微调

Sasha Doubov、Nikhil Sardana、Vitaliy Chiley第四届 NeurIPS 效率自然语言与语音处理研讨会论文集,PMLR 262:194-205

模型效率与压缩

后训练统计校准以提高激活稀疏性

Vui Seng Chua, Yujie Pan, Nilesh Jain; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:206-221

加速低秩分解模型

Habib Hajimolahoseini, Walid Ahmed, Shuangyue Wen, Yang Liu; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:222-231

捷足先登:启发式加速 EarlyBird 收敛

Adithya G Vasudev; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:232-240

具有微缩格式的大语言模型后训练量化

Sayeh Sharify, Utkarsh Saxena, Zifei Xu, Wanzin Yazar, Ilya Soloveychik, Xin Wang; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:241-258

EchoAtt:用于更高效的大语言模型的 Attend、Copy、然后调整

Hossein Rajabzadeh, Aref Jafari, Aman Sharma, Benyamin Jami, Hyock Ju Hj Kwon, Ali Ghodsi, Boxing Chen, Mehdi Rezagholizadeh; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:259-269

后训练量化大语言模型的缩放规律

Zifei Xu, Alexander Y Lan, Wanzin Yazar, Tristan Webb, Sayeh Sharify, Xin Wang; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:270-285

用于轻量级语言模型的局部共享查询-键

Kai Yang, Vahid Partovi Nia, Boxing Chen, Masoud Asgharian; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:286-291

推理

蛇梯:利用推测解码加速 SSM 推理

Yangchao Wu, Yonatan Dukler, Matthew Trager, Alessandro Achille, Wei Xia, Stefano Soatto; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:292-304

GEAR:用于 LLM 推理中 KV 缓存压缩的有效错误减少框架

Hao Kang, Qingru Zhang, Souvik Kundu, Geonhwa Jeong, Zaoxing Liu, Tushar Krishna, Tuo Zhao; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:305-321

N-Grammys:利用无学习批量推测加速自回归推理

Lawrence Stewart, Matthew Trager, Sujan Gonugondla, Stefano Soatto; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:322-335

分布式推测推理的大语言模型在理论上更快

Nadav Timor, Jonathan Mamou, Oren Pereg, Moshe Berchansky, Daniel Korat, Moshe Wasserblat, Tomer Galanti, Michal Gordon, David Harel; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:336-354

AdaEDL:基于熵的令牌接受概率下界的大语言模型推测解码的早期草稿停止

Sudhanshu Agrawal, Wonseok Jeon, Mingu Lee; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:355-369

具有 MixAttention 的推理友好模型

Shashank Rajput, Ying Sheng, Sean Owen, Vitaliy Chiley; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:370-381

改进多候选推测解码

XiaoFan Lu, Yixiao Zeng, Marco Levorato, FeiYang Ma, ZiXu Yu; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:382-394

推测流式传输:无需辅助模型即可进行快速 LLM 推理

Nikhil Bhendawade, Irina Belousova, Qichen Fu, Henry Mason, Mohammad Rastegari, Mahyar Najibi; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:395-413

用于高效推理的滞后激活函数

Moshe Kimhi, Idan Kashani, Chaim Baskin, Avi Mendelson; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:414-422

高效调度 Flash Attention 用于部分填充的注意力掩码

Agniv Sharma, Jonas A. Geiping; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:423-442

Duo-LLM:用于研究大语言模型自适应计算的框架

Keivan Alizadeh-Vahid, Seyed Iman Mirzadeh, Hooman Shahrkokhi, Dmitry Belenko, Frank Sun, Minsik Cho, Mohammad Hossein Sekhavat, Moin Nabi, Mehrdad Farajtabar; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:443-455

动态推测前瞻加速大语言模型的推测解码

Jonathan Mamou, Oren Pereg, Daniel Korat, Moshe Berchansky, Nadav Timor, Moshe Wasserblat, Roy Schwartz; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:456-467

CSKV:训练高效的通道收缩,用于长上下文场景中的 KV 缓存

Luning Wang, Shiyao Li, Xuefei Ning, Zhihang Yuan, Shengen Yan, Guohao Dai, Yu Wang; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:468-484

用于大语言模型 KV 缓存压缩的残差向量量化

Ankur Kumar; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:485-490

基准与评估

使用不同语言和质量级别重释自然文本数据,用于大语言模型预训练

Michael Pieler, Marco Bellagente, Hannah Teufel, Duy Phung, Nathan Cooper, Jonathan Tow, Paulo Rocha, Reshinth Adithyan, Zaid Alyafeai, Nikhil Pinnaparaju, Maksym Zhuravinskyi, Carlos Riquelme; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:491-511

ChemTEB:化学文本嵌入基准,对特定领域嵌入模型的性能和效率的概述

Ali Shiraee Kasmaee, Mohammad Khodadad, Mohammad Arshi Saloot, Nick Sherck, Stephen Dokas, Hamidreza Mahyar, Soheila Samiee; 第四届 NeurIPS 效率自然语言与语音处理研讨会论文集, PMLR 262:512-531

基于 NLP 启发方法的表格深度学习效率研究

Anton F Thielmann, Soheila Samiee; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:532-539

应用

使用图注意力网络的文本摘要

Mohammadreza Ardestani, Yllias Chali; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:540-553

足够了:将预训练的视觉 Transformer 适配到视听说话人验证

Gnana Praveen Rajasekhar, Jahangir Alam; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:554-563

通过早期自适应滤波增强标签噪声鲁棒性,用于自监督说话人验证任务

Abderrahim Fathan, Xiaolin Zhu, Jahangir Alam; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:564-575

Mai Ho‘omāuna i ka ‘Ai: 语言模型改进夏威夷语自动语音识别

Kaavya D Chaparala, Guido Zarrella, Bruce Torres Fischer, Larry Kimura, Oiwi Parker Jones; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:576-583

使用逐层自适应量化进行语音情感识别的轻量级神经网络

Tushar Shinde, Ritika Jain, Avinash Kumar Sharma; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:584-595

OnlySportsLM: 在十亿参数下优化体育领域语言模型,达到 SOTA 性能

Zexin Chen, Chengxi Li, Xiangyu Xie, Parijat Dube; 第四届 NeurIPS 效率自然语言和语音处理研讨会论文集, PMLR 262:596-610

订阅 通过 RSS