[编辑]
第239卷:在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集,2023年12月16日,美国路易斯安那州新奥尔良
[编辑]
编辑:Javier Antorán、Arno Blaas、Kelly Buchanan、Fan Feng、Vincent Fortuin、Sahra Ghalebikesabi、Andreas Kriegler、Ian Mason、David Rohde、Francisco J. R. Ruiz、Tobias Uelwer、Yubin Xie、Rui Yang
[bib][citeproc]
如何(不)为VQA集成LVLM
Lisa Alazraki、Lluis Castrejon、Mostafa Dehghani、Fantine Huot、Jasper Uijlings、Thomas Mensink; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:1-20
[摘要][下载PDF]
带有图解抽象的视觉草图板能否增强LLM推理?
Joy Hsu、Gabriel Poesia、Jiajun Wu、Noah Goodman; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:21-28
[摘要][下载PDF]
用户个性化大型语言模型输出中的过滤气泡和情感极化
Tomo Lazovich; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:29-37
[摘要][下载PDF]
大型语言模型是好的标注者吗?
Jay Mohta、Kenan Ak、Yan Xu、Mingwei Shen; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:38-48
[摘要][下载PDF]
自评估改进了大型语言模型中的选择性生成
Jie Ren、Yao Zhao、Tu Vu、Peter J. Liu、Balaji Lakshminarayanan; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:49-64
[摘要][下载PDF]
扩展学习优化器值得吗?评估VeLO的4000 TPU月
Fady Rezk、Antreas Antoniou、Henry Gouk、Timothy Hospedales; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:65-83
[摘要][下载PDF]
探索文本到图像基础模型下游应用中的社会偏见
Adhithya Prakash Saravanan、Rafal Kocielnik、Roy Jiang、Pengrui Han、Anima Anandkumar; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:84-102
[摘要][下载PDF]
大型语言模型中的对抗攻击和防御:旧威胁和新威胁
Leo Schwinn、David Dobre、Stephan Günnemann、Gauthier Gidel; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:103-117
[摘要][下载PDF]
语言先验在衡量视觉语言模型组合泛化中的作用
Chenwei Wu、Li Erran Li、Stefano Ermon、Patrick Haffner、Rong Ge、Zaiwei Zhang; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:118-126
[摘要][下载PDF]
预训练语言模型无助于自回归文本到图像生成
Yuhui Zhang、Brandon McKinzie、Zhe Gan、Vaishaal Shankar、Alexander Toshev; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:127-133
[摘要][下载PDF]