[编辑]

第239卷:在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集,2023年12月16日,美国路易斯安那州新奥尔良

[编辑]

编辑:Javier Antorán、Arno Blaas、Kelly Buchanan、Fan Feng、Vincent Fortuin、Sahra Ghalebikesabi、Andreas Kriegler、Ian Mason、David Rohde、Francisco J. R. Ruiz、Tobias Uelwer、Yubin Xie、Rui Yang

[bib][citeproc]

如何(不)为VQA集成LVLM

Lisa Alazraki、Lluis Castrejon、Mostafa Dehghani、Fantine Huot、Jasper Uijlings、Thomas Mensink; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:1-20

带有图解抽象的视觉草图板能否增强LLM推理?

Joy Hsu、Gabriel Poesia、Jiajun Wu、Noah Goodman; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:21-28

用户个性化大型语言模型输出中的过滤气泡和情感极化

Tomo Lazovich; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:29-37

大型语言模型是好的标注者吗?

Jay Mohta、Kenan Ak、Yan Xu、Mingwei Shen; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:38-48

自评估改进了大型语言模型中的选择性生成

Jie Ren、Yao Zhao、Tu Vu、Peter J. Liu、Balaji Lakshminarayanan; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:49-64

扩展学习优化器值得吗?评估VeLO的4000 TPU月

Fady Rezk、Antreas Antoniou、Henry Gouk、Timothy Hospedales; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:65-83

探索文本到图像基础模型下游应用中的社会偏见

Adhithya Prakash Saravanan、Rafal Kocielnik、Roy Jiang、Pengrui Han、Anima Anandkumar; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:84-102

大型语言模型中的对抗攻击和防御:旧威胁和新威胁

Leo Schwinn、David Dobre、Stephan Günnemann、Gauthier Gidel; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:103-117

语言先验在衡量视觉语言模型组合泛化中的作用

Chenwei Wu、Li Erran Li、Stefano Ermon、Patrick Haffner、Rong Ge、Zaiwei Zhang; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:118-126

预训练语言模型无助于自回归文本到图像生成

Yuhui Zhang、Brandon McKinzie、Zhe Gan、Vaishaal Shankar、Alexander Toshev; 在2023年NeurIPS研讨会上发表的“我简直不敢相信它还不够好:基础模型时代的失败模式”论文集, PMLR 239:127-133

订阅 通过RSS