[编辑]

第247卷:第三十七届年度学习理论会议,2023年7月30日至7月3日,加拿大埃德蒙顿

[编辑]

编辑:Shipra Agrawal,Aaron Roth

[bib][citeproc]

目录

序言

2024年学习理论会议:前言

Shipra Agrawal,Aaron Roth; 第三十七届学习理论会议论文集, PMLR 247:i-i

原始论文

逼近中值治疗效应的局限性

Raghavendra Addanki,Siddharth Bhandari; 第三十七届学习理论会议论文集, PMLR 247:1-21

三多数:最简单的最优学习器?

Ishaq Aden-Ali,Mikael Møller Høandgsgaard,Kasper Green Larsen,Nikita Zhivotovskiy; 第三十七届学习理论会议论文集, PMLR 247:22-45

每个任务样本量非常少的元学习

Maryam Aliakbarpour,Konstantina Bairaktari,Gavin Brown,Adam Smith,Nathan Srebro,Jonathan Ullman; 第三十七届学习理论会议论文集, PMLR 247:46-93

通过图论对私有可学习性进行统一表征

Noga Alon,Shay Moran,Hilla Schefler,Amir Yehudayoff; 第三十七届学习理论会议论文集, PMLR 247:94-129

缓解误定回归中的协变量漂移,并应用于强化学习

Philip Amortila,Tongyi Cao,Akshay Krishnamurthy; 第三十七届学习理论会议论文集, PMLR 247:130-160

各向异性下的快速并行采样

Nima Anari,Sinho Chewi,Thuy-Duong Vuong; 第三十七届学习理论会议论文集, PMLR 247:161-185

预测推断中不确定性量化的两个基本限制

Felipe Areces,Chen Cheng,John Duchi,Kuditipudi Rohith; 第三十七届学习理论会议论文集, PMLR 247:186-218

具有部分反馈的模式估计

Charles Arnal,Vivien Cabannes,Vianney Perchet; 第三十七届学习理论会议论文集, PMLR 247:219-220

用于私有统计估计的通用最优机制

Hilal Asi,John C. Duchi,Saminul Haque,Zewei Li,Feng Ruan; 第三十七届学习理论会议论文集, PMLR 247:221-259

正则化和最优多类学习

Julian Asilis,Siddartha Devic,Shaddin Dughmi,Vatsal Sharan,Shang-Hua Teng; 第三十七届学习理论会议论文集, PMLR 247:260-310

多臂老虎机纯探索中最佳臂逃避:近优多通道流下界

Sepehr Assadi,Chen Wang; 第三十七届学习理论会议论文集, PMLR 247:311-358

回归的通用速率:截断损失和绝对损失之间的分离

Idan Attias,Steve Hanneke,Alkis Kalavasis,Amin Karbasi,Grigoris Velegkas; 第三十七届学习理论会议论文集, PMLR 247:359-405

具有稀疏激活的神经网络学习

Pranjal Awasthi,Nishanth Dikkala,Pritish Kamath,Raghu Meka; 第三十七届学习理论会议论文集, PMLR 247:406-425

实例最优在线学习的SMART方法

Siddhartha Banerjee,Alankrita Bhatt,Christina Lee Yu; 第三十七届学习理论会议论文集, PMLR 247:426-426

检测随机几何图中的$L_∞$几何:三角形的次优性和聚类扩展

Kiril Bangachev,Guy Bresler; 第三十七届学习理论会议论文集, PMLR 247:427-497

具有强弱距离预言机的度量聚类和MST

MohammadHossein Bateni,Prathamesh Dharangutte,Rajesh Jayaram,Chen Wang; 第三十七届学习理论会议论文集, PMLR 247:498-550

相关二项式过程

Moïse Blanchard,Doron Cohen,Aryeh Kontorovich; 第三十七届学习理论会议论文集, PMLR 247:551-595

使用平滑数据的经验风险最小化的性能

Adam Block,Alexander Rakhlin,Abhishek Shetty; 第三十七届学习理论会议论文集, PMLR 247:596-629

累积知识过程中的错误稳健驯服

Anna Brandenberger,Cassandra Marcussen,Elchanan Mossel,Madhu Sudan; 第三十七届学习理论会议论文集, PMLR 247:630-631

从图投影重建随机超图的阈值

Guy Bresler,Chenghao Guo,Yury Polyanskiy; 第三十七届学习理论会议论文集, PMLR 247:632-647

可解释逼近的理论

Marco Bressan,Nicolò Cesa-Bianchi,Emmanuel Esposito,Yishay Mansour,Shay Moran,Maximilian Thiessen; 第三十七届学习理论会议论文集, PMLR 247:648-668

图中的单音半空间学习的有效算法

Marco Bressan,Emmanuel Esposito,Maximilian Thiessen; 第三十七届学习理论会议论文集, PMLR 247:669-696

通过非线性控制进行在线Stackelberg优化

William Brown,Christos Papadimitriou,Tim Roughgarden; 第三十七届学习理论会议论文集, PMLR 247:697-749

充分统计扰动:私有最小二乘法的稳定估计器扩展摘要

Gavin Brown, Jonathan Hayase, Samuel Hopkins, Weihao Kong, Xiyang Liu, Sewoong Oh, Juan C Perdomo, Adam Smith; 第三十七届学习理论会议论文集, PMLR 247:750-751

稀疏线性回归中不当学习的计算统计差距

Rares-Darius Buhai, Jingqiu Ding, Stefan Tiegel; 第三十七届学习理论会议论文集, PMLR 247:752-771

随机凸优化中自适应性的代价

Yair Carmon, Oliver Hinder; 第三十七届学习理论会议论文集, PMLR 247:772-774

从量子数据学习的信息论泛化界限

Matthias C. Caro, Tom Gur, Cambyse Rouzé, Daniel Stilck França, Sathyawageeswar Subramanian; 第三十七届学习理论会议论文集, PMLR 247:775-839

图中的球体教学映射的非冲突性

Jérémie Chalopin, Victor Chepoi, Fionn Mc Inerney, Sébastien Ratel; 第三十七届学习理论会议论文集, PMLR 247:840-875

具有低内在维度的概念学习的平滑分析

Gautam Chandrasekaran, Adam Klivans, Vasilis Kontonis, Raghu Meka, Konstantinos Stavropoulos; 第三十七届学习理论会议论文集, PMLR 247:876-922

双VC维阻碍了嵌入的样本压缩

Zachary Chase, Bogdan Chornomaz, Steve Hanneke, Shay Moran, Amir Yehudayoff; 第三十七届学习理论会议论文集, PMLR 247:923-946

双层优化中寻找小超梯度的困难结果和改进分析

Lesi Chen, Jing Xu, Jingzhao Zhang; 第三十七届学习理论会议论文集, PMLR 247:947-980

一种更快更简单的浅层网络学习算法

Sitan Chen, Shyam Narayanan; 第三十七届学习理论会议论文集, PMLR 247:981-994

分离潜在MDPs中的近优学习和规划

Fan Chen, Constantinos Daskalakis, Noah Golowich, Alexander Rakhlin; 第三十七届学习理论会议论文集, PMLR 247:995-1067

规模无关对抗强化学习

Mingyu Chen, Xuezhou Zhang; 第三十七届学习理论会议论文集, PMLR 247:1068-1101

Glauber动力学中对手的威力

Byron Chin, Ankur Moitra, Elchanan Mossel, Colin Sandon; 第三十七届学习理论会议论文集, PMLR 247:1102-1124

语言模型的不可检测水印

Miranda Christ, Sam Gunn, Or Zamir; 第三十七届学习理论会议论文集, PMLR 247:1125-1139

风险敏感在线算法(扩展摘要)

Nicolas Christianson, Bo Sun, Steven Low, Adam Wierman; 第三十七届学习理论会议论文集, PMLR 247:1140-1141

统计课程学习:实现预言家风险的消除算法

Omer Cohen, Ron Meir, Nir Weinberger; 第三十七届学习理论会议论文集, PMLR 247:1142-1199

持续观察和在线阈值查询下差分隐私的下界

Edith Cohen, Xin Lyu, Jelani Nelson, Tamás Sarlós, Uri Stemmer; 第三十七届学习理论会议论文集, PMLR 247:1200-1222

战略分类的可学习差距

Lee Cohen, Yishay Mansour, Shay Moran, Han Shao; 第三十七届学习理论会议论文集, PMLR 247:1223-1259

具有独立线性函数逼近的马尔可夫游戏的细化样本复杂度(扩展摘要)

Yan Dai, Qiwen Cui, Simon S. Du; 第三十七届学习理论会议论文集, PMLR 247:1260-1261

高斯单指标模型中的计算统计差距(扩展摘要)

Alex Damian, Loucas Pillaud-Vivien, Jason Lee, Joan Bruna; 第三十七届学习理论会议论文集, PMLR 247:1262-1262

使用返回“是”或“否”的预言机进行高效PAC学习是否可行?

Constantinos Daskalakis, Noah Golowich; 第三十七届学习理论会议论文集, PMLR 247:1263-1307

具有对抗标签噪声的一般半空间的可测试学习

Ilias Diakonikolas, Daniel Kane, Sihan Liu, Nikos Zarifis; 第三十七届学习理论会议论文集, PMLR 247:1308-1335

学习截断高斯分布的统计查询下界

Ilias Diakonikolas, Daniel M. Kane, Thanasis Pittas, Nikos Zarifis; 第三十七届学习理论会议论文集, PMLR 247:1336-1363

使用舒尔多项式高效学习单隐藏层ReLU网络

Ilias Diakonikolas, Daniel M. Kane; 第三十七届学习理论会议论文集, PMLR 247:1364-1378

差分隐私在线学习中错误增长的视角

Daniil Dmitriev, Kristóf Szabó, Amartya Sanyal; 第三十七届学习理论会议论文集, PMLR 247:1379-1398

基于物理信息的机器学习作为一种核方法

Nathan Doumèche, Francis Bach, Gérard Biau, Claire Boyer; 第三十七届学习理论会议论文集, PMLR 247:1399-1450

通用下界和最优速率:实现亚指数混合模型中的最小二乘聚类误差

Maximilien Dreveton, Alperen Gözeten, Matthias Grossglauser, Patrick Thiran; 第三十七届学习理论会议论文集, PMLR 247:1451-1485

时间一致性估计中的信息论下界

John Duchi, Saminul Haque; 第三十七届学习理论会议论文集, PMLR 247:1486-1500

使用 Glauber 动力学对稀释自旋玻璃的采样

Charilaos Efthymiou, Kostas Zampetakis; 第三十七届学习理论会议论文集, PMLR 247:1501-1515

分位数风险下最小极值线性回归

Ayoub El Hanchi, Chris Maddison, Murat Erdogdu; 第三十七届学习理论会议论文集, PMLR 247:1516-1572

多类分类中 Bandit 信息带来的真实代价

Liad Erez, Alon Cohen, Tomer Koren, Yishay Mansour, Shay Moran; 第三十七届学习理论会议论文集, PMLR 247:1573-1598

ReLU 神经网络的拓扑表达性

Ekin Ergen, Moritz Grillo; 第三十七届学习理论会议论文集, PMLR 247:1599-1642

Orlicz 空间中马尔可夫算子的收缩以及马尔可夫链蒙特卡洛误差界限(扩展摘要)

Amedeo Roberto Esposito, Marco Mondelli; 第三十七届学习理论会议论文集, PMLR 247:1643-1645

高维聚类中的计算-信息差距

Bertrand Even, Christophe Giraud, Nicolas Verzelen; 第三十七届学习理论会议论文集, PMLR 247:1646-1712

用于 Bandit 凸优化的在线牛顿法(扩展摘要)

Hidde Fokkema, Dirk Van der Hoeven, Tor Lattimore, Jack J. Mayo; 第三十七届学习理论会议论文集, PMLR 247:1713-1714

具有线性样本复杂度的单指标模型的对抗性主动学习

Aarshvi Gajjar, Wai Ming Tai, Xu Xingyu, Chinmay Hegde, Christopher Musco, Yi Li; 第三十七届学习理论会议论文集, PMLR 247:1715-1754

未知多面体上的安全线性 Bandit

Aditya Gangrade, Tianrui Chen, Venkatesh Saligrama; 第三十七届学习理论会议论文集, PMLR 247:1755-1795

使用 Riemannian HMC 采样多面体:通过 Lewis 权重屏障实现更快的混合

Khashayar Gatmiry, Jonathan Kelner, Santosh S. Vempala; 第三十七届学习理论会议论文集, PMLR 247:1796-1881

(ε, u)-自适应重构最小化在重尾和鲁棒均值估计中

Gianmarco Genalti, Lupo Marsigli, Nicola Gatti, Alberto Maria Metelli; 第三十七届学习理论会议论文集, PMLR 247:1882-1915

具有半敏感特征的凸优化

Badih Ghazi, Pritish Kamath, Ravi Kumar, Pasin Manurangsi, Raghu Meka, Chiyuan Zhang; 第三十七届学习理论会议论文集, PMLR 247:1916-1938

具有少量动作的有效在线强化学习的线性贝尔曼完备性

Noah Golowich, Ankur Moitra; 第三十七届学习理论会议论文集, PMLR 247:1939-1981

用于微分隐私随机鞍点问题的镜像下降算法,具有接近维度无关的速率(扩展摘要)

Tomas Gonzalez, Cristobal Guzman, Courtney Paquette; 第三十七届学习理论会议论文集, PMLR 247:1982-1982

计算高效的多类校准

Parikshit Gopalan, Lunjia Hu, Guy N. Rothblum; 第三十七届学习理论会议论文集, PMLR 247:1983-2026

用于回归的万能预测器和凸函数的近似秩

Parikshit Gopalan, Princewill Okoroafor, Prasad Raghavendra, Abhishek Sherry, Mihir Singhal; 第三十七届学习理论会议论文集, PMLR 247:2027-2070

以接近最优的样本和时间复杂度识别离散乘积分布的混合物

Spencer L. Gordon, Erik Jahn, Bijan Mazaheri, Yuval Rabani, Leonard J. Schulman; 第三十七届学习理论会议论文集, PMLR 247:2071-2091

关于鲁棒 PAC 学习的可计算性

Pascale Gourdeau, Lechner. Tosca, Ruth Urner; 第三十七届学习理论会议论文集, PMLR 247:2092-2121

主特征状态经典阴影

Daniel Grier, Hakop Pashayan, Luke Schaeffer; 第三十七届学习理论会议论文集, PMLR 247:2122-2165

超图随机块模型中的社群检测以及在超树上的重构

Yuzhou Gu, Aaradhya Pandey; 第三十七届学习理论会议论文集, PMLR 247:2166-2203

基于 Lyapunov 优化估计到决策框架的随机约束上下文 Bandit

Hengquan Guo, Xin Liu; 第三十七届学习理论会议论文集, PMLR 247:2204-2231

超越 Catoni:重尾和鲁棒均值估计的更精确速率

Shivam Gupta, Samuel Hopkins, Eric Price; 第三十七届学习理论会议论文集, PMLR 247:2232-2269

具有无限记忆的模型预测压缩,及其在隐马尔可夫和更新过程中的应用

Yanjun Han, Tianze Jiang, Yihong Wu; 第三十七届学习理论会议论文集, PMLR 247:2270-2307

星数和消除维度:关于不一致维度的基本观察

Steve Hanneke; 第三十七届学习理论会议论文集, PMLR 247:2308-2359

列表样本压缩和一致收敛

Steve Hanneke, Shay Moran, Waknine Tom; 第三十七届学习理论会议论文集, PMLR 247:2360-2388

树上的对抗鲁棒推理,通过信念传播

Samuel B. Hopkins, Anqui Li; 第三十七届学习理论会议论文集, PMLR 247:2389-2417

逻辑回归中具有正态设计的参数估计的样本复杂度

Daniel Hsu, Arya Mazumdar; 第三十七届学习理论会议论文集, PMLR 247:2418-2437

基于扩散的蒙特卡洛方法实现更快的采样,无需各向异性

Xunpeng Huang, Difan Zou, Hanze Dong, Yi-An Ma, Tong Zhang; 第三十七届学习理论会议论文集, PMLR 247:2438-2493

部分相关图对齐的信息理论阈值

Dong Huang, Xianwen Song, Pengkun Yang; 第三十七届学习理论会议论文集, PMLR 247:2494-2518

随机几何图几何结构的重构(扩展摘要)

Han Huang, Pakawut Jiradilok, Elchanan Mossel; 第三十七届学习理论会议论文集, PMLR 247:2519-2521

跟随正则化领导者自适应学习率:竞争分析和两全其美

Shinji Ito, Taira Tsuchiya, Junya Honda; 第三十七届学习理论会议论文集, PMLR 247:2522-2563

黑盒 k-to-1-PCA 降维:理论与应用

Arun Jambulapati, Syamantak Kumar, Jerry Li, Shourya Pandey, Ankit Pensia, Kevin Tian; 第三十七届学习理论会议论文集, PMLR 247:2564-2607

并行随机凸优化中计算-查询深度差距的消除

Arun Jambulapati, Aaron Sidford, Kevin Tian; 第三十七届学习理论会议论文集, PMLR 247:2608-2643

离线强化学习:状态聚合和轨迹数据的作用

Zeyu Jia, Alexander Rakhlin, Ayush Sekhari, Chen-Yu Wei; 第三十七届学习理论会议论文集, PMLR 247:2644-2719

通过 Wasserstein 空间中的多面体优化实现平均场变分推断的算法

Yiheng Jiang, Sinho Chewi, Aram-Alexandre Pooladian; 第三十七届学习理论会议论文集, PMLR 247:2720-2721

更快的谱密度估计和核范数中的稀疏化(扩展摘要)

Yujia Jin, Ishani Karmarkar, Christopher Musco, Aaron Sidford, Apoorv Vikram Singh; 第三十七届学习理论会议论文集, PMLR 247:2722-2722

用于私有、高效和最优 $K$-范数和椭圆高斯噪声的一些构造

Matthew Joseph, Alexander Yu; 第三十七届学习理论会议论文集, PMLR 247:2723-2766

通过数据依赖性粗化实现 IPW 估计器的更小置信区间(扩展摘要)

Alkis Kalavasis, Anay Mehrotra, Manolis Zampetakis; 第三十七届学习理论会议论文集, PMLR 247:2767-2767

测试单调性和分布对数凹性的新下界

Yuqian Cheng, Daniel Kane, Zheng Zhicheng; 第三十七届学习理论会议论文集, PMLR 247:2768-2794

选择 Lp 损失中的 p:对称均值估计的自适应速率

Yu-Chun Kao, Min Xu, Cun-Hui Zhang; 第三十七届学习理论会议论文集, PMLR 247:2795-2839

具有潜在变量的 Lasso:高效估计、协变量重缩放和计算-统计差距

Jonathan Kelner, Frederic Koehler, Raghu Meka, Dhruv Rohatgi; 第三十七届学习理论会议论文集, PMLR 247:2840-2886

具有分布偏移的可测试学习

Adam Klivans, Konstantinos Stavropoulos, Arsen Vasilyan; 第三十七届学习理论会议论文集, PMLR 247:2887-2943

半空间交集的学习与分布偏移:改进的算法和 SQ 下界

Adam Klivans, Konstantinos Stavropoulos, Arsen Vasilyan; 第三十七届学习理论会议论文集, PMLR 247:2944-2978

决策树学习的超常不可近似性

Caleb Koch, Carmen Strassle, Li-Yang Tan; 第三十七届学习理论会议论文集, PMLR 247:2979-3010

Lie 群上动力学朗之万蒙特卡洛方法的收敛性

Lingkai Kong, Molei Tao; 第三十七届学习理论会议论文集, PMLR 247:3011-3063

使用简单问题的主动学习

Kontonis Vasilis, Ma Mingchen, Tzamos Christos; 第三十七届学习理论会议论文集, PMLR 247:3064-3098

从平均场平稳分布中采样

Yunbum Kook, Matthew S. Zhang, Sinho Chewi, Murat A. Erdogdu, Mufan (Bill) Li; 第三十七届学习理论会议论文集, PMLR 247:3099-3136

高斯冷却和 Dikin 步:对数凹采样中的内点法

Yunbum Kook, Santosh S. Vempala; 第三十七届学习理论会议论文集, PMLR 247:3137-3240

具有一致预言机的简单在线学习

Alexander Kozachinskiy, Tomasz Steifer; 第三十七届学习理论会议论文集, PMLR 247:3241-3256

加速无参数随机优化

Itai Kreisler, Maor Ivgi, Oliver Hinder, Yair Carmon; 第三十七届学习理论会议论文集, PMLR 247:3257-3324

优于 KL 的 PAC-Bayes 界

Ilja Kuzborskij, Kwang-Sung Jun, Yulian Wu, Kyoungseok Jang, Francesco Orabona; 第三十七届学习理论会议论文集, PMLR 247:3325-3352

表征分布类可学习性的维度固有局限性

Tosca Lechner, Shai Ben-David; 第三十七届学习理论会议论文集, PMLR 247:3353-3374

具有 Fréchet 型尾分布的跟随扰动领导者:对抗性 Bandit 和两全其美的最优性

Jongyeong Lee, Junya Honda, Shinji Ito, Min-hwan Oh; 第三十七届学习理论会议论文集, PMLR 247:3375-3430

强化学习中奖励无关探索的最优性

Gen Li, Yuling Yan, Yuxin Chen, Jianqing Fan; 第三十七届学习理论会议论文集, PMLR 247:3431-3436

从标签比例学习的乐观速率

李健, 陈琳, Javanmard Adel, Mirrokni Vahab; 第三十七届学习理论会议论文集, PMLR 247:3437-3474

未知非线性系统中的在线策略优化

林一恒, Preiss James A., 谢风泽, Anand Emile, Chung Soon-Jo, Yue Yisong, Wierman Adam; 第三十七届学习理论会议论文集, PMLR 247:3475-3522

使用无纠缠测量进行量子态认证中随机性的作用

刘宇涵, Acharya Jayadev; 第三十七届学习理论会议论文集, PMLR 247:3523-3555

贝叶斯无监督树的空间属性

刘林溪, 马丽; 第三十七届学习理论会议论文集, PMLR 247:3556-3581

预测更新动态模型:离线、增量和减量到完全动态转换

刘泉泉 C., Srinivas Vaidehi; 第三十七届学习理论会议论文集, PMLR 247:3582-3641

具有预算和 ROI 约束的自动竞价者:效率、遗憾和节奏动态

Lucier Brendan, Pattathil Sarath, Slivkins Aleksandrs, Zhang Mengxiao; 第三十七届学习理论会议论文集, PMLR 247:3642-3643

具有对数最小极大遗憾的线性老虎机

Lumbreras Josep, Tomamichel Marco; 第三十七届学习理论会议论文集, PMLR 247:3644-3682

无正则化矩阵补全的梯度下降的精确均方线性稳定性分析

Ma Jianhao, Fattahi Salar; 第三十七届学习理论会议论文集, PMLR 247:3683-3742

通过卷积进行投影:连续空间 MDP 中强化学习的最优样本复杂度

Maran Davide, Metelli Alberto Maria, Papini Matteo, Restelli Marcello; 第三十七届学习理论会议论文集, PMLR 247:3743-3774

学习的谐波:通用傅里叶特征出现在不变网络中

Marchetti Giovanni Luca, Hillar Christopher J, Kragic Danica, Sanborn Sophia; 第三十七届学习理论会议论文集, PMLR 247:3775-3797

在子线性时间内检测植入团体的低度相变

Mardia Jay, Verchand Kabir Aladin, Wein Alexander S.; 第三十七届学习理论会议论文集, PMLR 247:3798-3822

快速、盲目和精确:具有全局线性收敛性的无调谐稀疏回归

Verdun Claudio Mayrink, Melnyk Oleh, Krahmer Felix, Jung Peter; 第三十七届学习理论会议论文集, PMLR 247:3823-3872

非线性低秩矩阵估计的基本限制

Mergny Pierre, Ko Justin, Krzakala Florent, Zdeborová Lenka; 第三十七届学习理论会议论文集, PMLR 247:3873-3873

网络级联中的超级传播者

Mossel Elchanan, Sridhar Anirudh; 第三十七届学习理论会议论文集, PMLR 247:3874-3914

SGD 的精确均方线性稳定性分析

Mulayoff Rotem, Michaeli Tomer; 第三十七届学习理论会议论文集, PMLR 247:3915-3969

乐观的信息引导采样

Neu Gergely, Papini Matteo, Schwartz Ludovic; 第三十七届学习理论会议论文集, PMLR 247:3970-4006

具有局部和全局对抗破坏的鲁棒分布学习(扩展摘要)

Nietert Sloan, Goldfeld Ziv, Shafiee Soroosh; 第三十七届学习理论会议论文集, PMLR 247:4007-4008

学习多样特征之和:脊组合的计算难度和有效的基于梯度的训练

Oko Kazusato, Song Yujin, Suzuki Taiji, Wu Denny; 第三十七届学习理论会议论文集, PMLR 247:4009-4081

范数有界无限宽度神经网络中的深度分离

Parkinson Suzanna, Ongie Greg, Willett Rebecca, Shamir Ohad, Srebro Nathan; 第三十七届学习理论会议论文集, PMLR 247:4082-4114

具有间歇通信的分布式异构学习中局部 SGD 的限制和潜力

Patel Kumar Kshitij, Glasgow Margalit, Zindari Ali, Wang Lingxiao, Stich Sebastian U, Cheng Ziheng, Joshi Nirmit, Srebro Nathan; 第三十七届学习理论会议论文集, PMLR 247:4115-4157

不完全信息博弈中近似(粗略)相关均衡的复杂性

Peng Binghui, Rubinstein Aviad; 第三十七届学习理论会议论文集, PMLR 247:4158-4184

多分布学习的样本复杂度

Peng Binghui; 第三十七届学习理论会议论文集, PMLR 247:4185-4204

简单二元假设检验的样本复杂度

Pensia Ankit, Jog Varun, Loh Po-Ling; 第三十七届学习理论会议论文集, PMLR 247:4205-4206

通过填充和置换指纹码进行微分隐私算法的平滑下界

Naty Peter, Eliad Tsfadia, Jonathan Ullman; 第三十七届学习理论会议论文集, PMLR 247:4207-4239

样本最优局部隐私假设选择以及交互的确定性优势

Alireza F. Pour, Hassan Ashtiani, Shahab Asoodeh; 第三十七届学习理论会议论文集, PMLR 247:4240-4275

无量纲结构化协方差估计

Nikita Puchkin, Maxim Rakhuba; 第三十七届学习理论会议论文集, PMLR 247:4276-4306

序列预测中校准距离

Mingda Qiao, Letian Zheng; 第三十七届学习理论会议论文集, PMLR 247:4307-4357

苹果品尝:组合维度和极小极大速率

Vinod Raman, Unique Subedi, Ananth Raman, Ambuj Tewari; 第三十七届学习理论会议论文集, PMLR 247:4358-4380

具有集合值反馈的在线学习

Vinod Raman, Unique Subedi, Ambuj Tewari; 第三十七届学习理论会议论文集, PMLR 247:4381-4412

像你采样一样:来自快速混合扩散的样本高效广义分数匹配

Yilong Qin, Andrej Risteski; 第三十七届学习理论会议论文集, PMLR 247:4413-4457

具有Fenchel-Young损失和改进的在线多分类逻辑损失的在线结构化预测

Shinsaku Sakaue, Han Bao, Taira Tsuchiya, Taihei Oki; 第三十七届学习理论会议论文集, PMLR 247:4458-4486

量子PAC学习的确定性优势

Wilfred Salmon, Sergii Strelchuk, Tom Gur; 第三十七届学习理论会议论文集, PMLR 247:4487-4510

通过指数稳定性改进时序差分学习算法的高概率界限

Sergey Samsonov, Daniil Tiapkin, Alexey Naumov, Eric Moulines; 第三十七届学习理论会议论文集, PMLR 247:4511-4547

具有时序反馈图的对抗在线学习

Khashayar Gatmiry, Jon Schneider; 第三十七届学习理论会议论文集, PMLR 247:4548-4572

多头softmax注意力在上下文学习中的训练动态:涌现、收敛和最优性(扩展摘要)

Chen Siyu, Sheen Heejune, Wang Tianhao, Yang Zhuoran; 第三十七届学习理论会议论文集, PMLR 247:4573-4573

定量组测试问题的非自适应算法

Mahdi Soleymani, Tara Javidi; 第三十七届学习理论会议论文集, PMLR 247:4574-4592

使用Metropolis调整的镜像朗之万算法从约束空间进行快速采样

Vishwak Srinivasan, Andre Wibisono, Ashia Wilson; 第三十七届学习理论会议论文集, PMLR 247:4593-4635

用于长矩阵和张量补全的非回溯方法

Ludovic Stephan, Yizhe Zhu; 第三十七届学习理论会议论文集, PMLR 247:4636-4690

用于Bandit优化和控制的二阶方法

Arun Suggala, Y Jennifer Sun, Praneeth Netrapalli, Elad Hazan; 第三十七届学习理论会议论文集, PMLR 247:4691-4763

学习半空间交集的困难性结果改进

Stefan Tiegel; 第三十七届学习理论会议论文集, PMLR 247:4764-4786

剪枝对于学习高维稀疏特征是最佳的

Nuri Mert Vural, Murat A Erdogdu; 第三十七届学习理论会议论文集, PMLR 247:4787-4861

用于分布式在线凸优化的近乎最优遗憾

Yuanyu Wan, Tong Wei, Mingli Song, Lijun Zhang; 第三十七届学习理论会议论文集, PMLR 247:4862-4888

具有消失边相关性的加权图对齐的有效算法(扩展摘要)

Ziao Wang, Weina Wang, Lele Wang; 第三十七届学习理论会议论文集, PMLR 247:4889-4890

非线性尖峰协方差矩阵和深度神经网络中的信号传播

Zhichao Wang, Denny Wu, Zhou Fan; 第三十七届学习理论会议论文集, PMLR 247:4891-4957

通过经验贝叶斯平滑进行最优分数估计

Andre Wibisono, Yihong Wu, Kaylee Yingxi Yang; 第三十七届学习理论会议论文集, PMLR 247:4958-4991

具有未知分布的Oracle高效混合在线学习

Changlong Wu, Jin Sima, Wojciech Szpankowski; 第三十七届学习理论会议论文集, PMLR 247:4992-5018

用于逻辑损失的大步长梯度下降:损失的非单调性提高了优化效率

Jingfeng Wu, Peter L. Bartlett, Matus Telgarsky, Bin Yu; 第三十七届学习理论会议论文集, PMLR 247:5019-5073

弥合差距:鲁棒和标准泛化中的Rademacher复杂度

Jiancong Xiao, Ruoyu Sun, Qi Long, Weijie Su; 第三十七届学习理论会议论文集, PMLR 247:5074-5075

通过最优传输视角进行多输出复合分位数回归

Xuzhi Yang, Tengyao Wang; 第三十七届学习理论会议论文集, PMLR 247:5076-5122

具有单调对手的Top-$K$排序

Yuepeng Yang, Antares Chen, Lorenzo Orecchia, Cong Ma; 第三十七届学习理论会议论文集, PMLR 247:5123-5162

计数星星对于检测任何植入子图是常数度最优的(扩展摘要)

于熙凡, 伊利亚斯·扎迪克, 张沛远; 第三十七届学习理论会议论文集, PMLR 247:5163-5165

快速两时间尺度随机梯度方法及其在强化学习中的应用

曾思瀚, 段挺; 第三十七届学习理论会议论文集, PMLR 247:5166-5212

在线强化学习样本复杂度问题的解决

张子涵, 陈宇鑫, Jason D Lee, 杜思明; 第三十七届学习理论会议论文集, PMLR 247:5213-5219

最优多分布学习

张子涵, 詹文浩, 陈宇鑫, 杜思明, Jason D Lee; 第三十七届学习理论会议论文集, PMLR 247:5220-5223

通过近似消息传递的结构化广义线性模型的谱估计器(扩展摘要)

张一涵, 吉洪昌, Ramji Venkataramanan, Marco Mondelli; 第三十七届学习理论会议论文集, PMLR 247:5224-5230

无间隙聚类:SDP 的敏感性和鲁棒性

Matthew Zurek, 陈玉栋; 第三十七届学习理论会议论文集, PMLR 247:5231-5300

开放问题

开放问题:局部正则化能否学习所有多类问题?

Julian Asilis, Siddartha Devic, Shaddin Dughmi, Vatsal Sharan, Shang-Hua Teng; 第三十七届学习理论会议论文集, PMLR 247:5301-5305

开放问题:线性上下文强盗中联合差分隐私的复杂度是多少?

Achraf Azize, Debabrota Basu; 第三十七届学习理论会议论文集, PMLR 247:5306-5311

开放问题:实例最优身份测试的紧密表征

Clément Canonne; 第三十七届学习理论会议论文集, PMLR 247:5312-5316

开放问题:非凸优化中黑盒归约和自适应梯度方法

陈欣怡, Elad Hazan; 第三十七届学习理论会议论文集, PMLR 247:5317-5324

开放问题:学习理论中的直接和

Steve Hanneke, Shay Moran, Waknine Tom; 第三十七届学习理论会议论文集, PMLR 247:5325-5329

开放问题:差分隐私下随机决策理论在线学习的最优速率

胡冰山, Nishant A. Mehta; 第三十七届学习理论会议论文集, PMLR 247:5330-5334

开放问题:梯度下降的随时收敛率

Guy Kornowski, Ohad Shamir; 第三十七届学习理论会议论文集, PMLR 247:5335-5339

开放问题:基于核的强化学习的阶最优遗憾界限

Sattar Vakili; 第三十七届学习理论会议论文集, PMLR 247:5340-5344

开放问题:双人零和博弈中单时间尺度平均场朗之万下降法的收敛性

Guillaume Wang, Lénaïc Chizat; 第三十七届学习理论会议论文集, PMLR 247:5345-5350

订阅 通过 RSS