[编辑]

第242卷:第六届动力学与控制学习年会,2024年7月15日至17日,英国牛津大学,牛津市

[编辑]

编辑:Alessandro Abate, Mark Cannon, Kostas Margellos, Antonis Papachristodoulou

[bib][citeproc]

利用具有时变哈密顿量的哈密顿-雅可比偏微分方程进行持续科学机器学习

Paula Chen, Tingwei Meng, Zongren Zou, Jérôme Darbon, George Em Karniadakis; 第六届动力学与控制学习年会会议论文集, PMLR 242:1-12

数据高效、可解释且安全的盒子操作:说明模型预测控制中物理先验的优势

Achkan Salehi, Stephane Doncieux; 第六届动力学与控制学习年会会议论文集, PMLR 242:13-24

用于多约束安全强化学习的梯度整形

Yihang Yao, Zuxin Liu, Zhepeng Cen, Peide Huang, Tingnan Zhang, Wenhao Yu, Ding Zhao; 第六届动力学与控制学习年会会议论文集, PMLR 242:25-39

具有外部记忆的多模态动力学持续学习

Abdullah Akgül, Gozde Unal, Melih Kandemir; 第六届动力学与控制学习年会会议论文集, PMLR 242:40-51

使用 Lyapunov 指导探索学习高维未知系统的稳定控制

Songyuan Zhang, Chuchu Fan; 第六届动力学与控制学习年会会议论文集, PMLR 242:52-67

强化学习中时间反演对称性的研究

Brett Barkley, Amy Zhang, David Fridovich-Keil; 第六届动力学与控制学习年会会议论文集, PMLR 242:68-79

基于 HSVI 的部分可观察随机博弈的在线极小极大策略,具有神经网络感知机制

Rui Yan, Gabriel Santos, Gethin Norman, David Parker, Marta Kwiatkowska; 第六届动力学与控制学习年会会议论文集, PMLR 242:80-91

具有健全逼近的神经网络动态模型的实时安全控制

Hanjiang Hu, Jianglin Lan, Changliu Liu; 第六届动力学与控制学习年会会议论文集, PMLR 242:92-103

强化学习中跟踪物体位置:关键点检测的指标

Emma Cramer, Jonas Reiher, Sebastian Trimpe; 第六届动力学与控制学习年会会议论文集, PMLR 242:104-116

线性化数据驱动的基于 LSTM 的多输入 HVAC 系统的控制

Andreas Hinderyckx, Florence Guillaume; 第六届动力学与控制学习年会会议论文集, PMLR 242:117-129

行为工具箱

Ivan Markovsky; 第六届动力学与控制学习年会会议论文集, PMLR 242:130-141

学习环形道路中“超前”非局部交通动态

Chenguang Zhao, Huan Yu; 第六届动力学与控制学习年会会议论文集, PMLR 242:142-154

非平稳网络资源分配的安全动态定价

Berkay Turan, Spencer Hutchinson, Mahnoosh Alizadeh; 第六届动力学与控制学习年会会议论文集, PMLR 242:155-167

具有多点反馈的安全在线凸优化

Spencer Hutchinson, Mahnoosh Alizadeh; 第六届动力学与控制学习年会会议论文集, PMLR 242:168-180

Controlgym:用于基准强化学习算法的大规模控制环境

Xiangyuan Zhang, Weichao Mao, Saviz Mowlavi, Mouhacine Benosman, Tamer Başar; 第六届动力学与控制学习年会会议论文集, PMLR 242:181-196

自适应一阶方法的收敛性:近端梯度和交替最小化算法

Puya Latafat, Andreas Themelis, Panagiotis Patrinos; 第六届动力学与控制学习年会会议论文集, PMLR 242:197-208

涉及 ReLU 神经网络的离散时间 Lurie 系统的强化稳定性分析

Carl Richardson, Matthew Turner, Steve Gunn, Ross Drummond; 第六届动力学与控制学习年会会议论文集, PMLR 242:209-221

使用 SHAP 进行可解释的数据驱动的建筑能源系统模型预测控制

Patrick Henkel, Tobias Kasperski, Phillip Stoffel, Dirk Müller; 第六届动力学与控制学习年会会议论文集, PMLR 242:222-234

具有未知测量噪声的物理信息神经网络

Philipp Pilar, Niklas Wahlström; 第六届动力学与控制学习年会会议论文集, PMLR 242:235-247

自适应在线非随机控制

Naram Mhaisen, George Iosifidis; 第六届动力学与控制学习年会会议论文集, PMLR 242:248-259

用于按需自动驾驶移动系统的多智能体深度强化学习中的全局奖励

Heiko Hoppe, Tobias Enders, Quentin Cappart, Maximilian Schiffer; 第六届动力学与控制学习年会会议论文集, PMLR 242:260-272

软凸量化:重新审视具有凸优化的向量量化

Tanmay Gautam, Reid Pryzant, Ziyi Yang, Chenguang Zhu, Somayeh Sojoudi; 第六届动力学与控制学习年会会议论文集, PMLR 242:273-285

控制和感知中集合成员估计的不确定性量化:重新审视最小包围椭球

Yukai Tang, Jean-Bernard Lasserre, Heng Yang; 第六届动力学与控制学习年会会议论文集, PMLR 242:286-298

具有有限维信息状态的极小极大双控制

Olle Kjellqvist; 第六届动力学与控制学习年会会议论文集, PMLR 242:299-311

用于线性系统最优输出反馈控制的高效数据驱动离策略Q学习算法

Mohammad Alsalti, Victor G. Lopez, Matthias A. Müller; 第6届学习动力学与控制年会论文集, PMLR 242:312-323

通过预测奖励调整基于图像的强化学习策略

Weiyao Wang, Xinyuan Fang, Gregory Hager; 第6届学习动力学与控制年会论文集, PMLR 242:324-336

用于MPC的分段回归与混合整数规划

Dieter Teichrib, Moritz Schulze Darup; 第6届学习动力学与控制年会论文集, PMLR 242:337-348

参数自适应近似MPC:无需重新训练即可调整神经网络控制器

Henrik Hose, Alexander Gräfe, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:349-360

具有粗略相关均衡的完全信息零和马尔可夫博弈中$\widetilde{O}(T^{-1})$收敛性

Weichao Mao, Haoran Qiu, Chen Wang, Hubertus Franke, Zbigniew Kalbarczyk, Tamer Başar; 第6届学习动力学与控制年会论文集, PMLR 242:361-374

作为误差变量问题的逆最优控制

Rahel Rickenbach, Anna Scampicchio, Melanie N. Zeilinger; 第6届学习动力学与控制年会论文集, PMLR 242:375-386

学习软约束MPC值函数:提供稳定性和安全保证的高效MPC设计与实现

Nicolas Chatzikiriakos, Kim Peter Wabersich, Felix Berkel, Patricia Pauli, Andrea Iannelli; 第6届学习动力学与控制年会论文集, PMLR 242:387-398

受MPC启发的用于可验证无模型控制的强化学习

Yiwen Lu, Zishuo Li, Yihan Zhou, Na Li, Yilin Mo; 第6届学习动力学与控制年会论文集, PMLR 242:399-413

基于深度强化学习的真实世界流体导向刚体控制

Mohak Bhardwaj, Thomas Lampe, Michael Neunert, Francesco Romano, Abbas Abdolmaleki, Arunkumar Byravan, Markus Wulfmeier, Martin Riedmiller, Jonas Buchli; 第6届学习动力学与控制年会论文集, PMLR 242:414-427

关于LTL目标Bellman方程解的唯一性

Zetong Xuan, Alper Bozkurt, Miroslav Pajic, Yu Wang; 第6届学习动力学与控制年会论文集, PMLR 242:428-439

通过Hamilton-Jacobi可达性分析和支持向量机进行安全基于视觉导航的决策边界学习

Tara Toufighi, Minh Bui, Rakesh Shrestha, Mo Chen; 第6届学习动力学与控制年会论文集, PMLR 242:440-452

理解使用PINN解决Cauchy问题的困难

Tao Wang, Bo Zhao, Sicun Gao, Rose Yu; 第6届学习动力学与控制年会论文集, PMLR 242:453-465

签名与动态规划相遇:推广用于轨迹跟踪的Bellman方程

Motoya Ohnishi, Iretiayo Akinola, Jie Xu, Ajay Mandlekar, Fabio Ramos; 第6届学习动力学与控制年会论文集, PMLR 242:466-479

具有历史平均依赖成本的在线决策

Vijeth Hebbar, Cedric Langbort; 第6届学习动力学与控制年会论文集, PMLR 242:480-491

基于学习的刚性管模型预测控制

Yulong Gao, Shuhao Yan, Jian Zhou, Mark Cannon, Alessandro Abate, Karl Henrik Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:492-503

一个数据驱动的Riccati方程

Anders Rantzer; 第6届学习动力学与控制年会论文集, PMLR 242:504-513

用于数据驱动可达性的非凸场景优化

Elizabeth Dietrich, Alex Devonport, Murat Arcak; 第6届学习动力学与控制年会论文集, PMLR 242:514-527

使用保形预测进行模型基控制器不确定性量化和鲁棒化

Kong Yao Chee, Thales C. Silva, M. Ani Hsieh, George J. Pappas; 第6届学习动力学与控制年会论文集, PMLR 242:528-540

用于CasADi的学习:数值优化中的数据驱动模型

Tim Salzmann, Jon Arrizabalaga, Joel Andersson, Marco Pavone, Markus Ryll; 第6届学习动力学与控制年会论文集, PMLR 242:541-553

用于边界稳定化的神经算子与脉冲系统

Yihuai Zhang, Ruiguo Zhong, Huan Yu; 第6届学习动力学与控制年会论文集, PMLR 242:554-565

具有误分类惩罚的假设检验的子模信息选择

Jayanth Bhargav, Mahsa Ghasemi, Shreyas Sundaram; 第6届学习动力学与控制年会论文集, PMLR 242:566-577

使用最小动力学随机化学习和部署鲁棒的运动策略

Luigi Campanaro, Siddhant Gangapurwala, Wolfgang Merkt, Ioannis Havoutis; 第6届学习动力学与控制年会论文集, PMLR 242:578-590

学习脉冲系统的流函数

Miguel Aguiar, Amritam Das, Karl H. Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:591-602

非线性模型预测控制中的安全学习

Johannes Buerger, Mark Cannon, Martin Doff-Sotta; 第6届学习动力学与控制年会论文集, PMLR 242:603-614

在受阻环境中进行插入任务的高效技能获取

Jun Yamada, Jack Collins, Ingmar Posner; 第6届学习动力学与控制年会论文集, PMLR 242:615-627

基于平衡奖励的强化学习在自动驾驶赛车中的应用

Zhen Tian, Dezong Zhao, Zhihao Lin, David Flynn, Wenjing Zhao, Daxin Tian; 第6届学习动力学与控制年会论文集, PMLR 242:628-640

用于高维在线优化的不变信息几何方法

Zhengfei Zhang, Yunyue Wei, Yanan Sui; 第6届学习动力学与控制年会论文集, PMLR 242:641-653

关于无限视界摆动起动的最优值函数的非光滑几何和神经网络逼近

Haoyu Han, Heng Yang; 第6届学习动力学与控制年会论文集, PMLR 242:654-666

用于不确定线性系统的基于数据的鲁棒协方差控制

Joshua Pilipovsky, Panagiotis Tsiotras; 第6届学习动力学与控制年会论文集, PMLR 242:667-678

通过凸重新参数化结合基于模型的控制器和ML建议

Junxuan Shen, Adam Wierman, Guannan Qu; 第6届学习动力学与控制年会论文集, PMLR 242:679-693

强化学习训练和运行时逐时诊断

Noel Brindise, Andres Posada Moreno, Cedric Langbort, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:694-706

专家与聚类:分层在线偏好学习框架

Tianyue Zhou, Jung-Hoon Cho, Babak Rahimi Ardabili, Hamed Tabkhi, Cathy Wu; 第6届学习动力学与控制年会论文集, PMLR 242:707-718

通过场景优化和保形预测验证神经网络可达管

Albert Lin, Somil Bansal; 第6届学习动力学与控制年会论文集, PMLR 242:719-731

控制仿射系统的随机特征逼近

Kimia Kazemian, Yahya Sattar, Sarah Dean; 第6届学习动力学与控制年会论文集, PMLR 242:732-744

破解预测器意味着破解汽车:使用灵敏度分析识别自动驾驶安全中的轨迹预测漏洞

Marsalis Gibson, David Babazadeh, Claire Tomlin, Shankar Sastry; 第6届学习动力学与控制年会论文集, PMLR 242:745-757

通过陈-弗利斯级数对神经常微分方程的Rademacher复杂度

Joshua Hanson, Maxim Raginsky; 第6届学习动力学与控制年会论文集, PMLR 242:758-769

基于均场博弈视角的鲁棒协同多智能体强化学习

Muhammad Aneeq Uz Zaman, Mathieu Laurière, Alec Koppel, Tamer Başar; 第6届学习动力学与控制年会论文集, PMLR 242:770-783

使用在线镜像下降学习具有未知独立链的随机博弈中的$\epsilon$-纳什均衡平稳策略

Tiancheng Qin, S. Rasoul Etesami; 第6届学习动力学与控制年会论文集, PMLR 242:784-795

基于高斯过程贝叶斯推理的不确定性信息优化资源分配

Samarth Gupta, Saurabh Amin; 第6届学习动力学与控制年会论文集, PMLR 242:796-812

使用MCMC改进高维贝叶斯优化的样本效率

Zeji Yi, Yunyue Wei, Chu Xin Cheng, Kaibo He, Yanan Sui; 第6届学习动力学与控制年会论文集, PMLR 242:813-824

SpOiLer:使用缩放惩罚的离线强化学习

Padmanaba Srinivasan, William J. Knottenbelt; 第6届学习动力学与控制年会论文集, PMLR 242:825-838

迈向安全的多元任务贝叶斯优化

Jannis Lübsen, Christian Hespe, Annika Eichler; 第6届学习动力学与控制年会论文集, PMLR 242:839-851

混合分类器以缓解准确率-鲁棒性权衡

Yatong Bai, Brendon G. Anderson, Somayeh Sojoudi; 第6届学习动力学与控制年会论文集, PMLR 242:852-865

基于观测器的有限时间控制在具有随机增益波动的感应耦合电力传输系统中的设计

Satheesh Thangavel, Sakthivel Rathinasamy; 第6届学习动力学与控制年会论文集, PMLR 242:866-875

学习不确定参数马尔可夫决策过程的鲁棒策略

Luke Rickard, Alessandro Abate, Kostas Margellos; 第6届学习动力学与控制年会论文集, PMLR 242:876-889

用于增强安全性的线性ARX系统的参数不可识别性条件

Xiangyu Mao, Jianping He, Chengpu Yu, Chongrong Fang; 第6届学习动力学与控制年会论文集, PMLR 242:890-901

元学习线性二次调节器:一种用于模型无关LQR的策略梯度MAML方法

Leonardo Felipe Toso, Donglin Zhan, James Anderson, Han Wang; 第6届学习动力学与控制年会论文集, PMLR 242:902-915

策略梯度算法的大偏差视角

Wouter Jongeneel, Daniel Kuhn, Mengmeng Li; 第6届学习动力学与控制年会论文集, PMLR 242:916-928

深度模型无关KKL观测器:一种切换方法

Johan Peralez, Madiha Nadri; 第6届学习动力学与控制年会论文集, PMLR 242:929-940

体内学习驱动的生物反应器中微生物种群密度控制

Sara Maria Brancato, Davide Salzano, Francesco De Lellis, Davide Fiore, Giovanni Russo, Mario di Bernardo; 第6届学习动力学与控制年会论文集, PMLR 242:941-953

基于词典目标的强化学习中的有界鲁棒性

Daniel Jarne Ornia, Licio Romao, Lewis Hammond, Manuel Mazo Jr, Alessandro Abate; 第6届学习动力学与控制年会论文集, PMLR 242:954-967

系统级安全卫士:通过不确定神经网络动力学模型实现安全跟踪控制

Xiao Li, Yutong Li, Anouck Girard, Ilya Kolmanovsky; 第6届学习动力学与控制年会论文集, PMLR 242:968-979

具有模型误配的自适应线性二次控制的非渐近遗憾分析

Bruce Lee, Anders Rantzer, Nikolai Matni; 第6届学习动力学与控制年会论文集, PMLR 242:980-992

弱凸函数的误差界限、PL条件和二次增长,以及近端点方法的线性收敛

Feng-Yi Liao, Lijun Ding, Yang Zheng; 第6届学习动力学与控制年会论文集, PMLR 242:993-1005

参数化快速安全跟踪(FaSTrack)使用DeepReach

Hyun Joe Jeong, Zheng Gong, Somil Bansal, Sylvia Herbert; 第6届学习动力学与控制年会论文集, PMLR 242:1006-1017

用于感知积分误差的数值最优控制的概率ODE求解器

Amon Lahr, Filip Tronarp, Nathanael Bosch, Jonathan Schmidt, Philipp Hennig, Melanie N. Zeilinger; 第6届学习动力学与控制年会论文集, PMLR 242:1018-1032

四旋翼飞行器上的事件触发安全贝叶斯优化

Antonia Holzapfel, Paul Brunzema, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:1033-1045

解决多任务强化学习的增量策略梯度方法的有限时间复杂度

Yitao Bai, Thinh Doan; 第6届学习动力学与控制年会论文集, PMLR 242:1046-1057

具有奇点推断的自适应模型预测控制的收敛保证

Riccardo Zuliani, Raffaele Soloperto, John Lygeros; 第6届学习动力学与控制年会论文集, PMLR 242:1058-1070

数据驱动预测控制的双层公式的凸近似

Xu Shang, Yang Zheng; 第6届学习动力学与控制年会论文集, PMLR 242:1071-1082

PDE控制健身房:偏微分方程数据驱动边界控制的基准

Luke Bhan, Yuexin Bian, Miroslav Krstic, Yuanyuan Shi; 第6届学习动力学与控制年会论文集, PMLR 242:1083-1095

面向生物启发式空中车辆控制:用于状态预测的分布式空气动力学参数

Yikang Wang, Adolfo Perrusquia, Dmitry Ignatyev; 第6届学习动力学与控制年会论文集, PMLR 242:1096-1106

残差学习和上下文编码用于自适应离线到在线强化学习

Mohammadreza Nakhaei, Aidan Scannell, Joni Pajarinen; 第6届学习动力学与控制年会论文集, PMLR 242:1107-1121

CoVO-MPC:基于采样的MPC和最优协方差设计的理论分析

Zeji Yi, Chaoyi Pan, Guanqi He, Guannan Qu, Guanya Shi; 第6届学习动力学与控制年会论文集, PMLR 242:1122-1135

通过收缩理论实现稳定的模块化控制,用于强化学习

Bing Song, Jean-Jacques Slotine, Quang-Cuong Pham; 第6届学习动力学与控制年会论文集, PMLR 242:1136-1148

通过学习同胚进行数据驱动的分支分析

Wentao Tang; 第6届学习动力学与控制年会论文集, PMLR 242:1149-1160

基于学习的框架,用于使腿式机器人能够灵活适应意外扰动

Nolan Fey, He Li, Nicholas Adrian, Patrick Wensing, Michael Lemmon; 第6届学习动力学与控制年会论文集, PMLR 242:1161-1173

元强化学习中任务相关损失函数

Jaeuk Shin, Giho Kim, Howon Lee, Joonho Han, Insoon Yang; 第6届学习动力学与控制年会论文集, PMLR 242:1174-1186

具有像素观察的状态安全强化学习

Sinong Zhan, Yixuan Wang, Qingyuan Wu, Ruochen Jiao, Chao Huang, Qi Zhu; 第6届学习动力学与控制年会论文集, PMLR 242:1187-1201

通过状态增强强化学习进行多智能体分配

Leopoldo Agorio, Sean Van Alen, Miguel Calvo-Fullana, Santiago Paternain, Juan Andrés Bazerque; 第6届学习动力学与控制年会论文集, PMLR 242:1202-1213

PlanNetX:从MPC学习高效神经网络规划器,用于纵向控制

Jasper Hoffmann, Diego Fernandez Clausen, Julien Brosseit, Julian Bernhard, Klemens Esterle, Moritz Werling, Michael Karg, Joschka Joschka Bödecker; 第6届学习动力学与控制年会论文集, PMLR 242:1214-1227

模型预测控制和神经网络之间的映射

Ross Drummond, Pablo Baldivieso, Giorgio Valmorbida; 第6届学习动力学与控制年会论文集, PMLR 242:1228-1240

在重现核希尔伯特空间中的多模态分布式学习算法

Aneesh Raghavan, Karl Henrik Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:1241-1252

面向速率限制通道的模型无关LQR控制

Aritra Mitra, Lintao Ye, Vijay Gupta; 第6届学习动力学与控制年会论文集, PMLR 242:1253-1265

学习真实目标:逆强化学习中可识别性的线性代数特征

Mohamad Louai Shehab, Antoine Aspeel, Nikos Arechiga, Andrew Best, Necmiye Ozay; 第6届学习动力学与控制年会论文集, PMLR 242:1266-1277

通过学习区分超平面进行黑盒动力系统的安全滤波器

Will Lavanakul, Jason Choi, Koushil Sreenath, Claire Tomlin; 第6届学习动力学与控制年会论文集, PMLR 242:1278-1291

用于欠驱动系统黑盒学习和控制的拉格朗日启发型多项式估计器

Giulio Giacomuzzo, Riccardo Cescon, Diego Romeres, Ruggero Carli, Alberto Dalla Libera; 第6届学习动力学与控制年会论文集, PMLR 242:1292-1304

从原始数据到安全性:通过集合扩展减少保守性

Mohammad Bajelani, Klaske Van Heusden; 第6届学习动力学与控制年会论文集, PMLR 242:1305-1317

机器人系统动力学谐波分析:在数据驱动的 Koopman 建模中的应用

Daniel Ordoñez-Apraez, Vladimir Kostic, Giulio Turrisi, Pietro Novelli, Carlos Mastalli, Claudio Semini, Massimilano Pontil; 第6届学习动力学与控制年会论文集, PMLR 242:1318-1329

具有保形预测保证的动态环境下递归可行收缩范围 MPC

Charis Stamouli, Lars Lindemann, George Pappas; 第6届学习动力学与控制年会论文集, PMLR 242:1330-1342

通过优化凸形状模板的多模态保形预测区域

Renukanandan Tumu, Matthew Cleaveland, Rahul Mangharam, George Pappas, Lars Lindemann; 第6届学习动力学与控制年会论文集, PMLR 242:1343-1356

学习局部交互离散动力系统:走向数据高效和可扩展的预测

Beomseok Kang, Harshit Kumar, Minah Lee, Biswadeep Chakraborty, Saibal Mukhopadhyay; 第6届学习动力学与控制年会论文集, PMLR 242:1357-1369

根据我所见,我有多安全?用于图像控制自主性的安全概率校准预测

Zhenjiang Mao, Carson Sobolewski, Ivan Ruchkin; 第6届学习动力学与控制年会论文集, PMLR 242:1370-1387

用于鲁棒性的 1 范数中的凸神经网络合成

Ross Drummond, Chris Guiver, Matthew Turner; 第6届学习动力学与控制年会论文集, PMLR 242:1388-1399

使用半马尔可夫决策过程提高模型预测控制的信息量

Rémy Hosseinkhan Boucher, Stella Douka, Onofrio Semeraro, Lionel Mathelin; 第6届学习动力学与控制年会论文集, PMLR 242:1400-1414

具有耗散高斯过程的物理一致建模与非线性摩擦识别

Rui Dai, Giulio Evangelisti, Sandra Hirche; 第6届学习动力学与控制年会论文集, PMLR 242:1415-1426

STEMFold:具有隐藏代理的具有稀疏奖励的多代理交互的随机时间流形

Hemant Kumawat, Biswadeep Chakraborty, Saibal Mukhopadhyay; 第6届学习动力学与控制年会论文集, PMLR 242:1427-1439

具有未知动力学的多代理系统即时控制:使用有限的数据获得接近最优的控制

Shayan Meshkat Alsadat, Nasim Baharisangari, Zhe Xu; 第6届学习动力学与控制年会论文集, PMLR 242:1440-1451

CACTO-SL:使用 Sobolev 学习改进具有轨迹优化的连续 Actor-Critic

Elisa Alboni, Gianluigi Grandesso, Gastone Pietro Rosati Papini, Justin Carpentier, Andrea Del Prete; 第6届学习动力学与控制年会论文集, PMLR 242:1452-1463

考虑瞬态行为的多代理覆盖控制

Runyu Zhang, Haitong Ma, Na Li; 第6届学习动力学与控制年会论文集, PMLR 242:1464-1476

用于离散非线性系统的正不变集的基于数据的验证

Amy K. Strong, Leila J. Bridgeman; 第6届学习动力学与控制年会论文集, PMLR 242:1477-1488

异构代理中的自适应教学:在稀疏奖励场景中平衡惊喜

Emma Clark, Kanghyun Ryu, Negar Mehr; 第6届学习动力学与控制年会论文集, PMLR 242:1489-1501

Transformer 能否表示卡尔曼滤波器?

Gautam Goel, Peter Bartlett; 第6届学习动力学与控制年会论文集, PMLR 242:1502-1512

基于数据驱动的机械循环支持模拟器,采用对抗性神经过程

Sophia Sun, Wenyuan Chen, Zihao Zhou, Sonia Fereidooni, Elise Jortberg, Rose Yu; 第6届学习动力学与控制年会论文集, PMLR 242:1513-1525

DC4L:通过数据驱动控制恢复分布偏移,用于深度学习模型

Vivian Lin, Kuk Jin Jang, Souradeep Dutta, Michele Caprio, Oleg Sokolsky, Insup Lee; 第6届学习动力学与控制年会论文集, PMLR 242:1526-1538

QCQP-Net:可靠地学习满足约束的交流最优潮流可行解

Sihan Zeng, Youngdae Kim, Yuxuan Ren, Kibaek Kim; 第6届学习动力学与控制年会论文集, PMLR 242:1539-1551

用于具有用户反馈的分散聚合优化的深度学习方法

Riccardo Brumali, Guido Carnevale, Giuseppe Notarstefano; 第6届学习动力学与控制年会论文集, PMLR 242:1552-1564

使用神经成像评估人类驾驶员模型的框架

Christopher Strong, Kaylene Stocking, Jingqi Li, Tianjiao Zhang, Jack Gallant, Claire Tomlin; 第6届学习动力学与控制年会论文集, PMLR 242:1565-1578

具有随机元素的深度 Hankel 矩阵

Nathan Lawrence, Philip Loewen, Shuyuan Wang, Michael Forbes, Bhushan Gopaluni; 第6届学习动力学与控制年会论文集, PMLR 242:1579-1591

通过 Langevin Monte Carlo 进行鲁棒探索

郝伦 Hsu, 米罗斯拉夫 Pajic; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1592-1605

概率安全强化学习的广义约束

魏琴 Chen, 圣地亚哥 Paternain; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1606-1618

具有事件触发器的神经过程,用于快速适应变化

保罗 Brunzema, 保罗 Kruse, 塞巴斯蒂安 Trimpe; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1619-1632

具有未知非线性扰动的随机系统的基于数据的策略合成

伊本 Gracia, 迪米特里斯 Boskos, 卢卡 Laurenti, 莫特扎 Lahijanian; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1633-1645

增长型 Q 网络:具有自适应控制分辨率的连续控制任务求解

蒂姆 Seyde, 彼得 Werner, 维尔科 Schwarting, 马库斯 Wulfmeier, 丹妮拉 Rus; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1646-1661

哈密顿生成对抗网络

克里斯汀 Allen-Blanchette; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1662-1674

不要伤害:一种用于安全强化学习的反事实方法

肖恩 Vaskov, 维尔科 Schwarting, 克里斯 Baker; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1675-1687

Wasserstein 分布稳健的后悔最优控制,适用于无限范围

泰兰 Kargin, 朱迪 Hajar, 维克兰特 Malik, 巴巴克 Hassibi; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1688-1701

具有私有采样的不确定性联盟游戏中分配的可能近似正确稳定性

乔治 Pantazis, 菲利贝托 Fele, 菲利波 Fabiani, 塞尔吉奥 Grammatico, 科斯塔斯 Margellos; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1702-1714

用于蛇形机器人步态设计的基于强化学习的参数曲线拟合

杰克 Naish, 雅各布 Rodriguez, 珍妮 Zhang, 布莱森 Jones, 古列尔莫 Daddi, 安德鲁 Orekhov, 罗布 Royce, 迈克尔 Paton, 豪伊 Choset, 正博 Ono, 罗汉 Thakker; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1715-1727

用于求解具有参数状态约束的广义和微分游戏的 Pontryagin 神经算子

雷 Zhang, 穆克什 Ghimire, 哲 Xu, 文龙 Zhang, 毅 Ren; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1728-1740

基于自适应神经网络的控制方法,用于在不断变化的环境条件下构建能源控制

莉莉 Frison, 西蒙 Gölzhäuser; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1741-1752

具有不确定性量化的端口哈密顿模型的物理约束学习 PDE 系统

凯源 Tan, 培伦 Li, 托马斯 Beckers; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1753-1764

Proto-MPC:一种用于在具有挑战性的风中四旋翼控制的编码器-原型-解码器方法

玉良 Gu, 盛 Cheng, 奈拉 Hovakimyan; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1765-1776

具有保守世界模型的有效模仿学习

维克托 Kolev, 拉斐尔 Rafailov, 凯尔 Hatch, 嘉俊 Wu, 切尔西 Finn; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1777-1790

由线性高斯动态系统生成的奖励的无休止的强盗

乔纳森 Gornet, 布鲁诺 Sinopoli; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1791-1802

订阅 通过 RSS