[编辑]
第242卷:第六届动力学与控制学习年会,2024年7月15日至17日,英国牛津大学,牛津市
[编辑]
编辑:Alessandro Abate, Mark Cannon, Kostas Margellos, Antonis Papachristodoulou
[bib][citeproc]
利用具有时变哈密顿量的哈密顿-雅可比偏微分方程进行持续科学机器学习
Paula Chen, Tingwei Meng, Zongren Zou, Jérôme Darbon, George Em Karniadakis; 第六届动力学与控制学习年会会议论文集, PMLR 242:1-12
[abs][下载 PDF]
数据高效、可解释且安全的盒子操作:说明模型预测控制中物理先验的优势
Achkan Salehi, Stephane Doncieux; 第六届动力学与控制学习年会会议论文集, PMLR 242:13-24
[abs][下载 PDF]
用于多约束安全强化学习的梯度整形
Yihang Yao, Zuxin Liu, Zhepeng Cen, Peide Huang, Tingnan Zhang, Wenhao Yu, Ding Zhao; 第六届动力学与控制学习年会会议论文集, PMLR 242:25-39
[abs][下载 PDF]
具有外部记忆的多模态动力学持续学习
Abdullah Akgül, Gozde Unal, Melih Kandemir; 第六届动力学与控制学习年会会议论文集, PMLR 242:40-51
[abs][下载 PDF]
使用 Lyapunov 指导探索学习高维未知系统的稳定控制
Songyuan Zhang, Chuchu Fan; 第六届动力学与控制学习年会会议论文集, PMLR 242:52-67
[abs][下载 PDF]
强化学习中时间反演对称性的研究
Brett Barkley, Amy Zhang, David Fridovich-Keil; 第六届动力学与控制学习年会会议论文集, PMLR 242:68-79
[abs][下载 PDF]
基于 HSVI 的部分可观察随机博弈的在线极小极大策略,具有神经网络感知机制
Rui Yan, Gabriel Santos, Gethin Norman, David Parker, Marta Kwiatkowska; 第六届动力学与控制学习年会会议论文集, PMLR 242:80-91
[abs][下载 PDF]
具有健全逼近的神经网络动态模型的实时安全控制
Hanjiang Hu, Jianglin Lan, Changliu Liu; 第六届动力学与控制学习年会会议论文集, PMLR 242:92-103
[abs][下载 PDF]
强化学习中跟踪物体位置:关键点检测的指标
Emma Cramer, Jonas Reiher, Sebastian Trimpe; 第六届动力学与控制学习年会会议论文集, PMLR 242:104-116
[abs][下载 PDF]
线性化数据驱动的基于 LSTM 的多输入 HVAC 系统的控制
Andreas Hinderyckx, Florence Guillaume; 第六届动力学与控制学习年会会议论文集, PMLR 242:117-129
[abs][下载 PDF]
行为工具箱
Ivan Markovsky; 第六届动力学与控制学习年会会议论文集, PMLR 242:130-141
[abs][下载 PDF]
学习环形道路中“超前”非局部交通动态
Chenguang Zhao, Huan Yu; 第六届动力学与控制学习年会会议论文集, PMLR 242:142-154
[abs][下载 PDF]
非平稳网络资源分配的安全动态定价
Berkay Turan, Spencer Hutchinson, Mahnoosh Alizadeh; 第六届动力学与控制学习年会会议论文集, PMLR 242:155-167
[abs][下载 PDF]
具有多点反馈的安全在线凸优化
Spencer Hutchinson, Mahnoosh Alizadeh; 第六届动力学与控制学习年会会议论文集, PMLR 242:168-180
[abs][下载 PDF]
Controlgym:用于基准强化学习算法的大规模控制环境
Xiangyuan Zhang, Weichao Mao, Saviz Mowlavi, Mouhacine Benosman, Tamer Başar; 第六届动力学与控制学习年会会议论文集, PMLR 242:181-196
[abs][下载 PDF]
自适应一阶方法的收敛性:近端梯度和交替最小化算法
Puya Latafat, Andreas Themelis, Panagiotis Patrinos; 第六届动力学与控制学习年会会议论文集, PMLR 242:197-208
[abs][下载 PDF]
涉及 ReLU 神经网络的离散时间 Lurie 系统的强化稳定性分析
Carl Richardson, Matthew Turner, Steve Gunn, Ross Drummond; 第六届动力学与控制学习年会会议论文集, PMLR 242:209-221
[abs][下载 PDF]
使用 SHAP 进行可解释的数据驱动的建筑能源系统模型预测控制
Patrick Henkel, Tobias Kasperski, Phillip Stoffel, Dirk Müller; 第六届动力学与控制学习年会会议论文集, PMLR 242:222-234
[abs][下载 PDF]
具有未知测量噪声的物理信息神经网络
Philipp Pilar, Niklas Wahlström; 第六届动力学与控制学习年会会议论文集, PMLR 242:235-247
[abs][下载 PDF]
自适应在线非随机控制
Naram Mhaisen, George Iosifidis; 第六届动力学与控制学习年会会议论文集, PMLR 242:248-259
[abs][下载 PDF]
用于按需自动驾驶移动系统的多智能体深度强化学习中的全局奖励
Heiko Hoppe, Tobias Enders, Quentin Cappart, Maximilian Schiffer; 第六届动力学与控制学习年会会议论文集, PMLR 242:260-272
[abs][下载 PDF]
软凸量化:重新审视具有凸优化的向量量化
Tanmay Gautam, Reid Pryzant, Ziyi Yang, Chenguang Zhu, Somayeh Sojoudi; 第六届动力学与控制学习年会会议论文集, PMLR 242:273-285
[abs][下载 PDF]
控制和感知中集合成员估计的不确定性量化:重新审视最小包围椭球
Yukai Tang, Jean-Bernard Lasserre, Heng Yang; 第六届动力学与控制学习年会会议论文集, PMLR 242:286-298
[abs][下载 PDF]
具有有限维信息状态的极小极大双控制
Olle Kjellqvist; 第六届动力学与控制学习年会会议论文集, PMLR 242:299-311
[abs][下载PDF]
用于线性系统最优输出反馈控制的高效数据驱动离策略Q学习算法
Mohammad Alsalti, Victor G. Lopez, Matthias A. Müller; 第6届学习动力学与控制年会论文集, PMLR 242:312-323
[abs][下载PDF]
通过预测奖励调整基于图像的强化学习策略
Weiyao Wang, Xinyuan Fang, Gregory Hager; 第6届学习动力学与控制年会论文集, PMLR 242:324-336
[abs][下载PDF]
用于MPC的分段回归与混合整数规划
Dieter Teichrib, Moritz Schulze Darup; 第6届学习动力学与控制年会论文集, PMLR 242:337-348
[abs][下载PDF]
参数自适应近似MPC:无需重新训练即可调整神经网络控制器
Henrik Hose, Alexander Gräfe, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:349-360
[abs][下载PDF]
具有粗略相关均衡的完全信息零和马尔可夫博弈中$\widetilde{O}(T^{-1})$收敛性
Weichao Mao, Haoran Qiu, Chen Wang, Hubertus Franke, Zbigniew Kalbarczyk, Tamer Başar; 第6届学习动力学与控制年会论文集, PMLR 242:361-374
[abs][下载PDF]
作为误差变量问题的逆最优控制
Rahel Rickenbach, Anna Scampicchio, Melanie N. Zeilinger; 第6届学习动力学与控制年会论文集, PMLR 242:375-386
[abs][下载PDF]
学习软约束MPC值函数:提供稳定性和安全保证的高效MPC设计与实现
Nicolas Chatzikiriakos, Kim Peter Wabersich, Felix Berkel, Patricia Pauli, Andrea Iannelli; 第6届学习动力学与控制年会论文集, PMLR 242:387-398
[abs][下载PDF]
受MPC启发的用于可验证无模型控制的强化学习
Yiwen Lu, Zishuo Li, Yihan Zhou, Na Li, Yilin Mo; 第6届学习动力学与控制年会论文集, PMLR 242:399-413
[abs][下载PDF]
基于深度强化学习的真实世界流体导向刚体控制
Mohak Bhardwaj, Thomas Lampe, Michael Neunert, Francesco Romano, Abbas Abdolmaleki, Arunkumar Byravan, Markus Wulfmeier, Martin Riedmiller, Jonas Buchli; 第6届学习动力学与控制年会论文集, PMLR 242:414-427
[abs][下载PDF]
关于LTL目标Bellman方程解的唯一性
Zetong Xuan, Alper Bozkurt, Miroslav Pajic, Yu Wang; 第6届学习动力学与控制年会论文集, PMLR 242:428-439
[abs][下载PDF]
通过Hamilton-Jacobi可达性分析和支持向量机进行安全基于视觉导航的决策边界学习
Tara Toufighi, Minh Bui, Rakesh Shrestha, Mo Chen; 第6届学习动力学与控制年会论文集, PMLR 242:440-452
[abs][下载PDF]
理解使用PINN解决Cauchy问题的困难
Tao Wang, Bo Zhao, Sicun Gao, Rose Yu; 第6届学习动力学与控制年会论文集, PMLR 242:453-465
[abs][下载PDF]
签名与动态规划相遇:推广用于轨迹跟踪的Bellman方程
Motoya Ohnishi, Iretiayo Akinola, Jie Xu, Ajay Mandlekar, Fabio Ramos; 第6届学习动力学与控制年会论文集, PMLR 242:466-479
[abs][下载PDF]
具有历史平均依赖成本的在线决策
Vijeth Hebbar, Cedric Langbort; 第6届学习动力学与控制年会论文集, PMLR 242:480-491
[abs][下载PDF]
基于学习的刚性管模型预测控制
Yulong Gao, Shuhao Yan, Jian Zhou, Mark Cannon, Alessandro Abate, Karl Henrik Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:492-503
[abs][下载PDF]
一个数据驱动的Riccati方程
Anders Rantzer; 第6届学习动力学与控制年会论文集, PMLR 242:504-513
[abs][下载PDF]
用于数据驱动可达性的非凸场景优化
Elizabeth Dietrich, Alex Devonport, Murat Arcak; 第6届学习动力学与控制年会论文集, PMLR 242:514-527
[abs][下载PDF]
使用保形预测进行模型基控制器不确定性量化和鲁棒化
Kong Yao Chee, Thales C. Silva, M. Ani Hsieh, George J. Pappas; 第6届学习动力学与控制年会论文集, PMLR 242:528-540
[abs][下载PDF]
用于CasADi的学习:数值优化中的数据驱动模型
Tim Salzmann, Jon Arrizabalaga, Joel Andersson, Marco Pavone, Markus Ryll; 第6届学习动力学与控制年会论文集, PMLR 242:541-553
[abs][下载PDF]
用于边界稳定化的神经算子与脉冲系统
Yihuai Zhang, Ruiguo Zhong, Huan Yu; 第6届学习动力学与控制年会论文集, PMLR 242:554-565
[abs][下载PDF]
具有误分类惩罚的假设检验的子模信息选择
Jayanth Bhargav, Mahsa Ghasemi, Shreyas Sundaram; 第6届学习动力学与控制年会论文集, PMLR 242:566-577
[abs][下载PDF]
使用最小动力学随机化学习和部署鲁棒的运动策略
Luigi Campanaro, Siddhant Gangapurwala, Wolfgang Merkt, Ioannis Havoutis; 第6届学习动力学与控制年会论文集, PMLR 242:578-590
[abs][下载PDF]
学习脉冲系统的流函数
Miguel Aguiar, Amritam Das, Karl H. Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:591-602
[abs][下载PDF]
非线性模型预测控制中的安全学习
Johannes Buerger, Mark Cannon, Martin Doff-Sotta; 第6届学习动力学与控制年会论文集, PMLR 242:603-614
[abs][下载PDF]
在受阻环境中进行插入任务的高效技能获取
Jun Yamada, Jack Collins, Ingmar Posner; 第6届学习动力学与控制年会论文集, PMLR 242:615-627
[abs][下载PDF]
基于平衡奖励的强化学习在自动驾驶赛车中的应用
Zhen Tian, Dezong Zhao, Zhihao Lin, David Flynn, Wenjing Zhao, Daxin Tian; 第6届学习动力学与控制年会论文集, PMLR 242:628-640
[abs][下载PDF]
用于高维在线优化的不变信息几何方法
Zhengfei Zhang, Yunyue Wei, Yanan Sui; 第6届学习动力学与控制年会论文集, PMLR 242:641-653
[abs][下载PDF]
关于无限视界摆动起动的最优值函数的非光滑几何和神经网络逼近
Haoyu Han, Heng Yang; 第6届学习动力学与控制年会论文集, PMLR 242:654-666
[abs][下载PDF]
用于不确定线性系统的基于数据的鲁棒协方差控制
Joshua Pilipovsky, Panagiotis Tsiotras; 第6届学习动力学与控制年会论文集, PMLR 242:667-678
[abs][下载PDF]
通过凸重新参数化结合基于模型的控制器和ML建议
Junxuan Shen, Adam Wierman, Guannan Qu; 第6届学习动力学与控制年会论文集, PMLR 242:679-693
[abs][下载PDF]
强化学习训练和运行时逐时诊断
Noel Brindise, Andres Posada Moreno, Cedric Langbort, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:694-706
[abs][下载PDF]
专家与聚类:分层在线偏好学习框架
Tianyue Zhou, Jung-Hoon Cho, Babak Rahimi Ardabili, Hamed Tabkhi, Cathy Wu; 第6届学习动力学与控制年会论文集, PMLR 242:707-718
[abs][下载PDF]
通过场景优化和保形预测验证神经网络可达管
Albert Lin, Somil Bansal; 第6届学习动力学与控制年会论文集, PMLR 242:719-731
[abs][下载PDF]
控制仿射系统的随机特征逼近
Kimia Kazemian, Yahya Sattar, Sarah Dean; 第6届学习动力学与控制年会论文集, PMLR 242:732-744
[abs][下载PDF]
破解预测器意味着破解汽车:使用灵敏度分析识别自动驾驶安全中的轨迹预测漏洞
Marsalis Gibson, David Babazadeh, Claire Tomlin, Shankar Sastry; 第6届学习动力学与控制年会论文集, PMLR 242:745-757
[abs][下载PDF]
通过陈-弗利斯级数对神经常微分方程的Rademacher复杂度
Joshua Hanson, Maxim Raginsky; 第6届学习动力学与控制年会论文集, PMLR 242:758-769
[abs][下载PDF]
基于均场博弈视角的鲁棒协同多智能体强化学习
Muhammad Aneeq Uz Zaman, Mathieu Laurière, Alec Koppel, Tamer Başar; 第6届学习动力学与控制年会论文集, PMLR 242:770-783
[abs][下载PDF]
使用在线镜像下降学习具有未知独立链的随机博弈中的$\epsilon$-纳什均衡平稳策略
Tiancheng Qin, S. Rasoul Etesami; 第6届学习动力学与控制年会论文集, PMLR 242:784-795
[abs][下载PDF]
基于高斯过程贝叶斯推理的不确定性信息优化资源分配
Samarth Gupta, Saurabh Amin; 第6届学习动力学与控制年会论文集, PMLR 242:796-812
[abs][下载PDF]
使用MCMC改进高维贝叶斯优化的样本效率
Zeji Yi, Yunyue Wei, Chu Xin Cheng, Kaibo He, Yanan Sui; 第6届学习动力学与控制年会论文集, PMLR 242:813-824
[abs][下载PDF]
SpOiLer:使用缩放惩罚的离线强化学习
Padmanaba Srinivasan, William J. Knottenbelt; 第6届学习动力学与控制年会论文集, PMLR 242:825-838
[abs][下载PDF]
迈向安全的多元任务贝叶斯优化
Jannis Lübsen, Christian Hespe, Annika Eichler; 第6届学习动力学与控制年会论文集, PMLR 242:839-851
[abs][下载PDF]
混合分类器以缓解准确率-鲁棒性权衡
Yatong Bai, Brendon G. Anderson, Somayeh Sojoudi; 第6届学习动力学与控制年会论文集, PMLR 242:852-865
[abs][下载PDF]
基于观测器的有限时间控制在具有随机增益波动的感应耦合电力传输系统中的设计
Satheesh Thangavel, Sakthivel Rathinasamy; 第6届学习动力学与控制年会论文集, PMLR 242:866-875
[abs][下载PDF]
学习不确定参数马尔可夫决策过程的鲁棒策略
Luke Rickard, Alessandro Abate, Kostas Margellos; 第6届学习动力学与控制年会论文集, PMLR 242:876-889
[abs][下载PDF]
用于增强安全性的线性ARX系统的参数不可识别性条件
Xiangyu Mao, Jianping He, Chengpu Yu, Chongrong Fang; 第6届学习动力学与控制年会论文集, PMLR 242:890-901
[abs][下载PDF]
元学习线性二次调节器:一种用于模型无关LQR的策略梯度MAML方法
Leonardo Felipe Toso, Donglin Zhan, James Anderson, Han Wang; 第6届学习动力学与控制年会论文集, PMLR 242:902-915
[abs][下载PDF]
策略梯度算法的大偏差视角
Wouter Jongeneel, Daniel Kuhn, Mengmeng Li; 第6届学习动力学与控制年会论文集, PMLR 242:916-928
[abs][下载PDF]
深度模型无关KKL观测器:一种切换方法
Johan Peralez, Madiha Nadri; 第6届学习动力学与控制年会论文集, PMLR 242:929-940
[abs][下载PDF]
体内学习驱动的生物反应器中微生物种群密度控制
Sara Maria Brancato, Davide Salzano, Francesco De Lellis, Davide Fiore, Giovanni Russo, Mario di Bernardo; 第6届学习动力学与控制年会论文集, PMLR 242:941-953
[abs][下载PDF]
基于词典目标的强化学习中的有界鲁棒性
Daniel Jarne Ornia, Licio Romao, Lewis Hammond, Manuel Mazo Jr, Alessandro Abate; 第6届学习动力学与控制年会论文集, PMLR 242:954-967
[abs][下载PDF]
系统级安全卫士:通过不确定神经网络动力学模型实现安全跟踪控制
Xiao Li, Yutong Li, Anouck Girard, Ilya Kolmanovsky; 第6届学习动力学与控制年会论文集, PMLR 242:968-979
[abs][下载PDF]
具有模型误配的自适应线性二次控制的非渐近遗憾分析
Bruce Lee, Anders Rantzer, Nikolai Matni; 第6届学习动力学与控制年会论文集, PMLR 242:980-992
[abs][下载PDF]
弱凸函数的误差界限、PL条件和二次增长,以及近端点方法的线性收敛
Feng-Yi Liao, Lijun Ding, Yang Zheng; 第6届学习动力学与控制年会论文集, PMLR 242:993-1005
[abs][下载PDF]
参数化快速安全跟踪(FaSTrack)使用DeepReach
Hyun Joe Jeong, Zheng Gong, Somil Bansal, Sylvia Herbert; 第6届学习动力学与控制年会论文集, PMLR 242:1006-1017
[abs][下载PDF]
用于感知积分误差的数值最优控制的概率ODE求解器
Amon Lahr, Filip Tronarp, Nathanael Bosch, Jonathan Schmidt, Philipp Hennig, Melanie N. Zeilinger; 第6届学习动力学与控制年会论文集, PMLR 242:1018-1032
[abs][下载PDF]
四旋翼飞行器上的事件触发安全贝叶斯优化
Antonia Holzapfel, Paul Brunzema, Sebastian Trimpe; 第6届学习动力学与控制年会论文集, PMLR 242:1033-1045
[abs][下载PDF]
解决多任务强化学习的增量策略梯度方法的有限时间复杂度
Yitao Bai, Thinh Doan; 第6届学习动力学与控制年会论文集, PMLR 242:1046-1057
[abs][下载PDF]
具有奇点推断的自适应模型预测控制的收敛保证
Riccardo Zuliani, Raffaele Soloperto, John Lygeros; 第6届学习动力学与控制年会论文集, PMLR 242:1058-1070
[abs][下载PDF]
数据驱动预测控制的双层公式的凸近似
Xu Shang, Yang Zheng; 第6届学习动力学与控制年会论文集, PMLR 242:1071-1082
[abs][下载PDF]
PDE控制健身房:偏微分方程数据驱动边界控制的基准
Luke Bhan, Yuexin Bian, Miroslav Krstic, Yuanyuan Shi; 第6届学习动力学与控制年会论文集, PMLR 242:1083-1095
[abs][下载PDF]
面向生物启发式空中车辆控制:用于状态预测的分布式空气动力学参数
Yikang Wang, Adolfo Perrusquia, Dmitry Ignatyev; 第6届学习动力学与控制年会论文集, PMLR 242:1096-1106
[abs][下载PDF]
残差学习和上下文编码用于自适应离线到在线强化学习
Mohammadreza Nakhaei, Aidan Scannell, Joni Pajarinen; 第6届学习动力学与控制年会论文集, PMLR 242:1107-1121
[abs][下载PDF]
CoVO-MPC:基于采样的MPC和最优协方差设计的理论分析
Zeji Yi, Chaoyi Pan, Guanqi He, Guannan Qu, Guanya Shi; 第6届学习动力学与控制年会论文集, PMLR 242:1122-1135
[abs][下载PDF]
通过收缩理论实现稳定的模块化控制,用于强化学习
Bing Song, Jean-Jacques Slotine, Quang-Cuong Pham; 第6届学习动力学与控制年会论文集, PMLR 242:1136-1148
[abs][下载PDF]
通过学习同胚进行数据驱动的分支分析
Wentao Tang; 第6届学习动力学与控制年会论文集, PMLR 242:1149-1160
[abs][下载PDF]
基于学习的框架,用于使腿式机器人能够灵活适应意外扰动
Nolan Fey, He Li, Nicholas Adrian, Patrick Wensing, Michael Lemmon; 第6届学习动力学与控制年会论文集, PMLR 242:1161-1173
[abs][下载PDF]
元强化学习中任务相关损失函数
Jaeuk Shin, Giho Kim, Howon Lee, Joonho Han, Insoon Yang; 第6届学习动力学与控制年会论文集, PMLR 242:1174-1186
[abs][下载PDF]
具有像素观察的状态安全强化学习
Sinong Zhan, Yixuan Wang, Qingyuan Wu, Ruochen Jiao, Chao Huang, Qi Zhu; 第6届学习动力学与控制年会论文集, PMLR 242:1187-1201
[abs][下载PDF]
通过状态增强强化学习进行多智能体分配
Leopoldo Agorio, Sean Van Alen, Miguel Calvo-Fullana, Santiago Paternain, Juan Andrés Bazerque; 第6届学习动力学与控制年会论文集, PMLR 242:1202-1213
[abs][下载PDF]
PlanNetX:从MPC学习高效神经网络规划器,用于纵向控制
Jasper Hoffmann, Diego Fernandez Clausen, Julien Brosseit, Julian Bernhard, Klemens Esterle, Moritz Werling, Michael Karg, Joschka Joschka Bödecker; 第6届学习动力学与控制年会论文集, PMLR 242:1214-1227
[abs][下载PDF]
模型预测控制和神经网络之间的映射
Ross Drummond, Pablo Baldivieso, Giorgio Valmorbida; 第6届学习动力学与控制年会论文集, PMLR 242:1228-1240
[abs][下载PDF]
在重现核希尔伯特空间中的多模态分布式学习算法
Aneesh Raghavan, Karl Henrik Johansson; 第6届学习动力学与控制年会论文集, PMLR 242:1241-1252
[abs][下载PDF]
面向速率限制通道的模型无关LQR控制
Aritra Mitra, Lintao Ye, Vijay Gupta; 第6届学习动力学与控制年会论文集, PMLR 242:1253-1265
[abs][下载PDF]
学习真实目标:逆强化学习中可识别性的线性代数特征
Mohamad Louai Shehab, Antoine Aspeel, Nikos Arechiga, Andrew Best, Necmiye Ozay; 第6届学习动力学与控制年会论文集, PMLR 242:1266-1277
[abs][下载PDF]
通过学习区分超平面进行黑盒动力系统的安全滤波器
Will Lavanakul, Jason Choi, Koushil Sreenath, Claire Tomlin; 第6届学习动力学与控制年会论文集, PMLR 242:1278-1291
[abs][下载PDF]
用于欠驱动系统黑盒学习和控制的拉格朗日启发型多项式估计器
Giulio Giacomuzzo, Riccardo Cescon, Diego Romeres, Ruggero Carli, Alberto Dalla Libera; 第6届学习动力学与控制年会论文集, PMLR 242:1292-1304
[abs][下载 PDF]
从原始数据到安全性:通过集合扩展减少保守性
Mohammad Bajelani, Klaske Van Heusden; 第6届学习动力学与控制年会论文集, PMLR 242:1305-1317
[abs][下载 PDF]
机器人系统动力学谐波分析:在数据驱动的 Koopman 建模中的应用
Daniel Ordoñez-Apraez, Vladimir Kostic, Giulio Turrisi, Pietro Novelli, Carlos Mastalli, Claudio Semini, Massimilano Pontil; 第6届学习动力学与控制年会论文集, PMLR 242:1318-1329
[abs][下载 PDF]
具有保形预测保证的动态环境下递归可行收缩范围 MPC
Charis Stamouli, Lars Lindemann, George Pappas; 第6届学习动力学与控制年会论文集, PMLR 242:1330-1342
[abs][下载 PDF]
通过优化凸形状模板的多模态保形预测区域
Renukanandan Tumu, Matthew Cleaveland, Rahul Mangharam, George Pappas, Lars Lindemann; 第6届学习动力学与控制年会论文集, PMLR 242:1343-1356
[abs][下载 PDF]
学习局部交互离散动力系统:走向数据高效和可扩展的预测
Beomseok Kang, Harshit Kumar, Minah Lee, Biswadeep Chakraborty, Saibal Mukhopadhyay; 第6届学习动力学与控制年会论文集, PMLR 242:1357-1369
[abs][下载 PDF]
根据我所见,我有多安全?用于图像控制自主性的安全概率校准预测
Zhenjiang Mao, Carson Sobolewski, Ivan Ruchkin; 第6届学习动力学与控制年会论文集, PMLR 242:1370-1387
[abs][下载 PDF]
用于鲁棒性的 1 范数中的凸神经网络合成
Ross Drummond, Chris Guiver, Matthew Turner; 第6届学习动力学与控制年会论文集, PMLR 242:1388-1399
[abs][下载 PDF]
使用半马尔可夫决策过程提高模型预测控制的信息量
Rémy Hosseinkhan Boucher, Stella Douka, Onofrio Semeraro, Lionel Mathelin; 第6届学习动力学与控制年会论文集, PMLR 242:1400-1414
[abs][下载 PDF]
具有耗散高斯过程的物理一致建模与非线性摩擦识别
Rui Dai, Giulio Evangelisti, Sandra Hirche; 第6届学习动力学与控制年会论文集, PMLR 242:1415-1426
[abs][下载 PDF]
STEMFold:具有隐藏代理的具有稀疏奖励的多代理交互的随机时间流形
Hemant Kumawat, Biswadeep Chakraborty, Saibal Mukhopadhyay; 第6届学习动力学与控制年会论文集, PMLR 242:1427-1439
[abs][下载 PDF]
具有未知动力学的多代理系统即时控制:使用有限的数据获得接近最优的控制
Shayan Meshkat Alsadat, Nasim Baharisangari, Zhe Xu; 第6届学习动力学与控制年会论文集, PMLR 242:1440-1451
[abs][下载 PDF]
CACTO-SL:使用 Sobolev 学习改进具有轨迹优化的连续 Actor-Critic
Elisa Alboni, Gianluigi Grandesso, Gastone Pietro Rosati Papini, Justin Carpentier, Andrea Del Prete; 第6届学习动力学与控制年会论文集, PMLR 242:1452-1463
[abs][下载 PDF]
考虑瞬态行为的多代理覆盖控制
Runyu Zhang, Haitong Ma, Na Li; 第6届学习动力学与控制年会论文集, PMLR 242:1464-1476
[abs][下载 PDF]
用于离散非线性系统的正不变集的基于数据的验证
Amy K. Strong, Leila J. Bridgeman; 第6届学习动力学与控制年会论文集, PMLR 242:1477-1488
[abs][下载 PDF]
异构代理中的自适应教学:在稀疏奖励场景中平衡惊喜
Emma Clark, Kanghyun Ryu, Negar Mehr; 第6届学习动力学与控制年会论文集, PMLR 242:1489-1501
[abs][下载 PDF]
Transformer 能否表示卡尔曼滤波器?
Gautam Goel, Peter Bartlett; 第6届学习动力学与控制年会论文集, PMLR 242:1502-1512
[abs][下载 PDF]
基于数据驱动的机械循环支持模拟器,采用对抗性神经过程
Sophia Sun, Wenyuan Chen, Zihao Zhou, Sonia Fereidooni, Elise Jortberg, Rose Yu; 第6届学习动力学与控制年会论文集, PMLR 242:1513-1525
[abs][下载 PDF]
DC4L:通过数据驱动控制恢复分布偏移,用于深度学习模型
Vivian Lin, Kuk Jin Jang, Souradeep Dutta, Michele Caprio, Oleg Sokolsky, Insup Lee; 第6届学习动力学与控制年会论文集, PMLR 242:1526-1538
[abs][下载 PDF]
QCQP-Net:可靠地学习满足约束的交流最优潮流可行解
Sihan Zeng, Youngdae Kim, Yuxuan Ren, Kibaek Kim; 第6届学习动力学与控制年会论文集, PMLR 242:1539-1551
[abs][下载 PDF]
用于具有用户反馈的分散聚合优化的深度学习方法
Riccardo Brumali, Guido Carnevale, Giuseppe Notarstefano; 第6届学习动力学与控制年会论文集, PMLR 242:1552-1564
[abs][下载 PDF]
使用神经成像评估人类驾驶员模型的框架
Christopher Strong, Kaylene Stocking, Jingqi Li, Tianjiao Zhang, Jack Gallant, Claire Tomlin; 第6届学习动力学与控制年会论文集, PMLR 242:1565-1578
[abs][下载 PDF]
具有随机元素的深度 Hankel 矩阵
Nathan Lawrence, Philip Loewen, Shuyuan Wang, Michael Forbes, Bhushan Gopaluni; 第6届学习动力学与控制年会论文集, PMLR 242:1579-1591
[abs][下载 PDF]
通过 Langevin Monte Carlo 进行鲁棒探索
郝伦 Hsu, 米罗斯拉夫 Pajic; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1592-1605
[abs][下载 PDF]
概率安全强化学习的广义约束
魏琴 Chen, 圣地亚哥 Paternain; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1606-1618
[abs][下载 PDF]
具有事件触发器的神经过程,用于快速适应变化
保罗 Brunzema, 保罗 Kruse, 塞巴斯蒂安 Trimpe; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1619-1632
[abs][下载 PDF]
具有未知非线性扰动的随机系统的基于数据的策略合成
伊本 Gracia, 迪米特里斯 Boskos, 卢卡 Laurenti, 莫特扎 Lahijanian; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1633-1645
[abs][下载 PDF]
增长型 Q 网络:具有自适应控制分辨率的连续控制任务求解
蒂姆 Seyde, 彼得 Werner, 维尔科 Schwarting, 马库斯 Wulfmeier, 丹妮拉 Rus; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1646-1661
[abs][下载 PDF]
哈密顿生成对抗网络
克里斯汀 Allen-Blanchette; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1662-1674
[abs][下载 PDF]
不要伤害:一种用于安全强化学习的反事实方法
肖恩 Vaskov, 维尔科 Schwarting, 克里斯 Baker; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1675-1687
[abs][下载 PDF]
Wasserstein 分布稳健的后悔最优控制,适用于无限范围
泰兰 Kargin, 朱迪 Hajar, 维克兰特 Malik, 巴巴克 Hassibi; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1688-1701
[abs][下载 PDF]
具有私有采样的不确定性联盟游戏中分配的可能近似正确稳定性
乔治 Pantazis, 菲利贝托 Fele, 菲利波 Fabiani, 塞尔吉奥 Grammatico, 科斯塔斯 Margellos; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1702-1714
[abs][下载 PDF]
用于蛇形机器人步态设计的基于强化学习的参数曲线拟合
杰克 Naish, 雅各布 Rodriguez, 珍妮 Zhang, 布莱森 Jones, 古列尔莫 Daddi, 安德鲁 Orekhov, 罗布 Royce, 迈克尔 Paton, 豪伊 Choset, 正博 Ono, 罗汉 Thakker; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1715-1727
[abs][下载 PDF]
用于求解具有参数状态约束的广义和微分游戏的 Pontryagin 神经算子
雷 Zhang, 穆克什 Ghimire, 哲 Xu, 文龙 Zhang, 毅 Ren; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1728-1740
[abs][下载 PDF]
基于自适应神经网络的控制方法,用于在不断变化的环境条件下构建能源控制
莉莉 Frison, 西蒙 Gölzhäuser; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1741-1752
[abs][下载 PDF]
具有不确定性量化的端口哈密顿模型的物理约束学习 PDE 系统
凯源 Tan, 培伦 Li, 托马斯 Beckers; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1753-1764
[abs][下载 PDF]
Proto-MPC:一种用于在具有挑战性的风中四旋翼控制的编码器-原型-解码器方法
玉良 Gu, 盛 Cheng, 奈拉 Hovakimyan; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1765-1776
[abs][下载 PDF]
具有保守世界模型的有效模仿学习
维克托 Kolev, 拉斐尔 Rafailov, 凯尔 Hatch, 嘉俊 Wu, 切尔西 Finn; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1777-1790
[abs][下载 PDF]
由线性高斯动态系统生成的奖励的无休止的强盗
乔纳森 Gornet, 布鲁诺 Sinopoli; 第 6 届年度动力学与控制学习会议论文集, PMLR 242:1791-1802
[abs][下载 PDF]