[编辑]

第283卷:第七届动力学与控制学习年会,2025年6月4日至6日,密歇根大学,安娜堡,密歇根州,美国

[编辑]

编辑:Necmiye Ozay,Laura Balzano,Dimitra Panagou,Alessandro Abate

[bib][citeproc]

状态空间模型、涌现和遍历性:稳定预测需要多少参数?

Ingvar Ziemann,Nikolai Matni,George Pappas第七届动力学与控制学习年会会议论文集,PMLR 283:1-11

对抗性破坏鲁棒性的多智能体随机赌博机

Fatemeh Ghaffari,Xuchuang Wang,Jinhang Zuo,Mohammad Hajiesmaili第七届动力学与控制学习年会会议论文集,PMLR 283:12-25

线性自回归学习的简短信息论分析

Ingvar Ziemann第七届动力学与控制学习年会会议论文集,PMLR 283:26-30

利用近似对称性进行高效的多智能体强化学习

Batuhan Yardim,Niao He第七届动力学与控制学习年会会议论文集,PMLR 283:31-44

DiffuSolve:基于扩散的非凸轨迹优化求解器

Anjian Li,Zihan Ding,Adji Bousso Dieng,Ryne Beeson第七届动力学与控制学习年会会议论文集,PMLR 283:45-58

DKMGP:一种用于自动驾驶赛车中多任务和多步车辆动力学建模的高斯过程方法

Jingyun Ning,Madhur Behl第七届动力学与控制学习年会会议论文集,PMLR 283:59-71

线性相关数据线性回归的渐近性质

Behrad Moniri,Hamed Hassani第七届动力学与控制学习年会会议论文集,PMLR 283:72-85

从数据中学习时序逻辑谓词,并具有统计保证

Emi Soroka,Rohan Sinha,Sanjay Lall第七届动力学与控制学习年会会议论文集,PMLR 283:86-98

用于快速线性二次 RL 的相互作用粒子系统

Anant A. Joshi,Heng-Sheng Chang,Amirhossein Taghvaei,Prashant G. Mehta,Sean P. Meyn第七届动力学与控制学习年会会议论文集,PMLR 283:99-111

使用广义纳什均衡进行多智能体运动规划策略学习,用于模型预测控制

Hansung Kim,Edward L. Zhu,Chang Seok Lim,Francesco Borrelli第七届动力学与控制学习年会会议论文集,PMLR 283:112-123

动力系统顺序预测的复杂性

Vinod Raman,Unique Subedi,Ambuj Tewari第七届动力学与控制学习年会会议论文集,PMLR 283:124-138

用于腿部机器人线性控制的连续学习和 Koopman 动力学提升

Feihan Li,Abulikemu Abuduweili,Yifan Sun,Rui Chen,Weiye Zhao,Changliu Liu第七届动力学与控制学习年会会议论文集,PMLR 283:136-148

具有已知参数的广义线性二次博弈的比例自然策略梯度

Mostafa Shibl,Wesley Suttle,Vijay Gupta第七届动力学与控制学习年会会议论文集,PMLR 283:139-152

使用预测控制屏障函数进行分层安全关键控制的学习

William D. Compton,Max H. Cohen,Aaron D. Ames第七届动力学与控制学习年会会议论文集,PMLR 283:153-165

基于正交投影的正则化,用于高效的模型增强

Bendeguz Mate Györök,Jan H. Hoekstra,Johan Kon,Tamas Peni,Maarten Schoukens,Roland Toth第七届动力学与控制学习年会会议论文集,PMLR 283:166-178

具有反馈的联邦学习中参与方控制

Michael Cummins,Guner Dilsad Er,Michael Muehlebach第七届动力学与控制学习年会会议论文集,PMLR 283:174-186

用于非线性延迟系统预测反馈控制的神经算子

Luke Bhan,Peijia Qin,Miroslav Krstic,Yuanyuan Shi第七届动力学与控制学习年会会议论文集,PMLR 283:179-193

具有保形神经网络集合的安全、分布外自适应 MPC

Jose Leopoldo Contreras,Ola Shorinwa,Mac Schwager第七届动力学与控制学习年会会议论文集,PMLR 283:194-207

使用格罗莫夫-沃瑟斯坦度量的编队形状控制

Haruto Nakashima,Siddhartha Ganguly,Kohei Morimoto,Kenji Kashima第七届动力学与控制学习年会会议论文集,PMLR 283:208-220

随时可用的安全强化学习

Pol Mestres,Arnau Marzabal,Jorge Cortes第七届动力学与控制学习年会会议论文集,PMLR 283:221-232

强化学习的庞特里亚金视角

Onno Eberhard,Claire Vernade,Michael Muehlebach第七届动力学与控制学习年会会议论文集,PMLR 283:233-244

基于学习约束的安全决策变换器

王如涵, 周东若; 第七届动力学与控制学习年会论文集, PMLR 283:245-258

具有自适应收集数据的离线强化学习速率

Sunil Madhow, Dan Qiao, Ming Yin, Yu-Xiang Wang; 第七届动力学与控制学习年会论文集, PMLR 283:259-271

高速公路交通事故管理中的循环自动化

Matteo Cercola, Nicola Gatti, Pedro Huertas Leyva, Benedetto Carambia, Simone Formentin; 第七届动力学与控制学习年会论文集, PMLR 283:272-284

使用想象力学习:安全集引导的状态约束策略优化

Yifan Sun, Feihan Li, Weiye Zhao, Rui Chen, Tianhao Wei, Changliu Liu; 第七届动力学与控制学习年会论文集, PMLR 283:298-309

用于监督和强化学习的动作条件哈密顿生成网络 (AC-HGN)

Arne Troch, Kevin Mets, Siegfried Mercelis; 第七届动力学与控制学习年会论文集, PMLR 283:310-322

用于动态模式分解的信息输入设计

Joshua Ott, Mykel Kochenderfer, Stephen Boyd; 第七届动力学与控制学习年会论文集, PMLR 283:336-349

用于预测时空系统的基于物理约束的储层计算

Dima Tretiak, Anastasia Bizyaeva, J. Nathan Kutz, Steven L. Brunton; 第七届动力学与控制学习年会论文集, PMLR 283:350-364

用于非线性、高维神经网络控制和微分博弈的线性监督

William Sharpless, Zeyuan Feng, Somil Bansal, Sylvia Herbert; 第七届动力学与控制学习年会论文集, PMLR 283:365-377

具有 $O(\sqrtT)$ 遗憾的线性二次调节器的近似汤普森采样

Yeoneung Kim, Gihun Kim, Jiwhan Park, Insoon Yang; 第七届动力学与控制学习年会论文集, PMLR 283:378-391

用于最优和鲁棒控制策略优化的扩展凸提升

Yang Zheng, Chih-Fan Pai, Yujie Tang; 第七届动力学与控制学习年会论文集, PMLR 283:392-404

TamedPUMA:具有几何织物的安全稳定的模仿学习

Saray Bakker, Rodrigo Perez-Dattari, Cosimo Della Santina, Wendelin Böhmer, Javier Alonso-Mora; 第七届动力学与控制学习年会论文集, PMLR 283:405-418

基于数据的有限视界非线性系统近优控制

Vasanth Reddy Baddam, Hoda Eldardiry, Almuatazbellah Boker; 第七届动力学与控制学习年会论文集, PMLR 283:419-430

学习可行过渡以实现高效接触规划

Rikhat Akizhanov, Victor Dhedin, Majid Khadiv, Ivan Laptev; 第七届动力学与控制学习年会论文集, PMLR 283:431-442

通过无限维优化学习 Kolmogorov-Arnold 神经网络激活函数

Leon Khalyavin, Alessio Moreschini, Thomas Parisini; 第七届动力学与控制学习年会论文集, PMLR 283:443-455

基于数据的安全过滤器隐蔽停用

Daniel Arnström, Andre M.H. Teixeira; 第七届动力学与控制学习年会论文集, PMLR 283:456-468

用于连续状态环境的条件核模仿学习

Rishabh Agrawal, Nathan Dahlin, Rahul Jain, Ashutosh Nayyar; 第七届动力学与控制学习年会论文集, PMLR 283:469-483

用于随机线性控制系统的流匹配

Yuhang Mei, Mohammad Al-Jarrah, Amirhossein Taghvaei, Yongxin Chen; 第七届动力学与控制学习年会论文集, PMLR 283:484-496

HydroGym:用于流体动力学的强化学习平台

Christian Lagemann, Ludger Paehler, Jared Callaham, Sajeda Mokbel, Samuel Ahnert, Kai Lagemann, Esther Lagemann, Nikolaus Adams, Steven Brunton; 第七届动力学与控制学习年会论文集, PMLR 283:497-512

使用神经网络算子的安全 PDE 边界控制

Hanjiang Hu, Changliu Liu; 第七届动力学与控制学习年会论文集, PMLR 283:513-526

用于 N - k 应急筛选的快速可靠输入凸神经网络

Nicolas Christianson, Wenqi Cui, Steven Low, Weiwei Yang, Baosen Zhang; 第七届动力学与控制学习年会论文集, PMLR 283:527-539

重尾噪声下鲁棒线性系统辨识

Vinay Kanakeri, Aritra Mitra; 第七届动力学与控制学习年会论文集, PMLR 283:540-551

非线性控制的对数遗憾

James Wang, Bruce Lee, Ingvar Ziemann, Nikolai Matni; 第七届动力学与控制学习年会论文集, PMLR 283:552-565

使用任务预测加速近端策略优化学习,以解决具有延迟奖励的环境

Ahmad Ahmad, Mehdi Kermanshah, Kevin Leahy, Zachary Serlin, Ho Chit Siu, Makai Mann, Cristian-Ioan Vasile, Roberto Tron, Calin Belta; 第七届动力学与控制学习年会论文集, PMLR 283:566-578

通过 Schrödinger 桥从快照数据进行线性系统辨识

Kohei Morimoto, Kenji Kashima; 第七届动力学与控制学习年会论文集, PMLR 283:579-590

基于梯度跟踪的去中心化贝叶斯学习的可扩展性增强和数据异构性感知

Kinjal Bhar, He Bai, Jemin George, Carl Busart; 第七届学习动力学与控制年会论文集, PMLR 283:591-605

不确定收益下的入侵检测博弈中的传感器调度

Jayanth Bhargav, Shreyas Sundaram, Mahsa Ghasemi; 第七届学习动力学与控制年会论文集, PMLR 283:606-618

连接分布稳健学习和离线强化学习:一种缓解分布偏移和部分数据覆盖的方法

Kishan Panaganti, Zaiyan Xu, Dileep Kalathil, Mohammad Ghavamzadeh; 第七届学习动力学与控制年会论文集, PMLR 283:619-634

具有二次收益博弈的纳什均衡求解中的随机实时欺骗

Michael Tang, Miroslav Krstic, Jorge Poveda; 第七届学习动力学与控制年会论文集, PMLR 283:635-646

响应承诺:针对具有记忆的跟随者的无后悔学习

Vijeth Hebbar, Cedric Langbort; 第七届学习动力学与控制年会论文集, PMLR 283:647-659

正系统自适应控制及其在学习 SSP 中的应用

Fethi Bencherki, Anders Rantzer; 第七届学习动力学与控制年会论文集, PMLR 283:660-672

DeePC-Hunt:通过可微分优化进行数据驱动预测控制超参数调整

Michael Cummins, Alberto Padoan, Keith Moffat, Florian Dorfler, John Lygeros; 第七届学习动力学与控制年会论文集, PMLR 283:673-685

用于安全高效导航任务的强化学习的动态安全防护

Murad Dawood, Ahmed Shokry, Maren Bennewitz; 第七届学习动力学与控制年会论文集, PMLR 283:686-697

通过控制势垒函数对数和指数逼近的闭式解进行多约束安全强化学习

Chenggang Wang, Xinyi Wang, Yutong Dong, Lei Song, Xinping Guan; 第七届学习动力学与控制年会论文集, PMLR 283:698-710

解析积分全局优化

Sebastien Labbe, Andrea Del Prete; 第七届学习动力学与控制年会论文集, PMLR 283:711-722

低秩马尔可夫决策过程中的有效双重扰动鲁棒性

Yang Hu, Haitong Ma, Na Li, Bo Dai; 第七届学习动力学与控制年会论文集, PMLR 283:723-737

通过自适应策略切换在强化学习中概率满足时序逻辑约束

Xiaoshan Lin, Sadik Bera Yuksel, Yasin Yazicioglu, Derya Aksaray; 第七届学习动力学与控制年会论文集, PMLR 283:738-749

具有未知状态的鲁棒逆强化学习控制

Bosen Lian, Wenqian Xue, Nhan Nguyen; 第七届学习动力学与控制年会论文集, PMLR 283:750-762

任务驱动的探索,用于具有时序逻辑任务规范的加速深度强化学习

Jun Wang, Hosein Hasanbeig, Kaiyuan Tan, Zihe Sun, Yiannis Kantaros; 第七届学习动力学与控制年会论文集, PMLR 283:763-776

通过扩散模型实现接近全局最优的非线性模型预测控制

Tzu-Yuan Huang, Armin Lederer, Nicolas Hoischen, Jan Brudigam, Xuehua Xiao, Stefan Sosnowski, Sandra Hirche; 第七届学习动力学与控制年会论文集, PMLR 283:777-790

具有约束的扩散预测控制

Ralf Römer, Alexander von Rohr, Angela Schoellig; 第七届学习动力学与控制年会论文集, PMLR 283:791-803

黑盒动力系统的预测性监控

Thomas A. Henzinger, Fabian Kresse, Kaushik Mallik, Emily Yu, \DJor\dje Žikelić; 第七届学习动力学与控制年会论文集, PMLR 283:804-816

不确定环境下多智能体系统的联邦后验共享

Yuxi Wang, Peng Wu, Mahdi Imani; 第七届学习动力学与控制年会论文集, PMLR 283:817-829

异构人类团队的混合建模,用于协作决策过程

Amirhossein Ravari, Seyede Fatemeh Ghoreishi, Tian Lan, Nathaniel D. Bastian, Mahdi Imani; 第七届学习动力学与控制年会论文集, PMLR 283:830-843

具有障碍物规避的深度寻源者:带有循环中 Transformer 的自适应混合控制

Xiyuan Zhang, Daniel Ochoa, Regina Talonia, Jorge Poveda; 第七届学习动力学与控制年会论文集, PMLR 283:844-855

在非平稳环境中利用上下文信息的学习

Sean Anderson, Joao P. Hespanha; 第七届学习动力学与控制年会论文集, PMLR 283:856-868

MPPI 中 MPPI 内的偶发约束规划

Leonard Jung, Alexander Estornell, Michael Everett; 第七届学习动力学与控制年会论文集, PMLR 283:869-880

通过梯度响应方案计算准纳什均衡

Zhuoyu Xiao, Uday V. Shanbhag; 第七届学习动力学与控制年会论文集, PMLR 283:881-893

密集动力学感知奖励合成:整合先验经验与演示

Cevahir Koprulu, Po-Han Li, Tianyu Qiu, Ruihan Zhao, Tyler Westenbroek, David Fridovich-Keil, Sandeep Chinchali, Ufuk Topcu; 第七届学习动力学与控制年会论文集, PMLR 283:894-906

领域随机化对于线性二次控制而言是样本高效的

Tesshu Fujinami, Bruce D. Lee, Nikolai Matni, George J. Pappas; 第七届学习动力学与控制年会论文集, PMLR 283:907-919

WAVE:Wasserstein 自适应价值估计,用于 Actor-Critic 强化学习

Ali Baheri, Zahra Shahrooei, Chirayu Salgarkar; 第七届学习动力学与控制年会论文集, PMLR 283:920-931

可实现连续空间防护罩,用于安全的强化学习

Kyungmin Kim, Davide Corsi, Andoni Rodrı́guez, Jb Lanier, Benjami Parellada, Pierre Baldi, César Sánchez, Roy Fox; 第七届学习动力学与控制年会论文集, PMLR 283:932-945

LiveNet:鲁棒、微创多机器人控制,用于受限环境中的安全实时导航

Srikar Gouru, Siddharth Lakkoju, Rohan Chandra; 第七届学习动力学与控制年会论文集, PMLR 283:946-958

$α$-RACER:基于近势函数的实时算法,用于自主赛车中的博弈论运动规划与控制

Dvij Kalaria, Chinmay Maheshwari, Shankar Sastry; 第七届学习动力学与控制年会论文集, PMLR 283:959-972

基于神经网络的区间可达性分析,用于具有基于控制屏障函数的安全控制器系统

Damola Ajeyemi, Saber Jafarpour, Emiliano Dall’Anese; 第七届学习动力学与控制年会论文集, PMLR 283:973-986

A-NC:具有隐式在线推断特权参数的自适应神经网络控制

Marcin Paluch, Florian Bolli, Pehuen Moure, Xiang Deng, Tobi Delbruck; 第七届学习动力学与控制年会论文集, PMLR 283:987-998

对称性增强的多智能体强化学习

Nikolaos Bousias, Stefanos Pertigkiozoglou, Kostas Daniilidis, George Pappas; 第七届学习动力学与控制年会论文集, PMLR 283:999-1011

基于动态惩罚的在线秩1半定规划松弛

Ahmad Al-Tawaha, Javad Lavaei, Ming Jin; 第七届学习动力学与控制年会论文集, PMLR 283:1012-1024

用于具有自动镜像下降的自适应控制的元学习

Sunbochen Tang, Haoyuan Sun, Navid Azizan; 第七届学习动力学与控制年会论文集, PMLR 283:1025-1037

基于核的最优化控制:一种无穷小生成器方法

Petar Bevanda, Nicolas Hoischen, Tobias Wittmann, Jan Brudigam, Sandra Hirche, Boris Houska; 第七届学习动力学与控制年会论文集, PMLR 283:1038-1052

用于运行设计域的 Lyapunov 感知契约

Yangge Li, Chenxi Ji, Jai Anchalia, Yixuan Jia, Benjamin C Yang, Daniel Zhuang, Sayan Mitra; 第七届学习动力学与控制年会论文集, PMLR 283:1053-1065

多机器人系统中的神经符号死锁解决

Ruiyang Wang, Bowen He, Miroslav Pajic; 第七届学习动力学与控制年会论文集, PMLR 283:1066-1077

神经网络中软标签与硬标签训练的理论分析

Saptarshi Mandal, Xiaojun Lin, Rayadurgam Srikant; 第七届学习动力学与控制年会论文集, PMLR 283:1078-1089

基于 QP 的约束优化,用于可靠的 PINN 训练

Alan Williams, Christopher Leon, Alexander Scheinker; 第七届学习动力学与控制年会论文集, PMLR 283:1090-1101

STLGame:对抗多智能体系统中的时序逻辑博弈

Shuo Yang, Hongrui Zheng, Cristian-Ioan Vasile, George Pappas, Rahul Mangharam; 第七届学习动力学与控制年会论文集, PMLR 283:1102-1114

CIKAN:基于时间位移控制器的约束信息 Kolmogorov-Arnold 网络,用于自主航天器近距离操作

Taehyeun Kim, Anouck Girard, Ilya Kolmanovsky; 第七届学习动力学与控制年会论文集, PMLR 283:1115-1126

基于 Koopman 算子的未知非线性动力系统的基于数据的最优控制

Zhexuan Zeng, Ruikun Zhou, Yiming Meng, Jun Liu; 第七届学习动力学与控制年会论文集, PMLR 283:1127-1139

Imperative MPC:用于无人机姿态控制的端到端自监督学习与可微分 MPC

Haonan He, Yuheng Qiu, Junyi Geng; 第七届学习动力学与控制年会论文集, PMLR 283:1140-1153

回到基地:通过具有到达-避免安全滤波器的安全重置实现免人工干预学习

Azra Begzadic, Nikhil Shinde, Sander Tonkens, Dylan Hirsch, Kaleb Ugalde, Michael Yip, Jorge Cortes, Sylvia Herbert; 第七届学习动力学与控制年会论文集, PMLR 283:1154-1166

基于抽象的未知连续空间模型的控制,仅使用两个轨迹

Behrad Samari, Mahdieh Zaker, Abolfazl Lavaei; 第七届学习动力学与控制年会论文集, PMLR 283:1167-1179

来自多层次和分段人类反馈的强化学习

Muhammad Qasim Elahi, Somtochukwu Oguchienti, Maheed H. Ahmed, Mahsa Ghasemi; 第七届学习动力学与控制年会论文集, PMLR 283:1180-1193

“我的选择是什么?”:用多样化的近优替代方案解释 RL 智能体

Noel Brindise, Vijeth Hebbar, Riya Shah, Cedric Langbort; 第七届学习动力学与控制年会论文集, PMLR 283:1194-1205

动力系统的拓扑状态空间推断

Mishal Assif P K, Yuliy Baryshnikov; 第七届学习动力学与控制年会论文集, PMLR 283:1206-1216

Opt-ODENet:具有可微分优化层的神经 ODE 控制器设计,用于安全性和稳定性

Keyan Miao, Liqun Zhao, Han Wang, Konstantinos Gatsis, Antonis Papachristodoulou; 第七届学习动力学与控制年会论文集, PMLR 283:1217-1229

NAPI-MPC:用于非线性 PDE 系统的神经加速物理信息 MPC

Peilun Li, Kaiyuan Tan, Thomas Beckers; 第七届学习动力学与控制年会论文集, PMLR 283:1230-1242

BIGE:基于生物力学的生成式人工智能,用于运动科学

Shubh Maheshwari, Anwesh Mohanty, Yadi Cao, Swithin Razu, Andrew McCulloch, Rose Yu; 第7届年度动力学与控制学习会议论文集, PMLR 283:1243-1256

通过哈密顿-雅可比可达性进行自适应屏蔽,以实现真实世界中的安全学习

Michael Lu, Jashanraj Gosain, Luna Sang, Mo Chen; 第7届年度动力学与控制学习会议论文集, PMLR 283:1257-1270

部分观测双线性动力系统的有限样本识别

Yahya Sattar, Yassir Jedra, Maryam Fazel, Sarah Dean; 第7届年度动力学与控制学习会议论文集, PMLR 283:1271-1285

具有最小状态表示的非凸线性系统辨识

Uday Kiran Reddy Tadipatri, Benjamin D. Haeffele, Joshua Agterberg, Ingvar Ziemann, Rene Vidal; 第7届年度动力学与控制学习会议论文集, PMLR 283:1286-1299

基于零样本模拟到现实迁移,用于基于强化学习的软连续体臂视觉伺服

Hsin-Jung Yang, Mahsa Khosravi, Benjamin Walt, Girish Krishnan, Soumik Sarkar; 第7届年度动力学与控制学习会议论文集, PMLR 283:1300-1312

使用张量分解学习线性系统混合物的有限样本分析

Maryann Rui, Munther Dahleh; 第7届年度动力学与控制学习会议论文集, PMLR 283:1313-1325

强化学习中的安全探索:使用零训练时间安全违规训练备份控制屏障函数

Pedram Rabiee, Amirsaeid Safari; 第7届年度动力学与控制学习会议论文集, PMLR 283:1326-1337

STRiDE:用于等变规划的状态空间黎曼扩散

Evangelos Chatzipantazis, Nishanth Rao, Kostas Daniilidis; 第7届年度动力学与控制学习会议论文集, PMLR 283:1338-1352

具有函数逼近的安全多智能体强化学习

Hao-Lun Hsu, Miroslav Pajic; 第7届年度动力学与控制学习会议论文集, PMLR 283:1353-1364

使用信号时间逻辑学习生物分子模型

Hanna Krasowski, Eric Palanques-Tost, Calin Belta, Murat Arcak; 第7届年度动力学与控制学习会议论文集, PMLR 283:1365-1377

利用智能体间耦合信息,高效强化学习合作LQR

Shahbaz P Qadri Syed, He Bai; 第7届年度动力学与控制学习会议论文集, PMLR 283:1378-1391

形态对称等变异构图神经网络,用于机器人动力学学习

Fengze Xie, Sizhe Wei, Yue Song, Yisong Yue, Lu Gan; 第7届年度动力学与控制学习会议论文集, PMLR 283:1392-1405

使用基于事件的视觉学习多智能体系统的集体动力学

Minah Lee, Uday Kamal, Saibal Mukhopadhyay; 第7届年度动力学与控制学习会议论文集, PMLR 283:1406-1418

PACE:用于线性不完全信息差分博弈的学习和控制框架

Seyed Yousef Soltanian, Wenlong Zhang; 第7届年度动力学与控制学习会议论文集, PMLR 283:1419-1433

物理信息高斯过程作为线性模型预测控制器

Jörn Tebbe, Andreas Besginow, Markus Lange-Hegermann; 第7届年度动力学与控制学习会议论文集, PMLR 283:1434-1446

具有形式保证的离散时间非线性动力系统的神经收缩指标

Haoyu Li, Xiangru Zhong, Bin Hu, Huan Zhang; 第7届年度动力学与控制学习会议论文集, PMLR 283:1447-1459

通过场景优化实现不确定切换仿射系统的鲁棒控制

Negar Monir, Mahdieh S. Sadabadi, Sadegh Soudjani; 第7届年度动力学与控制学习会议论文集, PMLR 283:1460-1471

通过学习压缩数据表示来解耦不确定性

Zhiyu An, Zhibo Hou, Wan Du; 第7届年度动力学与控制学习会议论文集, PMLR 283:1472-1483

TAB-Fields:用于任务感知对抗规划的最大熵框架

Gokul Puthumanaillam, Jae Hyuk Song, Nurzhan Yesmagambet, Shinkyu Park, Melkior Ornik; 第7届年度动力学与控制学习会议论文集, PMLR 283:1484-1497

弥合适应性和安全性:学习跨越不同物理环境的敏捷无碰撞运动

Yichao Zhong, Chong Zhang, Tairan He, Guanya Shi; 第7届年度动力学与控制学习会议论文集, PMLR 283:1498-1511

学习和引导游戏动力学,以实现理想的结果

Ilayda Canyakmaz, Iosif Sakos, Wayne Lin, Antonios Varvitsiotis, Georgios Piliouras; 第7届年度动力学与控制学习会议论文集, PMLR 283:1512-1524

用于耦合系统中的交互感知参数隐私保护数据共享,基于粒子滤波器强化学习

于浩坤, 周景源, 杨凯迪; 第七届动力学与控制学习年会论文集, PMLR 283:1525-1536

未知扰动下非线性随机系统的时序逻辑控制

Ibon Gracia, Luca Laurenti, Manuel Mazo Jr, Alessandro Abate, Morteza Lahijanian; 第七届动力学与控制学习年会论文集, PMLR 283:1537-1549

随机非线性动力系统的基于数据的形式化策略合成

Mahdi Nazeri, Thom Badings, Sadegh Soudjani, Alessandro Abate; 第七届动力学与控制学习年会论文集, PMLR 283:1550-1564

基于 Koopman 的混合边界轨迹优化

Mohamed Abou-Taleb, Maximilian Raff, Kathrin Flaßkamp, C. David Remy; 第七届动力学与控制学习年会论文集, PMLR 283:1565-1577

订阅 通过 RSS