嗨,小伙伴们,今天我们要揭开底盘域控又一层神秘的面纱,一起进入这个奇妙的算法世界探险。如前文所述,底盘域控产品的终极形式就是“芯片”。可问题来了,这个底盘域控主芯片到底是干嘛的呢?別急,我们放轻松。就像我们在浅谈三和浅谈四里说的那样,虽然底盘域控的终极形式是芯片,但关键是这个芯片在支撑什么算法。为了解开这个谜题,我们先得回到现有的底盘算法体系,这就像是在找寻底盘的密码一样。对于悬架系统,现有的算法基于目前物理背景的算法(如,天棚、地棚)和大量的数据标定,形成的“if.....then....”专家系统。制动和转向的算法也差不多,基本上殊途同归。在现有的底盘上,这些算法都互不关联,之所以底盘还能正常运转,是因为有人在上面做协同控制,但是,随着自动驾驶的发展,智能底盘完全是机器操纵。这时,悬架、制动、转向就不能再各自为战,必须要打开协同控制的大门。可问题是,没有一个物理背景的算法能够支撑三轴六向多维度的输入,原有的算法体系陷入了困境。如何破局呢?幸运的是伴随着数据驱动模型的蓬勃发展,我们找到了一条新路:数据驱动模型的协同控制算法!就像是汽车导航小助手,带着我们开启了一场智能底盘域控算法的冒险之旅。
一.分层式底盘域协同控制算法架构
为了便于模块化实现,采用分层式协同控制总体算法架构(如下图所示),其关键技术主要包括三个方面,车辆运动状态感知及驾驶员意图识别,控制模式决策与子系统选择,高层控制器和控制分配功能,下图所示协同控制框架将上述三方面的功能分成五个层次。
二.基于强化学习的底盘域协同控制算法
车辆运动具有强耦合、非线性、不确定的特点,协同控制可以有效解决耦合问题,通过不同功能的协调避免耦合子系统之间的冲突。强化学习一种数据驱动的最优控制方法,不需要以预设的规则或指令为基础进行操作,而是通过在真实或虚拟环境(数据)互动试错以获得奖励来自主学习最佳决策,与人类学习的方式非常类似,具有良好的环境适应性和鲁棒性。强化学习与深度神经网络技术的结合进一步提升了系统建模能力与状态表征能力,可以克服系统机理模型的不足,且具有良好的自适应能力,为应对非线性和不确定性提供了一种新的方案。本项目基于深度强化学习技术建立车辆运动状态与控制策略之间的映射关系,可以为底盘域协同控制提供统一的技术方案。(如下图所示)
强化学习是一种具有通用性控制与决策模式,对不同场景可以采用类似的控制策略设计思路。针对车辆运动控制领域,首先根据车辆运动控制的场景定义状态空间模型,确定运动控制相关的状态及控制输入向量,另根据控制目标定义引导策略学习的奖励函数。为了提升强化学习的样本效率,降低数据采集的成本,本项目将采用基于模型的强化学习技术,该技术首先在仿真环境或真实环境中采集少量数据用于拟合系统模型,此后的强化学习策略探索将在此模型上进行,并得到最终的优化控制策略。基于模型的强化学习可以降低实车训练的成本和风险,具有良好的可行性。强化学习可以采用离线的方式进行预训练,控制器中只需部署训练好的推理模型,因而只需相对较少的计算资源。
强化学习还可以利用系统运行过程中产生的实际数据,对现有控制系统进行优化和改进。此外,强化学习可以通过在线学习方法对控制系统进行实时优化,不断地适应变化的环境和工作需求,提高控制系统的性能。
三.基于卡尔曼滤波的协同控制状态估计算法
状态估计是车辆运动控制的基础和前提。受限于传感器的能力或成本,多数情况下,为了获得对车辆进行控制时需要的车辆状态数据,需要通过状态估计算法间接得到。该方案通过以卡尔滤波和数据融合为主要技术手段,对车辆运动关键状态估计进行估计,包括但不限于车辆运动俯仰角和侧倾角,纵向车速、质心侧偏角等。卡尔曼滤波(如下图所示)是一种最优的状态估计方案,可以获得最佳的估计结果。数据融合为估计算法提供更加全面和准确的数据输入,可以进一步提升估计的准确性。
底盘域控是车辆的"小脑",那协同算法可谓是这颗小脑的魂魄,是不是有点小仙女附体的感觉?这群算法小精灵就像是在汽车世界的大舞台上跳着芭蕾,悬架、制动、转向,各显神通,却又完美协同,简直比舞蹈比赛还刺激!它们就像是车辆的默契舞伴,精准、敏捷,给我们的驾驶体验加了一把魔法的调味料。每一次漂移、每一次迅猛加速,都离不开这些算法的默契合作。所以,让我们为这群小精灵鼓掌,感谢它们让我们的底盘更灵活,驾驶更畅快,让每一次驾车都像是在跟随音乐的旋律翩翩起舞,轻松又愉悦。底盘域控协同算法,你们简直就是汽车界的舞台巨星,让我们继续和你们一起欢乐飙舞吧!