词条 | 最优控制 |
释义 | 最优控制 optimal control 使控制系统的性能指标实现最优化的基本条件和综合方法。可概括为:对一个受控的动力学系统或运动过程,从一类允许的控制方案中找出一个最优的控制方案,使系统的运动在由某个初始状态转移到指定的目标状态的同时,其性能指标值为最优。这类问题广泛存在于技术领域或社会问题中。例如,确定一个最优控制方式使空间飞行器由一个轨道转换到另一轨道过程中燃料消耗最少。最优控制理论是50年代中期在空间技术的推动下开始形成和发展起来的 。苏联学者L.S.庞特里亚金1958年提出的极大值原理和美国学者R.贝尔曼1956年提出的动态规划,对最优控制理论的形成和发展起了重要的作用。线性系统在二次型性能指标下的最优控制问题则是R.E.卡尔曼在60年代初提出和解决的。 从数学上看,确定最优控制问题可以表述为:在运动方程和允许控制范围的约束下,对以控制函数和运动状态为变量的性能指标函数(称为泛函)求取极值(极大值或极小值)。解决最优控制问题的主要方法有古典变分法(对泛函求极值的一种数学方法)、极大值原理和动态规划。最优控制已被应用于综合和设计最速控制系统、最省燃料控制系统、最小能耗控制系统、线性调节器等。 |
随便看 |
百科全书收录594082条中文百科知识,基本涵盖了大多数领域的百科知识,是一部内容开放、自由的电子版百科全书。