最优控制

王朝百科·作者佚名  2009-11-09  
宽屏版  字体: |||超大  

最优控制(optimal control)

使控制系统的性能指标实现最优化的基本条件和综合方法。可概括为:对一个受控的动力学系统或运动过程,从一类允许的控制方案中找出一个最优的控制方案,使系统的运动在由某个初始状态转移到指定的目标状态的同时,其性能指标值为最优。这类问题广泛存在于技术领域或社会问题中。例如,确定一个最优控制方式使空间飞行器由一个轨道转换到另一轨道过程中燃料消耗最少。最优控制理论是50年代中期在空间技术的推动下开始形成和发展起来的 。苏联学者L.S.庞特里亚金1958年提出的极大值原理和美国学者R.贝尔曼1956年提出的动态规划,对最优控制理论的形成和发展起了重要的作用。线性系统在二次型性能指标下的最优控制问题则是R.E.卡尔曼在60年代初提出和解决的。

从数学上看,确定最优控制问题可以表述为:在运动方程和允许控制范围的约束下,对以控制函数和运动状态为变量的性能指标函数( 称为泛函 ) 求取极值( 极大值或极小值)。解决最优控制问题的主要方法有古典变分法(对泛函求极值的一种数学方法)、极大值原理和动态规划。最优控制已被应用于综合和设计最速控制系统、最省燃料控制系统、最小能耗控制系统、线性调节器等。

 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
© 2005- 王朝百科 版权所有