最優控制
出自 MBA智库百科(https://wiki.mbalib.com/)
最優控制(optimal control)
使控制系統的性能指標實現最優化的基本條件和綜合方法。可概括為:對一個受控的動力學系統或運動過程,從一類允許的控制方案中找出一個最優的控制方案,使系統的運動在由某個初始狀態轉移到指定的目標狀態的同時,其性能指標值為最優。這類問題廣泛存在於技術領域或社會問題中。例如,確定一個最優控制方式使空間飛行器由一個軌道轉換到另一軌道過程中燃料消耗最少。最優控制理論是50年代中期在空間技術的推動下開始形成和發展起來的 。蘇聯學者L.S.龐特裡亞金1958年提出的極大值原理和美國學者R.貝爾曼1956年提出的動態規劃,對最優控制理論的形成和發展起了重要的作用。線性系統在二次型性能指標下的最優控制問題則是R.E.卡爾曼在60年代初提出和解決的。
從數學上看,確定最優控制問題可以表述為:在運動方程和允許控制範圍的約束下,對以控制函數和運動狀態為變數的性能指標函數(稱為泛函) 求取極值(極大值或極小值)。解決最優控制問題的主要方法有古典變分法(對泛函求極值的一種數學方法)、極大值原理和動態規劃。最優控制已被應用於綜合和設計最速控制系統、最省燃料控制系統、最小能耗控制系統、線性調節器等。