Diseño de Control óptimo para ejemplos reales.
Optimización finita dimensional: Problemas sin restricciones, método de los
multiplicadores de Lagrange, introducción al análisis de variaciones.
Formulación general del problema y algunos ejemplos básicos.
Condición necesaria de Pontryagin para variaciones débiles.
Variaciones fuertes y la forma fuerte del Principio del Máximo de Pontryagin.
Condiciones suficientes de optimalidad.
Control óptimo con restricciones y problemas de tiempo óptimo.
Programación dinámica y la ecuación de Hamilton-Jacobi-Bellman.
Técnicas, verificación y procedimientos para solución de la ecuación de HJB.
Relación entre el Principio del Máximo y la Programación Dinámica.
Problemas de Control Lineal Cuadrático Óptimo.
Introducción a los juegos diferenciales LQ
Ejemplos de problemas de control en tiempo discreto y control estocástico óptimo.
[1] L.S. Pontryagin, V.G. Boltyanski, R.V. Gamkrelidze and E.F. Mischenko,
The mathematical Theory of Optimal Processes, Wiley, New York, 1962.
[2] L. Berkovitz, Optimal Control Theory, Springer, New York, 1974.
[3] R. Bellman, Dynamic Programming, Princeton University Press, Princeton, 1957.
[4] H.O. Fattorini, Infinite-Dimensional Optimization and Control Theory,
Cambridge University Press, Cambridge, 1999.
[5] A.E. Bryson and Y.C. Ho, Applied Optimal Control, Hemisphere,
Washington DC, 1975.
[6] J. Betts, Practical Methods for Optimal Control Problems Using Nonlinear Programming,
SIAM, Philadelphia, 2001
[7] V.M. Alekseev, V.M. Tichomirov, S.V. Fomin, Optimal Control,
Plenum Publishing Co, New York, 1987
[8] J.L. Speyer and D.H. Jacobson, Primer on Optimal Control Theory,
SIAM, Philadelphia, 2010
[9] V.G. Boltyanski and A.S. Poznyak, The Robust Maximum Principle, Birkhaeuser,
London, 2012
[10] D.E. Kirk, Optimal Control Theory, Dover, New York, 1998
[11] J. Jahn, Introduction to the Theory of Nonlinear Optimization,
Springer, Berlin, 2007
[12] B.T. Polyak, Introduction to Optimization, Optimization Software, New York, 1987