Teorda del Control Optimo
Transcripción
Teorda del Control Optimo
Teoría del Control Optimo (FCEA, UdelaR) Teoría del Control Optimo 1 / 28 Introducción Optimización dinámica busca responder la pregunta, ¿cuál es el valor óptimo para cada período de tiempo de una variable de elección? Por tanto, debemos encontrar un valor para CADA momento en el intervalo de tiempo relevante para el problema (el que eventualmente puede ser in…nito) Lo que queremos encontrar ahora es una función, y no solo un único valor (como en la optimización estática). La idea es que cada función nos estará dando valores distintos del funcional que estemos maximizando. Tenemos que elegir entonces la función que nos de el mayor valor (si es un problema de maximización). En esta clase plantearemos el problema en tiempo continuo. (FCEA, UdelaR) Teoría del Control Optimo 2 / 28 Introducción Supongamos que tenemos los siguientes caminos para transportar una carga desde el punto inicial A hasta el terminal Z. El costo del transporte depende del largo del camino y de la topografía del mismo (por tanto, no necesariamente la línea recta es la más conveniente). En este ejemplo estado=latitud y stage=longitud (en general en los problemas que veremos el stage estará dado por la variable tiempo). Buscamos minimizar costos, eligiendo el camino óptimo. (FCEA, UdelaR) Teoría del Control Optimo 3 / 28 Introducción El funcional: V [y (t )]. Mapea funciones en valores (en el ejemplo anterior podía ser el costo del transporte entre A y Z). Al maximizarlo (o minimizarlo) nos permite elegir la función óptima. (FCEA, UdelaR) Teoría del Control Optimo 4 / 28 Introducción Distintos puntos terminales del problema: (a) t = T (problema con linea vertical terminal) (consumo a lo largo de T años); (b) y = Z (problema con linea horizontal terminal) (meta in‡ación) y (c) Z = φ(T ) (curva terminal) (calidad vs rapidez) (FCEA, UdelaR) Teoría del Control Optimo 5 / 28 Teoría del control óptimo En los problemas de control óptimo tenemos 3 variables relevantes en vez de las 2 que veníamos viendo. Ahora además de V (funcional) y de y (variable de estado) tenemos u (variable de control). La variable u es la que le da nombre a esta teoría y que pasará a ocupar el escenario central del problema (relegando a y a un rol secundario). Esto será así siempre y cuando a través de u logremos afectar el camino que sigue y . Por tanto en nuestro problema ahora deberemos tener una ecuación que vincule a ambas variables: dy = y (t ) = f [t, y (t ), u (t )] dt (1) Esta ecuación se llama ecuación de movimiento del problema. (FCEA, UdelaR) Teoría del Control Optimo 6 / 28 Teoría del control óptimo El problema que pretendemos resolver tiene la siguiente forma: Max.V [u ] = ZT F [t, y (t ), u (t )] dt (2) 0 s.a. y (t ) = f [t, y (t ), u (t )] y (0) = y0 y (T ) = yT El propósito de la teoría de control optimo será encontrar la trayectoria temporal óptima para la variable de estado y y la variable de control u. Esta teoría centrará su atención en una o más variables de control que sirven como instrumentos de optimización. El desarrollo más importante en la teoría del control óptimo es el llamado principio del máximo, el que permite revolver el problema. (FCEA, UdelaR) Teoría del Control Optimo 7 / 28 Ejemplo Supongamos una economía con un stock …nito de petroleo (P (t )), siendo P (0) = P0 . A medida que el petroleo es extraído, la reserva se irá reduciendo en: ∂P (t ) E (t ). Siendo E (t ) la tasa de extracción de petroleo en t. ∂t = E (t ) cuali…ca como variable de control dado que posee las siguientes 2 propiedades: 1. Está sujeta a nuestra elección discrecional. 2. El valor de E (t ) afecta a la trayectoria de P (t ) (variable de estado). La variable E (t ) nos permite conducir la variable de estado P (t ) a la posición que deseamos, en cualquier momento del tiempo, a través de ∂P (t ) la ecuación diferencial: ∂t = E (t ). (FCEA, UdelaR) Teoría del Control Optimo 8 / 28 Ejemplo Direccionando acertadamente la variable de control, podemos proponernos optimizar algún criterio de performance expresado en una función objetivo. Podríamos plantearnos por ejemplo la maximización del valor presente de la utilidad (o ganancia) derivada del uso del petroleo extraído durante un período de tiempo [0, T ]. El problema podría plantearse como: max ZT U (E )e ρt dt (3) 0 s.a. (FCEA, UdelaR) ∂P (t ) = E (t ) , ∂t P (0) = P0 , P (T ) libre, P0 , T dados Teoría del Control Optimo 9 / 28 Control óptimo: algunas características La teoría del control óptimo permite resolver casos donde el camino de la variable de control no es continuo (ej. botón de prendido de la computadora, u=1 prendida, o u=0 apagada). Solo necesitamos que sea continuo de a intervalos. La variable de estado debe ser continua, pero no hay problema si solo es diferenciable en intervalos. (FCEA, UdelaR) Teoría del Control Optimo 10 / 28 Teoría del control óptimo El problema que pretendemos resolver tiene la siguiente forma: max V = ZT F [t, y (t ), u (t )] dt (4) 0 s.a. y (t ) = f [t, y (t ), u (t )] y ( 0 ) = y0 El desarrollo más importante en la teoría del control óptimo es el llamado principio del máximo, que permite revolver problemas como este. (FCEA, UdelaR) Teoría del Control Optimo 11 / 28 Principio del máximo 1 Primer paso En el primer paso del desarrollo del principio del máximo incorporaremos la ecuación de movimiento en la función a optimizar y luego la expresaremos en términos del Hamiltoniano (el que será de…nido más abajo). Tenemos que la ecuación de movimiento es: f (t, y , u ) y = 0, 8t 2 [0, T ] (5) Con lo cual la suma de estos valores 0 entre el período 0 y el T también tiene que ser cero: ZT 0 (FCEA, UdelaR) h λ(t ) f (t, y , u ) i y dt = 0 Teoría del Control Optimo (6) 12 / 28 Principio del máximo Sumando esta última expresión a V tenemos: J = V+ ZT 0 = = ZT 0 T Z 0 h λ(t ) f (t, y , u ) F (t, y , u )dt + ZT 0 n i y dt h λ(t ) f (t, y , u ) h F (t, y , u ) + λ(t ) f (t, y , u ) i y dt = (7) i o y dt Esta función objetivo tendrá igual solución que V , ya que J toma iguales valores que V a lo largo de la ecuación de movimiento. (FCEA, UdelaR) Teoría del Control Optimo 13 / 28 Principio del máximo De…namos la función Hamiltoniana (o el Hamiltoniano) como: H (t, y , u, λ) F (t, y , u ) + λ(t )f (t, y , u ) (8) La sustitución del Hamiltoniano simpli…ca la ecuación (7) en: J= ZT h H (t, y , u, λ) 0 (FCEA, UdelaR) i λ(t )y dt = ZT 0 Teoría del Control Optimo H (t, y , u )dt ZT λ(t )y dt (9) 0 14 / 28 Principio del máximo ZT Integrando por partes (recordar que u v dt = u (t )v (t )jT0 ZT uvdt) 0 0 la última integral de la ecuación anterior será igual a: ZT λ(t )y dt = λ(t )y (t )jT0 0 + ZT λy (t )dt = (10) 0 = λ(T )yT + λ(0)y0 + ZT y (t )λdt 0 (FCEA, UdelaR) Teoría del Control Optimo 15 / 28 Principio del máximo Sustituyendo esta expresión en (9): J = ZT = ZT 0 H (t, y , u, λ)dt + ZT y (t )λdt λ(T )yT + λ(0)y0 =(11) 0 H (t, y , u, λ) + y (t )λ dt λ(T )yT + λ(0)y0 0 (FCEA, UdelaR) Teoría del Control Optimo 16 / 28 Principio del máximo 2. Segundo paso La introducción de λ(t ) no debe afectar el valor que tome J siempre y cuando: f (t, y , u ) y = 0, 8t 2 [0, T ] (12) como vimos anteriormente. Notar que esa condición es igual a la siguiente (esta será una de las 3 condiciones para el máximo): y= ∂H ∂λ (13) Para mostrarlo, basta con tener en cuenta que H (t, y , u, λ) Entonces: ∂H ∂λ (FCEA, UdelaR) F (t, y , u ) + λ(t )f (t, y , u ) = f (t, y , u ) y por tanto: y = Teoría del Control Optimo ∂H ∂λ (14) ) y = f (t, y , u ). 17 / 28 Principio del máximo 3. Tercer paso Ahora nos ocuparemos de u (t ) y de su efecto sobre y (t ) Introduciremos perturbaciones en estas curvas de forma de generar una familia de curvas, y luego derivaremos condiciones que solo cumplirán las funciones óptimas. u (t ) = u (t ) + εp (t ) y (t ) = y + εq (t ) T = T + ε∆T =) yT = yT + ε∆yT =) (FCEA, UdelaR) (15) Teoría del Control Optimo ∂T = ∆T ∂ε ∂yT = ∆yT ∂ε (16) (17) 18 / 28 Principio del máximo Expresaremos J en función de ε, lo que nos permitirá tomar a J como una función en una única variable, de donde la condición de primer orden será: ∂J (18) j ε =0 = 0 ∂ε Ya que por de…nición y (t ) y u (t ) es la solución óptima. Siendo J (ε) = TZ(ε) H [t, y + εq (t ), u + εp (t ), λ] + λ [y + εq (t )] (19) dt 0 λ(T )yT + λ(0)y0 (FCEA, UdelaR) Teoría del Control Optimo 19 / 28 Principio del máximo 4. Paso cuatro Ahora aplicamos la condición: ∂J ∂ε jε=0 = 0. Llegamos a (notar que si tenemos bR (x ) bR (x ) dJ (x ) F (t, x )dt ) dx = Fx (t, x )dt + F [b (x ), x ] b 0 (x )): J (x ) = 0 TZ(ε) 0 0 ∂H ∂H q (t ) + p (t ) + λq (t ) dt + H + λy ∂y ∂u λ(T )∆yT t =T ( ε ) ∂T (ε) (20) ∂ε yT λ(T )∆T (la derivada del segundo término de (19) con respecto a ε es (derivada de un producto): ∂λ(T ) λ(T )∆yT yT λ(T )∆T ) λ(T ) ∂y∂εT yT ∂T ∂T ∂ε = El término λ(0)y0 desaparece cuando lo derivamos con respecto a epsilon. (FCEA, UdelaR) Teoría del Control Optimo 20 / 28 Principio del máximo Podemos reescribir uno de los componentes de (20) como: λy t =T . ∂T = λ(T )yT ∆T ∂ε (21) De este modo, cuando (20) es igualada a cero, la condición de primer orden es: ∂J = ∂ε ZT ( 0 ∂H ∂H + λ )q (t ) + p (t ) dt + [H ]t =T ∆T ∂y ∂u λ(T )∆yT = 0 (22) Los tres componentes tienen diferentes cosas arbitrarias: la integral contiene curvas de perturbación p (t ) y q (t ), mientras que los otros dos involucran ∆T y ∆yT ; de este modo, se deben igualar cada uno de los términos que multiplican a estas cosas arbitrarias a 0, para asegurarnos que sean 0 siempre. (FCEA, UdelaR) Teoría del Control Optimo 21 / 28 Principio del máximo Igualando el término dentro de la integral a cero, podemos deducir 2 condiciones: ∂H (23) = λ ∂y ∂H = 0 (24) ∂u La primera nos da la ecuación de movimiento de la variable de coestado, y la segunda representa la max. de H. Ya que el problema más simple tiene la T …ja, y libre el estado (yT ), el término ∆T = 0, pero no así ∆yT ; y por tanto para hacer desaparecer el término λ(T ) ∆yT , debemos imponer la restricción: λ(T ) = 0. (25) Esta ultima condición es llamada condición de transversalidad (para el caso de línea terminal vertical). (FCEA, UdelaR) Teoría del Control Optimo 22 / 28 Principio del máximo. Condiciones terminales alternativas. Cuando las condiciones terminales son distintas lo que cambia es la condición de transversalidad, las demás condiciones para un óptimo se mantienen. Línea terminal horizontal. En este caso yT esta …jo y por tanto ∆yT = 0, pero el momento del tiempo en que termina el problema no tiene por que serlo. Entonces si tenemos en cuenta ∂J = ∂ε ZT ( 0 ∂H ∂H + λ )q (t ) + p (t ) dt + [H ]t =T ∆T ∂y ∂u λ(T )∆yT = 0 (26) vemos que [ H ] t =T = 0 (FCEA, UdelaR) Teoría del Control Optimo (27) 23 / 28 Principio del máximo. Condiciones terminales alternativas. Curva terminal. En este caso yT = φ(T ). Entonces ∆yT = φ0 (T )∆T , entonces si tenemos en cuenta ∂J = ∂ε ZT ( 0 ∂H ∂H + λ )q (t ) + p (t ) dt + [H ]t =T ∆T ∂y ∂u λ(T )φ0 (T )∆T (28) vemos que (para un valor arbitrario de ∆T ) la condición ahora es: H (FCEA, UdelaR) λφ0 = 0 Teoría del Control Optimo (29) 24 / 28 El Hamiltoniano de valor corriente En algunas aplicaciones económicas de la teoría de control óptimo, se suele introducir un factor de descuento e ρt en el integrando de la función objetivo: F (t, y , u ) = G (t, y , u ).e ρt (30) Con esta modi…cación, el problema de control óptimo será: Max. V = ZT G (t, y , u ).e ρt dt (31) 0 s.a. y = f (t, y , u ) y cond. de frontera El Hamiltoniano toma la forma: H = G (t, y , u ).e (FCEA, UdelaR) ρt + λ.f (t, y , u ) Teoría del Control Optimo (32) 25 / 28 El valor corriente del Hamiltoniano Como el factor de descuento agrega complejidad a las derivadas de H, en algunos casos será deseable de…nir una nueva función hamiltoniana que esté libre de ese factor. Llamaremos HC , valor corriente del hamiltoniano, a una transformación algebraica de H: HC H.e ρt = G (t, y , u ) + m.f (t, y , u ) (33) Y a m (t ) como el multiplicador de valor corriente m: m (t ) = λ.e ρt (34) Tenemos entonces la siguiente igualdad: H (FCEA, UdelaR) Hc .e ρt Teoría del Control Optimo (35) 26 / 28 El Principio del Máximo Revisado Trabajar con Hc en vez de H implica cambios en la formulación del problema a maximizar. La primera condición de este problema es maximizar H con respecto a u para cada momento del tiempo. Esta condición no se modi…ca, excepto por sustituir H por Hc, dado que el término e ρt es constante para cualquier t. La condición revisada se simpli…ca: M áx.Hc u 8t e [0, T ] (36) La ecuación de movimiento para la variable de estado debe reformularse teniendo en cuenta que: y = (FCEA, UdelaR) ∂H ∂Hc = f (t, y , u ) = ∂λ ∂m Teoría del Control Optimo (37) 27 / 28 El Principio del Máximo Revisado . La ecuación de movimiento para la variable de coestado, λ = ∂H dy , debe modi…carse transformando cada lado de esta ecuación en una expresión que involucre al multiplicador lagrangeano m y luego igualando esos resultados. Para el lado izq. tenemos: λ = me ρt ρme ρt . ρt . c Para el lado derecho: ∂y∂H = ∂H ∂y e Igualando estos resultados tenemos la ec de movimiento para m: ∂Hc + ρm (38) dy Por último, la condición de transversalidad revisada, para el caso de una línea vertical terminal sería: m= λ (T ) = 0 =) m (T ).e ρt = 0 ) m (T ) = 0 (39) y para una línea terminal horizontal quedaría: [ H ] t =T = 0 (FCEA, UdelaR) =) [Hc ]t =T .e ρt Teoría del Control Optimo = 0 ) [ Hc ] t = T = 0 (40) 28 / 28