Problemas de optimización con restricciones o funciones de Lagrange

Hace tiempo os hable del problema de diferenciación con restricciones y ahora quiero hacer hincapié en una aplicación, la optimización con restricciones.

Imaginemos una función de dos variables f(x,y) sujeta a una restricción de otra función g(x,y)=0. Es decir, tenemos una función f (de dos variables) que, a su vez, las variables están relacionadas por la función g.

Entonces, ahora supongamos que f y g tienen derivadas parciales continuas cerca de un punto P_{0}=(x_{0}, y_{0}) sobre una curva suave C que funciona según la ecuación g(x,y)=0 que es homogenea. Además, ya puestos a suponer, supongamos que restringimos los puntos de C la función f tiene un máximo o un mínimo local en P_{0} y que, ademas, como estamos suponiendo y suponer es gratis, P_{0} no es un extremo de la curva C de ecuación g(x,y) y que (y esto es importante) \triangledown g(P_{0})\neq  0.

¿Que queremos decir con todo esto tan largo?. Pues muy simple, indicamos que la función f tendrá un máximo o mínimo en algún punto contenido en la curva que es generada por la función g. Ni más, ni menos.

El resto de cosas es indicar que ese punto no es un extremo de la función g (y que, por lo tanto, puede ser máximo o mínimo sin estar dentro) y que ademas, su gradiente es diferente de cero, vamos, que tiene.

Gracias a esto podemos llamar y hablar de la función de Lagrange que es una ampliación del multiplicador de Lagrange antes visto.

L(x,y,\lambda)=f(x,y)+\lambda g(x,y)

Es decir, podemos ver candidatos de puntos de la curva g(x,y)=0 tales que f(x,y) son máximos o mínimos siempre y cuando cumplan, por la ecuación anterior:

\frac{\partial L}{\partial x}=f_{x}(x,y)+\lambda g_{x}(x,y)=0
$latex \frac{\partial L}{\partial y}=f_{y}(x,y)+\lambda g_{y}(x,y)=0

Lo que implica que:

\triangledown f es paralelo a \triangledown g

Y que, ademas, se cumple que:

\frac{\partial L}{\partial \lambda}=g(x,y)

Que es la ecuación de restricción y por lo cual el gradiente del punto ha de ser distinto de cero, obviamente.

Al final de todo este chorrazo lo que tendremos en un sistemas de ecuaciones más o menos complicadas (y aquí viene el álgebra a ayudarnos) que se podrán resolver, o no, pero que, nos asegura que la solución existe (aunque no podamos calcularla).

De esta forma se resolvería el problema de optimización de funciones (f) con restricción (g) a partir de la función de Lagrange.

En el caso de tener más dimensiones (que dos), la única diferencia sera que tendremos más diferenciales parciales y, seguramente, más restricciones, lo que nos lleva al problema con más de una restricción.

En este tendríamos que optimizar la función f(x, y, z) restringida a la función g(x, y, z) y la función h(x, y, z) teniendo que la función de Lagrange es “igual” pero más larga:

L(x,y,z,\lambda)=f(x,y,z)+\lambda g(x,y,z)+\mu h(x,y,z)

Y tendríamos que buscar tripletes que optimicen g=0 y h=0. Vamos, un sistema de 5 ecuaciones con 5 incógnitas. Es decir x, y, z, \lambda, \mu. Y que nos tocaría, simplemente, dar más vueltas a la churrera.

Commentarios