![]() |
Máximos y Mínimos de Funciones de Varias VariablesAngel Carrillo Hoyo, Elena de Oteyza de Oteyza\(^2\), Carlos Hernández Garciadiego\(^1\), Emma Lam Osnaya\(^2\) | ![]() |
Recíprocamente si tenemos matrices \(A\) y \(B\) de tamaños \( m_{1}\times n_{1}\) y \(m_{1}\times n_{2}\) y matrices \(C\) y \(D\) de tamaños \(m_{2}\times n_{1}\) y \(m_{2}\times n_{2},\) respectivamente, con \( m_{1}+m_{2}=m\) y \(n_{1}+n_{2}=n,\) entonces \begin{equation*} M=\left( \begin{array}{cc} A & B \\ C & D \end{array} \right) \end{equation*} es una \(m\times n\) matriz presentada en \(4\) bloques.
Por supuesto, una matriz se puede dividir en menos de 4 bloques, o bien, en más de estos, si tiene entradas suficientes.
Debe notarse que las matrices en la misma columna deben tener el mismo número de columnas y las que están en el mismo renglón el mismo número de renglones.
Ejemplos
Cuando dos matrices se presentan en bloques podemos seguir las reglas para multiplicar matrices con la condición de que los productos involucrados puedan realizarse.
Por ejemplo, \begin{equation*} \left( \begin{array}{cc} A & B \end{array} \right) \left( \begin{array}{cc} C & F \\ D & G \end{array} \right) =\left( \begin{array}{cc} AC+BD & AF+BG \end{array} \right) \end{equation*} siempre que los productos \(AC,\) \(BD,\) \(AF\) y \(BG\) estén definidos, para lo cual es necesario y suficiente que el número de columnas de \(A\) coincida con el número de renglones de \(C\) (y por tanto, de \(F\)) y que el número de columnas de \(B\) coincida con el número de renglones de \( D\) (y por tanto, de \(G\)).
Lema 1
Si \(A\) es una \(3\times 3\) matriz entonces \begin{equation*} \left\vert \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & A \end{array} \right) \right\vert =\left\vert A\right\vert \end{equation*}
Demostración:
Lema 2
Sean \(\ast _{2\times 2,}\ast _{1\times 2}\) y \(\ast _{2\times 1}\) matrices arbitrarias de los tamaños señalados como sub índices y \(r\) un real. Entonces \begin{equation*} \left\vert \left( \begin{array}{ccc} I_{2} & 0_{2} & 0_{2\times 1} \\ \ast _{2\times 2} & I_{2} & \ast _{2\times 1} \\ \ast _{1\times 2} & 0_{1\times 2} & r \end{array} \right) \right\vert =r \end{equation*} y \begin{equation*} \left\vert \left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & 0_{2} & 0_{2\times 1} \\ 0_{1\times 2} & 0_{1\times 2} & 1 \end{array} \right) \right\vert =1. \end{equation*}
Demostración:
Recordamos que el rango de una \(m\times n\) matriz es el máximo número de renglones linealmente independientes; éste coincide con el máximo número de columnas linealmente independientes.
Usaremos lo anterior para probar el siguiente resultado que es un caso particular de [1, Theorem 18, p. 61] y que será usado en la prueba del criterio del hessiano limitado para funciones reales de tres variables con dos restricciones.
Teorema 3
Sean
\begin{equation*}
A=\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)
\end{equation*}
y
\begin{equation*}
B=\left(
\begin{array}{ccc}
b_{11} & b_{12} & b_{13} \\
b_{21} & b_{22} & b_{23}
\end{array}
\right)
\end{equation*}
dos matrices reales y supongamos que el rango de \(B\) es \(2,\) más aún
que las dos primeras columnas de \(B\) son linealmente independientes.
Definimos
\begin{equation*}
\Gamma =\left\{ \overline{x}=\left( x_{1},x_{2},x_{3}\right) \in \mathbb{R}
^{3}\left\vert \,\overline{x}\neq \left( 0,0,0\right) ,\,B\overline{x}
=\left(
\begin{array}{c}
0 \\
0
\end{array}
\right) \right. \right\}
\end{equation*}
y
\begin{equation*}
H=\left(
\begin{array}{ccccc}
0 & 0 & b_{11} & b_{12} & b_{13} \\
0 & 0 & b_{21} & b_{22} & b_{23} \\
b_{11} & b_{21} & a_{11} & a_{12} & a_{13} \\
b_{12} & b_{22} & a_{21} & a_{22} & a_{23} \\
b_{13} & b_{23} & a_{31} & a_{32} & a_{33}
\end{array}
\right) =\left(
\begin{array}{cc}
0_{2} & B \\
B^{t} & A
\end{array}
\right) .
\end{equation*}
Entonces
Demostración:
O sea, \begin{equation*} \overline{x}^{t}A\overline{x}>0\text{ para todo }\overline{x}\in \Gamma \Longleftrightarrow Q^{t}AQ\text{ es positiva definida en }\mathbb{R} \end{equation*} y \begin{equation*} \overline{x}^{t}A\overline{x} < 0 \text{ para todo } \overline{x}\in \Gamma \Longleftrightarrow Q^{t}AQ \text{ es negativa definida en } \mathbb{R}. \end{equation*}
Notamos que \(Q^{t}AQ\) es una \(1\times 1\) matriz, es decir es un real. Hagamos \begin{equation} r=Q^{t}AQ=\left( \begin{array}{ccc} -c_{1} & -c_{2} & 1 \end{array} \right) A\left( \begin{array}{c} -c_{1} \\ -c_{2} \\ 1 \end{array} \right) . \label{r}\tag{3} \end{equation} La \(1\times 1\) matriz \(r\) es positiva definida si y sólo si \(r>0.\) Entonces \begin{equation*} \overline{x}^{t}A\overline{x}>0\text{ para todo }\overline{x}\in \Gamma \Longleftrightarrow r>0 \end{equation*} y \begin{equation*} \overline{x}^{t}A\overline{x} < 0 \text{ para todo } \overline{x}\in \Gamma \Longleftrightarrow r < 0. \end{equation*}
Definamos la siguiente \(3\times 3\) matriz \begin{equation*} T=\left( \begin{array}{ccc} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \\ 0 & 0 & 1 \end{array} \right) =\left( \begin{array}{cc} B_{2} & B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) . \end{equation*} Entonces \begin{equation*} T^{-1}=\left( \begin{array}{ccc} b_{11}^{\prime } & b_{12}^{\prime } & -c_{1} \\ b_{21}^{\prime } & b_{22}^{\prime } & -c_{2} \\ 0 & 0 & 1 \end{array} \right) =\left( \begin{array}{cc} B_{2}^{-1} & -B_{2}^{-1}B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) , \end{equation*} ya que \(\left( \begin{array}{c} -c_{1} \\ -c_{2} \end{array} \right) =-B_{2}^{-1}B_{\ast }\) de acuerdo con (\ref{b2b*}) y \begin{equation*} \left( \begin{array}{cc} B_{2}^{-1} & -B_{2}^{-1}B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) \left( \begin{array}{cc} B_{2} & B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) =\left( \begin{array}{cc} I & B_{2}^{-1}B_{\ast }-B_{2}^{-1}B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) =I_{3\times 3}. \end{equation*} Así, \begin{equation*} \left( T^{-1}\right) ^{t}=\left( \begin{array}{ccc} b_{11}^{\prime } & b_{21}^{\prime } & 0 \\ b_{12}^{\prime } & b_{22}^{\prime } & 0 \\ -c_{1} & -c_{2} & 1 \end{array} \right) =\left( \begin{array}{cc} B_{2}^{-1} & 0_{2\times 1} \\ -B_{2}^{-1}B_{\ast } & 1 \end{array} \right) . \end{equation*} Vamos a determinar la entrada \(\left( 3,3\right) \) de la \(3\times 3\) matriz de \(\left( T^{-1}\right) ^{t}AT^{-1}.\) La tercera columna de \begin{equation*} AT^{-1}\text{ es }\left( \begin{array}{c} -a_{11}c_{1}-a_{12}c_{2}+a_{13} \\ -a_{21}c_{1}-a_{22}c_{2}+a_{23} \\ -a_{31}c_{1}-a_{32}c_{2}+a_{33} \end{array} \right) =A\left( \begin{array}{c} -c_{1} \\ -c_{2} \\ 1 \end{array} \right) , \end{equation*} Por esto y (\ref{r}), la entrada \(\left( 3,3\right) \) de \(\left( T^{-1}\right) ^{t}AT^{-1}\) es \begin{equation*} \left( \begin{array}{ccc} -c_{1} & -c_{2} & 1 \end{array} \right) A\left( \begin{array}{c} -c_{1} \\ -c_{2} \\ 1 \end{array} \right) =r \end{equation*} y entonces, \begin{equation} \left( T^{-1}\right) ^{t}AT^{-1}=\left( \begin{array}{ccc} \ast & \ast & \ast \\ \ast & \ast & \ast \\ \ast & \ast & r \end{array} \right) \label{T-1TaT-1}\tag{4} \end{equation} en donde las estrellas no necesariamente son iguales entre sí y cuyo valor es irrelevante para lo que sigue.
Tenemos \begin{eqnarray} BT^{-1} & = & \left( \begin{array}{cc} B_{2} & B_{\ast } \end{array} \right) \left( \begin{array}{cc} B_{2}^{-1} & -B_{2}^{-1}B_{\ast } \\ 0_{1\times 2} & 1 \end{array} \right) =\left( \begin{array}{cc} I_{2} & 0_{2\times 1} \end{array} \right) \label{bT-1}\tag{5} \\ \left( T^{-1}\right) ^{t}B^{t} & = & \left( \begin{array}{c} I_{2} \\ 0_{1\times 2} \end{array} \right) \label{t-1TbT}\tag{6} \end{eqnarray}
\begin{eqnarray*} \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & \left( T^{-1}\right) ^{t} \end{array} \right) \left( \begin{array}{cc} 0_{2} & B \\ B^{t} & A \end{array} \right) \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & T^{-1} \end{array} \right) & = & \left( \begin{array}{cc} 0_{2} & B \\ \left( T^{-1}\right) ^{t}B^{t} & \left( T^{-1}\right) ^{t}A \end{array} \right) \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & T^{-1} \end{array} \right) \\ & & \\ & = &\left( \begin{array}{cc} 0_{2} & BT^{-1} \\ \left( T^{-1}\right) ^{t}B^{t} & \left( T^{-1}\right) ^{t}AT^{-1} \end{array} \right) . \end{eqnarray*} Por (\ref{bT-1}), (\ref{t-1TbT}) y (\ref{T-1TaT-1}) lo anterior se reduce a \begin{equation*} \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & \left( T^{-1}\right) ^{t} \end{array} \right) \left( \begin{array}{cc} 0_{2} & B \\ B^{t} & A \end{array} \right) \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & T^{-1} \end{array} \right) =\left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & \ast _{2\times 2} & \ast _{2\times 1} \\ 0_{1\times 2} & \ast _{1\times 2} & r \end{array} \right) . \end{equation*} Por otra parte, esta última matriz la podemos factorizar como \begin{equation*} \left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & \ast _{2\times 2} & \ast _{2\times 1} \\ 0_{1\times 2} & \ast _{1\times 2} & r \end{array} \right) =\left( \begin{array}{ccc} I_{2} & 0_{2} & 0_{2\times 1} \\ \ast _{2\times 2} & I_{2} & \ast _{2\times 1} \\ \ast _{1\times 2} & 0_{1\times 2} & r \end{array} \right) \left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & 0_{2} & 0_{2\times 1} \\ 0_{1\times 2} & 0_{1\times 2} & 1 \end{array} \right) . \end{equation*} De donde, \begin{equation*} \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & \left( T^{-1}\right) ^{t} \end{array} \right) \left( \begin{array}{cc} 0_{2} & B \\ B^{t} & A \end{array} \right) \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & T^{-1} \end{array} \right) =\left( \begin{array}{ccc} I_{2} & 0_{2} & 0_{2\times 1} \\ \ast _{2\times 2} & I_{2} & \ast _{2\times 1} \\ \ast _{1\times 2} & 0_{1\times 2} & r \end{array} \right) \left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & 0_{2} & 0_{2\times 1} \\ 0_{1\times 2} & 0_{1\times 2} & 1 \end{array} \right) . \end{equation*} Tomando determinantes obtenemos \begin{equation*} \left\vert \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & \left( T^{-1}\right) ^{t} \end{array} \right) \left( \begin{array}{cc} 0_{2} & B \\ B^{t} & A \end{array} \right) \left( \begin{array}{cc} I_{2} & 0_{2\times 3} \\ 0_{3\times 2} & T^{-1} \end{array} \right) \right\vert =\left\vert \left( \begin{array}{ccc} I_{2} & 0_{2} & 0_{2\times 1} \\ \ast _{2\times 2} & I_{2} & \ast _{2\times 1} \\ \ast _{1\times 2} & 0_{1\times 2} & r \end{array} \right) \left( \begin{array}{ccc} 0_{2} & I_{2} & 0_{2\times 1} \\ I_{2} & 0_{2} & 0_{2\times 1} \\ 0_{1\times 2} & 0_{1\times 2} & 1 \end{array} \right) \right\vert . \end{equation*} Por los lemas Lema 1 y Lema 2 obtenemos \begin{equation*} \left\vert \left( T^{-1}\right) ^{t}\right\vert \left\vert H\right\vert \left\vert T^{-1}\right\vert =\left\vert T^{-1}\right\vert ^{2}\left\vert H\right\vert =r\cdot 1=r \end{equation*} por lo que \begin{eqnarray*} r & > & 0\Longleftrightarrow \left\vert H\right\vert >0 \\ r & < & 0\Longleftrightarrow \left\vert H\right\vert <0. \end{eqnarray*}
Por consiguiente,
Para usarlo al final de la prueba del Teorema 4 recordamos que si \(\overline{a},\overline{b}\) y \(\overline{c}\) son tres vectores en \( \mathbb{R}^{3}\) linealmente dependientes y \(\overline{a},\overline{b}\) son linealmente independientes entonces \(\overline{c}\) es combinación lineal de \(\overline{a}\) y \(\overline{b}.\)
Teorema 4. Teorema de Lagrange en tres variables con 2 restricciones
Sean \(f,g_{1},g_{2}:U\subset \mathbb{R}^{3}\longrightarrow \mathbb{R},\) con \(U\) abierto, tres funciones suaves, al menos de clase \( C^{2},\) \(c_{1}\), \(c_{2}\in \mathbb{R}\) y \begin{equation*} S=\left\{ \overline{x}\in U\,\left\vert \,h\left( \overline{x}\right) =\left( 0,0\right) \right. \right\} \end{equation*} donde la función \(h:U\subset \mathbb{R}^{3}\longrightarrow \mathbb{R} ^{2} \) está definida como \begin{equation*} h\left( \overline{x}\right) =\left( h_{1}\left( \overline{x}\right) ,h_{2}\left( \overline{x}\right) \right) =\left( g_{1}\left( \overline{x} \right) -c_{1},g_{2}\left( \overline{x}\right) -c_{2}\right) . \end{equation*} Supongamos que
Demostración:
Hagamos \begin{equation*} A\left( \overline{v}_{0}\right) =\left( \begin{array}{cc} \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) \\ & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{2}}{\partial y}\left( \overline{v}_{0}\right) \end{array} \right) \end{equation*} Entonces \begin{equation*} \left\vert A\left( \overline{v}_{0}\right) \right\vert \neq 0. \end{equation*} Por el Teorema de la función implícita se sigue que existe un intervalo abierto \(I\) en \(\mathbb{R}\) con centro en \(z_{0}\) y una única función \(\varphi =\left( \varphi _{1},\varphi _{2}\right) :I\longrightarrow \mathbb{R}^{2}\) de clase \(C^{1}\) tal que
Por tanto, \begin{equation*} \left\Vert \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) -\left( x_{0},y_{0},z_{0}\right) \right\Vert _{3}\leq \left\Vert \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) \right) -\left( \varphi _{1}\left( z_{0}\right) ,\varphi _{2}\left( z_{0}\right) \right) \right\Vert _{2}+\left\vert z-z_{0}\right\vert < r \quad \text{ si } \quad z\in I_{0}. \end{equation*}
O sea, \begin{equation*} \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) \in B_{r}\left( \overline{v}_{0}\right) \subset U \quad \text{ si } \quad z\in I_{0} \end{equation*} y por el inciso 3: \begin{equation*} h\left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) =\left( 0,0\right) \quad \text{ si } \quad z\in I_{0}. \end{equation*} Así, \begin{eqnarray*} \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) &\in & B_{r}\left( \overline{v}_{0}\right) \cap S \quad \text{ si } \quad z\in I_{0}, \\ \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) &\neq &\overline{v}_{0}\text{ si }z\in I_{0} \quad \text{ y } \quad z\neq z_{0}. \end{eqnarray*} Por consiguiente se satisface (a).
\begin{equation*} \left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) \in B_{r_{1}}\left( \overline{v}_{0}\right) \cap S \quad \text{ si } \quad z\in I_{1} \end{equation*} En particular, \begin{equation} h\left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) =\left( 0,0\right) \quad \text{ si } \quad z\in I_{1}. \label{hfi}\tag{8} \end{equation} Por (\ref{b}) se satisface \begin{equation*} F\left( z\right) =f\left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) \geq f\left( \varphi _{1}\left( z_{0}\right) ,\varphi _{2}\left( z_{0}\right) ,z_{0}\right) =F\left( z_{0}\right) \end{equation*} para todo \(z\in I_{1}.\)
Es decir, \(F\) es una función real de variable real que es derivable en \( I_{1}\) y tiene un mínimo relativo en \(z_{0}\). Por tanto, \begin{equation*} F\,^{\prime }\left( z_{0}\right) =0. \end{equation*} O sea, \begin{equation} F\,^{\prime }\left( z_{0}\right) =\varphi _{1}^{\prime }\left( z_{0}\right) \dfrac{\partial f}{\partial x}\left( \overline{v}_{0}\right) +\varphi _{2}^{\prime }\left( z_{0}\right) \dfrac{\partial f}{\partial y}\left( \overline{v}_{0}\right) +\dfrac{\partial f}{\partial z}\left( \overline{v} _{0}\right) =0. \label{DerF}\tag{9} \end{equation} (Si en \(\overline{v}_{0}\) hay un máximo relativo de \(f\), se llega a esta misma igualdad).
Definimos la función \(\Phi :I_{1}\longrightarrow \mathbb{R}^{2}\) como \begin{equation*} \Phi \left( z\right) =h\left( \varphi _{1}\left( z\right) ,\varphi _{2}\left( z\right) ,z\right) . \end{equation*} Por (\ref{hfi}), \(\Phi \) es la función nula y así lo es su derivada \(D\Phi \). Por la regla de la cadena, tenemos \begin{equation} D\Phi \left( \overline{v}_{0}\right) =\left( \begin{array}{ccc} \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial h_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v_{0}}\right) & \dfrac{ \partial h_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial h_{2}}{\partial z}\left( \overline{v}_{0}\right) \end{array} \right) \left( \begin{array}{c} \varphi _{1}^{\prime }\left( z_{0}\right) \\ \\ \varphi _{2}^{\prime }\left( z_{0}\right) \\ \\ 1 \end{array} \right) =\left( \begin{array}{c} 0 \\ \\ 0 \end{array} \right) . \label{DerH}\tag{10} \end{equation} Y por (\ref{DerF}) y (\ref{DerH}), tenemos \begin{equation*} \left( \begin{array}{ccc} \dfrac{\partial f}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial f}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial f}{ \partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial h_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v_{0}}\right) & \dfrac{ \partial h_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial h_{2}}{\partial z}\left( \overline{v}_{0}\right) \end{array} \right) \left( \begin{array}{c} \varphi _{1}^{\prime }\left( z_{0}\right) \\ \\ \varphi _{2}^{\prime }\left( z_{0}\right) \\ \\ 1 \end{array} \right) =\left( \begin{array}{c} 0 \\ \\ 0 \\ \\ 0 \end{array} \right) . \end{equation*} Por tanto, la \(3\times 3\) matriz \begin{equation*} \left( \begin{array}{ccc} \dfrac{\partial f}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial f}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial f}{ \partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial h_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v_{0}}\right) & \dfrac{ \partial h_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial h_{2}}{\partial z}\left( \overline{v}_{0}\right) \end{array} \right) \end{equation*} no es invertible, ya que si lo fuera \(\left( \begin{array}{c} \varphi _{1}^{\prime }\left( z_{0}\right) \\ \\ \varphi _{2}^{\prime }\left( z_{0}\right) \\ \\ 1 \end{array} \right) \) sería igual a la \(3\times 1\) matriz nula.
Entonces su determinante es \(0\) y su rango es menor que \(3.\) Como sus dos últimos renglones son linealmente independientes por hipótesis, entonces el primer renglón es una combinación lineal de aquellos, es decir existen dos únicos números reales \(\lambda \) y \(\mu \) tales que \begin{equation*} \nabla f\left( \overline{v_{0}}\right) =\lambda \nabla h_{1}\left( \overline{ v}_{0}\right) +\mu \nabla h_{2}\left( \overline{v}_{0}\right) =\lambda \nabla g_{1}\left( \overline{v}_{0}\right) +\mu \nabla g_{2}\left( \overline{ v}_{0}\right) . \end{equation*}
Lema 5
Sean \(\overline{v}_{0}\in \mathbb{R}^{3}\), \(B_{r}\left( \overline{v}_{0}\right) \) una bola abierta en \(\mathbb{R}^{3}\) con centro en \(\overline{v}_{0}\) y radio \(r.\) Supongamos que \(\alpha _{ij}:B_{r}\left( \overline{v}_{0}\right) \longrightarrow \mathbb{R}\), con \(1\leq i\leq 2\) y \( 1\leq j\leq 3\) son funciones continuas en \(\overline{v}_{0}\), y la matriz \(J=\left( \alpha _{ij}\left( \overline{v}_{0}\right) \right) \) tiene rango 2. Existe \(0 < r_{1} < r\) tal que la matriz
\begin{equation*} J\left( \overline{x}_{1},\overline{x}_{2}\right) =\left( \begin{array}{ccc} \alpha _{11}\left( \overline{x}_{1}\right) & \alpha _{12}\left( \overline{x} _{1}\right) & \alpha _{13}\left( \overline{x}_{1}\right) \\ \alpha _{21}\left( \overline{x}_{2}\right) & \alpha _{22}\left( \overline{x} _{2}\right) & \alpha _{23}\left( \overline{x}_{2}\right) \end{array} \right) \end{equation*} tiene rango 2 si \(\left\Vert \overline{x}_{i}-\overline{v}_{0}\right\Vert < r_{1}\) para \(1\leq i\leq 2.\)
Demostración:
\begin{equation*} \left( \begin{array}{cc} \alpha _{11}\left( \overline{x}_{1}\right) & \alpha _{12}\left( \overline{x} _{1}\right) \\ \alpha _{21}\left( \overline{x}_{2}\right) & \alpha _{22}\left( \overline{x} _{2}\right) \end{array} \right) \end{equation*} son linealmente independientes y el rango de \(J\left( \overline{x}_{1}, \overline{x}_{2}\right) \) es al menos 2. Como no puede ser mayor, entonces es 2.
Lema 6
Supongamos que la \(2\times 3\) matriz real \begin{equation*} J=\left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{array} \right) \end{equation*} tiene rango 2. Entonces existe un vector unitario \(\overline{u}=\left( x,y,z\right) \in \mathbb{R}^{3}\) que satisface la ecuación \begin{equation*} \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{array} \right) \left( \begin{array}{c} x \\ y \\ z \end{array} \right) =\left( \begin{array}{c} 0 \\ 0 \end{array} \right) \end{equation*} y cualquier otra solución unitaria de ésta es \(\overline{u}\) o \(-\overline{u}.\)Demostración:
Lema 7
Sean \(\overline{v}_{0}\in \mathbb{R}^{3}\) y \( B_{r_{1}}\left( \overline{v}_{0}\right) \) una bola abierta en \(\mathbb{R} ^{3} \) con centro en \(\overline{v}_{0}\) y radio \(r_{1}.\) Supongamos que \( \alpha _{mn}:B_{r_{1}}\left( \overline{v}_{0}\right) \longrightarrow \mathbb{ R}\), con \(1\leq m\leq 2\) y \(1\leq n\leq 3\) son funciones continuas en \( \overline{v}_{0}\) y que la matriz \begin{equation*} J\left( \overline{X}\right) =\left( \begin{array}{ccc} \alpha _{11}\left( \overline{x}_{1}\right) & \alpha _{12}\left( \overline{x} _{1}\right) & \alpha _{13}\left( \overline{x}_{1}\right) \\ \alpha _{21}\left( \overline{x}_{2}\right) & \alpha _{22}\left( \overline{x} _{2}\right) & \alpha _{23}\left( \overline{x}_{2}\right) \end{array} \right) \end{equation*} tiene rango 2 si \(\overline{X}=\left( \overline{x}_{1},\overline{x} _{2}\right) \in B_{r_{1}}\left( \overline{v}_{0}\right) \times B_{r_{1}}\left( \overline{v}_{0}\right) \). A cada \(\overline{X}\in B_{r_{1}}\left( \overline{v}_{0}\right) \times B_{r_{1}}\left( \overline{v}_{0}\right) \) le asociamos un vector unitario \( \overline{u}_{\overline{X}}\) en \(\mathbb{R}^{3}\) que satisface el Lema 6 con \(J=J\left( \overline{X}\right) .\) O sea \(J\left( \overline{X}\right) \overline{u}_{\overline{X}}=(0,0).\) Sea \(\overline{V}_{0}=\left( \overline{v}_{0},\overline{v}_{0}\right) .\) Si \( \left( \overline{X}_{i}\right) \) es una sucesión en \(B_{r_{1}}\left( \overline{v}_{0}\right) \times B_{r_{1}}\left( \overline{v}_{0}\right) \) que converge a \(\overline{V}_{0}\), entonces hay una subsucesión de \(\left( \overline{u}_{\overline{X}_{i}}\right) \) que converge a \(u_{\overline{V} _{0}} \), o bien, a \(-\overline{u}_{\overline{V}_{0}}.\)
Demostración:
Por el Lema 6 , \(\overline{u}=\overline{u}_{\overline{V} _{0}}\) o bien \(\overline{u}=-\overline{u}_{\overline{V}_{0}}\).
Ejercicio 8
Una sucesión en \(\mathbb{R}^{n}\) converge a un vector \( \overline{u}\) si cualquiera de sus subsucesiones tiene una subsucesión que converge a \(\overline{u}.\)Teorema 9
Sean \(f,g_{1},g_{2}:U\subset \mathbb{R}
^{3}\longrightarrow \mathbb{R},\) con \(U\) abierto, tres funciones suaves, al
menos de clase \(C^{2},\) \(c_{1}\), \(c_{2}\in \mathbb{R}\) y
\begin{equation*}
S=\left\{ \left. \overline{x}\in U\,\right\vert \,g_{1}\left( \overline{x}
\right) =c_{1} \quad \text{ y } \quad g_{2}\left( \overline{x}\right)
=c_{2}\right\} =\left\{ \left. \overline{x}\in U\,\right\vert \,h\left(
\overline{x}\right) =\left( 0,0\right) \right\}
\end{equation*}
donde la función \(h:U\subset \mathbb{R}^{3}\longrightarrow \mathbb{R}
^{2} \) está definida como
\begin{equation*}
h\left( \overline{x}\right) =\left( h_{1}\left( \overline{x}\right)
,h_{2}\left( \overline{x}\right) \right) =\left( g_{1}\left( \overline{x}
\right) -c_{1},g_{2}\left( \overline{x}\right) -c_{2}\right) .
\end{equation*}
Supongamos que
\begin{equation*}
Dh\left( \overline{v}_{0}\right) =\left(
\begin{array}{ccc}
\dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{
\partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial
h_{1}}{\partial z}\left( \overline{v}_{0}\right) \\
& & \\
\dfrac{\partial h_{2}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{
\partial h_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial
h_{2}}{\partial z}\left( \overline{v}_{0}\right)
\end{array}
\right)
\end{equation*}
tiene rango \(2\).
Si en (\ref{desq1}) se tiene la desigualdad \(Q\left( \overline{v}_{0},
\overline{x}\right) < 0,\) entonces \(f\,|_{S}\) tiene un máximo relativo
estricto en \(\overline{v}_{0}.\)
Demostración:
La función \(h=\left( h_{1},h_{2}\right) =\left( g_{1}-c_{1},g_{2}-c_{2}\right) \) es de clase \(C^{2}\) en \(U\) por serlo \(g_{1}\) y \(g_{2}.\) Como \(f\) también es de clase \(C^{2}\) entonces, lo mismo sucede para \begin{equation} \Phi \left( \overline{x}\right) =f\left( \overline{x}\right) -\lambda h_{1}\left( \overline{x}\right) -\mu h_{2}\left( \overline{x}\right) . \label{defFI}\tag{12} \end{equation} Por el Teorema de Taylor de orden 1 aplicado a \(\Phi \), existe \(r>0\) tal que \( \left\Vert \overline{x}\right\Vert < r\) implica \(\overline{v}_{0}+\overline{x} \in U\) y se cumple
\begin{equation} \Phi \left( \overline{v}_{0}+\overline{x}\right) =\Phi \left( \overline{v} _{0}\right) +x\dfrac{\partial \Phi }{\partial x}\left( \overline{v} _{0}\right) +y\dfrac{\partial \Phi }{\partial y}\left( \overline{v} _{0}\right) +z\dfrac{\partial \Phi }{\partial z}\left( \overline{v} _{0}\right) +\frac{1}{2}Q\left( \overline{v}_{0},\overline{x}\right) +R_{2}\left( \overline{v}_{0},\overline{x}\right) \label{Deffbis}\tag{13} \end{equation} si \(\overline{x}=\left( x,y,z\right) \) y \(\left\Vert \overline{x}\right\Vert < r\) y
\begin{equation*} \lim\limits_{\overline{x}\rightarrow \overline{0}}\dfrac{\left\vert R_{2}\left( \overline{v}_{0},\overline{x}\right) \right\vert }{\left\Vert \overline{x}\right\Vert ^{2}}=0. \end{equation*} Se sigue del apartado (a) del Teorema 4 que \( S=\left\{ \left. \overline{x}\in U\,\right\vert \,h\left( \overline{x} \right) =\left( 0,0\right) \right\} \) tiene puntos de la forma \(\overline{v} _{0}+\overline{x}\ \) con \(0 < \left\Vert \overline{x}\right\Vert < r\) y por la definición de \(\Phi \) (\ref{defFI})
\begin{equation} \Phi \left( \overline{v}_{0}+\overline{x}\right) =f\left( \overline{v}_{0}+ \overline{x}\right) \quad \quad \text{ si } 0 < \left\Vert \overline{x} \right\Vert < r \quad \text{ y } \quad \overline{x}\in S. \label{fi=f}\tag{14} \end{equation}
Por (i), \(h\left( \overline{v}_{0}\right) =\left( h_{1}\left( \overline{v} _{0}\right) ,h_{2}\left( \overline{v}_{0}\right) \right) =\left( 0,0\right) \) y entonces \begin{equation} \Phi \left( \overline{v}_{0}\right) =f\left( \overline{v}_{0}\right) -\lambda h_{1}\left( \overline{v}_{0}\right) -\mu h_{2}\left( \overline{v} _{0}\right) =f\left( \overline{v}_{0}\right) \label{fi=f0}\tag{15} \end{equation} y por (iii) \(\nabla f\left( \overline{v_{0}}\right) -\lambda \nabla h_{1}\left( \overline{v_{0}}\right) -\mu \nabla h_{2}\left( \overline{v_{0}} \right) =\left( 0,0,0\right) ,\) es decir, \begin{equation} \nabla \Phi \left( \overline{v}_{0}\right) =\left( \dfrac{\partial \Phi }{ \partial x}\left( \overline{v}_{0}\right) ,\dfrac{\partial \Phi }{\partial y} \left( \overline{v}_{0}\right) ,\dfrac{\partial \Phi }{\partial z}\left( \overline{v}_{0}\right) \right) =\left( 0,0,0\right) . \label{Gradfi}\tag{16} \end{equation} Por las igualdades (\ref{fi=f}), (\ref{fi=f0}) y (\ref{Gradfi}), la igualdad (\ref{Deffbis}) se reduce a \begin{equation} f\left( \overline{v}_{0}+\overline{x}\right) =f\left( \overline{x}\right) + \frac{1}{2}Q\left( \overline{v}_{0},\overline{x}\right) +R_{2}\left( \overline{v}_{0},\overline{x}\right) \label{Tayred}\tag{17} \end{equation} si \(0 < \left\Vert \overline{x}\right\Vert < r\) y \(\overline{v}_{0}+\overline{x} \in S.\)
Por el Teorema del valor medio para funciones reales de varias variables, tenemos que dado \(0 < \left\Vert \overline{x}\right\Vert < r\), existen \( s_{x},t_{x}\in \left( 0,1\right) \) tales que
\begin{eqnarray*} h_{1}\left( \overline{v}_{0}+\overline{x}\right) -h_{1}\left( \overline{v} _{0}\right) &=&\nabla h_{1}\left( \overline{v}_{0}+s_{\overline{x}}\overline{ x}\right) \cdot \overline{x} \\ h_{2}\left( \overline{v}_{0}+\overline{x}\right) -h_{2}\left( \overline{v} _{0}\right) &=&\nabla h_{2}\left( \overline{v}_{0}+t_{\overline{x}}\overline{ x}\right) \cdot \overline{x}. \end{eqnarray*} Si \(\overline{v}_{0}+\overline{x}\in S\) tenemos que los lados izquierdos de las anteriores igualdades son cero, por tanto \begin{eqnarray} \nabla h_{1}\left( \overline{v}_{0}+s_{\overline{x}}\overline{x}\right) \cdot \overline{x} & = & 0 \label{vm}\tag{18} \\ \nabla h_{2}\left( \overline{v}_{0}+t_{\overline{x}}\overline{x}\right) \cdot \overline{x} & = & 0 \notag \end{eqnarray} si \(0 < \left\Vert \overline{x}\right\Vert < r\) y \(\overline{v}_{0}+\overline{x} \in S.\)
Hagamos \begin{equation*} J\left( \overline{x}\right) =\left( \begin{array}{c} \nabla h_{1}\left( \overline{v}_{0}+s_{\overline{x}}\overline{x}\right) \\ \\ \nabla h_{2}\left( \overline{v}_{0}+t_{\overline{x}}\overline{x}\right) \end{array} \right) =\left( \begin{array}{lllll} \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}+s_{\overline{x}} \overline{x}\right) & & \dfrac{\partial h_{1}}{\partial y}\left( \overline{v }_{0}+s_{\overline{x}}\overline{x}\right) & & \dfrac{\partial h_{1}}{ \partial z}\left( \overline{v}_{0}+s_{\overline{x}}\overline{x}\right) \\ & & & & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v}_{0}+t_{\overline{x}} \overline{x}\right) & & \dfrac{\partial h_{2}}{\partial y}\left( \overline{v }_{0}+t_{\overline{x}}\overline{x}\right) & & \dfrac{\partial h_{2}}{ \partial z}\left( \overline{v}_{0}+t_{\overline{x}}\overline{x}\right) \end{array} \right) . \end{equation*} Por (\ref{vm}), \begin{equation} J\left( \overline{x}\right) \overline{x}=\overline{0}\text{ si } 0 < \left\Vert \overline{x}\right\Vert < r \quad \text{ y } \quad \overline{v}_{0}+\overline{x} \in S. \label{igJx}\tag{19} \end{equation}
Sabemos por (ii), que el rango de \begin{equation} J\left( \overline{0}\right) =\left( \begin{array}{c} \nabla h_{1}\left( \overline{v}_{0}\right) \\ \\ \nabla h_{2}\left( \overline{v}_{0}\right) \end{array} \right) =Dh\left( \overline{v}_{0}\right) \label{JDh}\tag{20} \end{equation} es 2 y las parciales de \(h_{1}\) y \(h_{2}\) son continuas en \(\overline{v} _{0}. \) Por el Lema 5 , existe \(0 < r_{1} < r\) tal que la matriz
\begin{equation*} J\left( \overline{x}_{1},\overline{x}_{2}\right) =\left( \begin{array}{c} \nabla h_{1}\left( \overline{x}_{1}\right) \\ \\ \nabla h_{2}\left( \overline{x}_{2}\right) \end{array} \right) \end{equation*} tiene rango 2 si \(\left\Vert \overline{x}_{i}-\overline{v}_{0}\right\Vert < r_{1}\) para \(1\leq i\leq 2.\)
Si \(\left\Vert \overline{x}\right\Vert < r_{1},\overline{v}_{0}+\overline{x} \in S\) y \(s_{\overline{x}}\) y \(t_{\overline{x}}\) son como en (\ref{vm}), entonces
\begin{equation*} \left\Vert \overline{v}_{0}+s_{\overline{x}}\overline{x}-\overline{v} _{0}\right\Vert \leq \left\Vert \overline{x}\right\Vert \quad \text{ y } \quad \left\Vert \overline{v}_{0}+t_{\overline{x}}\overline{x}-\overline{v} _{0}\right\Vert \leq \left\Vert \overline{x}\right\Vert \end{equation*} y la matriz \begin{equation*} J\left( \overline{x}\right) =\left( \begin{array}{c} \nabla h_{1}\left( \overline{v}_{0}+s_{\overline{x}}\overline{x}\right) \\ \\ \nabla h_{2}\left( \overline{v}_{0}+t_{\overline{x}}\overline{x}\right) \end{array} \right) \end{equation*} tiene rango 2. Para cada \(\left\Vert \overline{x}\right\Vert < r_{1}\) y \(\overline{v}_{0}+ \overline{x}\in S\) existe un vector unitario \(\overline{u}_{\overline{ \overline{X}}}\) en \(\mathbb{R}^{3}\), con \(\overline{X}=\left( \overline{v} _{0}+s_{\overline{x}}\overline{x},\overline{v}_{0}+t_{\overline{x}}\overline{ x}\right) \), definido en el Lema 7, tal que
\begin{equation} J\left( \overline{x}\right) \left( \overline{u}_{\overline{X}}\right) =\left( 0,0\right) \text{ y }J\left( \overline{x}\right) \left( \overline{u} \right) =\left( 0,0\right) \Longrightarrow \overline{u}=\lambda _{\overline{u }}\overline{u}_{\overline{X}}\text{ para algún }\lambda _{\overline{u} }\in \mathbb{R}. \label{propux}\tag{21} \end{equation} Notemos que para \(\overline{x}=\overline{0}\), tenemos que \(\overline{X} =\left( \overline{v}_{0},\overline{v}_{0}\right) \) que denotaremos como \( \overline{V}_{0}.\) De esto y (\ref{JDh}), se sigue que para \(\overline{x}=\overline{0}\) (\ref {propux}) se escribe como \begin{equation} Dh\left( \overline{v}_{0}\right) \left( \overline{u}_{\overline{V} _{0}}\right) =\left( 0,0\right) \text{ y }Dh\left( \overline{v}_{0}\right) \left( \overline{u}\right) =\left( 0,0\right) \Longrightarrow \overline{u} =\lambda _{\overline{u}}\overline{u}_{\overline{V}_{0}} \text{ para algún } \lambda _{\overline{u}}\in \mathbb{R}. \label{Dh=0}\tag{22} \end{equation} Por (\ref{igJx}) y (\ref{propux}) \begin{equation} \overline{x}=\lambda _{\overline{u}_{\overline{X}}}\overline{u}_{\overline{X} }, \quad \text{ con } \left\vert \lambda _{\overline{u}_{x}}\right\vert =\left\Vert \overline{x}\right\Vert \label{norma}\tag{23} \end{equation} para algún \(\lambda _{\overline{u}_{\overline{X}}}\) si \(0 < \left\Vert \overline{x}\right\Vert < r\) y \(\overline{v}_{0}+\overline{x}\in S.\)
Afirmamos que la función \begin{equation*} K\left( \overline{x}\right) =\overline{u}_{\overline{X}}^{t}H\Phi \left( \overline{v}_{0}\right) \overline{u}_{\overline{X}} \end{equation*} definida para \(\left\Vert \overline{x}\right\Vert < r_{1}\) tal que \(\overline{v}_{0}+\overline{x}\in S\) es continua en \(\overline{x}=\overline{0}.\) O sea, si \(\left( \overline{x}_{n}\right) \) es una sucesión, con \(\left\Vert \overline{x}_{n}\right\Vert < r_{1}\) tal que \(\overline{v}_{0}+\overline{x} _{n}\in S\) para todo \(n\geq 1\), y que converge a \(\overline{0},\) entonces
\begin{equation*} K\left( \overline{x}_{n}\right) \longrightarrow K\left( \overline{0}\right) = \overline{u}_{\overline{V}_{0}}^{t}H\Phi \left( \overline{v}_{0}\right) \overline{u}_{\overline{V}_{0}} \end{equation*} recordemos que \(\overline{u}_{\overline{X}}=\overline{u}_{\overline{V}_{0}}\) si \(\overline{x}=\overline{0}.\)
Para verlo usaremos el Ejercicio 8 .
Hagamos \(\overline{X}_{n}=\left( \overline{v}_{0}+s_{\overline{x}_{n}} \overline{x}_{n},\overline{v}_{0}+t_{\overline{x}_{n}}\overline{x} _{n}\right) \) para cada \(n\) y sea \(\left( \overline{x}_{n_{k}}\right) \) una subsucesión de \(\left( \overline{x}_{n}\right) \).
La sucesión \begin{equation*} \left( \overline{X}_{n_{k}}\right) =\left( \overline{v}_{0}+s_{\overline{x} _{n_{k}}}\overline{x}_{n_{k}},\overline{v}_{0}+t_{\overline{x}_{n_{k}}} \overline{x}_{n_{k}}\right) \end{equation*} en \(B_{r_{1}}\left( \overline{v}_{0}\right) \times B_{r_{1}}\left( \overline{ v}_{0}\right) \) converge a \(\overline{V}_{0}=\left( \overline{v}_{0}, \overline{v}_{0}\right) .\)
Por el Lema 7, hay una subsucesión de \begin{equation*} \left( \overline{X}_{n_{k_{j}}}\right) =\left( \overline{v}_{0}+s_{\overline{ x}_{n_{k_{j}}}}\overline{x}_{n_{k_{j}}},\overline{v}_{0}+t_{\overline{x} _{n_{k_{j}}}}\overline{x}_{n_{k_{j}}}\right) =\left( \overline{u}_{\overline{ X}_{n_{k_{j}}}}\right) \end{equation*} de \(\left( \overline{X}_{n_{k}}\right) \) que converge a \(u_{\overline{V} _{0}} \), o bien, a \(-\overline{u}_{\overline{V}_{0}}.\) De donde, \begin{equation*} K\left( \overline{x}_{n_{k_{j}}}\right) \longrightarrow \overline{u}_{ \overline{V}_{0}}^{t}H\Phi \left( \overline{v}_{0}\right) \overline{u}_{ \overline{V}_{0}}=K\left( \overline{0}\right) \text{ o bien }K\left( \overline{x}_{n_{k_{j}}}\right) \longrightarrow -\overline{u}_{\overline{V} _{0}}^{t}H\Phi \left( \overline{v}_{0}\right) \left( -\overline{u}_{ \overline{V}_{0}}\right) . \end{equation*} En cualquier caso, \(K\left( \overline{x}_{n_{k_{j}}}\right) \longrightarrow K\left( \overline{0}\right) .\) Por el Ejercicio 8, \(K\left( \overline{x}_{n}\right) \longrightarrow K\left( \overline{0}\right) \) y queda probada la afirmación.
Por (\ref{norma}), tenemos la siguiente expresión para la función cuadrática asociada a la matriz hessiana \(H\Phi \left( \overline{v} _{0}\right) \) de \(\Phi \) en \(\overline{v}_{0}\) aplicada a \( \overline{x}\) con \(\left\Vert \overline{x}\right\Vert < r_{1}\) y \(\overline{v}_{0}+\overline{x}\in S\)
\begin{eqnarray*}
Q\left( \overline{v}_{0},\overline{x}\right) &=&\overline{x}^{t}H\Phi \left(
\overline{v}_{0}\right) \overline{x} \\
& & \\
&=&\lambda _{\overline{x}}\overline{u}_{\overline{X}}^{t}H\Phi \left(
\overline{v}_{0}\right) \lambda _{\overline{x}}\overline{u}_{\overline{X}} \\
& & \\
&=&\lambda _{\overline{x}}^{2}K\left( \overline{x}\right) =\left\Vert
\overline{x}\right\Vert ^{2}K\left( \overline{x}\right) .
\end{eqnarray*}
Como \(K\left( \overline{x}\right) \longrightarrow K\left( \overline{0}
\right) \) cuando \(\overline{x}\longrightarrow \overline{0}\) y por la
continuidad de \(K\) en \(\overline{0},\) tenemos
\begin{equation*}
K\left( \overline{x}\right) =K\left( \overline{0}\right) +R\left( \overline{x
}\right)
\end{equation*}
y
\begin{equation*}
R\left( \overline{x}\right) \longrightarrow 0 \quad \text{ cuando } \overline{x}
\longrightarrow \overline{0}.
\end{equation*}
De donde,
\begin{equation*}
Q\left( \overline{v}_{0},\overline{x}\right) =\left\Vert \overline{x}
\right\Vert ^{2}\left( K\left( \overline{0}\right) +R\left( \overline{x}
\right) \right) \text{, donde }R\left( \overline{x}\right) \longrightarrow
0 \quad \text{ cuando } \overline{x}\longrightarrow \overline{0}.
\end{equation*}
Sustituimos esta expresión para \(Q\left( \overline{v}_{0},\overline{x}
\right) \) en (\ref{Tayred}):
\begin{eqnarray}
f\left( \overline{v}_{0}+\overline{x}\right) &=&f\left( \overline{x}\right) +
\frac{1}{2}Q\left( \overline{v}_{0},\overline{x}\right) +R_{2}\left(
\overline{v}_{0},\overline{x}\right) \label{ffinal}\tag{24} \\
& & \notag \\
&=&f\left( \overline{x}\right) +\frac{1}{2}\left\Vert \overline{x}
\right\Vert ^{2}\left( K\left( \overline{0}\right) +R\left( \overline{x}
\right) \right) +R_{2}\left( \overline{v}_{0},\overline{x}\right) \notag \\
& & \notag \\
&=&f\left( \overline{x}\right) +\left( \frac{1}{2}K\left( \overline{0}
\right) +\frac{1}{2}R\left( \overline{x}\right) +\frac{R_{2}\left( \overline{
v}_{0},\overline{x}\right) }{\left\Vert \overline{x}\right\Vert ^{2}}\right)
\left\Vert \overline{x}\right\Vert ^{2} \notag
\end{eqnarray}
si \(0 < \left\Vert \overline{x}\right\Vert
\begin{equation*}
\frac{1}{2}K\left( \overline{0}\right) +\frac{1}{2}R\left( \overline{x}
\right) +\frac{R_{2}\left( \overline{v}_{0},\overline{x}\right) }{\left\Vert
\overline{x}\right\Vert ^{2}}>0
\end{equation*}
si \(0 <\left\Vert \overline{x}\right\Vert < \delta \) y \(\overline{x}\in S.\)
Por (\ref{ffinal})
\begin{equation}
f\left( \overline{v}_{0}+\overline{x}\right) -f\left( \overline{x}\right)
=\left( \frac{1}{2}K\left( \overline{0}\right) +\frac{1}{2}R\left( \overline{
x}\right) +\frac{R_{2}\left( \overline{v}_{0},\overline{x}\right) }{
\left\Vert \overline{x}\right\Vert ^{2}}\right) \left\Vert \overline{x}
\right\Vert ^{2}>0 \notag
\end{equation}
o sea, \(f\left( \overline{v}_{0}+\overline{x}\right) >f\left( \overline{x}
\right) \), si \(0 < \left\Vert \overline{x}\right\Vert < \delta \) y \(
\overline{x}\in S\) y queda probado que la función \(f\,|_{S}\) tiene un mínimo
relativo estricto en \(\overline{v}_{0}.\)
Si en (\ref{desq1}) se tiene la desigualdad \(Q\left( \overline{v}_{0},
\overline{x}\right) < 0\), entonces para la función \(-f\) cumple \(Q\left(
\overline{v}_{0},\overline{x}\right) > 0\). De donde, \(-f\) tiene un mínimo
relativo estricto en \(\overline{v}_{0}\) y, por consiguiente, \(f\) tiene
un máximo relativo estricto en \(\overline{v}_{0}.\)
Teorema 10. (Criterio del Hessiano limitado en tres variables)
Sean \(f,\) \(g_{1},\) \(g_{2}:U\subset \mathbb{R}^{3}\longrightarrow \mathbb{R
},\) con \(U\) abierto, tres funciones suaves, al menos de clase \(C^{2},\) \(
c_{1} \), \(c_{2}\in \mathbb{R}\) y
\begin{equation*}
S=\left\{ \left. \overline{x}\in U\,\right\vert \,g_{1}\left( \overline{x}
\right) =c_{1}\,\text{y }g_{2}\left( \overline{x}\right) =c_{2}\right\} .
\end{equation*}
Supongamos:
Para la función \(\varphi :U\subset \mathbb{R}^{3}\longrightarrow \mathbb{
R\,}\) definida como
\begin{equation*}
\varphi \left( \overline{x}\right) =f\left( \overline{x}\right) -\lambda
g_{1}\left( \overline{x}\right) -\mu g_{2}\left( \overline{x}\right)
\end{equation*}
consideramos su determinante hessiano limitado
\begin{equation*}
\left\vert \overline{L}\left( \overline{v}_{0}\right) \right\vert
=\left\vert
\begin{array}{ccccc}
0 & 0 & \dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) &
\dfrac{\partial g_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{
\partial g_{1}}{\partial z}\left( \overline{v}_{0}\right) \\
& & & & \\
0 & 0 & \dfrac{\partial g_{2}}{\partial x}\left( \overline{v}_{0}\right) &
\dfrac{\partial g_{2}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{
\partial g_{2}}{\partial z}\left( \overline{v}_{0}\right) \\
& & & & \\
\dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{
\partial g_{2}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{\partial
^{2}\varphi }{\partial x^{2}}\left( \overline{v}_{0}\right) & \dfrac{
\partial ^{2}\varphi }{\partial y\partial x}\left( \overline{v}_{0}\right) &
\dfrac{\partial ^{2}\varphi }{\partial z\partial x}\left( \overline{v}
_{0}\right) \\
& & & & \\
\dfrac{\partial g_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{
\partial g_{2}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial
^{2}\varphi }{\partial x\partial y}\left( \overline{v}_{0}\right) & \dfrac{
\partial ^{2}\varphi }{\partial y^{2}}\left( \overline{v}_{0}\right) &
\dfrac{\partial ^{2}\varphi }{\partial z\partial y}\left( \overline{v}
_{0}\right) \\
& & & & \\
\dfrac{\partial g_{1}}{\partial z}\left( \overline{v}_{0}\right) & \dfrac{
\partial g_{2}}{\partial z}\left( \overline{v}_{0}\right) & \dfrac{\partial
^{2}\varphi }{\partial x\partial z}\left( \overline{v}_{0}\right) & \dfrac{
\partial ^{2}\varphi }{\partial y\partial z}\left( \overline{v}_{0}\right) &
\dfrac{\partial ^{2}\varphi }{\partial z^{2}}\left( \overline{v}_{0}\right)
\end{array}
\right\vert
\end{equation*}
Entonces
Demostración:
(i) \(h\left( \overline{v}_{0}\right) =\left( 0,0\right) \), es decir, \( \overline{v}_{0}\in S.\) (ii) La \(2\times 3\) matriz \begin{eqnarray*} Dh\left( \overline{v}_{0}\right) & = &\left( \begin{array}{ccc} \dfrac{\partial h_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial h_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial h_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial h_{2}}{\partial x}\left( \overline{v_{0}}\right) & \dfrac{ \partial h_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial h_{2}}{\partial z}\left( \overline{v}_{0}\right) \end{array} \right) \\ & & \\ & = &\left( \begin{array}{ccc} \dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial g_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial g_{2}}{\partial x}\left( \overline{v_{0}}\right) & \dfrac{ \partial g_{2}}{\partial y}\left( \overline{v_{0}}\right) & \dfrac{\partial g_{2}}{\partial z}\left( \overline{v}_{0}\right) \end{array} \right) = Dg\left( \overline{v}_{0}\right) \end{eqnarray*} tiene rango \(2\). (iii) Existen números reales \(\lambda \) y \(\mu \) tales que \begin{equation*} \nabla f\left( \overline{v_{0}}\right) =\lambda \nabla g_{1}\left( \overline{ v_{0}}\right) +\mu \nabla g_{2}\left( \overline{v_{0}}\right) =\lambda \nabla h_{1}\left( \overline{v_{0}}\right) +\mu \nabla h_{2}\left( \overline{ v_{0}}\right) . \end{equation*} Es decir, se cumplen las hipótesis (i) a (iii) del Teorema 3 .
A continuación veremos que también se cumple la hipótesis (iv) del Teorema 3
Para la función \(\Phi :U\subset \mathbb{R}^{3}\longrightarrow \mathbb{R\, }\) definida como \begin{equation*} \Phi \left( \overline{x}\right) =f\left( \overline{x}\right) -\lambda h_{1}\left( \overline{x}\right) -\mu h_{2}\left( \overline{x}\right) \end{equation*} se tiene que sus segundas derivadas parciales coinciden con las de \begin{equation*} \varphi \left( \overline{x}\right) =f\left( \overline{x}\right) -\lambda g_{1}\left( \overline{x}\right) -\mu g_{2}\left( \overline{x}\right) . \end{equation*} Entonces \begin{eqnarray*} H\Phi \left( \overline{v}_{0}\right) &=&\left( \begin{array}{ccc} \dfrac{\partial ^{2}\Phi }{\partial x^{2}}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial y\partial x}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial z\partial x}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial ^{2}\Phi }{\partial x\partial y}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial y^{2}}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial z\partial y}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial ^{2}\Phi }{\partial x\partial z}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial y\partial z}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\Phi }{\partial z^{2}}\left( \overline{v}_{0}\right) \end{array} \right) \\ & & \\ &=&\left( \begin{array}{ccc} \dfrac{\partial ^{2}\varphi }{\partial x^{2}}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial y\partial x}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z\partial x}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial ^{2}\varphi }{\partial x\partial y}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial y^{2}}\left( \overline{v }_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z\partial y}\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial ^{2}\varphi }{\partial x\partial z}\left( \overline{v} _{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial y\partial z}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z^{2}} \left( \overline{v}_{0}\right) \end{array} \right) =H\varphi \left( \overline{v}_{0}\right) . \end{eqnarray*} Por tanto, se cumple la hipótesis (iv) del Teorema 9 si se satisface lo siguiente:
(iv) \begin{eqnarray} Q\left( \overline{v}_{0},\overline{x}\right) & = & \left( \begin{array}{ccc} x & y & z \end{array} \right) H\varphi \left( \overline{v}_{0}\right) \left( \begin{array}{c} x \\ y \\ z \end{array} \right) > 0 \text{ si } \left( x,y,z\right) \neq \overline{0} \label{desq}\tag{26} \\ \end{eqnarray} y \begin{eqnarray} Dh\left( \overline{v}_{0}\right) & = &\left( \begin{array}{ccc} \dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{1}}{\partial y}\text{ }\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{1}}{\partial z}\text{ }\left( \overline{v}_{0}\right) \\ & & \\ \dfrac{\partial g_{2}}{\partial x}\text{ }\left( \overline{v}_{0}\right) & \dfrac{\partial g_{2}}{\partial y}\text{ }\left( \overline{v}_{0}\right) & \dfrac{\partial g_{2}}{\partial z}\text{ }\left( \overline{v}_{0}\right) \end{array} \right) \left( \begin{array}{c} x \\ y \\ z \end{array} \right) =\left( 0,0\right) . \notag \end{eqnarray} Por el Teorema 3 aplicado a las matrices \(A = H\varphi \left( \overline{v}_{0}\right) \) y \(B=Dg\left( \overline{v}_{0}\right) \), la condición (iv) es equivalente a que \begin{equation*} \left\vert \overline{L}\left( \overline{v}_{0}\right) \right\vert =\left\vert \begin{array}{ccccc} 0 & 0 & \dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{\partial g_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{1}}{\partial z}\left( \overline{v}_{0}\right) \\ & & & & \\ 0 & 0 & \dfrac{\partial g_{2}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{\partial g_{2}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{2}}{\partial z}\left( \overline{v}_{0}\right) \\ & & & & \\ \dfrac{\partial g_{1}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{2}}{\partial x}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial x^{2}}\left( \overline{v}_{0}\right) & \dfrac{ \partial ^{2}\varphi }{\partial y\partial x}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z\partial x}\left( \overline{v} _{0}\right) \\ & & & & \\ \dfrac{\partial g_{1}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{2}}{\partial y}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial x\partial y}\left( \overline{v}_{0}\right) & \dfrac{ \partial ^{2}\varphi }{\partial y^{2}}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z\partial y}\left( \overline{v} _{0}\right) \\ & & & & \\ \dfrac{\partial g_{1}}{\partial z}\left( \overline{v}_{0}\right) & \dfrac{ \partial g_{2}}{\partial z}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial x\partial z}\left( \overline{v}_{0}\right) & \dfrac{ \partial ^{2}\varphi }{\partial y\partial z}\left( \overline{v}_{0}\right) & \dfrac{\partial ^{2}\varphi }{\partial z^{2}}\left( \overline{v}_{0}\right) \end{array} \right\vert < 0. \end{equation*}
Por tanto:
Referencias [1] Magnus, Jan R. y Neudecker, Heinz. \textit{Matrix differential calculus with applications in statistics and econometrics}. Wiley Series in Probability and Statistics. John Wiley \& Sons, Ltd., Chichester, 1999. 450 pp.