Invariancia y vectores Muchas leyes físicas tienen la propiedad llamada invariancia (que no varían) frente a transformaciones de coordenadas, concretamente presentan invariancia respecto a la traslación y a la rotación de los ejes coordenados. Por ejemplo, pensemos en una fuerza aplicada sobre un objeto de masa m = 1Kg tal que su magnitud es de 10N y su dirección forma un ángulo de 45 con el eje X, siendo su sentido positivo. Esa fuerza provocará una aceleración sobre el cuerpo, de magnitud dada por la ley de Newton a = F / m = 10N / 1Kg = 10 m/s² y dirección coincidente con la de la fuerza. Si nos preguntamos qué cambiará cuando movemos los ejes de coordenadas hacia la derecha, y los giramos 30 grados en sentido antihorario, la respuesta es que la aceleración será exactamente la misma pero el vector que la representa tendrá unas componentes distintas, relativas al nuevo eje de coordenadas. Fig. 1: La aceleración producida por la fuerza no depende de la traslación o rotación de...
Introducción a las derivadas de funciones de varias variables
Derivadas parciales
- Definición de derivada parcial
- Cálculo práctico de derivadas parciales
- Notaciones para las derivadas parciales
- Derivadas parciales de orden superior
- Derivadas cruzadas
- La diferencial total
- La diferencial aproxima la variación local de la función
- El vector gradiente
- La matriz jacobiana
- Plano tangente a una superficie
- La matriz Hessiana
Última actualización: julio 2018.
Definición de derivada parcial
Las funciones de varias variables y = f(x1, x2, ..., xn) pueden también derivarse; recordemos que la derivada de una función de una variable y=f(x) se define como el límite de un cociente:
f'(x) = lim h→0(f(x + h) - f(x)) / h.
Para el caso de funciones de n variables la definición formal es idéntica, pero ahora tenemos que cambiar los valores reales x por vectores x = (x1, x2, ..., xn) y el incremento h por el vector incremento h = (h1, h2, ..., hn), donde usamos la negrita para destacar que se trata de vectores. Entonces tomamos el límite sólo para uno de los valores i = 1, 2, ..., n , dando un valor no nulo del incremento sólo para ese valor. Por ejemplo, para el valor i=1 tomaremos h = (h,0,...,0) y la derivada respecto a la primera variable será
f'x(x) = lim h→0 (f(x + h) - f(x)) / h
= lim h→0 (f(x1 - h, x2, ..., xn ) - f(x1, x2, ..., xn )) / h
= lim h→0 (f(x1 - h, x2, ..., xn ) - f(x1, x2, ..., xn )) / h
o sea que las variables x2, ..., xn se suponen constantes y sólo derivamos para x1 que es la única variable que usamos en el límite. A esta derivada que sólo tiene en cuenta la variablexk del vector x se le llama derivada parcial de f(x) respecto de la variable xk.
Ejemplo
La función de dos variables f(x,y) = x² - y² tiene por derivada parcial respecto de la primera variable x:
Cálculo práctico de derivadas parciales
Notaciones para las derivadas parciales
Además de la notación f'xk (x1, x2, ..., xn) son muy comunes las notaciones Dkf (x1, x2, ..., xn), o bien Dkf (x) y también ∂f/∂xk , conocida por notación de Legendre o de Jacobi.
Derivadas parciales de orden superior
En las funciones de una variable, se puede obtener la derivada de la derivada f'(x) de una función f(x), obteniendo la segunda derivada f''(x). Idénticamente procedemos con las derivadas parciales, resultando las derivadas de segundo orden, y de órdenes superiores. Veamos ejemplos y notaciones.
Derivadas cruzadas
Las derivadas parciales de orden superior pueden ser derivadas cruzadas: la primera derivada la hacemos respecto a una de las variables, y la segunda derivada respecto a una variable diferente; en éste caso es mejor utilizar la notación Dkf (x) o la de Jacobi. Algunos ejemplos con estas notaciones:
El teorema de Schwartz afirma que si las derivadas parciales cruzadas son continuas entonces el orden en el que derivamos no importa:
La diferencial total
En una función de n variables la variación de su valor al pasar del vector x = (x1, x2, ..., xn) al vector x+h = (x1+h1, x2+h2, ..., xn+hn) es igual a la diferencia Δy = f (x1+h1, x2+h2, ..., xn+hn) - f(x1, x2, ..., xn).
Cuando el incremento h se hace más y más pequeño, al llegar al límite h → 0 nos volvemos a encontrar con un límite parecido al que hemos usado para definir la derivada parcial, pero esta vez el incremento se hace en todas las variables a la vez:
Al incremento infinitesimal df(x) se le llama diferencial total de f(x) o simplemente diferencial de f(x). Los símbolos dx1, ..., dxn, que leemos como "diferencial de x1", ..., representan los incrementos infinitesimales en cada valor de la variable independiente.
Así, la diferencial total nos permite calcular la variación de la función en un vector x tomando sus derivadas parciales ∂f / ∂x1 , ..., multiplicando cada derivada por la diferencial correspondiente y sumándolo todo.
Ejemplo: ¿Cuál es la expresión de la diferencial de la funciónf(x,y) = sin(x)·cos(y)?
La diferencial aproxima la variación local de la función
La diferencial nos permite evaluar la tasa de cambio de la función en un punto; por ejemplo para la función anterior tomada en el punto (x,y) = ( π ,π ) la diferencial vale df(x,y) = cos( π )·cos( π )·dx - sin(π)·sin(π)·dy = (-1)·(-1)·dx - 0·0·dy = dx.
Esto significa que partiendo del punto (x,y) = ( π ,π ) y para un pequeño incremento h, por ejemplo h = (0.1, 0.1), la variación de la función será aproximadamente df( π +0.1 ,π +0.1 ) = dx = 0.1 .
En efecto, si lo calculamos exactamente:
f( π , π ) = sin( π )·cos( π ) = 0·(-1) = 0
f( π +0.1 ,π +0.1 ) = sin( π +0.1 )·cos(π +0.1) = (-0.099)·(-0.995) = 0.0985
Este resultado redondeado a las décimas es 0.1 = dx.
El vector gradiente
Se llama vector gradiente de la función f(x) al que tiene por componentes a las derivadas parciales de la función:
De todo lo dicho anteriormente se desprende que el vector gradiente mide la variación local de la función; si sus valores son grandes entonces la función varía fuertemente, si son muy pequeños o cero, la función es constante. Éste último hecho puede aprovecharse para encontrar máximos y mínimos de funciones de n variables, resolviendo la ecuación
Ésta importante técnica la trataremos en otro post. Además, el vector gradiente tienen numerosas aplicaciones en la ciencia; por ejemplo, el campo eléctrico en un punto del espacio es un vector igual al gradiente de la función de potencial electrostático en ese punto (ésta igualdad es una de las ecuaciones de Maxwell).
Ejemplo: si el potencial electrostático alrededor de una carga eléctrica viene dado por P(x,y,z) = x² + y² + z², ¿cuál es el vector de campo eléctrico en el punto (1, 1, 1)?
La matriz jacobiana
La diferencial total df(x), vista como función del vector x, es una función lineal, independientemente de si f(x) es o no lineal; es lo mismo que ocurre en una variable real: para cualquier función f(x), la función derivada en un punto x0, que podemos representar por f'[x0](x), es una función lineal (recordemos que la derivada de una función en un punto se representa por un recta tangente a la función en ese punto).
El caso más general es una función vectorial de variable vectorial f(x) que asigna a cada vector x = (x1, x2, ..., xn) otro vector f(x) =(f1(x), f2(x), ..., fn(x)). Fijémonos en que la función vectorial se define (o "contiene") n funciones reales de variable vectorial. Ejemplo: para R² tenemos la función f(x) = (sen(x1)
·sen(x2), tan(x1)), que asigna al vector x=(0,π) el vector f(x) = (sen(0)·sen(π), tan(0)) = (0, 0).
La diferencial total de una función vectorial de variable vectorial f(x) calculada en un vector x0, es una función lineal de n variables en n variables, que podemos representar por f'[x0](x), o bien, usando álgebra lineal, por su matriz asociada, pues toda aplicación lineal de un espacio vectorial de n variables en otro de n variables puede representarse por una matriz de n filas y n columnas, ver por ejemplo el artículo aplicaciones lineales. Esta matriz que representa a la diferencial total en un punto, tomada como función lineal de n variables, se llama matriz jacobiana de la función f(x).
Por ejemplo, la matriz jacobiana de la función vectorial de variable vectorial f(x) = (f1(x), f2(x)) = (sen(x1)·sen(x2), tan(x1)) se deduce de su diferencial total, y está formada por las derivadas parciales de cada función componente:
Calculando las derivadas parciales obtenemos la matriz jacobiana:
Si ahora especificamos un punto fijo (en este caso, el punto es un vector de dos componentes) como por ejemplo x=(π/2,π/2), la matriz jacobiana en ese punto es:
Entonces, la aplicación lineal que tiene esa matriz como representante, es una aproximación lineal a la función original en el entorno del punto (π/2,π/2), pues es su diferencial total en ese punto. Gráficamente, la diferencial total será un plano para n = 2 variables, y un hiperplano para n mayor. Por ejemplo, si queremos aproximar el valor de la función f(x) en el punto x=(π/2+h,π/2+h) con h = 0.5, usamos la función diferencial total:
Plano tangente a una superficie
Sea una función de dos variables z = f(x,y); su representación en tres dimensiones será en general una superficie. Por ejemplo, para z = x² + y² la superficie es un paraboloide:
En cualquier punto P de la superficie del paraboloide podemos calcular la diferencial total de la función z = f(x,y), que hemos visto que puede interpretarse como una aplicación lineal, que en el caso de dos variables se representa como un plano que será tangente a la superficie: es el plano tangente a la superficie en un punto. Para obtener la ecuación del plano tangente calcularemos la diferencial total en el punto, que en el caso de dos variables coincide con el vector gradiente g=(df/dx, df/y), el cual nos indica la dirección de máxima pendiente de la superficie; puede demostrarse que el vector gradiente es perpendicular al plano tangente, por ello el gradiente nos da el vector normal a la superficie en un punto. Usando álgebra lineal llegaremos a la ecuación del plano tangente a f(x,y) en el punto P(px, py):
que puede deducirse fácilmente pensando en un punto Q(x,y,z) cualquiera del plano tangente, formando el vector PQ = Q - P que estará contenido en el plano tangente, y realizando el producto escalar por el vector gradiente, que al ser perpendicular al plano, resultará en un producto escalar igual a cero; el vector gradiente de una función de dos variables es un vector plano, mientras que el producto escalar anterior es en tres variables; para solventarlo, definimos la función de tres variables F(x, y, z) = f(x, y) - z que vale cero para todos los puntos P de la superficie z = f(x, y), y calculamos el gradiente de F en vez de f.
Ejemplo: Dado el punto (2, 2, 8) que está en la superficie z = x² + y² (compruébelo el lector), el vector gradiente de f es (2x, 2y) y en el punto dado vale (4, 4). Entonces la ecuación del plano tangente al paraboloide que pasa por (2, 2, 8) viene dada por:
NOTA: Wolfram Alpha puede obtener directamente esta ecuación, simplemente escribiendo "tangent plane z=x^2+y^2 at (2,2,8)".
La matriz Hessiana
Dada una función f(x,y) de dos variables, su matriz Hessiana es la formada por sus derivadas parciales de segundo orden, una matriz de 2 x 2 = 4 elementos:
Según el teorema de Schwartz de la igualdad de las derivadas cruzadas, esta matriz será una matriz simétrica.
Hessiana de f(x,y):
Más material de derivadas parciales:
Ejemplo
La función de dos variables f(x,y) = x² - y² tiene por derivada parcial respecto de la primera variable x:
f 1 '(x,y) = lim h→0(f(x - h,y) - f(x,y)) / h
= lim h→0(((x-h)² - y²) - (x² - y²)) / h
= lim h→0(x² + h² - 2xh - y² - x² + y²) / h
= lim h→0(h - 2x )
=2x.
Cálculo práctico de derivadas parciales
Para calcular derivadas parciales podemos usar las mismas reglas que para las derivadas ordinarias, pero teniendo en cuenta que sólo derivamos para una de las variables, siendo las demás consideradas como valores constantes.
Ejemplos de cálculo
- Si f(x,y) = sin(x)·cos(y), entonces f'x(x,y) = sin'(x)·cos(y) = cos(x)·cos(y), mientras que f'y(x,y) = sin(x)·cos'(y) = -sin(x)·sin(y). Observar que sólo derivamos respecto de una variable, mientras que la otra queda como una constante multiplicativa.
- Si f(x,y) = 2x² + x - y + y³, entonces f'x(x,y) = (2x² + x)' = 4x + 1, mientras que f'y(x,y) = ( - y + y³ )' = -1 + 3y². Observar que sólo se deriva la variable que aparece en la derivada parcial, mientras que la otra variable, al ser como una constante que se suma, su derivada vale cero.
- Si f(x,y) = x³y², entonces f'x(x,y) = (x³)'·y² = 3x²·y², mientras que f'y(x,y) = x³·(y²)' = x³·2y.
Notaciones para las derivadas parciales
Además de la notación f'xk (x1, x2, ..., xn) son muy comunes las notaciones Dkf (x1, x2, ..., xn), o bien Dkf (x) y también ∂f/∂xk , conocida por notación de Legendre o de Jacobi.
Derivadas parciales de orden superior
En las funciones de una variable, se puede obtener la derivada de la derivada f'(x) de una función f(x), obteniendo la segunda derivada f''(x). Idénticamente procedemos con las derivadas parciales, resultando las derivadas de segundo orden, y de órdenes superiores. Veamos ejemplos y notaciones.
- Si f(x,y) = sin(x)·cos(y) entonces f'' x(x,y) = sin''(x)·cos(y) = -sin(x)·cos(y)
- Si f(x,y) = 2x² + x - y + y³, entonces D²xf(x,y) = ( 2x² + x)'' = 4
- Si f(x,y) = x³y², entonces ∂²f(x,y)/∂x = (x³)''y² = 6xy²
- Si f(x,y) = x³y², entonces ∂³f(x,y)/∂x = (x³)'''y² = 6y²
Derivadas cruzadas
Las derivadas parciales de orden superior pueden ser derivadas cruzadas: la primera derivada la hacemos respecto a una de las variables, y la segunda derivada respecto a una variable diferente; en éste caso es mejor utilizar la notación Dkf (x) o la de Jacobi. Algunos ejemplos con estas notaciones:
- Si f(x,y) = sin(x)·cos(y) entonces Dxy(x,y) = Dx(D yf(x,y) ) = Dx( -sin(x)·sin(y) ) = -cos(x)·sin(y)
- Si f(x,y) = 2x² + x - y + y³, entonces ∂²f(x,y)/(∂x∂y) = ∂/∂y ( ∂f(x,y)/∂x) = ∂/∂y ( 4x + 1) = 0.
El teorema de Schwartz afirma que si las derivadas parciales cruzadas son continuas entonces el orden en el que derivamos no importa:
∂²f(x,y)/(∂x∂y) = ∂/∂y ( ∂f(x,y)/∂x) = ∂/∂x ( ∂f(x,y)/∂y) = ∂²f(x,y)/(∂y∂x)
La diferencial total
En una función de n variables la variación de su valor al pasar del vector x = (x1, x2, ..., xn) al vector x+h = (x1+h1, x2+h2, ..., xn+hn) es igual a la diferencia Δy = f (x1+h1, x2+h2, ..., xn+hn) - f(x1, x2, ..., xn).
Cuando el incremento h se hace más y más pequeño, al llegar al límite h → 0 nos volvemos a encontrar con un límite parecido al que hemos usado para definir la derivada parcial, pero esta vez el incremento se hace en todas las variables a la vez:
df(x) = lim h → 0 (f(x+h) - f(x)) = (∂f / ∂x1)·dx1 + ... + (∂f / ∂xn)·dxn
Al incremento infinitesimal df(x) se le llama diferencial total de f(x) o simplemente diferencial de f(x). Los símbolos dx1, ..., dxn, que leemos como "diferencial de x1", ..., representan los incrementos infinitesimales en cada valor de la variable independiente.
Así, la diferencial total nos permite calcular la variación de la función en un vector x tomando sus derivadas parciales ∂f / ∂x1 , ..., multiplicando cada derivada por la diferencial correspondiente y sumándolo todo.
Ejemplo: ¿Cuál es la expresión de la diferencial de la funciónf(x,y) = sin(x)·cos(y)?
- Obtenemos las derivadas parciales: ∂f/∂x = cos(x)·cos(y),∂f/∂y = -sin(x)·sin(y);
- Formamos la suma de diferenciales: df(x,y) = cos(x)·cos(y)·dx -sin(x)·sin(y)·dy.
La diferencial aproxima la variación local de la función
La diferencial nos permite evaluar la tasa de cambio de la función en un punto; por ejemplo para la función anterior tomada en el punto (x,y) = ( π ,π ) la diferencial vale df(x,y) = cos( π )·cos( π )·dx - sin(π)·sin(π)·dy = (-1)·(-1)·dx - 0·0·dy = dx.
Esto significa que partiendo del punto (x,y) = ( π ,π ) y para un pequeño incremento h, por ejemplo h = (0.1, 0.1), la variación de la función será aproximadamente df( π +0.1 ,π +0.1 ) = dx = 0.1 .
En efecto, si lo calculamos exactamente:
f( π , π ) = sin( π )·cos( π ) = 0·(-1) = 0
f( π +0.1 ,π +0.1 ) = sin( π +0.1 )·cos(π +0.1) = (-0.099)·(-0.995) = 0.0985
Este resultado redondeado a las décimas es 0.1 = dx.
El vector gradiente
Se llama vector gradiente de la función f(x) al que tiene por componentes a las derivadas parciales de la función:
Grad f(x)= ∇f(x) = [∂f / ∂x1, ... ∂f / ∂xn ]
De todo lo dicho anteriormente se desprende que el vector gradiente mide la variación local de la función; si sus valores son grandes entonces la función varía fuertemente, si son muy pequeños o cero, la función es constante. Éste último hecho puede aprovecharse para encontrar máximos y mínimos de funciones de n variables, resolviendo la ecuación
∇f(x) = 0
Ésta importante técnica la trataremos en otro post. Además, el vector gradiente tienen numerosas aplicaciones en la ciencia; por ejemplo, el campo eléctrico en un punto del espacio es un vector igual al gradiente de la función de potencial electrostático en ese punto (ésta igualdad es una de las ecuaciones de Maxwell).
Ejemplo: si el potencial electrostático alrededor de una carga eléctrica viene dado por P(x,y,z) = x² + y² + z², ¿cuál es el vector de campo eléctrico en el punto (1, 1, 1)?
- Obtenemos las derivadas parciales: ∂f/ ∂x = 2x; ∂f/∂y = 2y; f/ ∂ z = 2z.
- Calculamos sus valores en el punto (1, 1, 1): ∂ f/ ∂ x = 2; ∂ f/ ∂ y = 2; ∂ f/ ∂ z = 2.
- El vector gradiente es [2, 2, 2] , que proporciona el campo eléctrico en el punto (1, 1, 1).
La matriz jacobiana
La diferencial total df(x), vista como función del vector x, es una función lineal, independientemente de si f(x) es o no lineal; es lo mismo que ocurre en una variable real: para cualquier función f(x), la función derivada en un punto x0, que podemos representar por f'[x0](x), es una función lineal (recordemos que la derivada de una función en un punto se representa por un recta tangente a la función en ese punto).
El caso más general es una función vectorial de variable vectorial f(x) que asigna a cada vector x = (x1, x2, ..., xn) otro vector f(x) =(f1(x), f2(x), ..., fn(x)). Fijémonos en que la función vectorial se define (o "contiene") n funciones reales de variable vectorial. Ejemplo: para R² tenemos la función f(x) = (sen(x1)
·sen(x2), tan(x1)), que asigna al vector x=(0,π) el vector f(x) = (sen(0)·sen(π), tan(0)) = (0, 0).
La diferencial total de una función vectorial de variable vectorial f(x) calculada en un vector x0, es una función lineal de n variables en n variables, que podemos representar por f'[x0](x), o bien, usando álgebra lineal, por su matriz asociada, pues toda aplicación lineal de un espacio vectorial de n variables en otro de n variables puede representarse por una matriz de n filas y n columnas, ver por ejemplo el artículo aplicaciones lineales. Esta matriz que representa a la diferencial total en un punto, tomada como función lineal de n variables, se llama matriz jacobiana de la función f(x).
Por ejemplo, la matriz jacobiana de la función vectorial de variable vectorial f(x) = (f1(x), f2(x)) = (sen(x1)·sen(x2), tan(x1)) se deduce de su diferencial total, y está formada por las derivadas parciales de cada función componente:
Calculando las derivadas parciales obtenemos la matriz jacobiana:
Si ahora especificamos un punto fijo (en este caso, el punto es un vector de dos componentes) como por ejemplo x=(π/2,π/2), la matriz jacobiana en ese punto es:
Entonces, la aplicación lineal que tiene esa matriz como representante, es una aproximación lineal a la función original en el entorno del punto (π/2,π/2), pues es su diferencial total en ese punto. Gráficamente, la diferencial total será un plano para n = 2 variables, y un hiperplano para n mayor. Por ejemplo, si queremos aproximar el valor de la función f(x) en el punto x=(π/2+h,π/2+h) con h = 0.5, usamos la función diferencial total:
f(π/2+h,π/2+h) ≈ df[π/2,π/2] (π/2+h,π/2+h) =
Plano tangente a una superficie
Sea una función de dos variables z = f(x,y); su representación en tres dimensiones será en general una superficie. Por ejemplo, para z = x² + y² la superficie es un paraboloide:
Gráfico obtenido con Wolfram Alpha |
que puede deducirse fácilmente pensando en un punto Q(x,y,z) cualquiera del plano tangente, formando el vector PQ = Q - P que estará contenido en el plano tangente, y realizando el producto escalar por el vector gradiente, que al ser perpendicular al plano, resultará en un producto escalar igual a cero; el vector gradiente de una función de dos variables es un vector plano, mientras que el producto escalar anterior es en tres variables; para solventarlo, definimos la función de tres variables F(x, y, z) = f(x, y) - z que vale cero para todos los puntos P de la superficie z = f(x, y), y calculamos el gradiente de F en vez de f.
Ejemplo: Dado el punto (2, 2, 8) que está en la superficie z = x² + y² (compruébelo el lector), el vector gradiente de f es (2x, 2y) y en el punto dado vale (4, 4). Entonces la ecuación del plano tangente al paraboloide que pasa por (2, 2, 8) viene dada por:
NOTA: Wolfram Alpha puede obtener directamente esta ecuación, simplemente escribiendo "tangent plane z=x^2+y^2 at (2,2,8)".
La matriz Hessiana
Dada una función f(x,y) de dos variables, su matriz Hessiana es la formada por sus derivadas parciales de segundo orden, una matriz de 2 x 2 = 4 elementos:
Según el teorema de Schwartz de la igualdad de las derivadas cruzadas, esta matriz será una matriz simétrica.
En el caso de n variables tendremos una matriz simétrica de n x n = n² elementos:
Al ser simétrica, de los n² elementos que contiene sólo será necesario calcular los de la diagonal y la mitad de las derivadas cruzadas, un total de (n²+n)/2 derivadas.
La principal utilidad de la Hessiana está en la determinación de extremos relativos de funciones de n variables.
La principal utilidad de la Hessiana está en la determinación de extremos relativos de funciones de n variables.
Ejemplo: la Hessiana de la función f(x,y) = 2x² + x - y + y³ se encuentra calculando todas sus derivadas parciales de segundo orden,
- ∂f / ∂ x = 4x +1
- ∂f / ∂y = 3y²-1
- ∂²f / ∂x·∂y = 0 = ∂² f/ ∂y ∂x
- ∂²f / ∂x ² = 4
- ∂²f / ∂y² = 6y.
Hessiana de f(x,y):
Más material de derivadas parciales:
- Teoria, ejemplos y ejercicios propuestos
- Ejercicios resueltos
- Ejemplos resueltos de derivadas parciales con aplicaciones
- Vídeos que muestran la técnica de la derivación parcial
gracias por compartir esta información me va servir de mucho,una muy buena y sencilla explicación sobre las derivadas parciales
ResponderEliminarGracias a ti por tu comentario Daniel, es grato saber que el esfuerzo realizado ayuda a alguien.
EliminarMuchísimas gracias, :D esta página me ha ayudado muchísimo a comprender este tema
ResponderEliminar