Matriz diagonalizable

En álgebra lineal, una matriz cuadrada A {\displaystyle A} se dice que es diagonalizable si es semejante a una matriz diagonal. Es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A = P D P 1 {\displaystyle A=PDP^{-1}} donde P {\displaystyle P} es una matriz invertible cuyos vectores columna son vectores propios de A {\displaystyle A} y D {\displaystyle D} es una matriz diagonal formada por los valores propios de A {\displaystyle A} .

Si la matriz A {\displaystyle A} es semejante ortogonalmente a una matriz diagonal, es decir, si la matriz P es ortogonal se dice entonces que la matriz A es diagonalizable ortogonalmente, pudiendo escribirse como A = P D P t {\displaystyle A=PDP^{t}} . El teorema espectral garantiza que cualquier matriz cuadrada simétrica con coeficientes reales es ortogonalmente diagonalizable. En este caso P está formada por una base ortonormal de vectores propios de la matriz siendo los valores propios reales. La matriz P es por tanto ortogonal y los vectores filas de P 1 {\displaystyle P^{-1}} son los vectores columnas de P.

Definición

Sea A M n × n ( K ) {\displaystyle A\in M^{n\times n}(\mathbb {K} )} una matriz cuadrada con valores en un cuerpo K {\displaystyle \mathbb {K} } , se dice que la matriz A {\displaystyle A} es diagonalizable si y sólo si A {\displaystyle A} se puede descomponer de la forma:

A = P D P 1 {\displaystyle A=PDP^{-1}}

donde:

  • D {\displaystyle D} es una matriz diagonal cuya diagonal principal está formada por los elementos de σ ( A ) {\displaystyle \sigma (A)} , apareciendo cada uno tantas veces como indique su multiplicidad algebraica, siendo σ ( A ) {\displaystyle \sigma (A)} el espectro de A {\displaystyle A} , es decir, el conjunto de autovalores de la matriz A {\displaystyle A} :
σ ( A ) = { λ i K | A v = λ i v i = 1 , 2 , . . . , n } {\displaystyle \sigma (A)={\big \{}\lambda _{i}\in \mathbb {K} \;|Av=\lambda _{i}v\quad \forall \;i=1,2,...,n{\big \}}}
  • P {\displaystyle \mathbf {P} } es la matriz cuyas columnas son los vectores que constituyen una base del subespacio propio asociado a cada λ i {\displaystyle \lambda _{i}\,} siguiendo el orden establecido en D, esto es, los vectores que forman el núcleo de la matriz ( A λ i I ) {\displaystyle (A-\lambda _{i}I)} :
P = ( v 1 | v 2 | | v n ) , v j ker ( A λ i I n ) i , j = 1 , , n {\displaystyle P=(v_{1}|v_{2}|\cdots |v_{n}),\quad v_{j}\in \ker(A-\lambda _{i}I_{n})\quad \forall \;i,j=1,\dots ,n}

Endomorfismo diagonalizable

Un endomorfismo de espacio vectorial (aplicación lineal de un espacio vectorial en sí mismo) se dice diagonalizable por similitud (o simplemente diagonalizable) si existe una base en la que su matriz asociada sea una matriz diagonal. Sin embargo la diagonalización no está asegurada, es decir no es posible decir que todo endomorfismo sea diagonalizable. La importancia de la diagonalización nos motiva a obtener una base en la que la matriz asociada a un endomorfismo no diagonalizable sea más simple aunque no diagonal. Para ello se seguirán las mismas técnicas que para diagonalización, usando la teoría sobre autovalores y autovectores (también llamados valores y vectores propios o en inglés eigenvalues y eigenvectors). Recordemos que dado un operador lineal T : V V {\displaystyle T:V\rightarrow V} se dice que W subespacio de V es T-invariante si u W {\displaystyle \forall \;u\in W} se tiene que T ( u ) W {\displaystyle T(u)\in W}

Aplicaciones

Potencias de una matriz

Diagonalizar una matriz nos ayuda a calcular potencias de una matriz A {\displaystyle A} , si n N {\displaystyle n\in \mathbb {N} } entonces

A n = P D n P 1 {\displaystyle A^{n}=PD^{n}P^{-1}}

para ver la validez de este resultado, considere n = 2 {\displaystyle n=2} entonces

A 2 = P D P 1 P D P 1 = P D I 2 D P 1 = P D 2 P 1 {\displaystyle {\begin{aligned}A^{2}&=PDP^{-1}PDP^{-1}\\&=PDI_{2}DP^{-1}\\&=PD^{2}P^{-1}\end{aligned}}}

donde I 2 {\displaystyle I_{2}} denota la matriz identidad de tamaño 2 {\displaystyle 2} , de forma similar se puede demostrar que A n = P D n P 1 {\displaystyle A^{n}=PD^{n}P^{-1}} .

Como D {\displaystyle D} es una matriz diagonal entonces el cálculo de la n {\displaystyle n} -ésima potencia es muy sencillo pues si

D = ( a 1 0 0 0 a 2 0 0 0 a n ) {\displaystyle D={\begin{pmatrix}a_{1}&0&\dots &0\\0&a_{2}&\dots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &a_{n}\end{pmatrix}}}

entonces

D n = ( a 1 n 0 0 0 a 2 n 0 0 0 a n n ) {\displaystyle D^{n}={\begin{pmatrix}a_{1}^{n}&0&\dots &0\\0&a_{2}^{n}&\dots &0\\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &a_{n}^{n}\end{pmatrix}}}

Ejemplos

Diagonalización de una matriz

Una matriz es diagonalizable si es cuadrada y la multiplicidad (las veces que aparece el valor propio en el polinomio característico si es posible factorizarlo como producto de binomios lineales) de los valores propios es igual a la dimensión del espacio propio que definen. "Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la matriz:

A = ( 1 2 3 2 ) {\displaystyle A={\begin{pmatrix}1&2\\3&2\end{pmatrix}}}

entonces

p ( λ ) = det ( A λ I n ) = | 1 λ 2 3 2 λ | = ( 1 λ ) ( 2 λ ) 6 = λ 2 3 λ 4 {\displaystyle {\begin{aligned}p(\lambda )&=\det(A-\lambda I_{n})\\&={\begin{vmatrix}1-\lambda &2\\3&2-\lambda \end{vmatrix}}\\&=(1-\lambda )(2-\lambda )-6\\&=\lambda ^{2}-3\lambda -4\end{aligned}}}

Se aplica el teorema de Cayley-Hamilton:

p ( A ) = 0 A 2 3 A 4 I 2 = 0 A 2 = 3 A + 4 I 2 {\displaystyle p(A)=0\Longrightarrow A^{2}-3A-4I_{2}=0\Longrightarrow A^{2}=3A+4I_{2}}

Por ejemplo, vamos a calcular A 2 {\displaystyle A^{2}} para ver si se cumple:

( 1 2 3 2 ) 2 = 3 ( 1 2 3 2 ) + 4 ( 1 0 0 1 ) ( 7 6 9 10 ) = ( 7 6 9 10 ) {\displaystyle {\begin{pmatrix}1&2\\3&2\end{pmatrix}}^{2}=3{\begin{pmatrix}1&2\\3&2\end{pmatrix}}+4{\begin{pmatrix}1&0\\0&1\end{pmatrix}}\Longrightarrow {\begin{pmatrix}7&6\\9&10\end{pmatrix}}={\begin{pmatrix}7&6\\9&10\end{pmatrix}}}

y veamos que es diagonalizable:

  • Esta matriz tiene los valores propios: λ 1 = 1 , λ 2 = 4 {\displaystyle \lambda _{1}=-1,\quad \lambda _{2}=4}

λ 2 3 λ 4 = ( λ + 1 ) ( λ 4 ) = 0 λ 1 = 1 λ 2 = 4 {\displaystyle \lambda ^{2}-3\lambda -4=(\lambda +1)(\lambda -4)=0\Longrightarrow \lambda _{1}=-1\wedge \lambda _{2}=4}

  • Así A {\displaystyle A} es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es diagonizable. Si queremos diagonalizar A {\displaystyle A} necesitamos calcular los correspondientes vectores propios. Ellos son:
v 1 = [ 1 1 ] , v 2 = [ 2 3 ] {\displaystyle \mathbf {v} _{1}={\begin{bmatrix}1\\-1\end{bmatrix}},\qquad \mathbf {v} _{2}={\begin{bmatrix}2\\3\end{bmatrix}}}

Uno podría verificar fácilmente esto mediante:

A v k = λ k v k {\displaystyle \mathbf {Av} _{k}=\lambda _{k}\mathbf {v} _{k}}
( A λ 1 I 2 ) V 1 = 0 ( A λ 2 I 2 ) V 2 = 0 {\displaystyle (A-\lambda _{1}I_{2})V_{1}=0\wedge (A-\lambda _{2}I_{2})V_{2}=0}
  • Ahora, P {\displaystyle P} es la matriz invertible con los vectores propios de A {\displaystyle A} como columnas:
P = ( 1 2 1 3 ) {\displaystyle P={\begin{pmatrix}1&2\\-1&3\end{pmatrix}}} con inversa P 1 = ( 3 5 2 5 1 5 1 5 ) {\displaystyle P^{-1}={\begin{pmatrix}{\frac {3}{5}}&{\frac {-2}{5}}\\{\frac {1}{5}}&{\frac {1}{5}}\end{pmatrix}}}
  • Hallemos ahora la matriz diagonal, usando esta matriz P {\displaystyle P} como sigue:

A = P D P 1 P 1 A P = D {\displaystyle \mathbf {A} =\mathbf {PDP} ^{-1}\Leftrightarrow \mathbf {P} ^{-1}\mathbf {AP} =\mathbf {D} }

  • Realizamos el cálculo introduciendo los datos:
D = ( 3 5 2 5 1 5 1 5 ) ( 1 2 3 2 ) ( 1 2 1 3 ) = ( 3 5 2 5 4 5 4 5 ) ( 1 2 1 3 ) = ( 1 0 0 4 ) {\displaystyle D={\begin{pmatrix}{\frac {3}{5}}&{\frac {-2}{5}}\\{\frac {1}{5}}&{\frac {1}{5}}\end{pmatrix}}{\begin{pmatrix}1&2\\3&2\end{pmatrix}}{\begin{pmatrix}1&2\\-1&3\end{pmatrix}}={\begin{pmatrix}{\frac {-3}{5}}&{\frac {2}{5}}\\{\frac {4}{5}}&{\frac {4}{5}}\end{pmatrix}}{\begin{pmatrix}1&2\\-1&3\end{pmatrix}}={\begin{pmatrix}-1&0\\0&4\end{pmatrix}}}
  • Luego resulta que existen matrices P {\displaystyle P} y D {\displaystyle D} tales que

A = P D P 1 {\displaystyle A=PDP^{-1}} cumpliendo P {\displaystyle P} y D {\displaystyle D} los requisitos pedidos al principio, y por tanto la matriz A {\displaystyle A} es diagonalizable.

Potencias de una matriz diagonalizable

Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

A 7 = P D 7 P 1 = ( 1 2 1 3 ) ( 1 7 0 0 4 7 ) ( 3 5 2 5 1 5 1 5 ) = ( 3 + 2 4 7 5 2 + 2 4 7 5 3 + 3 4 7 5 2 + 3 4 7 5 ) = ( 6553 6554 9831 9830 ) {\displaystyle A^{7}=PD^{7}P^{-1}={\begin{pmatrix}1&2\\-1&3\end{pmatrix}}{\begin{pmatrix}-1^{7}&0\\0&4^{7}\end{pmatrix}}{\begin{pmatrix}{\frac {3}{5}}&{\frac {-2}{5}}\\{\frac {1}{5}}&{\frac {1}{5}}\end{pmatrix}}={\begin{pmatrix}{\frac {-3+2\cdot 4^{7}}{5}}&{\frac {2+2\cdot 4^{7}}{5}}\\{\frac {3+3\cdot 4^{7}}{5}}&{\frac {-2+3\cdot 4^{7}}{5}}\end{pmatrix}}={\begin{pmatrix}6553&6554\\9831&9830\end{pmatrix}}}

Para todo n N {\displaystyle n\in \mathbb {N} } se cumple:

A = P D P 1 A n = P D n P 1 {\displaystyle A=PDP^{-1}\Longrightarrow A^{n}=PD^{n}P^{-1}}

Por tanto, para el ejemplo anterior:

( 1 2 3 2 ) n = ( 1 2 1 3 ) ( 1 0 0 4 ) n ( 3 / 5 2 / 5 1 / 5 1 / 5 ) ( 1 2 3 2 ) n = ( 1 2 1 3 ) ( ( 1 ) n 0 0 4 n ) ( 3 / 5 2 / 5 1 / 5 1 / 5 ) {\displaystyle {\begin{pmatrix}1&2\\3&2\end{pmatrix}}^{n}={\begin{pmatrix}1&2\\-1&3\end{pmatrix}}{\begin{pmatrix}-1&0\\0&4\end{pmatrix}}^{n}{\begin{pmatrix}3/5&-2/5\\1/5&1/5\end{pmatrix}}\Longrightarrow {\begin{pmatrix}1&2\\3&2\end{pmatrix}}^{n}={\begin{pmatrix}1&2\\-1&3\end{pmatrix}}{\begin{pmatrix}(-1)^{n}&0\\0&4^{n}\end{pmatrix}}{\begin{pmatrix}3/5&-2/5\\1/5&1/5\end{pmatrix}}}
A n = 1 5 ( 3 ( 1 ) n + 2 4 n 2 ( 1 ) n + 2 4 n 3 ( 1 ) n + 3 4 n 2 ( 1 ) n + 3 4 n ) {\displaystyle A^{n}={\frac {1}{5}}{\begin{pmatrix}3(-1)^{n}+2\cdot 4^{n}&-2(-1)^{n}+2\cdot 4^{n}\\-3(-1)^{n}+3\cdot 4^{n}&2(-1)^{n}+3\cdot 4^{n}\end{pmatrix}}}

Función de una matriz diagonalizable

No sólo pueden calcularse, potencias de una matriz, sino cualquier función que esté definida sobre el espectro de la matriz. Por ejemplo puede calcularse la exponencial de la matriz anterior como: { e A = k = 0 A k k ! e A = P e D P 1 = ( 1 2 1 3 ) ( e 1 0 0 e 4 ) ( 3 5 2 5 1 5 1 5 ) = 1 5 ( 3 e 1 + 2 e 4 2 e 1 + 2 e 4 3 e 1 + 3 e 4 2 e 1 + 3 e 4 ) {\displaystyle {\begin{cases}e^{\mathbf {A} }=\sum _{k=0}^{\infty }{\frac {\mathbf {A} ^{k}}{k!}}\\e^{\mathbf {A} }=\mathbf {P} e^{\mathbf {D} }\mathbf {P} ^{-1}={\begin{pmatrix}1&2\\-1&3\end{pmatrix}}{\begin{pmatrix}e^{-1}&0\\0&e^{4}\end{pmatrix}}{\begin{pmatrix}{\frac {3}{5}}&{\frac {-2}{5}}\\{\frac {1}{5}}&{\frac {1}{5}}\end{pmatrix}}={\frac {1}{5}}{\begin{pmatrix}3e^{-1}+2e^{4}&-2e^{-1}+2e^{4}\\-3e^{-1}+3e^{4}&2e^{-1}+3e^{4}\end{pmatrix}}\end{cases}}}

Matrices no diagonalizables

No todas las matrices cuadradas son diagonalizables, pero existen procedimientos similares para hallar matrices P {\displaystyle P} invertibles y matrices J {\displaystyle J} diagonales a bloques de tal modo que

A = P J P 1 {\displaystyle \mathbf {A} =\mathbf {PJP} ^{-1}}

ofreciendo también soluciones o atajos para resolver los problemas que requieren de la diagonalización de una matriz (ver Forma canónica de Jordan).

Teoremas sobre matrices diagonalizables

  • Toda matriz simétrica de coeficientes reales es diagonalizable y sus valores propios son reales.
  • Dadas dos matrices diagonalizables A y B, son conmutables (AB = BA) si y solo si son simultáneamente diagonalizables (comparten la misma base ortonormal).
  • Toda matriz A de dimensión n y coeficientes reales es diagonalizable si, y sólo si, existe una base de R n {\displaystyle \mathbb {R} ^{n}} formada por vectores propios de A .

Referencias

Bibliografía

Enlaces externos

  • Ejemplos y ejercicios de diagonalización de matrices: Matesfacil
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q1767080
  • Wd Datos: Q1767080