1
Tema 5. DIAGONALIZACIÓN DE MATRICES Introducción. Potencia de una matriz 2 1 . Supongamos que se desea calcular A n : → → Sea A = 2 3 2 1 2 1 6 5 = A 2 = 2 3 2 3 10 11 2 A3 = 2 2 A 4 = 2
1 6 3 10 1 22 3 42
5 22 21 = 11 42 43 21 86 85 = 43 170 171
Determinar una regla para A n no resulta inmediato. 1 1 y Comprobemos, antes de seguir adelante, que A = MDM −1 , siendo M = 2 − 1 4 0 → Esta última matriz es diagonal. D = 0 1 1 − 1 − 1 y multiplicando, se ve que: En efecto, calculando M −1 = − 3 − 2 1
1 1 4 0 1 − 1 − 1 1 − 6 − 3 2 1 − = − = = A MDM −1 = 3 − 6 − 9 2 3 2 − 1 0 1 3 − 2 1 Con esto: A 2 = MDM −1 · MDM −1 = MD 2 M −1 → obsérvese que M −1 ·M = I
( )( = (MDM )( · MD
)
)
−1 2 A3 M −1 = MD 3 M −1 … A n = MD n M −1 ⇒ 1 1 4 n 0 1 − 1 − 1 − 4n + 1 1 − 4n − 2 − ⇒ A n = = − 3 n n n − 2 · 4 + 2 − 2 · 4 − 1 2 − 1 0 1 3 − 2 1
Se consigue así calcular A n . El problema está en encontrar M y D. El proceso que nos facilitará determinar las matrices M y D, que permitirán hallar la potencia n−ésima de una matriz, se llama diagonalización.
José María Martínez Mediano
2
Autovalores y autovectores
Definición de autovalor: λ ∈ R (o a C, aunque no lo consideraremos) es un autovalor de r r r r s una matriz A, cuadrada, n × n, si existe un vector x ∈ Rn (a En), x ≠ 0 , tal que Ax = λx . r • A x se le llama autovector asociado a λ. También se utilizan los nombres valor propio y vector propio, respectivamente, para autovalor y autovector. •
Observaciones: r r r r r r r 1. Si Ax = λx ⇒ A 2 x = λAx = λ2 x ⇒ … A n x = λn x . r Por tanto, para determinar cómo actúa A n resulta útil conocer λ y x , pues el estudio de λn es mucho más sencillo. r r 2. Si x es un autovector asociado a λ, entonces kx es otro autovector asociado a λ. r r r r r s En efecto: si Ax = λx ⇒ A(kx ) = k ( Ax ) = k (λx ) = λ(kx ) .
2 1 r 1 , λ = 4 es un autovalor si x = . Ejemplo: Si A = 2 3 2 2 1 1 4 1 = = 4· En efecto: 2 3 2 8 2 1 −1 r 1 3 r Otros autovectores asociados a λ = 4 son x = −1· = o x = 3· = . 2 − 2 2 6 (Habitualmente se toma el más sencillo, el correspondiente a k = 1.) Cálculo de autovalores. Ecuación característica.
r s r s r s r De Ax = λx ⇒ Ax − λx = 0 ⇒ ( A − λI )x = 0 → sistema homogéneo, que tiene solución r r distinta de la trivial (se buscan x ≠ 0 ) cuando A − λI = 0 .
•
s r Es sistema ( A − λI )x = 0 recibe el nombre de autosistema. A A − λI = 0 se le llama ecuación característica.
•
P(λ) = A − λI es un polinomio de grado n → se llama polinomio característico.
•
•
•
•
•
Las soluciones de A − λI = 0 , de P(λ) = A − λI = 0 , son los valores propios (autovalores) de la matriz A. a11 − λ a12 ...a1n a 21 a 22 − λ. ...a 2 n Si la matriz A es de orden n, P(λ) = A − λI = =0 ... ... ... ... a n1 an 2 ...a nn − λ Los autovalores no tienen porqué ser distintos. El número de veces que se repite un autovalor es su multiplicidad algebraica. r s r Si λ es un autovalor de A, una solución no trivial, x , de ( A − λI )x = 0 es un autovector asociado a ese λ.
José María Martínez Mediano
3
2−λ 1 2 1 ⇒ A − λI = Ejemplo: Si A = = λ2 − 5λ + 4 = (λ − 4)(λ − 1) 2 3−λ 2 3 Los autovalores son: λ = 4 y λ = 1. 1 x1 0 2 1 x1 x 2 − 4 − 2 1 x1 0 = 4 1 ⇔ = ⇔ = • Si λ = 4: 3 − 4 x 2 0 2 3 x 2 2 2 − 1 x 2 0 x2 − 2 x1 + x 2 = 0 x =t ⇒ ⇒ 1 → estas serían las componentes de los 2 x1 − x 2 = 0 x 2 = 2t r x t autovectores asociados: x = 1 = . En particular, si t = 1, x 2 2t
•
x1 1 = . x2 2
1 1 x1 0 x + x2 = 0 x =t = ⇒ 1 ⇒ 1 → estas serían las 2 2 x 2 0 2 x1 + 2 x 2 = 0 x 2 = −t r x t componentes de los autovectores asociados: x = 1 = . x2 − t
Si λ = 1:
x 1 En particular, si t = 1, 1 = . x 2 − 1 5 − 6 − 6 2 Otro ejemplo: Página 382 de Sydsaeter: 14.12 b) → B = − 1 4 3 − 6 − 4 5−λ −6 −6 → B − λI = − 1 4 − λ 2 = 0 ⇒ − (λ − 2)2 (λ − 1) = 0 ⇒ λ = 2, doble; λ = 1. 3 −6 −4−λ − 6 x 0 3 − 6 − 6 x 0 5 − λ − 6 s r 2 y = 0 4−λ 2 y = 0 ⇔ − 1 2 • Si λ = 2, (B − λI )x = 0 ⇔ − 1 3 − 6 − 6 z 0 3 − 6 − 4 − λ z 0 3x − 6 y − 6 z = 0 x = 2t + 2h 2 2 2 2 r r r ⇒ − x + 2 y + 2 z = 0 ⇒ y = t → x = 1 ·t + 0 ·h . Se toma: x1 = 1 ; x 2 = 0 . 3x − 6 y − 6 z = 0 z=h 0 1 0 1 En este caso la solución del autosistema depende de dos vectores (es la ecuación de un plano, cuya dimensión es 2): es un subespacio vectorial con multiplicidad geométrica igual a 2. 4 − 6 − 6 x 0 s r 3 2 y = 0 ⇒ • Si λ = 1, ( B − λI )x = 0 ⇔ − 1 3 − 6 − 5 z 0 4x − 6 y − 6z = 0 x = 3t 3 3 r r ⇒ − x + 3 y + 2 z = 0 ⇒ y = −t → x = − 1·t . Se toma: x3 = − 1 . 3x − 6 y − 5 z = 0 z = 3t 3 3
José María Martínez Mediano
4
Autovalores de matrices diagonales. d1 0 0 d2 Las matrices diagonales D = ... ... 0 0 1. D = d1 ·d 2 ·...·d n d1 n 0 n 2. D = ... 0
0 d2
...
0 ... 0 , cumplen: ... ... ... d n
0 ... 0 ... ... n ... d n ...
n
... 0
d1 − λ 0 d2 − λ 0 3. La ecuación característica es: D − λI = ... ... 0 0
... 0 λ 1 = d1 λ = d ... 0 2 =0 ⇒ 2 ... ... ... λ n = d n ... d n − λ
En definitiva, los autovalores de una matriz diagonal son los elementos de esa diagonal. 1 0 0 Ejemplo: Si D = 0 2 0 ⇒ 1. D = 1·2·3 = 6 . 0 0 3 3. Los valores propios son: λ = 1, 2 y 3.
1n 2. D n = 0 0
0 2n 0
0 0 . 3 n
Algunas propiedades de los autovalores 1. La suma de los autovalores es igual a la traza de la matriz A. λ1 + λ 2 + ... + λ n = a11 + a 22 + ... + a nn
2. El producto de los autovalores es igual al determinante de la matriz A. λ1 ·λ 2 ·...·λ n = A 3. Los autovalores de A son los mismos que los de At. 4. Dos matrices A y B son semejantes si existe una matriz M invertible tal que A = MBM −1 . Con esto, si dos matrices A y B son semejantes, ambas tienen la misma ecuación característica. Por tanto, los autovalores de A y B son los mismos. En efecto, si A = MBM −1 ⇒ A − λI = MBM −1 − λI = MBM −1 − MλIM −1 = = M ( B − λI ) M −1 = M · B − λI · M −1 = B − λI r r r 5. Sean λ1, λ2, …, λp autovalores, distintos entre sí, de A. Si x1 , x 2 ,..., x p son autovectores no r r r nulos, asociados respectivamente a λ1, λ2, …, λp, entonces, el conjunto { x1 , x 2 ,..., x p } es linealmente independiente.
José María Martínez Mediano
5
→ Apunte para una demostración: r r Vamos a demostrarlo para p = 2. Por tanto, se tienen: λ1 ≠ λ2, y x1 , x 2 , ambos vectores no nulos. r r r Si los vectores fuesen l.d., entonces existen k1 y k2, no nulos, tales que k1 x1 + k 2 x 2 = 0 . Por tanto: r r r r A(k1 x1 + k 2 x 2 ) = A·0 = 0 ⇒ r r r r r r r ⇒ A(k1 x1 ) + A(k 2 x 2 ) = k1 A( x1 ) + k 2 A(x 2 ) = k1λ 1 x1 + k 2 λ 2 x 2 = 0 (*) r r r r r De k1 x1 + k 2 x 2 = 0 ⇒ k1 x1 = −k 2 x 2 . Sustituyendo en (*): r r r r r λ1 (− k 2 x 2 ) + k 2 λ 2 x 2 = 0 ⇒ (λ 2 − λ 1 )·k 2 x 2 = 0 ⇒ λ2 = λ1, pues k2 ≠ 0. r r Lo que contradice la hipótesis inicial de λ1 ≠ λ2. En consecuencia, el conjunto { x1 , x 2 } es linealmente independiente.
Para demostrarlo en general se hace por inducción. Se comprueba para p = 1, se supone cierto hasta p, y demuestra que también es cierto para p + 1.
José María Martínez Mediano
6
Diagonalización
Una matriz cuadrada A, de orden n, se dice que es diagonalizable si existe una matriz invertible P, de orden n, y una matriz diagonal, tal que P −1 AP = D . Otra manera de decirlo es: Una matriz cuadrada A es diagonalizable si es semejante a una matriz diagonal. •
Diagonalizar una matriz A es encontrar las matrices D y P tales que A = PDP −1
•
Es evidente que si P −1 AP = D ⇒ A = PDP −1 ⇒ A n = PD n P −1
El objetivo es determinar qué matrices son diagonalizables y cómo hallar P y D. Teorema. Una matriz cuadrada A, de orden n, es diagonalizable si y sólo si tiene un conjunto r r r x1 , x 2 , ..., x n de n autovectores linealmente independientes.. En este caso, λ 1 0 ... 0 λ 1 0 ... 0 0 λ 2 ... 0 0 λ 2 ... 0 −1 −1 ⇔ A = P· P AP = ·P ... ... ... ... ... ... ... ... 0 0 ... λ 0 0 ... λ n n r r r donde P es la matriz cuyas columnas son los vectores x1 , x 2 , ..., x n y λ1, λ2, …, λn son r r r autovalores de A. → P = ( x1 , x 2 , ..., x n ). Nota: La demostración de este teorema puede verse en la p 386 del Sydsaeter.
2 1 , vista anteriormente, se tenía: Ejemplo: Para la matriz A = 2 3 Autovalores: λ = 4 y λ = 1. x 1 x 1 r r Autovectores asociados: Para λ = 4 → x1 = 1 = ; Para λ = 1, x 2 = 1 = . x2 2 x 2 − 1 Por tanto: 4 0 1 1 1 − 1 − 1 ; P = … ⇒ P −1 = − D = 3 − 2 1 0 1 2 − 1 Puede verse que: 1 − 1 − 1 2 1 1 1 4 0 = P −1 AP = D → − 3 − 2 1 2 3 2 − 1 0 1 ¿Qué matrices son diagonalizables? Las condiciones exigidas en el teorema anterior pueden concretarse como sigue:
Caso 1. Todos los autovalores son distintos. Si una matriz cuadrada A, de orden n, tiene n autovalores reales distintos, entonces (como r r r consecuencia de la propiedad 5 de los autovalores) el conjunto { x1 , x 2 ,..., x n } es linealmente independiente. Luego, la matriz A es diagonalizable.
José María Martínez Mediano
7
r r r r r r Puede observarse que si { x1 , x 2 ,..., x n } son l.i. ⇒ la matriz P = ( x1 , x 2 , ..., x n ) es inversible. Luego puede escribirse que PDP −1 = A . Caso 2. Hay autovalores repetidos (múltiples). Una matriz cuadrada A, de orden n, es diagonalizable si y sólo si todos sus autovalores son reales y, además, la multiplicidad geométrica de cada uno coincide con su multiplicidad algebraica. La multiplicidad algebraica es la del autovalor: solución doble, triple… de la ecuación P ( λ ) = A − λI = 0 . La multiplicidad geométrica es la de los autovectores respectivos: la dimensión del espacio s r vectorial solución del autosistema ( A − λI )x = 0 . Nota: Este resultado no lo demostramos; lo damos por cierto. Ejemplos:
3 −1 0 1. Diagonalización de A = − 1 2 − 1 0 −1 3 3 − λ −1 0 → A − λI = − 1 2 − λ − 1 = 0 ⇒ (3 − λ )(λ − 1)(λ − 4 ) = 0 0 −1 3 − λ Autovalores: λ = 3; λ = 1; λ = 4. Los tres autovalores son simples ⇒ la matriz es diagonalizable. •
•
•
Si λ = 3, 0 s r ( A − λ I )x = 0 ⇔ − 1 0 Si λ = 1, 2 s r ( A − λ I )x = 0 ⇔ − 1 0 Si λ = 4, −1 s r ( A − λI )x = 0 ⇔ − 1 0
− 1 0 x 0 −y=0 x = −t − 1 r − 1 − 1 y = 0 ⇒ − x − y − z = 0 ⇒ y = 0 → x1 = 0 1 −y=0 z=t − 1 0 z 0
− 1 0 x 0 2x − y = 0 x=t 1 r 1 − 1 y = 0 ⇒ − x + y − z = 0 ⇒ y = 2t → x 2 = 2 − y + 2z = 0 z=t 1 − 1 2 z 0 − 1 0 x 0 −x− y =0 x = −t − 1 r − 2 − 1 y = 0 ⇒ − x − 2 y − z = 0 ⇒ y = t → x3 = 1 −y−z =0 z = −t − 1 − 1 − 1 z 0
3 0 0 −1 1 1 −3 0 3 1 −1 La matriz D = 0 1 0 . La matriz P = 0 2 1 → P = 1 2 1 6 0 0 4 1 1 − 1 − 2 2 − 2 Es fácil comprobar que PDP −1 = A .
José María Martínez Mediano
8
− 1 0 − 3 2. Diagonalización de A = 3 2 3 − 3 0 − 1 −1 − λ 0 −3 2 2−λ 3 = 0 ⇒ (λ − 2 ) (λ + 4 ) = 0 → A − λI = 3 −3 0 −1− λ Autovalores: λ = 2, doble (multiplicidad algebraica 2); y λ = −4, simple.
s r La matriz A será diagonalizable si la multiplicidad geométrica del sistema ( A − 2 I )x = 0 es 2. Veamos: •
Si λ = 2,
− 3 0 − 3 x 0 − 3 x − 3 z = 0 s r ( A − 2 I )x = 0 ⇔ 3 0 3 y = 0 ⇒ 3x + 3z = 0 ⇒ (el rango de la matriz de − 3 0 − 3 z 0 − 3 x − 3 z = 0 x=t 1 0 r r coeficientes es 1) ⇒ y = h → (para t = 1 y h = 0): x1 = 0 ; (t = 0, h = 1): x 2 = 1 z = −t − 1 0 Luego, la multiplicidad geométrica es 2: la solución depende de 2 parámetros. Como coincide con la multiplicidad algebraica, la matriz será diagonalizable. •
Si λ = −4, 3 0 − 3 x 0 3x − 3z = 0 x=t 1 r s r ( A + 4 I )x = 0 ⇔ 3 6 3 y = 0 ⇒ 3x + 6 y + 3z = 0 ⇒ y = −t → x3 = − 1 − 3 0 3 z 0 − 3x + 3z = 0 z =t 1
1 0 − 1 2 0 0 1 0 1 1 −1 La matriz D = 0 2 0 . La matriz P = 0 1 − 1 → P = 1 2 1 2 0 0 − 4 −1 0 1 1 0 1 Puede comprobarse que PDP −1 = A . 5 − 6 − 6 Nota. La matriz B = − 1 4 2 , vista en un ejemplo anterior, cumplía: 3 − 6 − 4 2 3 2 r r r Autovalores: λ = 2, doble; λ = 1. Autovectores: x1 = 1 , x 2 = 0 , x3 = − 1 . 0 1 3 2 0 0 2 2 3 Por tanto: D = 0 2 0 ; P = 1 0 − 1 . 0 0 1 0 1 3
José María Martínez Mediano
9
2 0 1 3. Diagonalización de A = 0 − 1 1 0 4 2 2−λ 1 0 2 −1 − λ 1 = 0 ⇒ (λ − 2) (λ − 3) = 0 → A − λI = 0 0 4 2−λ Autovalores: λ = 2, doble y λ = 3.
s r La matriz A será diagonalizable si la multiplicidad geométrica del sistema ( A − 2 I )x = 0 es 2. Veamos: •
Si λ = 2,
0 1 0 x 0 y=0 s r ( A − 2 I )x = 0 ⇔ 0 − 3 1 y = 0 ⇒ − 3 y + z = 0 ⇒ (el rango de la matriz de 0 4 0 z 0 4z = 0 x =t 1 r coeficientes es 2: la solución depende de un solo parámetro) ⇒ y = 0 → x1 = 0 . z = 0 0 Como no coincide la multiplicidad geométrica con la algebraica, la matriz dada no es diagonalizable.
José María Martínez Mediano
10
Relación de congruencia y diagonalización de matrices simétricas
Definición: Una matriz cuadrada C es ortogonal si y sólo si C t C = CC t = I . Esto es, una matriz es ortogonal cuando su inversa coincide con su traspuesta: C −1 = C t Si una matriz es ortogonal sus vectores fila (y sus vectores columna) son ortonormales: tienen módulo 1 y son perpendiculares dos a dos. Por tanto, sus vectores fila (o columna) constituyen una base ortonormal. r r r r La demostración es inmediata. Basta con considerar que Fi · Fi = 1 y Fi · Fj = 0 . •
( )( )
( )( )
0 − 1 0 − 1 0 1 1 0 es ortonormal → C ·C t = = . Ejemplo: La matriz C = 1 0 1 0 − 1 0 0 1 Como puede observarse sus vectores fila con unitarios, y perpendiculares entre sí. •
Si una matriz C es ortogonal, entonces C = ±1 . 2
De C t C = CC t = I ⇒ C t C = C t C = 1 ⇒ C = 1 ⇒ C = ±1 . Congruencia Definición de congruencia: Una matriz cuadrada A es congruente con otra matriz B si y sólo si existe una matriz ortogonal C tal que A = CBC −1
Cuando la matriz B es diagonal (B ≡ D), se dice que A es diagonalizable mediante congruencias. Esto es: A es diagonalizable por (mediante) congruencias ⇔ A = CDC −1 , siendo C ortogonal y D diagonal.
•
1 1 es diagonalizable por congruencias. Ejemplo: Veamos que la matriz A = 1 1 1− λ 1 → A − λI = = λ2 − 2λ = 0 ⇒ Los autovalores son: λ = 0 y λ = 2. 1 1− λ 1 1 x 0 x + y = 0 x=t = ⇒ • Si λ = 0: ⇒ → 1 1 y 0 x + y = 0 y = −t r 1 1/ 2 . El segundo es unitario. Autovector x1 = ≡ − 1 − 1 / 2 − 1 1 x 0 − x + y = 0 x = t = ⇒ • Si λ = 2: ⇒ → 1 − 1 y 0 x− y =0 y = t r 1 1 / 2 . El segundo es unitario. Autovector x 2 = ≡ 1 1 / 2 r r Los vectores x1 y x 2 son perpendiculares. 1/ 2 1/ 2 1 1 . Pero también lo puede ser C = La matriz de paso puede ser P = − 1 / 2 1 / 2 − 1 1 −1 Como la matriz C es ortogonal, la diagonalización de A por congruencias es: A = CDC .
José María Martínez Mediano
11
1 1 1 / 2 1 / 2 0 0 1 / 2 = Esto es: 0 2 1 / 2 1 1 − 1 / 2 1 / 2
− 1/ 2 . 1 / 2
Congruencia y matrices simétricas Las matrices simétricas cumplen: 1. El polinomio característico P(λ) = A − λI , de toda matriz simétrica A, tiene solamente raíces reales. Por tanto, todos los autovalores de A son reales. 2. La dimensión algebraica de un autovalor coincide con la multiplicidad geométrica de los autovalores asociados. 3. Los autovectores asociados a dos autovalores distintos son ortogonales. Esto es si λ1 ≠ λ2, r r r r sus autovectores asociados x1 y x 2 verifican que x1 ·x 2 = 0 . 4. En general, cualesquiera dos autovectores propios son ortogonales. (Esto es, los autovectores asociados a valores propios múltiples también cumplen la propiedad 2.)
Como todo vector puede normalizarse (encontrar un vector de módulo 1 y con la misma dirección que el dado), siempre puede hallarse una matriz de paso, P, que sea ortogonal. Todo lo anterior conduce al siguiente teorema: Teorema espectral para matrices simétricas. Toda matriz simétrica es congruente con alguna matriz diagonal. Dicho de otra manera: toda matriz simétrica A es diagonalizable ortogonalmente.
Para el caso de autovalores simples es inmediato puesto que la matriz es diagonalizable con seguridad. Por tanto, basta con normalizar la matriz de paso. Para el caso de autovalores múltiples la demostración requiere conocimientos avanzados de Álgebra → se encuentra en muchos manuales de Álgebra superior. Ejemplo:
3 1 1 1. Diagonalización de la matriz simétrica A = 1 3 1 1 1 3 3−λ 1 1 2 → A − λI = 1 3−λ 1 = 0 ⇒ − (λ − 2 ) (λ − 5) = 0 1 1 3−λ Autovalores: λ = 2, doble; λ = 5. •
Si λ = 2,
1 1 1 x 0 x=t s r ( A − λI )x = 0 ⇔ 1 1 1 y = 0 ⇒ {x + y + z = 0 ⇒ y = h → 1 1 1 z 0 z = −t − h 1 1 r r (para t = 1, h = 1) → x1 = 1 ; (para t = 1, h = −1) → x 2 = − 1 − 2 0
José María Martínez Mediano
12
•
Si λ = 5, 1 x 0 − 2 1 − 2 x + y + z = 0 x = t 1 r s r ( A − λI )x = 0 ⇔ 1 − 2 1 y = 0 ⇒ x − 2 y + z = 0 ⇒ y = t → x3 = 1 1 x + y − 2z = 0 z = t 1 1 − 2 z 0
r Como puede verse fácilmente los autovectores x1 , Normalizándolos se obtiene: 1 1 / 6 1 1 / 2 r r x1 = 1 ≡ 1 / 6 ; x 2 = − 1 ≡ − 1 / 2 ; − 2 − 2 / 6 0 0
r r x 2 y x3 son ortogonales entre sí. 1 1 / 3 r x3 = 1 ≡ 1 / 3 1 1 / 3
Por tanto: 1/ 6 2 0 0 La matriz D = 0 2 0 . La matriz P = 1 / 6 0 0 5 − 2/ 6
1 / 2 1 / 3 − 1/ 2 1/ 3 0 1 / 3
La inversa, P −1 , es la traspuesta de P. Es fácil comprobar que PDP −1 = A . 6 − 2 − 1 2. Diagonalización de la matriz simétrica A = − 2 6 − 1 −1 −1 5 → A − λI = 0 ⇒ − (λ − 6 )(λ − 8)(λ − 3) = 0 Autovalores: λ = 6, λ = 8; λ = 3. 1 1 1 r r r Si λ = 6, x1 = 1 ; Si λ = 8, x 2 = − 1 ; Si λ = 3, x3 = 1 0 1 − 2 r r r Como puede verse fácilmente los autovectores x1 , x 2 y x3 son ortogonales entre sí. Normalizándolos se obtiene: 1 1 / 6 1 1 / 2 1 1 / 3 r r r x1 = 1 ≡ 1 / 6 ; x 2 = − 1 ≡ − 1 / 2 ; x3 = 1 ≡ 1 / 3 − 2 − 2 / 6 0 0 1 1 / 3 1/ 6 6 0 0 Por tanto: D = 0 8 0 ; P = 1 / 6 0 0 3 − 2/ 6
1 / 2 1 / 3 − 1/ 2 1/ 3 . 0 1 / 3
Se cumple que PDP −1 = A . Nota. La coincidencia de las dos matrices P de los ejemplos anteriores es eso, una coincidencia.
José María Martínez Mediano