MATRICES
MATRICES
En el capítulo anterior hemos utilizado matrices para la resolución de sistemas de ecuaciones
lineales y hemos visto que, para n, m ∈ N, el conjunto de las matrices de n filas y m columnas
con coeficientes en un cuerpo K es un K-espacio vectorial. A continuaci´on estudiaremos más
en detalle estos conjuntos de matrices, as´ı como tambi´en ciertas matrices particulares que nos
ser´an de utilidad.
2.1 Definiciones y propiedades
Comenzaremos recordando algunas definiciones y propiedades estudiadas en el cap´ıtulo anterior.
Sean n, m ∈ N. El conjunto de las matrices de n filas y m columnas con coeficientes en
un cuerpo K es
Kn×m =
a11 . . . a1m
.
.
.
.
.
.
an1 . . . anm
/ aij ∈ K ∀ 1 ≤ i ≤ n, 1 ≤ j ≤ m
.
Para definir una matriz en Kn×m basta especificar, para cada 1 ≤ i ≤ n y cada 1 ≤ j ≤ m,
qu´e elemento de K se halla en el lugar ij (correspondiente a la interjección de la fila i y la
columna j) de la matriz.
Ejemplo. Sean n, m ∈ N, y sean 1 ≤ k ≤ n, 1 ≤ l ≤ m. Se define la matriz Ekl ∈ Kn×m
como
(E
kl)ij =
n
1 si i = k, j = l
0 si no
Estas matrices se llaman las matrices can´onicas de Kn×m.
Una primera observaci´on que debemos hacer se refiere a c´omo determinar si dos matrices
(de las mismas dimensiones) son iguales:
48 Matrices
Observaci´on 2.1 Sean A, B ∈ Kn×m. Entonces A = B si y s´olo si Aij = Bij para cada
1 ≤ i ≤ n, 1 ≤ j ≤ m.
Podemos definir una operaci´on (suma) en Kn×m y una acci´on de K en Kn×m que transforman
a este conjunto en un K-espacio vectorial:
Definici´on 2.2 Se definen la suma de matrices y el producto por escalares como
+ : Kn×m × Kn×m → Kn×m, (A + B)ij = Aij + Bij (1 ≤ i ≤ n, 1 ≤ j ≤ m)
· : K × Kn×m → Kn×m, (λ · A)ij = λ · Aij (1 ≤ i ≤ n, 1 ≤ j ≤ m).
Es f´acil verificar que (Kn×m, +, ·) es un K-espacio vectorial.
Definiremos ahora un producto que, dadas dos matrices A y B con coeficientes en K tales
que la cantidad de columnas de A es igual a la cantidad de filas de B, calcula una nueva
matriz C.
Definici´on 2.3 Sean A ∈ Kn×m y B ∈ Km×r
. Se define el producto de A por B como la
matriz C ∈ Kn×r
tal que
Cij =
Xm
k=1
AikBkj 1 ≤ i ≤ n, 1 ≤ j ≤ r.
Analizaremos ahora algunas propiedades del producto de matrices y su relaci´on con la
suma de matrices.
Proposici´on 2.4 Propiedades del producto de matrices:
1. Propiedad asociativa: dadas A ∈ Kn×m, B ∈ Km×r y C ∈ Kr×s
, se tiene que
(A.B).C = A.(B.C).
2. Para cada n ∈ N, sea In ∈ Kn×n definida por (In)ij =
½
1 si i = j
0 si i 6= j
. Entonces, si
A ∈ Kn×m, se verifica: In.A = A.Im = A.
La matriz In se denomina matriz identidad de Kn×n.
3. Propiedades distributivas:
(a) Si A ∈ Kn×m y B, C ∈ Km×r
, entonces A.(B + C) = A.B + A.C.
(b) Si A, B ∈ Kn×m y C ∈ Km×r
, entonces (A + B).C = A.C + B.C.
Demostraci´on.
1. Observemos en primer lugar que si A ∈ Kn×m, B ∈ Km×r y C ∈ Kr×s
, entonces
(A.B).C ∈ Kn×s y A.(B.C) ∈ Kn×s
.
2.1 Definiciones y propiedades 49
Para cada 1 ≤ i ≤ n, 1 ≤ j ≤ s, se tiene:
¡
(A.B).C¢
ij =
Xr
α=1
(A.B)iαCαj =
Xr
α=1
³Xm
β=1
AiβBβα´
Cαj =
Xr
α=1
³Xm
β=1
AiβBβαCαj´
=
Xm
β=1
³Xr
α=1
AiβBβαCαj´
=
Xm
β=1
Aiβ³Xr
α=1
BβαCαj´
=
Xm
β=1
Aiβ(B.C)βj =
¡
A.(B.C)
¢
ij .
2. Sean 1 ≤ i ≤ n, 1 ≤ j ≤ m. Se tiene que
(In.A)ij =
Xn
k=1
(In)ikAkj = 1.Aij = Aij .
De la misma manera, (A.Im)ij = Aij para cada 1 ≤ i ≤ n, 1 ≤ j ≤ m.
3. Queda como ejercicio. ¤
Observemos que, en particular, el producto de matrices est´a definido para cualquier par
de matrices en Kn×n y, por lo tanto, se tiene una operaci´on “producto” en Kn×n para cada
n ∈ N. De la proposici´on anterior se deduce:
Proposici´on 2.5 (Kn×n, +, ·) es un anillo.
Si bien el producto de matrices comparte muchas de sus propiedades con el producto usual
de n´umeros reales, hay propiedades que verifica ´este que no son v´alidas para el producto de
matrices:
Observaci´on 2.6 Dos de las propiedades que no se cumplen para el producto de matrices
son las siguientes:
• El producto de matrices no es conmutativo. A´un en el caso de matrices cuadradas, en
el que siempre se pueden calcular A.B y B.A, en general se tiene que A.B 6= B.A. Por
ejemplo, para A =
µ
0 1
0 0 ¶
y B =
µ
1 0
0 0 ¶
se tiene que
A.B =
µ
0 0
0 0 ¶
y B.A =
µ
0 1
0 0 ¶
.
• El hecho que A.B = 0 no implica que A = 0 o B = 0. En el ejemplo anterior, A 6= 0,
B 6= 0, pero A.B = 0.
El conjunto Kn×n resulta ser a la vez un anillo y un K-espacio vectorial. La noci´on que
engloba a los conjuntos con estas caracter´ısticas es la siguiente:
50 Matrices
Definici´on 2.7 Sea K un cuerpo y sea A un conjunto con dos operaciones, + y · , y una
acci´on ·K de K en A tales que
1. (A, +, ·) es un anillo
2. (A, +, ·K) es un K-espacio vectorial
3. (λ ·K X) · Y = λ ·K (X · Y ) = X · (λ ·K Y ) ∀ λ ∈ K ∀ X, Y ∈ A
Se dice entonces que A es una K-´algebra.
Observaci´on 2.8 (Kn×n, +, ·K, ·) es una K-´algebra.
Observamos que el producto de matrices nos permite escribir un sistema lineal de n ecuaciones
con m inc´ognitas
a11x1 + a12x2 + · · · + a1mxm = b1
.
.
.
an1x1 + an2x2 + · · · + anmxm = bn
en la forma
A.x = b,
donde A ∈ Kn×m es la matriz asociada al sistema, x ∈ Km×1
se define como xi1 = xi (matriz
de una columna cuyos elementos son las inc´ognitas del sistema), y b ∈ Kn×1
se define como
bj1 = bj (matriz de una columna cuyos elementos son los resultados a los que est´an igualadas
las ecuaciones). De esta manera, un sistema lineal puede verse como una ´unica ecuaci´on con
una ´unica inc´ognita x, pero que involucra matrices en lugar de escalares.
El hecho que la soluci´on en K de la ecuaci´on a.x = b con a, b ∈ K, a 6= 0, se obtiene
haciendo simplemente x = a
−1
b, nos lleva a pensar que el sistema lineal Ax = b podr´ıa
resolverse an´alogamente como x = A−1
b en caso de disponer de una matriz A−1 que sea una
inversa de A para el producto de matrices. Este ser´a el tema a estudiar en la pr´oxima secci´on. ´
Concluimos esta secci´on introduciendo dos nociones que nos ser´an de utilidad en lo sucesivo:
Definici´on 2.9 Sea A ∈ Kn×m. Se llama matriz transpuesta de A, y se nota At
, a la matriz
At ∈ Km×n definida por (At
)ij = Aji para cada 1 ≤ i ≤ m, 1 ≤ j ≤ n.
Definici´on 2.10 Sea A ∈ Kn×n. Se llama traza de la matriz A, y se nota tr(A), al escalar
tr(A) = Pn
i=1 Aii.
2.2 Matrices inversibles
No es cierto que todo elemento no nulo de Kn×n tenga inverso con respecto al producto. Por
ejemplo: A =
µ
1 0
0 0 ¶
∈ K2×2 no tiene inversa. En efecto, A.B 6= I2 para toda matriz
B ∈ K2×2
, puesto que (A.B)22 = 0 6= (I2)22 para toda matriz B ∈ K2×2
.
2.2 Matrices inversibles 51
En esta secci´on nos ocuparemos de las matrices que s´ı tienen inversa y veremos tambi´en
c´omo hallar la inversa de una matriz en el caso en que ´esta exista.
Definici´on 2.11 Una matriz A ∈ Kn×n se dice inversible si existe una matriz B ∈ Kn×n tal
que A.B = B.A = In.
Observemos que la matriz B de la definici´on es ´unica. En efecto, si A.B = B.A = In y
A.C = C.A = In, entonces
B = In.B = (C.A).B = C.(A.B) = C.In = C.
Notaci´on. B = A−1
.
Para cada n ∈ N consideraremos el conjunto de todas las matrices inversibles en Kn×n:
GL(n, K) = {A ∈ Kn×n
/ A es inversible}.
Nos interesa estudiar la estructura de este conjunto.
Proposici´on 2.12 Para cada n ∈ N, se verifican las siguientes propiedades:
1. Si A, B ∈ GL(n, K), entonces A.B ∈ GL(n, K). M´as a´un, (A.B)
−1 = B−1A−1
. En
particular, el producto de matrices · es una operaci´on en GL(n, K).
2. In ∈ GL(n, K).
3. Si A ∈ GL(n, K), entonces A−1 ∈ GL(n, K).
Demostraci´on.
1. Sean A, B ∈ GL(n, K). Entonces existen A−1 y B−1
. Se tiene que
(A.B).(B
−1
. A−1
) = In y (B
−1
. A−1
).(A.B) = In.
Entonces A.B es inversible y (A.B)
−1 = B−1
. A−1
.
2. Es consecuencia de que In.In = In.
3. De la definici´on de inversa se deduce inmediatamente que si A ∈ GL(n, K), entonces
(A−1
)
−1 = A y por lo tanto A−1 ∈ GL(n, K). ¤
De la proposici´on anterior y la asociatividad del producto de matrices se deduce que:
Proposici´on 2.13 (GL(n, K), ·) es un grupo, que se denomina el grupo lineal general (n, K).
52 Matrices
Para concluir esta secci´on, veremos un m´etodo para determinar si una matriz en Kn×n es
inversible y, en caso de serlo, encontrar su inversa. Lo describimos en el siguiente ejemplo:
Ejemplo. Hallar, si es posible, A−1
siendo A ∈ R
3×3
la matriz
A =
1 1 0
0 2 −1
2 1 1
.
Buscamos B ∈ R
3×3
tal que A.B = B.A = I3. Si B =
a b c
d e f
g h i
, debe ser
A.
a b c
d e f
g h i
=
1 0 0
0 1 0
0 0 1
.
Esta igualdad se traduce en los tres sistemas de ecuaciones siguientes:
A.
a
d
g
=
1
0
0
, A.
b
e
h
=
0
1
0
, y A.
c
f
i
=
0
0
1
,
que podemos resolver simult´aneamente:
1 1 0 1 0 0
0 2 −1 0 1 0
2 1 1 0 0 1
−→
1 1 0 1 0 0
0 2 −1 0 1 0
0 −1 1 −2 0 1
−→
1 1 0 1 0 0
0 1 −1 2 0 −1
0 0 1 −4 1 2
−→
1 0 0 3 −1 −1
0 1 0 −2 1 1
0 0 1 −4 1 2
Entonces B =
3 −1 −1
−2 1 1
−4 1 2
verifica la igualdad A.B = I3.
Observemos que, si buscamos una matriz C tal que B.C = I3, bastar´ıa con hacer los pasos
anteriores, pero a la inversa, con lo que obtendr´ıamos la matriz A.
Luego, A.B = B.A = I3, es decir A−1 =
3 −1 −1
−2 1 1
−4 1 2
.
C´omo decidir si una matriz es inversible y hallar su inversa:
• Dada A ∈ Kn×n, se arma una matriz en Kn×2n cuyas primeras n columnas corresponden
a la matriz A y cuyas ´ultimas n columnas est´an formadas por los n vectores de la
base can´onica de Kn.
2.3 Matrices elementales 53
Esto corresponde a plantear la ecuaci´on A.B = In con B ∈ Kn×n, subdividirla en n
sistemas lineales A.Bi = ei
, 1 ≤ i ≤ n, igualando columna a columna, y escribir la
matriz ampliada de los n sistemas.
• Si al triangular la matriz no aparece ning´un cero en la diagonal, se pueden resolver los
sistemas que resultan (que tienen soluci´on ´unica) y hallar entonces la inversa de A.
Para esto se puede proceder como en el ejemplo anterior: al no aparecer ceros en la
diagonal, se contin´ua aplicando operaciones elementales sobre las filas de la matriz de
manera que en las primeras n columnas quede formada la matriz In. Entonces A−1
es la matriz que aparece en las ´ultimas n columnas (esto puede probarse de la misma
manera que se hizo en el ejemplo).
• Si al triangular la matriz aparece un cero en la diagonal, la matriz A no es inversible.
En efecto, la presencia de un cero en la diagonal al triangular implica que el sistema
homog´eneo cuya matriz es A tiene soluci´on no trivial, es decir, existe x0 ∈ Kn no
nulo tal que A.x0 = 0. Si A fuese inversible, multiplicando por A−1
resultar´ıa x0 =
A−1
.A.x0 = 0, contradiciendo que x0 6= 0.
2.3 Matrices elementales
El m´etodo de triangulaci´on que hemos visto para la resoluci´on de sistemas de ecuaciones
lineales se basa en la aplicaci´on de ciertas operaciones elementales (ver Proposici´on 1.19) a
las ecuaciones o, equivalentemente, a las filas de la matriz del sistema. Como veremos a
continuaci´on, cada una de estas operaciones puede verse como la multiplicaci´on a izquierda
de la matriz del sistema por una matriz conveniente.
A cada operaci´on de filas en una matriz de n × n, le asociaremos la matriz que se obtiene
al aplicarle dicha operaci´on a la matriz identidad In. Las matrices obtenidas de esta forma se
denominan matrices elementales. Tendremos entonces tres familias de matrices elementales,
correspondientes a los tres tipos de operaciones de filas permitidas. A continuaci´on damos las
definiciones precisas y estudiamos el comportamiento de las matrices elementales con respecto
al producto.
Comenzamos definiendo las matrices que corresponden a la operacion “Intercambiar dos
ecuaciones”.
1. Sean 1 ≤ i, j ≤ n. Se define P
ij ∈ Kn×n como
P
ij = In − E
ii − E
jj + E
ij + E
ji
.
Observamos que P
ij es la matriz que resulta al intercambiar las filas i y j en la matriz
In.
Es f´acil verificar que, dada B ∈ Kn×n el producto P
ijB es la matriz que resulta al
intercambiar en la matriz B las filas i y j.
En particular, P
ij .Pij = In, es decir que P
ij es inversible y P
ij−1 = P
ij
.
54 Matrices
Ahora introducimos las matrices elementales asociadas a la operaci´on “Multiplicar una
ecuaci´on por una constante no nula.”
2. Sea a ∈ K, a 6= 0, y sea 1 ≤ i ≤ n. Se define Mi(a) ∈ Kn×n como
Mi(a) = In + (a − 1).Eii
.
Observamos que Mi(a) es la matriz que se obtiene al mutiplicar por a la i-´esima fila de
la matriz In.
Dada B ∈ Kn×n se tiene que
¡
Mi(a).B¢
kj =
½
Bkj si k 6= i
a.Bkj si k = i,
es decir, Mi(a).B es la matriz que resulta al multiplicar por a la i-´esima fila de B.
En particular, Mi(a).Mi(a
−1
) = Mi(a
−1
).Mi(a) = In, de donde Mi(a) ∈ GL(n, K) y
(Mi(a))−1 = Mi(a
−1
).
Finalmente, la tercera de las familias de matrices elementales es la que representa la
operaci´on “Reemplazar una ecuaci´on por ella misma m´as un m´ultiplo de otra.”
3. Sea a ∈ K y sean i 6= j con 1 ≤ i, j ≤ n. Se define T
ij (a) ∈ Kn×n como
T
ij (a) = In + a.Eij
,
la matriz que se obtiene de la matriz In al sumarle a la i-´esima fila, a por la fila j.
Si B ∈ Kn×n, entonces
¡
T
ij (a).B¢
kl =
½
Bkl si k 6= i
Bil + a.Bjl si k = i,
o sea que T
ij (a).B es la matriz que se obtiene de B al sumarle a la i-´esima fila, a por
la fila j.
En particular, se tiene que T
ij (a).Tij (−a) = T
ij (−a).Tij (a) = In, con lo que T
ij (a) ∈
GL(n, K) y (T
ij (a))−1 = T
ij (−a).
De las propiedades de las matrices elementales que hemos visto, se deduce que triangular
una matriz mediante operaciones sobre sus filas es multiplicarla a izquierda por matrices
elementales. En forma totalmente an´aloga, puede verse que multiplicar una matriz a derecha
por matrices elementales corresponde a efectuar operaciones sobre las columnas de la matriz.
Observaci´on 2.14 Sea A ∈ Kn×n. Entonces existen matrices elementales E1, . . . , Er ∈
Kn×n tales que Er . . . E1.A es triangular superior. Si adem´as, Er . . . E1.A no tiene ceros en
la diagonal, existen matrices elementales Er+1, . . . , Es tales que Es . . . Er+1.Er . . . E1.A = In.
En consecuencia, A es producto de matrices elementales: A = E
−1
1
. . . E−1
s
, y A−1 = Es . . . E1.
2.4 Coordenadas 55
En particular, esta observaci´on nos dice que si por medio de la aplicaci´on de operaciones
elementales a las filas de la matriz A obtenemos la matriz identidad I, entonces aplicando las
mismas operaciones en las filas de I obtendremos A−1
.
Por otro lado, nos da un teorema de estructura para GL(n, K): as´ı como el Teorema
Fundamental de la Aritm´etica en Z dice que todo n´umero entero no nulo es producto de
enteros primos, la observaci´on anterior nos dice que toda matriz en GL(n, K) es producto de
matrices elementales.
2.4 Coordenadas
Dado un K-espacio vectorial V de dimensi´on n y fijada una base B de V , mediante el concepto
de coordenadas de un vector en la base B podremos “identificar” cada elemento de V con un
vector en Kn y trabajar entonces con elementos de Kn.
2.4.1 Coordenadas de un vector en una base
Definici´on 2.15 Sea V un K-espacio vectorial de dimensi´on finita y sea B = {v1, . . . , vn}
una base de V . Dado x ∈ V , existen ´unicos α1, . . . , αn ∈ K tales que x = α1v1 + · · · + αnvn
(ver Proposici´on 1.37). El vector (α1, . . . , αn) ∈ Kn se llama el vector de coordenadas de x
en la base B y ser´a denotado por (x)B.
Ejemplos.
i) Sea V = R4[X] y sea B = {1, X, X2
, X3
, X4} base de V .
Las coordenadas de X3 + 3X2 − 1 en la base B son (X3 + 3X2 − 1)B = (−1, 0, 3, 1, 0).
Sea B0 = {X4
, X3
, X2
, X, 1}. Entonces (X3 + 3X2 − 1)B0 = (0, 1, 3, 0, −1).
ii) Sea V = R
3 y sea E = {(1, 0, 0),(0, 1, 0),(0, 0, 1)} la base can´onica. Entonces para cada
(x, y, z) ∈ R
3
, se tiene que (x, y, z)E = (x, y, z).
iii) Sea V = R
3 y sea B = {(1, 1, 1),(1, 1, 0),(1, 0, 0)}. Para cada (x, y, z) ∈ R
3
,
(x, y, z) = z.(1, 1, 1) + (y − z).(1, 1, 0) + (x − y).(1, 0, 0).
Entonces, (x, y, z)B = (z, y − z, x − y).
Observemos que el vector de coordenadas en la base B de un elemento de R
3
se obtiene
de su vector de coordenadas en la base can´onica multiplicando ´este por una matriz
apropiada: Si v ∈ R
3
tiene coordenadas (x, y, z) en la base can´onica E, entonces
((v)B)
t =
z
y − z
x − y
=
0 0 1
0 1 −1
1 −1 0
| {z }
C(E,B)
x
y
z
= C(E, B).((v)E)
t
.
56 Matrices
2.4.2 Cambios de base
Dadas dos bases de un mismo K-espacio vectorial V de dimensi´on finita, cada elemento de
V tiene asociados dos vectores de coordenadas (generalmente distintos), uno en cada una de
las bases. Con la ayuda de cierta matriz, llamada de cambio de base, se pueden obtener las
coordenadas de un vector con respecto a una base de V a partir de las coordenadas del vector
en otra base.
Definici´on 2.16 Sea V un K-espacio vectorial de dimensi´on n, y sean B1 = {v1, . . . , vn} y
B2 = {w1, . . . , wn} bases de V . Para cada 1 ≤ j ≤ n, sean αij ∈ K (1 ≤ i ≤ n) tales que
vj =
Pn
i=1
αijwi
. Se llama matriz de cambio de base de B1 a B2, y se nota C(B1, B2) ∈ Kn×n,
a la matriz definida por (C(B1, B2))ij = αij para cada 1 ≤ i, j ≤ n.
En otros t´erminos, la matriz de cambio de base C(B1, B2) ∈ Kn×n es la matriz cuya
j-´esima columna son las coordenadas en la base B2 del j-´esimo vector de la base B1, para
cada 1 ≤ j ≤ n.
Ejemplo. Sea V = R
3
. Consideremos las bases B1 = E = {(1, 0, 0),(0, 1, 0),(0, 0, 1)} y
B2 = {(1, 1, 1),(1, 1, 0),(1, 0, 0)}. Para construir la matriz C(B1, B2) ∈ R
3×3
, comenzamos
por escribir los elementos de B1 como combinaci´on lineal de los de B2:
(1, 0, 0) = 0.(1, 1, 1) + 0.(1, 1, 0) + 1.(1, 0, 0)
(0, 1, 0) = 0.(1, 1, 1) + 1.(1, 1, 0) + (−1).(1, 0, 0)
(0, 0, 1) = 1.(1, 1, 1) + (−1)(1, 1, 0) + 0.(1, 0, 0)
Entonces, la matriz de cambio de base es:
C(B1, B2) =
0 0 1
0 1 −1
1 −1 0
.
(Comparar con el Ejemplo iii) de la secci´on anterior.)
La proposici´on siguiente muestra que la matriz de cambio de base cumple la propiedad
que hemos mencionado al comienzo de esta secci´on.
Proposici´on 2.17 Sea V un K-espacio vectorial de dimensi´on finita, y sean B1 y B2 bases
de V . Entonces, para cada x ∈ V ,
C(B1, B2).((x)B1
)
t = ((x)B2
)
t
.
Demostraci´on. Sean B1 = {v1, . . . , vn} y B2 = {w1, . . . , wn}. Supongamos que, para cada
1 ≤ j ≤ n, vj =
Pn
i=1
αijwi
, con αij ∈ K para cada 1 ≤ i ≤ n; es decir, (C(B1, B2))ij = αij
(1 ≤ i, j ≤ n).
2.4 Coordenadas 57
Sea x ∈ V . Si x =
Pn
k=1
akvk, entonces para cada 1 ≤ h ≤ n,
³
C(B1, B2).((x)B1
)
t
´
h
=
Xn
r=1
αhrar.
Si bh =
Pn
r=1
αhrar para cada 1 ≤ h ≤ n, por la unicidad de las coordenadas en una base,
para probar que (x)B2 = (b1, . . . , bn) basta ver que x =
Pn
h=1
bhwh. Ahora,
Xn
h=1
bhwh =
Xn
h=1
³Xn
r=1
αhrar
´
wh =
Xn
h=1
³Xn
r=1
αhrarwh
´
=
=
Xn
r=1
³Xn
h=1
αhrarwh
´
=
Xn
r=1
ar
³Xn
h=1
αhrwh
´
=
Xn
r=1
arvr = x,
que es lo que quer´ıamos probar. ¤
Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas dos
bases B1 y B2, la matriz C(B1, B2) que hemos definido transforma coordenadas en la base
B1 en coordenadas en la base B2. ¿Existir´a alguna otra matriz en Kn×n con esta misma
propiedad? El resultado que probamos a continuaci´on nos asegura que no.
Proposici´on 2.18 Sean A, A0 ∈ Kn×n. Si A.x = A0
.x para todo x ∈ Kn, entonces A = A0
.
Demostraci´on. Sea E = {e1, . . . , en} la base can´onica de Kn. Por hip´otesis, A.ej = A0
.ej
para cada 1 ≤ j ≤ n. Pero
(A.ej )i =
Xn
h=1
Aih(ej )h = Aij y (A
0
.ej )i =
Xn
h=1
A
0
ih(ej )h = A
0
ij
para cada 1 ≤ i ≤ n, de donde Aij = A0
ij para todo 1 ≤ i, j ≤ n. Luego, A = A0
. ¤
De las proposiciones anteriores se desprende:
Observaci´on 2.19 Dadas dos bases B1 y B2 de un espacio vectorial V de dimensi´on n, la
matriz C(B1, B2) es la ´unica matriz en Kn×n que verifica C(B1, B2)((x)B1
)
t = ((x)B2
)
t para
todo x ∈ V .
Esta observaci´on dice que si una matriz A verifica A.((x)B1
)
t = ((x)B2
)
t para todo x ∈
V , entonces necesariamente A = C(B1, B2). Utilizando este resultado, es f´acil probar las
igualdades que enunciamos a continuaci´on.
Corolario 2.20 Sea V un K-espacio vectorial de dimensi´on finita, y sean B1, B2 y B3 bases
de V . Entonces:
58 Matrices
1. C(B1, B3) = C(B2, B3).C(B1, B2).
2. C(B2, B1) = C(B1, B2)
−1
.
Para terminar, probaremos algunos resultados que relacionan matrices inversibles con
cambios de base.
Proposici´on 2.21 Sea A ∈ GL(n, K). Existen bases B1, B2 de Kn tales que A = C(B1, B2).
Demostraci´on. Supongamos que Aij = aij para cada 1 ≤ i ≤ n, 1 ≤ j ≤ n.
Sea B2 = E = {e1, . . . , en}, la base can´onica de Kn, y sea B1 =
n Pn
i=1
ai1.ei
, . . . , Pn
i=1
ain.ei
o
.
Veamos que B1 es una base de Kn, para lo cual basta ver que B1 es un conjunto linealmente
independiente. Supongamos que Pn
j=1
αj
³ Pn
i=1
aij .ei
´
= 0. Entonces
0 = Xn
j=1
³Xn
i=1
αjaij ei
´
=
Xn
i=1
³Xn
j=1
αjaij ei
´
=
Xn
i=1
³Xn
j=1
αjaij´
ei
,
de donde Pn
j=1
aijαj = 0 para cada 1 ≤ i ≤ n, o equivalentemente,
A.
α1
.
.
.
αn
= 0.
Como A es inversible, esto implica que α1 = · · · = αn = 0. Luego B1 es linealmente independiente
y, en consecuencia, una base de Kn×n.
Es claro que C(B1, E) = A. ¤
Proposici´on 2.22 Sea A ∈ GL(n, K) y sea B una base de Kn. Entonces:
i) Existe una base B1 de Kn tal que A = C(B1, B).
ii) Existe una base B2 de Kn tal que A = C(B, B2).
Demostraci´on.
i) Se prueba en forma an´aloga a la proposici´on anterior, reemplazando la base can´onica E
por la base B dada.
ii) Por la parte i), dadas A−1 ∈ GL(n, K) y la base B de Kn, existe una base B2 de Kn
tal que A−1 = C(B2, B). En consecuencia, A = C(B2, B)
−1 = C(B, B2).
BIOGREFÍA.
http://cms.dm.uba.ar/depto/public/Curso%20de%20grado/fascgrado2.pdf
Comentarios
Publicar un comentario