ÁLGEBRA MODERNA

ÁLGEBRA MODERNA
Espacios vectoriales. 
En diversos conjuntos conocidos, por ejemplo los de vectores en el plano o en el espacio (R 2 y R 3 ), o tambi´en el de los polinomios (R[X]), sabemos sumar sus elementos y multiplicarlos por n´umeros. Todos estos conjuntos comparten una cierta “estructura”, que est´a dada por esa suma y ese producto por n´umeros, a la que llamaremos espacio vectorial. En este cap´ıtulo presentaremos la noci´on de espacio vectorial y estudiaremos algunas propiedades b´asicas que poseen los conjuntos con dicha estructura. 1.1 Espacios vectoriales y subespacios 1.1.1 Preliminares La noci´on de espacio vectorial requiere de dos conjuntos: un conjunto K (los escalares) y otro conjunto V (los vectores). Estos dos conjuntos deben satisfacer ciertas propiedades, que esencialmente se refieren a que los elementos de V se puedan sumar entre s´ı y multiplicar por elementos de K. Comenzaremos dando algunas definiciones previas para poder despu´es presentar la definici´on precisa de espacio vectorial. Definici´on 1.1 Sea A un conjunto no vac´ıo. Una operaci´on (o ley de composici´on interna u operaci´on binaria) de A es una funci´on ∗ : A × A → A. Notaci´on. ∗(a, b) = c se escribe a ∗ b = c. Ejemplos. • + : N × N → N, tal que +(a, b) = a + b, es una operaci´on de N. • Como la resta, −(a, b) = a − b, no es una funci´on de N × N en N, entonces no es una operaci´on de N. 2 Espacios vectoriales • La suma +, el producto · y la resta − son operaciones de Z, Q, R y C. No nos interesaremos por operaciones cualesquiera, sino que trabajaremos con operaciones que posean algunas propiedades. Entre las propiedades que analizaremos se encuentran las siguientes: Definici´on 1.2 (Propiedades b´asicas) Sea ∗ : A × A → A una operaci´on. i) ∗ se dice asociativa si (a ∗ b) ∗ c = a ∗ (b ∗ c) ∀ a, b, c ∈ A. ii) Se dice que ∗ tiene elemento neutro si ∃ e ∈ A tal que e ∗ a = a ∗ e = a para cada a ∈ A. (Observar que si ∗ tiene elemento neutro, ´este es ´unico, ya que si e y e 0 son elementos neutros, e 0 = e ∗ e 0 = e.) iii) Si ∗ tiene elemento neutro e, se dice que todo elemento tiene inverso para ∗ si ∀ a ∈ A, ∃ a 0 ∈ A tal que a ∗ a 0 = a 0 ∗ a = e. iv) ∗ se dice conmutativa si a ∗ b = b ∗ a ∀ a, b ∈ A. Se pueden estudiar las caracter´ısticas que comparten los conjuntos con una operaci´on que satisface algunas de estas propiedades. Una noci´on ´util es la de grupo, que definimos a continuaci´on. Definici´on 1.3 Sea A un conjunto, y sea ∗ una operaci´on en A que satisface las propiedades i), ii) y iii) de la definici´on anterior. Entonces (A, ∗) se llama un grupo. Si adem´as ∗ cumple iv), se dice que (A, ∗) es un grupo abeliano o conmutativo. Ejemplos. • (N, +) no es un grupo: se puede probar que no tiene elemento neutro. • (Z, +), (Q, +), (R, +) y (C, +) son grupos abelianos. • (Z, ·) no es un grupo: se puede probar que s´olo 1 y -1 tienen inverso multiplicativo. • (Q − {0}, ·), (R − {0}, ·) y (C − {0}, ·) son grupos abelianos. • A = {f : R → R}, ∗ = ◦ (composici´on de funciones). Entonces (A, ∗) no es un grupo: las ´unicas funciones con inversa para ◦ son las biyectivas. • SR = {f : R → R / f es biyectiva }, ∗ = ◦. Entonces (SR, ◦) es un grupo. • C un conjunto, P(C) = {S ⊆ C}. Se define la operaci´on 4 : P(C) × P(C) → P(C), llamada diferencia sim´etrica, de la siguiente forma: A4B = (A ∪ B) − (A ∩ B). Entonces (P(C), 4) es un grupo abeliano. 1.1 Espacios vectoriales y subespacios 3 A partir de la definici´on de grupo pueden probarse propiedades que poseen todos los conjuntos con esa estructura. Por ejemplo: • Sea (G, ∗) un grupo. Entonces para cada a ∈ G existe un ´unico inverso para a. Sea e el elemento neutro de (G, ∗). Supongamos que b y c son inversos de a. Entonces b = e ∗ b = (c ∗ a) ∗ b = c ∗ (a ∗ b) = c ∗ e = c. Notaci´on. Si G es un grupo abeliano y la operaci´on se nota +, el elemento neutro se notar´a 0 y, para cada a ∈ G, el inverso de a se notar´a −a. (En otros casos, el elemento neutro se nota 1 y el inverso de a se nota a −1 .) La siguiente definici´on que daremos se refiere a conjuntos en los cuales hay dos operaciones relacionadas entre s´ı. Definici´on 1.4 Sea A un conjunto y sean + y · operaciones de A. Se dice que (A, +, ·) es un anillo si i) (A, +) es un grupo abeliano ii) · es asociativa y tiene elemento neutro iii) Valen las propiedades distributivas: Para a, b, c ∈ A, • a · (b + c) = a · b + a · c • (b + c) · a = b · a + c · a Adem´as, si · es conmutativa, se dice que (A, +, ·) es un anillo conmutativo. Notaci´on. Cuando quede claro cu´ales son las operaciones + y ·, para referirnos al anillo (A, +, ·), escribiremos simplemente A. Al elemento neutro del producto se lo notar´a 1. Ejemplos. • (Z, +, ·), (Q, +, ·), (R, +, ·) y (C, +, ·) son anillos conmutativos. • (Zn, +, ·) es una anillo conmutativo. • Si (A, +, ·) es un anillo conmutativo, entonces (A[X], +, ·) es un anillo conmutativo con las operaciones usuales de polinomios. • Si C es un conjunto, (P(C), 4, ∩) es un anillo conmutativo. • {f : R → R} con las operaciones usuales de suma y producto de funciones es un anillo conmutativo. 4 Espacios vectoriales Al igual que en el caso de los grupos, tambi´en pueden probarse propiedades que poseen todos los anillos: • Sea (A, +, ·) un anillo, y sea 0 el elemento neutro de +. Entonces 0 · a = 0, ∀ a ∈ A. Se tiene que 0 · a = (0 + 0) · a = 0 · a + 0 · a. Si b es el inverso aditivo de 0 · a, resulta 0 = 0 · a + b = (0 · a + 0 · a) + b = 0 · a + (0 · a + b) = 0 · a. Luego, 0 · a = 0. En un anillo cualquiera no es cierto que a · b = 0 ⇒ a = 0 o b = 0. Por ejemplo, en Z4, se tiene que 2 · 2 = 0, pero 2 6= 0. Definici´on 1.5 Un anillo conmutativo (A, +, ·) se llama un dominio de integridad o dominio ´ıntegro si a · b = 0 ⇒ a = 0 o b = 0. Ejemplos. • (Z, +, ·), (Q, +, ·), (R, +, ·) y (C, +, ·) son dominios de integridad. • Si A es un dominio de integridad, entonces A[X] es un dominio de integridad. • Zp es un dominio de integridad ⇐⇒ p es primo. La siguiente definici´on resume las propiedades que debe satisfacer uno de los conjuntos involucrados en la definici´on de un espacio vectorial. Definici´on 1.6 Sea K un conjunto, y sean + y · operaciones de K. Se dice que (K, +, ·) es un cuerpo si (K, +, ·) es un anillo conmutativo y todo elemento no nulo de K tiene inverso multiplicativo. Es decir: i) (K, +) es un grupo abeliano, ii) (K − {0}, ·) es un grupo abeliano, y iii) vale la propiedad distributiva de · con respecto a +. Ejemplos. • (Q, +, ·), (R, +, ·) y (C, +, ·) son cuerpos • (Zp, +, ·) es un cuerpo ⇐⇒ p es primo. 1.1 Espacios vectoriales y subespacios 5 • Se define Q[ √ 2] = © Pn i=0 ai( √ 2)i / ai ∈ Q, n ∈ N0 ª . Veamos que (Q[ √ 2], +, ·) es un cuerpo. Usando que Q[ √ 2] ⊂ R, se puede probar f´acilmente que (Q[ √ 2], +, ·) es un anillo conmutativo. Observamos que Q[ √ 2] = {a + b √ 2 : a, b ∈ Q}. En efecto, para cada k ∈ N, se tiene que (√ 2)2k = 2k y (√ 2)2k+1 = 2k √ 2 y entonces, todo elemento de la forma Pn i=0 ai( √ 2)i con ai ∈ Q y n ∈ N0 puede escribirse como a + b √ 2 con a, b ∈ Q. Rec´ıprocamente, es claro que todo elemento de la forma a + b √ 2 con a, b ∈ Q pertenece a Q[ √ 2]. Veamos ahora que todo elemento no nulo tiene inverso. Sea a+b √ 2 6= 0. Entonces (a+b √ 2)(a−b √ 2) = a 2 −2b 2 6= 0 (pues a, b ∈ Q), de donde (a + b √ 2)−1 = a a 2 − 2b 2 + −b a 2 − 2b 2 √ 2. Tambi´en en el caso de los cuerpos se pueden probar propiedades generales. Por ejemplo: • Todo cuerpo (K, +, ·) es un dominio de integridad. Tenemos que probar que a · b = 0 ⇒ a = 0 o b = 0. Supongamos que a · b = 0. Si a = 0, ya est´a. Si a 6= 0, entonces existe a −1 tal que a · a −1 = a −1 · a = 1. Entonces a −1 · (a · b) = a −1 · 0 ⇒ (a −1 · a) · b = 0 ⇒ 1 · b = 0 ⇒ b = 0. Para poder completar la definici´on de espacio vectorial necesitamos definir una clase especial de funciones que se aplican a elementos de dos conjuntos distintos: Definici´on 1.7 Sean A y B dos conjuntos. Una acci´on de A en B es una funci´on · : A × B → B. Notaci´on: ·(a, b) = a · b Estamos ahora en condiciones de dar la definici´on de espacio vectorial. 1.1.2 Espacios vectoriales Definici´on 1.8 Sea (K, +, ·) un cuerpo. Sea V un conjunto no vac´ıo, sea + una operaci´on en V y sea · una acci´on de K en V . Se dice que (V, +, ·) es un K-espacio vectorial si se cumplen las siguientes condiciones: i) (V, +) es un grupo abeliano. ii) La acci´on · : K × V → V satisface: 6 Espacios vectoriales (a) a · (v + w) = a · v + a · w ∀ a ∈ K; ∀ v, w ∈ V . (b) (a + b) · v = a · v + b · v ∀ a, b ∈ K; ∀ v ∈ V . (c) 1 · v = v ∀ v ∈ V . (d) (a · b) · v = a · (b · v) ∀ a, b ∈ K; ∀ v ∈ V . Los elementos de V se llaman vectores y los elementos de K se llaman escalares. La acci´on · se llama producto por escalares. N´otese que el s´ımbolo · se usa tanto para la acci´on de K en V como para el producto en K, pero esto no deber´ıa generar confusi´on puesto que en el primer caso estar´a aplicado a un elemento de K y otro de V , mientras que en el segundo, a dos elementos de K. En lo que sigue, K denotar´a un cuerpo. Si (V, +, ·) es un K-espacio vectorial y la operaci´on + de V y la acci´on · de K en V quedan claras del contexto, diremos simplemente que V es un K-espacio vectorial. Hay propiedades que se cumplen en cualquier espacio vectorial. A continuaci´on mostramos algunas de ellas. Sea V un K-espacio vectorial. Entonces: 1. 0 · v = 0 para todo v ∈ V . (Observar que el elemento 0 que aparece en el miembro izquierdo de la igualdad es el elemento neutro de K, mientras que el de la derecha es el vector 0 ∈ V .) 2. (−1) · v = −v para todo v ∈ V . (Recu´erdese que −v denota al inverso aditivo de v). Demostraci´on. 1. Se tiene que 0 · v = (0 + 0) · v = 0 · v + 0 · v. Sea w el inverso aditivo de 0 · v. Entonces 0 = 0 · v + w = (0 · v + 0 · v) + w = 0 · v + (0 · v + w) = 0 · v + 0 = 0 · v 2. Vemos que v + (−1) · v = (−1) · v + v = (−1) · v + 1 · v = (−1 + 1) · v = 0 · v = 0. Luego, (−1) · v es el inverso aditivo de v, es decir (−1) · v = −v. Ejemplos. En lo que sigue K es un cuerpo. 1. K es un K-espacio vectorial. 1.1 Espacios vectoriales y subespacios 7 2. Sea Kn = {(x1, . . . , xn) / xi ∈ K}. Se definen + : Kn × Kn → Kn, (x1, . . . , xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn) · : K × Kn → Kn, λ · (x1, . . . , xn) = (λx1, . . . , λxn) Entonces Kn es un K-espacio vectorial. 3. Una matriz de n filas y m columnas es un arreglo de n × m n´umeros ubicados en n filas y m columnas. Sea Kn×m = {A / A es una matriz de n filas y m columnas de elementos en K}. Observamos que un elemento A de Kn×m es de la forma A =   A11 A12 · · · A1m A21 A22 · · · A2m · · · · · · · · · · · · An1 An2 · · · Anm   . Si A ∈ Kn×m, denotaremos por Aij al elemento ubicado en la intersecci´on de la fila i y la columna j de A. Se definen + : Kn×m × Kn×m → Kn×m, (A + B)ij = Aij + Bij (1 ≤ i ≤ n, 1 ≤ j ≤ m) · : K × Kn×m → Kn×m, (λ · A)ij = λ · Aij (1 ≤ i ≤ n, 1 ≤ j ≤ m) Entonces Kn×m es un K-espacio vectorial. 4. Sea Z un conjunto no vac´ıo. Se considera KZ = {f : Z → K / f es funci´on } y se definen + : KZ × KZ → KZ, (f + g)(x) = f(x) + g(x) ∀ x ∈ Z, · : K × KZ → KZ, (λ · f)(x) = λ · f(x) ∀ x ∈ Z. Entonces KZ es un K-espacio vectorial. 5. K[X], el conjunto de polinomios en la variable X a coeficientes en K, es un K-espacio vectorial con la suma usual de polinomios y la multiplicaci´on usual de polinomios por una constante. 6. R es un Q-espacio vectorial; C es un R-espacio vectorial y un Q-espacio vectorial. 7. Q[ √ 2] es un Q-espacio vectorial. 1.1.3 Subespacios Dentro de un K-espacio vectorial V , hay subconjuntos que heredan la estructura de V , es decir, que son tambi´en espacios vectoriales con la misma operaci´on, el mismo elemento neutro y la misma acci´on que V . En esta secci´on, comenzaremos el estudio de los subconjuntos con esta propiedad. 8 Espacios vectoriales Definici´on 1.9 Sea V un K-espacio vectorial. Un subconjunto S ⊆ V no vac´ıo se dice un subespacio de V si la suma y el producto por escalares (de V ) son una operaci´on y una acci´on en S que lo convierten en un K-espacio vectorial. Ejemplo. Caractericemos todos los subespacios de R 2 : • S = {(0, 0)} es un subespacio. • Supongamos que S es un subespacio y que contiene alg´un elemento v no nulo. Entonces, para todo λ ∈ R, λ.v ∈ S. Si ´estos son todos los elementos de S, entonces S es un subespacio (que, gr´aficamente, resulta ser una recta que pasa por el origen). • Con la notaci´on del punto anterior, si S contiene alg´un elemento que no es de la forma λ.v, digamos v 0 , contiene tambi´en a todos los m´ultiplos de v 0 . Luego, S contiene a las dos rectas L y L 0 que pasan por el origen y cuyas direcciones son v y v 0 respectivamente. Es claro (usando la regla del paralelogramo) que cualquier punto en R 2 es suma de un elemento de L m´as uno de L 0 , luego pertenece a S. En consecuencia, S = R 2 . Observamos que, dado un K-espacio vectorial V y un subconjunto S de V , para determinar si S es un subespacio de V seg´un la Definici´on 1.9 debemos verificar la validez de una gran cantidad de propiedades (todas las involucradas en la definici´on de espacio vectorial). La siguiente proposici´on nos provee una caracterizaci´on de los subespacios en t´erminos de s´olo tres propiedades, a partir de las cuales se deducen todas las dem´as. Proposici´on 1.10 Sea V un K-espacio vectorial y sea S ⊆ V . Entonces S es un subespacio de V si y s´olo si valen las siguientes condiciones: i) 0 ∈ S ii) v, w ∈ S =⇒ v + w ∈ S iii) λ ∈ K, v ∈ S =⇒ λ · v ∈ S Demostraci´on. (⇒) Es inmediato verificar que si S es un subespacio de V se cumplen i), ii) e iii). (⇐) La condici´on i) asegura que S es no vac´ıo. Por ii), + es una operaci´on de S y por iii), · es una acci´on. La asociatividad y conmutatividad de la suma se deducen de la validez de las mismas para V , el elemento neutro de la suma 0 ∈ S por i), y la existencia de inverso aditivo se deduce de que dado v ∈ S, −v = (−1) · v, que pertenece a S por iii). Las propiedades de la acci´on en la definici´on de espacio vectorial se deducen tambi´en de su validez en V . ¤ Observamos que la condici´on i) en la proposici´on anterior puede ser reemplazada por 1.1 Espacios vectoriales y subespacios 9 i 0 ) S 6= ∅. Es decir, las condiciones i), ii), iii) son equivalentes a i’), ii), iii). La demostraci´on de este hecho queda como ejercicio. Ejemplos. Sea V un K-espacio vectorial. 1. {0} es un subespacio de V . 2. V es un subespacio de V . 3. Si v ∈ V , S = {λ · v / λ ∈ K} es un subespacio de V : i) 0 = 0 · v ∈ S. ii) Si λ · v, µ · v ∈ S, entonces λ · v + µ · v = (λ + µ) · v ∈ S. iii) Si λ · v ∈ S y α ∈ K, entonces α · (λ · v) = (α · λ) · v ∈ S. Este subespacio se denomina el subespacio generado por v y se nota S = < v >. 4. Sean v1, . . . , vn ∈ V . Entonces S = {α1.v1 + · · · + αn.vn : αi ∈ K, 1 ≤ i ≤ n} es un subespacio de V : i) 0 = 0.v1 + · · · + 0.vn ∈ S. ii) Si v, w ∈ S, v = α1.v1 + · · · + αn.vn, w = β1.v1 + · · · + βn.vn, entonces v + w = (α1 + β1).v1 + · · · + (αn + βn).vn ∈ S. iii) Si λ ∈ K y v = α1.v1 + · · · + αn.vn ∈ S, entonces λ.v = (λ.α1).v1 + · · · + (λ.αn).vn ∈ S. El subespacio S que hemos definido se llama el subespacio generado por v1, . . . , vn y se nota S = < v1, . . . , vn >. Si V es un K-espacio vectorial, tiene sentido considerar las operaciones de uni´on e intersecci´on entre subespacios de V (que son subconjuntos de V ). Una pregunta que surge es si estas operaciones preservan la estructura de subespacio. Como veremos a continuaci´on, esto vale en el caso de la intersecci´on de subespacios, pero no para la uni´on. Proposici´on 1.11 Sea V un K-espacio vectorial, y sean S y T subespacios de V . Entonces S ∩ T es un subespacio de V . Demostraci´on. i) 0 ∈ S ∩ T puesto que 0 ∈ S y 0 ∈ T. ii) Sean v, w ∈ S ∩ T. Entonces v ∈ S, v ∈ T, w ∈ S y w ∈ T. Como v, w ∈ S y S es un subespacio, entonces v + w ∈ S. An´alogamente, v + w ∈ T. Luego, v + w ∈ S ∩ T. 10 Espacios vectoriales iii) Sean λ ∈ K y v ∈ S ∩ T. Entonces v ∈ S y v ∈ T. Como λ ∈ K, v ∈ S y S es un subespacio, entonces λ · v ∈ S. An´alogamente, λ · v ∈ T. Luego, λ · v ∈ S ∩ T. ¤ En forma an´aloga a lo hecho en la demostraci´on de la proposici´on anterior, se prueba que la intersecci´on de cualquier familia de subespacios de un K-espacio vectorial V es un subespacio de V . Observaci´on 1.12 Si V es un K-espacio vectorial, S y T subespacios de V , entonces S ∪ T no es necesariamente un subespacio de V . En efecto, consideremos en R 2 los subespacios S = < (1, 0) > y T = < (0, 1) >. Observamos que (1, 0) ∈ S y (0, 1) ∈ T; luego, ambos pertenecen a S ∪ T. Pero (1, 0) + (0, 1) = (1, 1) ∈/ S ∪ T, puesto que (1, 1) ∈/ S y (1, 1) ∈/ T. Concluimos esta secci´on exhibiendo algunos ejemplos de subespacios de distintos Kespacios vectoriales. Ejemplos. 1. Sean a1, . . . , an ∈ K fijos. Sea S = {(x1, . . . , xn) ∈ Kn : a1x1 + · · · anxn = 0}. Es f´acil verificar que S es un subespacio de Kn. 2. S = ( (x1, . . . , xn) ∈ Kn :    a11x1 + · · · + a1nxn = 0 . . . am1x1 + · · · + amnxn = 0 ) es un subespacio de Kn, pues S = Tm i=1 Si , donde Si = {(x1, . . . , xn) ∈ Kn : ai1x1 + · · · + ainxn = 0} (1 ≤ i ≤ m) y cada Si es un subespacio de Kn. 3. Sean V = K[X] y n ∈ N fijo. Se tiene que Kn[X] = {f ∈ K[X] / f = 0 o gr(f) ≤ n} es un subespacio de V : i) 0 ∈ Kn[X]. ii) Sean f, g ∈ Kn[X]. Si f = 0 o g = 0 es claro que f + g ∈ S. Si f + g = 0, entonces f + g ∈ S. Si no, gr(f + g) ≤ max(gr(f), gr(g)) ≤ n, y por lo tanto f + g ∈ S. iii) Sean λ ∈ K y f ∈ Kn[X]. Si λ = 0 o f = 0, entonces λ.f = 0 ∈ Kn[X]. Si no, gr(λ.f) = gr(f), de donde λ.f ∈ Kn[X]. Observar que el conjunto {f ∈ K[X] / f = 0 o gr(f) ≥ n}, para n ∈ N fijo, no es un subespacio de K[X]. Por ejemplo: f = Xn y g = −Xn + 1 pertenecen a dicho conjunto, pero f + g = 1 no. 1.1.4 Sistemas de generadores El objetivo de esta secci´on es mostrar c´omo pueden describirse todos los elementos de un K-espacio vectorial V a partir de ciertos subconjuntos de elementos de V . 1.1 Espacios vectoriales y subespacios 11 De la definici´on de K-espacio vectorial vemos que una forma de obtener nuevos elementos de V a partir de los elementos de un subconjunto G ⊆ V es considerando sumas finitas de m´ultiplos por escalares de elementos de G. Surge entonces la noci´on de combinaci´on lineal: Definici´on 1.13 Sea V un K-espacio vectorial, y sea G = {v1, . . . , vr} ⊆ V . Una combinaci´on lineal de G es un elemento v ∈ V tal que v = Pr i=1 αi .vi con αi ∈ K para cada 1 ≤ i ≤ r. Ejemplos. 1. Sea G = {(1, 2),(3, 4)} ⊆ R 2 . Una combinaci´on lineal de G es un vector v = α.(1, 2) + β.(3, 4) con α, β ∈ R. 2. Sea G = {1, X, . . . , Xn} ⊆ Rn[X]. Una combinaci´on lineal de G es Pn i=0 αiXi con αi ∈ R para cada 0 ≤ i ≤ n. La definici´on de combinaci´on lineal se extiende al caso de subconjuntos no necesariamente finitos del espacio vectorial considerado: Definici´on 1.14 Sea V un K-espacio vectorial, sea I un conjunto de ´ındices y sea G = {vi / i ∈ I} ⊂ V . Una combinaci´on lineal de G es un elemento v ∈ V tal que v = P i∈I αi .vi donde αi = 0 salvo para finitos i ∈ I. Ejemplos. 1. Sea G = {Xi / i ∈ N0} ⊆ R[X]. Una combinaci´on lineal de G es P∞ i=0 αiXi donde αi ∈ R y αi = 0 salvo para finitos valores de i ∈ N0. 2. Sea G = {(α, 0) : α ∈ R} ⊆ R 2 . Una combinaci´on lineal de G es P α∈R βα.(α, 0) tal que βα ∈ R y βα = 0 salvo para finitos α ∈ R. Dado un espacio vectorial V , considerando las combinaciones lineales de los elementos de ciertos subconjuntos de V , podemos obtener cualquier elemento del espacio vectorial en cuesti´on. Como se ver´a en los ejemplos, en muchos casos esto nos permitir´a describir conjuntos infinitos (como por ejemplo R 2 ) utilizando finitos elementos del espacio. Definici´on 1.15 Sea V un K-espacio vectorial y sea G ⊆ V . Se dice que G es un sistema de generadores de V (y se nota < G > = V ) si todo elemento de V es una combinaci´on lineal de G. 12 Espacios vectoriales Ejemplos. 1. R 2 = < (1, 0),(0, 1) >, pues ∀ x = (α, β) ∈ R 2 , x = α.(1, 0) + β.(0, 1). 2. Kn = < (1, 0 . . . , 0),(0, 1, 0, . . . , 0), . . . ,(0, . . . , 0, 1, 0, . . . , 0), . . . ,(0, . . . , 0, 1) >. 3. Kn×m = < Eij > 1≤i≤n 1≤j≤m donde (Eij )kl = n 1 si k = i y j = l 0 si no 4. K[X] =< Xi >i∈N0 . 5. Si G ⊆ K[X] tal que para cada i ∈ N0, existe fi ∈ G con gr(fi) = i, entonces K[X] = < G >: Es claro que 0 ∈ < G >. Veamos, por inducci´on en gr(g), que g ∈ < G > para cada g ∈ K[X]. Si gr(g) = 0, entonces g ∈ K, y como existe f0 ∈ G con gr(f0) = 0 (es decir, f0 ∈ K − {0}), se tiene que g = g f0 .f0 ∈ < G >. Sea n > 0 y supongamos que todo polinomio de grado menor que n y el polinomio nulo pertenecen a < G >. Sea g ∈ K[X] con gr(g) = n. Por hip´otesis, existe fn ∈ G con gr(fn) = n. Si g = Pn j=0 ajXj y fn = Pn j=0 bjXj , consideramos ge = g − an bn fn. Observamos que ge = 0 o gr(ge) < n. Por hip´otesis inductiva, ge ∈ < G >, es decir ge = P f∈G cf .f con cf = 0 salvo para finitos f. En consecuencia, g = ge + an bn fn = X f∈G, f6=fn cf .f + ³ cfn + an bn ´ fn ∈ < G >. 1.2 Sistemas de ecuaciones lineales Hemos visto que un conjunto del tipo S =    (x1, . . . , xm) ∈ Km :    a11x1 + · · · + a1mxm = 0 . . . an1x1 + · · · + anmxm = 0    es un subespacio de Km. Surge entonces la cuesti´on de describir estos conjuntos. Esto puede hacerse, por ejemplo, encontrando un sistema de generadores del subespacio S. M´as en general, estudiaremos el problema de dar una descripci´on del conjunto de soluciones de un sistema de ecuaciones de la forma    a11x1 + a12x2 + · · · + a1mxm = b1 . . . an1x1 + an2x2 + · · · + anmxm = bn donde aij ∈ K para todo 1 ≤ i ≤ n y 1 ≤ j ≤ m, y bi ∈ K para todo 1 ≤ i ≤ n, a los que llamaremos sistemas de n ecuaciones lineales en m inc´ognitas. 1.2 Sistemas de ecuaciones lineales 13 1.2.1 Sistemas lineales homog´eneos Un primer tipo de sistemas de ecuaciones que estudiaremos son los que tienen todas las ecuaciones igualadas a 0. Definici´on 1.16 Un sistema lineal homog´eneo de n ecuaciones con m inc´ognitas a coeficientes en un cuerpo K es un sistema del tipo    a11x1 + a12x2 + · · · + a1mxm = 0 . . . an1x1 + an2x2 + · · · + anmxm = 0 donde aij ∈ K para cada 1 ≤ i ≤ n, 1 ≤ j ≤ m. Notaci´on. La matriz A ∈ Kn×m definida por Aij = aij se llama la matriz asociada al sistema. Observaci´on 1.17 El conjunto de las soluciones de un sistema lineal homog´eneo con m inc´ognitas es un subespacio de Km (ver Ejemplo 2 en la p´agina 10). Resolver un sistema de este tipo significar´a dar un sistema de generadores para el subespacio de las soluciones. El m´etodo que daremos para la resoluci´on de sistemas de ecuaciones lineales consiste en transformar el sistema dado, por medio de ciertas operaciones, en otro que tenga el mismo conjunto de soluciones, pero cuya resoluci´on sea m´as simple. Aparece entonces la noci´on de sistemas equivalentes: Definici´on 1.18 Dos sistemas lineales homog´eneos se dicen equivalentes si sus conjuntos de soluciones son iguales. Ejemplo. Los siguientes sistemas lineales homog´eneos a coeficientes en R son equivalentes: ½ x + y + z = 0 y + z = 0 ½ x = 0 y + z = 0 1.2.2 M´etodo de triangulaci´on Algunos sistemas de ecuaciones lineales son muy f´aciles de resolver: Ejemplo. Consideremos el siguiente sistema lineal homog´eneo en R 3 :    2x1 + 3x2 − x3 = 0 − x2 + x3 = 0 5x3 = 0 Este sistema tiene como ´unica soluci´on a (0, 0, 0): De la tercera ecuaci´on, resulta que x3 = 0. Teniendo en cuenta que x3 = 0, de la segunda ecuaci´on se deduce que x2 = 0. Finalmente, reemplazando x2 = x3 = 0 en la primera ecuaci´on, se obtiene que x1 = 0. 14 Espacios vectoriales An´alogamente, ser´a m´as f´acil obtener las soluciones de cualquier sistema lineal que se encuentre en esta forma “triangular”, es decir, de la forma    a11x1 + a12x2 + · · · + a1nxn + · · · + a1mxm = 0 a22x2 + · · · + a2nxn + · · · + a2mxm = 0 . . . annxn + · · · + anmxm = 0 La idea de lo que sigue es ver c´omo puede obtenerse, dado un sistema lineal arbitrario, un sistema de este tipo equivalente al dado. La siguiente proposici´on caracteriza ciertas operaciones que producen sistemas equivalentes. En estas operaciones se basa el m´etodo de eliminaci´on de Gauss (o m´etodo de triangulaci´on) que utilizaremos para resolver sistemas lineales. Proposici´on 1.19 Dado un sistema lineal homog´eneo de ecuaciones, los siguientes cambios en las ecuaciones dan lugar a sistemas equivalentes: 1. Intercambiar dos ecuaciones de lugar. 2. Multiplicar una ecuaci´on por una constante no nula. 3. Reemplazar una ecuaci´on por ella misma m´as un m´ultiplo de otra. Demostraci´on. 1. Si vemos al conjunto de soluciones del sistema como la intersecci´on de los conjuntos de soluciones de cada una de las ecuaciones que lo integran, intercambiar dos ecuaciones corresponde a intercambiar dos conjuntos en la intersecci´on. Como la intersecci´on es conmutativa, el conjunto que resulta es el mismo. 2. Sea x = (x1, . . . , xm) ∈ Km una soluci´on de (∗)    a11x1 + a12x2 + · · · + a1mxm = 0 . . . ai1x1 + ai2x2 + · · · + aimxm = 0 . . . an1x1 + an2x2 + · · · + anmxm = 0 Al multiplicar la i-´esima ecuaci´on por λ ∈ K, λ 6= 0, resulta el sistema (∗∗)    a11x1 + a12x2 + · · · + a1mxm = 0 . . . λai1x1 + λai2x2 + · · · + λaimxm = 0 . . . an1x1 + an2x2 + · · · + anmxm = 0 1.2 Sistemas de ecuaciones lineales 15 Es claro que x es soluci´on de todas las ecuaciones que no fueron modificadas. Adem´as λai1x1 + λai2x2 + · · · + λaimxm = λ(ai1x1 + ai2x2 + · · · + aimxm) = λ. 0 = 0. Luego, x es soluci´on de (∗∗). Rec´ıprocamente, multiplicando la i-´esima ecuaci´on de (∗∗) por 1 λ se obtiene (∗), de donde, con el mismo razonamiento que antes, se deduce que si x es soluci´on de (∗∗) tambi´en lo es de (∗). 3. Se demuestra en forma an´aloga. ¤ Observaci´on 1.20 Si A es la matriz asociada a un sistema lineal homog´eneo H, efectuar las operaciones de la proposici´on anterior sobre las ecuaciones de H equivale a hacerlo sobre las filas de A. Como consecuencia de esta observaci´on, para resolver un sistema lineal trabajaremos con la matriz asociada al sistema, en lugar de hacerlo con las ecuaciones. Al aplicar en las matrices las operaciones dadas en la Proposici´on 1.19 estaremos obteniendo matrices cuyos sistemas lineales asociados son equivalentes al original. El siguiente teorema nos asegura que, por medio de las operaciones permitidas siempre puede obtenerse un sistema triangular equivalente al dado. M´as a´un, de la demostraci´on se desprende un algoritmo para realizar esta tarea. Teorema 1.21 Sea H un sistema lineal homog´eneo de n ecuaciones con m inc´ognitas. Entonces, aplicando los cambios descriptos en la Proposici´on 1.19, puede obtenerse un sistema lineal homog´eneo H0 cuya matriz B es triangular superior, es decir, tal que Bij = 0 si i > j. Demostraci´on. Procedemos por inducci´on en n, la cantidad de ecuaciones del sistema. Si n = 1 no hay nada que probar. Supongamos que vale para n y consideremos un sistema lineal de n + 1 ecuaciones    a11x1 + · · · + a1mxm = 0 . . . an1x1 + · · · + anmxm = 0 an+1 1x1 + · · · + an+1mxm = 0 Si m = 1, es claro que el resultado vale. Supongamos m > 1. Primer caso: Si ai1 = 0 para cada 1 ≤ i ≤ n + 1. Entonces la matriz del sistema es de la forma   0 a12 · · · a1m . . . . . . . . . 0 an+1 2 · · · an+1 m   =   0 c ¯0 M   donde ¯0 denota una columna de ceros y c ∈ K1×(m−1) , M ∈ Kn×(m−1) . 16 Espacios vectoriales Segundo caso: Existe j, 1 ≤ j ≤ n + 1, con a1j 6= 0. Eventualmente intercambiando las ecuaciones 1 y j, podemos suponer que a11 6= 0. Multiplicando la primera ecuaci´on por 1 a11 y aplicando operaciones de tipo 3. en las otras resulta   1 a12 a11 · · · a1m a11 a21 a22 · · · a2m . . . . . . . . . an+1 1 an+1 2 · · · an+1 m   Fi − ai1F1 −→   1 c ¯0 M   con c ∈ K1×(m−1) y M ∈ Kn×(m−1) . Entonces, en cualquier caso, aplicando las operaciones descriptas en la Proposici´on 1.19 al sistema dado, puede obtenerse un sistema cuya matriz asociada es de la forma A =   a c ¯0 M   con M ∈ Kn×(m−1) y a = 1 ´o a = 0. Sea HM el sistema cuya matriz asociada es M. Por hip´otesis inductiva, aplicando operaciones permitidas puede obtenerse un sistema equivalente a HM cuya matriz M0 es triangular superior. Aplicando esas mismas operaciones en la matriz A se obtiene B =   a c ¯0 M0   con a = 1 ´o a = 0, que es triangular superior. ¤ Ejemplo. Resolver el siguiente sistema lineal homog´eneo en R 4 : ( 2x2 − x3 + x4 = 0 3x1 + x2 + 10x3 + 5x4 = 0 x1 + 3x3 + x4 = 0 La matriz asociada al sistema de ecuaciones es A =   0 2 −1 1 3 1 10 5 1 0 3 1   . El primer paso del m´etodo de Gauss consiste en colocar en el lugar A11 un elemento no nulo. Para eso permutamos las filas 1 y 3 de la matriz (podr´ıa usarse tambi´en la fila 2). Se obtiene   1 0 3 1 3 1 10 5 0 2 −1 1   . 1.2 Sistemas de ecuaciones lineales 17 A continuaci´on debemos realizar operaciones de fila de manera de conseguir que los restantes elementos de la primera columna de la matriz sean ceros. Si Fi denota la i-´esima fila de la matriz, haciendo F2 − 3F1 resulta   1 0 3 1 0 1 1 2 0 2 −1 1   . Pasamos ahora a la segunda columna de la matriz. El elemento ubicado en la fila 2 columna 2 de la matriz es un 1, con lo que s´olo resta conseguir un 0 en la fila 3 columna 2. Para eso efectuamos F3 − 2F2:   1 0 3 1 0 1 1 2 0 0 −3 −3   . Esta matriz se encuentra en forma triangular. El sistema asociado ( x1 + 3x3 + x4 = 0 x2 + x3 + 2x4 = 0 −3x3 − 3x4 = 0 es equivalente al original. De la tercera ecuaci´on deducimos que si X = (x1, x2, x3, x4) es soluci´on del sistema, entonces x3 = −x4. Reemplazando en la segunda ecuaci´on y despejando x2 se obtiene x2 = −x4. Finalmente, de la primera ecuaci´on se deduce que x1 = 2x4. Adem´as es claro que cualquier X que cumple estas condiciones es soluci´on de la ecuaci´on. En consecuencia, las soluciones del sistema son todos los vectores en R 4 de la forma X = (2x4, −x4, −x4, x4) = x4(2, −1, −1, 1), es decir, el conjunto de las soluciones del sistema es el subespacio S = < (2, −1, −1, 1) >.

BIOGRAFÍA.
http://cms.dm.uba.ar/depto/public/Curso%20de%20grado/fascgrado2.pdf

Comentarios

Entradas populares de este blog

SECUENCIA FIBONACCI

MATEMÁTICAS DEL SIGLO XVII Y XVIII.

MATEMÁTICAS EUROPEAS