Quizás sea éste el
concepto más importante en un curso de álgebra lineal, ya que los temas
posteriores de una manera u otra acaban dependiendo de este concepto.
Pero ¿qué entendemos por
dependencia? está claro que el concepto implica que algo depende de algo, por
redundante que pueda parecer. En el caso del álgebra lineal, tenemos que volver
al concepto de espacio y subespacio vectorial. Recordemos que ambos no son más
que un conjunto de vectores que cumplen unas propiedades determinadas. Ahora
imaginemos que tenemos un conjunto de vectores, de la misma dimensión, diremos
que dos vectores son linealmente dependientes si uno de ellos depende, o es una
combinación lineal del otro. Como el concepto puede parecer un poco difícil de
entender, introduciremos un ejemplo:
Supongamos que tenemos
los vectores (1,1) y (2,2). Sólo viéndolos es fácil suponer que el vector (2,2)
es el doble que le vector (1,1), es decir, que si multiplicamos el vector (1,1)
por 2, obtenemos el vector (2,2). Esto que ha sido tan sencillo de ver, implica
que los vectores (1,1) y (2,2) son linealmente dependientes, ya que hemos
obtenido uno a partir de la combinación (en este caso el producto por u escalar)
del otro.
Este ejemplo es muy
fácil, pero la cosa se complica cuando tenemos más de dos vectores y si la
dimensión de éstos aumenta. Podemos generalizar el concepto de combinación
lineal a la expresión:
u=lv+gw+wz, siendo u,
v, w y z, vectores y los coeficientes l, g, w números reales que nos permitan realizar la
operación.
Volviendo al ejemplo
anterior, podemos ver que:
(2,2)=2(1,1),
es decir, el coeficiente
es el valor 2.
Pero ¿qué pasa si tenemos
tres vectores?, veamos.
Queremos saber si el
vector (2,3) se obtiene como combinación lineal de los vectores (1,1) y (0,2).
Vamos pues a utilizar el concepto general de combinación lineal:
(2,3)=l(1,1)+g(0,2)
operando tenemos:
2=l1+g0
3=l1+2g
resolviendo el sistema
tenemos que,
l=2
g=1/2
es decir, existen dos
coeficientes reales que permiten obtener el vector (2,3) a partir de los
vectores (1,1) y (0,2) o lo que es lo mismo el vector (2,3) es combinación
lineal de los vectores (1,1) y (0,2) o lo que es lo mismo los vectores (2,3),
(1,1) y (0,2) son linealmente dependientes. Las tres definiciones dicen
exactamente lo mismo pero con diferentes palabras. Lo importante es reconocer
en las tres definiciones que quieren decir lo mismo.
En caso de que los
coeficientes tuvieran un valor de cero, esto significaría que los vectores son
linealmente dependientes o que no son combinación lineal.
Otra manera de saber si
los vectores son o no combinación lineal es hacer el determinante, en caso de
que el número de vectores y su dimensión permiten hacer un determinante. ¿Cómo
se hace? Podemos poner los vectores en forma de columna y formar la matriz
para, posteriormente calcular el determinante.
Pongamos un ejemplo:
tenemos los vectores (-1,1,1), (1,-1,1) y (1,1,-1). Queremos saber si los
vectores son linealmente dependientes. Para ello, ponemos los vectores en forma
de columna hasta formar una matriz de 3x3.
Si calculamos el
determinante de esta matriz, vemos que el resultado es 4. Hay una propiedad de
los determinantes que nos dice que si hay una fila o una columna que es
combinación de las otras, el valor del determinante es cero, en caso contrario
el determinante tendrá un valor distinto de cero.
Así pues, los
vectores que forman el determinante anterior son linealmente independientes.
Según el número de vectores,
es más cómodo usar el determinante, ya que es más fácil calcular un
determinante que resolver el sistema de ecuaciones con los coeficientes.
En caso de no poder montar una matriz cuadrada no queda más remedio que resolver el sistema de ecuaciones y determinar los coeficientes.
Espero que os sea de utilidad esta entrada.
En caso de no poder montar una matriz cuadrada no queda más remedio que resolver el sistema de ecuaciones y determinar los coeficientes.
Espero que os sea de utilidad esta entrada.
No hay comentarios:
Publicar un comentario