Independência linear

Em álgebra linear, um conjunto S {\displaystyle S} de vectores diz-se linearmente independente se nenhum dos seus elementos for combinação linear dos outros.[1]

Definição formal

Um subconjunto S {\displaystyle S} de um espaço vectorial V {\displaystyle V} diz-se linearmente dependente se existe um subconjunto finito F {\displaystyle F} de S {\displaystyle S} e escalares λ v , v F , {\displaystyle \lambda _{v},v\in F,} não todos nulos, tais que v F λ v   v = 0. {\displaystyle \sum _{v\in F}\lambda _{v}\ v=0.} O subconjunto S {\displaystyle S} diz-se linearmente independente se para qualquer subconjunto finito F {\displaystyle F} de S {\displaystyle S} se tem v F λ v   v = 0 λ v = 0 , v F . {\displaystyle \sum _{v\in F}\lambda _{v}\ v=0\Rightarrow \lambda _{v}=0\,,\forall v\in F.} [2][3]

Nestas situações, diz-se também que os vectores do subconjunto S {\displaystyle S} são linearmente dependentes (LD) ou linearmente independentes (LI), respectivamente. Com base nessa definição não é difícil de concluir que um subconjunto S {\displaystyle S} é linearmente dependente se, e somente se, pelo menos um dos vetores do conjunto é combinação linear dos demais.[4]

Algoritmos de verificação

Independência linear em conjuntos de vectores

Suponhamos que { v 1 , v 2 , , v n } {\displaystyle \left\{{\vec {v_{1}}},{\vec {v_{2}}},\ldots ,{\vec {v_{n}}}\right\}} é um conjunto de vectores de R m {\displaystyle \mathbb {R^{m}} } , em que n m {\displaystyle n\leq m} e

v 1 = [ v 11 v 21 v m 1 ] , {\displaystyle {\vec {v_{1}}}={\begin{bmatrix}v_{11}\\v_{21}\\\vdots \\v_{m1}\end{bmatrix}},} v 2 = [ v 12 v 22 v m 2 ] , , {\displaystyle {\vec {v_{2}}}={\begin{bmatrix}v_{12}\\v_{22}\\\vdots \\v_{m2}\end{bmatrix}},\ldots ,} v n = [ v 1 n v 2 n v m n ] . {\displaystyle {\vec {v_{n}}}={\begin{bmatrix}v_{1n}\\v_{2n}\\\vdots \\v_{mn}\end{bmatrix}}.}

Ainda, fixemos as constantes k 1 , k 2 , , k n R {\displaystyle k_{1},k_{2},\ldots ,k_{n}\in \mathbb {R} } , tais que

k 1 v 1 + k 2 v 2 + + k n v n = 0 . {\displaystyle k_{1}{\vec {v_{1}}}+k_{2}{\vec {v_{2}}}+\ldots +k_{n}{\vec {v_{n}}}={\vec {0}}.}

Por definição, se k 1 = k 2 = = k n = 0 {\displaystyle k_{1}=k_{2}=\ldots =k_{n}=0} for a única possibilidade para que a equação anterior seja verdadeira, então os vectores v 1 , v 2 , , v n {\displaystyle {\vec {v_{1}}},{\vec {v_{2}}},\ldots ,{\vec {v_{n}}}} serão linearmente independentes. Por outro lado, se qualquer uma das constantes admitir um valor diferente de zero, então o conjunto de vectores será linearmente dependente.[5]

Observe que podemos reescrever a equação

k 1 v 1 + k 2 v 2 + + k n v n = 0 {\displaystyle k_{1}{\vec {v_{1}}}+k_{2}{\vec {v_{2}}}+\ldots +k_{n}{\vec {v_{n}}}={\vec {0}}}

como

k 1 [ v 11 v 21 v m 1 ] + k 2 [ v 12 v 22 v m 2 ] + + k n [ v 1 n v 2 n v m n ] = [ 0 0 0 ] . {\displaystyle k_{1}{\begin{bmatrix}v_{11}\\v_{21}\\\vdots \\v_{m1}\end{bmatrix}}+k_{2}{\begin{bmatrix}v_{12}\\v_{22}\\\vdots \\v_{m2}\end{bmatrix}}+\ldots +k_{n}{\begin{bmatrix}v_{1n}\\v_{2n}\\\vdots \\v_{mn}\end{bmatrix}}={\begin{bmatrix}0\\0\\\vdots \\0\end{bmatrix}}.}

Efetuando as multiplicações, teríamos

[ k 1 v 11 k 1 v 21 k 1 v m 1 ] + [ k 2 v 12 k 2 v 22 k 2 v m 2 ] + + [ k n v 1 n k n v 2 n k n v m n ] = [ 0 0 0 ] {\displaystyle {\begin{bmatrix}k_{1}v_{11}\\k_{1}v_{21}\\\vdots \\k_{1}v_{m1}\end{bmatrix}}+{\begin{bmatrix}k_{2}v_{12}\\k_{2}v_{22}\\\vdots \\k_{2}v_{m2}\end{bmatrix}}+\ldots +{\begin{bmatrix}k_{n}v_{1n}\\k_{n}v_{2n}\\\vdots \\k_{n}v_{mn}\end{bmatrix}}={\begin{bmatrix}0\\0\\\vdots \\0\end{bmatrix}}}

que também poderia ser representada como segue

[ v 11 v 12 v 1 n v 21 v 22 v 2 n v m 1 v m 2 v m n ] [ k 1 k 2 k n ] = [ 0 0 0 ] . {\displaystyle {\begin{bmatrix}v_{11}&v_{12}&\ldots &v_{1n}\\v_{21}&v_{22}&\ldots &v_{2n}\\\vdots &\vdots &\ddots &\vdots \\v_{m1}&v_{m2}&\ldots &v_{mn}\end{bmatrix}}\cdot {\begin{bmatrix}k_{1}\\k_{2}\\\vdots \\k_{n}\end{bmatrix}}={\begin{bmatrix}0\\0\\\vdots \\0\end{bmatrix}}.}

Assim, temos uma equação matricial da forma M k = 0 {\displaystyle M{\vec {k}}={\vec {0}}} , em que

M = [ v 11 v 12 v 1 n v 21 v 22 v 2 n v m 1 v m 2 v m n ] , {\displaystyle M={\begin{bmatrix}v_{11}&v_{12}&\ldots &v_{1n}\\v_{21}&v_{22}&\ldots &v_{2n}\\\vdots &\vdots &\ddots &\vdots \\v_{m1}&v_{m2}&\ldots &v_{mn}\end{bmatrix}},} k = [ k 1 k 2 k n ] {\displaystyle {\vec {k}}={\begin{bmatrix}k_{1}\\k_{2}\\\vdots \\k_{n}\end{bmatrix}}} e 0 = [ 0 0 0 ] . {\displaystyle {\vec {0}}={\begin{bmatrix}0\\0\\\vdots \\0\end{bmatrix}}.}

Observe que a solução trivial ( k = 0 {\displaystyle {\vec {k}}={\vec {0}}} ) é válida. Porém, é preciso descobrir se tal solução é única.[5] Para isso, podemos resolver o sistema por meio de operações elementares nas linhas da matriz aumentada

[ v 11 v 12 v 1 n 0 v 21 v 22 v 2 n 0 v m 1 v m 2 v m n 0 ] {\displaystyle {\begin{bmatrix}v_{11}&v_{12}&\ldots &v_{1n}&0\\v_{21}&v_{22}&\ldots &v_{2n}&0\\\vdots &\vdots &\ddots &\vdots &\vdots \\v_{m1}&v_{m2}&\ldots &v_{mn}&0\end{bmatrix}}}

Logo, o conjunto de vectores será linearmente independente, caso o sistema linear tenha unicamente a solução trivial (todas as constantes valendo 0 {\displaystyle 0} ), ou seja, se o sistema for classificado como possível e determinado (SPD). Porém, se houverem infinitas soluções, de modo que o sistema seja classificado como possível e indeterminado (SPI), então o conjunto de vectores será linearmente dependente.[1][6]

Sendo assim, em R m {\displaystyle \mathbb {R^{m}} } , é possível descobrir se um conjunto de vectores é linearmente independente ou não por meio da resolução de um sistema homogêneo.[7]

Independência linear em colunas de matrizes

A partir de uma matriz M {\displaystyle M} , pode-se verificar se suas colunas são linearmente independentes. Uma forma de realizar esta verificação, é por meio de uma equação da forma

M x = 0 , {\displaystyle M{\vec {x}}={\vec {0}},}

a qual representa um sistema homogêneo na forma matricial, de modo que podemos definir se existem soluções não triviais para x {\displaystyle {\vec {x}}} . Se houverem vectores não nulos para x {\displaystyle {\vec {x}}} satisfazendo a equação M x = 0 {\displaystyle M{\vec {x}}={\vec {0}}} , então segue que as colunas de M {\displaystyle M} são linearmente dependentes. Porém, caso a única solução seja x = 0 {\displaystyle {\vec {x}}={\vec {0}}} , então segue que as colunas de M {\displaystyle M} são linearmente independentes.[8]

Casos especiais

Em alguns casos, não é necessário utilizar os algoritmos citados anteriormente, pois apenas analisando os vectores do conjunto é possível classificá-lo como linearmente dependente. Vejamos alguns casos citados a seguir.

Vector nulo

Qualquer conjunto de vectores que contenha o vector nulo será linearmente dependente,[9] mesmo que tal conjunto seja unitário, isto é, mesmo que tenha apenas um vector.[8]

Por exemplo, suponha que u {\displaystyle {\vec {u}}} , v {\displaystyle {\vec {v}}} e w {\displaystyle {\vec {w}}} sejam vectores não nulos de R n {\displaystyle \mathbb {R} ^{n}} e que k 1 {\displaystyle k_{1}} , k 2 {\displaystyle k_{2}} , k 3 {\displaystyle k_{3}} e k 4 {\displaystyle k_{4}} sejam constantes reais. Ainda, seja 0 {\displaystyle {\vec {0}}} o vector nulo de R n {\displaystyle \mathbb {R} ^{n}} , de modo que

k 1 u + k 2 v + k 3 w + k 4 0 = 0 . {\displaystyle k_{1}{\vec {u}}+k_{2}{\vec {v}}+k_{3}{\vec {w}}+k_{4}{\vec {0}}={\vec {0}}.}

Observe que fixando k 1 = k 2 = k 3 = 0 {\displaystyle k_{1}=k_{2}=k_{3}=0} , podemos variar k 4 {\displaystyle k_{4}} sem alterar o resultado da combinação, ou seja, as soluções para o sistema são infinitas. Generalizando esse raciocínio para uma quantidade arbitrária de vetores podemos concluir que qualquer conjunto de vectores que contenha o vector nulo é um conjunto linearmente dependente.[9]

Vectores múltiplos

Conjuntos de vectores que contenham dois ou mais vectores múltiplos escalares entre si são conjuntos linearmente dependentes.[10] Isso decorre do fato de que, se existe algum vector do conjunto que é múltiplo de outro vector, então ele pode ser expresso como combinação linear dos demais vectores.[6]

Por exemplo, sejam a 1 , a 2 R {\displaystyle a_{1},a_{2}\in \mathbb {R} } e u , v , w R 2 {\displaystyle {\vec {u}},{\vec {v}},{\vec {w}}\in \mathbb {R^{2}} } , com u = ( 2 a 1 , 2 a 2 ) , {\displaystyle {\vec {u}}=(2a_{1},2a_{2}),} v = ( a 1 , a 2 ) {\displaystyle {\vec {v}}=(a_{1},a_{2})} e w = ( 3 a 1 , 2 a 2 ) {\displaystyle {\vec {w}}=(3a_{1},2a_{2})} . Note que u = 2 ( a 1 , a 2 ) = 2 v {\displaystyle {\vec {u}}=2(a_{1},a_{2})=2{\vec {v}}} , ou seja, u {\displaystyle {\vec {u}}} e v {\displaystyle {\vec {v}}} são múltiplos e, portanto, temos a possível combinação linear u = 2 v + 0 w {\displaystyle {\vec {u}}=2{\vec {v}}+0{\vec {w}}} . Logo, o conjunto { u , v , w } {\displaystyle \left\{{\vec {u}},{\vec {v}},{\vec {w}}\right\}} é linearmente dependente.

Número de vectores

Em um espaço vectorial de dimensão finita, se o número de vectores do conjunto a ser verificado for superior à dimensão do espaço vetorial, então o conjunto será linearmente dependente. Assim, um conjunto com n {\displaystyle n} vectores em R m {\displaystyle \mathbb {R^{m}} } é linearmente dependente se n > m {\displaystyle n>m} .[9]

De fato, seja V = [ v 1 v 2 v n ] {\displaystyle V={\Big [}{\vec {v_{1}}}\quad {\vec {v_{2}}}\quad \ldots \quad {\vec {v_{n}}}{\Big ]}} uma matriz de ordem m × n {\displaystyle m\times n} , com v 1 , v 2 , , v n R m {\displaystyle {\vec {v_{1}}},{\vec {v_{2}}},\ldots ,{\vec {v_{n}}}\in \mathbb {R^{m}} } e n > m {\displaystyle n>m} . Note que a equação

V x = 0 {\displaystyle V{\vec {x}}={\vec {0}}}

é equivalente a um sistema de m {\displaystyle m} equações e n {\displaystyle n} incógnitas. Como n > m {\displaystyle n>m} , haverá um número superior de variáveis do que equações e, portanto, o sistema linear homogêneo terá infinitas soluções. Deste modo, a equação V x = 0 {\displaystyle V{\vec {x}}={\vec {0}}} admite solução não trivial, caracterizando as colunas de V {\displaystyle V} como linearmente dependentes. Logo, os vectores v 1 , v 2 , , v n R m {\displaystyle {\vec {v_{1}}},{\vec {v_{2}}},\ldots ,{\vec {v_{n}}}\in \mathbb {R^{m}} } são linearmente dependentes.[9]

Determinante

Quando o número de vectores de um subconjunto de R m {\displaystyle \mathbb {R^{m}} } for igual ao número de componentes de cada vector ( m {\displaystyle m} ), é possível utilizar o determinante para definir se o conjunto de vectores é linearmente dependente ou não. [4]

Para realizar uma verificação a partir de um determinante, basta utilizar cada vector do conjunto como sendo uma coluna (ou linha) de uma matriz M {\displaystyle M} e, em seguida, calcular seu determinante. Se o resultado for igual a 0 {\displaystyle 0} , então o conjunto de vectores será linearmente dependente. Por outro lado, caso o determinante seja diferente de 0 {\displaystyle 0} , então o conjunto será linearmente independente. O conceito pode ser estendido para o caso de independência linear de colunas de matrizes quadradas.[11]

Caracterizações de independência linear

Fixe A R n {\displaystyle A\subset \mathbb {R^{n}} } . Então, são equivalentes:[12]

  • A {\displaystyle A} é linearmente independente.
  • O conjunto A {\displaystyle A} é um gerador minimal para Span { A } {\displaystyle {\textrm {Span}}\left\{A\right\}} . Ou seja, se B A {\displaystyle B\subsetneq A} , então Span { B } Span { A } . {\displaystyle {\textrm {Span}}\left\{B\right\}\subsetneq {\textrm {Span}}\left\{A\right\}.}
  • Sempre que v 1 , , v k A {\displaystyle {\vec {v_{1}}},\ldots ,{\vec {v_{k}}}\in A} são distintos e α 1 v 1 + + α k v k = 0 {\displaystyle \alpha _{1}{\vec {v_{1}}}+\ldots +\alpha _{k}{\vec {v_{k}}}={\vec {0}}} , então α 1 = = α k = 0. {\displaystyle \alpha _{1}=\ldots =\alpha _{k}=0.}
  • Toda combinação linear de elementos de A {\displaystyle A} é única, no sentido de que se v 1 , , v k A {\displaystyle {\vec {v_{1}}},\ldots ,{\vec {v_{k}}}\in A} são distintos, então
α 1 v 1 + + α k v k = β 1 v 1 + + β k v k {\displaystyle \alpha _{1}{\vec {v_{1}}}+\ldots +\alpha _{k}{\vec {v_{k}}}=\beta _{1}{\vec {v_{1}}}+\ldots +\beta _{k}{\vec {v_{k}}}}

implica que α 1 = β 1 , , α k = β k . {\displaystyle \alpha _{1}=\beta _{1},\ldots ,\alpha _{k}=\beta _{k}.}

  • Toda combinação linear de elementos de A {\displaystyle A} é única, no sentido de que se
v = α 1 v 1 + + α k v k , {\displaystyle {\vec {v}}=\alpha _{1}{\vec {v_{1}}}+\ldots +\alpha _{k}{\vec {v_{k}}},}

e

v = β 1 w 1 + + β m w m , {\displaystyle {\vec {v}}=\beta _{1}{\vec {w_{1}}}+\ldots +\beta _{m}{\vec {w_{m}}},}

com todos os v 1 , , v k A {\displaystyle {\vec {v_{1}}},\ldots ,{\vec {v_{k}}}\in A} distintos entre si, todos os w 1 , , w m A {\displaystyle {\vec {w_{1}}},\ldots ,{\vec {w_{m}}}\in A} distintos entre si, e com todos os α 1 , , α k {\displaystyle \alpha _{1},\ldots ,\alpha _{k}} e β 1 , , β m {\displaystyle \beta _{1},\ldots ,\beta _{m}} não nulos, então k = m {\displaystyle k=m} , e os índices de β j {\displaystyle \beta _{j}} e w j {\displaystyle {\vec {w_{j}}}} podem ser rearranjados de modo que

v 1 = w 1 e α 1 = β 1 v k = w k e α k = β k . {\displaystyle {\begin{array}{c c c}{\vec {v_{1}}}={\vec {w_{1}}}&\;{\textrm {e}}&\;\alpha _{1}=\beta _{1}\\&\vdots \\{\vec {v_{k}}}={\vec {w_{k}}}&\;{\textrm {e}}&\;\alpha _{k}=\beta _{k}.\\\end{array}}}

Propriedades

  • Se β = { v 1 , v 2 , , v n } {\displaystyle \beta =\left\{{\vec {v_{1}}},{\vec {v_{2}}},\ldots ,{\vec {v_{n}}}\right\}} for uma base de um espaço vectorial V {\displaystyle V} e α = { u 1 , u 2 , , u p } {\displaystyle \alpha =\left\{{\vec {u_{1}}},{\vec {u_{2}}},\ldots ,{\vec {u_{p}}}\right\}} for um conjunto de vectores em V {\displaystyle V} , tal que p > n {\displaystyle p>n} , então o conjunto α {\displaystyle \alpha } é linearmente dependente.[7]

De fato, como o conjunto β {\displaystyle \beta } forma uma base para o espaço vectorial V {\displaystyle V} , segue que os vectores de β {\displaystyle \beta } são linearmente independentes.[13] Ainda, o número de vectores do conjunto β {\displaystyle \beta } é igual à dimensão de V {\displaystyle V} . Logo, se α {\displaystyle \alpha } é um conjunto do espaço vectorial V {\displaystyle V} , sendo que o número de vectores de α {\displaystyle \alpha } é maior que o número de vectores de β {\displaystyle \beta } , segue que o número de vectores do conjunto α {\displaystyle \alpha } será maior que a dimensão de V {\displaystyle V} , de modo que tal conjunto será linearmente dependente.[9]

  • Seja S = { v 1 , , v j } {\displaystyle S=\left\{v_{1},\ldots ,v_{j}\right\}} um conjunto de dois ou mais vectores. Dizemos que S {\displaystyle S} é linearmente dependente se, e somente se, pelo menos um dos vectores de S {\displaystyle S} for combinação linear dos demais.[14]

Demonstração:

Vamos mostrar que se pelo menos um dos vectores de S {\displaystyle S} for combinação linear dos demais vectores, então S {\displaystyle S} é linearmente dependente.

De fato, se v j {\displaystyle {\vec {v_{j}}}} for uma combinação linear dos outros vectores de S {\displaystyle S} , então podemos reordenar os vectores do conjunto, escrevendo v j {\displaystyle {\vec {v_{j}}}} como

v j = k 1 v 1 + + k j 1 v j 1 {\displaystyle {\vec {v_{j}}}=k_{1}{\vec {v_{1}}}+\ldots +k_{j-1}{\vec {v_{j-1}}}}

em que k 1 , , k j 1 {\displaystyle k_{1},\ldots ,k_{j-1}} são constantes que tornam a equação anterior válida. Perceba que é possível subtrair v j {\displaystyle {\vec {v_{j}}}} em ambos os lados da equação

v j v j = k 1 v 1 + + k j 1 v j 1 v j {\displaystyle {\vec {v_{j}}}-{\vec {v_{j}}}=k_{1}{\vec {v_{1}}}+\ldots +k_{j-1}{\vec {v_{j-1}}}-{\vec {v_{j}}}}

e assim

0 = k 1 v 1 + + k j 1 v j 1 v j {\displaystyle {\vec {0}}=k_{1}{\vec {v_{1}}}+\ldots +k_{j-1}{\vec {v_{j-1}}}-{\vec {v_{j}}}}

ou seja,

0 = k 1 v 1 + + k j 1 v j 1 + ( 1 ) v j . {\displaystyle {\vec {0}}=k_{1}{\vec {v_{1}}}+\ldots +k_{j-1}{\vec {v_{j-1}}}+(-1){\vec {v_{j}}}.}

Como a equação anterior admite uma constante não nula, ou seja, como a equação

k 1 v 1 + + k j 1 v j 1 + k j v j = 0 {\displaystyle k_{1}{\vec {v_{1}}}+\ldots +k_{j-1}{\vec {v_{j-1}}}+k_{j}{\vec {v_{j}}}={\vec {0}}}

possui uma solução não trivial, segue pela definição que o conjunto S {\displaystyle S} é linearmente dependente.

Agora, vamos verificar que se S {\displaystyle S} é linearmente dependente, então pelo menos um dos vectores de S {\displaystyle S} será combinação linear dos demais.

Caso v 1 = 0 {\displaystyle {\vec {v_{1}}}={\vec {0}}} , então a equação

v 1 = k 2 v 2 + + k j v j {\displaystyle {\vec {v_{1}}}=k_{2}{\vec {v_{2}}}+\ldots +k_{j}{\vec {v_{j}}}}

admite como solução k 2 = = k j = 0 {\displaystyle k_{2}=\ldots =k_{j}=0} e, portanto, ao menos um dos vectores de S {\displaystyle S} pode ser representado como combinação linear dos demais.

Porém, se v 1 0 {\displaystyle {\vec {v_{1}}}\neq {\vec {0}}} , então como S {\displaystyle S} é linearmente dependente, existem constantes k 1 , , k j {\displaystyle k_{1},\ldots ,k_{j}} , não todas nulas que satisfazem

k 1 v 1 + + k j v j = 0 . {\displaystyle k_{1}{\vec {v_{1}}}+\ldots +k_{j}{\vec {v_{j}}}={\vec {0}}.}

Suponha que i {\displaystyle i} seja o maior índice para o qual k i 0 {\displaystyle k_{i}\neq 0} . Observe que se i = 1 {\displaystyle i=1} e v 1 0 {\displaystyle {\vec {v_{1}}}\neq {\vec {0}}} , teríamos um resultado inválido, pois v 1 = 0 {\displaystyle {\vec {v_{1}}}={\vec {0}}} seria impossível. Logo i > 1 {\displaystyle i>1} e, assim,

k 1 v 1 + + k i v i + 0 v i + 1 + + 0 v j = 0 {\displaystyle k_{1}{\vec {v_{1}}}+\ldots +k_{i}{\vec {v_{i}}}+0{\vec {v_{i+1}}}+\ldots +0{\vec {v_{j}}}={\vec {0}}}

k 1 v 1 + + k i v i = 0 {\displaystyle \Rightarrow k_{1}{\vec {v_{1}}}+\ldots +k_{i}{\vec {v_{i}}}={\vec {0}}}

k i v i = k 1 v 1 k i 1 v i 1 {\displaystyle \Rightarrow k_{i}{\vec {v_{i}}}=-k_{1}{\vec {v_{1}}}-\ldots -k_{i-1}{\vec {v_{i-1}}}}

v i = ( k 1 k i ) v 1 + + ( k i 1 k i ) v i 1 {\displaystyle \Rightarrow {\vec {v_{i}}}={\Big (}-{\frac {k_{1}}{k_{i}}}{\Big )}{\vec {v_{1}}}+\ldots +{\Big (}-{\frac {k_{i-1}}{k_{i}}}{\Big )}{\vec {v_{i-1}}}}

ou ainda,

v i = ( k 1 k i ) v 1 + + ( k i 1 k i ) v i 1 + 0 v i + 1 + + 0 v j {\displaystyle {\vec {v_{i}}}={\Big (}-{\frac {k_{1}}{k_{i}}}{\Big )}{\vec {v_{1}}}+\ldots +{\Big (}-{\frac {k_{i-1}}{k_{i}}}{\Big )}{\vec {v_{i-1}}}+0{\vec {v_{i+1}}}+\ldots +0{\vec {v_{j}}}}

o que comprova que ao menos um vector do conjunto pode ser escrito como combinação linear dos demais.[15]

Exemplos

Os vectores u {\displaystyle {\vec {u}}} e j {\displaystyle {\vec {j}}} são linearmente dependentes (são paralelos); os vectores u {\displaystyle {\vec {u}}} e v {\displaystyle {\vec {v}}} são linearmente independentes (formam uma base para o plano P {\displaystyle P} da imagem); os vectores u , w {\displaystyle {\vec {u}},{\vec {w}}} e k {\displaystyle {\vec {k}}} são linearmente independentes (formam uma base para um espaço vetorial de três dimensões)
  • O conjunto vazio é linearmente independente.[16]
  • Um conjunto unitário cujo único elemento não é o vector nulo, é linearmente independente.[17]
  • Dois vectores de um plano são linearmente dependentes se e só se um for múltiplo do outro (isto é, se são colineares).[14]
  • Em R 3 {\displaystyle \mathbb {R} ^{3}} :
    • O conjunto {(1,0,0),(0,1,0),(0,0,1)} é linearmente independente.[7]
    • O conjunto {(1,0,0),(1,1,0),(1,1,1)} é linearmente independente.[6]
    • Qualquer subconjunto de R 3 {\displaystyle \mathbb {R} ^{3}} com mais de três vectores é linearmente dependente.[9]
    • Três vectores não nulos e não colineares são linearmente dependentes se estiverem contidos em um mesmo plano.[18]
    • Três vectores são linearmente dependentes se, e somente se, o determinante da matriz em que cada vector está disposto em uma linha (ou coluna) for igual a zero.

Referências

  1. a b «3.1 Dependência e independência linear». REAMAT. 14 de novembro de 2018 
  2. Noble & Daniel, 1986, p. 89
  3. Callioli, Domingues & Costa, 1990, p. 67–68
  4. a b ANTON, Howard; RORRES, Chris (2001). Álgebra linear com aplicações. Porto Alegre: Bookman 
  5. a b LAY, David C. (2013). Álgebra linear e suas aplicações 4 ed. Rio de Janeiro: LTC. p. 45. ISBN 9788521622093 
  6. a b c Viegas, Gustavo (19 de maio de 2017). «Conjuntos LI ou LD». Toda a Matemática 
  7. a b c Oliveira, Samuel Rocha de; Maia Jr., Adolfo (23 de março de 2015). «Geometria Analítica e Álgebra Linear - Aula 17 - Independência linear. Base e dimensão». UNIVESP 
  8. a b LAY, David C. (2013). Álgebra linear e suas aplicações 4 ed. Rio de Janeiro: LTC. p. 46. ISBN 9788521622093 
  9. a b c d e f LAY, David C. (2013). Álgebra linear e suas aplicações 4 ed. Rio de Janeiro: LTC. p. 48. ISBN 9788521622093 
  10. LAY, David C. (2013). Álgebra Linear e suas aplicações 4 ed. Rio de Janeiro: LTC. pp. 46–47. ISBN 9788521622093 
  11. «Apontamentos Álgebra Linear: 3 – Determinantes» (PDF). Nova School of Business and Economics 
  12. CALDAS, André (2018). Introdução a Álgebra Linear com álgebra e geometria. [S.l.: s.n.] pp. 144–145 
  13. Viegas, Gustavo (23 de maio de 2017). «Base de um espaço vetorial». Toda a Matemática 
  14. a b LAY, David C. (2013). Álgebra linear e suas aplicações 4 ed. Rio de Janeiro: LTC. p. 47. ISBN 9788521622093 
  15. LAY, David C. (2013). Álgebra linear e suas aplicações 4 ed. Rio de Janeiro: LTC. pp. 48–49. ISBN 9788521622093 
  16. Callioli, Domingues & Costa, 1990, p. 68
  17. Callioli, Domingues & Costa, 1990, p. 74
  18. «Álgebra Linear: Introdução a independência linear.». Khan Academy em Português. 6 de novembro de 2014 

Bibliografia

  • Callioli, Carlos A.; Hygino H. Domingues; Roberto C. F. Costa (1990). Álgebra Linear e Aplicações 6 ed. São Paulo: Atual. ISBN 9788570562975  A referência emprega parâmetros obsoletos |coautor= (ajuda)
  • Noble, Ben; James W. Daniel (1986). Álgebra Linear Aplicada. Rio de Janeiro: Prentice-Hall do Brasil. ISBN 9788570540225  A referência emprega parâmetros obsoletos |coautor= (ajuda)

Ver também

  • v
  • d
  • e
Classes de matriz
Elementos explicitamente restritos
Constante
Condições sobre
autovalores e autovetores
Satisfazendo condições
sobre produtos ou inversas
Com aplicações específicas
Usada em estatística
  • Bernoulli
  • Centro
  • Correlação
  • Covariância
  • Dispersão
  • Duplamente estocástica
  • Informação de Fisher
  • Projeção
  • Precisão
  • Estocástica
  • Transição
Usada em teoria dos grafos
Usada em ciência e engenharia
Termos relacionados
  • Categoria:Matrizes
  • v
  • d
  • e
Tópicos relacionados com álgebra linear
Conceitos básicos
Matrizes
Álgebra linear numérica
Outros projetos Wikimedia também contêm material sobre este tema:
Wikilivros Livros e manuais no Wikilivros
  • Wikilivros