de
Seitenbanner
Menu
Nachlesen

Lineare Unabhängigkeit

Eine Menge von Vektoren heißt linear unabhängig, wenn es nicht möglich ist, einen der Vektoren als Linearkombination der anderen Vektoren darzustellen; andernfalls heißen die Vektoren linear abhängig.

Definition

Gegeben sei ein Vektorraum $V$ über einem Körper $K$. Die Vektoren $v_1,\ldots,v_n \in V$ heißen

  • linear abhängig, wenn neben der trivialen Lösung $\lambda_1 = \ldots = \lambda_n = 0_K$ noch mindestens eine weitere Lösung für die Gleichung
    \[ \lambda_1 \cdot v_1 + \ldots + \lambda_n \cdot v_n = 0_V \]
    existiert. In diesem Fall besitzen nicht alle Skalare $\lambda_i$ den Wert $0_K$. Gilt beispielsweise $\lambda_1 \neq 0_K$, so kann durch Umstellen der Gleichung eine Linearkombination für den Vektor $v_1$ gefunden werden:
    \[ v_1 = - \frac{\lambda_2}{\lambda_1} \cdot v_2 - \ldots - \frac{\lambda_n}{\lambda_1} \cdot v_n. \]
  • linear unabhängig, wenn neben der trivialen Lösung $\lambda_1 = \ldots = \lambda_n = 0_K$ keine weiteren Lösungen für die Gleichung
    \[ \lambda_1 \cdot v_1 + \ldots + \lambda_n \cdot v_n = 0_V \]
    existieren. In diesem Fall ist es nicht möglich, einen der Vektoren $v_1,\ldots,v_n$ als Linearkombination der anderen Vektoren darzustellen.

Eigenschaften

Es gelten die folgenden Eigenschaften:

  • Sind die Vektoren $v_1,\ldots,v_n \in V$ linear unabhängig und die Vektoren $v_1,\ldots,v_n,w \in V$ linear abhängig, so lässt sich der Vektor $w$ als Linearkombination von $v_1,\ldots,v_n$ darstellen.
  • Ist eine Menge von Vektoren linear unabhängig, so ist jede Teilmenge dieser Vektoren ebenfalls linear unabhängig.
  • Ist eine Menge von Vektoren $v_1,\ldots,v_n \in V$ linear abhängig, so ist jede Menge von Vektoren, die $v_1,\ldots,v_n$ enthält, ebenfalls linear abhängig.
  • Elementare Umformungen von Vektoren verändern nicht die lineare Abhängigkeit oder Unabhängigkeit.
  • Ist einer der Vektoren $v_1,\ldots,v_n \in V$ der Nullvektor $0_V$, so sind die Vektoren $v_1,\ldots,v_n$ linear abhängig.
  • In einem $n$-dimensionalen Vektorraum ist eine Menge von mehr als $n$ Vektoren stets linear abhängig.

Beispiele

Beispiel 1

Gegeben seien die folgenden Vektoren des \(\R^3\):

\[ v_1 = \begin{pmatrix} 1 \\[0.25em] -1 \\[0.25em] -1 \end{pmatrix},\quad v_2 = \begin{pmatrix} -1 \\[0.25em] 2 \\[0.25em] 3 \end{pmatrix},\quad v_3 = \begin{pmatrix} 2 \\[0.25em] -5 \\[0.25em] -7 \end{pmatrix}. \]

Zum Überprüfen der linearen Unabhängigkeit muss das folgende, in Vektorform vorliegende lineare Gleichungssystem gelöst werden:

\[ \lambda_1 \cdot v_1 + \lambda_2 \cdot v_2 + \lambda_3 \cdot v_3 = 0. \]

Zum Lösen mit dem Gaußschen Eliminationsverfahren wird zunächst die erweiterte Koeffizientenmatrix aufgestellt und diese anschließend in Zeilenstufenform überführt:

\[ \begin{array}{rrr|r|l} 1 & -1 & 2 & 0 & \\[0.25em] -1 & 2 & -5 & 0 & \text{II} + \text{I} \\[0.25em] -1 & 3 & -7 & 0 & \text{III} + \text{I} \\[0.25em] \hline 1 & -1 & 2 & 0 & \\[0.25em] 0 & 1 & -3 & 0 & \\[0.25em] 0 & 2 & -5 & 0 & \text{III} - 2 \cdot \text{II} \\[0.25em] \hline 1 & -1 & 2 & 0 & \\[0.25em] 0 & 1 & -3 & 0 & \\[0.25em] 0 & 0 & 1 & 0 & \end{array} \]

Ausgehend von der erhaltenen Zeilenstufenform kann nun mittels Rückwärtseinsetzen die Lösung des linearen Gleichungssystems bestimmt werden:

\begin{align*} \lambda_{3} &= 0 \\[1.5em] \lambda_{2} &= 0+3\lambda_{3} \\[0.5em] &= 0+3 \cdot 0 \\[0.5em] &= 0 \\[1.5em] \lambda_{1} &= 0+\lambda_{2}-2\lambda_{3} \\[0.5em] &= 0+0-2 \cdot 0 \\[0.5em] &= 0. \end{align*}

Als einzige Lösung dieses Gleichungssystems ergibt sich somit \(\lambda_1 = \lambda_2 = \lambda_3 = 0\), woraus unmittelbar die lineare Unabhängigkeit der Vektoren \(v_1\), \(v_2\) und \(v_3\) folgt.

Beispiel 2

Gegeben seien die folgenden Vektoren des \(\R^3\):

\[ v_1 = \begin{pmatrix} 1 \\[0.25em] 0 \\[0.25em] 2 \end{pmatrix},\quad v_2 = \begin{pmatrix} 0 \\[0.25em] 2 \\[0.25em] 1 \end{pmatrix},\quad v_3 = \begin{pmatrix} 3 \\[0.25em] 4 \\[0.25em] 8 \end{pmatrix}. \]

Die Vektoren \(v_1\), \(v_2\) und \(v_3\) sind linear abhängig, da beispielsweise der Vektor \(v_3\) als Linearkombination der Vektoren \(v_1\) und \(v_2\) dargestellt werden kann. Es gilt:

\[ v_3 = 3 \cdot v_1 + 2 \cdot v_2. \]

Beispiel 3

Gegeben seien die folgenden Vektoren des \(\R^2\):

\[ v_1 = \begin{pmatrix} 1 \\[0.25em] 0 \end{pmatrix},\quad v_2 = \begin{pmatrix} 1 \\[0.25em] 2 \end{pmatrix},\quad v_3 = \begin{pmatrix} 3 \\[0.25em] -1 \end{pmatrix}. \]

Die Vektoren \(v_1\), \(v_2\) und \(v_3\) sind linear abhängig, da drei Vektoren eines zweidimensionalen Vektorraums stets linear abhängig sind. Allgemein sind \(n+1\) Vektoren eines \(n\)-dimensionalen Vektorraums stets linear abhängig.

Beispiel 4

Gegeben seien die folgenden Polynome mit reellen Koeffizienten:

\begin{align*} p_1(x) &= x^2 - x - 1 \\[0.5em] p_2(x) &= -x^2 + 2x + 3 \\[0.5em] p_3(x) &= 2x^2 - 5x - 7. \end{align*}

Die Überprüfung auf lineare Unabhängigkeit kann mithilfe der Isomorphie des Polynomraums aller reellen Polynome mit Maximalgrad 2 und des Koordinatenraums \(\R^3\) durchgeführt werden, indem zunächst alle Polynome durch die entsprechenden Vektoren dargestellt werden – das Polynom \(ax^2+bx+c\) kann beispielsweise durch den Vektor \(\bigl( a,b,c\bigr)\) repräsentiert werden. Anschließend kann die Frage der linearen Unabhängigkeit für die so erhaltenen Vektoren geprüft werden. Für die Polynome \(p_1(x)\), \(p_2(x)\) und \(p_3(x)\) ergeben sich die folgenden Vektoren:

\[ v_1 = \begin{pmatrix} 1 \\[0.25em] -1 \\[0.25em] -1 \end{pmatrix},\quad v_2 = \begin{pmatrix} -1 \\[0.25em] 2 \\[0.25em] 3 \end{pmatrix},\quad v_3 = \begin{pmatrix} 2 \\[0.25em] -5 \\[0.25em] -7 \end{pmatrix}. \]

Hierbei handelt es sich um die linear unabhängigen Vektoren aus Beispiel 1. Die Polynome \(p_1(x)\), \(p_2(x)\) und \(p_3(x)\) sind folglich ebenfalls linear unabhängig.

Zusammenhang mit Determinanten

Gegeben seien $n$ Vektoren aus einem $n$-dimensionalen Vektorraum. Verwendet man diese Vektoren als Zeilen oder Spalten einer $n \times n$ Matrix $A$, so kann die lineare Unabhängigkeit mithilfe der Determinante geprüft werden:

  • Die Vektoren sind genau dann linear abhängig, wenn $\det(A) = 0$ gilt.
  • Die Vektoren sind genau dann linear unabhängig, wenn $\det(A) \neq 0$ gilt.

Zusammenhang mit linearen Gleichungssystemen

Gegeben sei ein lineares Gleichungssystem $A \cdot x = b$ mit der Koeffizientenmatrix $A \in K^{n \times n}$ und dem Lösungsvektor $b \in K^n$. Betrachtet man dieses Gleichungssystem in Vektorschreibweise

\[ \underbrace{\begin{bmatrix} a_{11} & \ldots & a_{1n} \\[0.25em] \vdots & \ddots & \vdots \\[0.25em] a_{n1} & \ldots & a_{nn} \end{bmatrix}}_{A} \cdot \underbrace{\begin{bmatrix} x_1 \\[0.25em] \vdots \\[0.25em] x_n \end{bmatrix}}_{x} = \underbrace{\begin{bmatrix} a_{11} \\[0.25em] \vdots \\[0.25em] a_{n1} \end{bmatrix}}_{s_1} x_1 + \ldots + \underbrace{\begin{bmatrix} a_{1n} \\[0.25em] \vdots \\[0.25em] a_{nn} \end{bmatrix}}_{s_n} x_n = \underbrace{\begin{bmatrix} b_1 \\[0.25em] \vdots \\[0.25em] b_n \end{bmatrix}}_{b}, \]

so kann der Lösungsvektor $b$ als Linearkombination der Spaltenvektoren $s_1,\ldots,s_n$ der Koeffizientenmatrix $A$ aufgefasst werden.

Da die Skalare in einer Linearkombination genau dann eindeutig bestimmt sind, wenn die Vektoren linear unabhängig sind, ist das Gleichungssystem $A \cdot x = b$ folglich genau dann eindeutig lösbar, wenn die Spaltenvektoren $s_1,\ldots,s_n$ linear unabhängig sind.