Lineare Unabhängigkeit
Eine Menge von Vektoren heißt linear unabhängig, wenn es nicht möglich ist, einen der Vektoren als Linearkombination der anderen Vektoren darzustellen; andernfalls heißen die Vektoren linear abhängig.
Definition
Gegeben sei ein Vektorraum $V$ über einem Körper $K$. Die Vektoren $v_1,\ldots,v_n \in V$ heißen
- linear abhängig, wenn neben der trivialen Lösung $\lambda_1 = \ldots = \lambda_n = 0_K$ noch mindestens eine weitere Lösung für die Gleichung \[ \lambda_1 \cdot v_1 + \ldots + \lambda_n \cdot v_n = 0_V \]existiert. In diesem Fall besitzen nicht alle Skalare $\lambda_i$ den Wert $0_K$. Gilt beispielsweise $\lambda_1 \neq 0_K$, so kann durch Umstellen der Gleichung eine Linearkombination für den Vektor $v_1$ gefunden werden:\[ v_1 = - \frac{\lambda_2}{\lambda_1} \cdot v_2 - \ldots - \frac{\lambda_n}{\lambda_1} \cdot v_n. \]
- linear unabhängig, wenn neben der trivialen Lösung $\lambda_1 = \ldots = \lambda_n = 0_K$ keine weiteren Lösungen für die Gleichung \[ \lambda_1 \cdot v_1 + \ldots + \lambda_n \cdot v_n = 0_V \]existieren. In diesem Fall ist es nicht möglich, einen der Vektoren $v_1,\ldots,v_n$ als Linearkombination der anderen Vektoren darzustellen.
Eigenschaften
Es gelten die folgenden Eigenschaften:
- Sind die Vektoren $v_1,\ldots,v_n \in V$ linear unabhängig und die Vektoren $v_1,\ldots,v_n,w \in V$ linear abhängig, so lässt sich der Vektor $w$ als Linearkombination von $v_1,\ldots,v_n$ darstellen.
- Ist eine Menge von Vektoren linear unabhängig, so ist jede Teilmenge dieser Vektoren ebenfalls linear unabhängig.
- Ist eine Menge von Vektoren $v_1,\ldots,v_n \in V$ linear abhängig, so ist jede Menge von Vektoren, die $v_1,\ldots,v_n$ enthält, ebenfalls linear abhängig.
- Elementare Umformungen von Vektoren verändern nicht die lineare Abhängigkeit oder Unabhängigkeit.
- Ist einer der Vektoren $v_1,\ldots,v_n \in V$ der Nullvektor $0_V$, so sind die Vektoren $v_1,\ldots,v_n$ linear abhängig.
- In einem $n$-dimensionalen Vektorraum ist eine Menge von mehr als $n$ Vektoren stets linear abhängig.
Beispiele
Beispiel 1
Gegeben seien die folgenden Vektoren des \(\R^3\):
Zum Überprüfen der linearen Unabhängigkeit muss das folgende, in Vektorform vorliegende lineare Gleichungssystem gelöst werden:
Zum Lösen mit dem Gaußschen Eliminationsverfahren wird zunächst die erweiterte Koeffizientenmatrix aufgestellt und diese anschließend in Zeilenstufenform überführt:
Ausgehend von der erhaltenen Zeilenstufenform kann nun mittels Rückwärtseinsetzen die Lösung des linearen Gleichungssystems bestimmt werden:
Als einzige Lösung dieses Gleichungssystems ergibt sich somit \(\lambda_1 = \lambda_2 = \lambda_3 = 0\), woraus unmittelbar die lineare Unabhängigkeit der Vektoren \(v_1\), \(v_2\) und \(v_3\) folgt.
Beispiel 2
Gegeben seien die folgenden Vektoren des \(\R^3\):
Die Vektoren \(v_1\), \(v_2\) und \(v_3\) sind linear abhängig, da beispielsweise der Vektor \(v_3\) als Linearkombination der Vektoren \(v_1\) und \(v_2\) dargestellt werden kann. Es gilt:
Beispiel 3
Gegeben seien die folgenden Vektoren des \(\R^2\):
Die Vektoren \(v_1\), \(v_2\) und \(v_3\) sind linear abhängig, da drei Vektoren eines zweidimensionalen Vektorraums stets linear abhängig sind. Allgemein sind \(n+1\) Vektoren eines \(n\)-dimensionalen Vektorraums stets linear abhängig.
Beispiel 4
Gegeben seien die folgenden Polynome mit reellen Koeffizienten:
Die Überprüfung auf lineare Unabhängigkeit kann mithilfe der Isomorphie des Polynomraums aller reellen Polynome mit Maximalgrad 2 und des Koordinatenraums \(\R^3\) durchgeführt werden, indem zunächst alle Polynome durch die entsprechenden Vektoren dargestellt werden – das Polynom \(ax^2+bx+c\) kann beispielsweise durch den Vektor \(\bigl( a,b,c\bigr)\) repräsentiert werden. Anschließend kann die Frage der linearen Unabhängigkeit für die so erhaltenen Vektoren geprüft werden. Für die Polynome \(p_1(x)\), \(p_2(x)\) und \(p_3(x)\) ergeben sich die folgenden Vektoren:
Hierbei handelt es sich um die linear unabhängigen Vektoren aus Beispiel 1. Die Polynome \(p_1(x)\), \(p_2(x)\) und \(p_3(x)\) sind folglich ebenfalls linear unabhängig.
Zusammenhang mit Determinanten
Gegeben seien $n$ Vektoren aus einem $n$-dimensionalen Vektorraum. Verwendet man diese Vektoren als Zeilen oder Spalten einer $n \times n$ Matrix $A$, so kann die lineare Unabhängigkeit mithilfe der Determinante geprüft werden:
- Die Vektoren sind genau dann linear abhängig, wenn $\det(A) = 0$ gilt.
- Die Vektoren sind genau dann linear unabhängig, wenn $\det(A) \neq 0$ gilt.
Zusammenhang mit linearen Gleichungssystemen
Gegeben sei ein lineares Gleichungssystem $A \cdot x = b$ mit der Koeffizientenmatrix $A \in K^{n \times n}$ und dem Lösungsvektor $b \in K^n$. Betrachtet man dieses Gleichungssystem in Vektorschreibweise
so kann der Lösungsvektor $b$ als Linearkombination der Spaltenvektoren $s_1,\ldots,s_n$ der Koeffizientenmatrix $A$ aufgefasst werden.
Da die Skalare in einer Linearkombination genau dann eindeutig bestimmt sind, wenn die Vektoren linear unabhängig sind, ist das Gleichungssystem $A \cdot x = b$ folglich genau dann eindeutig lösbar, wenn die Spaltenvektoren $s_1,\ldots,s_n$ linear unabhängig sind.