Lineare Unabhängigkeit
aus Wikipedia, der freien Enzyklopädie
In der linearen Algebra wird eine Menge von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor nur durch eine Linearkombination der Vektoren erzeugen lässt, in der alle Koeffizienten der Kombination auf den Wert Null gesetzt werden. Man kann zeigen, dass diese Bedingung dazu äquivalent ist, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt.
Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren (1,0,0), (0,1,0) und (0,0,1) linear unabhängig. Die Vektoren (2, − 1,1), (1,0,1) und (3, − 1,2) sind hingegen nicht linear unabhängig, denn der dritte Vektor lässt sich aus der Summe der beiden ersten zusammensetzen. Sind Vektoren nicht linear unabhängig, dann werden sie auch linear abhängig genannt.
Inhaltsverzeichnis |
[Bearbeiten] Definition
Es seien V ein Vektorraum über dem Körper K , Vektoren des Vektorraums V und die Elemente von K seien eine Koeffizientenfamilie (mit endlich vielen Elementen ai ungleich Null).
Dann sind die Vektoren voneinander linear unabhängig, wenn sich der Nullvektor aus der Linearkombination
nur darstellen lässt, wenn alle Koeffizienten ai = 0 (für i = 1...n) sind, also
Das bedeutet
- mit ai = 0
Lässt sich aber der Nullvektor außerdem noch mit Koeffizienten ungleich Null erzeugen, dann sind die Vektoren linear voneinander abhängig.
Achtung: Der Nullvektor ist ein Element des Vektorraumes V, während 0 ein Element aus dem Körper K ist!
[Bearbeiten] Andere Charakterisierungen und einfache Eigenschaften
- Die Vektoren sind genau dann linear unabhängig, wenn sich keiner von ihnen als Linearkombination der anderen darstellen lässt.
Diese Aussage gilt nicht im allgemeineren Kontext von Modulen über Ringen.
- Eine Variante dieser Aussage ist das Abhängigkeitslemma: Sind linear unabhängig und linear abhängig, so lässt sich als Linearkombination von schreiben.
- Ist die Menge der Vektoren linear unabhängig, so ist jede Teilmenge dieser Menge ebenfalls linear unabhängig. Ist diese Menge hingegen linear abhängig, so ist jede Vektormenge, die diese abhängige Menge als Teilmenge beinhaltet ebenso linear abhängig.
- Elementare Umformungen der Vektoren verändern die lineare Abhängigikeit oder die lineare Unabhängigkeit nicht.
[Bearbeiten] Bedeutung
[Bearbeiten] Lineare Gleichungssysteme
In einer Linearkombination sind die Koeffizienten eindeutig bestimmt, wenn die Vektoren linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von linearen Gleichungssystemen benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind.
Die Überprüfung, ob zum Beispiel drei Vektoren aus linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus
ein homogenes lineares Gleichungssystem gebildet:
und mittels Gaußschen Eliminationsverfahren nach a1,a2,a3 gelöst. Gibt es nur eine einzige Lösung, nämlich dass a1 = a2 = a3 = 0, dann sind die Vektoren linear unabhängig. Existieren weitere Lösungen, sind sie linear voneinander abhängig.
[Bearbeiten] Basen
Wichtig ist das Konzept der linearen Unabhängigkeit in Bezug auf die Basis eines Vektorraums. Eine Basis ist ein linear unabhängiges Erzeugendensystem, mit dem alle Elemente eines Vektorraums erzeugt werden können, d.h. sie besteht aus einer Menge von Vektoren , die voneinander linear unabhängig sind und ein Erzeugendensystem bilden. Basen erlauben es, in beliebigen Vektorräumen mit Koordinaten zu rechnen.
[Bearbeiten] Beispiele
[Bearbeiten] Beispiel 1: einzelner Vektor
Der Vektor sei ein Element des Vektorraums V über K. Dann ist der einzelne Vektor für sich genau dann linear unabhängig, wenn gilt, dass (d.h. ungleich dem Nullvektor ist).
Denn aus der Definition des Vektorraums folgt, dass wenn
- mit ,
nur entweder a = 0 oder sein kann!
[Bearbeiten] Beispiel 2: zwei bestimmte Vektoren in
Die Vektoren und sind in linear unabhängig.
Beweis: für
Dieses Gleichungssystem ist nur für die Lösung a = 0, b = 0 (die sogenannte triviale Lösung) erfüllt; d.h. u und v sind linear unabhängig.
[Bearbeiten] Beispiel 3: "natürliche" Basis in
und folgende Elemente von V sind definiert:
- ...
Dann ist die Vektorfamilie mit linear unabhängig.
Beweis: für
dann gilt aber auch
und daraus folgt, dass alle ai = 0 ,für .
[Bearbeiten] Beispiel 4: Funktionen als Vektoren
(benötigt Kenntnisse über die Differentialrechnung)
V soll der Vektorraum über alle Funktionen f(t) sein.
Die beiden Funktionen et und e2t in V sind linear unabhängig.
Beweis: für
- (1)
Nun muss gezeigt werden, dass die Koeffizenten a und b gleich Null sind — die Exponentialfunktion kann niemals 0 werden! Durch die Ableitung von (1) nach t wird festgestellt, wie die Gleichung auf Null gesetzt werden kann.
- (2)
Wird (1) von (2) subtrahiert, ergibt und daraus folgt, dass (wenn t = 0 ) b = 0 sein muss.
Die erste Gleichung ist nun
und daraus folgt wieder, dass (für t = 0) a = 0 sein muss.
- ⇒ linear unabhängig
Siehe auch: Wronski-Determinante
[Bearbeiten] Beispiel 5: Zeilen und Spalten einer Matrix
Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Beispiel einer Folge von regulären Matrizen: Hilbert-Matrix.
[Bearbeiten] Verallgemeinerung
Der Begriff der linearen Unabhängigkeit lässt sich weiter zu einer Betrachtung von unabhängigen Mengen verallgemeinern, siehe dazu Matroid.