Privacy Policy Cookie Policy Terms and Conditions Gauß-Seidel-Verfahren - Wikipedia

Gauß-Seidel-Verfahren

aus Wikipedia, der freien Enzyklopädie

In der numerischen Mathematik ist das Gauß-Seidel-Verfahren oder Einzelschrittverfahren, (nach Carl Friedrich Gauß und Ludwig Seidel) ein Algorithmus zur näherungsweisen Lösung von linearen Gleichungssystemen. Es ist, wie das Jacobi-Verfahren, ein spezielles Splitting-Verfahren. Das Verfahren wurde zuerst von Gauß entwickelt, aber nicht veröffentlicht, später wurde es, bevor dessen Anwendung von Gauß bekannt war, von Seidel veröffentlicht.

Entwickelt wurde das Verfahren, da das Gaußsche Eliminationsverfahren, ein exakter Löser, für Rechenfehler sehr anfällig ist. Eine iterative Vorgehensweise hat diesen Nachteil nicht.

Inhaltsverzeichnis

[Bearbeiten] Beschreibung des Verfahrens

Gegeben ist ein lineares Gleichungssystem in n Variablen mit n Gleichungen.

\begin{matrix} a_{1;1}\cdot x_1+\dots+a_{1;n}\cdot x_n&=&b_1\\ a_{2;1}\cdot x_1+\dots+a_{2;n}\cdot x_n&=&b_2\\ &\vdots&\\ a_{n;1}\cdot x_1+\dots+a_{n;n}\cdot x_n&=&b_n\\ \end{matrix}

Um dieses zu lösen, wird die k-te Gleichung nach der k-ten Variablen xk aufgelöst, d.h. für den (m+1)-ten Iterationsschritt:

x^{(m+1)}_k:=\frac1{a_{k;k}}\left(b_k-\sum_{i=1}^{k-1} a_{k;i}\cdot x^{(m+1)}_i -\sum_{i=k+1}^n a_{k;i}\cdot x^{(m)}_i\right),

wobei die vorher berechneten Werte des aktuellen Iterationsschritts mit verwendet werden, im Gegensatz zum Jacobi-Verfahren. Diese Ersetzung wird, ausgehend von einer willkürlichen Startbelegung der Variablen, sukzessive wiederholt. Als minimale Bedingung lässt sich hier festhalten, dass die Diagonalelemente ak;k von Null verschieden sein müssen.

Als Algorithmusskizze mit Abbruchbedingung ergibt sich:

wiederhole
fehler := 0
für k=1 bis n
x^{(m)}_k:=x^{(m+1)}_k
x^{(m+1)}_k:=\frac1{a_{k;k}}\left(b_k-\sum_{i=1}^{k-1} a_{k;i}\cdot x^{(m+1)}_i -\sum_{i=k+1}^n a_{k;i}\cdot x^{(m)}_i\right)
fehler:=\max(fehler;|x^{(m+1)}_k-x^{(m)}_k|)
nächstes k
m := m+1
bis fehler<fehlerschranke

Dabei wurde die Erstbelegung des Variablenvektors und eine Fehlerschranke als Eingangsgrößen des Algorithmus angenommen, die Näherungslösung ist die vektorielle Rückgabegröße. Die Fehlerschranke misst hier, welche Größe die letzte Änderung des Variablenvektors hatte.

[Bearbeiten] Herleitung des Verfahrens

[Bearbeiten] Beschreibung des Verfahrens in Matrixschreibweise

Die Matrix A\, des linearen Gleichungssystems A \cdot \underline{x} = \underline{b} wird zur Vorbereitung in eine Diagonalmatrix D\,, eine strikte obere Dreiecksmatrix U\, und eine strikte untere Dreiecksmatrix L\, zerlegt, so dass gilt:

A\,=\, L+D+U

In jedem Iterationsschritt gilt dann D \underline{x}^{(\mathrm{neu})} = \underline{b}-L \underline{x}^{(\mathrm{neu})}-U \underline{x}^{(\mathrm{alt})}. Nach Umstellen ergibt sich formal

(D+L) \underline{x}^{(\mathrm{neu})}=\underline{b}-U \underline{x}^{(\mathrm{alt})} und daraus \underline{x}^{(\mathrm{neu})} =(D+L)\!^{-1}(\underline{b}-U\underline{x}^{(\mathrm{alt})}).

Man legt dann einen Startvektor \underline{x}^{(0)}\, fest und setzt ihn in die Iterationsvorschrift ein:

\underline{x}^{(k+1)} =-(D+L)\!^{-1}U \underline{x}^{(k)} + (D+L)\!^{-1} \underline{b}.

Da es der erste Iterationsschritt ist, hat dabei k\, den Wert Null. Das Ergebnis der Rechnung ist ein erster Näherungswert \underline{x}^{(1)}\, für den gesuchten Lösungsvektor \underline{x}\,. Diesen Näherungswert kann man seinerseits in die Iterationsvorschrift einsetzen und gewinnt einen besseren Näherungswert \underline{x}^{(2)}\,, den man wieder einsetzen kann. Wiederholt man diesen Vorgang, gewinnt man eine Folge von Werten, die sich dem Lösungsvektor immer mehr annähern, wenn die Konvergenzbedingungen (s. unten) erfüllt sind:

\underline{x}^{(0)},\,\underline{x}^{(1)},\,\underline{x}^{(2)},\,\cdots \; \rightarrow \; \underline{x}

[Bearbeiten] Diagonaldominanz und Konvergenz

Die Konvergenzgeschwindigkeit des Verfahrens hängt sowohl vom Spektralradius der Iterationsmatrix − (D + L) − 1U als auch von der Nummerierung der Unbekannten ab.

Allgemein gilt: Ist A strikt diagonaldominant, sind also sowohl D − 1U als auch D − 1L "kleine" Matrizen im Sinne der Operatornorm (z.B. der Spektralnorm), ist also die Bedingung

\|D^{-1}L\|+\|D^{-1}U\|<1

erfüllt, so ist das Verfahren konvergent. In diesem Falle ist der Fixpunktsatz von Banach anwendbar. Dabei ist die Kontraktionskonstante des Gauß-Seidel-Verfahrens kleinergleich der Kontraktionskonstante des Jabobi-Verfahrens.

Das einfachste und gebräuchlichste Kriterium für Diagonaldominanz ergibt sich in der Supremumsnorm \|x\|:=\max_k|x_k| der Vektoren und deren induzierter Matrixnorm \|A\|:=\max_k\sum_i|a_{ki}|. Es verlangt die Erfüllung des Zeilensummenkriteriums, also der Ungleichung

\sum_{i=1 \atop i\ne k}^n|a_{ki}|<|a_{kk}| für k=1,\ldots,n.

Je größer die kleinste Differenz zwischen rechten und linken Seiten der Ungleichung ist, desto schneller konvergiert das Verfahren.

[Bearbeiten] Anwendungen

Für moderne Anwendungen wie die Lösung großer dünnbesetzter Gleichungssysteme die aus der Diskretisierung partieller Differentialgleichungen stammen, ist das Verfahren ungeeignet. Es wird jedoch mit Erfolg als Vorkonditionierer in Krylow-Unterraum-Verfahren oder als Glätter in Mehrgitterverfahren eingesetzt.

[Bearbeiten] Weblinks

Andere Sprachen

Static Wikipedia 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -