Kurs:Numerik I/Zerlegung PA = LR

Aus testwiki
Zur Navigation springen Zur Suche springen

Einführung - Die Zerlegung PA = LR

Häufig ist in der numerischen Mathematik das Gleichungssystem Ax=b für eingegebene (feste) reguläre Matrix An×n und unterschiedliche rechte Seiten zu lösen.

Effizienzbetrachtung für den Algorithmus

In einem solchen Fall ist es ineffizient, für jede neue rechte Seiten wieder den gesamten Gauß-Algorithmus durchzuführen, da er bei jedem Durchlauf in Bezug auf A wiederholt die gleichen Teiloperationen durchführen würde. Deshalb möchte man die beim Gauß-Algorithmus durchgeführten Teiloperationen von A in irgendeiner Form speichern, die den Rechenaufwand reduziert.

Zerlegung in Teiloperationen

Dieses kann in Form einer Zerlegung von A der Form PA=LR geschehen, wie sie im folgenden Unterabschnitt eingeführt wird, wobei Ln×n eine untere Dreiecksmatrix, Rn×n eine obere Dreiecksmatrix und Pn×n eine Permutationsmatrix ist.

Umformungen als Matrixmultiplikationen

Eine solche Zerlegung bzw. Faktorisierung von A kann man, wie wir zeigen wollen, mittels des Gauß-Algorithmus mit Spaltenpivotsuche gewinnen.

Bemerkung zur PA-LR-Darstellung

Ein Permutationsmatrix ist invertierbar und P1 existiert. Damit lässt sich dann über die Gleichung PA=LR Matrix A über folgendes Matrixprodukt darstellen:

A=P1LR

Faktorisierung - Lösungsschritte

Liegt eine solche Faktorisierung vor, so kann man das Gleichungssystem Ax=b bzw. LRx=Pb für ein gegebenes bn lösen, indem man hintereinander die beiden Dreieckssysteme

Ly=Pb,Rx=y

löst, wobei die Lösung y des ersten Systems die rechte Seite des zweiten Systems liefert.

Anwendung für unterschiedliche Vektoren b

Hat man das System Ax=b für mehrere unterschiedliche rechte Seiten b zu lösen, so muss man dann nur einmal die numerisch teuere Zerlegung PA=LR bestimmen, während die Berechnung der Lösung x gemäß Ly=Pb,Rx=y numerisch relativ durch die Verwendung von Dreiecksmatrizen nicht mehr so rechenintensiv ist.

Permutationsmatrizen

In der obigen Beschreibung haben wir die Notwendigkeit identifiziert, dass man für das Lösungsverfahren Zeilen vertauschen müssen. Eine einzelne Zeilvertauschung kann durch ein Matrix Z(i,j) realisiert werden. Durch Matrixmultiplikation kann diese Elementarmatrizen auch zu einer Pemutationsmatrix "zusammenfassen".

Beispiel - Vertauschung 1 und 4 Zeile

Z(1,4)=(0001001000001001000000001)5×5.

Maxima - Vertauschung 1 und 4 Zeile

Geben Sie die Z(1,4) als Z und die folgende Matrix in Maxima CAS ein

A=(1234506000007000008000009)5×5.

und berechnen Sie das Matrizenprodukt über Z.A mit "." als Operatorsymbol für die Matrixmultiplikation.

Definition - Permutationsmatrix

Jede Matrix Pn×n mit genau einer Eins und sonst nur Nullen in jeder Zeile und Spalte heißt Permutationsmatrix.

Beispiel - Permutationsmatrix

Die folgende Matrix stellt eine Permutationsmatrix dar:

P:=(0100001010000001)4×4.

Definition - Permution

Jede bijektive Abbildung π:{1,...,n}{1,...,n} heißt eine Permutation.

Zusammenhang Permutation - Permutationsmatrix

Offensichtlich ist Pn×n genau dann eine Permutionsmatrix, wenn es eine Permutation π:{1,...,n}{1,...,n} gibt, so dass

P=(eπ(1)...eπ(n))

gilt, wobei ejn die j-te Spalte der Einheitsmatrix bezeichnet.

Beispiel - Permutation - Permutationmatrix

Die im obigen Beispiel genannte Permutationmatrix ist die durch folgende Permutation definiert

π(1):=3,π(2):=1,π(3):=2,π(4):=4,

wobei π:{1,...,n}{1,...,n} die folgende Permutationmatrix liefert

P=(e3e1e2e4)=(eπ(1)eπ(2)eπ(3)eπ(4)).

Mittels Zusammenhang von Permutation und Permutationsmatrix kann man nun die Aussagen des folgenden Satzes erschließen.

Aufgabe - Studierende

Geben Sie in Maxima die Permutationsmatrix an, die die obige Permutation durchführt.

Satz - Permutationsmatrizen

Sei Pn×n eine Permutationsmatrix und π:{1,...,n}{1,...,n} bezeichne die zu der Matrix P gehörende Permutation. Dann gilt:

  • (i) P ist eine orthogonale Matrix, d. h. es ist P1=PT.
  • (ii) Es gilt
P1=PT=(eπ1(1)...eπ1(n)).
  • (iii) Für α:=(αi)n gilt
Pα=(απ1(1)απ1(n)),αTP=(απ(1)...απ(n)).
  • (iv) Für jede Matrix An×n mit Zeilen (zi)T und Spalten ai (i=1,...,n) gilt
(3.6) PA=((zπ1(1))T(zπ1(n))T),AP=(aπ(1)...aπ(n)).

Beweis.

(i) folgt mit (3.5) aus

(PTP)ij=[((eπ(1))T(eπ(n))T)(eπ(1)...eπ(n))]ij=[(eπ(i))Teπ(j)]ij=(δπ(i),π(j))ij=(δij)ij=I.

Die Behauptung in (ii) ergibt sich aus

[(eπ1(1)...eπ1(n))(eπ(1)...eπ(n))]ij==1n(eπ1())i(eπ(j))==1nδi,π1()δπ(j),
=k=1nδi,kδπ(j),π(k)=δπ(j),π(i)=δji=δij.

Die erste Behauptung in (iii) folgt aus

Pα=j=1nαjeπ(j)==1nαπ1()e=(απ1(1),...,απ1(n))T,

die zweite folgt mit (ii) und letzterer Identität aus

αTP=(PTα)T=(j=1nαjeπ1(j))T=(απ(1),...,απ(n)).

Die entsprechenden Matrixversionen in (iv) folgen analog aus

PA=j=1neπ(j)(zj)T==1ne(zπ1()=((zπ1(1))T(zπ1(n))T)

sowie unter Verwendung dieser Beziehung und (ii) aus

AP=(PTAT)T=[PT((a1)T(an)T)]T=((aπ(1))T(aπ(n))T)T.

q.e.d.

Man beachte, dass die Indizes π1(1),...,π1(n) gemäß Aussage (ii) von Satz 3.10 gerade die Indizes der Einheitsvektoren, welche die Spalten von PT bzw. die Zeilen von P bilden, sind. Somit bewirkt also die Multiplikation einer Matrix A mit einer Permutationsmatrix von links bzw. rechts eine Permutation der Zeilen bzw. Spalten von A, die der Permutation der Zeilen bzw. Spalten von P im Vergleich mit der Einheitsmatrix entspricht.

Beispiel 3.11

Seien

P:=(001100010),A:=(123456789).

Dann folgt

PA=(001100010)(123456789)=(789123456),
AP=(123456789)(001100010)=(231564897).

In numerischen Implementierungen erfolgt die Abspeicherung einer Permutationsmatrix mit der zugehörigen Permutation π in Form eines Vektors

(π1(1),...,π1(n))Tn oder (π(1),...,π(n))Tn.

Eine besondere Rolle spielen Elementarpermutationen π:{1,...,n}{1,...,n}, die zwei Zahlen vertauschen und die restlichen Zahlen unverändert lassen. Im Fall einer Elementarpermutation gibt es also zwei Zahlen i,r{1,...,n} mit

(3.7) π(i)=r,π(r)=i,π(j)=j(j{i,r}).

Hier gilt wegen

π1(r)=i=π(r),π1(i)=r=π(i),π1(j)=j=π(j)(j{i,r})

die Identität π1=π, so dass sich für die zu π gehörende Permutationsmatrix Pn×n (vgl. (3.5)) ergibt:

(3.8) P1=PT=P.

3.3.2 Frobenius-Matrizen

Wir betrachten eine weitere wichtige Klasse von Matrizen.

Definition - Frobeniusmatrix

Sei k{1,...,n}. Jede Matrix der Form

(3.9) (11lk+1,k1ln,k1)n×n

heißt Frobenius-Matrix vom Index k.

Bemerkung - Frobeniusmatrix

Eine Frobenius-Matrix vom Index k unterscheidet sich von der Einheitsmatrix gleicher Größe also nur in der k-ten Spalte und dort auch nur unterhalb der Diagonalen. Insbesondere lässt sich die prinzipielle Vorgehensweise bei den Zeilenoperationen der k-ten Stufe des Gauß-Algorithmus durch Multiplikation mit einer Frobenius-Matrix vom Index k beschreiben. So gilt für Vektoren zjn (j=1,...,n)

(3.10) (11lk+1,k1ln,k1)((z1)T(zn)T)=((z1)T(zk)T(zk+1)Tlk+1,k(zk)T(zn)Tln,k(zk)T)

Offenbar lässt sich die Frobenius-Matrix in (3.9) mit

(3.11) fk:=(0,...,0,lk+1,k,...,ln,k)Tn

wegen

fk(ek)T=(000lk+1,kln,k)(0,...,0,1k-te Stelle,0,...,0)=(0...000...00...000...00...000...00...0lk+1,k0...00...0ln,k0...0)

in der Form

(3.12) Fk=Ifk(ek)T

darstellen, wobei In×n die Einheitsmatrix und ekn wieder die k-te Spalte von I bezeichnet.

Lemma 3.13

Für k=1,...,n1 sind die Frobenius-Matrizen Fkn×n vom Index k regulär und es gilt für k=1,...,n1
(3.13) Fk1=(11lk+1,k1ln,k1)=I+fk(ek)T
sowie
(3.14) F11Fn11=(1l211l321ln1ln2...ln,n11)=I+j=1n1fj(ej)T.

Beweis.

Für Fk hat man mit (3.11) die Darstellung (3.12). Wegen

[I+fk(ek)T][Ifk(ek)T]=Fk=I+fk(ek)Tfk(ek)Tfk[(ek)Tfk]=0(ek)T=I

folgt

det(I+fk(ek)T)det(I+fk(ek)T)=1,

also die Regularität von Fk sowie die behauptete Darstellung von Fk1. Im Folgenden soll nun mittels vollständiger Induktion die Identität

(3.15) F11Fk1=I+j=1kfj(ej)T,k=1,...,n1

nachgewiesen werden, welche im Fall k:=n1 der Formel (3.14) entspricht.

Die Darstellung in (3.15) ist sicher richtig für k:=1. Wir nehmen nun weiter an, dass sie für ein beliebiges k{1,...,n2} richtig ist. Dann gilt die Darstellung in (3.15) auch für k+1, denn

F11Fk1Fk+11=[I+j=1kfj(ej)T][I+fk+1(ek+1)T]
=I+fk+1(ek+1)T+j=1kfj(ej)T+j=1kfj[(ej)Tfk+1]=0(ek+1)T=I+j=1k+1fj(ej)T.

q.e.d.

Lemma 3.14

Sei Fk eine wie in (3.12) mit (3.11) dargestellte Frobenius-Matrix vom Index k und P eine Permutationsmatrix mit zugehöriger Elementarpermutation π von der Form (3.7) mit i,r{k+1,...,n}. Dann entsteht die Matrix PFkP aus Fk durch Vertauschen der Einträge i und r in der k-ten Spalte, d. h.

PFkP=I(Pfk)(ek)T.

Beweis.

Die Aussage ergibt sich unmittelbar aus

PFkP=P[Ifk(ek)T]P=P2=I[Pfk][(ek)TP=(ek)T],

wobei (3.8) und Satz 3.10 (iii) sowie die Forderungen für i und r eingehen.

q.e.d.

3.3.3 Die LR-Zerlegung mittels Gauß-Algorithmus

Im Folgenden wird die allgemeine Vorgehensweise beim Gauß-Algorithmus zur sukzessiven Erzeugung von Matrizen A(k)n×n der Form

(3.16) A(k)=(a11(k)a12(k).........a1n(k)a22(k).........a1n(k)akk(k)...akn(k)ank(k)...ann(k))n×n

mit Spaltenpivotsuche als Folge spezieller Matrix-Operationen beschrieben. Und zwar wird im k-ten Schritt entsprechend Algorithmus 1 eine Zeilenvertauschung A(k)PkA(k) vorgenommen. Hierbei ist Pkn×n eine elementare Permutationsmatrix, die nur eine Vertauschung der Zeilen k und pkk von A(k) bewirkt. (pk=k und somit Pk=I ist möglich.) Damit ergibt sich gemäß (3.6) und (3.10)

(3.17) A(k+1)=FkPkA(k)

mit

(3.18) Fk:=(11lk+1,k1ln,k1)

für

(3.19) lpk,k:=akk(k)apk,k(k),lik=aik(k)apk,k(k)(i=k+1,...,n,ipk)

sowie

(3.20) Pk:=(1101111011) Zeile kZeile pk

Der Index pk bezeichnet dabei die Position der Zeile aus A(k), welche das Pivotelement enthält.

Satz 3.15

Mit den Definitionen (3.16) - (3.20) gilt die Identität PA=LR für
P:=Pn1P1,R:=A(n)
und
(3.21) L:=(1l^211l^321l^n1l^n2...l^n,n11)
mit
(3.22) (001l^k+1,kl^n,k):=Pn1Pk+1(001lk+1,kln,k)

Beweis.

Für k=1,2,... gilt mit (3.17) sowie (3.8)

A(2)=F1P1A=F1(P1A),
A(3)=F2P2A(2)=F2(P2F1P2)(P2=IP1A),
A(4)=F3P3A(3)=F3(P3F2P3)(P3=IP2F1P2P3)(P3=IP2P1A)

und so weiter, was schließlich

(3.23) R=A(n)=F^n1F^1PA

ergibt mit

P:=Pn1P1

und den Frobenius-Matrizen F^n1=Fn1 und

F^k:=Pn1Pk+1FkPk+1Pn1=(11l^k+1,kl^nk1)

für k=1,...,n2, wobei in die letzte Identität Lemma 3.14 eingeht. Eine Umformung von (3.23) liefert dann

PA=(F^11...F^n11)R=LR,

wobei die letzte Gleichheit mit Lemma 3.13 folgt. Damit ist alles bewiesen.

q.e.d.

Man beachte, dass die Matrix L (3.21) also gerade aus den aktuellen Umrechnungsfaktoren l^ik (i>k) gebildet wird, nachdem (sofern erforderlich) die Zeilenvertauschung, welche die Zeile mit dem jeweils gewählten Pivotelement an die richtige Position bringt, erfolgt ist. In Implementierungen werden die frei werdenden Anteile des linken Dreiecks der Matrix A sukzessive mit den Einträgen der unteren Dreiecksmatrix L überschrieben, während sich in dem rechten Dreieck der Matrix A die Einträge der Dreiecksmatrix R ergeben. Die Permutationsmatrix P, deren Zeilen (eri)T,i=1,...,n genannt seien, lässt sich einfach in Form eines Buchhaltungsvektors rn angeben, und es gilt, wie man mit Satz 3.10 erschließt,

(r1rn)=P(1n)

Wir wollen die Vorgehensweise an einem Beispiel vorführen.

Beispiel 3.16

Gegeben sei die Matrix

A:=(0011222212221236).

Nach Anhängen des für die Speicherung der Zeilenpermutationen zuständigen Buchhaltervektors liefert der Algorithmus folgendes (unterhalb der Treppe ergeben sich sukzessive die Einträge von L aus (3.21), (3.22)):

(0011222212221236),(1234) Zeilentausch (2222001112221236),(2134)
Elimination (22220011121_1112125),(2134) Zeilentausch (222212111001112125),(2314)
Elimination (222212111001_112114),(2314) Elimination (222212111001112113),(2314)

Dabei ist das jeweils gewählte Pivotelement unterstrichen. Der letzte Permutationsvektor (2,3,1,4)T besagt, dass

π(1)=3,π(2)=1,π(3)=2,π(4)=4

für die zu P gehörende Permutation π gilt und dass also PA aus A hervorgeht, indem man die erste Zeile von A in die dritte Position bringt, die zweite in die erste, usw. Es ergibt sich somit die Faktorisierung

PA=(2222122200111236)=(112100112111)(2222111113)=LR.

Man beachte, dass die Zerlegung PA=LR einer Matrix nicht eindeutig ist. Man könnte ja beispielsweise die Matrix L mit einem Skalar α0 und die Matrix R mit dem Skalar 1/α multiplizieren.

Mit dem Gauß-Algorithmus kann man bekanntlich auch die Determinante von A berechnen. So gilt im Fall, dass eine Zerlegung PA=LR vorliegt,

det(P)=(1)σ

und

det(PA)=det(P)det(A)=det(L)det(R)=i=1nrii,

wobei σ die Anzahl von paarweisen Zeilenvertauschungen ist, die die Überführung von I in P erfordert bzw. welche beim Gauß-Algorithmus vorgenommen wird und die rii die Diagonalelemente von R sind. Demnach hat man

det(A)=(1)σi=1nrii.

3.3.4 Nachiteration

Aufgrund von Rundungsfehlern errechnet man in der Praxis nicht eine Zerlegung LR, sondern eine Zerlegung L~R~ von PA, so dass

PAL~R~

gilt. Statt der (hier als eindeutig vorausgesetzten Lösung) x von Ax=b bzw. PAx=Pb berechnet man demnach unter Verwendung von L~ und R~ eine Näherungslösung x0 und den durch sie erzeugten Defekt

d0:=PbPAx00.

Daher ist die folgende Nachiteration sinnvoll: wiederum unter Verwendung der vorliegenden Zerlegung L~R~ von PA bestimmt man die Lösung δx0 der Defektgleichung

(3.24) PAδx=d0

und setzt man anschließend

x1:=x0+δx0.

Bei exakter Lösung des Systems (3.24) (mit PA und nicht L~R~) hätte man dann

PAx1=PAx0+PAδx0=Pbd0+d0=Pb.

Da man i. a. jedoch nicht exakt rechnet, könnte man diesen Prozess wiederholen. Normalerweise genügt es jedoch, d0 und δx0 mit doppelter Genauigkeit zu berechnen und die beschriebene Nachiteration nur einmal durchzuführen (vgl. Deuflhard/Hohmann).

Beispiel 3.17

Wir betrachten das Gleichungssystem Ax=b mit

A:=(1.051.021.041.02),b:=(12).

Die Lösung x des Systems lautet

x(100,103.921 569)T.

Gauß-Elimination ohne Zeilenvertauschung liefert bei 3-stelliger Rechnung

L~:=(10.9901),R~:=(1.051.0200.01)

sowie

L~R~A=(0051042104).

Man errechnet

x0:=(97.1,101)T

mit dem Defekt

d0:=bAx0={(0,0)T(3-stellig),(0.065,0.035)T(6-stellig).

Nachiteration mit 6-stelliger Rechnung ergibt

x1:=x0+δx0=(99.9,104)T.

3.3.5 Direkte LR-Zerlegung

In gewissen Situationen ist es möglich und zwecks Ausnutzung vorhandener Strukturen der Matrix A:=(aij)n×n auch sinnvoll, auf eine Pivotstrategie zu verzichten und mittels einer unteren Dreiecksmatrix L:=(lij)n×n und einer oberen Dreiecksmatrix R:=(rij)n×n eine LR-Zerlegung der Form

(3.25) (a11a12...a1na21a22...a2nan1an2...ann)=(1l211ln1...ln,n11)(r11r12...r1nr22...r2nrnn)

auf direkte Weise zu bestimmen. Eine solche Zerlegung einer regulären Matrix A existiert genau dann, wenn det(Hk)0 (k=1,...,n) für die Hauptuntermatrizen

(3.26) Hk:=(a11...a1kak1...akk)k×k,k=1,...,n

von A gilt (z. B. Sätze 2.14 und 2.17 bei Kanzow). Wegen det(A)0 ist dann auch det(R)0, also rii0 (i=1,...,n) und damit das folgende Vorgehen möglich.

Existiert eine LR-Zerlegung von A wie in (3.25), so verwendet den Ansatz in (3.25), um für die n2 gesuchten Größen rik (ik) und lik (i>k) die n2 Bestimmungsgleichungen

aik=j=1nlijrjk,i,k=1,...,n

zu erhalten, welche wegen lij=0 für i<j und rjk=0 für j>k mit

(3.27) aik=j=1min(i,k)lijrjk,i,k=1,...,n

identisch sind. Dabei gibt es verschiedene Möglichkeiten, wie man aus den Gleichungen (3.27) die Einträge von L und R bestimmen kann. Zum Beispiel führt eine Berechnung der Zeilen von R und der Spalten von L entsprechend der Parkettierung auf den folgenden Algorithmus:

Algorithmus 2 (Direkte LR-Zerlegung)

(0) Gib A:=(aij)n×n mit det(A)0 und setze i:=1.

(1) Berechne

rik:=aikj=1i1lijrjk(k=i,...,n),
lki:=(akij=1i1lkjrji)/rii(k=i+1,...,n).

(2) Falls i=n, stop!

(3) Setze i:=i+1 und gehe nach (1).

Für eine solche direkte LR-Zerlegung sind insgesamt (n3/3)(1+0(1/n)), d. h. die gleiche Größenordnung von Multiplikationen und Divisionen wie für den Gauß-Algorithmus erforderlich.

Cholesky-Zerlegung positiv definiter Matrizen

In diesem Abschnitt zeigen wir, dass die eben vorgestellte LR-Zerlegungen für positiv definite Matrizen besonders attraktiv ist.

Definition - positiv definite Matrix

Eine Matrix An×n heißt positiv definit, falls A symmetrisch, d. h. A=AT ist und falls gilt:

x,Ax=xTAx>0,xn{0}.

Bemerkung - positiv definite Matrix

Mit dieser Definition selbst lässt sich, wie es ähnlich häufig in der Mathematik der Fall ist, nur schwer arbeiten. Deshalb sind äquivalente Bedingungen von Interesse.

Hesse-Matrix und ein lokales Minimum einer Fehlerfunktion

Sei f:Un eine zweimal stetig differenzierbare Funktion. Dann ist die Hesse-Matrix von f am Punkt x=(x1,,xn)U definiert durch

Hf(x):=(2fxixj(x))i,j=1,,n=(2fx1x1(x)2fx1x2(x)2fx1xn(x)2fx2x1(x)2fx2x2(x)2fx2xn(x)2fxnx1(x)2fxnx2(x)2fxnxn(x)).

Ist die Hesse-Matrix an einer Stelle x=(x1,,xn)U positiv definit, wobei gleichzeitig der Gradient der Nullvektor ist, dann besitzt f ein lokales Minimum.

Lemma - Kriterien für positive Definitheit

Folgende Aussagen sind für eine Matrix A:=(aij)n×n mit A=AT äquivalent:

  • (i) A ist positiv definit.
  • (ii) Alle Eigenwerte λi (i=1,...,n) von A sind reell und positiv.
  • (iii) Die Determinanten der n Hauptuntermatrizen Hk (k=1,...,n) von A in (3.26) sind alle positiv.


Bemerkung - Kriterien für positive Definitheit

Den Beweis des Lemmas findet man in Büchern der Linearen Algebra. Im Folgenden beweisen wir Eigenschaften positiv definite Matrizen A die positiv Definitheit von allen Untermatrizen und der Invertierbarkeit der Matrix.

Lemma - positiv Definitheit von Untermatrizen

Die Matrix A:=(aij)n×n sei positiv definit. Dann gilt:

  • (i) A ist regulär,
  • (ii) alle Untermatrizen von A der Form
(3.29) (akk...ak,k+ak+,k...ak+,k+)(+1)×(+1)
sind positiv definit,
  • (iii) det(A)>0.

Beweis

Der Beweis erfolgt in der Reihenfolge der drei Eigenschaften von positiv definiten Matrizen aus dem Lemma.

Beweis (i)

(i) Wäre A singulär, so gäbe es einen Vektor xn{0} mit Ax=0. Damit wäre auch xTAx=0, was einen Widerspruch zur positiven Definitheit der Matrix A darstellte.

Beweis (ii)

(ii) Sei nun B(+1)×(+1) eine Untermatrix der Form (3.29) und x:=(xi)+1{0}. Wegen der vorausgesetzten Symmetrie von A ist auch B symmetrisch. Für z:=(zi)n mit

zi:={xi+1k,kik+0,sonst

gilt dann z0 sowie

xTBx=i,j=kk+aijxi+1kxj+1k=i,j=kk+aijzizj=i,j=1naijzizj=zTAz>0.

Beweis (iii)

(iii) Die Eigenwerte λ1,...,λn von A sind (reell und) positiv, denn für x(k)n{0} mit Ax(k)=λkx(k) gilt ja

0<(x(k))TAx(k)=λk[(x(k))Tx(k)],k=1,...,n

(siehe auch Lemma 3.19). Weiter ist die Matrix A nach einem Ergebnis aus der Linearen Algebra diagonalisierbar, d. h., es gibt eine reguläre Matrix Sn×n mit

SAS1=D,

wobei D die Matrix

D:=diag(λ1,...,λn)n×n

ist. Somit folgt

det(A)=det(S1)det(D)det(S)=det(D)=k=1nλk>0.

q.e.d.

Satz - Produktzerlegung mit unterer Dreiecksmatrix

Die Matrix An×n sei positiv definit. Dann gibt es genau eine untere Dreiecksmatrix L:=(lkj)n×n mit lkk>0 (k=1,...,n) und

(3.30) A=LLT.

Beweis.

Der Beweis wird mit vollständiger Induktion geführt. Für n:=1 ist eine positiv definite Matrix A=(α)1×1 eine positive Zahl α>0. Eine solche kann eindeutig in der Form

α=ll,l=α

geschrieben werden. Wir nehmen nun an, dass die Behauptung für positiv definite Matrizen bis zur Dimension n1 richtig ist und betrachten jetzt eine positiv definite Matrix An×n. Diese lässt sich mit der nach Lemma 3.20 positiv definiten Matrix An1(n1)×(n1) und einem Vektor sn in der Form

A=(An1ssTann)

partitionieren, wobei An1 nach der Induktionsvoraussetzung mittels einer eindeutig bestimmten unteren Dreiecksmatrix Ln1:=(lkj)(n1)×(n1) mit lkk>0 (k=1,...,n1) zerlegt werden kann in

(3.31) An1=Ln1Ln1T.

Für die gesuchte Matrix Ln×n machen wir nun einen Ansatz der Form

L:=(Ln10cTα)

und versuchen wir cn1 und α so zu bestimmen, dass

(3.32) A=(An1ssTann)=(Ln10cTα)(Ln1Tc0α)

gilt. Gleichheit in (3.32) hat man nun wegen (3.31) genau dann, wenn

(3.33) Ln1c=s,
(3.34) cTc+α2=ann

gilt. Die Gleichung (3.33) besitzt sicher eine eindeutige Lösung c=Ln11s, da Ln1(n1)×(n1) als untere Dreiecksmatrix mit positiven Diagonalelementen regulär ist. Auch die zweite Gleichung (3.34) besitzt offenbar eine Lösung α. Aufgrund von (3.32) gilt außerdem

det(A)=det(Ln10cTα)det(Ln1Tc0α)=α2[det(Ln1)]2,

so dass wegen det(A)>0 (vgl. Lemma 3.20) und det(Ln1)=k=1nlkk>0 auch α2>0 ist und somit die Gleichung (3.34) eine eindeutige Lösung α>0 hat. Damit ist alles gezeigt.

q.e.d.

Die Zerlegung A=LLT einer positiv definiten Matrix A:=(aij)n×n bezeichnet man als Cholesky-Zerlegung von A. Ein direkter Ansatz zu ihrer Bestimmung ist es, die Gleichungen A=LLT bzw. die Gleichungen

(a11a12...a1na21a22...a2nan1an2...ann)=(l11l21l22ln1...ln,n1lnn)(l11l21...ln1l22...ln2lnn)

als n(n+1)/2 Bestimmungsgleichungen für die n(n+1)/2 gesuchten Größen lik (ik) aufzufassen:

aik=j=1klijlkj,1kin(i=1,...,n).

Spaltenweise Berechnung der Einträge der unteren Dreiecksmatrix Ln×n aus diesen Gleichungen führt auf den folgenden Algorithmus:

Algorithmus 3 (Cholesky-Zerlegung)

(0) Gib eine positiv definite Matrix A:=(aij)n×n und setze k:=1.

(1) Berechne

lkk:=(akkj=1k1lkj2)1/2,
lik:=(aikj=1k1lijlkj)/lkk(i=k+1,...,n).

(2) Falls k=n, stop!

(3) Setze k:=k+1 und gehe nach (1).

Beispiel 3.22

Gegeben sei die positiv definite Matrix

A:=(aij)=(1212521210).

Dann errechnet man für den Spaltenindex k:=1 die Einträge

l11:=a11=1=1,
l21:=a21/l11=2/1=2,
l31:=a31/l11=1/1=1,

für den Spaltenindex k:=2 die Einträge

l22:=a22l212=54=1,
l32:=(a32l31l21)/l22=(212)/1=0

und schließlich für den Spaltenindex k:=3 den Eintrag

l33:=a33l312l322=101202=3.

Somit erhält man für A die Cholesky-Zerlegung

A=(100210103)(121010003).

Eine Cholesky-Zerlegung erfordert insgesamt die folgende Anzahl von Multiplikationen, Divisionen und Berechnungen von Quadratwurzeln:

k=1n[k+i=k+1nk]=k=1n[k+(nk)k]=k=1nk+nk=1nkk=1nk2
=n(n+1)2+nn(n+1)2n(n+1)(2n+1)6=n36(1+0(1n)).

Dies sind etwa halb so viele wesentliche Rechenoperationen, wie sie der Gauß-Algorithmus bzw. eine direkte LR-Zerlegung für eine beliebige reguläre Matrix erfordern.

3.3.7 Bandmatrizen

Bei der Diskretisierung von gewöhnlichen und partiellen Differentialgleichungen oder auch der Berechnung der Momente kubischer Splines (vgl. Abschnitt 7) ergeben sich lineare Gleichungssysteme Ax=b, bei denen A=(aij)n×n mit det(A)0 eine Bandmatrix der Bandbreite p+q+1 ist, d. h. bei denen A die Gestalt

(3.35) A:=(a11...a1,q+1ap+1,1anq,nan,np...ann)

hat und somit

aik:=0,i=1,...,n,1k<ipn,1i+q<kn

mit gewissen p,q{1,...,n1} gilt. Insbesondere spricht man im Fall p=q=1, d. h. im Fall

A:=(a11a12a21a22a23a32a33an2,n1an1,n2an1,n1an1,nan,n1ann)

von einer Tridiagonalmatrix.

Bei Gleichungssystemen mit Bandmatrizen lässt sich der zu betreibende Aufwand bei allen in diesem Kapitel angesprochenen Methoden verringern, außer bei denen mit Pivotstrategien, da diese die Bandstruktur im Allgemeinen zerstören. Exemplarisch soll das Vorgehen für Bandmatrizen am Beispiel der direkten LR-Zerlegung demonstriert werden. Wenn eine LR-Zerlegung für A in (3.35) möglich ist (und det(A)0 ist), so ist diese im Fall, dass man die Diagonaleinträge von L als 1 wählt, eindeutig und von der Gestalt

A=(1l21lp+1,1ln,np...ln,n11)(r11...r1,q+1rnq,nrnn)

(siehe z. B. Satz 2.29 bei Kanzow). Komponentenschreibweise geschrieben heißt dies

aik=j=j0min{i,k}lijrjk,i=1,...,n,k=max{1,ip},...,min{n,i+q},j0:=max{1,ip,kq},

was bei einer Parkettierung wie in (3.28) auf den folgenden Algorithmus zur Bestimmung der LR-Zerlegung der Bandmatrix A führt:

Algorithmus 4 (LR-Zerlegung für Bandmatrizen)

(0) Gib eine Matrix A:=(aij)n×n mit

aik:=0,i=1,...,n,1k<ipn,1i+q<kn

für gegebene p,q{1,...,n1} und setze i:=1.

(1) Für k=i,...,min{i+q,n} berechne j0=max{1,ip,kq} und

rik:=aikj=j0i1lijrjk.

(2) Für k=i+1,...,min{i+p,n} berechne j0=max{1,ip,kq} und

lki:=(akij=j0i1lkjrji)/rii.

(3) Falls i=n, stop!

(4) Setze i:=i+1 und gehe nach (1).

Ist A eine Tridiagonalmatrix und schreibt man

(3.36) (α1β2γ2α2βnγnαn)=(1l21ln1)(d1r2rndn),

so vereinfacht sich Algorithmus 4 zu

Algorithmus 4* (LR-Zerlegung Tridiagonalmatrizen)

(0) Gib eine Tridiagonalmatrix An×n und schreibe A,L und R wie in (3.36). Setze

d1:=α1,r2:=β2

und i:=2.

(1) Berechne

li:=γi/di1,di:=αiliri,ri+1:=βi+1.

(2) Falls i=n1, berechne

ln:=γn/dn1,dn:=αnlnrn

und stoppe!

(3) Setze i:=i+1 und gehe nach (1).

Man kann zeigen, dass im Fall einer Tridiagonalmatrix eine LR-Zerlegung wie in (3.36) möglich ist, wenn gilt (Lemma 2.28 bei Kanzow):

|α1|>|β2|,|αi||γi|+|βi+1|,i=2,...,n1,
|αn||γn|,γi0,i=2,...,n.

Diese Bedingungen besagen offenbar, dass man für die erste Zeile strikte und für die anderen Zeilen nur normale Diagonaldominanz fordern muss. Die Forderung γi0 (i=2,...,n) macht Sinn, da im anderen Fall eine LR-Zerlegung mit L:=I und R:=A existiert und folglich nicht berechnet werden muss. Für die LR-Zerlegung einer Tridiagonalmatrix sind offenbar nur

(n2)2+2=2n2

wesentliche Rechenoperationen erforderlich.


Siehe auch

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.