Kurs:Numerik I/Lösung der Normalengleichung
Mehrdimensionale Taylorentwicklung
Für die mehrdimensionale Tailorentwicklung von einer quadratischen Funktion mit dem Vektor als Entwicklungspunkt gilt:
Dabei ist der Gradient von an der Stelle und die Hesse-Matrix von an der Stelle .
Ausgangsfunktion der Ausgleichsrechnung
Im Allgemeinen wurde aus der linearen Ausgleichsrechnung die folgende Gleichung hergeleitet
Mehrdimensionale Taylorentwicklung
Diese wird nun als mehrdimensionale Taylorentwicklung einer quadratischen Funktion interpretiert.
Rang der Matrix
Wir betrachten nun die obige quadratische Funktion, wobei wir voraussetzen. hat
- im Entwicklungspunkt den Gradienten ,
- an der Stelle den Gradienten und
- die Hesse-Matrix
Normalengleichung
Notwendige Bedingung, dass Minimalpunkt von ist, ist die Bedingung bzw. äquivalent dazu, dass die sog. Normalgleichungen
erfüllt. Nach dem Lemma zur Lösbarkeit der Normalengleichung ist dabei die (von unabhängige) Matrix positiv definit, so dass die eindeutige Lösung der Normalgleichungen auch der einzige (globale) Minimalpunkt von ist.
Satz - Lösbarkeit der Normalengleichung
Sei mit und . Dann besitzt das lineare Ausgleichsproblem
eine eindeutige Lösung und diese ist eindeutige Lösung des linearen Gleichungssystems
Bemerkung - Symmetrie der Matrix
Die Matrix ist mit und eine symmetrische Matrix, da die Kompomenten bestehen aus den Skalarprodukten der Spaltenvektor von mit:
Die Symmetrie des Skalarprodukte für liefert die Symmetrie der Matrix.
Bemerkung - Gleichungssystem mit invertierbarer Matrix
Die Invertierbarkeit von Matrizen bzgl. Matrixmultiplation betrachtet auf einem Matrizenraum von quadratischen betrachten bzgl. einer inneren Verknüpfung. und ist nicht quadratisch. Wenn der Rang von allerdings , hat auch den Rang und die Matrix ist invertierbar. Mit der Normalengleichung, gilt für die eindeutige Lösung von
Beispiel
Wir betrachten dazu ein Beispiel der Ausgleichsrechnung.
Beispiel - Ausgleichsgerade 1
Wir betrachten den Fall der sog. Ausgleichsgeraden. Wenn die mit ungefähr auf einer Geraden liegen, macht es Sinn, polynomiale Ansatzfunktionen bis zum Grad 1 zu verwenden. D.h. als Ansatzfunktionen wählt man
mit .
Beispiel - Ausgleichsgerade - 2
Somit erhält man approximierende Funktion über
und die gesuchten optimalen Koeffizienten der Geradengleichung werden durch den Vektor definiert.
Beispiel - Daten zu Zeitpunkten - 3
Als Daten haben wir z.B. wieder Daten zum Zeitpunkt erhoben, für die nun die Ausgleichsgerade gesucht wird. Dazu definiert man:
und den Spaltenvektor , dessen Komponenten nur aus 1 besteht mit
Beispiel - Definition der Matrix A - 4
Nun hat in diesem Fall die Gestalt . Da der erste Spaltenvektor nur als Komponenten die 1 besitzt und die Zeitpunkte in paarweise verschieden sind, hat die Matrix den Rang 2.
Beispiel - Berechnung der symmetrischen Matrix - 5
Weiter ist dann
Da der Rang der Matrix 2 ist, besitzt auch die symmetrische Matrix den Rang 2.
Beispiel - Inverse Matrix zur symmetrischen Matrix - 6
Für eine symmetrische invertierbare Matrix kann man die Inverse explizit angeben:
Beispiel - Lösung der Normalengleichung - 7
Somit lautet die Lösung der Normalgleichungen in diesem Fall
Beispiel - Berechnung der Lösung - 8
Durch algebraische Umformungen erhält man demzufolge
Beispiel - Berechnung von Termen in der Lösung - 9
Dabei hat man
Beispiel - Einsetzung von Termen in die Lösung - 10
Durch Einsetzen erhält man:
Beispiel - Berechnung der Ausgleichsgerade für konkrete Wertepaare - 11
Beispielsweise für die Wertepaare
Beispiel - Berechnung von Termen in der Lösung - 12
Wendet man die obigen Überlegungen auf die Beispieldaten an, erhält man
Beispiel - Berechnung von Termen in der Lösung - 13
Über Einsetzung in die Vektordefinition von ergibt sich somit
Die Ausgleichsgerade zu den gegebenen Daten lautet folglich
Beispiel - Maximaler Fehler der Lösung - 14
Der maximale relative Fehler der bezüglich der beträgt
bzw. ungefähr 1.6%.
Normalengleichung für höhere k
Für könnte man die Normalgleichungen (4.10) mittels einer Cholesky-Zerlegung lösen. Diese selbst ist, wie man zeigen kann, numerisch stabil. Leider ist das Ausgleichproblem selbst aber häufig schlecht konditioniert.
Vandermonde-Matrix - Ansatzfunktionen
Man betrachte z. B. die Matrix , die sog. Vandermonde-Matrix, die man für im Fall der Wahl der Monome (4.6) als Ansatzfunktionen erhält:
Einfluss auf die Konditionszahl
Für unterscheiden sich die Funktionen und bereits für nicht allzu großes kaum, so dass die -te und -te Spalten in für solche nahezu linear abhängig sind. Die oft große Kondition von geht außerdem noch im Fall bei der Lösung der Normalgleichungen quadratisch ein, denn es gilt:
Lemma - Eigenwerte positiv definiter Matrizen
Sei eine positiv definite Matrix, dann sind alle Eigenwerte positiv.
Beweis
Sei ein Eigenwert der Matrix und ein beliebiger Eigenvektor. Dann gilt mit und der positiven Definitheit:
Damit ist auch . q.e.d.
Bemerkung - Normalengleichung - Taylorentwicklung
Durch die Darstellung der Funktion in der mehrdimensionalen Taylorentwicklung ist die Hesse-Matrix. Die -Matrix ist mit positiv definit, denn dann müssen alle Eigenwerte von 0 verschieden sein.
Bemerkung - positiv semidefinit
Die -Matrix ist im Allgemeinen nur nur positiv semidefinit, denn es gilt für alle :
Lemma - Konditionszahl Normalengleichung
Für eine reguläre Matrix gilt für die Konditionszahl
Dabei bezeichnet der Index 2 an der Konditionszahl, dass die Euklidische Norm bzw. -Norm verwendet wurde.
Beweis
Nach dem Lemma über Eigenwerte positiv definiter Matrix gilt für die Eigenwerte .
Beweis 1 - Eigenwert der inversen Matrix
Weiter hat wegen
für Eigenvektoren zu besitzt.
Beweis 2 - Berechnung der Konditionszahl
Es gilt folglich nach Satz zur Berechnung der Konditionszahl erhält man:
wobei und den größten bzw. kleinsten Eigenwert von bezeichnen.
Beweis 3 - Orthonormalbasis aus Eigenvektoren
Indem man mittels einer Orthonormalbasis von Eigenvektoren darstellt, kann man ferner die Abschätzungen
beweisen, wobei offenbar Gleichheit in der ersten bzw. zweiten Ungleichung für einen zu bzw. gehörenden Eigenvektor angenommen wird.
Beweis 4 - Orthonormalbasis aus Eigenvektoren
Folglich schließt man
Wendet man diese Ergebnisse auf das Lemma über Eigenwerte positiv definiter Matrizen auf die positiv definite Matrix an,
Beweis 5 - Satz zur Berechnung der Konditionszahl
so erhält man mit dem Satz zur Berechnung der Konditionszahl
q.e.d.
Bemerkung - Cholesky-Zerlegung
Es ist daher große Vorsicht bei Anwendung der Cholesky-Zerlegung für die Lösung der Normalgleichungen geboten. Prinzipiell ist sie nur zu empfehlen, wenn große Residuen in der Lösung des Ausgleichsproblems zu erwarten sind (s. Deuflhard/Hohmann). Sicherer ist es aber, so vorzugehen, wie es im folgenden Abschnitt beschrieben ist.
Siehe auch
- linearen Ausgleichsrechnung
- mehrdimensionale Taylorentwicklung
- Gradient
- Hesse-Matrix
- positiv semidefinit
Seiteninformation
Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.
Wiki2Reveal
Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Kurs:Numerik I' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.
- Die Seite wurde als Dokumententyp PanDocElectron-SLIDE erstellt.
- Link zur Quelle in Wikiversity: https://de.wikiversity.org/wiki/Kurs:Numerik%20I/L%C3%B6sung%20der%20Normalengleichung
- siehe auch weitere Informationen zu Wiki2Reveal und unter Wiki2Reveal-Linkgenerator.