Gradientenabstiegsverfahren

Aus testwiki
Version vom 31. Januar 2025, 10:20 Uhr von imported>YMS (Sprache)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Einführung

Das Gradientenverfahren, auch Verfahren des steilsten Abstiegs genannt, ist ein Verfahren, das in der Numerik eingesetzt wird, um allgemeine Optimierungsprobleme zu lösen. Dabei geht man (am Beispiel eines Minimierungsproblems) von einem Näherungswert aus. Von diesem schreitet man in Richtung des negativen Gradienten (der die Richtung des steilsten Abstiegs von diesem Näherungswert angibt) fort, bis man keine numerische Verbesserung mehr erzielt.[1]

Animation

Datei:Gradient Descent in 2D.webm

Bemerkung - Animation

In der Animation werden Startpunkte in ein rechteckigen Gitter schachbrettmusterartig in dem Definitionsbereich verteilt. Jede Einzelbewegung dieser Punkte stellt einen Gradientenabstieg dar. Wenn der Gradientenabstieg gegen ein lokale Minimum konvergiert, so muss das nicht das absolute Minimum (z.B. von einer Fehlerfunktion/Kostenfunktion) sein. Wenn man die Startpunkte gitterartig im Definitionsbereich verteilt, findet man ggf. mehrere lokale Minima und wählt dann in einem letzten Optimierungsschritte die Stelle aus, die den geringsten Wert der Zielfunktion (Fehlerfunktion oder Kostenfunktion) besitzt.

Wiki2Reveal-Folien

Diese Seite zum Gradientenabstiegsverfahren ist zugleich ein Wik2Reveal-Foliensatz Wiki2Reveal Slides.

CAS4Wiki - Partielle Ableitung

Diese Lernressource enthält CAS4Wiki-Testlinks zur

Bemerkung Konvergenz

Das Verfahren konvergiert oftmals sehr langsam, da es sich dem Optimum mit einem starken Zickzack-Kurs nähert. Für die Lösung von symmetrisch positiv definiten linearen Gleichungssystemen bietet das Verfahren der konjugierten Gradienten hier eine immense Verbesserung. Der Gradientenabstieg ist mit dem Bergsteigeralgorithmus (hill climbing) verwandt.

Das Optimierungsproblem

Das Gradientenverfahren ist einsetzbar, wenn es um die Minimierung einer reellwertigen, differenzierbaren Funktion f:n geht; also um das Optimierungsproblem

minxn f(x).

Hierbei handelt es sich um ein Problem der Optimierung ohne Nebenbedingungen, auch unrestringiertes Optimierungsproblem genannt.

Wesentliche Schritte

  • Gradient zeigt in die Richtung der "stärksten" Steigung.
  • der negative Gradient zeigt daher in die Richtung, in der die Funktionswerte von f fallen.
  • Es kann passieren, dass man bei einem Iterationsschritt über das lokale Minimum der Funktion f hinwegspringt. Dann würde man die Schrittweite entsprechend verkleinern, um den Funktionswert von f weiter zu minimieren und genauer zu approximieren.

Abbruchbedingung

  • Abbruchbedingung für das Gradientabstiegsverfahren wäre, wenn wir mit der Iteration eine Stelle x(k)n gefunden haben an der der Gradient von f 0 ist
Grad(f)(x(k))=0n .

Allgemein ist der Gradient einer Stelle x(k)n für den k-ten Iterationsschritt wie folgt über die partiellen Ableitungen definiert:

Grad(f)(x(k)):=(fx1(x(k)),,fxn(x(k)))

Notation

Es wird die englische Notation für den Dezimalpunkt statt Komma verwendet. Dies wird analog zu Computer-Algebra-Systemen gemacht, damit die Trennung zwischen Komponenten in einem n-Tupel auch mit Zahlen möglich ist. (6,5)2 ist ein Vektor mit zwei Komponenten. Besitzen die Komponenten des Vektors Nachkommastellen, werden diese mit einem Punkt notiert - z.B.(6.12,5.898)2

Beispiel für einen Gradienten

Sei f(x1,x2):=x13x2+x22:

Grad(f)(x1,x2)=(fx1(x1,x2),fx2(x1,x2))=(3x12x2,x13+2x2)

Damit können wir den Gradienten an einer bestimmten Stelle im Definitionsbereich berechnen:

Grad(f)(1,2)=(6,5)

CAS4Wiki

Mit CAS4Wiki können Sie die obigen Ableitungen berechnen, siehe z.B. partielle Ableitungen

Beispiel - normierter Gradienten

Mit einem vom Nullvektor verschiedenen Gradienten Grad(f)(1,2)=(6,5) kann man einen normierten "negativen" Gradienten erzeugen:

d(j):=Grad(f(1,2))Grad(f(1,2))=(6,5)36+25=(661,561)

Das Verfahren

Als Einführung in das Gradientenabstiegsverfahren wird eine vereinfachte Schrittweitenberechnung verwendet.

  • Das Verfahren bricht ab, wenn der Gradient der Nullvektor ist.
  • Ist der Gradient nicht der Nullvektor, wird der negative Gradient zunächst auf die Länge 1 normiert und mit der Schrittweite αj multipliziert.
  • Die Schrittweite wird halbiert, wenn nach dem Iterationsschritt der Funktionswert (z.B. Kosten) nicht abnehmen.
  • Eine weitere Abbruchbedingung für die Iteration ist, wenn die Schrittweite eine Genauigkeitsgrenze ε>0 unterschreitet (d.h. αj<ε).

Start der Optimierung

Als Anfangspunkt wird eine Stelle x(0) aus dem Definitionsbereich der Funktion f ausgewählt, für die man lokale Minima mit dem Gradientenabstiegsverfahren annähern möchte.

Richtung des steilsten Abstiegs

Ausgehend von einem Anfangspunkt x(0) bzw. von der aktuellen Stelle x(j) für den nächsten Iterationsschritt wird die Richtung des steilsten Abstiegs durch Grad(f(x(j))) bestimmt, wobei Grad(f(x(j)))n den Gradienten von f an der Stelle x(j)n bezeichnet. Dieser zeigt in die Richtung des "größten Anstiegs". Das negative Vorzeichen vor dem Gradienten sorgt dafür, dass man sich mit den Iterationsschritten in die Richtung des stärksten Abfalls bewegt (z.B. Minimierung der Kostenfunktion/Fehlerfunktion f).

Normierung des Richtungsvektors

Das vereinfachte Interationsverfahren bricht bei der Bedingung ab, wenn Grad(f(x(j)))<ε. Ansonsten wird der Richtungsvektor für den folgenden Iterationsschritt normiert (dies ist optional, um die Schrittweite im Lernalgorithmus zu normalisieren) :

d(j):=Grad(f(x(j)))Grad(f(x(j))) mit Euklidischer Norm x:=(x1,,xn):=k=1nxk2

Iterationsschritt

Gradient Descent - Trajectory of Points
Gradient Descent - Trajectory of Points

Formal notiert man diesen Iterationsschritt wie folgt:

x(j+1)={x(j)+α(j)d(j),wenn f(x(j)+α(j)d(j))<f(x(j))  (Verbesserung) x(j),sonst 

Wenn keine Verbesserung vorliegt, wird die Schrittweite verkleinert (z.B. halbiert).

Festlegung der Schrittweite

Die Schrittweite wird so lange für den nächsten Iterationsschritt verwendet, bis sich die Kostenfunktion f mit dem nachfolgenden Schritt erhöht. In diesem einführenden Beispiel wird die Schrittweite α(j) halbiert. Formal

α(j+1)={α(j),wenn f(x(j)+α(j)d(j))<f(x(j)) (Verbesserung) α(j)2,sonst 

Alternative Schrittweitenverkleinerung

Die Schrittweitenverkleinerung kann allgemein auch durch einen Faktor δ mit 0<δ<1 über

α(j+1):=α(j)δ

ersetzt werden.

Schrittweitenfestlegung pro Iterationsschritt

Dabei ist α(j)>0 die Schrittweite im j-ten Iterationsschritt. Diese Schrittweite muss in jedem Schritt des Iterationsverfahrens bestimmt werden. Hierfür gibt es im Allgemeinen unterschiedliche Möglichkeiten, wie die Rückführung der Schrittweitenbestimmung auf ein eindimensionales Optimierungsproblem. Die hier gewählte Schrittweitenoptimierung ist als Einführung in das Thema gewählt worden.

Gradientenabstieg in Tabellenkalkulation

In der folgenden ZIP-Datei von GitHub befindet sich eine LibreOffice-Datei mit einem exemplarischen Gradientenabstieg für die Kostenfunktion:

f(x1,x2):=sin(x1)+cos(x2)+3.

Die Kostenfunktion hat auf ihrem Definitionsbereich 2 unendlich viele lokale Minima. Das Minimum der Kostenfunktion ist nach Definition -1. In jeder Tabellenzeile wird ein Iterationsschritt durchgeführt und überprüft, ob die Kostenfunktion nach dem Iterationsschritt tatsächlich abnimmt.

Rückführung auf ein eindimensionales Optimierungsproblem

Eine Methode besteht darin, α(j) durch die Minimierung der Funktion auf dem (eindimensionalen) "Strahl" x(j)(α) zu bestimmen, der ausgehend von x(j) in Richtung des negativen Gradienten zeigt. Die eindimensionale zu minimierende Funktion M ist wie folgt definiert.

M:+,αM(α):=f(x(j)(α))f(x(j)+αd(j))
mit x(j)(α)=x(j)+αd(j).

Man berechnet in diesem Fall das x(j+1):=x(j)(αo) mit αo>0 so, dass M(αo) minimal wird. d.h.:

f(x(j+1))=minα>0 f(x(j)(α)).

Dies ist ein einfaches, eindimensionales Optimierungsproblem, für das es spezielle Verfahren der Schrittweitenbestimmung gibt.

Schrittweiten und iterierte Schrittweitenverkleinerung

Eine andere Methode besteht darin, α(j) von der Minimierung der Funktion f abhängig zu machen, d. h. von der Bedingung f(x(j+1))<f(x(j)). Wird mit dem Iterationsschritt der Funktionswert mit einer Startschrittweite α0>0 nicht vermindert, verkleinert man die Schrittweite z. B. mit αk+1:=αks mit 0<s<1 weiter, bis die Schrittweite ausgehend von x(j) in Richtung des negativen Gradienten tatsächlich einen Funktionswert f(x(j)+αkd(j))<f(x(j)) liefert und setzt x(j+1)=x(j)+αkd(j).

Hat man im Iterationsverfahren eine Stelle x(j+1)n mit Grad(f(x(j+1)))=𝟎n erreicht, liegt eventuell eine lokale Extremstelle von f vor (Überprüfung bzw. Abbruch des Iterationsverfahrens).

Abbruchbedingung

Ein zentrales Kriterium für eine Abbruchbedingung ist, dass d(j)=Grad(f(x(j)))=𝟎n ist.

Sattelpunkt/Sattelfläche

Wie in der reellen eindimensionalen Analysis muss sich an dieser Stelle x(j)n kein lokales Minimum befinden (eindimensional Sattelpunkt, mehrdimensional z.B. Sattelfläche). Wenn für f:U zweimal stetig differenzierbar ist und die Hesse-Matrix an dieser Stelle positiv definit ist, liegt in x(j)n hinreichendes Kriterium für ein lokales Minimum. Dieses wird ausgegeben und die Iteration abgebrochen.

Schrittweite als Abbruchbedingung

Wird der Algorithmus auf einem Computer ausgeführt, ist ein mögliches weiteres Abbruchkriterium die Schrittweitenlänge, wenn diese kleiner wird als eine untere Grenze ε>0 mit der Bedingung α(j)<ε.

Verbesserungsschritte als Abbruchbedingung

Ferner kann das Gradientenabstiegsverfahren abgebrochen werden, wenn die Verbesserung der Optimierung von f in den Iterationsschritten kleiner als eine untere Grenze wird.

Bedeutung von Abbruchkriterien

Durch solche Abbruchkriterien wird algorithmisch gewährleistet, dass das Gradientenabstiegsverfahren nicht in einer Endlosschleife der Iterationen landet.

Aufgabe

Videos

Literatur

  1. „Gradientenverfahren“. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 24. September 2016, 13:24 UTC. URL: https://de.wikipedia.org/w/index.php?title=Gradientenverfahren&oldid=158180650 (Abgerufen: 21. November 2017, 11:49 UTC)
  2. 2,0 2,1 Gradientenabstieg mit Tabellenkalkulation, Jörg Rapp, Engelbert Niehaus (2018) GitHub Repository https://github.com/niebert/GradientDescent - ZIP: https://github.com/niebert/GradientDescent/archive/master.zip (letzter Zugriff 2019/04/28)

Siehe auch

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Numerik' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.


en:Gradient descent