Gradientenabstiegsverfahren/Gradient - lineares Funktional

Aus testwiki
Version vom 17. Juni 2024, 16:14 Uhr von imported>Bert Niehaus (Siehe auch)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen


Einleitung

Diese Seite zum Thema Gradientenabstiegsverfahren/Gradient - lineares Funktional kann als Wiki2Reveal Folien angezeigt werden. Einzelne Abschnitte werden als Folien betrachtet und Änderungen an den Folien wirken sich sofort auf den Inhalt der Folien aus. Dabei werden die folgenden Teilaspekte im Detail behandelt:

  • (1) Ausgangspunkt ist eine lineare Abbildung f:nm die in m Komponentenfunktionen zerlegt wird.
  • (2) auf die Komponentenfunktionen wird ein erweitertes Gradientenabstiegsverfahren angewendet

Zielsetzung

Diese Lernressource wird Gradient eines lineares Funktional adressiert und diesen auf ein Gradientenabstiegsverfahren anzuwenden. Dabei erweitert man das Standardverfahren, um eine Minimierung in Gradientenrichtung. Dieses wertet die Fehlerfunktion in Richtung des normierten Gradienten an endlich vielen Stellen aus und wählt den nächsten Schritt in Abhängigkeit von dem Minimum der Fehlerfunktion.

Lernvoraussetzungen

Die Lernressource zum Thema Gradientenabstiegsverfahren/Gradient - lineares Funktional hat die folgenden Lernvoraussetzungen, die zum Verständnis der nachfolgenden Ausführungen hilfreich bzw. notwendig sind.


Gradientenabstieg für lineares Funktional

Wendet man das Gradientenabstiegsverfahren auf ein lineares Funktional fa:n wird bei der aktuellen Position der Gradient der Fehlerfunktion berechnet und der aktuelle Vektor a(t)3 in Richtung des negativen Gradient zu a(t+1)3 verändert, um den Gesamtfehler zu verkleinern.

Definition des linearen Funktionals

Das lineare Funktional sei über das Skalarprodukt wie folgt definiert:

fa:nxfa(x)=a,x

Partielle Ableitung eines linearen Funktionals

Mit fa(x)=a,x=k=1nakxk gilt:

faak(x)=(k=1nakxk)ak=xk

Diese partielle Ableitung tritt bei der Ableitung der Fehlerfunktion mit quadratischem Fehler als innere Ableitung auf.

Daten für die Regression

Die Daten 𝔻 für die mehrdimensionale lineare Regression bestehen aus Datenpunkten der Form (x(i),y(i))n×:

𝔻:={(x(i),y(i))n× : i{1,,d}}

Fehler für Datenpunkt

Für einen einzelnen Datenpunkt (x,y)=(x1,,xn,y)n+1 kann man mit fa(x)=a,x jeweils den Fehler wie folgt angeben:

eLR(a,x,y):=fa(x)y=a,xy

Bemerkung - Fehler

Der Fehler ist reellwertig und kann auch negativ sein. Das bedeutet, dass der durch fa(x)=a,x geliefert Wert zu klein im Vergleich zu y ist. Bei der Aggregation von reellwertigen Fehlern eLR(a,x,y) können sich positive Fehler und negative Fehler bei der Aggregation ausgleichen und ein Gesamtfehler von 0 kann dann nicht als fehlerfrei Regression interpretiert werden.

Aggregation von Einzelfehlern zu Fehlerfunktion

Die obige Fehlerfunktion eLR berechnet den reellwertigen Fehler von einem Datenvektor x(k)n bzgl. einem Sollwert y(k). Der quadratische Fehler eLR2 ist nicht negativ und der Gesamtfehler wird für alle d Datenpunkte aufsummiert.

ELR(a,x𝔻,y𝔻):=k=1d(fa(x(k))y(k))20=k=1d(a,x(k)y(k))20

Fehlerfunktion für Datenvektoren

Die quadratische Fehlerfunktion ELR(a,x𝔻,y𝔻)=k=1d(fa(x(k))y(k))2 hängt von den Daten (also den Vektoren x(k)n und reellen Sollwerten y(k) ab:

x𝔻:=(x(1),,x(d))y𝔻:=(y(1),,y(d))

Bemerkung - Differenzierbarkeit - Betragsfunktion

Man könnte die Fehlerfunktion auch mit dem Betrag wie folgt definieren: E(a,x𝔻,y𝔻):=k=1d|fa(x(k))y(k)|. Die Betragsfunktion ist allerdings in 0 nicht differenzierbar. Daher wird der quadratische Fehler verwendet.

Gradient des Gesamtfehlers

Mit der Anwendung der Summenregel für den Gradienten einer Summe man den Gradienten des Gesamtfehlers wie folgt berechnen.

Grada(ELR)(a,x𝔻,y𝔻)=k=1dGrada(eLR2)(a,x(i),y(i))=k=1d2(fa(x(i))y(i))x(i)=Grada(eLR2)(a,x(i),y(i))=2k=1d(fa(x(i))y(i))x(i)

Implementation in R

In GNU R als OpenSource-Software zur Datenanalyse kann man die mathematische Definition des Gradienten implementieren. Die Implementation in R findet man bei der linearen Regression für Komponentenfunktionen.

Siehe auch

Seiteninformation

Diese Lernresource können Sie als Wiki2Reveal-Foliensatz darstellen.

Wiki2Reveal

Dieser Wiki2Reveal Foliensatz wurde für den Lerneinheit Gradientenabstiegsverfahren' erstellt der Link für die Wiki2Reveal-Folien wurde mit dem Wiki2Reveal-Linkgenerator erstellt.