Kurs:Maschinelles Lernen/Hypothesen aus Daten Ableiten

Aus testwiki
Version vom 16. Mai 2024, 15:23 Uhr von imported>Bert Niehaus (Formulierung des Problems)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Vorherige Seite: K1 - Grundbegriffe des maschinellen Lernens
Nächste Seite: K2 - Lineare Regression in einer Dimension

Formulierung des Problems

Mit dem vorliegenden Datensatz D können zwar viele aber sicher nicht alle Hypothesen getestet werden. Wie auf der vorherigen Seite bereits bemerkt, wird dazu der Hypothesenraum eingeschränkt. Es bietet sich an, dazu ein Modell mit einer gewissen Anzahl an Parametern zu entwerfen. Diese Parameter können zu einem Vektor wn zusammengefasst werden. Der betrachtete Hypothesenraum Hw mit den Hypothesen hw:XY ist damit eine Teilmenge des gesammten Hypothesenraums H. Aufgrund der speziellen Wahl von wn kann der betrachtete Hypothesenraum als isomorph zu n angesehen werden. In diesem Fall besteht die Aufgabe des maschinellen Lernens darin einen Parametervektor w^ zu finden, so dass (salopp formuliert) hw^t gilt. Die Parameter w können bspw. im Rahmen der Neuronalen Netze die Gewichte der einzelnen Neuronen sein. Auf der anderen Seite gibt, es Parameter, die zwar festgelegt, aber nicht varriert werden, die also nicht in den Parametervektor w einfließen. Sie werden als Hyperparameter bezeichnet. Bei Neuronalen Netzen wäre dies bspw. die Zahl der Neuronen und die Architektur des Netzes.

Risiko- und Verlustfunktion

Um nun w^ zu finden, bietet es sich an, die Fehler des Modells durch eine Funktion

R:H×H0+,(h,t)R(h,t)

zu quantifizieren und versuchen diese zu minimieren. Die Funktion R wird als Risiko bezeichnet. Da t allerdings nicht bekannt ist, muss R genähert werden. Dazu wird auf Grundlage eines vorliegenden Datensatzes D={(x1,y1),(x2,y2),,(xN,yN)} das empirische Risiko

R^D:H0+,hR^D(h)=1Ni=1Nl(h(xi),yi)

mit der Verlustfunktion (engl. loss function)

l:X×Y0+

eingeführt. Häufig wird stattdessen das empirische Risiko auch als Funktion des Datensatzes unter vorliegen einer bestimmten Hypothese R^h(D) aufgefasst. An die Verlustfunktion werden zwei Bedingungen gestellt:

  • Da das Minimum von R^ gesucht werden soll, sollte diese Funktion nach unten beschränkt sein. Gleichzeitig sollen Fehler den Wert des empirischen Risikos erhöhen. Daher sollte für alle Hypothesen, Eingabe- und Ausgabewerte der Zusammenhang l(h(x),y)0 gelten.
  • Das Minimum einer Funktion kann mit den Methoden der Differentialrechung gefunden werden, wenn die Funktion differenzierbar ist. Da Ableitungen linear sind, muss jeder Summand differenzzierbar sein, womit sich die Bedingung einer differenzierbaren Verlustfunktion motivieren lässt.

Für Regressionen wird häufig der quadratische Fehler

l(h(x),y)=(h(x)y)2

als Verlustfunktion verwendet.
Für eine Klassifikation wird stattdessen die sog. Kreuzentropie

l(h(x),y)=[yln(h(x))+(1y)ln(1h(x))]

verwendet, wobei hier die Vereinbarung 0ln(0)=0 getroffen wird.

Verallgemeinerungsfehler

Da R^ nur eine Näherung für R ist, kann es passieren, dass bei der Minimierung des empirischen Risikos zunächst auch das Risiko sinkt, es aber ab einem bestimmten Punkt wieder ansteigt. Ab diesem Moment passt sich das Modell Ausreißer des vorliegenden Datensatzes an und es wird vom Overfitting gesprochen. Um dies zu Quantifizieren wird der Verallgemeinerungsfehler (engl. generalization gap)

G=|RR^|

eingeführt. Dieser soll möglichst klein gehalten werden. In der Praxis wird ein vorliegender Datensatz dazu in drei Teile aufgespalten:

  • Trainingsdatensatz: Der Trainingsdatensatz DTr besteht aus etwa 70 % der Daten und wird dem Namen entsprechend dazu verwendet, das Modell zu trainieren, also passende Parameter w, welche das empirische Risiko minimieren, zu finden. Aus diesem wird ständig der Trainingsfehler R^(DTr) bestimmt, welcher eine monoton fallende Funktion darstellt.
  • Validierungsdatensatz: Der Validierungsdatensatz DV besteht aus etwa 20 % des Datensatzes und evaluiert während des Trainings für verschiedene Hypothesen das empirische Risiko, woraus der Validierungsfehler R^(DV) bestimmt wird. Dieser wird zwar zunächst fallen, für ein zu lange andauerendes Training aber wieder beginnen zu steigen, da das Modell beginnt, die Ausreißer des Trainingsdatensatzes zu lernen. Der Punkt an dem der Validierungsfehler minimal ist, stellt oft den besten Satz an Parametern dar.
  • Testdatensatz: Die verbleibenden etwa 10 % des Datensatzes stellen den Testdatensatz DT dar, der verwendet wird, um die Vorhersagekraft des Systems zu bestimmen. Durch auswerten des empirischen Risikos für diesen Datensatz wird der Testfehler R^(DT) zu bestimmen. Um den Verallgemeinerungsfehler abzuschätzen wird die Größe G^=|R^(DTr)R^(DT)|G bestimmt.