Was ist die Maximum-Likelihood-Methode?
Eine intuitive Erklärung, wie wir die "plausibelste Wahrheit" aus Daten ableiten können.
Das Münzwurf-Rätsel
Stellen Sie sich vor, Sie finden eine Münze. Sie könnte fair sein (50% Kopf, 50% Zahl) oder auch nicht. Um das herauszufinden, werfen Sie sie 100 Mal und beobachten 70 Mal Kopf.
Die Frage, die sich die Maximum-Likelihood-Methode stellt, ist: "Welche Eigenschaft der Münze (also welche Wahrscheinlichkeit für 'Kopf') macht unser Ergebnis von 70 Köpfen am wahrscheinlichsten?"
Intuitiv würden wir sagen, eine Wahrscheinlichkeit von 70% ($p=0.7$) ist die beste Schätzung. MLE gibt uns den mathematischen Beweis dafür.
Beobachtung:
70x Kopf
bei 100 Würfen
Die Kernidee: Finde den Gipfel der Plausibilität
Wir definieren eine "Likelihood-Funktion", die uns für jede mögliche Kopf-Wahrscheinlichkeit ($p$) sagt, wie plausibel sie angesichts unserer Daten ist. Unser Ziel ist es, den Gipfel dieser Funktion zu finden.
Beispiel: Schätzung von Parametern einer Normalverteilung
Ein häufigerer Anwendungsfall ist die Schätzung der Parameter (Mittelwert $\mu$ und Standardabweichung $\sigma$) einer Normalverteilung basierend auf einigen Datenpunkten. Verschieben Sie die Datenpunkte und beobachten Sie, wie sich die Schätzungen und die Likelihood-Fläche anpassen.
Ihre Datenpunkte
Geschätzte Parameter
Log-Likelihood
Dies ist die Log-Likelihood-Funktion . Die Schätzungen für $\mu$ und $\sigma$ sind die Koordinaten, an denen diese Funktion ihren höchsten Wert (den Gipfel) erreicht.