Was ist die Maximum-Likelihood-Methode?

Eine intuitive Erklärung, wie wir die "plausibelste Wahrheit" aus Daten ableiten können.

Das Münzwurf-Rätsel

Stellen Sie sich vor, Sie finden eine Münze. Sie könnte fair sein (50% Kopf, 50% Zahl) oder auch nicht. Um das herauszufinden, werfen Sie sie 100 Mal und beobachten 70 Mal Kopf.

Die Frage, die sich die Maximum-Likelihood-Methode stellt, ist: "Welche Eigenschaft der Münze (also welche Wahrscheinlichkeit für 'Kopf') macht unser Ergebnis von 70 Köpfen am wahrscheinlichsten?"

Intuitiv würden wir sagen, eine Wahrscheinlichkeit von 70% ($p=0.7$) ist die beste Schätzung. MLE gibt uns den mathematischen Beweis dafür.

🪙

Beobachtung:

70x Kopf

bei 100 Würfen

Die Kernidee: Finde den Gipfel der Plausibilität

Wir definieren eine "Likelihood-Funktion", die uns für jede mögliche Kopf-Wahrscheinlichkeit ($p$) sagt, wie plausibel sie angesichts unserer Daten ist. Unser Ziel ist es, den Gipfel dieser Funktion zu finden.

Beispiel: Schätzung von Parametern einer Normalverteilung

Ein häufigerer Anwendungsfall ist die Schätzung der Parameter (Mittelwert $\mu$ und Standardabweichung $\sigma$) einer Normalverteilung basierend auf einigen Datenpunkten. Verschieben Sie die Datenpunkte und beobachten Sie, wie sich die Schätzungen und die Likelihood-Fläche anpassen.

Ihre Datenpunkte

Geschätzte Parameter

Log-Likelihood

Dies ist die Log-Likelihood-Funktion . Die Schätzungen für $\mu$ und $\sigma$ sind die Koordinaten, an denen diese Funktion ihren höchsten Wert (den Gipfel) erreicht.