12. Schätztheorie I

Leitfragen

Mit dem schwachen Gesetz der großen Zahlen kann man offenbar Erwartungswerte aus Beobachtungen ” kontrolliert schätzen“. Geht das auch für Varianz oder andere Parameter?

Dafür Schätztheorie mit

  • einem Stichprobenraum Ω
  • einer Familie von Verteilungen {Pϑ|ϑ∈Θ}
  • einem zu schätzenden Parameter ϑ

In der Schätztheorie ist Ω im Allgemeinen ein Produkt aus n unabhängigen Einzelexperimenten, während ϑ ein Parameter der Verteilung der Einzelexperimente ist.

Beispiel: Schätze die Wahrscheinlichkeit, dass ein zufällig gezogenes Wort länger als 5 Zeichen ist. Der Stichprobenraum ist {0,1}n (1 für ” Wort länger als 5“). Wir haben ein Bernoulli-Experiment, unsere Familie von W-Maßen ist also

{ (n ) x       n - x          }
{Pϑ } =    x  p  (1 - p )   |ϑ ∈ [0,1]  .

Wir haben dabei ganz flott eine Zufallsvariable X eingeführt, die Zahl der Einsen in ω; x ist ihr Wert beim vorliegenden Experiment.

Wir wollen p schätzen, also ist ϑ= p.

Das Ganze ließe sich noch etwas verallgemeinern durch Einführung einer Funktion g:Θ →Y, so dass man direkt nicht nur den Parameter ϑ, sondern gleich funktional davon abhängige Größen schätzen kann. Das allerdings verkompliziert die Notation und bringt wenig tiefere Einsicht, weshalb wir hier darauf verzichten.

Der Maximum-Likelihood-Schätzer für ϑ ist eine Abbildung ˆϑ:Ω →Θ, so dass die Likelihood-Funktion Lω(ϑ) = Pϑ(ω) für ˆϑ(ω) maximal wird.

Generell heißt jede Abbildung ˆϑ : Ω →Θ Schätzer (estimator) von ϑ– darin sind natürlich auch Schätzer, die völligen Quatsch schätzen.

Noch einmal: ϑ ist einfach ein Parameter, ˆϑ:Ω →Θ eine Funktion, ϑˆ(ω) der konkrete Schätzwert, der aus der Beobachtung der Stichprobe ω folgt, also das ϑ, das wir als in irgendeinem Sinne ” besten“ Parameter zur Erkärung der Beobachtung ansehen.

Der Maximum-Likelihood-Schätzer ist so gebaut, dass er den Parameter ϑ= ϑ0 wählt, für den bei der konkreten Beobachtung ω die Ungleichung Pϑ0(ω) ≥Pϑ(ω) für alle ϑ∈Θ gilt – man maximiert also die Wahrscheinlichkeit für das Auftreten von ω durch Wahl derjenigen Verteilung, in der ω gerade die höchste Wahrscheinlichkeit hat.

Das ist absolut nicht zwingend – es wäre etwa auch denkbar, dass wir ein paar ” benachbarte“ Pϑ(ω) zusammenzählen und diese Größe maximieren. Oder wir misstrauen unserer Beobachtung in irgendeiner systematischen Weise und bauen dieses Misstrauen in unseren Schätzer ein.

Im Beispiel ist die Likelihood-Funktion

(  )
Lx (p) =   n  px(1 - p)n- x.
           x

Das Maximum dieser Funktion bestimmt man am Besten nach Logarithmierung (dann werden die hässlich abzuleitenden Produkte zu einfach abzuleitenden Summen, Maxima bleiben aber Maxima). Wir müssen sehen, wo die Ableitung nach p Null wird. Also:

xp-- n1----xp- = 0.

Eine Lösung davon ist p= x∕n. In der Tat ist dort ein Maximum, also ist der ML-Schätzer für unser Problem ˆϑ(ω) = x∕n mit x der Zahl der Wörter länger als fünf und n der Zahl der Wörter insgesamt.

Das hätte einem natürlich schon der gesunde Menschenverstand gesagt, in der Realität sind die Probleme aber nicht so einfach, und häufig versagt der gesunde Menschenverstand.

Für eine Zufallsvariable T:Ω →ℝ ist Eϑ(T) = ∑ ω∈ΩT(ω)Pϑ(ω) der Erwartungswert von T bezüglich Pϑ. Ein Schätzer ˆϑ heißt erwartungstreu (unbiased), wenn

ˆ
E ϑ(ϑ) = ϑ

für alle ϑ. Der Bias von ϑˆ ist

ˆ        ˆ
b(ϑ,ϑ) = E ϑ(ϑ ) - ϑ.

Was bedeutet Erwartungstreue? So, wie wir unsere Schätztheorie aufgezogen haben, behaupten wir, es gebe ein ” wahres“ ϑ, das von einem konkreten System realisiert wird. Die Zufallsvariable, mit der wir schätzen, ist dann eben gemäß ϑ verteilt. In unserem Beispiel oben wird ein Schätzer nun zu jedem möglichen x∈{0,1,n} ein ˆ
ϑ(x) = x∕n liefern, also mitnichten jedes Mal das wahre ϑ– wenns so einfach wäre, bräuchten wir keine Schätztheorie.

Ein erwartungstreuer Schätzer ˆ
ϑ liefert aber im Mittel das richtige ϑ. Warum? Wenn wir das Experiment ganz oft (sagen wir, N Mal) mit unabhängigen Samples, die alle gemäß ϑ verteilt sind, wiederholen, sollte nach dem Gesetz der großen Zahlen mit ˆϑ als Zufallsvariable

ˆ               2
P (|HN   - E ϑ(ϑ)| ≤ ϵ) ≤ M ∕(ϵ N )

gelten, HN = 1∕Ni=1Nˆϑ(xi) also schließlich fast immer sehr nah an Eϑ(ˆϑ) liegen. HN ist aber gerade die Schätzung, die wir aus einer langen Versuchsreihe ableiten, während E(ˆϑ) bei einem erwartungstreuen Schätzer gerade ϑ ist – anders gesagt: wenn wir so lange experimentieren, dass wir jedes x aus dem Wertebereich von X tatsächlich mit NPϑ(X= x) Mal beobachten, liefert ein erwartungstreuer Schätzer wirklich den wahren Wert.

Ist unser ML-Schätzer erwartungstreu? Rechnen wir nach:

n   (  )
    ˆ     ∑   x- n   x        n- x
E ϑ(ϑ ) =     n  x  ϑ  (1 - ϑ)
         x=0
          1-
       =  nn ϑ,

weil der zu berechnende Term (in der Summe steht einfach der Schätzer x∕n und die Verteilung Pϑ) gerade der Erwartungswert der Bernoulli-verteilten Zufallsvariablen X= x ist, den wir oben zu np berechnet hatten. Demnach ist unser Schätzer erwartungstreu.

Haben wir einen nicht-erwartungstreuen Schätzer, ziehen wir offenbar etwas aus den Daten, das zunächst nicht drinsteht – es weicht eben gerade um den Bias davon ab. Hat sowas überhaupt einen Sinn? Ja, denn erwartungstreue Schätzer sind zwar dann gut, wenn man Ω oder analog den Wertebereich von X im erwähnten Sinn ” ausschöpfen“ kann. Wenn wir aber wissen, dass das garantiert nicht passiert, ist auch klar, dass ein erwartungstreuer Schätzer garantiert ein falsches Ergebnis liefert.

Wir könnten beispielsweise die Wahrscheinlichkeiten schätzen, mit denen bestimmte Wörter auf auf das Wort ” im“ folgen: im Haus, im Hörsaal, im Neckar usw. Wir wissen, dass es auch mal ” im Rhein“ sein kann, selbst wenn wir das nicht sehen – nicht-erwartungstreue (und nicht-ML) Schätzer erlauben uns, für sowas Platz zu reservieren. In diesem Fall haben wir ein (begründetes) ” Vorurteil“ (eben ein bias) über die Qualität unserer Daten, und das sollten wir besser in unseren Schätzer einbauen, wenn wir brauchbare Ergebnisse erhalten wollen.

Der bias hängt übrigens offenbar von ϑ ab. Das ist auch gut so, denn es mag durchaus sein, dass man z.B. für große ϑ einen kleinen Bias haben möchte und für kleine einen größeren. Wenn wir im obigen Beispiel bei 1000 Bigrammen mit ” im“ sagen wir 30 Mal ”im Haus“ finden und nur 1 Mal ” im Neckar“, würden wir 30/1000 wohl als eine ganz brauchbare Schätzung für die Wahrscheinlichkeit von ” im Haus“ ansehen, während wir nicht sicher sein können, ob ” im Neckar“ nicht in Wirklichkeit sehr selten sein sollte, wir aber zufällig einen Text erwischt haben, der über Heidelberg redet (was auch schon andeutet, dass der Stichprobenraum bei Schätzproblemen eminent wichtig ist – P(” im Neckar“) hat, wenn der Stichprobenraum ” alle möglichen Texte über Heidelberg“ heißt, einen ganz anderen Wert als über dem Stichprobenraum ” Texte, die sich mit Wüsten beschäftigen“). Entsprechend würden wir das 1/1000 von ” im Neckar“ wohl deutlich stärker bestrafen als das 30/1000 von ” im Haus“.

Ein populärer nicht-erwartungstreuer Schätzer für Häufigkeiten dieser Art ist Expected Likelihood Expectation (ELE, auch Jeffreys-Perks-Gesetz, hier für Bigramme formuliert):

P (w1w2  ) = |w1wN2+-| +B∕12∕2

Darin ist |w1w2| die absolute Häufigkeit des Bigramms w1w2, N die Zahl der beobachteten Bigramme (quasi der word tokens) und B die Zahl der verschiedenen möglichen Bigramme (also quasi der word types) – es ist eingestandenermaßen nicht immer offensichtlich, wie viele das wohl sein werden.

So, wie das gemacht ist, wird also im Zähler ein bisschen was addiert, im Nenner ein bisschen mehr, so dass die Wahrscheinlichkeiten kleiner werden, und zwar um so mehr, je kleiner die relative Frequenz von w1w2 ist. Nur haben eben auch ungesehene word types eine finite Wahrscheinlichkeit (nämlich 1(2N+ B)). Diese Formel lässt sich übrigens sogar begründen als in irgendeinem Sinn optimale Mischung zwischen einer ML-Schätzung und einer Bayesianischen Schätzung mit gleichverteiltem Prior (dazu später mehr).

Der mittlere quadratische Fehler eines Schätzers ist

(         )
R(ϑ, ˆϑ) = E ϑ (ˆϑ - ϑ )2

       =  Varϑ(ˆϑ ) + b(ϑ, ˆϑ)2.

Den zweiten Teil der Gleichung sieht man so ein:

(          )   (           )
ˆϑ - ϑ =   ˆϑ - E  (ˆϑ)  -   ϑ - E  (ˆϑ) .
                ϑ               ϑ

Das kann man quadrieren und ausmultiplizieren. Danach steht unter Ausnutzung der Linearität des Erwartungswerts das Ergebnis fast schon da – problematisch bleibt nur das gemischte Glied, das nach Ausmulitplizieren

E ϑ(ϑ ˆϑ) - Eϑ (ϑˆE  ϑ(ˆϑ)) - Eϑ (ϑE  ϑ(ˆϑ)) + Eϑ (ϑˆ2 )

lautet.

Nun sind die Erwartungswerte in den Klammern Konstanten und ziehen sich vor die Klammer, also heben sich die Terme 2 und 4 weg. Außerdem ist ϑ für die Berechnung von Eϑ ebenfalls konstant und kann aus dem Erwartungswert herausgezogen werden, also heben sich auch die Terme 1 und 3 weg.

Ein Streben nach möglichst kleinen mittleren quadratischen Fehlern ist übrigens ein weiterer Grund, von der Erwartungstreue Abstand zu nehmen. Am Ende des Tages interessiert man sich bei einem Schätzer eben doch eher dafür, wie sehr er sich bei realen Experimenten verschätzt als dafür, ob er, wenn man Ω koplett abgrasen würde und alle Ergebnisse mit den nach ihren Wahrscheinlichkeiten zu erwartenden Frequenzen erhalten hat, das wahre und endgültige ϑ liefern würde – eben weil dies meist unmöglich ist. Auf der letzten Folie zum Good-Turing-Schätzer werden beispielsweise wir einen Graphen sehen, der zeigt, dass für ein recht typisches Problem der nicht-erwartungstreue Good-Turing-Schätzer durchweg erheblich geringere mittlere quadratische Fehler aufweist.

Ein erwartungstreuer Schätzer für den Erwartungswert einer Zufallsvariablen X, die in n unabhängingen Experimenten mit Ausgängen Xk beobachtet wird, ist der Mittelwert

∑n
¯X =  1-    Xk,
     n k=1

für das Quadrat ihrer Standardabweichung s2

n
 2   --1---∑          ¯  2
s  = n - 1     (Xk -  X ) .
           k=1

Warum sind diese Schätzer erwartungstreu? Es ist

∑n
E  (¯X ) = 1-    E  (X  ) = 1-nE  (X  ).
  ϑ       n       ϑ   k    n    ϑ   1
            k=1

Wir brauchen dabei weder ϑ noch die Familien Pϑ∈Θ festzulegen – die Formel gilt unabhängig von der konkreten Modellierung, interessant ist nur der Erwartungswert. Dies ist einer der Fälle, in denen man dringend nicht die Parameter der Verteilungen (weil wir gar keine Verteilungen annehmen), sondern stattdessen direkt eine Funktion des Parameters (nämlich den Erwartungswert) schätzen möchte. Dieses formale Detail soll uns jetzt nicht stören.

Das n-1 im Zähler des Schätzers für s2 wird häufig als mystisch deklariert. In der Tat führt diese Wahl aber zu einem erwartungstreuen Schätzer:

n
     2    --1---∑              ¯  2
E ϑ(s ) = n - 1     E ϑ((Xk -  X ) ).
                k=0

Wir rechnen die Summanden aus und bezeichnen μ= Eϑ(Xi):

(                      )
E ϑ((Xk  - ¯X )2) = E ϑ (Xi -  μ) - (¯X - μ ))2

                =  E ϑ((Xi - μ)2) + E ϑ((¯X -  μ)2) - 2E ϑ((Xi - μ )(X¯ - μ )).

Der erste Summand in diesem Ausdruck ist per definitionem s2. Der zweite Summand lässt sich folgendermaßen berechnen:

(   ∑n     )        ∑n               2
E ϑ((¯X - μ )2) = Varϑ(X¯) = Var ϑ  1-    Xk    = -1-     Varϑ(Xk ) = s--.
                                   n k=1         n2  k=1              n

Bleibt der letzte Summand. Es ist

E ϑ((Xi - μ )(¯X - μ )) = Eϑ ( (Xi - μ) ( 1n-∑n (X¯ - μ )) )
                                           k=0
                         1 ∑n
                      =  --    E ϑ((Xi - μ)(Xk  - μ)).
                         n k=0

Der Erwartungswert in der letzten Zeile ist gerade die Kovarianz. Da die verschiedenen Experimente unkorreliert sind, ist diese Null, wenn ik. Also schnurrt die Summe zusammen auf den Term Eϑ((Xi -μ)2) und damit auf s2 .

Zusammen ist

(               )
     2      1   ∑n     2   s2    2s2       1   ∑n  s2 (n - 1)    2
E ϑ(s ) = n---1-      s  + -n--  -n--  = n---1-    ----n----- = s
                k=0                            k=0

Übungen zu diesem Abschnitt

Ihr solltet euch wenigstens an den rötlich unterlegten Aufgaben versuchen

(1)

Besorgt euch von der Webseite das Programm empBias.py. Ihr findet darin zwei Schätzer, estELE und estML. Überzeugt euch, dass diese in der Tat die die ELE- und ML-Schätzer implementieren (das B-Argument in estML dient nur dazu, dass estML und estELE auf die gleiche Weise aufgerufen werden können). Werft einen kurzen Blick über die Hilfsfunktionen. Überzeugt euch vor allem, dass die Funktion getBinomialDist eine Binomialverteilung für n Experimente mit Erfolgswahrscheinlichkeit p zurückgibt.

Wir wollen hier Bernoulli-Experimente durchführen. Die ersten paar Aufgaben tun allerdings noch gar nichts Zufälliges, sondern nutzen den Umstand, dass wir hier die Verteilung ausrechnen können, um das Verhalten der Schätzer zu untersuchen.

(2)

Seht euch die Funktion compareEstimators an. Was tut sie, warum tut sie es so? Ruft sie auf, variiert das Argument. Was beobachet ihr?

(3)

Seht euch die Funktion compareBiases an. Was tut sie? Wird hier tatsächlich der Bias (zum Parameter p) berechnet? (Dies ist eine gute Zeit, nochmal kurz über der Definitionsgleichung für den Bias zu meditieren).

Ihr müsst compareBiases im estimator-Argument entweder estML oder estELE übergeben. Probiert es zunächst mit estML. Bestätigt sich unsere Behauptung von oben, nach der der ML-Schätzer erwartungstreu sei?

(4)

Wie verhält sich der ELE-Schätzer in Sachen biases? Entspricht das eurer Erwartung aus dem Vorversuch mit compareEstimators?

(5)

Schreibt auf dieser Basis eine Funktion meanSquareError, die den mittleren quadratischen Fehler der Schätzer zu Werten von p ausrechnet und vergleicht die Fehler von estML und estELE.

Dateien zu diesem Abschnitt


Markus Demleitner

Copyright Notice