Nierówność Rao-Craméra

Twierdzenie Craméra-Rao (zwane również nierównością Craméra-Rao lub nierównością informacyjną) podaje, jaki jest minimalny możliwy średniokwadratowy błąd estymatora (nie ma estymatorów, które miałyby mniejszy średni błąd kwadratowy).

W swojej najprostszej postaci nierówność stwierdza, że wariancja estymatora nieobciążonego jest nie mniejsza niż odwrotność informacji Fishera.

Następujące sformułowania nierówności wymienione są od najprostszej do bardziej ogólnej wersji. Wszystkie sformułowania wymagają pewnych warunków regularności spełnianych przez wiele „porządnych” rozkładów prawdopodobieństwa. Warunki te wymienione są poniżej.

Parametr skalarny, przypadek nieobciążony

Załóżmy, że θ {\displaystyle \theta } jest nieznanym deterministycznym parametrem, który jest estymowany przy pomocy obserwacji x {\displaystyle x} z rozkładu prawdopodobieństwa o gęstości f ( x ; θ ) . {\displaystyle f(x;\theta ).} Wariancja dowolnego nieobciążonego estymatora θ ^ {\displaystyle {\hat {\theta }}} parametru θ {\displaystyle \theta } jest wtedy ograniczona z dołu przez odwrotność informacji Fishera I ( θ ) : {\displaystyle I(\theta ){:}}

v a r ( θ ^ ) 1 I ( θ ) . {\displaystyle \mathrm {var} \left({\hat {\theta }}\right)\geqslant {\frac {1}{I(\theta )}}.}

Przypomnijmy, że informacja Fishera I ( θ ) {\displaystyle I(\theta )} jest dana przez

I ( θ ) = n E [ [ θ ln f ( X ; θ ) ] 2 ] . {\displaystyle I(\theta )=n\mathrm {E} \left[\left[{\frac {\partial }{\partial \theta }}\ln f(X;\theta )\right]^{2}\right].}

Wtedy efektywność estymatora nieobciążonego θ ^ {\displaystyle {\hat {\theta }}} jest zdefiniowana jako

e ( θ ^ ) = 1 I ( θ ) v a r ( θ ^ ) {\displaystyle e({\hat {\theta }})={\frac {\frac {1}{I(\theta )}}{\mathrm {var} ({\hat {\theta }})}}}

czyli minimalna możliwa wariancja estymatora nieobciążonego podzielona przez rzeczywistą wariancję. Zatem na mocy twierdzenia mamy, że e ( θ ^ ) 1. {\displaystyle e({\hat {\theta }})\leqslant 1.}

Parametr skalarny, przypadek ogólny

Bardziej ogólna postać ograniczenia może być otrzymana przez rozważanie nieobciążonego estymatora T ( X ) {\displaystyle T(X)} funkcji ψ ( θ ) {\displaystyle \psi (\theta )} parametru θ . {\displaystyle \theta .} Nieobiążoność rozumiemy w tym przypadku jako: E { T ( X ) } = ψ ( θ ) . {\displaystyle E\{T(X)\}=\psi (\theta ).} Ograniczenie przyjmuje postać

v a r ( T ) [ ψ ( θ ) ] 2 I ( θ ) {\displaystyle \mathrm {var} (T)\geqslant {\frac {[\psi '(\theta )]^{2}}{I(\theta )}}}

gdzie ψ ( θ ) {\displaystyle \psi '(\theta )} jest pochodną ψ ( θ ) , {\displaystyle \psi (\theta ),} i I ( θ ) {\displaystyle I(\theta )} jest informacją Fishera zdefiniowaną powyżej.

Podobnie możemy otrzymać ograniczenie wariancji estymatora obciążonego z danym obciążeniem. Rozważmy estymator θ ^ {\displaystyle {\hat {\theta }}} z obciążeniem b ( θ ) = E { θ ^ } θ , {\displaystyle b(\theta )=E\{{\hat {\theta }}\}-\theta ,} i niech ψ ( θ ) = b ( θ ) + θ . {\displaystyle \psi (\theta )=b(\theta )+\theta .} Na mocy powyższego wyniku, dowolny nieobciążony estymator o wartości oczekiwanej ψ ( θ ) {\displaystyle \psi (\theta )} ma wariancję większą lub równą ( ψ ( θ ) ) 2 / I ( θ ) . {\displaystyle (\psi '(\theta ))^{2}/I(\theta ).} Zatem dowolny estymator θ ^ {\displaystyle {\hat {\theta }}} o obciążeniu danym funkcją b ( θ ) {\displaystyle b(\theta )} spełnia

v a r ( θ ^ ) [ 1 + b ( θ ) ] 2 I ( θ ) . {\displaystyle \mathrm {var} \left({\hat {\theta }}\right)\geqslant {\frac {[1+b'(\theta )]^{2}}{I(\theta )}}.}

Oczywiście, nieobciążona wersja ograniczenia jest szczególnym przypadkiem z b ( θ ) = 0. {\displaystyle b(\theta )=0.}

Przypadek wielowymiarowy

Aby rozszerzyć nierówność Craméra-Rao na przypadek wielowymiarowy, zdefiniujmy wektor parametrów

θ = [ θ 1 , θ 2 , , θ d ] T R d {\displaystyle {\boldsymbol {\theta }}=\left[\theta _{1},\theta _{2},\dots ,\theta _{d}\right]^{T}\in \mathbb {R} ^{d}}

z funkcją gęstości prawdopodobieństwa f ( x ; θ ) {\displaystyle f(x;{\boldsymbol {\theta }})} spełniającą dwa warunki regularności poniżej.

Macierz informacji Fishera jest d × d {\displaystyle d\times d} macierzą dla której element I m , k {\displaystyle I_{m,k}} jest zdefiniowany jako

I m , k = E [ d d θ m ln f ( x ; θ ) d d θ k ln f ( x ; θ ) ] . {\displaystyle I_{m,k}=\mathrm {E} \left[{\frac {d}{d\theta _{m}}}\ln f\left(x;{\boldsymbol {\theta }}\right){\frac {d}{d\theta _{k}}}\ln f\left(x;{\boldsymbol {\theta }}\right)\right].}

Niech T ( X ) {\displaystyle {\boldsymbol {T}}(X)} będzie estymatorem dowolnej funkcji wektorowej parametrów, T ( X ) = ( T 1 ( X ) , , T n ( X ) ) T , {\displaystyle {\boldsymbol {T}}(X)=(T_{1}(X),\dots ,T_{n}(X))^{T},} i oznaczmy jego wektor wartości oczekiwanej E [ T ( X ) ] {\displaystyle \mathrm {E} [{\boldsymbol {T}}(X)]} przez ψ ( θ ) . {\displaystyle {\boldsymbol {\psi }}({\boldsymbol {\theta }}).} Wtedy nierówność Craméra-Rao stwierdza że macierz kowariancji dla T ( X ) {\displaystyle {\boldsymbol {T}}(X)} spełnia

c o v θ ( T ( X ) ) ψ ( θ ) θ [ I ( θ ) ] 1 ( ψ ( θ ) θ ) T {\displaystyle \mathrm {cov} _{\boldsymbol {\theta }}\left({\boldsymbol {T}}(X)\right)\geqslant {\frac {\partial {\boldsymbol {\psi }}\left({\boldsymbol {\theta }}\right)}{\partial {\boldsymbol {\theta }}}}[I\left({\boldsymbol {\theta }}\right)]^{-1}\left({\frac {\partial {\boldsymbol {\psi }}\left({\boldsymbol {\theta }}\right)}{\partial {\boldsymbol {\theta }}}}\right)^{T}}

gdzie:

  • nierówność macierzy A B {\displaystyle A\geqslant B} oznacza, że macierz A B {\displaystyle A-B} jest nieujemnie określona,
  • ψ ( θ ) / θ {\displaystyle \partial {\boldsymbol {\psi }}({\boldsymbol {\theta }})/\partial {\boldsymbol {\theta }}} jest macierzą, dla której i j {\displaystyle ij} th element jest dany przez ψ i ( θ ) / θ j . {\displaystyle \partial \psi _{i}({\boldsymbol {\theta }})/\partial \theta _{j}.}

Jeśli T ( X ) {\displaystyle {\boldsymbol {T}}(X)} nieobciążonym estymatorem θ {\displaystyle {\boldsymbol {\theta }}} (to znaczy, ψ ( θ ) = θ {\displaystyle {\boldsymbol {\psi }}\left({\boldsymbol {\theta }}\right)={\boldsymbol {\theta }}} ), wtedy nierówność Craméra-Rao sprowadza się do

c o v θ ( T ( X ) ) I ( θ ) 1 . {\displaystyle \mathrm {cov} _{\boldsymbol {\theta }}\left({\boldsymbol {T}}(X)\right)\geqslant I\left({\boldsymbol {\theta }}\right)^{-1}.}

Warunki regularności

Następujące dwa słabe warunki regularności gęstości prawdopodobieństwa f ( x ; θ ) {\displaystyle f(x;\theta )} i estymatora T ( X ) {\displaystyle T(X)} są konieczne:

  • Informacja Fishera jest zawsze zdefiniowana; równoważnie x {\displaystyle x} takie że f ( x ; θ ) > 0 , {\displaystyle f(x;\theta )>0,}
θ ln f ( x ; θ ) {\displaystyle {\frac {\partial }{\partial \theta }}\ln f(x;\theta )}
istnieje i jest skończone.
  • Operacje calkowania po x {\displaystyle x} i różniczkowania ze względu na θ {\displaystyle \theta } są przemienne; to znaczy,
θ [ T ( x ) f ( x ; θ ) d x ] = T ( x ) [ θ f ( x ; θ ) ] d x {\displaystyle {\frac {\partial }{\partial \theta }}\left[\int T(x)f(x;\theta )\,dx\right]=\int T(x)\left[{\frac {\partial }{\partial \theta }}f(x;\theta )\right]\,dx}
wszędzie gdzie prawa strona jest skończona.
Encyklopedie internetowe (nierówność):
  • БРЭ: 3493679