Formule de Wald

En théorie des probabilités, la formule de Wald est une identité qui donne l'expression de l'espérance d'une somme aléatoire.

Le nom de cette formule vient du mathématicien hongrois Abraham Wald.

Théorème

Soit ( X n ) n 1 {\displaystyle (X_{n})_{n\geq 1}} une suite de variables aléatoires.

Soit N   {\displaystyle N\ } une variable aléatoire à valeurs dans N . {\displaystyle \mathbb {N} .}

On pose :

S n = X 1 + X 2 + + X n , {\displaystyle S_{n}=X_{1}+X_{2}+\dots +X_{n},\quad } S N = X 1 + X 2 + + X N =   X n   1 1 1 n N . {\displaystyle S_{N}=X_{1}+X_{2}+\dots +X_{N}=\sum \ X_{n}\ 1\!\!1_{1\leq n\leq N}.}

Formule de Wald — On suppose que :

  • ( X n ) n 1 {\displaystyle (X_{n})_{n\geq 1}} est une suite de variables aléatoires de même loi, indépendantes,
  • les X i   {\displaystyle X_{i}\ } et N   {\displaystyle N\ } sont intégrables ,

et on suppose que l'une des deux conditions suivantes est remplie :

  • N   {\displaystyle N\ } est un temps d'arrêt adapté à la suite ( X i )   {\displaystyle (X_{i})\ } . En d'autres termes l'événement { N = n }   {\displaystyle \left\{N=n\right\}\ } est entièrement déterminé par ( X 1 , X 2 , . . . , X n ) , {\displaystyle (X_{1},X_{2},...,X_{n}),}

ou bien :

  • N   {\displaystyle N\ } est indépendant de la suite ( X i )   {\displaystyle (X_{i})\ } .

Alors on a :

E [ S N ] = E [ N ] E [ X 1 ] . {\displaystyle \mathbb {E} \left[S_{N}\right]=\mathbb {E} \left[N\right]\mathbb {E} \left[X_{1}\right].}

Et si on note :

  • G S N {\displaystyle G_{S_{N}}} la fonction génératrice de S N {\displaystyle {S_{N}}} .
  • G N {\displaystyle G_{N}} la fonction génératrice de N {\displaystyle N} .
  • G X {\displaystyle G_{X}} la fonction génératrice des X i {\displaystyle X_{i}} .

On a aussi :

G S N = G N G X {\displaystyle G_{S_{N}}=G_{N}\circ G_{X}}

Formulation générale

On peut englober les deux hypothèses alternatives ci-dessus, ainsi que l'indépendance de la suite ( X i ) ,   {\displaystyle (X_{i}),\ } dans la formulation suivante :

Hypothèse — Il existe une filtration F = ( F n ) n 0 {\displaystyle {\mathcal {F}}=({\mathcal {F}}_{n})_{n\geq 0}} telle que :

  • N   {\displaystyle N\ } est un temps d'arrêt adapté à la filtration F   {\displaystyle {\mathcal {F}}\ }  ;
  • la suite ( X n )   {\displaystyle (X_{n})\ } est adaptée à la filtration F   {\displaystyle {\mathcal {F}}\ }  ;
  • pour tout n 0   {\displaystyle n\geq 0\ } la tribu F n   {\displaystyle {\mathcal {F}}_{n}\ } et la variable X n + 1   {\displaystyle X_{n+1}\ } sont indépendants.

Le premier jeu d'hypothèses découle alors du choix F n = σ ( { N = 0 } , X 1 , X 2 , . . . , X n ) ,   F 0 = σ ( { N = 0 } ) , {\displaystyle {\mathcal {F}}_{n}=\sigma (\{N=0\},X_{1},X_{2},...,X_{n}),\ {\mathcal {F}}_{0}=\sigma (\{N=0\}),} et le second jeu d'hypothèses découle du choix F n = σ ( N , X 1 , X 2 , . . . , X n ) ,     F 0 = σ ( N ) .   {\displaystyle {\mathcal {F}}_{n}=\sigma (N,X_{1},X_{2},...,X_{n}),\ \ {\mathcal {F}}_{0}=\sigma (N).\ }

Encore plus généralement, les deux formules de Wald ci-dessus sont des cas particuliers de la formule d'arrêt pour les martingales.

Démonstration

La variable aléatoire

Z =   | X n |   1 1 1 n N {\displaystyle Z=\sum \ |X_{n}|\ 1\!\!1_{1\leq n\leq N}}

est intégrable. En effet

{ n N } c = { n 1 N } = k = 0 n 1 { N = k } F n 1 . {\displaystyle \{n\leq N\}^{c}=\{n-1\geq N\}=\bigcup _{k=0}^{n-1}\{N=k\}\in {\mathcal {F}}_{n-1}.}

Ainsi, pour n 1 ,   {\displaystyle n\geq 1,\ } en vertu de l'hypothèse d'indépendance entre la tribu F n 1   {\displaystyle {\mathcal {F}}_{n-1}\ } et la variable X n ,   {\displaystyle X_{n},\ }

E [ | X n |   1 1 1 n N ] = E [ | X n | ] E [ 1 1 n N ] = E [ | X 1 | ] P ( n N ) . {\displaystyle \mathbb {E} \left[|X_{n}|\ 1\!\!1_{1\leq n\leq N}\right]\,=\,\mathbb {E} \left[|X_{n}|\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\,=\,\mathbb {E} \left[|X_{1}|\right]\,\mathbb {P} \left(n\leq N\right).}

Or N   {\displaystyle N\ } est intégrable si et seulement si la série de terme général P ( n N )   {\displaystyle \mathbb {P} \left(n\leq N\right)\ } est convergente (et la somme de cette série est E [ N ]   {\displaystyle \mathbb {E} [N]\ } ). En vertu du théorème de Beppo-Levi, et de l'hypothèse d'intégrabilité faite sur N, la variable Z est intégrable, et on peut donc s'en servir comme majorant pour appliquer le théorème de convergence dominée ou le théorème de Fubini à S N   {\displaystyle S_{N}\ }  :

E [ S N ] = E [ n 1 X n   1 1 n N ] = n 1 E [ X n   1 1 n N ] = n 1 E [ X n ] E [ 1 1 n N ] = E [ X 1 ] n 1 P ( n N ) = E [ X 1 ] E [ N ] . {\displaystyle {\begin{aligned}\mathbb {E} \left[S_{N}\right]&=\mathbb {E} \left[\sum _{n\geq 1}\,X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\ 1\!\!1_{n\leq N}\right]\\&=\,\sum _{n\geq 1}\,\mathbb {E} \left[X_{n}\right]\,\mathbb {E} \left[1\!\!1_{n\leq N}\right]\\&=\,\mathbb {E} \left[X_{1}\right]\,\sum _{n\geq 1}\,\mathbb {P} \left(n\leq N\right)\\&=\,\mathbb {E} \left[X_{1}\right]\,\mathbb {E} \left[N\right].\end{aligned}}}

Bibliographie

  • (en) Abraham Wald, « On Cumulative Sums of Random Variables », The Annals of Mathematical Statistics, vol. 15, no 3,‎ , p. 283–296 (DOI 10.1214/aoms/1177731235, lire en ligne)
  • (en) David Williams (en), Probability With Martingales, Cambridge University Press, , 272 p. (ISBN 978-0-521-40605-5, lire en ligne)
  • icône décorative Portail des probabilités et de la statistique