ARMA

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Arma.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En statistique, les modèles ARMA (modèles autorégressifs et moyenne mobile), ou aussi modèle de Box-Jenkins, sont les principaux modèles de séries temporelles.

Étant donné une série temporelle Xt, le modèle ARMA est un outil pour comprendre et prédire, éventuellement, les valeurs futures de cette série. Le modèle est composé de deux parties : une part autorégressive (AR) et une part moyenne-mobile (MA). Le modèle est généralement noté ARMA(p,q), où p est l'ordre de la partie AR et q l'ordre de la partie MA.

Modèle autorégressif

Article détaillé : Processus autorégressif.

Un modèle autorégressif d'ordre p, en abrégé AR(p), s'écrit : X t = c + i = 1 p φ i X t i + ε t {\displaystyle X_{t}=c+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}\,} φ 1 , , φ p {\displaystyle \varphi _{1},\ldots ,\varphi _{p}} sont les paramètres du modèle, c {\displaystyle c} est une constante et ε t {\displaystyle \varepsilon _{t}} un bruit blanc. La constante est bien souvent omise dans la littérature, le processus étant alors dit centré.

Des contraintes supplémentaires sur les paramètres sont nécessaires pour garantir la stationnarité. Par exemple, pour le modèle AR(1), les processus tels que |φ1| ≥ 1 ne sont pas stationnaires.

Exemple : un processus AR(1)

Un modèle AR(1) est donné par : X t = c + φ X t 1 + ε t {\displaystyle X_{t}=c+\varphi X_{t-1}+\varepsilon _{t}\,} ε t {\displaystyle \varepsilon _{t}} est un bruit blanc, de moyenne nulle et de variance σ 2 {\displaystyle \sigma ^{2}} .

  • Si | φ | < 1 {\displaystyle |\varphi |<1} , le modèle est stationnaire en variance.
  • Si φ = 1 {\displaystyle \varphi =1} , alors le processus exhibe une racine unitaire (en), ce qui signifie qu'il est une marche aléatoire, et n'est pas stationnaire en variance.
  • Supposons donc | φ | < 1 {\displaystyle |\varphi |<1} . L'espérance, la variance, l'autocovariance du processus valent respectivement :

E [ X t ] = c 1 φ {\displaystyle \mathrm {E} \left[X_{t}\right]={\frac {c}{1-\varphi }}} V a r [ X t ] = σ 2 1 φ 2 {\displaystyle \mathrm {Var} \left[X_{t}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}} B n = C o v [ X t , X t n ] = σ 2 1 φ 2 φ | n | {\displaystyle B_{n}=\mathrm {Cov} \left[X_{t},X_{t-n}\right]={\frac {\sigma ^{2}}{1-\varphi ^{2}}}\varphi ^{|n|}} Prendre c = 0 {\displaystyle c=0} revient à avoir une moyenne nulle. On introduit un taux de décroissance de la fonction d'autocovariance τ = 1 / ln ( φ ) {\displaystyle \tau =-1/\ln(\varphi )}

La densité spectrale de puissance est la transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit :

Φ ( ω ) = 1 2 π n = B n e i ω n = 1 2 π ( σ 2 1 + φ 2 2 φ cos ( ω ) ) . {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,\sum _{n=-\infty }^{\infty }B_{n}e^{-i\omega n}={\frac {1}{\sqrt {2\pi }}}\,\left({\frac {\sigma ^{2}}{1+\varphi ^{2}-2\varphi \cos(\omega )}}\right).}

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage ( Δ t = 1 {\displaystyle \Delta t=1} ) est plus petit que le taux de décroissance ( τ {\displaystyle \tau } ), alors on peut utiliser une approximation continue de B n {\displaystyle B_{n}}  :

B ( t ) σ 2 1 φ 2 φ | t | {\displaystyle B(t)\approx {\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,\,\varphi ^{|t|}}

qui présente une forme lorentzienne pour la densité spectrale :

Φ ( ω ) = 1 2 π σ 2 1 φ 2 γ π ( γ 2 + ω 2 ) {\displaystyle \Phi (\omega )={\frac {1}{\sqrt {2\pi }}}\,{\frac {\sigma ^{2}}{1-\varphi ^{2}}}\,{\frac {\gamma }{\pi (\gamma ^{2}+\omega ^{2})}}}

γ = 1 / τ {\displaystyle \gamma =1/\tau } est la fréquence angulaire associée à τ {\displaystyle \tau } .

Une expression alternative pour X t {\displaystyle X_{t}} peut être dérivée en remplaçant X t 1 {\displaystyle X_{t-1}} par c + φ X t 2 + ε t 1 {\displaystyle c+\varphi X_{t-2}+\varepsilon _{t-1}} dans l'équation définissante. En continuant cette manipulation N fois fournit

X t = c k = 0 N 1 φ k + φ N X t N + k = 0 N 1 φ k ε t k . {\displaystyle X_{t}=c\sum _{k=0}^{N-1}\varphi ^{k}+\varphi ^{N}X_{t-N}+\sum _{k=0}^{N-1}\varphi ^{k}\varepsilon _{t-k}.}

Pour N devenant très grand, φ N {\displaystyle \varphi ^{N}} s'approche de 0 et :

X t = c 1 φ + k = 0 φ k ε t k . {\displaystyle X_{t}={\frac {c}{1-\varphi }}+\sum _{k=0}^{\infty }\varphi ^{k}\varepsilon _{t-k}.}

On peut voir que X t {\displaystyle X_{t}} est le bruit blanc convolé avec le noyau φ k {\displaystyle \varphi ^{k}} plus une moyenne constante. Si le bruit blanc est gaussien, alors X t {\displaystyle X_{t}} est aussi un processus normal. Dans les autres cas, le théorème central limite indique que X t {\displaystyle X_{t}} sera approximativement normal lorsque φ {\displaystyle \varphi } est proche de l'unité.

Estimation des paramètres AR

Le modèle AR(p) est donné par

X t = i = 1 p φ i X t i + ε t . {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\varepsilon _{t}.\,}

Les paramètres à estimer sont φ i {\displaystyle \varphi _{i}} i = 1, …, p. Il y a une correspondance directe entre ces paramètres et la fonction de covariance (et donc d'autocorrélation) et on peut tirer les paramètres en inversant ces relations. Ce sont les équations de Yule-Walker :

γ m = k = 1 p φ k γ m k + σ ε 2 δ m {\displaystyle \gamma _{m}=\sum _{k=1}^{p}\varphi _{k}\gamma _{m-k}+\sigma _{\varepsilon }^{2}\delta _{m}}

m = 0, … , p, ce qui donne en tout p + 1 équations. Les coefficients γ m {\displaystyle \gamma _{m}} est la fonction d'autocorrélation de X, σ ε {\displaystyle \sigma _{\varepsilon }} est la déviation (écart-type) du bruit blanc et δm le symbole de Kronecker.

La dernière partie de l'équation est non nulle si m = 0 ; en prenant m > 0, l'équation précédente s'écrit comme un système matriciel

[ γ 1 γ 2 γ 3 ] = [ γ 0 γ 1 γ 2 γ 1 γ 0 γ 1 γ 2 γ 1 γ 0 ] [ φ 1 φ 2 φ 3 ] {\displaystyle {\begin{bmatrix}\gamma _{1}\\\gamma _{2}\\\gamma _{3}\\\vdots \\\end{bmatrix}}={\begin{bmatrix}\gamma _{0}&\gamma _{-1}&\gamma _{-2}&\dots \\\gamma _{1}&\gamma _{0}&\gamma _{-1}&\dots \\\gamma _{2}&\gamma _{1}&\gamma _{0}&\dots \\\vdots &\vdots &\vdots &\ddots \\\end{bmatrix}}{\begin{bmatrix}\varphi _{1}\\\varphi _{2}\\\varphi _{3}\\\vdots \\\end{bmatrix}}}

Pour m = 0, nous avons

γ 0 = k = 1 p φ k γ k + σ ε 2 {\displaystyle \gamma _{0}=\sum _{k=1}^{p}\varphi _{k}\gamma _{-k}+\sigma _{\varepsilon }^{2}}

qui permet de trouver σ ε 2 {\displaystyle \sigma _{\varepsilon }^{2}} .

Les équations de Yule-Walker procurent un moyen d'estimer les paramètres du modèle AR(p), en remplaçant les covariances théoriques par des valeurs estimées. Une manière d'obtenir ces valeurs est de considérer la régression linéaire de Xt sur ses p premiers retards.

Obtention des équations de Yule-Walker

L'équation définissante du processus AR est

X t = i = 1 p φ i X t i + ε t . {\displaystyle X_{t}=\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}.\,}

En multipliant les deux membres par Xtm et en prenant l'espérance, on obtient

E [ X t X t m ] = E [ i = 1 p φ i X t i X t m ] + E [ ε t X t m ] . {\displaystyle E[X_{t}X_{t-m}]=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+E[\varepsilon _{t}X_{t-m}].}

Or, il se trouve que E[XtXtm] = γm par définition de la fonction d'autocovariance. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xtm est indépendant de εtm est plus grand que zéro. Pour m > 0, E[εtXtm] = 0. Pour m = 0,

E [ ε t X t ] = E [ ε t ( i = 1 p φ i X t i + ε t ) ] = i = 1 p φ i E [ ε t X t i ] + E [ ε t 2 ] = 0 + σ ε 2 , {\displaystyle E[\varepsilon _{t}X_{t}]=E\left[\varepsilon _{t}\left(\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}+\varepsilon _{t}\right)\right]=\sum _{i=1}^{p}\varphi _{i}\,E[\varepsilon _{t}\,X_{t-i}]+E[\varepsilon _{t}^{2}]=0+\sigma _{\varepsilon }^{2},}

Maintenant, on a pour m ≥ 0,

γ m = E [ i = 1 p φ i X t i X t m ] + σ ε 2 δ m . {\displaystyle \gamma _{m}=E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]+\sigma _{\varepsilon }^{2}\delta _{m}.}

Par ailleurs,

E [ i = 1 p φ i X t i X t m ] = i = 1 p φ i E [ X t X t m + i ] = i = 1 p φ i γ m i , {\displaystyle E\left[\sum _{i=1}^{p}\varphi _{i}\,X_{t-i}X_{t-m}\right]=\sum _{i=1}^{p}\varphi _{i}\,E[X_{t}X_{t-m+i}]=\sum _{i=1}^{p}\varphi _{i}\,\gamma _{m-i},}

qui donne les équations de Yule-Walker :

γ m = i = 1 p φ i γ m i + σ ε 2 δ m . {\displaystyle \gamma _{m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{m-i}+\sigma _{\varepsilon }^{2}\delta _{m}.}

pour m ≥ 0. Pour m < 0,

γ m = γ m = i = 1 p φ i γ | m | i + σ ε 2 δ m . {\displaystyle \gamma _{m}=\gamma _{-m}=\sum _{i=1}^{p}\varphi _{i}\gamma _{|m|-i}+\sigma _{\varepsilon }^{2}\delta _{m}.}

Modèle moyenne mobile

La notation MA(q) (pour Moving Average) réfère au modèle moyenne-mobile d'ordre q :

X t = μ + ε t + i = 1 q θ i ε t i {\displaystyle X_{t}=\mu +\varepsilon _{t}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}\,}

où les θ1, …, θq sont les paramètres du modèle, μ {\displaystyle \mu } est l'espérance de X t {\displaystyle X_{t}} et εt, εt-1, … sont encore une fois des termes d'erreur.

Modèle ARMA

Définition — un modèle autorégressif et moyenne-mobile d'ordres (p,q) (abrégé en ARMA(p,q)) est un processus temporel discret (Xt, t ∈ ℕ) vérifiant : X t = ε t + i = 1 p φ i X t i + i = 1 q θ i ε t i {\displaystyle X_{t}=\varepsilon _{t}+\sum _{i=1}^{p}\varphi _{i}X_{t-i}+\sum _{i=1}^{q}\theta _{i}\varepsilon _{t-i}} où les φi et θi sont les paramètres du modèle et les εi les termes d'erreur.

Un modèle autorégressif AR(p) est un ARMA(p,0)

Un modèle moyenne mobile MA(q) est un ARMA(0,q)

Le processus ARMA n'est bien défini que s'il est stationnaire.

Modèle ARIMA

Dans le cas où le processus ( X t ) t Z {\displaystyle (X_{t})_{t\in \mathbb {Z} }} n'est pas un processus stationnaire, il convient de le stationnariser de manière à pouvoir le modéliser sous forme ARMA afin de réaliser, par exemple, des prédictions.


La non stationnarité peut être due à la présence d'une tendance non constante. Des différenciations d'ordre 1 successives du processus ( X t ) t Z {\displaystyle (X_{t})_{t\in \mathbb {Z} }} ( t Z , X t := X t X t 1 , X t := X t X t 2 {\displaystyle \forall t\in \mathbb {Z} ,X_{t}':=X_{t}-X_{t-1},\;X_{t}'':=X_{t}'-X_{t-2}} permettent de supprimer les tendances polynomiales. Avec d N {\displaystyle d\in \mathbb {N} } différenciations d'ordre 1, on enlève toute tendance polynomiale de degré d {\displaystyle d} .


Le modèle A R I M A ( p , d , q ) , ( p , d , q ) N 3 {\displaystyle ARIMA(p,d,q),(p,d,q)\in \mathbb {N} ^{3}} est une généralisation du modèle A R M A {\displaystyle ARMA} , différenciant d {\displaystyle d} fois le processus ( X t ) {\displaystyle (X_{t})} avant de le modéliser comme un A R M A ( p , q ) {\displaystyle ARMA(p,q)} .

Ce n'est plus ( X t ) {\displaystyle (X_{t})} qui est modélisé comme un processus A R M A {\displaystyle ARMA} mais le processus ( Y t ) {\displaystyle (Y_{t})} , défini comme ( X t ) {\displaystyle (X_{t})} différencié d {\displaystyle d} fois.

Une note sur les termes d'erreur

Les termes d'erreur εt sont généralement supposés indépendants et identiquement distribués (i.i.d.) selon une loi normale de moyenne nulle : εt ~ N(0,σ2) où σ2 est la variance. Ces hypothèses peuvent être assouplies mais ceci changerait les propriétés du modèle, comme supposer le simple caractère i.i.d.

Spécification en termes de l'opérateur de retard

Les modèles ARMA peuvent s'écrire en termes de L, qui est l'opérateur retard. Le modèle autorégressif AR(p) s'écrit

ε t = ( 1 i = 1 p φ i L i ) X t = φ X t {\displaystyle \varepsilon _{t}=\left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\varphi X_{t}\,}

où φ représente le polynôme

φ = 1 i = 1 p φ i L i . {\displaystyle \varphi =1-\sum _{i=1}^{p}\varphi _{i}L^{i}.\,}

Pour le modèle moyenne mobile MA(q), on a

X t = ( 1 + i = 1 q θ i L i ) ε t = θ ε t {\displaystyle X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}=\theta \varepsilon _{t}\,}

où θ représente le polynôme

θ = 1 + i = 1 q θ i L i . {\displaystyle \theta =1+\sum _{i=1}^{q}\theta _{i}L^{i}.\,}

Finalement, en combinant les deux aspects, on en tire l'écriture du modèle ARMA(p, q) :

( 1 i = 1 p φ i L i ) X t = ( 1 + i = 1 q θ i L i ) ε t {\displaystyle \left(1-\sum _{i=1}^{p}\varphi _{i}L^{i}\right)X_{t}=\left(1+\sum _{i=1}^{q}\theta _{i}L^{i}\right)\varepsilon _{t}\,}

où plus court :

φ X t = θ ε t . {\displaystyle \varphi X_{t}=\theta \varepsilon _{t}.\,}


Modèle d'ajustement

Les modèles ARMA, une fois choisis les ordres p et q, peuvent être ajustés sur des données par la méthode des moindres carrés : on recherche les paramètres qui minimisent la somme des carrés des résidus. Prendre des valeurs de p et q les plus petites est généralement vu comme une bonne pratique (principe de parcimonie). Pour un modèle AR pur, les équations de Yule-Walker permettent de réaliser l'ajustement.


Notes et références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Autoregressive moving average model » (voir la liste des auteurs).

Bibliographie

  • (fr) Jean-Jacques Droesbeke, Bernard Fichet, Philippe Tassi, Séries chronologiques - Théorie et pratique des modèles ARIMA, Economica, 1989 (ISBN 2-7178-1549-X)
  • (en) George E. P. Box, Gwilym Jenkins et Gregory C. Reinsel, Time Series Analysis: Forecasting and Control, third edition. Prentice-Hall, 1994.
  • (en) Terence C. Mills, Time Series Techniques for Economists, Cambridge University Press, 1990.
  • (en) Donald B. Percival et Andrew T. Walden, Spectral Analysis for Physical Applications. Cambridge University Press, 1993.
  • (en) Sudhakar M. Pandit et Shien-Ming Wu,Time Series and System Analysis with Applications. John Wiley & Sons, 1983.
  • (en) James D. Hamilton, Time Series Analysis, Princeton University Press, 1994
  • icône décorative Portail des probabilités et de la statistique