Equipo 2

Uriel, Paty y Atila

Proces Estocásticos Estacionarios

A continuación se expondrán 3 definiciones relacionadas a procesos estocásticos estacionarios

Estrictamente estacionario

Un proceso estocástico \((Y_t)\) es estrictamente estacionario \(\iff\)

  • \(\forall t_1 < t_2 < t_3 < \dots < t_n\) (momentos de su historia) con \(n \geq 1\), la distribución de probabilidad conjunta \(\left[ Y_{t_1}, Y_{t_2}, \dots, Y_{t_n}\right]'\) coincide con \(\left[ Y_{t_1+h}, Y_{t_2+h}, \dots, Y_{t_n+h}\right]'\) \(\forall h = \mathbb{Z} \setminus \{0\}\)

Estacionario en media (débilmente estacionario de primer orden)

Un proceso estocástico \((Y_t)\) con \(E[Y_t] < \infty\) es estacionario en media \(\iff\)

  • \(E[Y_t] = cte, \, \forall t = \mathbb{Z}\)

Estacionario en autocovarianza (débilmente estacionario de segundo orden)

Un proceso estocástico \((Y_t)\) con \(E[Y_t^2] < \infty\) \(\forall t \in \mathbb{Z}\) es estacionario en covarianza \(\iff\)

  • \(E[Y_t]\) y \(Var[Y_t]\) son constantes (no dependen de \(t\)) \(\forall t \in \mathbb{Z}\)

  • \(Cov[Y_t, Y_{t+k}]\) depende de a lo sumo de \(k \in \mathbb{Z}\) pero no de \(t\) \(\forall t \in \mathbb{Z}\)

Proceso Estocástico Normal (Gaussiano)

Un proceso estocástico \((Y_t)\) es Normal cuando

  • Para cualesquiera momentos en su historia \(t_1 < t_2 < \dots < t_n\) con \(n \geq 1\), la distribución de probabilidad conjunta de \(\left[ Y_{t_1}, Y_{t_2}, \dots, Y_{t_n}\right]'\) es una distribución Normal \(n\)-variante.

  • Observación:

Escacionariedad en autocovarianza + Normalidad \(\implies\) Estacionariedad Estricta

Ejemplo (serie de tiempo)

[1] "media en intervalo rojo:  0.0344035490985705"
[1] "varianza en intervalo rojo:  0.85723522234378"
[1] "media en intervalo verde:  0.0128100270803629"
[1] "varianza en intervalo verde:  0.883847727652512"

Ejemplo (Estacionario en covarianza?)

[1] "Covarianza, t = 0, k = 50:  0.00681138777879107"
[1] "Covarianza t = 150, k = 50:  0.0130964812610896"

Ejemplo Distribución

ACF-PACF teóricas

  • ACF: Función de Autocorrelación Simple

(AutoCorrelation Function)

  • PACF: Función de Autocorrelación Parcial

(Partial AutoCorrelation Function)

Autocovarianza de orden \(k\)

La autocorrelación simple de orden \(k\) de un proceso estacionario \((Y_t)\) se define como

\[\rho_k \equiv \frac{Cov[Y_t,Y_{t+k}]}{Var[Y_t]^{1/2}Var[Y_{t+k}]^{1/2}} \equiv \frac{\gamma_k}{\gamma_0}\]

con \(k\in \mathbb{N}; \rho_0 = 1\)

Autocovarianza de orden \(k\) (Observaciones 1)

\[\rho_k\equiv \frac{\gamma_k}{\gamma_0}\] con \(k\in \mathbb{N}; \rho_0 = 1\)

  • Es el coeficiente de correlación lineal simple entre cualquier par de componentes de \((Y_t)\) separados entre sí por un retardo \(k > 0\).

  • La secuencia \(\rho_k : k = 1, 2, \dots\) se denomina la función de autocorrelación simple (ACF) del proceso estacionario \((Y_t)\)

Autocovarianza de orden \(k\) (Observaciones 2)

  • Representa la duración y la intensidad de la memoria del proceso \((Y_t)\)

  • Para elaborar un modelo de la estructura probabilística de \((Y_t)\) es necesario estimar el vector de medias y matriz de varianzas-covarianzas de la muestra \(Y \equiv [Y_1, Y_1, \dots, Y_N]'\) asociada a una serie temporal observada \(y \equiv [y_1, y_1, \dots, y_N]'\)

Matrices

  • En conjunto \(\mu\) y \(\Sigma\) contienen \(1 + N\) parámetros distintos

Suelen representarse como:

  • \(\Gamma_N\) (Matríz de autocovarianzas de Y)

  • \(P_N\) (Matríz de autocorrelaciones de Y)

  • \(\Sigma = \Gamma_N = \sigma_Y^2 P_N\)

Necesidad de ARMA

  • Con la hipótesis de estacionariedad aún no se puede estimar \(1 +N\) parámetros con precisión.

  • La solución es expresar media y la función de autocovarianza en términos de un número reducido de parámetros utilizando algún modelo ARMA para \((Y_t)\)

Fin