Capítulo 1
1.1. Exemplos Motivacionais
Exemplo 1.1 (Alice no País das Maravilhas - Del Moral e Penev 2017)
Para escapar dos guardas da Rainha de Copas, Alice e o Coelho Branco entram em um labirinto poligonal, cujas arestas são disjuntas e não se comunicam entre si. Suponha que eles iniciam essa fuga por portas distintas, respectivamente pelas portas 1 e 3.
Pergunta. Qual é, então, a probabilidade de que, após certo número de movimentos, Alice e o Coelho Branco venham a se encontrar novamente em algum vértice comum desse labirinto?
Para responder a essa questão, observe que, no labirinto poligonal, após apenas 5 movimentos, a probabilidade de Alice e o Coelho Branco se encontrarem já supera 25%. Essa probabilidade, em particular, aumenta progressivamente com o número de passos, alcançando cerca de 51% após 12 movimentos e ultrapassando 90% após 40 movimentos. De fato, note-se, primeiramente, que a simulação aleatória do percurso de Alice ou do Coelho no labirinto equivale a escolher, a cada instante, um número aleatório \(I\) entre 1 e \(d = 17\). Se \(U\) é uma variável aleatória uniforme sobre o intervalo \([0, 1]\), pode-se definir:
\[\begin{align}\\ I = 1 + \lfloor dU \rfloor\\\\ \end{align}\]
Observe que:
\[\begin{align}\\ I = i \iff \lfloor dU \rfloor = (i-1) \iff \dfrac{i - 1}{d} \leqslant U < \dfrac{i}{d}\\\\ \end{align}\]
o que implica que:
\[\begin{align}\\ P(I = i) = P\left(U \in \left[\dfrac{i-1}{d},\dfrac{i}{d}\right[\right) = \dfrac{1}{d}\\\\ \end{align}\]
Seja \(T\) o primeiro instante em que Alice e o Coelho Branco se encontram. Como, a cada passo, eles têm probabilidade \(1/17\) de se encontrarem, obtém-se imediatamente que:
\[\begin{align}\\ \forall n\geqslant 1 \qquad \qquad P(T = n)= \left(1 - \dfrac{1}{d}\right)^{n-1}\dfrac{1}{d}\\\\ \end{align}\]
com \(d = 17\). Mais formalmente, sejam \(I^{a}_{n}\) e \(I^{r}_{n}\) as posições de Alice e do Coelho Branco (os índices das portas em que se encontram) no instante \(n\). Por construção, tem-se:
\[\begin{align}\\ \{T = n\} = \left\{ \bigl(I^{a}_{1} \ne I^{r}_{1}\bigr), \bigl(I^{a}_{2} \ne I^{r}_{2}\bigr), \ldots, \bigl(I^{a}_{n-1} \ne I^{r}_{n-1}\bigr), \bigl(I^{a}_{n} = I^{r}_{n}\bigr) \right\}\\\\ \end{align}\]
Como as variáveis aleatórias \(\bigl( I^{a}{k}, I^{r}{k} \bigr)_{k \ \geqslant \ 1}\) são independentes, segue que:
\[\begin{align}\\ \mathrm{P}(T = n) = \underbrace{\left[\mathrm{P}\bigl( I^{a}_{1} \ne I^{r}_{1} \bigr) \times \cdots \times \mathrm{P}\bigl( I^{a}_{n-1} \ne I^{r}_{n-1} \bigr) \right]}_{(1 - 1/d)^{n-1}} \times \underbrace{\mathrm{P}\bigl( I^{a}_{n} = I^{r}_{n} \bigr)}_{1/d}\\\\ \end{align}\]
Em outras palavras, \(T\) é uma variável aleatória geométrica com parâmetro de sucesso \(1/d\). Assim, utilizando o fato de que \(\ln(1 - x) \leqslant -x\) para todo \(x < 1\), obtém-se:
\[\begin{align}\\ \mathrm{P}(T > n) = \sum_{k \ \geqslant \ n} \left( 1 - \frac{1}{d} \right)^{k} \frac{1}{d} = \left( 1 - \frac{1}{d} \right)^{n} \sum_{k \ \geqslant \ 0} \left( 1 - \frac{1}{d} \right)^{k} = \left( 1 - \frac{1}{d} \right)^{n} \leqslant e^{-n/d}\\\\ \end{align}\]
Portanto, se, por exemplo, \(n=5\) (ou seja, 5 movimentos) e \(d = 17\), tem-se que:
\[\begin{align}\\ P(T > 5) = \left(\dfrac{16}{17}\right)^5 \leqslant 0.738 \leqslant 74\% \iff P(T \leqslant 5) \geqslant 25\%\\\\\\ \end{align}\]
\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]
Exemplo 1.2 (A Carta Armadilha Mágica de Kruskal - Del Moral e Penev 2017)
Durante suas aulas, o matemático e físico Martin Kruskal propõe aos seus alunos que participem de um de seus novos truques de cartas. Todos conhecem o trabalho de D. Bayer e P. Diaconis (Aldous e Diaconis 1986) sobre embaralhamentos do tipo riffle (técnica na qual o baralho é dividido em duas porções aproximadamente iguais, mantidas próximas uma da outra, e as cartas são liberadas alternadamente de cada mão, geralmente com o auxílio dos polegares, de modo que se intercalem sucessivamente) e, por isso, solicitam ao professor que embaralhe o baralho de 52 cartas oito vezes. Dessa forma, estão convencidos de que a ordem das cartas se tornará efetivamente imprevisível, com uma discrepância máxima de cerca de 17% em relação a uma sequência perfeitamente aleatória.
Após essa extensa série de embaralhamentos, Kruskal pede a um dos alunos que escolha, em segredo, um número entre 1 e 10. Em seguida, começa a exibir as cartas uma a uma. Explica ao aluno que a carta situada na posição correspondente ao número escolhido será a sua primeira carta secreta, e que o valor dessa carta servirá, por sua vez, como o segundo número secreto. Reiniciando a contagem a partir dessa primeira carta secreta, a carta na posição indicada pelo segundo número secreto será a segunda carta secreta, e assim sucessivamente. Ao repetir esse procedimento até o esgotamento do baralho, o aluno chegará finalmente à sua última carta secreta.
Neste modelo de contagem, ases valem 1; valetes, damas e reis valem 5; e as demais cartas assumem seus valores de face. Apesar de o baralho ter sido embaralhado quase perfeitamente de forma aleatória e apesar da escolha inicial secreta do aluno, o professor tem mais de 80% de probabilidade de descobrir qual será a última carta secreta. Como isso é possível? Qual é o truque usado por Martin Kruskal para descobrir a última carta secreta? A resposta é mais simples do que parece: ao escolher “secretamente” qualquer número entre 1 e 10 e seguir o mesmo procedimento, chega-se à mesma “carta armadilha” em aproximadamente 80% das vezes. E há algo ainda mais impressionante: ao iniciar a contagem a partir da primeira posição, há mais de 85% de probabilidade de se alcançar a mesma última carta secreta. Ademais, se forem utilizados dois baralhos de 52 cartas, a probabilidade de êxito aumenta para 95%.
Para ilustrar esse fenômeno de forma mais rigorosa, consideremos uma versão simplificada do truque mágico de Kruskal. A proposta consiste em modelar o processo sequencial de contagem como um sistema dinâmico determinístico, evoluindo em um ambiente aleatório. Nesse sentido, suponha que existam 10 valores possíveis (considerando que valete, dama e rei possuem valor fixo igual a 5) e que os valores das cartas sejam representados por uma função aleatória
\[\begin{align}\\ \tau : \{1, \ldots, 52\} \to \{1, \ldots, 10\}\\\\ \end{align}\]
em que os estados aleatórios \(\bigl(\tau(k)\bigr)_{1 \ \leqslant \ k \ \leqslant \ 52}\) são independentes e identicamente distribuídos (i.i.d.) segundo uma distribuição \(\mu\) sobre o conjunto \(\{1, \ldots, 10\}\). Denote por \(T_k\) o \(k\)-ésimo instante em que a cadeia atinge o valor 1. Suponha que o estado inicial \(X_0\) do processo de contagem corresponda a um valete, de modo que \(X_0 = 4 + 1\), caracterizando a carta inicial “secreta” na origem. O processo evolui, então, de forma regressiva:
\[\begin{align}\\ X_0 &= 4 + 1 \longrightarrow X_1 = 4 \longrightarrow X_2 = 3 \longrightarrow X_3 = 2 \longrightarrow X_4 = 1\\\\ \end{align}\]
de modo \(T_1 = 4\) e \(X_{T_1+1} = X_5\) é a primeira “carta secreta”. De forma mais geral, iniciando em \(X_0 = (d_0 + 1)\), para algum \(d_0 \in \{0, 1, \ldots, 9\}\), tem-se que:
\[\begin{align}\\ X_0 &= (d_0 + 1) \longrightarrow X_1 = d_0 \longrightarrow \cdots \longrightarrow X_k = (d_0 + 1) - k \longrightarrow \cdots \longrightarrow X_{d_0} = X_{T_1} = 1\\\\ \end{align}\]
Isso implica que \(T_1 = d_0\) e que \(X_{T_1+1} = X_{d_0 + 1} = d_1 \in \{1, \ldots, 10\}\) é a primeira “carta secreta”. Por construção, obtém-se que:
\[\begin{align}\\ X_{T_1+1} &= d_1 \longrightarrow X_{T_1+2} = d_1 - 1 \longrightarrow \cdots \longrightarrow X_{T_1 + k} = d_1 - (k - 1) \longrightarrow \cdots \longrightarrow X_{T_1 + d_1} = 1 = X_{T_2}\\\\ \end{align}\]
com \(T_2 = T_1 + d_1\), e \(X_{T_2+1} = d_2 \in \{1, \ldots, 10\}\)correspondendo à segunda “carta secreta”. Iterando esse procedimento, obtém-se uma sequência de estados aleatórios i.i.d.:
\[\begin{align}\\ X_{T_1+1}, \; X_{T_2+1}, \; \ldots, \; X_{T_k+1}\\\\ \end{align}\]
com lei dada por:
\[\begin{align} \mu(y) = \mathrm{P}\bigl(X_{T_1+1} = y\bigr)\\\\ \end{align}\]
O pior cenário para “excursões” longas entre visitas ao estado unitário ocorre quando \(d_1 = d_2 = \cdots = d\), isto é, o valor máximo das cartas. Tal fato evidencia que, em um intervalo temporal \([0, nd]\), a cadeia \((X_\ell)_{\ell \geqslant 0}\) atinge o valor 1 pelo menos \(n\) vezes. Para concluir a análise, seja \((X'\ell){\ell \geqslant 0}\) uma cópia independente de \((X_\ell)_{\ell \geqslant 0}\), possivelmente iniciada em valor distinto. Defina:
\[\begin{align}\\ Y_k &= X_{T_k+1} \\\\ Y'_k &= X'_{T'_k+1}\\\\ \end{align}\]
representando, respectivamente, a \(k\)-ésima carta secreta em cada cadeia. Neste caso, uma das cadeias modela o processo de contagem do aluno, enquanto a outra representa o processo do professor. Definimos \(T\) como o primeiro instante em que ambas coincidem no mesmo valor. Por construção, se definirmos \(\mu^{\star} = \inf_{1 \le k \le d} \mu(k)\), obtém-se:
\[\begin{align}\\ \mathrm{P}(T > nd) &\leqslant \mathrm{P}\bigl(Y_1 \neq Y'_1, \ldots, Y_n \neq Y'_n \bigr) \\\\ &= E \left[ \mathrm{P}\bigl(Y_1 \neq Y'_1, \ldots, Y_n \neq Y'_n \,\big|\, (Y'_k)_{1 \leqslant k \leqslant n}\bigr) \right] \\\\ &= E \left[ \prod_{1 \leqslant k \leqslant n} \mathrm{P}\bigl(Y_k \neq Y'_k \,\big|\, (Y'_l)_{1 \leqslant l \leqslant n}\bigr) \right] \\\\ &= E \left[ \prod_{1 \leqslant k \leqslant n} \bigl(1 - \mu(Y'_k)\bigr) \right] \\\\ &\leqslant (1 - \mu^{\star})^n\\\\ \end{align}\]
Quando \(d = 10\) e \(\mu(k) = 1/10\), para qualquer \(m = nd = 10n\), tem-se:
\[\begin{align}\\ \mathrm{P}(T > m) \leqslant p_m = \left(1 - \frac{1}{10}\right)^{\frac{m}{10}}\\\\ \end{align}\]
\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]
1.2. Conceito de Processo Estocástico
Os processos estocásticos, também conhecidos como processos aleatórios, representam sistemas nos quais o estado muda ao longo tempo, isto é, descrevem a evolução do sistema, sendo evolução não-determinística e influenciada pelo acaso ou pela aleatoriedade. Neste sentido, as observações futuras são afetadas por uma certa quantidade de incertezas, sendo, em particular, condicionadas por observações anteriores do processo. Matematicamente, tem-se a seguinte definição.
Definição 1.1 (Processo Estocástico - Basu 2003). Seja \(T\) um conjunto de índices. Então, define-se por processo estocástico a família de variáveis aleatórias \(\{X_t\}_{t\, \in\, T}\), indexadas por \(t \in T\). O conjunto de valores observados de \(X_t\) é chamado espaço de estados e é denotado por \(\mathcal{E} \subset \mathbb{R}\).
Exemplo 1.3. A seguir, são apresentados alguns exemplos clássicos de processos estocásticos, caracterizados por diferentes estruturas de dependência temporal e propriedades probabilísticas:
- (a) Processo de Markov (A. Markov 1913): Um processo estocástico \(\{X_t\}_{t\, \in\, T}\) é dito de Markov se satisfaz a propriedade de Markov, ou seja, para todos os tempos \(t_0 < t_1 < \dots < t_{n+1}\), a igualdade: \[\begin{align}\\ P\left[X_{t_{n+1}} \in A \mid X_{t_n} = a_n, X_{t_{n-1}} = a_{n-1}, \dots, X_{t_0} = a_0\right] = P\left[X_{t_{n+1}} \in A \mid X_{t_n} = a_n\right]\\\\ \end{align}\] é válida para todas as escolhas \(t_0 < t_1 < \dots < t_{n+1}\), em que \(t_i \in T\), \(i = 1, \dots, n+1\) e \(A \in \mathcal{B}\), sendo \(\mathcal{B}\) a álgebra de Borel do espaço de estados \(\mathcal{E}\). Em outras palavras, a distribuição condicional futura do processo depende apenas do estado atual, e não da trajetória completa até o instante presente. Um exemplo clássico de processo de Markov é o passeio aleatório (em inglês, random walk), representado na Figura 1.1, no qual o próximo estado depende exclusivamente do estado atual e de um incremento aleatório com distribuição fixa.
- (b) Processo de Renovação: Seja \(T = \{0, 1, 2, \dots\}\) o conjunto de índices e \(\mathcal{E} = [0, \infty)\) o espaço de estados. Se \(\{X_n\}_{n\, \geqslant\, 1}\) é uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) e não-negativas (representando os tempos entre eventos sucessivos), então o processo de renovação é definido por: \[\begin{align}\\ E_n = \sum_{k=1}^n X_k = X_1 + X_2 + \ldots + X_n\\\\ \end{align}\] em que \(E_0 = 0\), e \(E_n\) representa o tempo de ocorrência do \(n\)-ésimo evento. Esse processo descreve situações em que eventos ocorrem de forma repetida ao longo do tempo, com intervalos aleatórios entre eles. Um exemplo clássico ocorre na substituição de componentes em sistemas técnicos ou biológicos, onde cada falha é seguida por uma renovação imediata. A dinâmica do processo ao longo do tempo, refletindo os instantes de ocorrência dos eventos sucessivos, pode ser visualizada na Figura 1.2.
- (c) Processo Estacionário: Um processo estocástico \(\{X_t\}_{t \,\in\, T}\) é dito estacionário (ou estritamente estacionário) se a distribuição conjunta de qualquer conjunto finito de variáveis do processo é invariante sob deslocamentos no tempo. Mais precisamente, para quaisquer instantes \(t_1, t_2, \dots, t_n \in T\) e para todo deslocamento \(h > 0\) tal que \(t_1 + h, \dots, t_n + h \in T\), tem-se: \[\begin{align}\\ (X_{t_1}, X_{t_2}, \dots, X_{t_n}) \overset{d}{=} (X_{t_1 + h}, X_{t_2 + h}, \dots, X_{t_n + h})\\\\ \end{align}\] onde \(\overset{d}{=}\) denota igualdade em distribuição. Um exemplo clássico de processo estacionário é o processo autorregressivo de ordem 1, denotado por AR(1) e definido por: \[\begin{align}\\ X_t = \phi X_{t-1} + \epsilon_t, \quad t \in \mathbb{Z}\\\\ \end{align}\] em que \(|\phi| < 1\) e \({\epsilon_t}\) é uma sequência de ruído branco, isto é, variáveis aleatórias independentes, identicamente distribuídas, com média zero e variância constante. Sob essas condições, o processo oscila em torno de um nível estável, com variabilidade controlada, e sua estrutura estatística não depende do tempo específico em que é observado. A evolução temporal de uma realização deste tipo de processo pode ser visualizada na Figura 1.3, que mostra a trajetória de um processo AR(1) com parâmetro \(\phi = 0{.}7\).
- (d) Processo de Poisson (Poisson 1837): Um processo estocástico \(\{N_t\}_{t\, \geqslant\, 0}\) é chamado de processo de Poisson com taxa \(\lambda > 0\) quando \(N_t\) conta eventos ocorrendo aleatoriamente no tempo, satisfazendo:
- \(N_0 = 0\);
- Para todo subconjunto finito de intervalos disjuntos, os incrementos correspondentes do processo são mutuamente independentes;
- Para todo \(s, t \geqslant 0\), a distribuição de \(N_{t+s} - N_s\) depende apenas do comprimento do intervalo \(t\) e satisfaz \(N_{t+s} - N_s \sim \text{Poisson}(\lambda t)\);
- Os tempos entre eventos consecutivos são variáveis aleatórias independentes e identicamente distribuídas com distribuição exponencial de parâmetro \(\lambda\) com média \(1/\lambda\).
-
Este processo é utilizado para modelar a ocorrência aleatória de eventos ao longo do tempo, como chamadas telefônicas em uma central, chegadas de clientes em um serviço ou falhas em um sistema técnico. A Figura 1.4 ilustra uma realização típica de um processo de Poisson homogêneo, evidenciando a contagem cumulativa de eventos ao longo do tempo, com degraus correspondentes às ocorrências aleatórias.
- (e) Processo de Nascimento e Morte: Seja \(\{X_t\}_{t \ \geqslant \ 0}\) um processo estocástico com espaço de estados \(\mathcal{E} = {0, 1, 2, \dots}\). Diz-se que \(\{X_t\}_{t \ \geqslant \ 0}\) é um processo de nascimento e morte se, em um pequeno intervalo de tempo \(\Delta t > 0\), se as transições entre estados vizinhos ocorrem com taxas \(\lambda_n\) (nascimento) e \(\mu_n\) (morte), obedecendo:
- Transição de \(n\) para \(n+1\) (nascimento): \[\begin{align}\\
P(X_{t+\Delta t} = n+1 \mid X_t = n) = \lambda_n \Delta t + o(\Delta t)\\\\
\end{align}\] em que \(\lambda_n \geqslant 0\) representa a taxa de nascimento no estado \(n\), e \(o(\Delta t)\) representa um termo residual que é infinitamente pequeno em relação a \(\Delta t\) quando \(\Delta t \to 0\); formalmente, \(o(\Delta t)/\Delta t \to 0\) (isso significa que a probabilidade de ocorrer mais de uma transição no intervalo \(\Delta t\) é desprezível em relação a \(\Delta t\), assegurando que as transições ocorrem isoladamente em pequenos intervalos de tempo).
- Transição de \(n\) para \(n-1\) (morte): \[\begin{align}\\
P(X_{t+\Delta t} = n-1 \mid X_t = n) = \mu_n \Delta t + o(\Delta t)\\\\
\end{align}\] em que \(\mu_n \geqslant 0\) representa a taxa de morte no estado \(n\), com a convenção de que \(\mu_0 = 0\) para garantir que o processo permaneça em \(0\) quando atinge esse estado.
- Transição de \(n\) para \(n+1\) (nascimento): \[\begin{align}\\
P(X_{t+\Delta t} = n+1 \mid X_t = n) = \lambda_n \Delta t + o(\Delta t)\\\\
\end{align}\] em que \(\lambda_n \geqslant 0\) representa a taxa de nascimento no estado \(n\), e \(o(\Delta t)\) representa um termo residual que é infinitamente pequeno em relação a \(\Delta t\) quando \(\Delta t \to 0\); formalmente, \(o(\Delta t)/\Delta t \to 0\) (isso significa que a probabilidade de ocorrer mais de uma transição no intervalo \(\Delta t\) é desprezível em relação a \(\Delta t\), assegurando que as transições ocorrem isoladamente em pequenos intervalos de tempo).
-
Este processo é utilizado para modelar sistemas populacionais ou filas em que entidades podem “nascer” (chegar, ser adicionadas) ou “morrer” (partir, ser removidas) ao longo do tempo. Um exemplo é o modelo de crescimento populacional com capacidade limitada, no qual as taxas \(\lambda_n\) e \(\mu_n\) dependem do tamanho atual da população. A Figura 1.5 ilustra uma trajetória simulada de um processo de nascimento e morte, destacando a evolução estocástica da contagem de indivíduos ao longo do tempo.
- (f) Processo Martingal: Um processo estocástico \(\{X_t\}_{t \ \in \ T}\) é dito ser martingal se, para todos os instantes de tempo \(t_1, t_2, \ldots, t_n\) com \(t_1 < t_2 < \cdots < t_n < t_{n+1}\) e valores \(a_1, a_2, \ldots, a_n \in \mathcal{E}\), tivermos que: \[\begin{align}\\ E\left[ X_{t_{n+1}} \mid X_{t_1} = a_1, X_{t_2} = a_2, \ldots, X_{t_n} = a_n \right] = a_n\\\\ \end{align}\] Em termos mais intuitivos, pode-se dizer que um martingal representa um processo onde, condicionado a toda a informação disponível até o momento presente \(t_n\), o valor esperado futuro \(X_{t_{n+1}}\) é exatamente o valor atual \(X_{t_n} = a_n\). Isso implica que o processo não apresenta tendência sistemática de crescimento ou declínio — seu comportamento futuro é imprevisível, dado o conhecimento passado. Um exemplo deste tipo de processo é o preço descontado de um ativo financeiro. Seja \(\{S_t\}_{t \ \geqslant \ 0}\) o preço de um ativo financeiro e \(r\) a taxa de juros livre de risco (constante). O processo descontado \(\{X_t\}_{t \ \geqslant \ 0}\) é definido por: \[\begin{align}\\ X_t = e^{-rt} S_t\\\\ \end{align}\] Sob a medida de risco neutro, \({X_t}_{t \ \geqslant \ 0}\) é um martingal, isto é: \[\begin{align}\\ E[X_{t+s} \mid \mathcal{F}_t] = X_t \quad \forall s > 0 \end{align}\] onde \(\mathcal{F}_t\) denota a filtração (informação disponível até o tempo \(t\)). Isso significa que o preço descontado futuro esperado é igual ao preço atual, indicando que não há lucro esperado além do retorno livre de risco. A Figura 1.6 exibe uma trajetória simulada de \({X_t}\), evidenciando sua flutuação aleatória sem tendência dominante, conforme exigido pela propriedade de martingal.
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Seja \(\{X_t\}_{t\, \in\, T}\) um processo estocástico, indexado por \(t \in T\). A natureza desse processo, em particular, é determinada pela estrutura do conjunto de índices \(T\), que permite sua classificação em duas categorias distintas: tempo discreto e tempo contínuo. A Definição 1.2 a seguir detalha essa distinção.
Definição 1.2. Um processo estocástico \(\{X_t\}_{t\, \in\, T}\) é dito em tempo discreto quando o conjunto de índices \(T\) é enumerável (tipicamente, \(\mathbb{N}\) ou \(\mathbb{Z}\)). No entanto, se \(T\) é um intervalo de números reais (tipicamente, \(\mathbb{R}_+\) ou \([a,b]\)), então \(\{X_t\}_{t\, \in\, T}\) é dito em tempo contínuo.
Exemplo 1.4 (Passeio Aleatório). Seja \(\{X_n\}_{n \ \in \ \mathbb{N}}\) uma sequência de variáveis aleatórias i.i.d. com distribuição de Bernoulli, em que: \[\begin{align}\\ P(X_n = 1) = \rho, \quad P(X_n = -1) = 1 - \rho, \quad 0 < \rho < 1\\\\ \end{align}\] Define-se o processo \(\{S_n\}_{n \ \geqslant \ 0}\) pela soma acumulada: \[\begin{align}\\ S_0 = 0, \quad S_n = \sum_{i=1}^{n} X_i, \quad n = 1, 2, 3, \dots\\\\ \end{align}\] em que cada incremento \(X_i\) representa um passo unitário para cima (com probabilidade \(\rho\)) ou para baixo (com probabilidade \(1-\rho\)). Esse processo é conhecido como passeio aleatório (em inglês, random walk), caracterizando-se como um processo estocástico em tempo discreto, cujo espaço de estados é o conjunto dos números inteiros, isto é, \(\mathcal{E} = \mathbb{Z}\). O Código 1.1 a seguir simula, em linguagem R, uma realização de um passeio aleatório simples com \(n = 100\) passos, assumindo \(\rho = 0.5\), ou seja, com probabilidade simétrica de ganho e perda a cada etapa. A Figura 1.7 exibe a trajetória resultante desse processo estocástico ao longo do tempo (discreto).
Código 1.1. Simulação de um passeio aleatório simples com \(n = 100\) passos e \(\rho = 0.5\).
## ---------------------------------------
## Simulação de Passeio Aleatório Simples
## ---------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
<- 100 # Número Total de Passos
n_passos
# --- 2. Geração dos Incrementos ---
<- sample(c(-1, 1),
incrementos size = n_passos,
replace = TRUE,
prob = c(0.5, 0.5))
# --- 3. Cálculo da Trajetória do Passeio Aleatório ---
<- c(0, cumsum(incrementos))
trajetoria
# --- 4. Visualização Gráfica ---
<- data.frame(tempo = 0:n_passos,
df_passeio valor = trajetoria)
ggplot(df_passeio, aes(x = tempo, y = valor)) +
geom_line(color = "#003366") +
geom_point(color = "#264653", size = 1.5) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (n)",
y = expression(S[n])) +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.5 (Ruína do Jogador - Dobrow 2016). O problema da ruína do jogador constitui um processo estocástico markoviano em tempo discreto que modela a dinâmica de capital em jogos de azar. Formalmente, seja:
- \(\{S_n\}_{n\, \geqslant\, 0}\): Processo estocástico representando o capital acumulado;
- \(S_0 = k \in \mathbb{N}^+\): Capital inicial positivo;
- \(N \in \mathbb{N}^+\): Meta de capital (com \(N > k\));
- \(p \in (0,1)\): Probabilidade de ganho unitário por rodada;
- \(q = 1-p\): Probabilidade de perda unitária.
O processo \(\{S_n\}\) é uma cadeia de Markov com dois estados absorventes, \(0\) (ruína) e \(N\) (meta atingida). A probabilidade de ruína a partir de um capital inicial \(k\), denotada por \(P_k\), satisfaz a equação de recorrência: \[\begin{align}\\ P_k = pP_{k+1} + qP_{k-1} \qquad 1 \leqslant k \leqslant N-1, \\\\ \end{align}\] com condições de contorno \(P_0 = 1\) (ruína certa se o capital é zero) e \(P_N = 0\) (impossibilidade de ruína se a meta é atingida). Esta equação, em particular, tem sua solução determinada por: \[\begin{align}\\ P_k = \begin{cases} 1 - \dfrac{k}{N} & \quad p = q = \dfrac{1}{2} \\[12pt] \dfrac{\left(\dfrac{q}{p}\right)^k - \left(\dfrac{q}{p}\right)^N}{1 - \left(\dfrac{q}{p}\right)^N} & \quad p \neq q \end{cases} \\\\ \end{align}\]
Isto nos leva aos seguintes casos específicos:
- Aposta Justa (\(p = 0.5\)):
- \(P_k = 1 - \dfrac{k}{N}\);
- A probabilidade de ruína decresce linearmente com o capital inicial; e a ruína ocorre com probabilidade igual a 1 em tempo infinito.
- \(P_k = 1 - \dfrac{k}{N}\);
- Aposta Desfavorável (\(p < 0.5\)):
- \(\displaystyle \lim_{N \to \infty} P_k = \left(\dfrac{q}{p}\right)^k\);
- A ruína torna-se quase certa, mesmo para capitais iniciais moderados;
- Exemplo: \(p = 0.4\), \(k = 10 \Rightarrow \, P_k \approx 0.983\).
- Aposta Favorável (\(p > 0.5\)):
- A probabilidade de ruína decresce exponencialmente com \(k\);
- Exemplo: \(p = 0.6\), \(k = 10 \Rightarrow \, P_k \approx 0.017\).
O Código 1.2 a seguir implementa, em linguagem R, a simulação de uma trajetória do processo de ruína do jogador. Para tal, considera-se um capital inicial de \(k = 10\), uma meta de \(N = 20\), e uma probabilidade de ganho unitário por rodada igual a \(p = 0{.}5\), caracterizando um jogo justo. A Figura 1.8 exibe a trajetória do capital ao longo do tempo (discreto), ilustrando a evolução do processo até a ocorrência da ruína (absorção em \(0\)) ou o eventual alcance da meta \(N\).
Código 1.2. Simulação do processo de ruína do jogador com capital inicial de \(k = 10\), meta de \(N = 20\), e probabilidade de ganho unitário por rodada igual a \(p = 0{.}5\).
## ------------------------------------------
## Simulação do Problema da Ruína do Jogador
## ------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 10 # Capital Inicial
k <- 20 # Meta de Capital
N <- 0.5 # Probabilidade de Ganho por Rodada
p
# --- 3. Função para Simular Trajetória até Absorção ---
<- function(k, N, p)
simular_ruina
{<- k
capital <- c(capital)
caminho
while(capital > 0 && capital < N)
{<- sample(c(-1, 1), size = 1, prob = c(1 - p, p))
passo <- capital + passo
capital <- c(caminho, capital)
caminho
}
return(caminho)
}
# --- 4. Simulação da Trajetória ---
<- simular_ruina(k, N, p)
trajetoria <- data.frame(Rodada = 0:(length(trajetoria) - 1),
df_ruina Capital = trajetoria)
# --- 5. Visualização Gráfica ---
ggplot(df_ruina, aes(x = Rodada, y = Capital)) +
geom_line(color = "steelblue", linewidth = 0.8) +
geom_point(color = "darkblue", size = 1.5) +
geom_hline(yintercept = 0, linetype = "dashed", color = "red") +
geom_hline(yintercept = N, linetype = "dashed", color = "darkgreen") +
annotate("text", x = max(df_ruina$Rodada) * 0.6, y = 1,
label = "Ruína (S = 0)", color = "red", vjust = -1) +
annotate("text", x = max(df_ruina$Rodada) * 0.6, y = N - 1,
label = paste("Meta (S = ", N, ")", sep = ""),
color = "darkgreen", vjust = -1) +
labs(title = "",
x = "Rodadas",
y = expression(S[n])) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.6 (Processo Harmônico). Considere o processo estocástico em tempo contínuo \(\{X(t)\}_{t\, \in\, \mathbb{R}^+}\) definido por: \[\begin{align}\\ X(t) = Y \cos(\omega t + \Theta), \quad t \geqslant 0,\\\\ \end{align}\] em que \(Y\) e \(\Theta\) são variáveis aleatórias independentes e distribuídas segundo: \[\begin{align}\\ Y \sim \text{Uniforme}(-A, A), \quad \Theta \sim \text{Uniforme}(-\pi, \pi),\\\\ \end{align}\] Este processo, denominado processo harmônico, representa uma oscilação aleatória cuja amplitude \(Y\) e fase \(\Theta\) são uniformemente distribuídas, característica típica de modelos físicos que descrevem sinais oscilatórios com incerteza. O Código 1.3 a seguir apresenta uma simulação, em linguagem R, de uma trajetória do processo harmônico \({X(t)}\) com a amplitude máxima \(A = 2\) e a frequência angular \(\omega = 1\). A Figura 1.9 ilustra a trajetória simulada do processo harmônico, evidenciando o comportamento oscilatório e a variação aleatória da amplitude e fase.
Código 1.3. Simulação do processo harmônico \(X(t) = Y \cos(\omega t + \Theta)\) em tempo contínuo, com amplitude máxima \(A = 2\) e frequência angular \(\omega = 1\).
## -------------------------------------------------
## Simulação do Processo Harmônico (Tempo Contínuo)
## -------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 2 # Amplitude Máxima
A <- 1 # Frequência Angular
omega <- seq(0, 10, length.out = 500)
t
# --- 3. Variáveis Aleatórias ---
<- runif(1, -A, A) # Amplitude Aleatória Uniforme em (-A, A)
Y <- runif(1, -pi, pi) # Fase Aleatória Uniforme em (-π, π)
Theta
# --- 4. Simulação da Trajetória do Processo ---
<- Y * cos(omega * t + Theta) # Processo Harmônico
X <- data.frame(t = t, X = X)
df_cos
# --- 7. Visualização Gráfica ---
ggplot(df_cos, aes(x = t, y = X)) +
geom_line(color = "darkorange") +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(X(t))) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
1.3. Trajetória do Processo Estocástico
Em um processo estocástico, os valores assumidos pela variável aleatória em cada instante de tempo são, por definição, aleatórios. Contudo, ao fixar um único resultado do experimento aleatório subjacente — isto é, ao considerar um \(\omega \in \Omega\) fixado — obtém-se uma realização específica do processo, representada por uma função determinística do tempo. Tal função é denominada trajetória (ou realização) do processo estocástico, e descreve o comportamento do sistema para aquele cenário particular. As trajetórias ilustradas nos exemplos anteriores correspondem precisamente a esse tipo de realização.
Definição 1.3 (Trajetória de um Processo Estocástico). Seja \(\{X_t\}_{t\, \in\, T}\) um processo estocástico com conjunto de índices \(T \subseteq \mathbb{R}\) e espaço de estados \(\mathcal{E} \subseteq \mathbb{R}\). A função associada a esse processo é descrita por: \[\begin{align}\\ X &: T \times \Omega \to E\\\\ &(t, \omega) \mapsto X_t(\omega)\\\\ \end{align}\] em que \(\Omega\) representa o espaço de resultados do experimento aleatório. Para um resultado fixado \(\omega \in \Omega\), a função: \[\begin{align}\\ t \mapsto X_t(\omega) \\\\ \end{align}\] define uma trajetória (ou realização) do processo, que é uma função determinística de \(T\) em \(\mathcal{E}\) que descreve a evolução dos valores assumidos por \(X_t\) ao longo do tempo, sob o cenário \(\omega\).
Exemplo 1.7 (Movimento Browniano - Brown 1828; Einstein 1956). Seja \((\Omega, \mathcal{F}, \mathbb{P})\) um espaço de probabilidade. Um processo estocástico \(\{B_t\}_{t\, \geqslant\, 0}\), com valores em \(\mathbb{R}\), é chamado de movimento browniano padrão se satisfaz as seguintes propriedades:
Condição Inicial: \(B_0 = 0\) quase seguramente.
Incrementos Independentes: Para quaisquer \(0 \leqslant t_0 < t_1 < \cdots < t_n\), os incrementos \[\begin{align}\\ B_{t_1} - B_{t_0}, \; B_{t_2} - B_{t_1}, \; \dots, \; B_{t_n} - B_{t_{n-1}}\\\\ \end{align}\] são mutuamente independentes.
Incrementos Estacionários e Gaussianos: Para todo \(s < t\), o incremento \(B_t - B_s \sim \mathcal{N}(0, t - s)\), ou seja, é normalmente distribuído com média zero e variância proporcional ao intervalo de tempo.
Trajetórias Contínuas: A função \(t \mapsto B_t(\omega)\) é contínua quase seguramente. Contudo, essas trajetórias são quase certamente não diferenciáveis em qualquer ponto de \(t\).
O Código 1.4 a seguir apresenta uma simulação, em linguagem R, de \(10\) trajetórias do processo \(\{B_t\}_{t \geqslant 0}\), cada uma correspondendo a uma realização distinta da variável aleatória \(B_t(\omega)\) ao longo do tempo. A Figura 1.10 ilustra as trajetórias simuladas, evidenciando o comportamento errático típico do processo, cuja variabilidade aumenta com o tempo, embora todas as trajetórias iniciem na origem.
Código 1.4. Simulação de múltiplas trajetórias do movimento browniano padrão \({B_t}_{t \geqslant 0}\), com \(B_0 = 0\) e incrementos gaussianos \(\mathcal{N}(0, \Delta t)\) ao longo de um intervalo de tempo contínuo.
## -------------------------------------------------------
## Simulação de Trajetórias do Movimento Browniano Padrão
## -------------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(42) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 1 # Tempo Final da Simulação
T_max <- 0.01 # Tamanho do Passo Temporal
dt <- T_max / dt # Número de Incrementos por Trajetória
n <- 10 # Número de Trajetórias Simuladas
n_series <- seq(0, T_max, by = dt) # Grade Temporal
tempo
# --- 3. Simulação das Trajetórias ---
<- replicate(n_series,
trajetorias cumsum(c(0, rnorm(n,
mean = 0,
sd = sqrt(dt)))))
# --- 4. Organização dos Dados ---
<- data.frame(tempo = rep(tempo, times = n_series),
df_bm valor = as.vector(trajetorias),
serie = factor(rep(1:n_series, each = length(tempo))))
# --- 5. Visualização Gráfica ---
ggplot(df_bm, aes(x = tempo, y = valor, group = serie, color = serie)) +
geom_line(alpha = 0.8) +
geom_point(color = "darkgray", size = 1.2) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(B[t]) ) +
theme_minimal() +
theme(legend.position = "none",
axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.8 (Processo Autoregressivo de Primeira Ordem — AR(1)). Um processo estocástico \(\{X_t\}_{t\ \geqslant\ 0}\) é dito autoregressivo de primeira ordem, denotado por AR(1), se satisfaz a equação recursiva: \[\begin{align}\\ X_t = \phi X_{t-1} + \epsilon_t,\\\\ \end{align}\] em que \(\phi \in \mathbb{R}\) é o parâmetro de autocorrelação e \({\epsilon_t}\) é uma sequência de ruídos brancos independentes e identicamente distribuídos segundo uma distribuição normal \(\mathcal{N}(0, \sigma^2)\). A estrutura do modelo indica que o valor de \(X_t\) depende linearmente do valor anterior \(X_{t-1}\), acrescido de um termo de ruído. Além disso, o processo é estritamente estacionário e ergódico quando \(|\phi| < 1\), casos em que existe uma distribuição invariante, com média zero e variância \(\sigma^2/(1 - \phi^2)\). O Código 1.5 a seguir apresenta uma simulação, em linguagem R, de uma única trajetória do processo AR(1) com \(\phi = 0{.}8\), \(\sigma = 1\) e \(n = 100\) instantes de tempo. A simulação parte de uma condição inicial aleatória e evolui segundo a equação recursiva. A Figura 1.11 ilustra a trajetória resultante, na qual se observa um padrão flutuante com tendência de reversão à média, típica de processos com \(\phi < 1\).
Código 1.5. Simulação de uma trajetória do processo AR(1) com \(\phi = 0{.}8\), \(\sigma = 1\) e \(n = 100\) observações.
## ----------------------------
## Simulação do Processo AR(1)
## ----------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 0.8 # Parâmetro de Autocorrelação
phi <- 1 # Desvio-Padrão dos Ruídos Brancos
sigma <- 100 # Número de Observações
n
# --- 3. Inicialização da Série Temporal ---
<- numeric(n) # Vetor de Armazenamento
X 1] <- rnorm(1, mean = 0, sd = sigma) # Condição Inicial Aleatória
X[
# --- 4. Simulação da Trajetória do Processo AR(1) ---
for (t in 2:n)
{<- phi * X[t - 1] + rnorm(1, mean = 0, sd = sigma)
X[t]
}
<- data.frame(t = 1:n, X_t = X)
df_ar1
# --- 5. Visualização Gráfica ---
ggplot(df_ar1, aes(x = t, y = X_t)) +
geom_line(color = "blue", size = 0.6) +
geom_point(color = "darkblue", size = 1.4) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(X[t])) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.9 (Processo de Lévy - Ken-Iti 1999). Um processo de Lévy é um tipo de processo estocástico a tempo contínuo com trajetórias que podem apresentar descontinuidades (saltos), caracterizando-se por incrementos estacionários e independentes. Tal classe de processos generaliza o movimento browniano e abrange uma vasta gama de modelos com distribuição de incrementos não-Gaussianos. Devido à sua flexibilidade, os processos de Lévy têm sido empregado em diversos contextos, especialmente para descrever fenômenos com saltos abruptos ou comportamento em cauda pesada. Formalmente, um processo estocástico \(\{X_t\}_{t \ \geqslant \ 0}\) é dito ser um processo de Lévy se satisfaz as seguintes propriedades:
Incrementos Independentes: Para qualquer sequência de tempos \(0 \leqslant t_1 < t_2 < \cdots < t_n\), os incrementos \(X_{t_2} - X_{t_1}, X_{t_3} - X_{t_2}, \ldots, X_{t_n} - X_{t_{n-1}}\) são mutuamente independentes.
Comportamento Não-Gaussiano: Em contraste com o movimento browniano, cujos incrementos são normalmente distribuídos, os processos de Lévy podem assumir incrementos provenientes de distribuições com caudas pesadas (como a Cauchy ou a distribuição de Lévy), permitindo representar saltos de grande magnitude.
Trajetórias Càdlàg: As trajetórias de um processo de Lévy \(\{X_t\}_{t \ \geqslant \ 0}\), com probabilidade 1, pertencem à classe das funções càdlàg, acrônimo do francês continue à droite, limite à gauche. Isso significa que, para todo \(t > 0\), a trajetória \(t \mapsto X_t(\omega)\) satisfaz as seguintes condições:
- O limite à esquerda de \(X_t\), denotado por \(X(t^-)\), existe e os valores da função à esquerda de \(t\) se aproximam de um valor bem definido, embora este possa ser diferente de \(X(t)\), isto é: \[\begin{align}\\ \lim_{s \uparrow t} X_s = X(t^-)\\\\ \end{align}\]
- O limite à direita de \(X_t\), denotado por \(X(t^+)\), existe e coincide com o próprio valor da função no ponto \(t\): \[\begin{align}\\ \lim_{s \downarrow t} X_s = X_t\\\\ \end{align}\]
Incrementos Estacionários: Para qualquer \(s < t\), \(X_t - X_s\) é igual em distribuição de \(X_{t-s}\).
Um caso particular de processo de Lévy é aquele com incrementos Cauchy, cuja forma recursiva pode ser descrita por: \[\begin{align}\\ X_t = X_{t-1} + \gamma \cdot Z_t\\\\ \end{align}\] em que \(\{Z_t\} \sim \text{Cauchy}(\mu, \sigma)\) são variáveis aleatórias independentes e identicamente distribuídas segundo a distribuição de Cauchy, e \(\gamma > 0\) é um parâmetro de escala. O Código 1.6 a seguir apresenta uma simulação, em linguagem R, de uma única trajetória de um processo de Lévy com incrementos Cauchy, utilizando \(n = 1000\) passos uniformemente distribuídos no intervalo \([0, 1]\), e incremento de tempo constante. A trajetória inicia em \(X_0 = 0\), evoluindo segundo a equação recursiva acima. A Figura 1.12 exibe a trajetória resultante, evidenciando a presença de descontinuidades abruptas ao longo do tempo — reflexo direto das propriedades pesadamente caudadas da distribuição dos incrementos.
Código 1.6. Simulação de uma trajetória de um processo de Lévy com incrementos Cauchy.
## ---------------------------------------------------
## Simulação do Processo de Lévy (Incrementos Cauchy)
## ---------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(42) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 1000 # Número de Instantes de Tempo
n <- seq(0, 1, length.out = n) # Grade Temporal
t <- diff(t) # Incrementos Temporais
dt
# --- 3. Inicialização da Trajetória ---
<- numeric(n) # Vetor da Trajetória
X 1] <- 0 # Condição Inicial
X[
# --- 4. Simulação da Trajetória do Processo ---
for (i in 2:n)
{<- X[i - 1] + rt(1, df = 1) * sqrt(dt[i - 1]) # Incremento Cauchy (t-student com df = 1)
X[i]
}
<- data.frame(t = t, X = X)
df_levy
# --- 7. Visualização Gráfica ---
ggplot(df_levy, aes(x = t, y = X)) +
geom_line(color = "purple", size = 0.5) +
geom_point(color = "darkviolet", size = 1.5) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(X(t))) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
1.4. Lei de um Processo Estocástico
A modelagem probabilística de fenômenos aleatórios que evoluem no tempo requer não apenas a descrição da dinâmica pontual de um processo estocástico \(\{X_t\}_{t \ \in \ T}\), mas sobretudo uma caracterização rigorosa de sua estrutura de probabilidade subjacente. Tal estrutura é formalmente denominada lei do processo estocástico. De modo intuitivo, a lei de um processo pode ser interpretada como uma “assinatura estatística” que determina a forma como o processo se desenvolve ao longo do tempo e se manifesta em diferentes realizações. Essa lei é especificada pelas distribuições de probabilidade finito-dimensionais associadas ao processo, isto é, pelas distribuições conjuntas dos vetores aleatórios \((X_{t_1}, X_{t_2}, \dots, X_{t_n})\) para quaisquer \(t_1, t_2, \dots, t_n \in T\).
Definição 1.4 (Lei de um Processo Estocástico). Seja \(X = \{X_t\}_{t \ \in \ T}\) um processo estocástico com espaço de estados \(\mathcal{E} \subseteq \mathbb{R}\). A lei do processo é a família de distribuições de probabilidade finito-dimensionais associadas a seus vetores de estados em tempos distintos. Mais precisamente, para cada conjunto ordenado de tempos \(t_1 < t_2 < \dots < t_n \in T\) e para todo \(n \in \mathbb{N}\), a lei do processo é descrita por: \[\begin{align}\\ \mathbb{P}_{t_1,\dots,t_n}(A_1 \times \dots \times A_n) = \mathbb{P}(X_{t_1} \in A_1, \dots, X_{t_n} \in A_n),\\\\ \end{align}\] para todos os conjuntos mensuráveis \(A_j \subset \mathbb{R}\), \(j = 1, \dots, n\). Essa coleção, em particular, pode ser representada pelas funções de distribuição acumulada conjuntas correspondentes: \[\begin{align}\\ F_{t_1,\dots,t_n}(x_1,\dots,x_n) = \mathbb{P}(X_{t_1} \leqslant x_1, \dots, X_{t_n} \leqslant x_n)\\\\ \end{align}\] as quais codificam completamente o comportamento estatístico do processo em qualquer subconjunto finito de instantes de tempo. Assim, a lei de um processo estocástico é o objeto probabilístico fundamental que determina, de forma completa, sua distribuição no espaço de trajetórias.
Exemplo 1.10 (Movimento Browniano Padrão). Seja \(\{B_t\}_{t\, \geqslant\, 0}\) um processo estocástico com as seguintes propriedades:
Condição Inicial: \(B_0 = 0\);
Incrementos Independentes: Para qualquer partição \(0 \leqslant t_1 < t_2 < \dots < t_n\), os incrementos sucessivos \(B_{t_2} - B_{t_1}, B_{t_3} - B_{t_2}, \dots, B_{t_n} - B_{t_{n-1}}\) são mutuamente independentes;
Incrementos Estacionários e Gaussianos: Para quaisquer instantes \(0 \leqslant s < t\), o incremento \(B_t - B_s\) é normalmente distribuído com média zero e variância proporcional ao intervalo de tempo: \[\begin{align}\\ B_t - B_s \sim \mathcal{N}(0, t - s), \qquad 0 \leqslant s < t,\\\\ \end{align}\] ou, de forma equivalente, sua função de distribuição é dada por: \[\begin{align}\\ P(B_t - B_s \leqslant b) \sim \dfrac{1}{\sqrt{2\pi(t - s)}}\int_{-\infty}^b e^{-\frac{u^2}{2(t-s)}}\,du\\\\ \end{align}\]
Trajetórias Contínuas: Com probabilidade um, a função \(t \mapsto B_t\) é contínua em todo \(t \geqslant 0\).
Esse processo é denominado de movimento Browniano. A lei de \(B_t\) é completamente especificada pela coleção de distribuições normais multivariadas de seus vetores finito-dimensionais: \[\begin{align}\\ (B_{t_1}, \dots, B_{t_n}) \sim \mathcal{N}_n(0, \Sigma),\\\\ \end{align}\] em que a matriz de covariância \(\Sigma\) tem entradas \(\Sigma_{ij} = \min(t_i, t_j)\). A implementação computacional, em linguagem R, descrita no Código 1.7 realiza a simulação de amostras da lei finito-dimensional do movimento Browniano padrão, considerando os instantes \(t_1 = 1\), \(t_2 = 2\) e \(t_3 = 3\), cujas distribuições conjuntas seguem uma normal multivariada centrada com matriz de covariância \(\Sigma_{ij} = \min(t_i, t_j)\). A Figura 1.13 exibe as distribuições marginais estimadas em cada tempo, evidenciando a variabilidade crescente típica desse processo e a natureza Gaussiana de seus incrementos.
Código 1.7. Simulação da lei finito-dimensional do movimento Browniano padrão nos tempos \(t_1 = 1\), \(t_2 = 2\) e \(t_3 = 3\).
## -----------------------------------------------------
## Lei Finito-Dimensional do Movimento Browniano Padrão
## -----------------------------------------------------
# --- 0. Pacotes Necessários ---
library(mvtnorm) # Para Simulação de Normais Multivariadas
library(ggplot2) # Para Visualização Gráfica
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros da Lei do Processo ---
<- c(1, 2, 3) # Tempos de Observação: t1 < t2 < t3
t <- 1000 # Número de Amostras Simuladas
n_sim <- outer(t, t, pmin) # Matriz de Covariância Σ_ij = min(t_i, t_j)
Sigma <- rep(0, length(t)) # Vetor de Médias Nulo (Processo Centrado)
mu
# --- 3. Simulação da Lei Finito-Dimensional ---
<- rmvnorm(n_sim, mean = mu, sigma = Sigma)
samples
# --- 4. Organização dos Dados ---
<- data.frame(X_t = c(samples[,1], samples[,2], samples[,3]),
df_brown Time = factor(rep(t, each = n_sim), levels = t))
# --- 5. Visualização das Distribuições Marginais ---
ggplot(df_brown, aes(x = X_t, fill = Time)) +
geom_histogram(aes(y = ..density..), bins = 30, color = "white", alpha = 0.6) +
geom_density(color = "black", size = 0.5, alpha = 0.6) +
facet_wrap(~ Time, scales = "free") +
labs(title = "",
x = expression(X(t)),
y = "Densidade") +
theme_minimal() +
theme(legend.position = "none",
axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.11 (Processo de Poisson Homogêneo). Seja \(\{N_t\}_{t\, \geqslant\, 0}\) um processo estocástico de contagem que modela a ocorrência de eventos aleatórios ao longo do tempo, satisfazendo as seguintes propriedades:
\(N_0 = 0\) (condição inicial);
\(N_t\) tem incrementos independentes, ou seja, para quaisquer \(0 \leqslant t_1 < t_2 < \cdots < t_n\), os incrementos \(N_{t_2} - N_{t_1}, \ldots, N_{t_n} - N_{t_{n-1}}\) são variáveis aleatórias independentes;
Para \(0 \leqslant s < t\), o incremento \(N_t - N_s\) segue uma distribuição de Poisson com parâmetro \(\lambda(t-s)\), isto é, \(N_t - N_s \sim \text{Poisson}(\lambda t - \lambda s)\), em que \(\lambda > 0\) representa a taxa média de eventos por unidade de tempo.
O processo \(\{N_t\}_{t\, \geqslant\, 0}\) que satisfaz as propriedades acima é chamado de processo de Poisson homogêneo. Para qualquer instante fixo \(t > 0\), a distribuição marginal (lei) do processo é descrita pela seguinte função de massa de probabilidade:
\[\begin{align}\\ P(N_t = k) = \frac{(\lambda t)^k}{k!} e^{-\lambda t}, \quad k = 0, 1, 2, \ldots\\\\ \end{align}\]
O Código 1.8 descreve a implementação, em linguagem R, da lei conjunta desse processo, que permite simular trajetórias do processo e analisar seu comportamento. A Figura 1.14 mostra uma realização típica do processo de Poisson, ilustrando os momentos discretos em que os eventos ocorrem, além de apresentar a distribuição de probabilidade para diferentes intervalos de tempo.
Código 1.8. Simulação da lei de um processo de Poisson homogêneo com taxa \(\lambda = 5\).
## ---------------------------------------------------------------------
## Simulação da Lei e da Trajetória de um Processo de Poisson Homogêneo
## ---------------------------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
library(gridExtra)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 5 # Taxa de Eventos por Unidade de Tempo
lambda <- 1:20 # Instantes de Tempo (t1 < t2 < ... < t20)
t <- 1000 # Número de Simulações
n_sim
# --- 3. Simulação dos Incrementos ---
<- matrix(rpois(n_sim * length(t), lambda * diff(c(0, t))),
increments ncol = length(t))
# --- 4. Cálculo do Processo de Poisson em Cada Instante ---
<- t(apply(increments, 1, cumsum))
N_t
<- data.frame(N_t1 = N_t[, 1],
df N_t2 = N_t[, 2],
N_t3 = N_t[, 3])
<- data.frame(time = c(0, t_vals),
traj_df counts = c(0, cumsum(rpois(length(t),
* diff(c(0, t_vals))))))
lambda
# --- 5. Visualização Gráfica ---
<- ggplot(df, aes(x = N_t1, y = N_t2)) +
g1 geom_point(alpha = 0.5, color = "coral") +
labs(title = "",
x = expression(N(t[1])),
y = expression(N(t[2]))) +
theme_minimal() +
theme(legend.position = "none",
axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
<- ggplot(traj_df, aes(x = time, y = counts)) +
g2 geom_step(color = "steelblue", linewidth = 1) +
geom_point(color = "navy") +
labs(x = "Tempo", y = expression(N(t))) +
theme(legend.position = "none",
axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
grid.arrange(g1, g2, ncol = 2)
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.12 (Processo de Ornstein–Uhlenbeck). O processo de Ornstein-Uhlenbeck é um modelo estocástico em tempo contínuo que descreve fenômenos físicos que exibem comportamento de reversão à média, ou seja, tendem a retornar a um valor de equilíbrio ao longo do tempo. Exemplos de uso deste tipo de processo incluem sistemas como partículas em movimento browniano com atrito, preços de ativos financeiros com tendência à estabilização, entre outros. Formalmente, este processo é definido como a solução da seguinte equação diferencial estocástica (EDE):
\[\begin{align}\\ dX_t = -\theta X_t \, dt + \sigma \, dB_t, \quad X_0 = x_0,\\\\ \end{align}\]
em que \(\theta > 0\) representa o parâmetro de reversão à média, \(\sigma > 0\) corresponde à volatilidade do processo, e \(\{B_t\}_{t\, \geqslant\, 0}\) denota um movimento browniano padrão. As propriedades analíticas deste processo revelam sua natureza gaussiana e estacionária no limite assintótico. Especificamente, para qualquer tempo fixo \(t > 0\), a distribuição de \(X_t\) é normal com as seguintes propriedades:
Média: Sendo o valor inicial \(x_0\), a média do processo \(X_t\) no tempo \(t\), é dada por: \[\begin{align}\\ E[X_t] = x_0 e^{-\theta t},\\\\ \end{align}\]
Variância: A variância do processo \(X_t\) no tempo \(t\) é dada por: \[\begin{align}\\ \text{Var}(X_t) = \frac{\sigma^2}{2\theta} (1 - e^{-2\theta t})\\\\ \end{align}\]
Autocovariância: A função de autocovariância entre \(X_s\) e \(X_t\), para \(s \leqslant t\), é dada por: \[\begin{align}\\ \gamma(X_s, X_t) = \text{Cov}(X_s, X_t) = \frac{\sigma^2}{2\theta} e^{-\theta(t - s)} (1 - e^{-2\theta s})\\\\ \end{align}\]
Essas propriedades mostram que o processo de Ornstein-Uhlenbeck é um processo estocástico com média decrescente exponencialmente ao longo do tempo e com variância que depende do tempo \(t\). Além disso, no regime estacionário \((t \to \infty)\), o processo exibe distribuição invariante \(\mathcal{N}(0, \sigma^2/2\theta)\), caracterizando plenamente seu comportamento de longo prazo. O Código 1.9 descreve a implementação, em linguagem R, da lei do processo nos instantes \(t=1\) e \(t=5\) e, também, simula a trajetória com parâmetros \(\theta = 1\), \(\sigma = 0.5\), e condições iniciais nulas. O vetor de tempos t = seq(0, 10, by = 0.1)
proporciona uma discretização adequada para visualização das propriedades de reversão à média, enquanto n_sim = 1000
realizações garantem a precisão das estimativas. A Figura 1.15 complementa a análise numérica ao exibir tanto a trajetória quanto a lei do processo, contrastando com o caso puramente difusivo do movimento browniano. Particularmente, evidencia-se como o parâmetro \(\theta\) controla a velocidade de retorno ao equilíbrio, enquanto \(\sigma\) determina a magnitude das flutuações em torno da média.
Código 1.9. Implementação numérica do processo de Ornstein-Uhlenbeck com parâmetros \(\theta = 1\), \(\sigma = 0.5\), e condições iniciais nulas.
## ----------------------------------------------------------------
## Simulação da Lei e Trajetória do Processo de Ornstein-Uhlenbeck
## ----------------------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
library(gridExtra)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 1 # Velocidade de Reversão à Média
theta <- 0.5 # Volatilidade
sigma <- seq(0, 10, by = 0.1) # Vetor de Tempos
t <- 100 # Número de Simulações
n_sim <- 0 # Condição Inicial
x_0
# --- 3. Simulação da Lei Finito-Dimensional ---
<- matrix(0, nrow = n_sim, ncol = length(t))
X_t
for (i in 1:length(t))
{<- x_0 * exp(-theta * t[i]) # Média do Processo
mu_t <- (sigma^2) / (2 * theta) * (1 - exp(-2 * theta * t[i])) # Variância do Processo
var_t <- rnorm(n_sim, mean = mu_t, sd = sqrt(var_t)) # Simulação de X_t
X_t[,i]
}
# --- 4. Preparação dos Dados para Visualização ---
<- data.frame(X_t = c(X_t[, 2], X_t[, 6]),
df_dens tempo = rep(c(1, 5), each = n_sim))
<- data.frame(t = rep(t, each = n_sim),
df_traj X_t = as.vector(t(X_t)))
# --- 5. Visualização Gráfica ---
<- ggplot(df_dens, aes(x = X_t, fill = factor(tempo))) +
g1 geom_density(alpha = 0.7) + # Cores mais fortes
labs(title = "",
x = "X(t)",
y = "Densidade") +
scale_fill_manual(values = c("lightblue", "salmon"),
labels = c("Instante t = 1", "Instante t = 5")) +
theme_minimal() +
theme(legend.position = "bottom",
legend.title = element_blank(),
axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
<- ggplot(df_traj, aes(x = t, y = X_t)) +
g2 geom_line(alpha = 0.7, color = "darkred") +
labs(title = "",
x = "Tempo",
y = "X(t)") +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
grid.arrange(g1, g2, ncol = 2)
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
1.5. Processos Estacionários
Conforme exposto no item (c) do Exemplo 1.3, um processo estocástico é dito estacionário quando suas propriedades probabilísticas permanecem invariantes sob translações no tempo. Em termos práticos, tal condição implica que as distribuições de probabilidade associadas ao processo não se modificam ao longo do tempo — ou seja, o comportamento estatístico observado em um dado instante é indistinguível daquele observado em qualquer outro instante, desde que mantidas as mesmas relações temporais. Especificamente, espera-se que momentos como a média e a função de covariância não dependam do tempo absoluto, mas apenas do intervalo entre os tempos considerados. Esta propriedade, quando estendida a todas as distribuições finito-dimensionais do processo, caracteriza o que se denomina estacionariedade estrita.
Definição 1.5 (Processo Estritamente Estacionário). Seja \(\{X_t\}_{t\, \in\, T}\) um processo estocástico com conjunto de índices \(T \subseteq \mathbb{R}\). Diz-se que \(\{X_t\}_{t\, \in\, T}\) é estritamente estacionário se, para todo inteiro \(n \geqslant 1\), para todo vetor de instantes \(t_1, \dots, t_n \in T\) e para todo deslocamento \(h \in \mathbb{R}\) tal que \(t_i + h \in T\) para todo \(i\), a distribuição conjunta do vetor aleatório \((X{t_1}, \dots, X_{t_n})\) coincide com a distribuição conjunta de \((X_{t_1 + h}, \dots, X_{t_n + h})\).
Na prática, contudo, a verificação da estacionariedade estrita mostra-se frequentemente inviável, uma vez que exige o conhecimento integral das distribuições conjuntas de todas as ordens do processo. Em virtude dessa limitação, adota-se com frequência uma versão mais fraca do conceito, denominada estacionariedade em sentido amplo (ou covariância-estacionariedade), a qual impõe restrições apenas aos dois primeiros momentos — a média e a função de autocovariância. Essa noção, de caráter menos exigente do ponto de vista probabilístico, será formalmente definida a seguir.
Definição 1.6 (Processo Estacionário em Sentido Amplo). Seja \(\{X_t\}_{t\, \in\, T}\) um processo estocástico com conjunto de índices \(T \subseteq \mathbb{R}\). Diz-se que \(\{X_t\}_{t\, \in\, T}\) é estacionário em sentido amplo (ou covariância-estacionário, ou ainda fracamente estacionário) se, para todos os instantes \(s, t \in T\), são satisfeitas as seguintes condições:
\(E[X_t] = \mu\), constante para todo \(t \in T\) (isto é, o processo possui média constante ao longo do tempo);
\(\operatorname{Var}(X_t) < \infty\) (o processo apresenta variância finita e constante);
A função de autocovariância depende apenas da defasagem \(h = |t - s|\), ou seja, \[\begin{align}\\ \gamma(t, s) = \operatorname{Cov}(X_t, X_s) = \gamma(h)\\\\ \end{align}\] caracterizando invariância da estrutura de segunda ordem por translação no tempo.
Exemplo 1.13 (Ruído Branco). O ruído branco é o exemplo mais simples de processo estocástico estacionário em sentido amplo. Trata-se de uma sequência de variáveis i.i.d com média nula e variância constante. Mais formalmente, o processo \(\{X_t\}_{t \ \in \ T}\), com \(T \subseteq \mathbb{R}\) (ou \(\mathbb{Z}\), no caso discreto), é dito ruído branco quando: \[\begin{align}\\ X_t \overset{\text{i.i.d.}}{\sim} \mathcal{N}(0, \sigma^2)\\\\ \end{align}\]
para algum \(\sigma^2 > 0\). Esse processo satisfaz automaticamente as condições de estacionariedade em sentido amplo: (i) a média é constante e igual a zero, (ii) a variância é constante e finita, igual a \(\sigma^2\), e (iii) a função de autocovariância é nula para quaisquer dois instantes distintos, ou seja, \(\gamma(h) = 0\) para \(h \neq 0\) e \(\gamma(0) = \sigma^2\). Em virtude da independência entre os termos da sequência, a ausência de memória temporal torna o ruído branco um processo não-correlacionado, embora estacionário. No contexto da modelagem estocástica, o ruído branco desempenha papel central como componente de inovações ou perturbações aleatórias em processos mais complexos, como nos modelos autorregressivos (AR), de médias móveis (MA) ou de processos contínuos como o de Ornstein–Uhlenbeck.
O Código 1.10 ilustra, em linguagem R, a geração de uma sequência de \(n = 200\) observações de um processo de ruído branco gaussiano com média zero e desvio-padrão unitário, por meio da função rnorm
. O vetor gerado é interpretado como uma realização da trajetória do processo \({X_t}\) ao longo de um tempo discreto \(t = 1, 2, \dots, 200\). Por fim, a Figura 1.16 apresenta a trajetória simulada do processo de ruído branco. Observa-se que as flutuações do processo se dão de modo aleatório, sem qualquer tendência de retorno a um valor de equilíbrio, refletindo a ausência de dependência temporal entre as observações. A invariância ao longo do tempo, evidenciada pela constância da variância e pela estabilidade da média em torno de zero, reforça a caracterização do ruído branco como processo estacionário em sentido amplo.
Código 1.10. Implementação numérica de um ruído branco gaussiano com média zero e desvio-padrão unitário.
## --------------------------------------------------
## Simulação de Trajetória de Ruído Branco Gaussiano
## --------------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(1) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 200 # Número de Observações
n <- 0 # Média do Processo
media <- 1 # Desvio-Padrão do Processo
dp <- 1:n # Grade Temporal
tempo
# --- 3. Simulação da Trajetória ---
<- rnorm(n, mean = media, sd = dp) # Geração do Ruído Branco
X
# --- 4. Organização dos Dados ---
<- data.frame(tempo = tempo, X = X)
df_rb
# --- 5. Visualização Gráfica ---
ggplot(df_rb, aes(x = tempo, y = X)) +
geom_line(color = "steelblue", alpha = 0.8) +
geom_point(color = "gray30", size = 1.2) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(X[t])) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.14 (Processo de Média Móvel de Ordem 1 - MA(1)). O processo de média móvel de ordem 1, denotado por MA(1), constitui uma classe de modelos estocásticos para modelar séries temporais com dependência linear de curto prazo. Neste modelo, cada observação da série é expressa como uma combinação linear do termo de ruído branco atual e de um único termo defasado. Formalmente, um processo MA(1) é definido por: \[\begin{align}\\ X_t = Z_t + \theta Z_{t-1},\\\\ \end{align}\] em que \(\{Z_t\}\) \(\{Z_t\}\) é uma sequência de variáveis aleatórias i.i.d., com \(Z_t \sim \mathcal{N}(0, \sigma^2)\), representando o ruído branco, e \(\theta \in \mathbb{R}\) é o parâmetro do modelo que controla a intensidade e o sinal da dependência entre os instantes \(t\) e \(t-1\). Um dos atributos fundamentais do processo MA(1) é sua estacionariedade em sentido amplo (ou covariância-estacionariedade), resultante de sua construção. Tal característica implica que as propriedades estatísticas do processo — como média, variância e autocovariância — são invariantes no tempo, dependendo unicamente da defasagem temporal entre as observações, e não do instante absoluto em que ocorrem. Dessa forma, para o processo MA(1) observamos:
- Média constante: Como o processo é uma soma linear de variáveis centradas, a média de \(X_t\) é nula para todo \(t\), ou seja, \[\begin{align}\\ E[X_t] = 0, \quad \forall t \in T\\\\ \end{align}\]
- Variância constante: A variância de \(X_t\) é dada por: \[\begin{align}\\ \operatorname{Var}(X_t) = \operatorname{Var}(Z_t + \theta Z_{t-1}) = \sigma^2 (1 + \theta^2)\\\\ \end{align}\] que é constante e independente do tempo \(t\), confirmando a homocedasticidade do processo.
- Autocovariância dependente unicamente da defasagem: A função de autocovariância satisfaz:
\[\begin{align}\\ \gamma(t, s) = \operatorname{Cov}(X_t, X_s) = \gamma(h), \quad h = |t - s|\\\\ \end{align}\] Especificamente, para o processo MA(1), temos: \[\begin{align}\\ \begin{cases} \gamma(0) = \operatorname{Var}(X_t) = \sigma^2 (1 + \theta^2) \\[6pt] \gamma(1) = \operatorname{Cov}(X_t, X_{t-1}) = \theta \sigma^2 \\[6pt] \gamma(h) = 0, \quad h > 1 \end{cases}\\\\ \end{align}\]
Este comportamento ressalta que a dependência temporal no MA(1) é restrita à vizinhança imediata, tornando o processo adequado para modelar séries temporais com correlação limitada a defasagens pequenas. O Código 1.11 ilustra, em linguagem R, a simulação de uma sequência de \(n = 200\) observações de um processo MA(1) com parâmetro \(\theta = 0.8\) e ruído branco gaussiano padrão, gerado por meio da função rnorm
. A construção do processo é realizada pela combinação linear dos ruídos atuais e defasados, conforme \(X_t = Z_t + \theta Z_{t-1}\), onde \(\{Z_t\}\) representa uma sequência i.i.d. com média zero e variância unitária. A série resultante é interpretada como uma trajetória do processo \(\{X_t\}\) no tempo discreto \(t = 1, 2, \ldots, 200\). A Figura 1.17 apresenta a trajetória simulada do processo MA(1), destacando a presença de dependência temporal de curto alcance, evidenciada pela suavização das flutuações em relação ao ruído branco.
Código 1.11. Implementação numérica de um processo MA(1) com parâmetro \(\theta = 0.8\) e ruído branco gaussiano padrão, utilizando combinação linear de ruídos atuais e defasados.
## ------------------------------------------
## Simulação de Trajetória do Processo MA(1)
## ------------------------------------------
# --- 0. Pacotes Necessários ---
library(ggplot2)
# --- 1. Configurações Iniciais ---
set.seed(2) # Semente (Reprodutibilidade da Simulação)
# --- 2. Parâmetros do Modelo ---
<- 200 # Número de Observações
n <- 0.8 # Parâmetro do Processo MA(1)
theta
# --- 3. Simulação do Processo MA(1) ---
<- rnorm(n + 1) # Ruído Branco Padrão
Z <- Z[2:(n + 1)] + theta * Z[1:n] # Definição do MA(1)
X
# --- 4. Organização dos Dados ---
<- data.frame(tempo = 1:n, X = X)
df
# --- 5. Visualização Gráfica ---
ggplot(df, aes(x = tempo, y = X)) +
geom_line(color = "red") +
geom_point(color = "darkred", size = 1.5) +
geom_hline(yintercept = 0, linetype = "dashed", color = "gray40") +
labs(title = "",
x = "Tempo (t)",
y = expression(X[t])) +
theme_minimal() +
theme(axis.title.x = element_text(margin = margin(t = 10)),
axis.title.y = element_text(margin = margin(r = 10)))
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Na prática, a verificação empírica da estacionariedade de um processo recorre a abordagens como, por exemplo, os testes de raiz unitária. Esses testes são desenvolvidos para identificar a presença de raízes unitárias na série temporal, cuja existência caracteriza a não estacionariedade do processo. Dentre os procedimentos mais aplicados na literatura, destacam-se:
Teste de Dickey-Fuller Aumentado (ADF), que avalia a hipótese nula de existência de raiz unitária contra a alternativa de estacionariedade.
Teste KPSS (Kwiatkowski–Phillips–Schmidt–Shin), cujo objetivo é complementar o ADF, testando a hipótese nula de estacionariedade contra a alternativa de raiz unitária.
Exemplo 1.15. Considere o processo \(\{X_t\}\) definido como um passeio aleatório, isto é, uma sequência de variáveis aleatórias em que cada valor é obtido pela soma acumulada de incrementos independentes e identicamente distribuídos, com média zero e variância constante. Formalmente, esse processo pode ser representado pela relação recursiva:
\[\begin{align}\\ X_t = X_{t-1} + \epsilon_t\\\\ \end{align}\]
em que \(\epsilon_t \sim \mathcal{N}(0, \sigma^2)\) são ruídos independentes e identicamente distribuídos. Uma questão importante é determinar se \(\{X_t\}\) possui uma raiz unitária, o que implicaria na não-estacionariedade do processo. Para esse fim, emprega-se o Teste ADF, cuja hipótese nula é a presença de raiz unitária — isto é, a não-estacionariedade do processo. A interpretação do teste baseia-se no valor-p: um valor-p elevado indica a não-rejeição da hipótese nula, sugerindo que o processo é não-estacionário. Por outro lado, valores-p baixos levam à rejeição da hipótese nula, indicando evidências de estacionariedade. O Código 1.12 ilustra, em linguagem R, este exemplo considerando a simulação de uma sequência de \(n = 200\) observações de um passeio aleatório definido pela soma acumulada de ruídos gaussianos independentes e identicamente distribuídos, com média zero e variância constante.
Código 1.12. Simulação numérica de um passeio aleatório com ruído branco gaussiano padrão e aplicação do Teste ADF para verificação da estacionariedade.
## ------------------------------------------------------------
## Teste de Dickey-Fuller Aumentado (ADF) em Passeio Aleatório
## ------------------------------------------------------------
# --- 0. Pacotes Necessários ---
library(tseries)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente (Para Reprodutibilidade)
# --- 2. Simulação do Passeio Aleatório ---
<- 200
n <- rnorm(n) # Incrementos ~ N(0,1)
eps <- cumsum(eps) # Definição do Passeio Aleatório
X_rw
# --- 3. Aplicação do Teste ADF ---
adf.test(X_rw) # Teste de Raiz Unitária (H₀: não-estacionário)
Augmented Dickey-Fuller Test
data: X_rw
Dickey-Fuller = -2.2954, Lag order = 5, p-value = 0.4524
alternative hypothesis: stationary
O valor-p obtido foi de 0.4524, o qual é significativamente superior ao nível de significância usual de 5%. Isto é, não se rejeita a hipótese nula do teste ADF, a qual postula a presença de uma raiz unitária no processo. Tal resultado fornece evidência empírica de que o passeio aleatório \(X_t\) caracteriza-se como um processo não-estacionário, o que é esperado visto que a variância de um passeio aleatório cresce ao longo do tempo.
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]
Exemplo 1.16. Considere o processo \({X_t}\) definido por uma estrutura autoregressiva de primeira ordem, isto é, um processo AR(1). Este tipo de processo é estacionário em sentido amplo se o valor absoluto da raiz do polinômio característico associado à equação da autoregressão estiver fora do círculo unitário, o que equivale a exigir que \(|\phi| < 1\). A forma funcional do processo AR(1) é dada por: \[\begin{align}\\ X_t = \phi X_{t-1} + \epsilon_t\\\\ \end{align}\] em que \(\epsilon_t \sim \mathcal{N}(0, \sigma^2)\) representa um ruído branco gaussiano, com média zero, variância constante e independência temporal. Neste exemplo, será gerada uma simulação de um processo AR(1) com \(n = 800\) observações e parâmetro \(\phi = 0{.}7\), o qual satisfaz a condição de estacionariedade. Em seguida, será aplicado o Teste KPSS, que tem como hipótese nula a estacionariedade do processo. Diferentemente do Teste ADF, o teste KPSS rejeita a hipótese nula em favor da alternativa de que o processo apresenta uma tendência estocástica. Assim, valores-p elevados indicam suporte à hipótese de estacionariedade, enquanto valores-p baixos sugerem não estacionariedade. O procedimento, em linguagem R, está disposto no Código 1.13.
Código 1.13. Simulação de um processo AR(1) estacionário com \(\phi = 0{.}7\) e aplicação do Teste KPSS para verificação empírica da estacionariedade.
## -----------------------------------------------------------------
## Teste KPSS (Kwiatkowski–Phillips–Schmidt–Shin) em Processo AR(1)
## -----------------------------------------------------------------
# --- 0. Pacotes Necessários ---
library(tseries)
library(urca)
# --- 1. Configurações Iniciais ---
set.seed(123) # Semente para Reprodutibilidade
# --- 2. Simulação do Processo AR(1) Estacionário ---
<- 800
n <- 0.7 # Coeficiente AR dentro da região estacionária
phi <- arima.sim(list(ar = phi), n = n)
X_stationary
# --- 3. Aplicação do Teste KPSS ---
kpss.test(X_stationary) # Teste de Estacionariedade (H₀: estacionário)
KPSS Test for Level Stationarity
data: X_stationary
KPSS Level = 0.07519, Truncation lag parameter = 6, p-value = 0.1
Com um valor-p de 0.10, que é relativamente elevado em comparação a um nível de significância usual de 5%, não se rejeita a hipótese nula de que o processo é estacionário. Isso indica que o processo AR(1) gerado, com \(\phi = 0.7\) é, de fato, estacionário.
\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]