Capítulo 4


Processos de Poisson



“La vie n’est bonne qu’à deux choses: à faire des mathématiques et à les professer.”



– François Arago in Notices Biographiques, 1854



4.1. Introdução


Apesar do nome, o denominado “processo de Poisson” não foi originalmente descoberto por Siméon-Denis Poisson (1781 – 1840), sendo seu caso comumente citado como uma ilustração da chamada Lei de Stigler (Merton e Gieryn 1982) — a qual postula que nenhuma descoberta científica recebe o nome de seu verdadeiro autor. O nome atribuído ao processo decorre, na realidade, de sua relação com a distribuição de Poisson, a qual foi de fato derivada por Poisson como um caso limite da distribuição binomial, descrevendo a probabilidade associada à soma de \(n\) ensaios de Bernoulli. Tal formulação fornece a base probabilística que confere ao processo de Poisson uma estrutura particularmente adequada para modelar fenômenos nos quais eventos ocorrem de forma aleatória, isolada e esparsa ao longo do tempo ou do espaço. Alguns exemplos ilustrativos incluem:


  • (I) Chegadas Telefônicas: O número de chamadas recebidas por uma central telefônica ao longo de um intervalo de tempo pode ser adequadamente modelado por um processo de Poisson, desde que as chamadas ocorram de forma independente, com uma taxa constante \(\lambda\), e sem coincidência temporal entre eventos. Em contextos mais realistas, nos quais a intensidade de chegada varia ao longo do tempo — por exemplo, em função da hora do dia —, é necessário recorrer a uma generalização do modelo conhecida como processo de Poisson não-homogêneo.

  • (II) Detecção de Fótons: Em experimentos de natureza física, o número de fótons detectados por um sensor em um intervalo fixo de tempo é frequentemente bem modelado por um processo de Poisson, assumindo-se que as detecções ocorrem de forma independente e aleatória, com taxa constante ao longo do tempo.

  • (III) Distribuição Espacial de Estrelas: Na astrofísica, a contagem de estrelas em volumes disjuntos do espaço pode ser adequadamente modelada por um processo de Poisson tridimensional, sob a suposição de que as quantidades observadas em diferentes regiões são estatisticamente independentes e que a densidade média de estrelas permanece constante ao longo do espaço considerado.


No entanto, o desenvolvimento conceitual e terminológico dos processos pontuais foi ampliado posteriormente. Destaca-se, nesse contexto, a contribuição do engenheiro sueco Conny Palma, que, em sua dissertação de 1943, investigou tanto o processo de Poisson quanto outros processos de ponto no cenário unidimensional, com ênfase nas dependências estatísticas e estocásticas entre os tempos de ocorrência dos eventos. Sua obra introduz, de forma pioneira, o termo “processo de ponto” (em alemão, Punktprozesse), representando um marco na formalização moderna desses modelos. A seguir, apresentam-se alguns exemplos de contextos nos quais o processo de Poisson constitui uma modelagem apropriada. Este texto aborda os fundamentos teóricos do processo de Poisson, suas propriedades matemáticas, principais generalizações e aplicações em diversos contextos científicos.


4.2. Definição Matemática


O processo de Poisson, denotado por \(\{N_t\}_{t \ \geqslant \ 0}\), é um processo estocástico em tempo contínuo, definido sobre o domínio temporal \(T = [0, \infty)\), e com espaço de estados discreto \(\mathcal{E} = \mathbb{N} = \{0, 1, 2, \ldots\}\). Para cada instante \(t \geqslant 0\), a variável aleatória \(N_t\) representa o número total de eventos ocorridos até o tempo \(t\). Esse processo caracteriza-se pela independência dos incrementos e pela homogeneidade temporal, isto é, o número de eventos ocorridos em intervalos de tempo disjuntos é independente, e a distribuição do número de eventos em um intervalo depende apenas do comprimento desse intervalo, não do seu posicionamento no tempo.


Definição 4.1 (Processo de Poisson Homogêneo - Poisson 1837; Last e Penrose 2018). Um processo estocástico em tempo contínuo \(\{N_t\}_{t \ \geqslant \ 0}\), definido sobre um espaço amostral \(\Omega\), com espaço de estados \(\mathcal{E} = \mathbb{N}\), é chamado processo de Poisson homogêneo (ou, simplesmente, processo de Poisson) se, para todo evento elementar \(\omega \in \Omega\), a trajetória \(t \mapsto N_t(\omega)\) satisfaz as seguintes propriedades:


  • (I) Condição Inicial: \(N_0(\omega) = 0\) para todo \(\omega \in \Omega\).
  • (II) Monotonicidade: A trajetória \(t \mapsto N_t(\omega)\) é não decrescente; ou seja, para quaisquer \(0 \leqslant s \leqslant t\), tem-se \(N_s(\omega) \leqslant N_t(\omega)\).
  • (III) Trajetórias por Saltos Unitários: O processo evolui apenas por saltos de tamanho unitário, isto é, \(N_t(\omega)\) é constante entre os saltos e, quando ocorre uma transição, o incremento é igual a 1.
  • (IV) Regularidade das Trajetórias: As trajetórias são contínuas à direita e admitem limite à esquerda em todo ponto \(t \geqslant 0\) (isto é, são funções càdlàg).
  • (V) Incrementos Independentes: Para quaisquer \(0 \leqslant t_0 < t_1 < \cdots < t_n\), os incrementos \(N_{t_1} - N_{t_0}, N_{t_2} - N_{t_1}, \dots, N_{t_n} - N_{t_{n-1}}\) são mutuamente independentes.
  • (VI) Incrementos Estacionários: A distribuição de \(N_{t+s} - N_t\) depende apenas do comprimento \(s\) do intervalo, ou seja, para todo \(t \geqslant 0\) e \(s > 0\), tem-se que: \[\begin{align}\\ \mathrm{P}(N_{t+s} - N_t = k) = \mathrm{P}(N_s = k), \quad \forall k \in \mathbb{N} \end{align}\]


Considere, agora, uma realização do processo de Poisson \(\{N_t\}_{t \ \geqslant \ 0}\) com taxa \(\lambda = 1\), tal que \(N_t = 20\) para algum instante \(t > 0\), assumindo-se que não ocorrem eventos simultâneos. Uma possível trajetória simulada do processo está ilustrada na Figura 4.1, que se apresenta como uma função escada: o número acumulado de eventos, representado por \(N_t\), permanece constante entre as ocorrências, sofrendo saltos unitários nos instantes em que os eventos ocorrem. Além disso, o número de eventos que ocorrem no intervalo \((t, t+s]\), com \(s \geqslant 0\), é dado por \(N_{t+s} - N_t\). Devido às propriedades de independência dos incrementos, essa quantidade é independente do histórico do processo até o instante \(t\), ou seja, da trajetória \(\{N_u : u \leqslant t\}\).


Figura 4.1.. Realização de um Processo de Poisson Homogêneo com λ = 1.


Embora a definição do processo de Poisson não imponha explicitamente uma forma para a distribuição das variáveis \(N_t\), tais distribuições são inteiramente determinadas pelas propriedades fundamentais que caracterizam o processo. A seguir, apresenta-se uma sequência de proposições que conduzem, de maneira sistemática, à dedução da distribuição de \(N_t\).


Proposição 4.1. Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson. Então, existe uma constante \(\lambda \geqslant 0\), denominada intensidade do processo, tal que a probabilidade de não ocorrência de eventos até o instante \(t\) é dada por:

\[\begin{align}\\ \mathrm{P}(N_t = 0) = e^{-\lambda t}\\\\ \end{align}\]

para todo \(t > 0\).


Demonstração. Seja o evento \(\{N_{t+s} = 0\}\) tal que:

\[\begin{align}\\ \{N_{t+s} = 0\} = \{N_{t} = 0, N_{t + s} - N_{t} = 0\}\\\\ \end{align}\]

Logo, independência e estacionariedade dos incrementos, tem-se que:

\[\begin{align}\\ \mathrm{P}(N_{t+s} = 0) &= \mathrm{P}(N_t = 0, N_{t+s} - N_t = 0) \\\\ &= \mathrm{P}(N_t = 0)\mathrm{P}(N_{t+s} - N_t = 0)\\\\ &= \mathrm{P}(N_t = 0)\mathrm{P}(N_{s} = 0)\\\\ \end{align}\]

Considere a função \(f(u) = \mathrm{P}(N_u = 0)\), que representa a probabilidade de não ocorrência de eventos até o instante \(u \geqslant 0\). Com base nas propriedades de incrementos independentes e estacionários do processo de Poisson, tem-se que \(f\) satisfaz a equação funcional de Cauchy (Cauchy 1821):

\[\begin{align}\\ f(s+t) = f(s)f(t), \qquad \forall s, t \geqslant 0\\\\ \end{align}\]

que tem como soluções \(f(t) = e^{-\lambda t}\) para algum \(\lambda \in \mathbb{R}\), ou \(f(t) = 0\) para todo \(t \geqslant 0\). No contexto do processo de Poisson, no entanto, a função \(f\) não pode ser identicamente nula. De fato, suponha, por absurdo, que \(f(t) = 0\) para todo \(t \geqslant 0\). Isso implicaria que, para qualquer \(t > 0\), tem-se \(\mathrm{P}(N_t \geqslant 1) = 1\), ou seja, ao menos um evento ocorre quase certamente até o instante \(t\). Para explorar as implicações dessa hipótese, divida o intervalo \([0, t]\) em \(n\) subintervalos de mesmo comprimento \(t/n\) e defina \(t_k = k(t/n)\), para \(k = 1, 2, \dots, n\). Como os incrementos do processo de Poisson são independentes e estacionários, podemos expressar \(N_t\) como a soma de \(n\) incrementos:

\[\begin{align}\\ N_t = (N_t - N_{t_{n-1}}) + (N_{t_{n-1}} - N_{t_{n-2}}) + \cdots + (N_{t_1} - N_0)\\\\ \end{align}\]

Pela suposição de que \(\mathrm{P}(N_t \geqslant 1) = 1\) para todo \(t > 0\), cada termo da soma acima satisfaz:

\[\begin{align}\\ \mathrm{P}(N_{t_k} - N_{t_{k-1}} \geqslant 1) = 1\\\\ \end{align}\]

implicando que \(\mathrm{P}(N_t \geqslant n) = 1\). Como tal conclusão é válida para qualquer \(n \in \mathbb{N}\), segue que \(\mathrm{P}(N_t = \infty) = 1\). No entanto, isso viola uma propriedade fundamental do processo de Poisson: por construção, \(N_t\) é uma variável aleatória que assume valores em \(\mathbb{N}\) — isto é, o espaço de estados do processo é \(\mathcal{E} = \mathbb{N}\), e não inclui o infinito. O valor \(N_t = \infty\) não pertence ao espaço de estados, o que tornaria a definição interna do processo inconsistente. Portanto, a hipótese de que \(f(t) = 0\) para todo \(t \geqslant 0\) leva a uma contradição, e conclui-se que a única solução admissível para \(f\) é:

\[\begin{align}\\ f(t) = \mathrm{P}(N_t = 0) = e^{-\lambda t}\\\\ \end{align}\]

para algum \(\lambda \in \mathbb{R}\). Para verificar que \(\lambda \geqslant 0\), observe-se que, devido à monotonicidade do processo de Poisson, para quaisquer \(t, s \geqslant 0\) vale a inclusão:

\[\begin{align}\\ \{N_{t+s} = 0\} \subseteq \{N_t = 0\}\\\\ \end{align}\]

o que implica que:

\[\begin{align}\\ f(t+s) = \mathrm{P}(N_{t+s} = 0) \leqslant \mathrm{P}(N_t = 0) = f(t)\\\\ \end{align}\]

Portanto, a função \(f\) é não crescente, condição que impõe \(\lambda \geqslant 0\). Em particular, o caso limite \(\lambda = 0\) corresponde a uma situação degenerada, na qual \(f(t) \equiv 1\) para todo \(t \geqslant 0\), isto é, \(\mathrm{P}(N_t = 0) = 1\) para todo \(t\), o que significa que nenhum evento ocorre em nenhum instante de tempo com probabilidade 1, ou seja, \(N_t = 0\) para todo \(t \geqslant 0\) quase certamente. Portanto, conclui-se que a intensidade do processo, denotada por \(\lambda\), deve ser estritamente positiva, isto é, \(\lambda > 0\).

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

Proposição 4.2. Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson com intensidade \(\lambda > 0\). Então, a probabilidade de ocorrência de dois ou mais eventos em um intervalo infinitesimal de tempo é assintoticamente desprezível em relação à duração do intervalo. Mais precisamente,

\[\begin{align}\\ \lim_{t \to 0} \left\{\frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\right\} = 0\\\\ \end{align}\]

Essa propriedade expressa, em particular, a impossibilidade de múltiplas ocorrências simultâneas, caracterizando o processo de Poisson como um processo simples e não explosivo, no qual o número esperado de eventos permanece finito em qualquer intervalo de tempo finito, isto é, \(\mathrm{E}(N_t) < \infty\) para todo \(t \geqslant 0\).


Demonstração. Seja \(h(t) = \mathrm{P}(N_t \geqslant 2)\) a função que associa a cada instante \(t > 0\) a probabilidade de ocorrência de dois ou mais eventos até o tempo \(t\). Com base na propriedade de incrementos independentes e estacionários do processo de Poisson, tem-se que o conjunto \(\{N_t \geqslant 2\}\) está contido no conjunto \(\{N_{t+s} \geqslant 2\}\) para todo \(s > 0\), isto é,

\[\begin{align}\\ \{N_t \geqslant 2\} \subseteq \{N_{t+s} \geqslant 2\}\\\\ \end{align}\]

o que implica que \(h\) é uma função não decrescente\(h(t) \leqslant h(t + s)\). Nosso objetivo é mostrar que:

\[\begin{align}\\ \lim_{t \to 0} \left\{\frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\right\} = \lim_{t \to 0} \left\{\frac{h(t)}{t}\right\} = 0\\\\ \end{align}\]

Para isso, fixe \(t > 0\) arbitrário e defina:

\[\begin{align}\\ n_t = \max\left\{n \in \mathbb{N}: n < \frac{1}{t} \right\}\\\\ \end{align}\]

de modo que \(t < 1/n_t\) e, reciprocamente, \(1/t < n_t + 1\). Como \(h\) é não decrescente, segue que:

\[\begin{align}\\ h(t) \leqslant h\left( \frac{1}{n_t} \right)\\\\ \end{align}\]

Portanto,

\[\begin{align}\\ 0\leqslant \frac{1}{t} \, h(t) \leqslant \frac{1}{t} \, h\left( \frac{1}{n_t} \right) \leqslant (n_t + 1) \, h\left( \frac{1}{n_t} \right) = n_t h \, \left( \frac{n_t + 1}{n_t} \right) \left( \frac{1}{n_t} \right)\\\\ \end{align}\]

Como \(t \to 0\) implica \(n_t \to \infty\), e \((n_t + 1)/(n_t) \to 1\), basta mostrar que

\[\begin{align}\\ \lim_{n \to \infty} n h\left( \frac{1}{n} \right) = 0\\\\ \end{align}\]

Para isso, divida o intervalo \([0, 1]\) em \(n\) subintervalos disjuntos de comprimento \(1/n\) e defina por \(S_n\) o número de subintervalos que contêm dois ou mais eventos. Neste caso, a probabilidade de um subintervalo conter pelo menos dois eventos é precisamente \(h(1/n)\), e, como o processo possui incrementos independentes, \(S_n\) é uma variável aleatória com distribuição binomial com parâmetros \(n\) e \(h(1/n)\), isto é,

\[\begin{align}\\ S_n \sim \mathrm{Binomial}\left(n, h\left(\dfrac{1}{n}\right)\right)\\\\ \end{align}\]

Portanto, o valor esperado de \(S_n\) é dado por:

\[\begin{align}\\ \mathrm{E}[S_n] = n h\left( \frac{1}{n} \right)\\\\ \end{align}\]

Observe que, para \(n\) suficientemente grande, os subintervalos \([k/n, (k+1)/n]\) tornam-se suficientemente pequenos para conter no máximo um evento com alta probabilidade. Assim, para uma realização \(\omega\) do processo de Poisson, \(S_n(\omega) = 0\) para \(n\) suficientemente grande, isto é,

\[\begin{align}\\ \lim_{n \to \infty} S_n(\omega) = 0\\\\ \end{align}\]

Agora, usando o fato de que \(\mathrm{E}(N_t) < \infty\) para todo \(t \geqslant 0\), que implica que \(\mathrm{E}[N_1] < \infty\), e o fato de que \(S_n \leqslant N_1\), tem-se que:

\[\begin{align}\\ \lim_{n \to \infty} \mathrm{E}[S_n] = \mathrm{E} \left[ \lim_{n \to \infty} S_n \right] = 0\\\\ \end{align}\]

e, portanto,

\[\begin{align}\\ \lim_{n \to \infty} n h\left( \frac{1}{n} \right) = \lim_{n \to \infty} \mathrm{E}[S_n] = 0\\\\ \end{align}\]

como queríamos demonstrar.

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

Proposição 4.3. Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson com intensidade \(\lambda > 0\). Então, a probabilidade de ocorrência de exatamente um evento em um intervalo infinitesimal de tempo é assintoticamente proporcional à duração do intervalo, com constante de proporcionalidade igual à intensidade do processo. Mais precisamente,

\[\begin{align}\\ \lim_{t \to 0} \left\{\frac{1}{t} \, \mathrm{P}(N_t = 1)\right\} = \lambda\\\\ \end{align}\]

Este resultado, em particular, expressa a taxa com que eventos isolados ocorrem no processo à medida que o intervalo de tempo considerado se torna arbitrariamente pequeno.


Demonstração. Observe que, para todo \(t > 0\),

\[\begin{align}\\ \mathrm{P}(N_t = 1) = 1 - \mathrm{P}(N_t = 0) - \mathrm{P}(N_t \geqslant 2)\\\\ \end{align}\]

Então, dividindo ambos os lados por \(t\), obtém-se:

\[\begin{align}\\ \frac{1}{t} \, \mathrm{P}(N_t = 1) = \frac{1 - e^{-\lambda t}}{t} - \frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\\\\ \end{align}\]

uma vez que \(\mathrm{P}(N_t = 0) = e^{-\lambda t}\) (Proposição 4.1). Assim, tomando o limite quando \(t \to 0\), nota-se que:

\[\begin{align}\\ \lim_{t \to 0} \left\{ \frac{1}{t} \, \mathrm{P}(N_t = 1) \right\} &= \lim_{t \to 0} \left\{\frac{1 - e^{-\lambda t}}{t} - \frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\right\} \\\\ &= \lim_{t \to 0} \left\{\frac{1 - e^{-\lambda t}}{t}\right\} - \lim_{t \to 0} \left\{\frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\right\}\\\\ \end{align}\]

Pela Proposição 4.2, tem-se que:

\[\begin{align}\\ \lim_{t \to 0} \left\{\frac{1}{t} \, \mathrm{P}(N_t \geqslant 2)\right\} = 0\\\\ \end{align}\]

e, pela regra de L’Hôpital, tem-se que: \[\begin{align}\\ \lim_{t \to 0} \left\{\frac{1 - e^{-\lambda t}}{t}\right\} = \lim_{t \to 0} \left\{\lambda e^{-\lambda t}\right\} = \lambda\\\\ \end{align}\]

Portanto,

\[\begin{align}\\ \lim_{t \to 0} \frac{1}{t} \mathrm{P}(N_t = 1) = \lambda\\\\ \end{align}\]

como queríamos demonstrar.

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

Teorema 4.1 (Distribuição do Processo de Poisson). Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson com intensidade \(\lambda > 0\). Então, para todo instante \(t \geqslant 0\) e para todo \(k \in \mathbb{N}\), a variável aleatória \(N_t\) — que representa o número de eventos ocorridos até o tempo \(t\) — segue uma distribuição de Poisson com parâmetro \(\lambda t\), isto é:

\[\begin{align}\\ \mathrm{P}(N_t = k) = \frac{(\lambda t)^k}{k!} e^{-\lambda t}\\\\ \end{align}\]

isto é, \(N_t \sim \mathrm{Poisson}(\lambda t)\). Esse resultado, em particular, expressa que o número de eventos ocorridos no intervalo \([0, t]\) é distribuído segundo uma distribuição Poisson cujo parâmetro é diretamente proporcional à duração do intervalo e à taxa média \(\lambda\) de ocorrência dos eventos — característica que decorre diretamente da propriedade de incrementos estacionários do processo.


Demonstração. Seja \(G(t) = E\left[\alpha^{N_t}\right]\), com \(0 < \alpha < 1\), a função geradora de probabilidades de \(N_t\). Então,

\[\begin{align}\\ G(t) = \sum_{k = 0}^{\infty} \alpha^kP(N_t = k)\\\\ \end{align}\]

Note que, como \(N_{t+s} = N_t + (N_{t+s} - N_t)\) e os incrementos do processo de Poisson são independentes, tem-se:

\[\begin{align}\\ G(t+s) &= E\left[\alpha^{N_{t+s}}\right] \\\\ &= E\left[\alpha^{N_t}\right] E\left[\alpha^{N_{t+s} - N_t}\right] \\\\ &=G(t)G(s)\\\\ \end{align}\]

isto é, \(G\) satisfaz a equação funcional de Cauchy. Como \(G(t) \geqslant \mathrm{P}(N_t = 0) = e^{-\lambda t} > 0\), a solução dessa equação é da forma \(G(t) = e^{tg(\alpha)}, t \geqslant 0\), com \(g(\alpha) = G'(0)\). Agora, dado que \(G(0) = \mathbb{E}[\alpha^{N_0}] = \alpha^0 = 1\), pode-se escrever:

\[\begin{align}\\ g(\alpha) &= \lim_{t \to 0} \left\{\dfrac{1}{t} \, [G(t) - 1]\right\}\\\\ &=\lim_{t \to 0} \left\{\dfrac{1}{t} \, [P(N_t = 0) - 1]\right\} + \lim_{t \to 0} \left\{\dfrac{1}{t} \, [\alpha P(N_t = 1)]\right\} + \lim_{t \to 0} \left\{\dfrac{1}{t} \, \left[\sum_{n=2}^\infty\alpha^n P(N_t = n)\right]\right\} \\\\ \end{align}\]

Pelas Proposições 4.14.3, tem-se que:


  • \(\lim_{t \to 0} \left\{\dfrac{1}{t} \, [P(N_t = 0) - 1]\right\} = -\lambda\)
  • \(\lim_{t \to 0} \left\{\dfrac{1}{t} \, [\alpha P(N_t = 1)]\right\} = \alpha\lambda\)


Como \(0 < \alpha < 1\), tem-se que:

\[\begin{align}\\ \lim_{t \to 0} \left\{\dfrac{1}{t} \, \left[\sum_{n=2}^\infty\alpha^n P(N_t = n)\right]\right\} = 0 \\\\ \end{align}\]

uma vez que:

\[\begin{align}\\ 0 \leqslant \lim_{t \to 0} \left\{\dfrac{1}{t} \, \left[\sum_{n=2}^\infty\alpha^n P(N_t = n)\right]\right\} \leqslant \lim_{t \to 0} \left\{\dfrac{1}{t} \, \left[\sum_{n=2}^\infty P(N_t = n)\right]\right\}\leqslant \lim_{t \to 0} \left\{\dfrac{1}{t} \, P(N_t \geqslant 2)\right\} = 0 \\\\ \end{align}\]

Logo, \(g(\alpha) = -\lambda + \lambda\alpha\), que é a função geradora de probabilidades da distribuição \(\mathrm{Poisson}(\lambda t)\). Portanto, conclui-se que \(N_t \sim \mathrm{Poisson}(\lambda t)\) para todo \(t \geqslant 0\).

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

Corolário 4.1. Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson com intensidade \(\lambda > 0\). Então, para todos os instantes \(t, s \geqslant 0\) e para todo \(k \in \mathbb{N}\), a distribuição do número de eventos ocorridos no intervalo \((t, t + s]\) independe da trajetória do processo até o instante \(t\) e é dada por:

\[\begin{align}\\ \mathrm{P}(N_{t+s} - N_t = k \mid \{N_u, u \leqslant t\}) = \frac{(\lambda s)^k}{k!} e^{-\lambda s}\\\\ \end{align}\]

Esse resultado expressa, de forma explícita, que a quantidade de eventos ocorridos em um intervalo de comprimento \(s\) depende apenas do tamanho do intervalo e não do instante inicial nem do histórico do processo até aquele momento.


Demonstração. Seja \(\{N_t\}_{t \ \geqslant \ 0}\) um processo de Poisson com intensidade \(\lambda > 0\). Note que, por definição, um processo de Poisson possui incrementos independentes, isto é, para quaisquer instantes \(0 \leqslant t_0 < t_1 < \cdots < t_n\), as variáveis \(N_{t_1} - N_{t_0}, \ldots, N_{t_n} - N_{t_{n-1}}\) são mutuamente independentes. Então, aplicando essa propriedade ao intervalo \((t, t+s]\), tem-se que o incremento \(N_{t+s} - N_t\) é independente da trajetória \({N_u : u \leqslant t}\), o que implica:

\[\begin{align}\\ \mathrm{P}(N_{t+s} - N_t = k \mid \{N_u, u \leqslant t\}) = \mathrm{P}(N_{t+s} - N_t = k)\\\\ \end{align}\]

Agora, como \(N_t\) é um processo de Poisson, então a distribuição de \(N_{t+s} - N_t\) depende apenas da duração \(s\) do intervalo, e não do instante inicial \(t\). Mais precisamente, o incremento \(N_{t+s} - N_t\) segue a mesma distribuição que \(N_s\), ou seja:

\[\begin{align}\\ N_{t+s} - N_t \overset d\sim N_s\\\\ \end{align}\]

Pelo Teorema 4.1, tem-se que:

\[\begin{align}\\ \mathrm{P}(N_{s} = k) = \frac{(\lambda s)^k}{k!} e^{-\lambda s}\\\\ \end{align}\]

para todo \(k \in \mathbb{N}\). Portanto,

\[\begin{align}\\ \mathrm{P}(N_{t+s} - N_t = k \mid \{N_u, u \leqslant t\}) &= \mathrm{P}(N_{t+s} - N_t = k) \\\\ &= \mathrm{P}(N_{s} = k) \\\\ &= \frac{(\lambda s)^k}{k!} e^{-\lambda s}\\\\ \end{align}\]

como queríamos demonstrar.

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

4.3. Tempos de Chegadas


Considere um processo de Poisson \({N_t}_{t \geqslant 0}\) com intensidade \(\lambda > 0\), caracterizado por apresentar incrementos independentes e estacionários, com condição inicial \(N_0 = 0\). Suponha que o objetivo agora seja investigar os instantes nos quais os eventos ocorrem, denominados tempos de chegada. Formalmente, define-se o \(n\)-ésimo tempo de chegada como:

\[\begin{align}\\ T_n = \min\{ t \geqslant 0: N_t = n\}, \quad n \geqslant 1\\\\ \end{align}\]

Note que, por construção, tem-se que \(N_{T_n} = n\). Para determinar a distribuição do tempo de chegada \(T_n\), observa-se que conhecer o processo até o instante \(T_n\), isto é, a família de variáveis aleatórias \(\{N_t : t \leqslant T_n\}\), é equivalente a conhecer os tempos de ocorrência dos \(n\) primeiros eventos, representados pelo conjunto \(\{T_1, T_2, \ldots, T_n\}\). Assim, devido à propriedade dos incrementos independentes e estacionários, para quaisquer \(t, s \geqslant 0\) vale que:

\[\begin{align}\\ \mathrm{P}\big( N_{(t, t+s]} = 0 \mid {N_u : u \leqslant t} \big) = \mathrm{P}\big( N_{(t, t+s]} = 0 \big) = e^{-\lambda s}\\\\ \end{align}\]

Essa propriedade estende-se, em particular, aos instantes aleatórios de chegada. Assim, para todo \(n \geqslant 1\) e \(s \geqslant 0\), tem-se:

\[\begin{align}\\ \mathrm{P}\big( N_{(T_n, T_n + s]} = 0 \mid {N_u : u \leqslant T_n} \big) = e^{-\lambda s}\\\\ \end{align}\]

Consequentemente, pode-se escrever que:

\[\begin{align}\\ \mathrm{P}(N_{T_n + s} - N_{T_n} = 0 \mid T_1, T_2, \ldots, T_n) &= \mathrm{P}(N_{T_n + s} - N_{T_n} = 0 \mid {N_u : u \leqslant T_n}) \\\\ &= \mathrm{P}(N_{(T_n, T_n + s]} = 0 \mid {N_u : u \leqslant T_n}) \\\\ &= e^{-\lambda s}\\\\ \end{align}\]

Dessa construção, observe que o evento \(\{N_{T_n + s} - N_{T_n} = 0\}\) é equivalente ao evento \(\{T_{n+1} - T_n > s\}\), uma vez que ambos expressam a ausência de qualquer ocorrência no intervalo \((T_n, T_n + s]\). Define-se, portanto, a sequência dos tempos entre chegadas (interarrival times) por:

\[\begin{align}\\ \{X_n = T_n - T_{n-1}, \quad n \geqslant 1\}\\\\ \end{align}\]

com \(T_0 = 0\). Suponha que nosso objetivo seja determinar a distribuição de \(X_n\). Para isso, observe, inicialmente, que o evento \(\{X_1 > t\}\) ocorre se, e somente se, nenhum evento do processo de Poisson ocorre no intervalo \([0, t]\). Dessa forma:

\[\begin{align}\\ P(X_1 > t) = P(N_t = 0) = e^{-\lambda t}\\\\ \end{align}\]

Portanto, \(X_1\) é uma variável aleatória com distribuição exponencial de parâmetro \(\lambda\), ou seja, \(X_1 \sim \mathrm{Exponencial}(\lambda)\), com média \(1/\lambda\). Para obter a distribuição de \(X_2\), condicionamos no valor de \(X_1\), o que resulta em:

\[\begin{align}\\ \mathrm{P}(X_2 > t \mid X_1 = s) &= \mathrm{P}(\text{nenhum evento em } (s, s + t] \mid X_1 = s) \\\\ &= \mathrm{P}(\text{nenhum evento em } (s, s + t]) \quad \text{(independência dos incrementos)} \\\\ &= e^{-\lambda t} \quad \text{(incrementos estacionários)}\\\\ \end{align}\]

Logo, \(X_2\) também é uma variável exponencial com média \(1/\lambda\), e é independente de \(X_1\). Esse raciocínio, naturalmente, pode ser estendido de forma recursiva para qualquer \(n \geqslant 1\), levando à conclusão de que a sequência \(\{X_n\}_{n \ \geqslant \ 1}\) é composta por variáveis aleatórias independentes e identicamente distribuídas, todas com distribuição exponencial de parâmetro \(\lambda\), isto é,

\[\begin{align}\\ X_n \overset{\text{i.i.d.}}{\sim} \mathrm{Exponencial}(\lambda), \quad \forall n \geqslant 1\\\\ \end{align}\]

Este fato decorre diretamente das propriedades de incrementos independentes e estacionários do processo de Poisson, que implicam que, a partir de qualquer ponto no tempo, o processo “reinicia” probabilisticamente: a partir de qualquer ponto, sua evolução futura é independente do passado (devido à independência dos incrementos) e possui a mesma distribuição do processo original (devido à estacionariedade). Em outras palavras, trata-se de um processo sem memória, no qual o tempo até o próximo evento não depende do passado, o que justifica, de forma natural, a distribuição exponencial dos tempos entre chegadas.


4.4. Distribuiçao Condicional dos Tempos de Chegada


Considere, agora, que se sabe que exatamente um evento de um processo de Poisson ocorreu até o instante \(t\), e deseja-se determinar a distribuição do tempo no qual esse evento ocorreu. Como o processo de Poisson possui incrementos estacionários e independentes, é razoável supor que cada subintervalo de mesmo comprimento contido em \([0, t]\) tenha a mesma probabilidade de conter o evento. Isto é, espera-se que o tempo do evento esteja uniformemente distribuído em \([0, t]\). Essa suposição pode ser verificada diretamente, pois, para \(s \leqslant t\), tem-se que:

\[\begin{align}\\ P(X_1 < s \mid N_t = 1) &= \dfrac{P(X_1 < s, N_t = 1)}{P(N_t = 1)}\\\\ &=\frac{\mathrm{P}(\text{1 evento em } [0, s),\ 0 \text{ eventos em } [s, t))}{\mathrm{P}(N(t) = 1)}\\\\ &= \frac{\mathrm{P}(1 \text{ evento em } [0, s)) \cdot \mathrm{P}(0 \text{ eventos em } [s, t))}{\mathrm{P}(N(t) = 1)} \\\\ &= \frac{\lambda s e^{-\lambda s} e^{-\lambda (t - s)}}{\lambda t e^{-\lambda t}} \\\\ &= \frac{s}{t}\\\\ \end{align}\]

Esse resultado pode ser generalizado, mas, para isso, é necessário introduzir o conceito de estatísticas de ordem. Neste caso, sejam \(Y_1, Y_2, \ldots, Y_n\) um conjunto de variáveis aleatórias. Denominam-se por \(Y_{(1)}, Y_{(2)}, \ldots, Y_{(n)}\) as estatísticas de ordem associadas a \(Y_1, Y_2, \ldots, Y_n\) quando \(Y_{(k)}\) representa o \(k\)-ésimo menor valor entre \(Y_1, \ldots, Y_n\), para \(k = 1, 2, \ldots, n\). Supondo que as variáveis \(Y_i\) sejam contínuas, independentes e identicamente distribuídas com função densidade de probabilidade \(f\), a densidade conjunta das estatísticas de ordem \(Y_{(1)}, Y_{(2)}, \ldots, Y_{(n)}\) é dada por:

\[\begin{align}\\ f(y_1, y_2, \ldots, y_n) = n! \cdot \prod_{i=1}^n f(y_i) \\\\ \end{align}\]

com \(y_1 < y_2 < \cdots < y_n\). Tal resultado decorre do fato de que:


  • (I) o vetor ordenado \((Y_{(1)}, Y_{(2)}, \ldots, Y_{(n)})\) assume o valor \((y_1, y_2, \ldots, y_n)\) se, e somente se, o vetor original \((Y_1, Y_2, \ldots, Y_n)\) assumir uma das \(n!\) permutações de \((y_1, y_2, \ldots, y_n)\);
  • (II) a densidade de probabilidade de que \((Y_1, Y_2, \ldots, Y_n)\) seja igual a \((y_1, y_2, \ldots, y_n)\) é dada por \(\prod_{i=1}^n f(y_{\tau_n(i)})\), quando \((y_{\tau_n(1)}, y_{\tau_n(2)}, \ldots, y_{\tau_n(n)})\) é uma permutação de \((y_1, y_2, \ldots, y_n)\).


A partir desse resultado, no caso em que \(Y_i \sim \mathrm{Uniforme}(0, t)\), para \(i = 1, \ldots, n\), conclui-se que a função densidade conjunta das estatísticas de ordem \(Y_{(1)}, Y_{(2)}, \ldots, Y_{(n)}\) é dada por:

\[\begin{align}\\ f(y_1, y_2, \ldots, y_n) = \frac{n!}{t^n}, \qquad 0 < y_1 < y_2 < \cdots < y_n < t\\\\ \end{align}\]

Essa ideia conduz ao seguinte teorema.


Teorema 4.2. Dado que \(N_t = n\), os tempos de chegada \(T_1, T_2, \ldots, T_n\) possuem a mesma distribuição das estatísticas de ordem de \(n\) variáveis aleatórias independentes e identicamente distribuídas, uniformes no intervalo \((0, t)\).


Demonstração. Para determinar a função densidade condicional conjunta dos tempos de chegada \(T_1, T_2, \ldots, T_n\) condicionados ao evento \(N_t = n\), considere uma sequência de pontos ordenados \(0 < t_1 < t_2 < \cdots < t_n < t\) e, para cada \(i = 1, \ldots, n\), sejam \(h_i > 0\) suficientemente pequenos tais que \(t_i + h_i < t_{i+1}\), para \(i = 1, \ldots, n\). Então,

\[\begin{align}\\ P(t_i < T_i < t_i + h_i \mid N_t = n) &= \dfrac{P(\text{exatamente 1 evento em } [t_i, t_i + h_i], \text{nenhum evento fora de $[0, t]$})}{P(N_t = n)}\\\\ &= \frac{\lambda h_1 e^{-\lambda h_1} \cdots \lambda h_n e^{-\lambda h_n} \cdot e^{-\lambda (t - h_1 - \ldots - h_n)}}{(\lambda t)^n e^{-\lambda t}/n!} \\\\ &= \frac{n!}{t^n} h_1 h_2 \cdots h_n\\\\ \end{align}\]

Dividindo ambos os lados por \(h_1 h_2 \cdots h_n\) e tomando o limite quando \(h_i \to 0\), obtém-se que a densidade condicional conjunta de \((T_1, \ldots, T_n)\) dado que \(N_t = n\) é dada por:

\[\begin{align}\\ f_{T_1, \ldots, T_n \mid N_t = n}(t_1, \ldots, t_n) = \frac{n!}{t^n}, \quad 0 < t_1 < t_2 < \cdots < t_n\\\\ \end{align}\]

o que completa a demonstração.

\[\small \begin{align} \tag*{$\blacksquare$}\\\\ \end{align}\]

Suponha, agora, que, em um processo de Poisson com taxa \(\lambda\), cada evento seja classificado como do tipo I ou do tipo II, sendo que a probabilidade de um evento ser do tipo I depende do instante em que ele ocorre. De forma mais precisa, se um evento ocorre no tempo \(s\), ele é classificado como tipo I com probabilidade \(P(s)\), e como tipo II com probabilidade \(1 - P(s)\), independentemente dos demais eventos. Isso nos leva ao seguinte resultado.


Proposição 4.4. Seja \(N_{i_t}\) o número de eventos do tipo \(i\) que ocorrem até o tempo \(t\), para \(i = 1, 2\). Então, \(N_{1_t}\) e \(N_{2_t}\) são variáveis aleatórias de Poisson independentes, com médias dadas, respectivamente, por \(\lambda p\) e \(\lambda (1 - p)\), em que:

\[\begin{align}\\ p = \int_0^t P(s) \, ds \end{align}\]


Demonstração. Para prova este resultado, calcula-se, inicialmente, a distribuição conjunta de \(N_{1_t}\) e \(N_{2_t}\) condicionando em \(N_t\), isto é,

\[\begin{align}\\ P(N_{1_t} = n, N_{2_t} = m) &= \sum_{k=0}^\infty P(N_{1_t} = n, N_{2_t} = m \mid N_t = k) P(N_t = k) \\\\ &= P(N_{1_t} = n, N_{2_t} = m \mid N_t = n + m) P(N_t = n + m)\\\\ \end{align}\]

Considere um evento arbitrário ocorrido no intervalo \([0, t]\). Se ele ocorreu no instante \(s\), a probabilidade de que seja do tipo I é \(P(s)\). Pelo Teorema 4.2, esse evento ocorre em um tempo uniformemente distribuído em \((0, t)\), logo, a probabilidade de ser do tipo I é descrita por:

\[\begin{align}\\ p = \frac{1}{t} \int_0^t P(s) \, ds\\\\ \end{align}\]

independentemente dos demais eventos. Assim, a probabilidade condicional \(P(N_{1_t} = n, N_{2_t} = m \mid N_t = n + m)\) corresponde à probabilidade de obter \(n\) sucessos e \(m\) fracassos em \(n + m\) ensaios independentes, com probabilidade de sucesso \(p\) em cada ensaio, ou seja,

\[\begin{align}\\ P(N_{1_t} = n, N_{2_t} = m \mid N_t = n + m) = \binom{n+m}{n} p^n (1-p)^m\\\\ \end{align}\]

Portanto,

\[\begin{align}\\ P(N_{1_t} = n, N_{2_t} = m) &= \dfrac{(n+m)!}{n!m!} p^n (1-p)^m e^{-\lambda t} \frac{(\lambda t)^{n+m}}{(n+m)!}\\\\ &= e^{-\lambda p} \dfrac{(\lambda t p)^n}{n!}e^{-\lambda t(1-p)} \dfrac{[\lambda t (1-p)]^n}{m!} \end{align}\]

o que completa a demonstração.

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

4.5. Tempos de Espera


Outra quantidade de interesse em processos de Poisson é \(S_n\), definido como o instante exato em que ocorre o \(n\)-ésimo evento do processo. Esse tempo é também conhecido como o tempo de espera (waiting time) até a ocorrência desse \(n\)-ésimo evento. Intuitivamente, \(S_n\) representa o tempo acumulado desde o início do processo até o momento em que o evento número \(n\) acontece. Formalmente, tem-se que:

\[\begin{align}\\ S_n = \sum_{i = 1}^n X_i\\\\ \end{align}\]

onde as variáveis aleatórias \(X_i\) representam os tempos entre chegadas — isto é, os tempos decorrido entre o \((i-1)\)-ésimo e o \(i\)-ésimo evento. Essas variáveis \(X_i\), em particular, são independentes e identicamente distribuídas (i.i.d), cada uma com distribuição exponencial de parâmetro \(\lambda\). Portanto, \(S_n\) é a soma de \(n\) variáveis exponenciais independentes e idênticas, o que implica que \(S_n\) possui distribuição gama com parâmetros \(n\) (forma) e \(\lambda\) (taxa), cuja função densidade de probabilidade é dada por:

\[\begin{align}\\ f(t) = \lambda e^{-\lambda t} \frac{(\lambda t)^{n-1}}{(n-1)!}, \quad t \geqslant 0\\\\ \end{align}\]

Esse resultado também pode ser obtido a partir da observação de que o \(n\)-ésimo evento ocorre até o instante \(t\) se, e somente se, o número de eventos ocorridos até \(t\) for ao menos \(n\). Ou seja, \(N_t \geqslant n\) se e somente se \(S_n \leqslant t\), e portanto \(\mathrm{P}(S_n \leqslant t) = \mathrm{P}(N_t \geqslant n)\), o que, ao ser derivado em relação a \(t\), fornece a função densidade de \(S_n\). Outra forma de obter essa densidade é recorrer à hipótese de incrementos independentes, observando que (Ross 1995):

\[\begin{align}\\ \mathrm{P}(t < S_n < t + dt) &= \mathrm{P}(N_t = n - 1,\ \text{1 evento em } (t, t + dt)) + o(dt) \\\\ &= \mathrm{P}(N_t = n - 1)\ \mathrm{P}(\text{1 evento em } (t, t + dt)) + o(dt) \\\\ &= e^{-\lambda t} \frac{(\lambda t)^{n - 1}}{(n - 1)!} \cdot \lambda dt + o(dt) \\\\ \end{align}\]

onde \(o(dt)\) representa os termos que são desprezíveis frente a \(dt\) na vizinhança de zero, ou seja, termos cuja magnitude é infinitamente menor do que \(dt\) quando \(dt \to 0\). Ao dividir por \(dt\) e tomar o limite quando \(dt \to 0\), esses termos desaparecem, conduzindo novamente à densidade da distribuição gama.

4.6. Processo de Poisson Não-Homogêneo


Nesta seção, será ilustrada uma generalização do processo de Poisson homogêneo na qual a taxa de chegada de eventos no instante \(t\) é permitida variar ao longo do tempo. Em outras palavras, substitui-se a constante de intensidade \(\lambda > 0\) do modelo homogêneo por uma função determinística \(\lambda(t)\), definida para todo \(t \geqslant 0\).


Definição 4.2 (Processo de Poisson Não-Homogêneo - Ross 1995). Um processo estocástico em tempo contínuo \(\{N_t\}_{t \ \geqslant \ 0}\) com espaço de estados \(\mathcal{E} = \mathbb{N}\), é chamado processo de Poisson não-homogêneo (ou não-estacionário) se satisfaz as seguintes propriedades:


  • (I) Condição Inicial: \(N_0 = 0\)
  • (II) Incrementos Independentes: Para quaisquer \(0 \leqslant t_0 < t_1 < \cdots < t_n\), os incrementos \(N_{t_1} - N_{t_0}, N_{t_2} - N_{t_1}, \dots, N_{t_n} - N_{t_{n-1}}\) são mutuamente independentes.
  • (III) Probabilidade de Múltiplos Eventos: \(\mathrm{P}(N_{t + h} - N_t \geqslant 2) = o(h)\), isto é, a probabilidade de múltiplos eventos em um intervalo infinitesimal é desprezível em comparação com \(h\), no sentido de que \(o(h)\) denota uma função tal que \(\displaystyle\lim_{h \to 0} \frac{o(h)}{h} = 0\).
  • (IV) Probabilidade de um Único Evento: \(\mathrm{P}(N_{t + h} - N_t = 1) = \lambda(t)h + o(h)\), isto é, a probabilidade de exatamente um evento ocorrer no intervalo infinitesimal \((t, t + h)\) é proporcional ao comprimento \(h\) do intervalo, com fator de proporcionalidade dado por \(\lambda(t)\).


Na Definição 4.2, a função \(\lambda(t)\), denominada função de intensidade (ou taxa de chegada), é uma função determinística definida para \(t \geqslant 0\), que expressa a taxa instantânea esperada de ocorrência de eventos no instante \(t\); sua possível variação ao longo do tempo é o que caracteriza a natureza não-homogênea do processo. Em particular, se for definida a função acumulada de intensidade (também denominada função de compensador) por:

\[\begin{align}\\ m(t) = \int_0^t \lambda(s) \, ds\\\\ \end{align}\]

então, para quaisquer instantes \(s, t \geqslant 0\) e para todo \(n \in \mathbb{N}\), o incremento \(N_{t + s} - N_t\) segue uma distribuição de Poisson com média \(m(t + s) - m(t)\), isto é,

\[\begin{align}\\ \mathrm{P}(N_{t + s} - N_t = n) = \dfrac{[m(t + s) - m(t)]^n}{n!}\cdot e^{m(t)-m(t + s)}\\\\ \end{align}\]

A importância do processo de Poisson não-homogêneo reside na remoção da exigência de incrementos estacionários, o que possibilita modelar cenários em que a probabilidade de ocorrência de eventos varia ao longo do tempo, sendo maior em determinados períodos e menor em outros. Quando a função de intensidade \(\lambda(t)\) é limitada superiormente por uma constante \(\Lambda > 0\), pode-se interpretar o processo não-homogêneo como uma amostragem aleatória (thinning) extraída de um processo de Poisson homogêneo com intensidade \(\Lambda\). Especificamente, seja \(\Lambda\) tal que:

\[\begin{align}\\ \lambda(t) \leqslant \Lambda, \quad\forall t \geqslant 0\\\\ \end{align}\]

e considere um processo de Poisson com intensidade \(\Lambda\). Agora, suponha que cada evento desse processo, ocorrido no instante \(t\), seja contado com probabilidade \(\lambda(t)/\Lambda\). Então, o processo formado pelos eventos contabilizados é um processo de Poisson não-homogêneo com função de intensidade \(\lambda(t)\). De fato,

\[\begin{align}\\ \mathrm{P}(\text{um evento contabilizado em } (t, t + h)) &= \mathrm{P}(\text{um evento em } (t, t + h)) \cdot \frac{\lambda(t)}{\Lambda} + o(h) \\\\ &= \Lambda h \cdot \frac{\lambda(t)}{\Lambda} + o(h) \\\\ &= \lambda(t)h + o(h)\\\\ \end{align}\]

A interpretação do processo de Poisson não-homogêneo como uma amostragem aleatória (thinning) realizada a partir de um processo de Poisson homogêneo fornece uma perspectiva alternativa para a compreensão da estrutura desse processo. Mais especificamente, ao considerar que o processo não-homogêneo pode ser obtido por uma seleção probabilística dependente do tempo dos eventos de um processo homogêneo com taxa maior, é possível derivar a distribuição de \(N_t\) através da propriedade de mistura e independência do processo base, evidenciando que a contagem acumulada no tempo \(t\) mantém a distribuição de Poisson com parâmetro igual à integral da função de intensidade até \(t\).

4.7. Simulação dos Processos de Poisson


Esta seção apresenta os métodos clássicos e rigorosos para a simulação dos processos de Poisson homogêneo e não-homogêneo, ressaltando os fundamentos matemáticos e as propriedades probabilísticas que sustentam tais algoritmos.


(I) Processo de Poisson Homogêneo


Considere o processo de Poisson homogêneo \(\{N_t\}_{t \ \geqslant \ 0}\) com intensidade \(\lambda > 0\), caracterizado por incrementos independentes e estacionários. Por definição, os tempos entre eventos, denotados aqui por \(\{W_i\}_{i \ \geqslant \ 1}\), são variáveis aleatórias independentes e identicamente distribuídas segundo a distribuição exponencial de parâmetro \(\lambda\). Para simular este processo, dois métodos podem ser utilizados: tempos intereventos e simulação direta.


Algoritmo 4.1 (Simulação por Tempos Intereventos)


Por este método, a simulação do processo consiste na geração sucessiva dos tempos de ocorrência dos eventos, denotados por \({S_n}{n \in \mathbb{N}}\), por meio da soma acumulada dos tempos entre eventos, isto é, \[\begin{align}\\ S_n = \sum_{i=1}^n W_i\\\\ \end{align}\] onde cada \(W_i\) é gerado como \(W_i = -(1/\lambda)\ln(U_i)\) (via a transformada inversa da função de distribuição acumulada), com \(U_i\) sendo variáveis aleatórias independentes e uniformes no intervalo \((0,1)\). O procedimento é repetido até que \(S_n\) ultrapasse o horizonte temporal de interesse \(T > 0\). O número total de eventos ocorridos até o tempo \(T\) é, portanto, dado por: \[\begin{align}\\ N_T = \max\{n : S_n \leqslant T\}\\\\ \end{align}\]


Algoritmo 4.2 (Simulação Direta do Número de Eventos)


Uma alternativa ao método anterior baseia-se na propriedade de que, para um processo de Poisson homogêneo com intensidade \(\lambda > 0\), o número total de eventos em um intervalo fixo \([0,T]\) segue a distribuição de Poisson com parâmetro \(\lambda T\): \[\begin{align}\\ N_T \sim \mathrm{Poisson}(\lambda T)\\\\ \end{align}\] Após a geração do número total de eventos \(N_T\), os instantes de ocorrência são amostrados condicionalmente como variáveis aleatórias independentes com distribuição uniforme no intervalo \([0,T]\). Formalmente, se \(N_T = n\), então os tempos dos eventos são: \[\begin{align}\\ T_1, \dots, T_n \sim \mathrm{i.i.d.} \ \mathrm{Uniform}(0, T)\\\\ \end{align}\]


O Código 4.1 implementa, em linguagem R, a simulação de duas trajetórias independentes do processo de Poisson homogêneo \(\{N_t\}_{t \geqslant 0}\) em um intervalo \([0,T]\), com intensidade constante \(\lambda = 2\) e tempo máximo \(T = 10\). A primeira trajetória é gerada por meio do método dos tempos intereventos, utilizando a propriedade de que os tempos entre eventos seguem distribuição exponencial com parâmetro \(\lambda\). A segunda trajetória é obtida pelo método direto, baseado na distribuição de Poisson para o número total de eventos, cujos instantes de ocorrência são sorteados condicionalmente como variáveis aleatórias uniformes no intervalo \([0,T]\). Para efeito de comparação, ambas as simulações utilizam a mesma semente pseudoaleatória. A Figura 4.2 apresenta graficamente as trajetórias acumuladas do número de eventos ao longo do tempo, permitindo verificar empiricamente a equivalência em distribuição entre os dois métodos de geração.


Código 4.1. Simulação em R de duas trajetórias de um processo de Poisson homogêneo com intensidade \(\lambda = 2\) no intervalo \([0,10]\), utilizando os métodos dos tempos intereventos e da contagem total seguida de amostragem uniforme.

## -------------------------------------------
## Simulação de Processo de Poisson Homogêneo 
## -------------------------------------------

# --- 0. Pacotes Necessários ---

library(ggplot2)
library(patchwork)

# --- 1. Configurações Iniciais ---

set.seed(123)
lambda      <- 2
tempo_max   <- 10

# --- 2. Método 1: Tempos Intereventos (Exponencial) ---

t           <- 0
eventos_exp <- c()

while (t < tempo_max)
{
  w         <- rexp(1, rate = lambda)
  t         <- t + w
  if (t < tempo_max) eventos_exp <- c(eventos_exp, t)
}

# --- 3. Método 2: Número de Eventos e Uniforme ---

n_count        <- rpois(1, lambda * tempo_max)
eventos_count  <- sort(runif(n_count, 0, tempo_max))

# --- 4. Dados Para Gráfico Escada (Método 1) ---

df_poisson_exp    <- data.frame(tempo    = eventos_exp,
                                contagem = seq_along(eventos_exp))

df_horizontal_exp <- data.frame(x    = c(0, eventos_exp),
                                xend = c(eventos_exp, tempo_max),
                                y    = c(0, seq_along(eventos_exp)),
                                yend = c(0, seq_along(eventos_exp)))

df_vertical_exp   <- data.frame(x    = eventos_exp,
                                xend = eventos_exp,
                                y    = seq_along(eventos_exp) - 1,
                                yend = seq_along(eventos_exp))

# --- 5. Dados Para Gráfico Escada (Método 2) ---

df_poisson_count    <- data.frame(tempo    = eventos_count,
                                  contagem = seq_along(eventos_count))

df_horizontal_count <- data.frame(x    = c(0, eventos_count),
                                  xend = c(eventos_count, tempo_max),
                                  y    = c(0, seq_along(eventos_count)),
                                  yend = c(0, seq_along(eventos_count)))

df_vertical_count   <- data.frame(x    = eventos_count,
                                  xend = eventos_count,
                                  y    = seq_along(eventos_count) - 1,
                                  yend = seq_along(eventos_count))

# --- 6. Visualização Gráfica ---

g1        <- ggplot() +
                geom_segment(data = df_horizontal_exp,
                             aes(x = x, xend = xend, y = y, yend = yend),
                             color = "#1f77b4", linewidth = 0.5) +
                geom_segment(data = df_vertical_exp,
                             aes(x = x, xend = xend, y = y, yend = yend),
                             color = "gray50", linetype = "dashed", linewidth = 0.5) +
                geom_point(data = df_poisson_exp,
                           aes(x = tempo, y = contagem),
                           color = "#1f77b4", size = 1.5) +
                geom_hline(yintercept = 0, linetype = "dashed",
                           color = "gray40", linewidth = 0.5) +
                labs(title = "",
                     x = "Tempo", y = "Número de Eventos") +
                theme_minimal(base_size = 10) +
                theme(axis.title.x = element_text(margin = margin(t = 10)),
                      axis.title.y = element_text(margin = margin(r = 10)))
              
g2        <- ggplot() +
                geom_segment(data = df_horizontal_count,
                             aes(x = x, xend = xend, y = y, yend = yend),
                             color = "#ff7f0e", linewidth = 0.5) +
                geom_segment(data = df_vertical_count,
                             aes(x = x, xend = xend, y = y, yend = yend),
                             color = "gray50", linetype = "dashed", linewidth = 0.5) +
                geom_point(data = df_poisson_count,
                           aes(x = tempo, y = contagem),
                           color = "#ff7f0e", size = 1.5) +
                geom_hline(yintercept = 0, linetype = "dashed",
                           color = "gray40", linewidth = 0.5) +
                labs(title = "",
                     x = "Tempo", y = "Número de Eventos") +
                theme_minimal(base_size = 10) +
                theme(axis.title.x = element_text(margin = margin(t = 10)),
                      axis.title.y = element_text(margin = margin(r = 10)))

# Lado a lado
g1 + g2


Figura 4.2.. Trajetórias simuladas de um processo de Poisson homogêneo com intensidade \(\lambda = 2\) no intervalo [0,10], utilizando os métodos dos tempos intereventos (painel esquerdo) e da contagem total seguida de amostragem uniforme (painel direito).

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]

(II) Processo de Poisson Não-Homogêneo


O processo de Poisson não-homogêneo \(\{N_t\}_{t \ \geqslant \ 0}\) é definido por uma função de intensidade \(\lambda(t)\), assumindo valores não-negativos para todo \(t \geqslant 0\). A variabilidade temporal da intensidade impede o uso direto dos métodos do processo homogêneo, exigindo procedimentos específicos para sua simulação, como o método de thinning.


Algoritmo 4.3 (Método do Thinning de Lewis e Shedler - Lewis e Shedler 1979)


Este método, em particular, baseia-se na construção do processo a partir de um processo de Poisson homogêneo com intensidade \(\Lambda\) que “domina” a função intensidade variável \(\lambda(t)\), isto é, satisfaz a condição: \[\begin{align}\\ \Lambda \geqslant \sup_{t \ \in \ [0,T]} \lambda(t)\\\\ \end{align}\]

O procedimento para a simulação consiste nos seguintes passos:

  • (I) Simulação do Processo Base: Simula-se um processo de Poisson homogêneo \({N^{(\Lambda)}_t}\) com intensidade \(\Lambda\) no intervalo temporal \([0,T]\), utilizando um dos métodos previamente descritos para processos homogêneos.

  • (II) Geração dos Eventos Candidatos: Os instantes de ocorrência dos eventos do processo base são registrados como \({T_i}_{i=1}^{N^{(\Lambda)}_T}\), onde \(N^{(\Lambda)}_T\) é o número total de eventos simulados até o tempo \(T\).

  • (III) Aceitação/Rejeição dos Eventos: Para cada instante \(T_i\), gera-se independentemente uma variável aleatória \(U_i \sim \mathrm{Uniform}(0,1)\). O evento é então aceito como parte do processo não-homogêneo se e somente se, \[\begin{align}\\ U_i \leqslant \frac{\lambda(T_i)}{\Lambda}\\\\ \end{align}\] Caso contrário, o evento é rejeitado.

  • (IV) Construção do Processo Não-Homogêneo: A coleção dos eventos aceitos \(\{T_i : U_i \leqslant \lambda(T_i)/\Lambda\}\) constitui a trajetória simulada do processo de Poisson não-homogêneo com função de intensidade \(\lambda(t)\) no intervalo \([0,T]\).


O Código 4.2 apresenta, em linguagem R, a simulação de uma trajetória do processo de Poisson não-homogêneo \({N_t}_{t \geqslant 0}\) no intervalo \([0,T]\), com função de intensidade variável \(\lambda(t) = 2 + \sin\left( \pi t/5 \right)\) e tempo máximo \(T = 10\). A geração dos eventos segue o método de thinning proposto por Lewis e Shedler, no qual o processo não-homogêneo é construído a partir de um processo de Poisson homogêneo de taxa constante \(\Lambda\), superior a \(\lambda(t)\) em todo o intervalo considerado. A cada evento gerado pelo processo homogêneo base, realiza-se uma etapa de aceitação/rejeição com probabilidade proporcional à razão \(\lambda(t)/\Lambda\), resultando em uma amostragem compatível com a intensidade desejada. A Figura 4.3 exibe a trajetória acumulada do número de eventos ao longo do tempo, evidenciando a influência da variabilidade temporal de \(\lambda(t)\) sobre a densidade de eventos simulados.


Código 4.2. Simulação em R de uma trajetória de um processo de Poisson não-homogêneo com função de intensidade \(\lambda(t) = 2 + \sin\left( \pi t/5 \right)\) no intervalo \([0,10]\), utilizando o método de thinning de Lewis e Shedler com cota superior \(\Lambda = 3\).

## ----------------------------------------------------------
## Simulação de Processo de Poisson Não-Homogêneo (Thinning) 
## ----------------------------------------------------------

# --- 0. Pacotes Necessários ---

library(ggplot2)

# --- 1. Configurações Iniciais ---

set.seed(123)
tempo_max     <- 10
lambda_t      <- function(t) 2 + sin(pi * t / 5) # Função de Intensidade Não-Homogênea
Lambda        <- 3 # Cota Superior da Intensidade

# --- 2. Simulação pelo Método de Thinning ---

t             <- 0
eventos_base  <- c()
eventos_nh    <- c()

while (t < tempo_max) 
{
  w           <- rexp(1, rate = Lambda)
  t           <- t + w
  if (t < tempo_max) 
  {
    eventos_base  <- c(eventos_base, t)
    u             <- runif(1)
    if (u <= lambda_t(t) / Lambda)
    {
      eventos_nh  <- c(eventos_nh, t)
    }
  }
}

# --- 3. Dados Para Gráfico Escada ---

df_poisson        <- data.frame(tempo    = eventos_nh,
                                contagem = seq_along(eventos_nh))

df_horizontal     <- data.frame(x    = c(0, eventos_nh),
                                xend = c(eventos_nh, tempo_max),
                                y    = c(0, seq_along(eventos_nh)),
                                yend = c(0, seq_along(eventos_nh)))

df_vertical       <- data.frame(x    = eventos_nh,
                                xend = eventos_nh,
                                y    = seq_along(eventos_nh) - 1,
                                yend = seq_along(eventos_nh))

# --- 4. Visualização Gráfica ---

ggplot() +
  geom_segment(data = df_horizontal,
               aes(x = x, xend = xend, y = y, yend = yend),
               color = "darkgreen", linewidth = 0.5) +
  geom_segment(data = df_vertical,
               aes(x = x, xend = xend, y = y, yend = yend),
               color = "gray50", linetype = "dashed", linewidth = 0.5) +
  geom_point(data = df_poisson,
             aes(x = tempo, y = contagem),
             color = "darkgreen", size = 1.5) +
  geom_hline(yintercept = 0, linetype = "dashed",
             color = "gray40", linewidth = 0.5) +
  labs(x = "Tempo", y = "Número de Eventos") +
  theme_minimal() +
  theme(axis.title.x = element_text(margin = margin(t = 10)),
        axis.title.y = element_text(margin = margin(r = 10)))


Figura 4.3.. Trajetória simulada de um processo de Poisson não-homogêneo com função de intensidade \(\lambda(t) = 2 + \sin(\pi t/5)\) no intervalo [0,10], utilizando o método de thinning de Lewis e Shedler com cota superior \(\Lambda = 3\).

\[\small \begin{align} \tag*{$\blacksquare$}\\\\\\ \end{align}\]