3.7 Distr. Discretas Especiais

Para mais detalhes recomenda-se (Johnson, Kemp, and Kotz 2005). McLaughlin (2016) traz um compêndio de distribuições de probabilidade.

3.7.1 Uniforme discreta \(\cdot \; \mathcal{UD}(a,b)\)

\[\begin{equation} p(x|a,b) = \frac{1}{b-a+1} \tag{3.48} \end{equation}\]

onde \(a\) e \(b\) são inteiros tal que \(b \ge a\).

3.7.2 Binomial \(\cdot \; \mathcal{B}(n,p)\)

Considere um único lançamento de uma moeda que resulta em cara (\(H\)) ou coroa (\(T\)). Seja \(Pr(\{ H \})=p\) e \(Pr(\{ T \})=1-p\). Este é um ensaio de Bernoulli. Suponha agora \(n\) lançamentos independentes da mesma moeda, e seja \(X\) o número de faces cara resultantes nos \(n\) lançamentos independentes. \(X\) é uma variável aleatória (com distribuição) (de probabilidade) binomial de parâmetros \(n\) e \(p\), denotado por \(X \sim \mathcal{B}(n,p)\). A função massa de probabilidade é

\[\begin{equation} p(x|n,p) = Pr(X=x) = {n \choose x}p^{x}(1-p)^{n-x} \tag{3.49} \end{equation}\]

onde \(n \in \mathbb{N}, p \in \left[ 0,1 \right]\), \(x \in \left\lbrace 0, \ldots, n \right\rbrace\) e \({n \choose x}\) é definido pela Eq. (3.19).

A esperança e variância são dadas por

\[\begin{equation} E(X)=np \tag{3.50} \end{equation}\]

\[\begin{equation} V(X)=np(1-p) \tag{3.51} \end{equation}\]

Exemplo 3.26 (Binomial) Suponha \(n=10\) lançamentos de uma moeda com \(p=0.7\). Assim, \[ X \sim \mathcal{B}(10,0.7),\] \[ p(x) = Pr(X=x) = {10 \choose x} 0.7^{x} 0.3^{10-x}, \] \[ E(X)=10 \times 0.7 = 7, \] \[ V(X)=10 \times 0.7 \times 0.3 = 2.1. \] %\[ D(X) = \sqrt{2.1} \approx 1.449138. \]

barplot(dbinom(0:10, 10, 0.7), main = 'B(10,0.7)', names.arg = 0:10)

3.7.3 Binomial Negativa \(\cdot \; \mathcal{BN}(k,p)\)

Considere novamente o lançamento de uma moeda que resulta em cara (\(H\), sucesso) ou coroa (\(T\), fracasso) onde \(Pr(\{ H \})=p\) e \(Pr(\{ T \})=1-p\). Seja \(X\) o ‘número de fracassos até o \(s\)-ésimo sucesso’. \(X\) é uma variável aleatória com distribuição binomial negativa de parâmetros \(s\) e \(p\), denotada por \(X \sim \mathcal{BN}(s,p)\), definida por \[\begin{equation} p(x|k,p) = Pr(X=x) = {x+s-1 \choose x}p^{s}(1-p)^{x} \tag{3.52} \end{equation}\]

onde \[ k \in \{1,2,\ldots\}, 0 \le p \le 1, x \in \{0,1,\ldots\} \] e

\[\begin{equation} {x+k-1 \choose x} = C_{x}^{x+k-1} = \frac{{(x+k-1)!}}{{x!(k-1)!}} \tag{3.53} \end{equation}\]

A esperança e variância são dadas por

\[\begin{equation} E(X)=\frac{k(1-p)}{p} \tag{3.54} \end{equation}\]

\[\begin{equation} V(X)=\frac{k(1-p)}{p^2} \tag{3.55} \end{equation}\]

Exemplo 3.27 (Binomial negativa) Uma moeda com \(p=0.6\) é lançada até a obtenção de \(k=4\) caras. \[ X \sim \mathcal{BN}(4,0.6),\] \[ p(x) = Pr(X=x) = {x+3 \choose x} 0.6^{4} 0.4^{x}, \] \[ E(X) = \frac{4 \times (1-0.6)}{0.6} = 2.\bar{6} \] \[ V(X)= \frac{4 \times (1-0.6)}{0.6^2} = 4.\bar{4} \] \[ D(X) = \sqrt{4.\bar{4}} \approx 2.108185. \]

barplot(dnbinom(0:20, 4, 0.6), main = 'BN(4,0.6)', names.arg = 0:20)

As funções dnbinom e suas correspondentes (pbinom, qbinom e rbinom) modelam a variável \(X\) conforme Eq. (3.52). Para formulações alternativas veja este artigo da Wikipedia.

bn <- function(x,k,p){
  choose(x+k-1,x) * p^k * (1-p)^x
}
all.equal(bn(0:20, 4, 0.6), dnbinom(0:20, 4, 0.6))
## [1] TRUE

3.7.4 Poisson \(\cdot \; \mathcal{P}(\lambda)\)

Siméon Denis Poisson abordou a distribuição que leva seu nome considerando o limite de uma sequência de distribuições binominais conforme Equação (3.49), no qual \(n\) tende ao infinito e \(p\) tende a zero enquanto \(np\) permanece finito igual a \(\lambda\) (Poisson 1837). O termo ‘distribuição de Poisson’ (Poisson-Verteilung) foi cunhado por (Bortkewitsch 1898), ainda que Abraham de Moivre tenha derivado esta distribuição mais de um século antes (De Moivre 1718), (De Moivre 1756), (Stigler 1982).

Exemplo 3.28 Considere um pedágio onde passam em média \(\lambda\) veículos por minuto. A v.a. discreta \(X\): ‘número de veículos por minuto’ tem distribuição Poisson de parâmetro \(\lambda\), denotada por \(X \sim \mathcal{P}(\lambda)\), onde \(x \in \left\lbrace 0, 1, 2, \ldots \right\rbrace\) e \(\lambda > 0\).

A função massa de probabilidade é dada por

\[\begin{equation} p(x|\lambda) = Pr(X=x) = \frac{{e^{ - \lambda } \lambda ^x }}{{x!}} \tag{3.56} \end{equation}\]

onde o número de Euler21 tem valor aproximado \(e \approx 2.71828\;18284\;59045\;23536\). A esperança e variância são dadas por \[\begin{equation} E(X)=\lambda \tag{3.57} \end{equation}\]

\[\begin{equation} V(X)=\lambda \tag{3.58} \end{equation}\]

Exemplo 3.29 (Poisson) Considere um pedágio onde passam em média \(\lambda = 2\) veículos por minuto. Assim, \[ X \sim \mathcal{P}(2),\] \[ p(x) = Pr(X=x) = \frac{{e^{- 2} 2^{x} }}{{x!}}, \] \[ E(X)=2, \] \[ V(X)=2. \] \[ D(X) = \sqrt{2} \approx 1.4142. \]

barplot(dpois(0:10, 2), main = 'P(2)', names.arg = 0:10)

Exercício 3.19 Considere a distribuição de Poisson e a função exponencial definida pela série \(\sum_{x=0}^{\infty} \frac{\lambda^x}{x!} = e^\lambda\) (Boros and Moll 2004, 91).
a. Mostre que a função descrita pela Eq. (3.56) é uma função massa de probabilidade.
b. Mostre que \(E(X)\) é dada pela Eq. (3.57).
c. Mostre que \(V(X)\) é dada pela Eq. (3.58).

Solução: Capítulo 8
\(\\\)

3.7.5 Hipergeométrica \(\cdot \; \mathcal{H}(N,R,n)\)

Suponha uma urna com \(N\) bolinhas das quais \(R\) são marcadas com um \(\times\), de onde retira-se uma amostra de \(n\) bolinhas. Seja \(X\) o número de bolinhas marcadas com \(\times\) das \(n\) sorteadas. \(X\) tem distribuição hipergeométrica, denotada por \[ X \sim \mathcal{H}(N,R,n) \] onde \(x \in \{0,1,\ldots,n\}\), \(N \in \{1,2,\ldots\}\), \(R \in \{1,2,\ldots,N\}\), \(n \in \{1,2,\ldots,N\}\). Sua função (massa) de probabilidade é definida por

\[\begin{equation} p(x|N,R,n) = Pr(X=x|N,R,n) = \frac{{R \choose x}{N-R \choose n-x}}{{N \choose n}} \tag{3.59} \end{equation}\]

A esperança e variância são dadas por \[\begin{equation} E(X) = n \frac{R}{N} \tag{3.60} \end{equation}\]

\[\begin{equation} V(X) = n \frac{N-n}{N-1} \frac{R}{N} \left( 1-\frac{R}{N} \right) \tag{3.61} \end{equation}\]

Exemplo 3.30 (Hipergeométrica) Suponha uma urna com \(N=15\) bolinhas, \(R=10\) marcadas com um \(\times\) de onde se retira uma amostra de \(n=7\) bolinhas.

barplot(dhyper(0:7, 10, 5, 7), main = 'H(15,10,7)', names.arg = 0:7)

3.7.6 Bernoulli-Poisson \(\cdot \; \mathcal{BP}(p,\lambda_1,\lambda_2)\)

Uma variável aleatória \(X\) possui distrubuição Bernoulli-Poisson parametrizada por \(p\), \(\lambda_1\) e \(\lambda_2\) se assume distribuição Poisson de taxa \(\lambda_1\) com probabilidade \(p\) e distribuição Poisson de taxa \(\lambda_2\) com probabilidade \(1-p\). Simbolicamente \(X \sim \mathcal{BP}(p,\lambda_1,\lambda_2)\), \(x \in \{ 0,1,\ldots \}\), \(p \in \left[ 0,1 \right]\), \(\lambda_1,\lambda_2 > 0\), i.e.,

\[\begin{equation} X \sim \left\{ \begin{array}{l} \mathcal{P}(\lambda_1) \;\; \text{com probabilidade} \;\; p \\ \mathcal{P}(\lambda_2) \;\; \text{com probabilidade} \;\; 1-p \\ \end{array} \right. \tag{3.62} \end{equation}\]

Sua função massa de probabilidade é

\[\begin{equation} p(x|\lambda_1,\lambda_2) =\frac{e^{-\lambda_1} \lambda_{1}^{x}}{x!} p + \frac{e^{-\lambda_2} \lambda_{2}^{x}}{x!} (1-p) \tag{3.63} \end{equation}\]

Sua esperança e variância são dadas por

\[\begin{equation} E(X) = (\lambda_1 - \lambda_2)p + \lambda_2 \tag{3.64} \end{equation}\]

\[\begin{equation} V(X) = -(\lambda_1 - \lambda_2)^2 p^2 + \left[ (\lambda_1 - \lambda_2)^2 + \lambda_1 - \lambda_2 \right] p + \lambda_2 \tag{3.65} \end{equation}\]

Exercício 3.20 Considere a distribuição Bernoulli-Poisson definida pela Eq. (3.63).
a. Mostre que a função descrita pela Eq. (3.63) é uma função (massa) de probabilidade.
b. Mostre que \(E(X)\) é dada pela Eq. (3.64). Dica: \(\sum_{x=0}^{\infty} \frac{\lambda^x}{x!} = e^\lambda\)
c. Mostre que \(V(X)\) é dada pela Eq. (3.65).

Solução: Capítulo 8
\(\\\)

Referências

Boros, George, and Victor Moll. 2004. Irresistible Integrals: Symbolics, Analysis and Experiments in the Evaluation of Integrals. Cambridge University Press.
Bortkewitsch, L von. 1898. Das Gesetz Der Kleinen Zahlen. Teubner (Leipzig). https://ia803406.us.archive.org/13/items/dasgesetzderklei00bortrich/.
De Moivre, Abraham. 1718. The Doctrine of Chances: Or, a Method of Calculating the Probabilities of Events in Play. 1st ed. London: printe for A. Millar, in the Strand. https://archive.org/details/b30412390.
———. 1756. The Doctrine of Chances: Or, a Method of Calculating the Probabilities of Events in Play. 3rd ed. London: printe for A. Millar, in the Strand. https://archive.org/details/doctrineofchance00moiv.
Johnson, Norman L, Adrienne W Kemp, and Samuel Kotz. 2005. Univariate Discrete Distributions. John Wiley & Sons.
Poisson, Siméon-Denis. 1837. Recherches Sur La Probabilité Des Jugements En Matière Criminelle Et En Matière Civile: Précédées Des règles générales Du Calcul Des Probabilités. Bachelier. https://archive.org/details/bub_gb__8FAjzHfzHgC/mode/2up.
Stigler, Stephen M. 1982. “Poisson on the Poisson Distribution.” Statistics & Probability Letters 1 (1): 33–35. http://www.medicine.mcgill.ca/epidemiology/hanley/statbook/StiglerPoisson.pdf.

  1. Na literatura também pode ser conhecido como número de Napier, constante de Napier/neperiana, entre outras formas. Não confundir com a constante de Euler–Mascheroni \(\gamma \approx 0.57721\;56649\;01532\;86061\).↩︎