3.6 Variáveis Aleatórias Discretas
3.6.1 Definição
Uma variável aleatória (v.a.) é uma transformação (função) de \(\Omega\) em \(\mathbb{R}^n\), formalmente \(X: \Omega \rightarrow \mathbb{R}^n\). Isto significa que os resultados dos experimentos aleatórios são transformados em números, ou em um característico numérico conforme (James 2010, 35). Sendo uma variável aleatória \(X\), \(R_{X}\) é o conjunto de todos os possíveis valores de \(X\), chamado contradomínio. Uma variável aleatória discreta é tal que \(R_{X}\) é contável.
Exemplo 3.29 (Variável aleatória discreta) Considere o espaço amostral definido no Exemplo 3.17. Suponha que haja interesse na variável aleatória ‘soma dos pontos’, denotada por \(S\). Desta forma \[S(\left\lbrace (1,1) \right\rbrace) = 1+1 = 2, \ldots, S(\left\lbrace (6,6) \right\rbrace) = 6+6 = 12,\] o contradomínio é \(R_{S} = \left\lbrace 2,3, \ldots, 12 \right\rbrace\) e \(|R_{S}|=11\).
Exercício 3.13 Considere a v.a. do Exemplo 3.17. Defina os contradomínios das seguintes variáveis aleatórias:
- \(D\): ‘diferença dos pontos’.
- \(P\): ‘produto dos pontos’.
- \(Q\): ‘quociente dos pontos’.
3.6.2 Distribuição de probabilidade discreta
Seja \(X\) uma variável aleatória discreta, onde para cada ponto de \(R_{X}\) associa-se uma função (massa de) probabilidade \(p(x) = P(X=x)\), satisfazendo \(p(x) \ge 0\) para todo \(x\) e \(\sum_{x \in R_{X}} p(x) = 1\).
Exemplo 3.30 (Probabilidade com v.a. discreta) Suponha dois lançamentos consecutivos de uma moeda equilibrada. O espaço amostral é \(\Omega = \left\lbrace HH,HT,TH,TT \right\rbrace\), onde \(H\) representa resultado ‘cara’ e \(T\) ‘coroa’. Se a variável aleatória de interesse é \(X\): ‘número de caras em 2 lançamentos’, então \[X(\left\lbrace TT \right\rbrace)=0, \;\; X(\left\lbrace TH,HT \right\rbrace)=1, \;\; X(\left\lbrace HH \right\rbrace)=2\] e o contradomínio é \(R_{X} = \left\lbrace 0,1,2 \right\rbrace\). As probabilidades são \[ p(0) = P(X=0)=P(\left\lbrace TT \right\rbrace) = \frac{1}{2} \times \frac{1}{2} =\frac{1}{4}, \] \[ p(1) = P(X=1)=P(\left\lbrace TH,HT \right\rbrace)= \left( \frac{1}{2} \times \frac{1}{2} \right) + \left( \frac{1}{2} \times \frac{1}{2} \right) = \frac{2}{4} = \frac{1}{2}, \] \[ p(2) = P(X=2)=P(\left\lbrace HH \right\rbrace)=\frac{1}{2} \times \frac{1}{2} =\frac{1}{4}. \] Note que \(\sum_{x=0}^{2} p(x) = p(0)+p(1)+p(2) = \frac{1}{4}+\frac{2}{4}+\frac{1}{4}=1\).
Exercício 3.14 Obtenha as distribuições de probabilidade:
Exercício 3.15 Considere o Exemplo 3.30.
- Refaça para três lançamentos.
- Refaça para quatro lançamentos.
- Refaça para \(n\) lançamentos.
3.6.3 Valor esperado
O valor esperado de uma variável aleatória discreta \(X\) é dada por
\[\begin{equation} E\left[ X \right] = \sum_{x} x \cdot p(x) \tag{3.41} \end{equation}\]
O valor esperado de uma função \(g(X)\) é dada por
\[\begin{equation} E\left[ g(X) \right] = \sum_{x} g(x) \cdot p(x) \tag{3.42} \end{equation}\]
Exemplo 3.31 (Valor esperado de v.a. discretas \(X\) e \(X^2\)) Do Exemplo 3.30 pode-se calcular \[ E(X) = 0 \times \frac{1}{4} + 1 \times \frac{2}{4} + 2 \times \frac{1}{4} = 1. \] Este resultado era esperado dada a simetria da distribuicão. A esperança de \(g(X) = X^2\) é dada por \[ E(X^2) = 0^2 \times \frac{1}{4} + 1^2 \times \frac{2}{4} + 2^2 \times \frac{1}{4} = \frac{3}{2} = 1.5. \]
3.6.4 Variância e desvio padrão
A variância de uma variável aleatória discreta \(X\) é dada por
\[\begin{equation} V(X) = E( \left[ X - E(X) \right] ^2) = E(X^2) - \left[ E(X) \right] ^2 \tag{3.43} \end{equation}\]
O desvio padrão de uma variável aleatória discreta \(X\) é dado por
\[\begin{equation} D(X) = \sqrt{V(X)} \tag{3.44} \end{equation}\]
Exemplo 3.32 (Variância e desvio padrão de uma v.a. discreta) Do Exemplo 3.31 pode-se calcular \[ V(X) = \frac{3}{2} - 1^2 = \frac{1}{2} = 0.5\] \[ D(X) = \sqrt{0.5} \approx 0.7071 \]
Exercício 3.16 Calcule \(E(X)\), \(E(X^2)\), \(V(X)\) e \(D(X)\)
3.6.4.1 Propriedades
- (Linearidade) \(E(aX+bY+c) = aE(X)+bE(Y)+c\).
- (Linearidade) \(E(\sum X_i) = \sum E(X_i)\).
- \(X\) e \(Y\) independentes \(\implies\) \(E(XY)=E(X)E(Y)\).
- \(V(X+a) = V(X)\).
- \(V(aX) = a^2 V(X)\).
- \(X\) e \(Y\) independentes \(\implies Cov(XY)=0\), onde \(Cov(X,Y)\) é a covariância de \(X\) e \(Y\) (Eq. (7.2)).
- \(V(aX \pm bY) = a^2 V(X) + b^2 V(Y) \pm 2 \, ab \, Cov(X,Y)\).
- \(V(X) = E(V[X|Y]) + V(E[X|Y])\).
- (Identidade de Bienaymé) \(V(\sum_{i=1}^n X_i) = \sum_{i=1}^n V(X_i) + \sum_{i,j=1 \\ i\ne j}^n Cov(X_i,X_j) = \sum_{i,j=1}^n Cov(X_i,X_j)\).