Você está na página 1de 3

Esperança e outras Distribuições

1. Definição de esperança

A esperança, expectância, valor esperado ou mediana de uma variável aleatória


é a soma do produto de cada probabilidade de saída da experiencia pelo seu respectivo
valor. Em outras palavras, é o valor médio esperado de uma experiencia se ela for
repetida muitas vezes, o que se encontra através da ponderação dos possíveis
resultados pela probabilidade ou frequência com que aparecem.

Genericamente, podemos definir a esperança de uma variável aleatória discreta


como:

𝐸(𝑋) = ∑ 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 )
𝑖=1

No caso especial em que todos os eventos são igualmente prováveis, teremos


uma média aritmética.

1.1. Características da Esperança

Proposição 1. Se X e Y são variáveis aleatórias discretas de mesma


distribuição, então E(X) será igual a E(Y), caso qualquer um dos lados exista.

2. Linearidade da Esperança

Teorema 1. A linearidade da esperança nos diz que, para quaisquer variáveis


aleatórias discretas X e Y e para qualquer constante C, E(X+Y) = E(X) + E(Y) e E(CX) =
C*E(X).

[Provar as esperanças das distribuições binomial e hipergeométrica usando


linearidade]

3. Distribuições Geométrica e Binomial Negativa

Suponha que queiramos realizar n testes de Bernoulli, cada um com


probabilidade p de sucesso, até que se obtenha o primeiro resultado favorável. Se X for
o número de fracassos até o primeiro sucesso, então X possui uma distribuição
geométrica com parâmetro p, o que se detona por X ~ Geom(p). Para encontrar a PMF,
basta pensar nos testes como uma string de 0s e 1s, tal que, dos n testes, n – 1 são falhas
e um é o sucesso. Dessa forma,

Teorema 3.1. 𝑝(𝑋 = 𝑘) = 𝑞 𝑛−1 𝑝

A esperança geométrica, por sua vez, é dada por


𝐸(𝑥) = ∑ 𝑘𝑞 𝑘 𝑝
𝑘=0

Onde k é o número de falhas apenas.

A distribuição binomial negativa generaliza o resultado da distribuição


geométrica para r sucessos. Assim sendo, sua PMF é

𝑛+𝑟−1 𝑟 𝑛
𝑝(𝑥 = 𝑛) = ( )𝑝 𝑞
𝑟−1

E sua esperança é

𝑞
𝐸(𝑥) = 𝑟 ⋅
𝑝

[Exemplos]

4. Lei do Estatístico Inconsciente

Segundo a LOTUS, se X for uma variável aleatória discreta e g for uma função
real, então

𝐸(𝑔(𝑥)) = ∑ 𝑔(𝑥)𝑃(𝑥 = 𝑥)
𝑥

[Provar]

5. Variância

Diferente da esperança que nos diz o centro de massa da distribuição, a


variância nos mostra a dispersão do conjunto de dados. Isto é, a variância indica o quão
longe em geral os valores encontram-se do valor esperado. Por definição, se X é uma
variável aleatória, então sua Variância é dada por

𝑉𝑎𝑟(𝑥) = 𝐸(𝑥 − 𝐸𝑥)2

Ou

𝑉𝑎𝑟(𝑋) = 𝐸(𝑥 2 ) − [𝐸(𝑥)]2

E seu desvio padrão é

𝑆𝐷(𝑥) = √𝑉𝑎𝑟(𝑥)

[provar as variâncias das distribuições já vistas]

6. Poisson

A distribuição de Poisson é comumente utilizada em situações em que


desejamos compreender a frequência de um evento num intervalo de tempo ou espaço,
tendo em vista que sua probabilidade de sucesso é pequena e que o número de testes
feitos é imenso. O cálculo de PMF é dado por

𝜆𝑘
𝑝(𝑥 = 𝑘) = ⅇ −𝜆
𝑘!

[Provar esperança e variância]

[exemplos de aplicação]

7. A Relação entre as distribuições de Poisson e Binomial

[provar]

8. Introdução aos Métodos Probabilísticos

[tópico 4.9]

Você também pode gostar