Você está na página 1de 3

Variáveis Aleatórias e suas Distribuições

1. Variáveis Aleatórias

No cálculo probabilístico, o uso livre de variáveis para representar os diversos


eventos que ocorrem dentro de um mesmo experimento criou uma série de
ambiguidades e complexidades desnecessários e que geravam grandes dificuldades no
momento do cômputo. Assim sendo, os matemáticos, buscando formalizar e aumentar
o rigor da Teoria da Probabilidade, desenvolveram a noção da Variáveis Aleatórias.

Definição 1. Seja A um evento qualquer com espaço amostral S, a Variável


Aleatória de A será uma função real de S em R. Por convenção, usam-se letras
maiúsculas para definir as variáveis aleatórias. Assim, a variável aleatória X pode ser
definida como um evento qualquer em S e X(s) o valor de cada evento s em S.

Exemplo 1. Considere o experimento onde nós lançamos uma moeda honesta


duas vezes. O espaço amostral consiste em quatro resultados possíveis: S = {HH, HT, TH,
TT}. Descreva as variáveis aleatórias existentes nesse caso.

2. Distribuições e Funções Massa de Probabilidade

Inicialmente, cumpre destacar que as variáveis aleatórias podem ser


classificadas em contínuas e discretas. Nesse momento do estudo, focaremos apenas
nas variáveis aleatórias discretas, que são definidas como aquelas que podem assumir
valores bem definidos em intervalos fixos. Alternativamente,

Definição 2. Uma variável aleatória X é dita discreta se existe uma lista finita de
valores ou uma lista infinita tal que P(X = aj para um j qualquer) = 1.

Para melhor descrever as variáveis aleatórias discretas, usam-se as funções


massa de probabilidade, definidas como:

Definição 3. A função probabilidade de massa (PMF) de uma variável aleatória


X é a função pX(x) = P(X=x).
[Exemplos]

3. Distribuições de Bernoulli e Binomial

Iniciamos o estudo das distribuições com um caso especial em que o resultado


dos eventos pode ser representado por dois velórios únicos, 0 ou 1.

Definição 4. Uma variável aleatória X terá uma distribuição de Bernoulli com


parâmetro p se P(X=1) = p e P (X=0) = 1 – p, onde 0 < p < 1. Representa-se esse caso
por X ~ Bern(p).

Indo além, pode-se dizer que todo evento possui uma variável aleatória de
Bernoulli associado a ele, uma vez que todo evento pode ou não ocorrer. A essas
variáveis, dá-se o nome de variável aleatória indicadora.

Definição 5. A variável aleatória indicadora de um evento A qualquer é a


variável aleatória que se iguala a 1 quando A ocorre e 0 quando o contrário acontece.
Denota-se a indicadora de A por I(A) e diz-se que I(A) ~Bern(p), com p = P(A).

Enfim, cabe tratar dos testes ou ensaios de Bernoulli. Esses são experimentos
cujos resultados podem ser classificados como “sucesso” ou “falha”. Nesse sentido, uma
variável aleatória de Bernoulli pode ser entendida como o indicador de sucesso de um
Ensaio de Bernoulli feito uma única vez. Porém, em dados casos, o mesmo experimento
pode ser reproduzido diversas vezes. Nesses casos, surge uma nova distribuição

Suponha que n ensaios de Bernoulli independentes sejam feitos, cada um deles


com probabilidade p de sucesso. Seja X o número de sucessos no total. A distribuição da
variável X é chamada de distribuição Binomial com parâmetros n e p. Formalmente,

Definição 6. A função massa de probabilidade binomial de X é definida como

𝑛
𝑃(𝑥 = 𝑘) = ( ) 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
𝑘

4. Distribuição Hipergeométrica

Suponha que num dado experimento exista uma urna com b bolas brancas e p
bolas pretas. Em seguida, suponha que tenhamos tirado n bolas da urna sem reposição,
tal que todas as combinações de n em (b+p) sejam igualmente prováveis. Seja X o
número de bolas brancas retiradas. Então X terá uma distribuição hipergeométrica com
parâmetros b,p e n. Formalmente temos,

Definição 7. A PMF de X, tal que X ~ HGeom(b,p,n) é dada por:

𝑏 𝑝
( )( )
𝑘 𝑛−𝑘
𝑃(𝑥 = 𝑘) =
𝑏+𝑝
( )
𝑛

A intuição por trás da distribuição hipergeométrica é que desejamos escolher


um certo número de itens numa população qualquer, tal que esses itens sejam
classificados através de dois conjuntos de “tags”. No exemplo da urna, temos que as
bolas são classificadas em “preta” ou “branca” e em “escolhida” ou “não escolhida”. Dessa
forma, X ~ HGeom(b,p,n) representa o número de itens duplamente classificados.

[exemplos]

5. Distribuição Uniforme Discreta

Seja C um conjunto finito e não vazio. Se todos os valores em C forem


igualmente prováveis, então a variável aleatória X que representa a escolha de um valor
X(c) qualquer terá uma distribuição uniforme discreta e aproximar-se-á da definição de
probabilidade estudada anteriormente. Ou seja, a função massa de probabilidade da
distribuição uniforme discreta será a razão entre o número de eventos favoráveis e o
número total de elementos em C.

Você também pode gostar