Você está na página 1de 20

10

Teoria Elementar da Probabilidade

DETERMINÍSTICOS
MODELOS MATEMÁTICOS
PROBABILÍSTICOS

PROCESSO (FENÓMENO) ALEATÓRIO - Quando o


acaso interfere na ocorrência de um ou mais dos
resultados nos quais tal processo se pode traduzir.
Face à conjugação de um determinado número de
condições, um resultado aleatório pode ou não ocorrer.

Exemplo 1: Lançamento ao ar de uma moeda


equilibrada. Os resultados " SAI CARA " (F) ou " SAI
COROA " (C) são aleatórios.
Cada resultado aleatório é a consequência de inúmeras
causas fortuitas.

Exemplo 2 : Lançamento de um dado e observação do


resultado apresentado na face superior.
11

ASPECTOS PERTINENTES À CARACTERIZAÇÃO DE


UMA EXPERIÊNCIA ALEATÓRIA

a) Cada experiência poderá ser repetida indefinidamente


sob condições essencialmente inalteradas.

b) Muito embora não sejamos capazes de afirmar que


resultado particular ocorrerá, seremos capazes de
descrever o conjunto de todos os possíveis resultados da
experiência.

c) Quando a experiência for executada repetidamente, os


resultados individuais parecerão ocorrer de uma forma
acidental. Contudo, quando a experiência for repetida um
grande número de vezes, aparecerá uma regularidade.

EXPERIÊNCIAS ALEATÓRIAS, ESPAÇOS AMOSTRAIS


E ACONTECIMENTOS

EXPERIÊNCIA ALEATÓRIA - Designa uma situação à


qual estejam associados, de forma não controlada, dois ou
mais resultados possíveis.

Exemplos :
• Lançamento de uma moeda F-C ao ar uma vez (
resultados possíveis : " SAI CARA " (F) ou " SAI COROA
" (C) ).
12

• Lançamento de uma moeda F-C ao ar tantas vezes


quantas as necessárias até sair F ( conjunto infinito
numerável de resultados possíveis : 1,2,3,...)
• O atraso de um comboio ( com uma infinidade de
resultados possíveis : [0, +∞[ ).

ESPAÇO AMOSTRAL - Conjunto de todos os resultados


possíveis de uma experiência aleatória.

Exemplos : Considerando as experiências aleatórias


definidas anteriormente temos:

• Espaço amostral : S = { F, C }
• Espaço amostral : S = {1, 2, 3, …}
• Espaço amostral : S = {t : t ≥ 0 }

Os espaços amostrais podem ser discretos ou contínuos,


consoante os seus elementos sejam numeráveis ou não. Os
espaços discretos podem ser finitos ou infinitos.

O espaço amostral associado a uma experiência aleatória


depende da forma como a experiência é avaliada isto é,
depende daquilo que estamos a observar.

Exemplo : Considere-se a experiência constituída pelo


lançamento ao ar da moeda F-C três vezes consecutivas.
13

• Se o resultado for avaliado pelo número de F obtidos (nº


de vezes em que " SAI CARA"), o espaço amostral é
constituído pelo conjunto {0, 1, 2, 3}.
• Se o resultado for avaliado pela sequência de F e C
então o espaço amostral é constituído por oito resultados
possíveis.

1º lança/ 2º lança/ 3º lança/


F • FFF
F C • FFC
C F • FCF
F C • FCC

C F • CFF
F C • CFC
C F • CCF
C • CCC
_________________________
Árvore de resultados Diagrama de Venn
(utilizada na representação de resultados
de experiências sequenciais)

Acontecimento - Conjunto de elementos de um espaço


amostral, isto é, conjunto de resultados possíveis
associados à realização de uma experiência aleatória.

Acontecimento simples/composto
Acontecimento certo/impossível
14

•CCF
•FFF A1 •FCC
•FCF A2
•CFC •FFC •CFF •CCC

A1 - " Saída de duas caras " (acontecimento composto)

A2 - " Saída de três coroas " (acontecimento simples)

Como os acontecimentos são conjuntos, podemos aplicar-


lhes as operações de reunião, intersecção e
complementaridade, definindo novos acontecimentos.

S A∪B A
A∪B - acontecimento que ocorrerá
B sse A ou B (ou ambos) ocorrerem

S A∩B A
A∩B - acontecimento que ocorrerá
B sse A e B ocorrerem

S A
A - acontecimento complementar
A de A em S, ocorrerá sse A não
ocorrer

Dois acontecimentos dizem-se mutuamente exclusivos se


não puderem ocorrer simultaneamente, isto é se A∩B = ∅
15

Conceito de probabilidade

• Definição clássica
Se uma experiência aleatória tiver N resultados
mutuamente exclusivos e igualmente prováveis e se um
acontecimento A contiver NA desses resultados ( NA ≤
N), então a probabilidade do acontecimento A é dada
por :
N  numero de casos favoraveis
P ( A) = A  
N  numero de casos possiveis 

• Definição geométrica
Permite ultrapassar uma limitação da definição clássica
de probabilidade e que resulta do pressuposto de que o
número de resultados possíveis associados a cada
experiência aleatória é finito. Então vem que:

med A
P (A) =
med S

representando "med" uma medida de dimensão de uma


qualquer região incluída num espaço amostral contínuo
S de uma experiência aleatória.

• Definição frequencista
No decurso de N repetições de uma experiência
aleatória, um acontecimento A ocorre NA vezes
(0≤NA≤N). A frequência relativa de ocorrência desse
acontecimento é:
N
fA = A
N
16

Define-se probabilidade de A como o limite de fA


quando o número de repetições tende para infinito:

NA
P(A ) = lim fA = lim
N →∞ N →∞ N

• Definição axiomática
Baseia-se em propriedades resultantes das definições
anteriores e assenta nos três axiomas seguintes:

0 ≤ P(A) ≤ 1
P(S) = 1
P (A∪B) = P(A) + P(B) se A e B mutuamente exclusivos

Propriedades:

P(A) + P(A) = 1
P(∅) = 0
P (A∪B) = P(A) + P(B) − P(A∩B) para A e B quaisquer
A ⊂ B ⇒ P(A) ≤ P(B)

Métodos de enumeração

• Regra da multiplicação
n2

n1 n1.n2

n2

procedimento procedimento
1 2
17

• Regra da adição
procedim. 1 procedim. 2

n1 n2
n1 + n2

• Arranjos e Permutações
Considerem-se n elementos distintos. Pretende-se contar o
número de maneiras de escolher k elementos (0≤k≤n) de entre
esses n , considerando a sua ordem. Existem:

n!
A nk =
( n − k )!
Se k = n vem:
A nn = n ! = Pn

• Combinações
Considerem-se novamente n elementos distintos.O número de
maneiras de escolher k elementos (0≤k≤n) de entre esses n, sem
consider a sua ordem é:

 n n!
Cnk =  =
 k k !( n − k ) !

• Permutações com alguns elementos repetidos


Considerem-se novamente n elementos pertencentes a k
espécies distintas.O número de permutações possíveis desses n
elementos é dado por:
n!
n1 ! n 2 ! ⋯ n k !

em que n1 + n 2 + ⋯ + n k = n .
18

Probabilidade condicionada e acontecimentos


independentes

Probabilidade condicionada, P( A B) - probabilidade de


ocorrência de um acontecimento A quando se admite
que ocorreu um acontecimento B :

P( A ∩ B)
P ( A B) = (com P(B) > 0)
P( B)
ou
P( A ∩ B) = P( A B) ⋅ P( B)

P(A) - probabilidade a priori


P(A|B) - probabilidade a posteriori

Dois acontecimentos dizem-se independentes sse:


P( A ∩ B) = P( A ) ⋅ P( B)
e portanto de um modo equivalente:

P( A B) = P( A) (com P(B) > 0)


ou
P( B A ) = P( B) (com P(A) > 0)

Teorema de Bayes

B3
B1
A

B5

B2
B4
19

P( Bi ∩ A) P( A Bi ) P( Bi )
P( Bi A) = = n
P( A) ∑ i = 1 P( A Bi ) P( Bi )

em que B1, B2,…, Bn constituem uma partição do espaço


amostral S, isto é:
Bi ∩ B j = ∅ , ∀i≠j
∪ ni = 1 Bi = S
P( Bi ) > 0 , ∀i

O resultado :
P( A) = ∑ ni = 1 P( A Bi ) ⋅ P( Bi )

é o enunciado do teorema da probabilidade total e obtém-


se a partir da decomposição de A em acontecimentos
mutuamente exclusivos, isto é:

A = ( A ∩ B1 ) ∪ ( A ∩ B2 ) ∪ ⋯ ∪ ( A ∩ Bn )

Variáveis aleatórias

Seja ε uma experiência aleatória e S um espaço amostral


associado a essa experiência. Uma função X, que associe a
cada elemento s ε S um número real X(s), é uma variável
aleatória.
Sobre um mesmo espaço amostral podem ser definidas
diferentes funções (variáveis aleatórias).

 discreto → v. a . discreta
Contrado min io da aplicaçao 
 continuo → v. a . continua
20

É possível definir variáveis aleatórias mistas que


correspondem à combinação dos conceitos de variáveis
aleatórias discretas e contínuas.

O contradomínio da função corresponde ao domínio da


variável aleatória ,Rx , que de certo modo, poderemos
considerar como um outro espaço amostral associado à
variável aleatória X e representando a característica
numérica que nos interessa.

S Rx
A B
s• • X(s)
X

Seja B um acontecimento no contradomínio Rx. Nesse


caso define-se P(B) como:

P(B) = P(A) em que A = { s ε S : X(s) ε B }

Notação:
• X - variável aleatória
• x - valor que a variável aleatória assume

Variáveis aleatórias discretas

A variável aleatória X diz-se discreta se o número de


valores possíveis para X isto é, Rx , for finito ou infinito
numerável. Então X ∈ { x1, x2, x3, … }.
21

Função de probabilidade
pX (x) = P ( X = x )

 p (x ) se x = xi
p X ( x) =  X i
 0 se x ≠ x i

Propriedades
• pX (xi) ≥ 0 , ∀i
• ∑ ni = 1 p X ( x i ) = 1

Função de distribuição (ou de probabilidade


acumulada)

FX ( x ) = P ( X ≤ x ) = ∑ pX ( xk )
xk ≤ x
Propriedades
• FX ( x ) é monótona crescente
• FX (- ∞ ) = 0
• FX (+ ∞ ) = 1
• P ( a < X ≤ b) = FX ( b ) - FX ( a )

Nota:
pX (xj) = FX (xj) - FX (xj-1)

Variáveis aleatórias contínuas

A variável aleatória X diz-se contínua se RX,


contradomínio de X , for um intervalo ou conjunto de
intervalos reais.
22

Função densidade de probabilidade

f X ( x ) : P( a ≤ X ≤ b ) = ∫ ab f X ( x ) dx

Propriedades
• fX (x) ≥ 0, ∀x∈ℜ
+∞
• ∫ −∞ fX ( x ) dx = 1

Nota:

fX(x) dx = probabilidade de X ∈ [x, x + dx] ≠ P(X = x) = 0

Função de distribuição (ou de probabilidade


acumulada)

FX ( x ) = P ( X ≤ x ) = ∫ −∞
x f
X ( u ) du

Propriedades
• FX (x) é monótona crescente :
x2 > x1 ⇒ FX (x2) ≥ FX (x1)
• FX (- ∞ ) = 0
• FX (+ ∞ ) = 1
• P ( a ≤ X ≤ b ) = FX ( b ) - FX ( a )
• FX (x) ≥ 0 , ∀x
d FX ( x )
• = fX ( x )
dx
23

CARACTERIZAÇÃO ADICIONAL DAS V. ALEATÓRIAS

As distribuições de probabilidade podem ser caracterizadas


recorrendo a parâmetros que, de uma forma sintética, dão
informação relevante sobre as propriedades dessas
distribuições.

Os parâmetros habitualmente utilizados são o valor


esperado e a variância.
Para analisar a relação entre duas variáveis aleatórias
recorremos também à covariância e ao coeficiente de
correlação linear.

VALOR ESPERADO

Variáveis aleatórias discretas

Seja X uma variável aleatória discreta, com valores


possíveis x1, x2, ... , xn, ... . Seja p X ( x i ) = P ( X = x i ) ,
i=1,2, ... , n,... . O valor esperado de X ( esperança
matemática de X, expectância de X ou valor médio de X ) é
definido do seguinte modo:


E (X ) = ∑ x i ⋅ p X ( x i )
i=1
24

• Se X tomar apenas um número finito (n) de valores


n
então: E ( X ) = ∑ x i ⋅ p X ( x i ) . Esta expressão pode
i=1
ser interpretada como uma “média ponderada” dos
valores possíveis de X.
Se todos os n valores possíveis de X forem
igualmente prováveis então E(X) é a média aritmética
simples dos valores que a variável aleatória X
assume.

• O valor obtido para E(X) pode não pertencer ao


conjunto de valores efectivamente assumidos por X.

• Do ponto de vista físico E(X) pode interpretar-se


como a abcissa do centro de gravidade de uma
distribuição discreta de massa unitária sobre uma
linha recta.

• Se o número de valores possíveis para X for infinito


numerável, então o valor esperado E(X) existirá se e

só se a série ∑ x i ⋅ p X ( x i ) for absolutamente
i =1

convergente, isto é , se ∑ x i ⋅ p X ( x i ) < ∞ .
i =1

• Notação usada: µ = E(X)


25

Variáveis aleatórias contínuas

Seja X uma variável aleatória contínua com função


densidade de probabilidade f X ( x ) . O valor esperado de X
é definido como:

E ( X ) = ∫−+∞∞ x ⋅ f X ( x ) dx

• O valor esperado E(X) só existirá, se o integral for


absolutamente convergente, isto é se:

∫−∞ x ⋅ f X ( x ) dx < ∞
+∞

• Se f X ( x ) só estiver definida como diferente de zero


num dado intervalo [ a, b ] então:

E ( X ) = ∫ab x ⋅ f X ( x ) dx
26

PROPRIEDADES DO VALOR ESPERADO

Seja X uma variável aleatória (discreta ou contínua), a, b e


c constantes e g(X) e h(X) duas funções reais de X cujo
valor médio existe. Então:

i) E ( c ) = c
ii) E ( X − µ ) = 0
iii) E ( c ⋅ X ) = c ⋅ E ( X )
iv) E[g ( X ) + h ( X )] = E [g ( X )] + E [h ( X )]
v)Se g ( x ) ≤ h ( x ) para todo o x, então E [g ( X )] ≤ E [h ( X )]
vi) E ( a + b ⋅ X ) = a + b ⋅ E ( X )
vii) V ( X ) ≥ 0
viii) V ( X ) = 0 ⇒ X = µ . Nestas condições P ( X = µ ) = 1 e
X é uma variável pseudo-aleatória.
ix) V ( a + b ⋅ X ) = b 2 ⋅ V ( X ) ; σ a + b ⋅X = b ⋅ σ X

( ) ( )
x) V ( X ) = E X 2 − [E ( X )]2 = E X 2 − E 2 ( X )
xi) Se X é uma variável aleatória tal que E ( X ) = µ e
X−µ
V ( X ) = σ 2X então a variável aleatória Z = tem
σX
parâmetros E ( Z ) = 0 e V ( Z ) = 1.

As propriedades iii) e iv) podem resumir-se dizendo que o


operador E é linear.
27

FUNÇÃO GERADORA DE MOMENTOS

Seja X uma variável aleatória discreta ou contínua. Se


existir um número positivo h tal que se possa definir a
função:
G (t ) = E e t ⋅X ( )
para | t | < h, então essa função designa-se por função
geradora de momentos da v.a. X.

Pode demonstrar-se que se esta função existir, então é única,


contínua e diferenciável em torno de t = 0.
Esta função determina completamente a distribuição de
probabilidades de X, efectivamente:

G' (t ) =
d
dt
( ) (
E e t ⋅X = E X ⋅e t ⋅X )
e
G '' ( t ) =
d '
dt
(
G (t ) = E X2 ⋅e t ⋅X )
pelo que:
G ' (0 ) = E ( X )
e
( )
G '' ( 0 ) = E X 2

Assim teremos de um modo geral:

( r) dr
G (0 ) = r G ( t ) t = 0 = E X r ( ) , r≥1
dt
28

A INEQUAÇÃO DE MARKOV E CHEBISHEV

Se conhecermos a distribuição de probabilidade de uma v.a.


X, podemos calcular E(X) e Var(X). Contudo o inverso não é
verdadeiro. Isto é, o conhecimento de E(X) e Var(X) não
permite reconstituir a distribuição de probabilidade de X.

Porém é possível estabelecer um limite para a probabilidade


de X variar num determinado intervalo, de acordo com o
teorema seguinte e respectivos corolários.

TEOREMA: Seja X uma v.a. (discreta ou contínua) e h(x)


uma função desta variável aleatória, tal que h(x) é não
negativa. Se E [ h ( x ) ] existir, então:

E [ h (x ) ]
P [ h (x ) ≥ C ] ≤ , ∀C > 0
C

DESIGUALDADE DE MARKOV: Caso X seja uma v.a. não


negativa, fazendo h(x) = X, vem que:

E (X )
P [X ≥ C ] ≤ , ∀C > 0
C

DESIGUALDADE DE CHEBISHEV: Sendo h ( x ) = ( X − µ )


2

e C = k ⋅σ
2 2
( k > 0), temos que:

P [ X − µ ≥ k ⋅σ ] ≤ 1
k2
ou de modo equivalente:
P [ X − µ < k ⋅ σ ] > 1 − 12
k
29

• A desigualdade de Chebyshev pode também aparecer


sob a seguinte forma:

[
P X−µ ≥ C ] ≤
σ2
C

• A partir desta desigualdade podemos concluir que, se a


V(X) for pequena, a maior parte da distribuição de
probabilidade de X estará “concentrada” na vizinhança
de E(X).

• O seguinte teorema resulta também da inequação de


Chebishev:

TEOREMA: Admitamos que V(X)=0. Então:

P[ X = µ ] = 1

( )
Esta mesma conclusão é obtida se E(X)=0 e E X 2 = 0
( )
uma vez que neste caso V ( X ) = E X 2 = 0 .

Você também pode gostar