Você está na página 1de 49

Universidade Regional do Cariri (URCA)

Abril/2022

Aula 01
DISCIPLINA: ESTATÍSTICA
PROF: AMANDA DUARTE FEITOSA

1
O que é estatística
Estatística é a ciência que coleta, organiza, analisa, interpreta e apresenta dados. Alguns
especialistas preferem chamá-la ciência dos dados, uma trilogia de tarefas envolvendo
modelagem de dados, análise e tomada de decisão.
A linguagem da estatística é amplamente utilizada em ciências, ciência social, educação, na
área de saúde, engenharia e mesmo na área de humanas.
Há duas espécies principais de estatística:

• Estatística descritiva corresponde à coleta, organização, apresentação e resumo de dados


(com diagramas e gráficos ou utilizando um valor numérico resumido).
• Inferência estatística refere-se a generalizar resultados de uma amostra para uma população,
estimar parâmetros desconhecidos, chegar a conclusões e tomar decisões

2
Parâmetros e estatísticas
A partir de uma amostra de n itens escolhidos de uma população, calculamos estatísticas que
podem ser usadas como estimativas de parâmetros encontrados na população.

3
Estimador
Um estimador é uma estatística derivada de uma amostra para inferir o valor de um parâmetro
populacional. Uma estimativa é o valor do estimador em uma amostra particular.
Usualmente, denotamos um parâmetro populacional por uma letra grega (por exemplo, m, s ou
p). O correspondente estimador amostral é usualmente denotado por uma letra romana (por
exemplo, x, s ou p) ou uma letra grega com um “acento circunflexo” (por exemplo, µ^, σ^ ou π^)

4
Erro amostral
Amostras aleatórias variam, portanto um estimador é uma variável aleatória. O erro amostral é a
diferença entre uma estimativa e o parâmetro de população correspondente. Por exemplo, para
a média da população:

A média da amostra é uma variável aleatória que, em média, estima corretamente µ porque as
medidas amostrais que o superestimam m tendem a ser compensadas por aquelas que o
subestimam.

5
Média Amostral e o Teorema
Limite Central
A distribuição amostral de um estimador é a distribuição de probabilidade de todos os valores possíveis
que a estatística pode assumir quando uma amostra aleatória de tamanho n é coletada. Um estimador
tem uma distribuição de probabilidade, com uma média e uma variância.
Para descrever a distribuição amostral, precisamos conhecer a média, a variância e a forma da
distribuição.

A média é uma variável aleatória cujo valor mudará sempre que tomarmos
uma amostra diferente. E, contanto que nossas amostras sejam aleatórias, o único tipo de erro que
teremos em nosso processo de estimação será o erro amostral. O erro amostral da média amostral
é descrito pelo seu desvio padrão. Esse valor tem um nome especial, o erro padrão da média. Note
que o erro padrão da média decresce à medida que o tamanho da amostra aumenta:

6
O Teorema Limite Central (TLC) é
um resultado poderoso que
possibilita que aproximemos a
forma da distribuição amostral de X
ainda que não saibamos a forma da
distribuição populacional.

7
Teorema Limite Central

8
Histogramas: Uma maneira de representar uma coleção
de dados obtidos em uma medidade é por um
histograma. O gráfico que mostra a distribuição de
acontecimentos registrados

9
Estatística

Inferência
Coleta e
estatistica a
descrição dos
partir de uma
dados
amostra

Amostragem e Representações Resumos Modelos Estimação de Teste de Regessão e Controle e


pesquisa visuais numéricos Probabilísticos parâmetros hipóteses tendências qualidade

10
Probabilidade
Um experimento aleatório é um processo observacional cujos resultados não são conhecidos
antecipadamente. Por exemplo, quando um cliente entra em uma concessionária, ele comprará
um carro ou não? Quanto gastará? O conjunto de todos os resultados possíveis (denotado por S)
é o espaço amostral para o experimento. Alguns espaços amostrais podem ser enumerados facilmente, enquanto
outros podem ser muito grandes ou impossíveis de serem enumerados.
Um evento é qualquer subconjunto de elementos do espaço amostral. Um evento simples ou
evento elementar é um único resultado.

A probabilidade de um evento é um número que mede a possibilidade relativa de sua ocorrência. A probabilidade
de um evento A, denotada P(A), deve estar no intervalo que vai de 0 a 1.
P(A) = 0: Evento não pode ocorrer; P(A) = 1: Evento ocorre

11
Probabilidade

Existem três maneiras distintas de atribuir probabilidade,


listadas na Tabela. Muitas pessoas
as misturam e as usam de forma intercambiável;
entretanto, cada abordagem deve ser considerada
separadamente.

12
Regras da probabilidade
Complemento de um evento
O complemento de um evento A é denotado A′ e consiste em tudo no espaço amostral S, exceto o
evento A, conforme ilustrado no diagrama de Venn.

13
União de dois eventos
A união de dois eventos consiste em todos os eventos no espaço amostral S que estejam contidos no
evento A ou no evento B ou em ambos. A união de A e B é, algumas vezes, denotada A ∪ B ou “A ou B”
como ilustrado no diagrama de Venn na Figura. O símbolo ∪ pode ser lido como ou,
pois significa que um dos eventos ou ambos ocorrem. Por exemplo, quando escolhemos aleatoriamente
uma carta de um baralho, se Q for o evento de obter uma rainha e R é o evento de obter uma carta
vermelha, então, Q ∪ R consiste em obter uma rainha (quatro possibilidades em 52) ou uma carta
vermelha (26 possibilidades em 52) ou ambas, uma rainha e uma carta vermelha (duas possibilidades em
52).

14
Interseção de dois eventos
A interseção de dois eventos A e B é o evento consistindo em todos os eventos no espaço amostral S que
estejam contidos em ambos, o evento A e o B. A interseção de A e B é denotada A ∩ B ou “A e B”,
conforme ilustrado no diagrama de Venn na Figura 5.5. A probabilidade de A ∩ B é chamada
probabilidade conjunta e é denotada P(A ∩ B).

O símbolo ∩ pode ser lido como “e”, uma vez que a interseção significa que ambos os eventos
ocorrem. Por exemplo, se Q for o evento em que retiramos uma rainha e R for o evento em que
retiramos uma carta vermelha, então, Q ∩ R é o evento no qual obtivemos uma carta que é
tanto uma rainha quanto uma carta vermelha. Isto é, a interseção dos conjuntos Q e R consiste
em duas cartas (Q♥ e Q♦).

15
Lei geral da adição
A lei geral da adição afirma que a probabilidade da união de dois eventos A e B é a soma de suas
probabilidades menos a probabilidade da interseção.

16
Eventos mutuamente exclusivos
Os eventos A e B são mutuamente exclusivos (ou disjuntos) se sua interseção for o conjunto nulo ou vazio (um conjunto que
não contém nenhum elemento). Em outras palavras, a ocorrência de um evento exclui a de outro. O conjunto nulo é denotado
por f.

Alguns exemplos de eventos mutuamente exclusivos (não podem ocorrer ao mesmo tempo):
Idade de um cliente: A= menos de 21 anos; B = acima de 65 anos;
Natureza juridica de uma empresa: A = corporação; B = firma individual

17
Lei especial da adição
Se A e B são eventos mutuamente exclusivos, então P(A ∩ B) = 0 e a lei geral da adição pode ser
resumida à soma das probabilidades individuais para A e B, a chamada lei especial da adição.

Por exemplo, se observarmos a idade de uma pessoa, então P(abaixo de 21 anos) = 0,28 e
P(acima de 65 anos) = 0,12, então P(abaixo de 21 ou acima de 65 anos) = 0,28 + 0,12 = 0,40, já
que esses eventos não se sobrepõem.

18
Probabilidade condicional
A probabilidade do evento A dado que o evento B ocorreu é uma probabilidade condicional,
denotada por P(A | B) que é lida como “a probabilidade de A dado B”. A linha vertical é lida
como “dado”. A probabilidade condicional é a probabilidade conjunta de A e B dividida pela
probabilidade de B.

19
Exemplos
Dado que P(A) = 0,40, P(B) = 0,50 e P(A ∩ B) = 0,05, encontre:
P(A ∪ B); (b) P(A | B); e (c) P(B | A). (d) Esboce um diagrama de Venn.

Dado P(A) = 0,70, P(B) = 0,30 e P(A ∩ B) = 0,00 encontre (a) P(A ∪ B); e (b) P(A | B). (c) Esboce
um diagrama de Venn.

20
Eventos Independentes
Se a ocorrência do evento B não afeta a probabilidade de que o evento A ocorra, então os
eventos A e B são independentes. Em outras palavras, o evento A é independente do evento B
se a probabilidade condicional P(A | B) for a mesma da probabilidade incondicional P(A); isso
significa que a probabilidade do evento A será a mesma ocorrendo ou não o evento B.

Se A e B são eventos independentes, podemos simplificar a regra geral de multiplicação e obter


que a probabilidade conjunta dos eventos A e B é o produto das suas probabilidades individuais.
Relembrando a regra geral de multiplicação:
Se A e B são independentes, então podemos substituir
P(A) por P(A | B). Regra especial de multiplicação.

21
Exemplos
Considere P(A) = 0,40, P(B) = 0,50. Se A e B são independentes, encontre P(A ∩ B)
Considere P(A) = 0,40, P(B) = 0,50 e P(A ∩ B) = 0,05. a. Encontre P(A | B); b. Nesse problema, A e
B são independentes? Explique.
Quais são os pares de eventos independentes?
a. P(A) = 0,60, P(B) = 0,40, P(A ∩ B) = 0,24.
b. P(A) = 0,90, P(B) = 0,20, P(A ∩ B) = 0,18.
c. P(A) = 0,50, P(B) = 0,70, P(A ∩ B) = 0,25

22
Teorema de Bayes
É fórmula matemática usada para o cálculo da probabilidade de um evento dado que outro
evento já ocorreu, o que é chamado de probabilidade condicional.
A grande questão do Teorema de Bayes é que eu preciso ter alguma informação anterior, ou
seja, preciso saber que um determinado evento já ocorreu e qual a probabilidade desse evento.
A probabilidade a priori (incondicional) de um evento B é revisada após o evento A ter sido
utilizado para fornecer uma probabilidade a posteriori (condicional). Começamos com uma
fórmula um pouco diferente da definição padrão de probabilidade condicional:

23
Exemplo
Suponha que 10% das mulheres que compram kits de teste de gravidez instantâneos estejam, de
fato, grávidas. Para um kit de uma marca específica, se uma mulher estiver grávida, o teste
fornecerá resultado positivo 96% das vezes e negativo 4% das vezes (um “falso-negativo”). Se ela
não estiver grávida, o teste resultará positivo em 5% das vezes (um “falso-positivo”) e negativo
95%. Suponha que um teste resulte positivo. Qual é a probabilidade de que a mulher esteja
realmente grávida?

24
Método intuitivo com 1000 mulheres

25
O que o teorema de Bayes faz é nos mostrar como revisar
nossa probabilidade de gravidez a priori (10%) para
fornecer a probabilidade a posteriori (68,09%) após
conhecidos os resultados dos testes de gravidez:

A priori (antes do teste): P(B) = 0,10

A posteriori (depois do resultado positivo do teste):


P(B/A) = 0,6809

A informação dada não permitiu um cálculo direto da P(B | A), uma vez que conhecemos
apenas as probabilidades condicionais P(A | B) e P(A | B′). O teorema de Bayes é útil em
situações como essa.

26
Diagrama em árvore

27
Exemplo
Com base em dados históricos sabe-se que três centros hospitalares de trauma têm 50%, 30% e
20% dos casos, respectivamente. A probabilidade de um caso resultar em processo por
imperícia médica em cada um dos três hospitais é de 0,001, 0,005 e 0,008, respectivamente. Se
ocorre um processo por imperícia médica, qual é a probabilidade de que tenha sido originado
no hospital 1?

28
Esse problema é resolvido da seguinte forma. Definimos:
Evento A = um paciente entra com um processo por imperícia médica
Evento B i = um paciente foi tratado no centro de trauma i (i = 1, 2, 3)

29
A probabilidade de que o hospital 1 seja processado por imperícia médica é de 0,1389 ou 13,89%.
Apesar de o hospital 1 atender 50% dos pacientes com trauma, é esperado que ele gere menos da
metade dos processos por imperícia, uma vez que a incidência de processos é muito maior nos
outros dois hospitais.

30
Forma intuitiva: Considerar 10.000
pacientes
Hospital Processos por imperícias Nenhum processo por Total
imperícia
1 5 4995 5000
2 15 2985 3000
3 16 1984 2000
Total 36 9964 10000

De acordo com a Tabela e somando de cima para baixo, o total de processos de imperícia é 36. Logo,
P(B1 | A) = 5/36 = 0,1389, P(B2 | A) = 15/36 = 0,4167 e P(B3 | A) = 16/36 = 0,4444. Essas três
probabilidades somam 1. Globalmente, existem 36 processos de imperícia, então podemos também
calcular P(A) = 36/10.000 = 0,0036.

31
Exercício
Um teste antidoping para atletas tem taxa de 5% de falso-positivo e taxa de 10% de falso-
negativo. Dos atletas testados, 4% têm, de fato, usado droga proibida. Se o teste de um atleta dá
positivo, qual é a probabilidade de que ele realmente tenha usado a droga proibida? Explique
claramente seu raciocínio

32
REGRAS DE CONTAGEM
Princípio fundamental da contagem
Se o evento A pode ocorrer de n1 maneiras e o evento B de n2 maneiras, então os eventos A e B
podem ocorrer de n1 × n2 maneiras. Em geral, o número total de maneiras em que m eventos podem
ocorrer é n1 × n2 × ... × nm. (Multiplicação das opções dadas para determinar o total de
possibilidades).
Ex: Quantos códigos únicos de estoque (CUE) uma cadeia de lojas de ferragens pode criar usando
duas letras (indo de a AA a ZZ) seguidas de quatro números (dígitos de 0 a 9)? Por exemplo:

AF1078: Parafusos sextavados 6 cm — caixa de 12


RT4855: Limpador Lime-A-Way — 16 onças
LL3119: Escova antiferrugem profissional Rust-Oleum — cinza 15 onças

33
Este problema pode ser visto como o de preencher seis caixas vazias, conforme mostrado
na Figura:

Existem 26 maneiras (letras de A a Z) de preencher a primeira ou a segunda caixa. Existem 10


maneiras (dígitos de 0 a 9) de preencher da terceira à sexta caixa. O número de rótulos únicos
do estoque é, portanto, 26 × 26 × 10 × 10 × 10 × 10 = 6.760.000.

34
Fatoriais
O número de maneiras que n itens podem ser arranjados em uma ordem particular é n fatorial, o
produto de todos os inteiros de 1 a n.

Essa regra é útil para contar os possíveis arranjos de quaisquer n itens. Existem n maneiras de
escolher o primeiro item, n – 1 maneiras de escolher o segundo item e assim por diante, até
atingirmos o último item, como ilustrado na Figura.

35
Permutações
Uma permutação é um arranjo de uma amostra de r itens em uma ordem particular. O número
de permutações possíveis de n itens tomando-se r de cada vez é denotado por nPr

As permutações são usadas quando estamos interessados em encontrar a quantidade de


maneiras diferentes em que podemos selecionar r itens de n itens, em que cada arranjo possível
de itens seja um evento distinto.

36
Ex: Cinco clientes (A, B, C, D e E) têm um eletrodoméstico precisando de reparos, mas o técnico
técnica para eletrodomésticos pode atender apenas a três deles antes do meio-dia. A ordem de
atendimento é importante (pelo menos para os clientes) e, assim, cada arranjo possível de três
atendimentos é diferente. O gerente deve designar a sequência. O número de possíveis
permutações. é

37
Combinações
Uma combinação é um arranjo de r itens escolhidos aleatoriamente de n itens, em que a ordem
de seleção dos itens não é importante (isto é, tratando a sequência de três letras XYZ igual à
sequência de três letras ZYX). O número de combinações possíveis de r itens escolhidos de n
itens é denotado por nCr.

Usamos combinações quando a única coisa que importa é que os r itens sejam escolhidos,
independentemente de como estejam arranjados.

38
Ex: Suponha que cinco clientes (A, B, C, D e E) precisem de visitas da assistência técnica e o
técnico consiga atender apenas três deles esta manhã. Os clientes não estão preocupados com
quando serão atendidos, contanto que seja antes do meio-dia, então o gerente da assistência
técnica não está preocupado com quem será atendido em primeiro lugar, em segundo ou em
terceiro. Em outras palavras, o gerente considera ABC, ACB, BAC, BCA, CAB ou CBA como
o mesmo evento porque os mesmos três clientes (A, B e C) serão atendidos. O número de
combinações é

39
DISTRIBUIÇÕES DISCRETAS
Uma variável aleatória discreta tem um número contável de valores distintos. Algumas variáveis
aleatórias têm um limite superior claro (por exemplo, o número de ausências em uma sala com
40 estudantes), enquanto outras não (por exemplo, o número de mensagens de texto que você
recebe em certa hora).

Uma distribuição de probabilidade discreta atribui uma probabilidade para cada valor de uma
variável aleatória discreta X. A distribuição deve seguir as regras de probabilidade.

40
O valor esperado E(X) de uma variável aleatória discreta é a soma de todos os valores de X
ponderados pelas suas correspondentes probabilidades. É uma medida de tendência central. Se
existem n valores distintos de X (x1, x2, ... , xn), o valor esperado é

O valor esperado é uma média ponderada, pois os resultados podem ter probabilidades
diferentes. Essa média é denotada por E(X) ou pelo símbolo µ.

41
A variância V(X) de uma variável aleatória discreta é a soma dos quadrados dos desvios em
relação ao seu valor esperado, ponderado pela probabilidade de cada valor de X. Se existem n
valores distintos de X, a variância é

A variância V(X) é uma média ponderada que mede a dispersão em torno da média. Da
mesma forma que usamos µ ou E(X) para denotar a média, usamos s 2 ou V(X) para denotar
a variância.

O desvio padrão é a raiz quadrada da variância:

42
FDP ou FDA
FDP - Função de distribuição de probabilidade;
FDA - Função de distribuição acumulada
A FDP e a FDA são definidas por uma lista de valores X e suas respectivas probabilidades, ou por
equações matemáticas. Uma FDP discreta atribui uma probabilidade a cada valor de X específico,
enquanto a FDA é a soma cumulativa das probabilidades, a partir da adição do menor valor até o
maior valor de X.

43
Distribuição uniforme
A distribuição uniforme é um dos modelos discretos mais simples. Ela descreve uma variável
aleatória com um número finito de valores inteiros de a a b. Isto é, a distribuição inteira
depende somente de dois parâmetros a e b.

44
Experimentos de Bernoulli
Um experimento aleatório que tem somente dois resultados possíveis é chamado experimento
de Bernoulli, em homenagem a Jakob Bernoulli (1654-1705). Denominamos arbitrariamente um
dos eventos de “sucesso” (denotado X = 1) e o outro de “fracasso” (denotado X = 0). A
probabilidade de sucesso é denotada por p (a letra grega “pi”, que não deve ser confundida com
a constante matemática 3,14159).1 A probabilidade de fracasso é 1 – p, de modo que as
probabilidades somem 1, isto é, P(0) + P(1) = (1 – p) + p = 1.

45
A probabilidade de sucesso p pode ser qualquer valor entre 0 e 1.

O único parâmetro necessário para definir uma distribuição de Bernoulli é p. Um experimento


de Bernoulli tem média p e variância p(1 - p), como vemos nas definições de E(X) e V(X):

46
Características da distribuição binomial
Os experimentos ou ensaios de Bernoulli levam a um modelo importante e mais interessante. A
distribuição binomial ocorre quando um ensaio de Bernoulli é repetido n vezes.
Cada ensaio de Bernoulli é independente e a probabilidade de sucesso p permanece constante
em cada ensaio. Em um experimento binomial, estamos interessados em X = o número de
sucesso em n ensaios, tal que a variável aleatória binomial X seja a soma de n variáveis
aleatórias Xi de Bernoulli independentes:

47
48
Uma distribuição binomial é assimétrica à direita se p < 0,5, assimétrica à esquerda se p > 0,5, e
simétrica somente se p = 0,5. Entretanto, a assimetria decresce conforme n cresce,
independentemente do valor de p, conforme ilustrado na Figura 6.7. Note que p = 0,2 e p = 0,8
têm a mesma forma, exceto pela inversão da assimetria esquerda pela direita. Isso ocorre para
quaisquer valores de p e 1 - p.

49

Você também pode gostar