Você está na página 1de 13

Estatística

1. Média aritmética: =

=

2. Média populacional: =

=

=

3. Desvio em relação à média:

4. Desvios quadráticos:

5. Variância:

6. Variância populacional:

7. Desvio padrão:

1

1

2

1

8. Desvio padrão (p/ valores repetidos):

1

1

2 ou

1

1

1

2

2

1

9. Desvio padrão (p/ fracionário): s =

10. Amplitude: a = máx.(x 1 , x 2 ,

,

x n ) – mín.(x 1 , x 2 ,

,

x n )

11. Coeficiente de variação: cv =

12. Mediana:

1

2

13. Quartis: 1

4

3 1

4

2

,

2

14. Quartis quando o resultado não é 0,5: , , onde:

v < e v > = O valor menor e maior dentre os dois valores do quartil calculado; , = Mantissa do resultado do cálculo do quartil;

Letras latinas: estatísticas (descrevem características dos elementos da amostra):

Maiúsculas: variáveis aleatórias;

Minúsculas: observações efetivas;

Letras gregas: parâmetros (descrevem características dos elementos da população).

Formulário para Probabilidade e Estatística

Probabilidade

15. Eventos igualmente prováveis: P(A) =

16. Soma de probabilidades:

a. P (AB) = P(A) + P(B) – P(AB)

b. P (ABC) = P(A) + P(B) + P(C) – P(AB) - P(AC) - P(BC) + P(ABC)

17. Probabilidade condicional (probabilidade de A dado B): P(A|B) =

18. Regra do produto:

a. P(AB) = · |

b. P(ABC) = · | · |

19. Eventos independentes: ·

20. Teorema da Probabilidade Total:

21. Teorema de Bayes: |

· | , onde

exclusivo e exaustivo e F = evento qualquer.

·

|

E i = evento mutuamente

Variáveis Aleatórias Discretas

22. Função de Probabilidade: Associa cada valor x à sua probabilidade de ocorrência: , 1, 2, … e deve satisfazer:

a.

b.

0;

1 ;

23. Função de distribuição acumulada: ,

24. Média / Valor esperado de uma variável aleatória X: μ onde x = valor possível e p = probabilidade de tal valor ocorrer;

25. Variância:

ou , onde

26. Desvio Padrão:

,

Formulário para Probabilidade e Estatística

27. Propriedades:

E(X) = Valor esperado / média;

V(X) = Variância;

DP(X) = Desvio Padrão

a) E c c

f)

V c 0

b) E X c E X c

g)

V X c V X

c) E cX cE X

h)

V cX c²V X

d) E X Y E X E Y

i)

DP cX |c|DP X

e) E X – Y E X – E Y

28. Variáveis aleatórias discretas independentes: ;

29. Variância de variáveis aleatórias discretas independentes:

a.

b.

30. Distribuição

de

Distribuições Discretas

Bernoulli:

É

observada

a

presença

ou

característica desejada (p = P{sucesso}).

não

de

alguma

   

 

 
 

0

 

1 – p

 

1

 

p

 

Total

 

1

Outras características:

 

1 –

0,

1 ,

1,

0

0

1

1

31. Distribuição Binomial: Consiste em n ensaios de Bernoulli, interessando apenas o número X de ocorrências de sucesso (possui reposição para garantir independência entre os ensaios).

a. Com variáveis aleatórias independentes:

b. Coeficientes Binomiais:

!

! !

c. Expressão geral da distribuição binomial:

1

Formulário para Probabilidade e Estatística

e. Variância de uma distribuição binomial: 1

32. Distribuição Hipergeométrica: É basicamente uma distribuição binomial sem reposição. Se a população for muito maior que a amostra, pode ser aproximada pela Distribuição Binomial.

a. Função de probabilidade de X:

, onde:

N

= População (número total de elementos);

n

= número de elementos de uma amostra;

r

= Elementos classificados como insucesso;

x

= [0, 1,

,

min(r, n)];

b.

c. ou

d.

1

ou

1

33. Distribuição de Poisson: Expressa a probabilidade de certo número de eventos ocorrerem numa dada unidade de medida (tempo, comprimento, área, volume, etc.), caso estes ocorram com uma taxa média conhecida e caso cada evento seja independente do tempo decorrido desde o último evento. As ocorrências dos eventos devem ser independentes.

a. Função de probabilidade de X:

·

!

, x ≥ 0 e

λ = número esperado (média) de ocorrências que ocorrem num dado intervalo de tempo (ou de outra unidade de medida).

b.

c. Se n for muito grande e p for muito pequeno,

Formulário para Probabilidade e Estatística

Variáveis Aleatórias Contínuas

34. Função densidade de probabilidade: Deve possuir as seguintes propriedades:

a. 0,

b.

c. Se A = [a, b], então P(A) =

1

35. Função de distribuição acumulada:

36. Valor esperado:

·

,

x ∈ ℜ

37. Variância:

·

· ou , onde

38. Distribuição Uniforme: É usada quando todo evento em um subintervalo de ∞, tem a mesma probabilidade de ocorrer. Uma variável aleatória X tem distribuição uniforme de parâmetros α e β, sendo β > α, se sua densidade é especificada por:

,

0,

1

a. Valor Esperado:

b. Variância:

c. Distribuição acumulada:

,

,

0,

,

1,

39. Distribuição Exponencial: Tem forte relação com o modelo discreto de Poisson. Enquanto a de Poisson modela o número de ocorrências em um período contínuo (tempo, comprimento, etc.), a exponencial modela a variável aleatória contínua que representa o intervalo (de tempo, comprimento, etc.) entre as ocorrências. Pode ser usada quando há independência entre as ocorrências e há uma taxa média de ocorrência constante no intervalo considerado. É definida por um único parâmetro λ denominado média (define a média de ocorrências de um evento por unidade de medida).

a. Função de densidade de probabilidade: λ

b. Valor esperado:

c. Variância:

Formulário para Probabilidade e Estatística

40. Distribuição Normal: É a distribuição mais importante e pode ser definida apenas com dois parâmetros: μ (média) e σ (desvio padrão). E através destes dois valores é possível calcular a percentagem de valores que deverão estar acima ou abaixo de um determinado valor da variável aleatória, ou entre esses dois valores definidos etc.

a. Função densidade de probabilidade: Dados μ e σ, com σ > 0, a função é

dada por:

b. Valor esperado: E(X) = μ (a variação da média desloca horizontalmente o gráfico);

c. Variância: V(X) = σ² (a variação da variância comprime ou estica verticalmente o gráfico).

Uma variável aleatória X com distribuição normal, média μ e variância σ² é representada por X : N(μ, σ² e:

A curva do gráfico é simétrica em torno de μ;

Teoricamente a curva prolonga-se de -a +, sendo lim 0;

A área total sob a curva é igual a 1 (

1 );

A combinação linear de duas variáveis aleatórias normais resulta em outra normal, sendo aX 1 e bX 2 as variáveis aleatórias independentes

d.

;

· ·

Distribuição Normal Padrão: Seja X: N(μ, σ² . Então , que tem distribuição normal com média = 0 e desvio padrão = 1.

Aproximações da Distribuição Normal em relação à:

41.

Binomial: Pode ser aproximada se n é bem grande e p não é próximo de 0 ou de 1. A aproximação é considerada razoável se n····p 5 e n(1-p) 5;

Os parâmetros μ e σ da distribuição normal devem se identificar ao valor esperado e desvio padrão do modelo bicondicional, ou seja:

· e 1

Deve-se usar também uma correção de continuidade, pois ao aproximar variáveis aleatórias discretas (só assume valores inteiros) para contínuas (que só assume intervalos), devemos considerar uma pequena parte antes e depois do ponto para cálculo de probabilidade (meia unidade antes e após o ponto).

42.

Poisson: Se aproxima de uma normal quando λ é grande. Então:

e

Formulário para Probabilidade e Estatística

43. Gráfico de Probabilidade Normal: Quando o número de observações de uma amostra é grande, pode-se construir um histograma e verificar se sua forma segue a forma de sino, sugerindo uma distribuição normal. Se n for pequeno, o histograma pode ter uma forma muito diferente da sua real distribuição, além de poder ser influenciado por um valor discrepante. O gráfico de probabilidade normal é mais adequado para verificar se o gráfico da distribuição segue o modelo normal. Se as observações provêm de uma distribuição normal, uma relação aproximadamente linear entre os valores esperados (eixo y) e as amostras (eixo x).

Distribuições Amostrais e Estimação de Parâmetros

44. Definições:

a. Parâmetro: medida descritiva (média, variância, proporção, etc.) de valores

x 1 , x 2 ,

associados à população.

b. Estatística: medida descritiva das variáveis aleatórias X 1 , X 2 ,

amostra. A distribuição de probabilidades de uma estatística é denominada distribuição amostral.

c. Amostra aleatória simples: conjunto de n variáveis aleatórias

X n }, cada uma com a mesma distribuição de

probabilidades de certa variável aleatória X. Essa distribuição de

probabilidades deve corresponder à distribuição de freqüências dos valores

associadas à

independentes {X 1 , X 2 ,

,

da população (x 1 , x 2 ,

, x n ).

   

Parâmetros

   

Estatísticas

 

Proporção

 

º

º

 

   

1

   

 

1

 

Média

 

 

 

   

 

 

1

   

1

 

Variância

1

 

 

Distribuições Amostrais

45. Distribuição Amostral da Média: Seja uma amostra aleatória simples {X 1 ,

X

a.

b.

c.

2 ,

,X

n } e a estatística (média amostral):

;

(se a amostragem for com reposição, ou N muito grande ou infinito);

·

(se a amostragem for sem reposição e N não muito grande, N < 20n)

(

(

= fator de correção populacional finita).

d. Teorema do Limite Central: Se n for razoavelmente grande, então a distribuição amostral da média pode ser aproximada pela distribuição normal. Em geral, n 30 já dá uma boa aproximação, porém se a distribuição da população não for muito distante de uma normal, a aproximação pode ser usada com um n menor.

Formulário para Probabilidade e Estatística

46. Distribuição Amostral da Proporção: É usada para estudar uma proporção dos elementos que possuem um determinado atributo.

a. Distribuição de população: pode ser representado por uma variável aleatória de Bernoulli com função de probabilidade:

0

1 – p

1

p

b.

c.

infinito);

(se a amostragem for com reposição, ou N muito grande ou

d.

·

(se a amostragem for sem reposição e N não muito grande, N < 20n);

e. Se o tamanho da amostra for razoavelmente grande, pode ser aproximada pela distribuição normal. Mas se n for pequeno, a distribuição exata é binomial ou hipergeométrica (dependendo se a amostragem for com ou sem reposição).

Estimação de Parâmetros

É um raciocínio tipicamente indutivo, em que se generalizam resultados da parte (amostra) para o todo (população). Pode-se então realizar cálculos sobre uma amostra aleatória simples para estimar os parâmetros de interesse. Os cálculos poderiam ser:

e

respectivamente.

,

que

são

os

estimadores

de

μ

e

σ²,

Uma estatística T é uma função dos elementos da amostra ( , , … , , . Quando é usada para avaliar certo parâmetro θ, é também chamada de estimador de θ.

Um estimador é uma variável aleatória, pois depende da amostra a ser selecionada. Realizada a amostragem, o estimador assume o valor do resultado do cálculo, que é denominado estimativa.

47. Intervalo de confiança para proporção:

a.

b.

c. Erro Padrão =

d. Em todos os itens é considerado que a população é bastante grande ou infinita. Caso contrário, é necessário o uso do fator de correção populacional finita.

e. Intervalo de Confiança: , ̂ · , onde:

P = proporção na população (parâmetro que se quer estimar); ̂= proporção na amostra (pode ser calculada com base na amostra); γ = nível de confiança; z γ = valor resultante da tabela da distribuição t-Student ;

Formulário para Probabilidade e Estatística

= variância da proporção da amostra. Geralmente não pode ser calculado porque depende do parâmetro desconhecido p. Nesse caso:

, ̂

· ̂ 1 ̂

Desde que a amostra seja grande (n 50), a diferença entre e é desprezível.

48. Intervalo de confiança para média: Seja uma população com E(X) = μ e

V(X) = σ². Seja também uma amostra aleatória simples {X 1 , X 2 , Supondo X com distribuição aproximadamente normal:

a.

b. (média na população)

c.

d. (desvio padrão / erro padrão de )

e. ,

(estimador natural de μ).

(se

o

desvio

padrão

é

conhecido.

,

X n } de X.

Se

não

. Mas caso a amostra seja

grande, o uso da primeira fórmula ainda é permitido, pois a diferença entre σ e s é desprezível. Caso a amostra seja pequena, usa-se uma correção (ver abaixo)).

49. Distribuição t de Student: Supondo a população com distribuição normal, a

tem distribuição de probabilidade conhecida como

estatística

distribuição t de Student, com gl = n – 1 graus de liberdade. Cálculo do intervalo de confiança sem conhecer o desvio padrão:

, ( Olha-se a linha n-1 e a coluna ).

50. Tamanho da Amostra:

a. n = tamanho da amostra;

b. E 0 = erro amostral máximo tolerado;

c. γ = nível de confiança;

·

No caso de estimação de

arredondado para o menor inteiro que seja maior que o resultado final).

temos:

μ,

(o

valor

final

deve

ser

A variância geralmente é desconhecida, mas pode ser usada a variância obtida

a partir de:

Estudos anteriores;

Argumentação teórica;

Estudo piloto.

Formulário para Probabilidade e Estatística

Parâmetro de interesse

Valor inicial do tamanho da amostra

1. Uma média (µ):

·

 

2. Uma proporção (p):

 

· 1

 

3. Várias proporções (p 1 , p 2 ,

):

 

4

 
 

Tamanho da amostra

 

População infinita: (arredondamento para o inteiro superior)

População de tamanho N:

· (arredondamento para o inteiro superior)

Caso se queira estimar uma proporção p (0 < p < 1):

· 1

1

4

No caso esteja sendo usado IC = 95%,

Formulário para Probabilidade e Estatística

Testes de Hipóteses

51. Hipóteses: Nula ou de Trabalho (H 0 ) é sempre uma igualdade; Alternativa (H 1 ) é uma desigualdade;

52. Probabilidade de significância: valor p;

53. Nível de significância do teste: α; se p > α, então a hipótese H 0 é aceita; se p < α, então a hipótese H 0 é rejeitada.

54. Tipos de erro: Tipo I: P(rejeitar H 0 |H 0 verdadeira) = α; Tipo II: (aceitar H 1 |H falsa) = β;

55. Abordagem clássica: ao planejar o experimento, monta-se uma regra de decisão em termos da estatística do teste sob H 0 .

56. Testes unilaterais / bilaterais: unilaterais: quando H 0 H 1 ; bilaterais: quando H 0 < H 1 / H 0 > H 1 ;

57. Testes usando a distribuição binomial: μ

n

1

As probabilidades de cada n são somadas em uma cauda (unilateral) ou em duas (bilateral).

Se aproximado por uma distribuição normal, ,

58. Teste para média:

a) Para σ conhecido (normal padrão): ;

σ

b)

Para σ

desconhecido (t-Student): t

; (s = variância de uma amostra)

Comparação entre Tratamentos

59. Teste t para duas amostras pareadas: H 0: µ 1 = µ 2 ; H 1 : µ 1 µ 2 (também < ou >);

estatística do teste: , onde é a média das

Diferença: D = X 2 – X 1

diferenças e s d é o desvio padrão das diferenças.

60. Teste t para duas amostras independentes: H 0: µ 1 = µ 2 ; H 1 : µ 1 µ 2 (também < ou >);

Variância agregada:

2

2

Estatística do teste (para amostras com tamanhos iguais):

,

onde

é a média da amostra 1;

é a média da amostra 2; é a variância agregada das

duas amostras.

Formulário para Probabilidade e Estatística

Estatística do teste (para amostras com tamanhos diferentes):

Sendo que as amostras são independentes, variâncias populacionais são iguais nos dois grupos e os dois conjuntos provêm de distribuições normais.

Correlação e Regressão

61. Correlação: positiva e negativa; diagramas de dispersão;

62. Coeficiente de correlação linear de Pearson:

,

(pode incorporar erros de arredondamento)

, (i = 1, 2,

,

n)

Sendo r pertencente ao intervalo [-1,1]. A força da correlação pode ser ausente, fraca, moderada, forte ou total. O sentido pode ser positivo ou negativo.

63. Coeficiente de correlação populacional: ,

Onde µ X = E(X), µ Y = E(Y), σ X = e σ Y = .

64. Inferência sobre : H 0 : ρ = 0 (X e Y não são correlacionadas);

H 1: ρ 0 (X e Y são correlacionadas, podendo ser também > (positivamente)

ou < (negativamente)).

Teste (t-Student):

65. Regressão Linear Simples: X = Variável explicativa ou independente. Y = Variável resposta ou dependente.

66. Modelo de Regressão Linear Simples: , com α e β como parâmetros do

modelo. Seja um conjunto de observações (x 1 , y 1 ),

variável aleatória associada à i-ésima observação de Y e ε i é o erro aleatório da i-ésima observação de Y de forma aleatória.

, (x n , y n ): , onde Y é a

67. Método dos mínimos quadrados: Método para encontrar a reta mais próxima possível dos pontos observados. Tal método faz com que a soma dos erros quadráticos seja a menor possível.

Erro aleatório da i-ésima observação (i = 1, 2,

método consiste em obter os valores de α e β que minimizam:

, n): . Tal

Formulário para Probabilidade e Estatística

Resultando nas seguintes estimativas para α (a) e β (b):

efetivamente observada.

68. Equação (reta) de regressão: . Resíduo:

, onde (x 1 , y 1 ),

, (x n , y n ) e a amostra

Valor predito:

69. Análise de variância do modelo: as somas dos quadrados dos desvios satisfazem à seguinte equação:

70. Coeficiente de determinação:

(é uma medida descritiva da

variação de Y que pode ser explicada por variações em X, segundo o modelo especificado; R² “explica”, 1-R² = fatores não controláveis no processo).

71. Soma dos quadrados totais: (Com n-1 graus de liberdade)

72. Soma dos quadrados do erro ou dos resíduos: (com n-2 graus de liberdade)

73. Soma dos quadrados da regressão: ;

74. Coeficiente de determinação:

1