Você está na página 1de 80

População

Conjunto de elementos com pelo menos uma característica em


comum observável

Amostra
Uma amostra é um subconjunto de dados extraído de uma
população.

Amostragem
É o processo de retirada de uma ou mais amostras de uma
população

Variável Aleatória
É uma variável que pode assumir a priori qualquer resultado
possível em um experimento aleatório.
As variáveis aleatórias podem ser quantitativas ou qualitativas.

V. A, Qualitativa
O seu valor é expresso por um atributo ou qualidade.
Ex.: Tipo de Rocha
V.A. Quantitativa
Associa à cada elemento da população um valor numérico para uma
característica a ser analisada.
As variáveis aleatórias quantitativaspodem ser discretas ou
contínuas.

V. A. Discreta
Em um dado experimento pode assumir, a priori, qualquer valor
dentro de um conjunto finito ou uma seqência infinita de valores.

Exs.: - uma v. a. binária em que 0 e 1 indicam se um dado de teor


está acima ou abaixo de um certo teor limite, ou se pertence a uma
dada classe.
- número de grãos de um determinado mineral que estão
presentes numa amostra.

V, A. Contínua
Em um dado experimento pode assumir, a priori, qualquer valor
dentro de um dado intervalo pertencente ao seu espaço amostral.
Ex.: Teor de uma dada substância.
Nomenclatura
Para se referir a uma variável aleatória de forma geral
será utilizada uma letra maiúscula.

Um valor específico que a variável aleatória pode


assumir será representado por letra minúscula.

P(Z>z)
Função massa de probabilidade de uma v. a. discreta X - p(x)

p(x) associa a cada valor possível de X assumir, a probabilidade de


sua ocorrência, ou seja: p(x) = P(X = x)

Função massa do somatório de pontos no lançamento de 2 dados

0.196
0.168
0.140
0.112
p(x)

0.084
0.056
0.028
0.000
0 1 2 3 4 5 6 7 8 9 10 11 12 13
X

 p( x ) = 1
xi 
i
Função densidade de probabilidade de uma v. a. contínua X - f(x)

A função densidade de probabilidade (fdp) associa um valor f(x) a cada


valor x de uma v. a. contínua X, tal que a probailidade de X estar entre x
e x+dx (dx infinintesimal) é dado por f(x).dx.

Propriedades de f(x)

área sob a curva entre a e b


Função densidade de probabilidade de uma v. a. contínua X - f(x)

A função densidade de probabilidade (fdp) associa um valor f(x) a cada


valor x de uma v. a. contínua X, tal que a probailidade de X estar entre x
e x+dx (dx infinintesimal) é dado por f(x).dx.

Propriedades de f(x)

área sob a curva entre a e b


f(x)
dx

f(x).dx
P(x<X<x+dx)

x x+dx
Função de repartição, ou Lei de repartição ou Funçào de distribuiçào
acumulada de uma variável aleatória X - F(x)

F ( x) = P( X  x)
Para uma variável discreta X

F ( x ) = P ( X  x ) =  P ( X = ti )  −   ti  
ti  x

Para uma variável contínua X


x
F ( x) = P( X  x) =  f (t )dt
−
−  t  
Propriedades de F(x)

1. F(x) é uma função não decrescente.

2. Quando x → -∞ F(x) → 0
x→ ∞ F(x) → 1

3. P(a ≤ X < b) = F(b) – F(a)

dF ( x)
4. f ( x ) = = F ' ( x)
dx
b
5. P(a  X  b) = F (b) − F (a ) =  f ( x)dx
a
No experimento de se lançar um dado de 6 faces

F(4)=P(X≤4) = 4/6

F(2)=P(X≤2) = 2/6

P(2≤X<4)=F(4)-F(2)=2/6
Relação entre F(x) e f(x)
Gráfico da função de repartição para o exemplo do
lançamento de 2 dados
Estatística Descritiva Estatística Inferencial

Média Esperança matemática

Variância Experimental Variância

Histograma de frequência Função massa ou densidade


Relativa de probabilidade

Histograma acumulado Função ou lei de Repartição


crescente relativo

Regressão Esperança Condicional


Histogramas

Tipos

Frequência Simples
→ Função massa ou densidade
Frequência Relativa

Frequência Acumulada Simples


→ Função ou lei de Repartição
Frequência Acumulada Relativa
A forma do histograma é sensível ao número de classes.

Sugestões para o cálculo do número de classes K

1. Critério de Sturges

2. 5  k  20
3.

n é o número de dados.
Histogramas

Influência do número de classes

Escalas aritmética e logarítmica

Pode indicar mistura de populações ou de


variáveis com comportamentos diferentes
O agrupamento em classes simplifica o cálculo do histograma
acumulado crescente. Para se obter um histograma de frequência
acumulado mais rigoroso, ele deveria ser construído ponto a ponto
da seguinte forma:

1. Ordenar crescentemente todos os valores de X medidos.


i
2. Atribuir a cada valor Xi do conjunto ordenado, o valor n +1

para a sua respectiva função de repartição.


Visualização de todos os dados em um único gráfico
Histograma de frequencia relativa de X Histograma de frequência acumulada relativa de X
35 1 00

30
80
25

60
20
%

%
15
40

10

20
5

0 0
0 5 10 15 20 25 30 35 0 5 10 15 20 25 30 35
X X

Função de repartição de X ponto a ponto


1 .0

0.8

0.6
%

0.4

0.2

0.0
0 10 20 30 40
X
Histograma em escala aritmética
Histograma em escala logaritmica
Histograma acumulado crescente

Permite ver todos os dados em um só gráfico

Isolar populações estatísticas diferentes

Verificar se dados seguem uma distribuição de probabilidade

Presença de outliers

Anamorfose
Isolamento de populações diferentes
Histograma de frequência relativa de X

20

15

%
10

0
8 12 16 20 24
X

Função de repartição de X
1 .0

0.8

0.6
%

0.4

0.2

0.0

5 10 15 20 25
X
Observação de Outliers
Histograma de frequência relativa de X
25

20

15

%
10

0
0.0 7.5 1 5.0 22.5 30.0 37.5
X

função de repartição de X
1 .0

0.8

0.6
%

0.4

0.2

0.0

0 10 20 30 40
X
Anamorfose Gaussiana
Histograma de frequencia relativa de X
35

30

25

20
%

15

10

0
0 5 10 15 20 25 30 35
X

Dados originais
Anamorfose

Histograma relativo dos dados de X transformados (normalizados)


20

15
Percent

10

0
-2 -1 0 1 2
X Normalizado

Dados transformados
Tabela de nscores para transformação inversa

Repartição F X normalizados X originais Repartição F X normalizados X originais


-4.0000 0.0000 0.50 0.0000 6.8705
0.02 -2.0537 0.2246 0.52 0.0502 7.3873
0.04 -1.7507 0.4042 0.54 0.1004 8.3138
0.06 -1.5548 0.9701 0.56 0.1510 9.3009
0.08 -1.4051 1.0358 0.58 0.2019 9.5995
0.10 -1.2816 1.0584 0.60 0.2533 9.6126
0.12 -1.1750 1.1916 0.62 0.3055 10.0906
0.14 -1.0803 1.7847 0.64 0.3585 10.8971
0.16 -0.9945 2.3490 0.66 0.4125 11.8908
0.18 -0.9154 2.4123 0.68 0.4677 12.1325
0.20 -0.8416 2.6094 0.70 0.5244 12.4433
0.22 -0.7722 3.0959 0.72 0.5828 12.4887
0.24 -0.7063 3.2420 0.74 0.6433 13.0292
0.26 -0.6433 3.2955 0.76 0.7063 14.6796
0.28 -0.5828 3.9192 0.78 0.7722 14.6814
0.30 -0.5244 4.0058 0.80 0.8416 15.5917
0.32 -0.4677 4.2037 0.82 0.9154 17.4276
0.34 -0.4125 4.4746 0.84 0.9945 17.6891
0.36 -0.3585 5.0101 0.86 1.0803 18.6662
0.38 -0.3055 6.0772 0.88 1.1750 20.0315
0.40 -0.2533 6.2305 0.90 1.2816 20.0713
0.42 -0.2019 6.2506 0.92 1.4051 25.7699
0.44 -0.1510 6.3261 0.94 1.5548 29.3011
0.46 -0.1004 6.5924 0.96 1.7507 30.9160
0.48 -0.0502 6.5950 0.98 2.0537 35.2251
0.50 0.0000 6.8705 4.0000 40.0000
Histograma dos 200 valores simulados normais Histograma relativo dos dados de X simulados (transformação inversa)
18
20
16

14
15
12

10

%
%

10
8

5 4

0 0
-3 -2 -1 0 1 2 3 0 6 12 18 24 30 36
valores normais simulados valores de X simulados (200 valores)

Valores normais simulados


Anamorfose inversa
Histograma de frequencia relativa dos 49 dados originais de X Histograma relativo dos dados de X simulados (transformação inversa)
40
35

30
30
25
Percent

20
20
%

15

10 10

0 0
0 5 10 15 20 25 30 35 0 5 10 15 20 25 30 35

Valores originais de X valores de X simulados (200 valores)

Valores simulados transformados


Características Numéricas de uma Variável Aleatória**

Esperança Matemática - E[X] - μ

EX  =  x . p( x )
i i para v. a. discreta
xi 

EX  =  xf ( x)dx para v. a. contínua
−

A esperança matemática fornece o valor em torno do qual a v.a. se


distribui. Tem uma conotação de centro de gravidade da
distribuição da variável aleatória.

A esperança matemática é inferida através do cálculo da média


( )
aritmética X de um conjunto de valores de X amostrados.
n

x i
m= X = i =1
n
** Não tem sentido para variáveis categóricas
Propriedades da esperança matemática
Moda

Quando f(X) tem um máximo, o valor de X correspondente a este


máximo, denomina-se Moda.

Quando a função densidade de probabilidade é simétrica e


unimodal e quando a esperança matemática existe, então a
esperança matemática e a moda coincidem.

Quando a forma de um histograma parece indicar a existência de


“duas modas” , isto pode ser indício de que o conjunto de dados
pode ser composto por dados que apresentam algumas
características diferentes, o que deve ser investigado.

A moda é sensível à precisão dos dados, ou seja, ao número de


dígitos significativos utilizados para representar os dados.
Nuvens de Correlação
Figura extraída de curso do Journel
Mediana

Chama-se mediana de uma variável aleatória X, o valor de X= Me tal


que P(X< Me ) = P(X> Me )=0.5

Se f(X) é simétrica e unimodal, então a mediana coincide com a


média e moda.

Como medida de tendência central, a mediana é menos influenciada


por valores “extremos” ou outliers do que a média aritmética.

Em um conjunto de valores amostrados de X, ordenados


crescentemente, a mediana pode ser estimada por:

 X n +1 se n é ímpar
 2

Me = Xn + Xn
 2 2
+1
se n é par
 2
24.95 6.49 6.49
19.85 9.66 media 17.23778 9.66 media 21.594
28.57 11.33 mediana 17.94 11.33 mediana 18.715
17.94 16.86 16.86
16.86 17.94 17.94
19.49 19.49 19.49
6.49 19.85 19.85
9.66 24.95 24.95
11.33 28.57 28.57
60.8
Quantil de uma variável aleatória X - xp
É o valor de X a que corresponde o valor da função de repartição
ou histograma acumulado crescente igual a p %.

F ( x p ) = p%
Tem-se então, que o primeiro quartil, ou quartil inferior Q1=X0,25 e
que o terceiro quartil, ou quartil superior Q3=X0.75. A mediana é igual
a X0.50. O terceiro decil corresponde a X0,3 , enquanto que o décimo
segundo percentil corresponde X0.12. X0 é o valor mínimo. X1.0 é o
valor máximo. De uma forma geral se tem o p-quantil de X,
expresso como x p

Os quantis são muito utilizados na simulação de Monte Carlo e


para transformar um conjunto de dados em outro que segue uma
distribuição qualquer.
Momento de ordem s de uma variável aleatória X – ms(X)

+
ms ( x) = E[ X s ] =  f ( x)dx
s
x
−

Momento de ordem s de uma variável aleatória X centrada em a – ms(x-a)


+
ms ( x − a) = E[( X − a) s ] =  ( x − a) s f ( x)dx
−

Variância de uma variável aleatória X - var(X) = σ2

Define-se variância como sendo o momento de ordem 2 centrado na


média, ou seja:
+
 2 = Var(X) = m2 ( x −  ) = E[( X −  ) 2 ] =  ( x −  ) 2 f ( x)dx V. A. Contínua
−

2 = (
 ix −  )2
p(xi ) V. A. Discreta
xi 
A variância nos indica como a variável aleatória X varia ou se distribui
em torno da sua esperança matemática ou média. É uma medida da
dispersão dos valores de X em torno da sua média.

A variância tem uma conotação de momento de inércia.

A raiz quadrada da variância é denominada de Desvio Padrão (σ)


Estimativa da variância a partir de um conjunto de n valores de X

 (X )
n 2

i −X
sn2 = i =1
Variância experimental
n

 (X )
n 2

i −X
sn2−1 = i =1
Variância Amostral
n −1
A variância bem como o desvio padrão são muito sensíveis a valores
extremos.
Para estimar σ2 da população deve-se utilizar a fórmula da variância
amostral quando n≤30. Quando n>30, pode-se usar qualquer uma
das duas fórmulas.

Pode-se demonstrar através do uso das propriedades da esperança


matemática, que:

Var ( X ) = E[( X −  ) ] = E  X 2  − ( E  X )
2 2
Propriedades da variância
1. Var (c) = 0
2. Var ( X + c) = Var ( X )
3. Var (cX ) = c 2Var ( X )
4. Var ( X + Y ) = Var ( X ) + Var (Y ) + 2 cov( X , Y ),
onde cov( X , Y ) é a covariância entre as variáveis X e Y
5. Cov( X , Y ) = E[ XY ] − E[ X ]. E[Y ] = E[( X −  x )(Y −  y )]
6. Var[ X ] = cov( X , X )
n
7. Se Y =  ai X i então :
i =1
n n n
Var(Y) =  a i Var ( X i ) +  ai a j cov( X i , X j )  i  j
2

i =1 i =1 j =1
n n
Var(Y ) =  ai a j cov( X i , X j )  i, j
i =1 j =1

cov(z+y,z)=cov(x,z)+cov(y,z)
Propriedades da variância
1. Var (c) = 0
2. Var ( X + c) = Var ( X )
3. Var (cX ) = c 2Var ( X )
4. Var ( X + Y ) = Var ( X ) + Var (Y ) + 2 cov( X , Y ),
onde cov( X , Y ) é a covariância entre as variáveis X e Y
5. Cov( X , Y ) = E[ XY ] − E[ X ]. E[Y ] = E[( X −  x )(Y −  y )]
6. Var[ X ] = cov( X , X )
n
7. Se Y =  ai X i então :
i =1
n n n
Var(Y) =  a i Var ( X i ) +  ai a j cov( X i , X j )  i  j
2

i =1 i =1 j =1
n n
Var(Y ) =  ai a j cov( X i , X j )  i, j
i =1 j =1

cov(z+y,z)=cov(x,z)+cov(y,z)
A - Variáveis X e Y independentes Cov(X,Y) = 0 ρ =0

B - Correlação linear entre X e Y ρ próximo de +1

C - Correlação linear entre X e Y ρ próximo de -1

D - Variáveis correlacionadas , mas não na forma linear Cov(X,Y) e ρ≈0


X y X*Y
Altura (cm) Peso (kg)
173 70 12110
169 66 11154
172 70 12040
174 68 11832
165 64 10560
170 68 11560
171 72 12312
168 65 10920
178 72 12816
180 79 14220

Média 172 69.4 11952.4


Desvio Padrão 4.289522118 4.127953

Cov(X,Y) 15.6

Coeficiente de correlação linear 0.88101


X y X*Y
Altura (dam) Peso (toneladas)
0.173 0.07 0.01211
0.169 0.066 0.011154
0.172 0.07 0.01204
0.174 0.068 0.011832
0.165 0.064 0.01056
0.17 0.068 0.01156
0.171 0.072 0.012312
0.168 0.065 0.01092
0.178 0.072 0.012816
0.18 0.079 0.01422

média 0.172 0.0694 0.011952


Desvio Padrão 0.004289522 0.004127953

Cov(X,Y) 0.0000156

Coeficiente de correlação linear 0.88101


E[( X − X )(Y − Y )] = E[( XY − X Y − XY + X Y )] =
E[ XY ] − E[ X Y ] − E[ XY ] + E[ X Y ] =
E[ XY ] − YE[ X ] − X E[Y ] + X Y =
E[ XY ] − Y X − X Y + X Y =
E[ XY ] − X Y = E[ XY ] − E[ X ]E[Y ]
Propriedades da variância
1. Var (c) = 0
2. Var ( X + c) = Var ( X )
3. Var (cX ) = c 2Var ( X )
4. Var ( X + Y ) = Var ( X ) + Var (Y ) + 2 cov( X , Y ),
onde cov( X , Y ) é a covariância entre as variáveis X e Y
5. Cov( X , Y ) = E[ XY ] − E[ X ]. E[Y ] = E[( X −  x )(Y −  y )]
6. Var[ X ] = cov( X , X )
n
7. Se Y =  ai X i então :
i =1
n n n
Var(Y) =  a i Var ( X i ) +  ai a j cov( X i , X j )  i  j
2

i =1 i =1 j =1
n n
Var(Y ) =  ai a j cov( X i , X j )  i, j
i =1 j =1

cov(z+y,z)=cov(x,z)+cov(y,z)
cov( X , Y ) = E[ XY ] − E[ X ]E[Y ]
cov( X , X ) = E[ XX ] − E[ X ]E[ X ]
cov( X , X ) = E[ X ] − ( E[ X ]) = Var ( X )
2 2
 n    n 
2
  n  
2
Var   ai X i  = E   ai X i  −  E  ai X i  
 
 i =1   i =1    i =1 
 n 
2
E   ai X i  
 i =1  

a1 X1 + a2 X 2 + a3 X 3 + a4 X 4
a1 X1 + a2 X 2 + a3 X 3 + a4 X 4
_____________________
n n
  a ia j X i X j
i =1 j =1

n n  n n
E    a i a j X i X j  =   a i a j E  X i X j 
i =1 j =1  i =1 j =1
2
 n 
 E   ai X i  
 i =1 
a1E  X1  + a2 E  X 2  + a3 E  X 3  + a4 E  X 4 
a1E  X1  + a2 E  X 2  + a3 E  X 3  + a4 E  X 4 
__________________________________
n n
  a ia j E  X i  E  X j 
i =1 j =1
2
  n  n n
 E   ai X i   =   a i a j E  X i X j 
 i =1   i =1 j =1
 n    n 
2
  n  
2
Var   ai X i  = E   ai X i   −  E   ai X i   =
 i =1   i =1     i =1 
n n n n
  a ia j E  X i X j  −   a ia j E  X i  E  X j  =
i =1 j =1 i =1 j =1

  a i a j ( E  X i X j  − E  X i  E  X j  ) =
n n

i =1 j =1

 n  n n
(
Var   ai X i  =   a i a j cov X i , X j )
 i =1  i =1 j =1
É desejável
Condição de não enviesamento

Sob hipótese de estacionariedade , se :

n n
Z V* =   z e   =1
 =1 =1

E[ Erro] = E[Z − ZV ] = 0
*
V
Distância Interquartil - IQR

IQR = Q3 – Q1

Diferentemente da variância e do desvio padrão a distância


Interquartil não utiliza a média como centro da distribuição, e é
portanto, muitas vezes preferida se uns poucos valores erráticos
influenciam fortemente a média, para medir a capacidade de
dispersão dos dados.
Estatística de variáveis categóricas
indicadores
categoria (sk) tipo de mineral amostra (j) tipo de mineral i (uj,sk=1) i (uj,sk=2) i (uj,sk=3)
1 calcáreo 1 0 0
1 calcáreo 2 calcáreo 1 0 0
2 dolomita 3 calcáreo 1 0 0
3 anidrita 4 dolomita 0 1 0
5 calcáreo 1 0 0
6 dolomita 0 1 0
7 anidrita 0 0 1

Indicador para a categoria calcáreo - sk=1


indicadores
categoria (sk) tipo de mineral amostra (j) tipo de mineral i (uj,sk=1) i (uj,sk=2) i (uj,sk=3)
1 calcáreo 1 0 0
1 calcáreo 2 calcáreo 1 0 0
2 dolomita 3 calcáreo 1 0 0
3 anidrita 4 dolomita 0 1 0
5 calcáreo 1 0 0
6 dolomita 0 1 0
7 anidrita 0 0 1

Estimar o indicador no ponto P para sk=1


Coeficiente de Variação - CV


CV =

CV é útil como medida de assimetria e dispersão de valores para


distribuições assimétricas positivas com valor mínimo igual a 0.
Fornece uma indicação do grau de dificuldade para estimativas
locais.
< 1 ➔ problema simples
1-2 ➔ alguma dificuldade com valores
extremos,
> 2 ➔ valores extremos podem gerar
grande dificuldade na estimativa

?
Valores extremos: valores erráticos que pertencem à solução
do problema e devem ter impacto significativo em estimativas
tais como média, variância, coeficientes de correlação linear ou
medidas de continuidade espacial.
Outliers: valores normalmente elevados que não são
relevantes para a solução da meta imposta pelo estudo.

O que fazer com os valores extremos?

i. Declará-los valores errôneos e removê-los?


ii. Classificá-los como pertencentes à outra população?
iii. Estratificação da região?
iv. Utilizar parâmetros estatísticos mais robustos, que
não sejam afetados por valores extremos. Ex.: mediana,
distância entre quartis (IQR), madogramas, variogramas
relativos,etc.
v. Trabalhar com dados transformados (ex.: log, raiz
quadrada) para reduzir a influência de valores extremos. Deve-
se tomar cuidado ao retornar os valores ao espaço original dos
dados.
Efeito da presença de outlier numa regresão

A B C

Se o objetivo do estudo é a regressão de Y em função de X, as presenças dos outliers em B e C


não deveriam ser consideradas para não prejudicar a qualidade da regressão obtida em A.
n = 2373 informações
n = 2368 informações

Você também pode gostar