Escolar Documentos
Profissional Documentos
Cultura Documentos
INSTRUMENTAÇÃO
NÍVEL 1
ESTATÍSTICA APLICADA À
METROLOGIA
1- 1 -
2
INSPETOR DE INSTRUMENTAÇÃO NÍVEL 1
ESTATÍSTICA APLICADA À METROLOGIA
3
© PETROBRAS – Petróleo Brasileiro S.A.
Todos os direitos reservados e protegidos pela Lei 9.610, de 19.2.1998.
É proibida a reprodução total ou parcial, por quaisquer meios, bem como a produção de
apostilas, sem autorização prévia, por escrito, do Petróleo Brasileiro S.A. – PETROBRAS.
Silva, Adieci Vigannico da. Wagner, Eduardo. Inspetor De Instrumentação Nível 1 (Estatística
Aplicada a Metrologia.) / Prominp – SENAI. RS, 2007.
99 p.: 18 il.
4
INDICE
5
5.1 HIPÓTESES ESTATÍSTICAS............................................................................................... 37
5.2 TESTES DE HIPÓTESES PARAMÉTRICOS ...................................................................... 37
5.3 ERRO TIPO I E ERRO TIPO II............................................................................................. 39
5.4 A DISTRIBUIÇÃO T.............................................................................................................. 40
5.5 TESTE DE HIPÓTESES PARA A MÉDIA ............................................................................ 41
5.5.1 Com σ conhecido................................................................................................................ 41
5.5.2 Com σ desconhecido .......................................................................................................... 42
5.6 TESTE DE HIPÓTESES PARA A DIFERENÇA ENTRE DUAS MÉDIAS. .......................... 42
5.6.1 Pressuposições ao uso do teste t para duas amostras independentes ............................... 42
5.7 COMPARAÇÃO ENTRE DUAS VARIÂNCIAS..................................................................... 43
5.8 TESTE DE HIPÓTESES PARA A DIFERENÇA ENTRE DUAS MÉDIAs............................ 44
5.9 TESTE DE HIPÓTESES PARA A DIFERENÇA ENTRE DUAS MÉDIAS (AMOSTRAS
PAREADAS)........................................................................................................................................... 44
5.10 INTERVALO DE CONFIANÇA ............................................................................................. 45
2
5.10.1 Intervalo de confiança para a média quando a variância populacional é conhecida....... 45
2
5.10.2 Intervalo de confiança para a média quando a variância populacional é desconhecida . 46
5.11 FORMA USADA NAS PUBLICAÇÕES E SOFTWARES DE ANÁLISE ESTATÍSTICA PARA
REPRESENTAR A SIGNIFICÂNCIA DE UM VALOR CALCULADO .................................................... 46
6 NOÇÕES DE AMOSTRAGEM ........................................................................................................49
6.1 PRINCIPAIS PROCEDIMENTOS DE AMOSTRAGEM ....................................................... 49
6.1.1 Amostragem aleatória simples ............................................................................................. 49
6.1.2 Amostragem aleatória estratificada ...................................................................................... 50
6.1.3 Amostragem aleatória sistemática........................................................................................ 51
6.1.4 Amostragem aleatória por conglomerados........................................................................... 51
6.2 CÁLCULO DO TAMANHO MÍNIMO DA AMOSTRA ............................................................ 51
6.2.1 Raciocínio do cálculo de n para estimar ............................................................................ 52
6.2.2 Fórmulas para o tamanho amostral quando se deseja estimar parâmetros ........................ 53
6.2.3 Fórmula para os tamanhos amostrais quando se deseja comparar dois grupos ................ 53
7 ANÁLISE DA VARIÂNCIA (ANOVA) ...............................................................................................55
7.1 ANOVA COM UM CRITÉRIO DE CLASSIFICAÇÃO ........................................................... 55
7.2 TESTE DE COMPARAÇÕES MÚLTIPLAS ENTRE MÉDIAS ............................................. 58
8 CORRELAÇÃO LINEAR SIMPLES.................................................................................................61
8.1 COEFICIENTE DE CORRELAÇÃO (R) ............................................................................... 62
8.1.1 Variação do coeficiente de correlação ................................................................................. 62
8.1.2 Cálculo do coeficiente de correlação em uma amostra ....................................................... 63
8.1.3 Teste de hipóteses sobre a correlação ................................................................................ 63
8.1.4 Etapas do teste de hipóteses da correlação ........................................................................ 64
8.1.5 Avaliação qualitativa do grau de correlação entre duas variáveis ....................................... 65
6
8.1.6 Coeficiente de determinação ................................................................................................ 65
9 REGRESSÃO LINEAR SIMPLES ...................................................................................................67
9.1 A RETA DE REGRESSÃO LINEAR ..................................................................................... 67
9.1.1 Equação da Reta .................................................................................................................. 67
9.1.2 Os pontos experimentais ...................................................................................................... 68
9.1.3 Obtenção da reta de regressão ............................................................................................ 69
9.1.4 Teste de significância da regressão ..................................................................................... 69
9.1.5 Etapas do teste de hipóteses da regressão ......................................................................... 70
9.1.6 Utilidades da reta de regressão ............................................................................................ 70
9.1.7 Requisitos ao estudo da regressão linear ............................................................................ 71
10 PROCESSO DE MEDIÇÃO.............................................................................................................73
11 MEDIDAS DE PRECISÃO ...............................................................................................................75
11.1 REPETITIVIDADE (REPE) ................................................................................................... 75
11.2 REPRODUTIBILIDADE (REPRO) ........................................................................................ 76
11.3 CÁLCULO DA REPETITIVIDADE E REPRODUTIBILIDADE .............................................. 76
11.3.1 Repetitividade (representada por r) ...................................................................................... 76
11.3.2 Repetitividade relativa percentual (representada por (r)) ..................................................... 77
11.3.3 Reprodutibilidade (representada por R) ............................................................................... 77
11.3.4 Reprodutibilidade relativa percentual (representada por (R)) .............................................. 77
12 ANÁLISE DE VALORES EXTREMOS (OUTLIERS).......................................................................79
12.1 MÉTODO PASSO-A-PASSO REFERENTE À IDENTIFICAÇÃO E SUBSTITUIÇÃO DE
VALORES EXTREMOS (ASTM D4483-03) ........................................................................................... 80
ANEXO ...................................................................................................................................................87
BIBLIOGRAFIA.....................................................................................................................................999
7
8
LISTA DE FIGURAS
9
10
LISTA DE TABELAS
11
12
1 CONCEITOS BÁSICOS ESTATÍSTICA
A estatística é uma ciência rica em ferramentas para a tomada de decisão, aplicável em qualquer
ramo do conhecimento que trabalhe com dados experimentais. Seu uso é de grande importância e
muito difundido nos últimos tempos.
Estatística é a ciência que tem por objetivo orientar a coleta, a sumarização, a apresentação, a
análise e interpretação de dados. Pode ser dividida em duas grandes áreas, estatística descritiva e
inferencial.
Estatística descritiva: esta área está envolvida com o resumo e a apresentação dos dados. Onde
estão os valores centrais? Como os valores se estendem? Que forma tem a distribuição dos valores?
Existe alguma mudança nos valores com o passar do tempo? O objetivo da estatística descritiva é
providenciar respostas para este tipo de perguntas.
Estatística inferencial: ajuda a concluir sobre conjuntos maiores de dados (população) quando apenas
partes deles (amostras) foram estudadas. Como o processo de indução não é exato, se está sujeito a
um certo grau de incerteza. A estatística inferencial dirá até que ponto se pode estar errando nas
induções, e com que probabilidade.
População ou universo: conjunto de elementos que possuem alguma característica em comum. Pode
ser finito, quando se conhece o número total de elementos, ou infinito. Os objetos dos estudos são
sempre as populações; no entanto, como elas são constituídas de um número muito grande de
elementos, são estudadas através de alguns deles, que constituirão o que se denomina uma amostra.
Amostra: é um subconjunto da população, isto é, uma parte da população retirada segundo alguns
critérios estatísticos. Como a finalidade da amostra é representar a população, deseja-se que a
amostra escolhida apresente as mesmas características da população de origem, isto é, que seja uma
amostra “representativa” ou “não-tendenciosa”.
Amostragem: é o processo de obtenção de uma amostra; são técnicas cuja finalidade é tornar
representativa a amostra extraída da população.
Parâmetros: são medidas que caracterizam uma população. É um valor que resume, na população, a
informação relativa a uma variável. Os parâmetros são difíceis de serem obtidos, porque implicam no
13
estudo de toda a população e costumam ser substituídos por valores calculados de amostras
representativas da população de interesse.
Estatística: além de ser uma ciência, é a denominação dada a uma quantidade calculada com base
nos elementos de uma amostra, que descreve a informação contida neste conjunto de dados.
Variáveis: são características de interesse observadas de acordo com o que está sendo estudado. É
importante identificar que tipo de variável está sendo estudada, uma vez que procedimentos
estatísticos diferentes são recomendados em cada situação. As variáveis podem ser:
1) Variáveis qualitativas - Expressam uma qualidade, e podem ser chamadas de variáveis
categóricas ou atributos. Subdividem-se em:
Nominais: fornecem categorias ou nomes a alguma variável. Exemplo: sexo, estado
civil, profissão.
Ordinais: as categorias de uma variável são ordenadas de acordo com a intensidade
do fenômeno. Exemplo: classe social, grau de instrução.
2) Variáveis quantitativas - Expressam uma quantidade. Subdividem-se em:
Discretas: podem ser valores observados somente em partes isoladas ao longo de
uma escala, em geral números inteiros. Exemplo: número de pessoas, número de
carros fabricados por dia.
Contínuas: podem assumir qualquer valor ao longo de uma escala. Exemplo: altura,
idade, velocidade.
14
2 DESCRIÇÃO DOS DADOS
Um conjunto de números pode reduzir-se a algumas medidas numéricas que resumem os dados.
Quando se analisa um conjunto de dados, é necessário encontrar um ponto que represente a
localização dos dados (medidas de tendência central) e estudar a dispersão deste grupo (medidas de
variabilidade).
Medidas de tendência central são valores calculados com o objetivo de se representar os dados de
uma forma ainda mais condensada do que usando uma tabela. Geralmente, elas se localizam em
torno do meio ou do centro de uma distribuição, onde a maior parte dos dados está concentrada.
Há várias medidas de tendência central. As mais utilizadas em análises estatísticas são a média
aritmética, a mediana e a moda.
É a medida de tendência central mais utilizada, pois apresenta grande facilidade de cálculo e de
interpretação. Denota o ponto de equilíbrio dos dados.
O cálculo da média aritmética para dados não-agrupados é dado pela seguinte fórmula:
___ n
X = xi / n
i =1
Exemplo: Suponha-se que, ao passar pelo acabamento, se observe o tempo que uma operária leva
para examinar cinco pneus de mesma medida. Considere-se o tempo em segundos:
15
60; 61; 59; 62; 61; 59; 60; 61; 59; 58.
___
n=10 X = 60+61+59+62+61+59+60+61+59+58 / 10 = 60 segundos.
Exemplo: Idade, em anos, em uma amostra de crianças da primeira série de uma escola.
2.1.4 Mediana
A mediana (md) é o valor que divide uma série ordenada de dados em dois subgrupos de igual
tamanho, de forma que 50% das observações fiquem abaixo dela, e o restante, acima. Uma
característica importante da mediana é que ela não é afetada por valores extremos. O primeiro passo
em sua determinação é ordenar os dados, para que se possa identificar em que posição a mediana se
localiza. Mediana para dados não-agrupados:
1) Número de observações ímpar:
n=9
Considere-se a série: 60; 61; 59; 62; 61; 59; 60; 61; 59.
Série ordenada: 59; 59; 59; 60; 60; 61; 61; 61; 62.
Md = xi com i = (n+1) / 2
Md= x5 = 60
2) - Número de observações par:
n=10
Série ordenada: 58; 59; 59; 59; 60; 60; 61; 61; 61; 62.
Md = (xi + xj) / 2 com i = n / 2 e j = n / (2+1)
16
Md = (x5 + x6) / 2 = (60 + 60) / 2 =60
2.1.5 Moda
A moda é o valor que ocorre com maior freqüência, ou seja, valor ou valores onde se concentram as
observações da série de dados.
Exemplo: 58; 59; 59; 59; 60; 60; 61; 61; 61; 62.
A média aritmética é a preferível às demais medidas para estimar a tendência central quando se trata
de muitas classes de populações, por haver menos variabilidade entre as médias aritméticas
calculadas a partir de várias amostras aleatórias do que entre as medianas e as modas.
Ela pode ser calculada a partir dos dados brutos, sem recorrer a qualquer agrupamento ou ordenação
de valores originais, o que não ocorre com a mediana e a moda.
A mediana é preferível à média quando se está interessado em conhecer exatamente o ponto médio
da distribuição, aquele valor que a divide em duas partes iguais. É preferível, ainda, quando os
resultados extremos são tais que podem afetar sensivelmente o valor da média.
A moda é utilizada essencialmente quando se pretende apenas uma medida rápida e aproximada da
tendência central.
Viu-se anteriormente que uma distribuição pode ser dividida em duas partes iguais através da
mediana. Uma distribuição pode, ainda, ser subdividida em quatro partes, em dez partes ou em cem
partes iguais, originando os quartis, os decis e os percentis, respectivamente.
17
O cálculo dos quartis, decis e percentis é realizado de modo semelhante ao da mediana. Para dados
não-agrupados, as posições ocupadas pelos elementos quartílicos de um conjunto ordenado serão:
n par n ímpar
0 0
i = (n + 2) / 4 - 1 Quartil (Q 1) i = (n + 1) / 4 - 1 Quartil (Q 1)
0 0
i = (2n + 2) / 4 - 2 Quartil (Q 2) i = 2(n + 1) / 4 - 2 Quartil (Q 2)
0 0
i = (3n + 2) / 4 - 3 Quartil (Q 3) i = 3( n + 1) / 4 - 3 Quartil (Q 3)
Tabela 2 – Números pares e ímpares
Se i for inteiro, então o elemento quartílico será Q=xi. Caso não seja inteiro, o elemento quartílico será
a média dos valores mais próximos.
O primeiro quartil é o valor que divide o conjunto em duas partes tais que um quarto ou 25% dos
valores sejam menores do que ele e três quartos, ou 75% dos restantes, sejam maiores. O segundo
quartil é o valor que divide em duas partes iguais quanto ao número de elementos, isto é, 50% dos
valores do conjunto são menores e os restantes são maiores (o segundo quartil é igual à mediana).
Analogamente, é a interpretação para o terceiro quartil.
Exemplo: Dada a série ordenada: 58; 59; 59; 59; 60; 60; 61; 61; 61; 62.
Q1 = (10 + 2) / 4 = 3 Q1 = 59
Q2 = (20 + 2) / 4 = 5,5 Q2 = 60 + 60 / 2 = 60
Q3 = (30 + 2) / 4 = 8 Q3 = 61
O cálculo dos decis e percentis segue processo análogo. Facilmente se verifica que Q1 = P25,Q2= Md =
D5 = P50 e Q3= P75.
18
Ambos os alunos têm média 6, mas o primeiro aluno apresenta um comportamento regular, ao passo
que o desempenho do aluno B é mais variável. Para mostrar a diversidade de desempenho destes
dois alunos, necessita-se de um valor que meça a dispersão ou variabilidade dos valores nos dois
casos.
A medida mais simples de dispersão é a amplitude de variação (R), que é a diferença entre os valores
extremos.
Para o aluno A, a amplitude é zero (6 - 6) = 0 e para o aluno B, é 4. Quanto maior a amplitude, maior
a variação.
R = xmáx – xmin
2.2.2 Variância
Para levar em conta todos os valores observados na série, foi sugerido o uso dos desvios de cada
valor em relação à média, reunindo-se estas informações em uma quantidade denominada variância.
Usa-se o símbolo δ 2 2
para representar a variância calculada com dados de uma população, e s para
a variância calculada em uma amostra.
Fórmula conceitual:
n _
2
s =( (xi – x ) 2) / (n – 1)
i =1
n
2 2 2
s =( xi – ( xi) / n ) / (n – 1)
i =1
19
Fórmula operacional: esta fórmula alternativa leva a um valor mais correto para a variância, pois não
depende da média, que pode ter sofrido arredondamentos.
Observação:
O numerador da variância é chamado de soma de quadrados (SQ), e o denominador é o número de
graus de liberdade (gI).
2
Produção (x) x
60 3.600
80 6.400
70 4.900
62 3.844
83 6.889
: 355 25.633
2 2 2
s = (25.633 – (355) / 5 ) / (5 - 1) = (25.633 – 25.205 ) / 4 = 107 peças
Observação:
A variância de uma série de dados pode ter valor numérico maior do que o da média. Isso geralmente
é uma indicação de que a distribuição dos dados é assimétrica. Quanto maior a variância de uma
série, maior a dispersão dos valores que a compõem.
Uma dificuldade com a variância, como medida descritiva, é o fato de não poder ser apresentada com
a mesma unidade com que foi medida (se você observar como o cálculo da variância foi feito, vai ver
que a unidade que acompanha o valor da variância é o quadrado da unidade de mensuração da
variável em estudo). A solução é extrair a raiz quadrada da variância para retornar à unidade original
de medida da variável. Esta nova medida de variabilidade é denominada desvio padrão.
s= s2
20
2.2.4 Coeficiente de variação
Quando se analisa a mesma variável em duas amostras, podem-se comparar os desvios padrões
observados e verificar onde a variação é maior. No entanto, o mesmo não pode ser feito em se
tratando de variáveis diferentes.
Para comparar variabilidades neste caso deve-se usar o coeficiente de variação (CV), que é uma
medida de dispersão independente da unidade de mensuração da variável. Quanto menor o
coeficiente de variação, mais homogêneo será o grupo de dados.
O coeficiente de variação representa uma fração em relação à média e é calculado do seguinte modo:
CV = s / x ou CV% = (s / x) .100
Exemplo: Q1 = 65 mm
Q3 = 162 mm
lQ = 162 – 65 = 97 mm
Indicando que os 50% dos valores centrais possuem uma amplitude de 97 mm.
21
22
3 DISTRIBUIÇÃO DE PROBABILIDADE
NORMAL
Esta distribuição foi “descoberta” no início do século XIX, quando astrônomos faziam sucessivas
medidas (como, por exemplo, à distância da lua) e observaram estas variavam e, com um grande
número de observações, chegaram a uma figura similar à abaixo:
onde se tem uma concentração em torno de um valor, e à medida que se afasta — para ambos os
lados, as observações (ou probabilidades) diminuem. A curva normal também é conhecida por curva
de Gauss, em homenagem a seu descobridor, K. F. Gauss.
1) A curva normal tem a forma de um sino com caudas assintóticas ao eixo x. Isto significa que,
teoricamente, os valores de x podem variar de − α até + α ; a curva jamais toca o eixo x e,
portanto, determina uma figura aberta nas caudas. Na prática, no entanto, utiliza-se a curva
normal com limites; mais adiante ver-se-á como estes limites são estabelecidos.
2) A curva é simétrica em relação à perpendicular que passa pela média (µ).
3) A média, a mediana e a moda são coincidentes.
4) A curva tem dois pontos de inflexão que correspondem a valores de x situados,
respectivamente, à distância de um desvio padrão ( δ ) acima da média.
23
5) A área total sob a curva totaliza 1 ou 100%.
6) Aproximadamente 68% (~=2/3) dos valores de x situam-se entre os pontos (µ – δ ) e (µ + δ )
7) Aproximadamente 95% dos valores de x estão entre (µ - 2 δ ) e (µ + 2 δ ).
8) Aproximadamente 99,7% dos valores de x estão entre (µ- 3 δ ) e (µ + 3 δ ).
As características da curva normal fazem com que ela tenha ampla aplicação prática. É necessário,
porém, assegurar-se de que a distribuição observada da variável seja realmente normal.
As propriedades referentes às áreas sob a curva foram obtidas de uma curva normal especial, que
tem média µ = 0 e desvio padrão δ = 1. Esta curva chama-se curva normal padronizada, ou curva
normal reduzida. As áreas situadas debaixo desta curva estão tabeladas. Para evitar confusão, a
variável tabelada é denominada z, reservando-se a letra x para representar as variáveis do mundo
real.
A tabela informa áreas entre a média (zero) e um valor de z qualquer. Quando z for 1 (isto é, igual a
δ ), a área compreendida entre este valor e a média é 0,3413, ou 34,13%. A área entre z = -1 e z =
a
+1 é 0,6826, o que confirma a 6 propriedade da curva normal indicada acima. Para a obtenção de
áreas que não estão entre 0 e z devem-se realizar operações simples de subtração ou soma com as
áreas.
24
Exemplo 1: Qual é a área correspondente a valores de z acima de 2,3?
25
Figura 5 - Desenhos de três curvas normais (A, B e C) que diferem quanto à média ou ao desvio padrão
A média (µ) e o desvio padrão ( δ ) são chamados parâmetros de uma curva normal, porque são
suficientes para defini-la completamente. A média é o parâmetro de tendência central ou de posição,
indicando em que ponto da reta se centraliza a curva; δ , o parâmetro de dispersão ou variabilidade,
esclarece sobre a forma da distribuição, se mais larga ou mais estreita.
A figura 5 apresenta três curvas que ajudam a esclarecer essas denominações. As curvas A e B
diferem apenas pelas posições (definidas pelas médias) em que se encontram na reta real. Já as
curvas B e C têm a mesma média, diferindo pela dispersão dos valores. Note-se que a curva C, com
desvio padrão menor, é mais estreita que B.
26
AS DISTRIBUIÇÕES DAS VARIÁVEIS NA PRÁTICA
A distribuição normal, como uma linha suave, existe apenas teoricamente. Na prática, o que se
observa são distribuições que se aproximam, mais ou menos, de uma curva normal. Se o histograma
lembra uma distribuição normal e se a amostra é relativamente grande, as probabilidades fornecidas
pela curva e as freqüências relativas observadas são bastante próximas. Por isso, para um grande
número de variáveis, a curva normal constitui uma ferramenta útil, dispensando a elaboração de
tabelas de freqüência para o cálculo da probabilidade de ocorrência de valores de interesse do
pesquisador.
No entanto, existem variáveis de distribuição claramente assimétrica (número de irmãos, salários etc.)
para os quais seria ingenuidade utilizar o modelo de curva normal e esperar conclusões confiáveis.
Para elas, deve-se procurar outro modelo que se adapte melhor aos dados observados ou tentar
transformações que tornem suas distribuições mais próximas de uma normal.
2) x = x
3) x = 1 / x
2
4) x = x
As três primeiras são indicadas para distribuições com assimetria à direita (isto é, com a cauda da
direita mais longa), e a última é indicada para corrigir uma assimetria à esquerda.
As variáveis observadas na prática (x) apresentam valores cujas áreas não estão tabeladas. Através
de uma operação simples, os valores de x podem ser transformados na variável tabelada z. A
maneira de transformar x em z é a seguinte:
z = (x – µ) / δ , onde µ e δ são a média e o desvio padrão populacionais da variável em estudo.
27
Exemplo: Um treinador deseja selecionar, dentre os jovens que estão prestando serviço militar no
quartel Q, aqueles com 180 cm de estatura ou mais altos, para formar um time de basquete. Que
percentagem é esperada de jogadores em potencial, sabendo-se que a estatura tem distribuição
normal e, nesses jovens, a média é 175 cm e o desvio padrão é 6 cm?
Para melhor visualizar o problema, inicia-se desenhando a curva normal correspondente à estatura,
localizando a média e o valor 180 cm e identificando a área de interesse, que fica à direita de 180 cm.
Portanto, 20,33% dos jovens que estão prestando serviço militar no quartel Q; esta população é
constituída de indivíduos com estatura igual ou superior a 180 cm.
3.1.1 Interpretação de z
Um recruta do quartel Q, com 181 cm de altura, tem uma estatura situada a um desvio padrão (6 cm)
acima da média (175 cm), enquanto uma estatura igual a 169 cm está a um desvio padrão abaixo da
média. Isto se pode ver facilmente usando a fórmula de transformação de x em z:
1) z (para 181) = (181 – 175) / 6 = 1
2) z (para 169) = (169 – 175) / 6 = -1
28
Portanto, z pode ser interpretado como o número de desvios padrões envolvidos no afastamento de
um determinado valor x em relação à média. Em outras palavras: z é a diferença, em unidades de
desvios padrões, entre um valor de x e a média.
Nos vestibulares da UFRGS calcula-se, para cada candidato (e para cada prova), um escore
padronizado do seguinte modo: Escore = z (100) + 500.
O valor de z é multiplicado por 100 para evitar valores muito pequenos, que dificultem a classificação,
e a constante 500 é somada para evitar valores negativos.
Suponha-se que um candidato acertou 19 questões na prova de Matemática, na qual a média geral
dos candidatos foi 11 e o desvio padrão 5; na prova de Química, cuja média foi 15 e o desvio padrão
6, ele acertou 22 questões. Em que prova o aluno obteve maior escore padronizado?
Matemática: zmat = (19 - 11)/ 5 = 1,6 então Escoremat = 1,6 (100) + 500 = 660
Química: zqujm = (22 - 15) / 6 = 1,2 então Escorequjm= 1,2 (100) + 500 = 620.
Conclui-se que o aluno teve melhor desempenho na prova de Matemática, quando comparado com os
demais candidatos.
29
30
4 DISTRIBUIÇÃO AMOSTRAL
A finalidade da amostragem é obter uma indicação de um ou mais parâmetros de uma população, tais
como média variância da população ou proporção.
Quando se extrai aleatoriamente repetidas amostras de uma mesma população, a estatística amostral
varia de uma amostra para outra. Chama-se esta variação de variabilidade amostral.
O objetivo é saber o quão próximo está a estatística amostral do verdadeiro parâmetro. Para isso, três
fatores são importantes:
1) o estudo da distribuição de probabilidade da estatística amostral;
2) o tamanho da amostra (grandes amostras têm menor variabilidade entre as estatísticas do
que pequenas amostras);
3) a variabilidade na população (populações com muita variabilidade produzem estatísticas
amostrais com maior variabilidade).
A variabilidade amostral pode ser expressa em uma distribuição de probabilidade que associa aos
possíveis resultados de uma estatística amostral suas respectivas probabilidades.
Parâmetros e estatísticas: como já visto anteriormente, parâmetros são medidas obtidas através do
censo para descrever uma característica da população, e estatísticas são medidas características
obtidas através de uma amostra.
desvio padrão σ s
proporção II p
Tabela 4 – Parâmetros e Estatísticas
Uma distribuição amostral das médias indica a probabilidade de ocorrência de uma média amostral.
As médias amostrais tendem a agrupar-se em torno da média populacional. Veja-se figura a seguir:
31
Figura 7 - Teorema do Limite Central
Na verdade, já foi demonstrado que, quando as amostras são grandes, as médias de todas as
amostras possíveis, de iguais tamanhos, retiradas aleatoriamente desta população, se distribuem
segundo uma curva normal, não importando como se distribuem os dados na população original. A
esta conclusão se denominou Teorema do Limite Central.
Uma extensão do teorema afirma que, se x tiver distribuição normal, as médias também vão
apresentar distribuição normal, mesmo que as amostras não sejam grandes.
σx= σ / n
3) As áreas da distribuição amostral das médias são as mesmas da curva normal. Portanto, a
área total é 1, aproximadamente 68% das médias entre µ - σ x e µ + σ x, aproximadamente
95% estão entre µ - 2 σ x e µ + 2 σ x e assim por diante.
32
SIGNIFICÂNCIA ESTATÍSTICA DE UM DESVIO
Partindo destes pressupostos, uma atitude razoável será considerar como estatisticamente não-
significativos os desvios apresentados por valores ao redor da média populacional. Estipula-se que
esta fração de indivíduos deve ser grande, por exemplo, 95%, já que um valor discrepante deve ser
raro. Metade desta fração (47,5%) corresponde a valores adjacentes e acima da média, e a outra
metade, a valores adjacentes e menores do que a média. Deste modo, se estabelece um intervalo ao
redor da média, o intervalo de desvios não-significativos, que corresponde a 95% dos valores da
população. A fração escolhida (0,95 ou 95%) é arbitrária e denomina-se área de não-significância ou
região de não-significância, sendo indicada por C ou C%.
Os valores que ficam fora do intervalo de desvios não-significativos são considerados desvios
significativos e correspondem a uma fração α do tal de valores possíveis. A letra α (alfa) indica o
que se costuma chamar de região de significância ou nível de significância, a qual equivale a α = 1 -
C (ou α % = 100% - C%). Esta região é geralmente dividida em duas áreas iguais: uma situada na
cauda esquerda da curva normal e outra, igual à primeira, na cauda direita. Todos estes conceitos
estão representados graficamente na figura a seguir.
33
Regiões de significância ( α ), não-significância (C) e respectivos intervalos
Como as médias das amostras costumam se distribuir segundo uma curva normal, parece lógico
utilizar o critério acima indicado para decidir sobre a significância estatística da diferença entre uma
média amostral e uma média populacional.
Exemplo: Certo pesquisador mediu a pressão arterial de cinco executivos, da faixa de 40 a 44 anos,
de determinada empresa, e obteve os valores 135, 143, 149, 128 e 158 mmHg. A média observada
nesta amostra foi 142,6 mmHg. Serão estes dados suficientes para afirmar que este grupo de
pessoas se desvia em relação aos demais integrantes da população de homens adultos?
Revisando a literatura, o pesquisador verificou que, nesta faixa etária, a média da pressão arterial é
129 mmHg e o desvio padrão é 15,1 mmHg. Então, para saber se a média deste grupo se desvia
significativamente da média tomada como referência (129 mmHg), é necessário saber quais os limites
do intervalo de desvios não-significativos para médias de amostras de cinco pessoas retiradas
aleatoriamente desta população. Decide usar um nível de significância de 5%.
34
Como o critério é 0,95, os limites devem ser dados por µ -1,96 σ x e µ + 1,96 σ x, já que são
necessários 1,96 erros padrão para se limitar uma área de 95% ao redor da média, conforme a tabela
de áreas da curva normal.
Assim, as médias amostrais com valor entre 115,7 e 142,3 mmHg não apresentam desvios
significativos em relação a média populacional. Médias com valores fora deste intervalo desviam-se
significativamente de µ = 129. Portanto, para o critério escolhido, a média obtida nos cinco executivos
(142,6) se desvia significativamente da média da população de homens da mesma faixa etária,
estando mais elevada.
Pelo raciocínio visto acima, uma média amostral se desvia significativamente da média populacional
se estiver 1,96 erros padrões acima ou abaixo desta. Como o número crítico de erros padrão é o valor
de z que limita a área central de interesse, um desvio será significativo se estiver a uma distância
superior a zα erros padrão da média e será não-significativo se a distância for inferior a zα erros
padrão. Se a distância for exatamente igual a zα erros padrão, o desvio é dito significativo, por
convenção.
Desta forma, uma maneira abreviada de determinar se um desvio é significativo consiste em calcular
o desvio em erros padrão e depois comparar o valor obtido com o número crítico de erros padrão
escolhido.
35
zcalc = (142,6 – 129) / (15,1 / 5 ) = 13,6 / 6,75 = 2,01
A média amostral situa-se a 2,01 erros padrão acima de µ.
4) Regra de decisão:
36
5 TESTES DE HIPÓTESES
Os trabalhos científicos são realizados com objetivos bem estabelecidos, expressos através de
afirmações que o pesquisador deseja verificar. Estas afirmações provisórias são denominadas
hipóteses. Após formulá-las adequadamente, o pesquisador realiza o levantamento dos dados e
analisa-os estatisticamente, buscando resultados que confirmem ou não as hipóteses. Como na
maioria das vezes os dados provêm de amostras, a decisão final a respeito de uma hipótese científica
está associada a uma probabilidade de erro. O erro de decisão não pode ser evitado, mas sua
probabilidade pode ser controlada ou mensurada, obtendo-se, assim, uma medida de validade das
conclusões obtidas.
A Estatística Inferencial é o ramo da Estatística que oferece métodos para que o pesquisador possa
tomar sua decisão a respeito de hipóteses formuladas, informando também sobre o risco de erro que
acompanha a decisão.
HIPÓTESES ESTATÍSTICAS
Hipóteses estatísticas são suposições feitas sobre o valor dos parâmetros nas populações. As
hipóteses estatísticas sempre comparam dois ou mais valores, quer afirmando que são iguais, quer
que não o sejam. Elas são de dois tipos:
1) Hipótese nula ou de nulidade (Ho): estabelece a ausência de diferença entre os parâmetros. É
sempre a primeira a ser formulada.
2) Hipótese alternativa (HA ou H1): é a hipótese contrária à hipótese nula. Geralmente, é a que o
pesquisador quer ver confirmada.
O teste de hipóteses é um procedimento estatístico através do qual se rejeita ou não uma hipótese,
associado à conclusão um risco máximo de erro. Consiste em verificar uma declaração feita sobre um
parâmetro populacional.
37
Devido à maneira como os testes são elaborados, a hipótese testada é sempre H0. Se ela for
rejeitada, a alternativa é automaticamente aceita; se não for rejeitada, HA é automaticamente
descartada.
6) Conclusão: A maioria dos testes de hipóteses envolvendo médias são testes bilaterais, isto é,
testam a hipótese nula de ausência de diferença contra a alternativa de que existe uma
diferença entre as médias. Há casos, porém, em que somente haverá interesse prático se µA
for menor (ou maior) do que µ0. Quando se está interessado apenas na diferença negativa (ou
38
positiva) entre as médias, a região de significância deve ser toda colocada em um lado
somente da cauda da curva, O teste, neste caso, é dito unilateral e exige uma modificação no
valor crítico. Exemplo: Se o nível de significância for 5%, o valor crítico de z passa de 1,96
para -1,64 para diferenças negativas e 1,64 para positivas. Ou seja, para testes unilaterais
deve-se consultar na tabela o valor correspondente ao dobro de α .
Todo teste de hipótese tem sua conclusão sujeita a erro. O erro de afirmar que existe uma diferença
quando ela efetivamente não existe (rejeitar incorretamente a hipótese nula) é chamado de Erro Tipo I
e tem uma probabilidade de ocorrer igual a α .
No entanto, é também possível que se cometa o erro de aceitar H0 quando não se deveria, ou seja, de
afirmar uma igualdade quando o correto seria afirmar uma diferença. A este erro se denomina Erro
Tipo II, e é muito difícil calcular sua probabilidade, pois para isso seria necessário conhecer o valor do
parâmetro na população amostrada. (Lembre-se de que é exatamente por não conhecer o parâmetro
na população que se realizam os experimentos). A probabilidade de se cometer o erro tipo lI é
denominada β . Como a probabilidade complementar deste erro representa a probabilidade de afirmar
corretamente que existe uma diferença quando ela realmente existe, diz-se que (1 – β ) é o poder do
Conclusão do Teste
Realidade
Aceitar H0 rejeitar H0
decisão correta Erro tipo I
H0 verdadeira
probabilidade: 1 - α probabilidade: α
Erro tipo II decisão correta
H0 falsa probabilidade: β probabilidade: 1 – β (poder do teste)
É importante salientar que quanto maior o α , menor o β , de modo que uma alteração em uma destas
probabilidades afeta também a outra. Além disso, é afetado também o poder do teste. Estudos
mostram que valores como 0,05 e 0,01 para α são os mais adequados por causa desta relação entre
as duas probabilidades.
39
A DISTRIBUIÇÃO T
Uma situação bastante comum é ter-se uma idéia da média da população tomada como referência
(µ0), mas desconhecer-se o desvio padrão populacional ( σ ). Não conhecendo σ , se desconhece o
desvio padrão, o que impede a realização do teste de hipótese da maneira com se viu utilizando a
curva normal. A solução é substituir o desvio padrão populacional por seu estimador, o desvio padrão
amostral (s), e obter desta forma um erro padrão estimado (EP) para a média: EP = s / n.
Note-se que, ao assim proceder, se está admitindo que a variação dos valores na amostra é
semelhante à da população, isso é, que s não difere demasiadamente de σ . Isso geralmente é
verdade para amostras grandes, obtidas aleatoriamente.
Após estudar com Karl Pearson no Laboratório de Biometria do University Coliege de Londres (1971),
Gosset publicou um artigo, em 1908, com a solução para o problema adotando o pseudônimo de
Student. Neste artigo, ele propôs que, quando σ fosse desconhecido, se substituísse o valor crítico
obtido da curva normal pelo valor crítico de uma nova distribuição. Esta distribuição foi chamada de
distribuição t.
40
A forma da distribuição t é semelhante à curva normal, com média zero, mas ligeiramente mais
achatadas e com as caudas mais elevadas. Como conseqüência deste formato da curva, os valores
que limitam uma área de significância, por exemplo 1,96 para α = 0,05, passam a limitar, na curva de
t, uma área um pouco maior.
A discrepância observada entre as curvas z e t é função da diferença entre usar o desvio padrão
populacional ( σ ) e usar o desvio padrão calculado a partir dos dados amostrais (s). A diferença entre
σ e s depende do tamanho da amostra. Nas amostras grandes a diferença é mínima, sendo que a
possibilidade de diferenças maiores aumenta à medida que o tamanho amostral diminui. É por esta
razão que a tabela t de Student apresenta valores críticos que dependem não só do nível de
significância ( α ) como também da precisão com que o valor de σ foi estimado, isto é, do tamanho da
amostra usada para calcular s. A precisão é influenciada por n -1, que é chamado o número de graus
Para o caso em que o tamanho da amostra é 9, como exemplificado anteriormente, o valor crítico
para α = 0,05 passa de 1,96 para t0,05;8 = 2,31. Isso significa que, agora, para que uma diferença entre
médias seja estatisticamente significativa ao nível de 0,05, é necessário que seja igual ou maior do
que 2,31 erros padrão e não apenas 1,96 erros padrão, como antes.
Concluindo: se o desvio padrão (e, conseqüentemente, o erro padrão) populacional for desconhecido,
ele pode ser estimado através de s, mas, neste caso, toda a inferência deve ser feita usando-se a
distribuição t de Student. Note-se, porém, que a distribuição t só pode ser corretamente aplicada se a
distribuição dos valores de x for razoavelmente próxima de uma distribuição normal. Se a distribuição
de x não for normal, a distribuição t não resolve satisfatoriamente o problema, devendo-se procurar
outras soluções, como a transformação dos dados ou o uso de técnicas não-paramétricas.
41
5.1.2 Com σ desconhecido
_
Estatística do teste: tcalc = ( x – µ)) / (s / n)
Teste de hipóteses para a diferença entre duas médias (Amostras Independentes – Sa2 = Sb2).
_ _
ttab = t α / gl (gl = nA + nB – 2)
2 2 2
s0 = [( nA – 1) sA + (nB – 1) sB ] / (nA + nB – 2).
O denominador da estatística do teste para a diferença entre duas médias é o erro padrão da
2
diferença entre a média amostral. S0 é a média ponderada das variâncias amostrais das duas
amostras.
O teste t para amostras independentes faz duas pressuposições que devem ser satisfeitas para que
sua aplicação seja correta:
1) As variáveis xA e xB devem ter distribuição normal ou aproximadamente normal. Este
pressuposto garante que a diferença entre a média amostral tenha uma distribuição normal e,
portanto, se possa realizar o teste t. Se as variáveis não apresentarem distribuição normal,
pode-se tentar uma transformação dos dados ou utilizar uma das várias técnicas existentes
de análise estatística não-paramétrica.
2) A segunda pressuposição importante é a de que as variâncias são iguais, isto é, se houver
efeito de alguma intervenção na amostra A quando comparado com a amostra B, este efeito
altera de modo uniforme os valores, de modo que a dispersão dos dados não se altera. Se
42
esta pressuposição não for satisfeita, o nível de significância ( α ) do teste se altera. Deve-se,
portanto, testá-la antes de realizar o teste t.
Exemplo: Sejam as amostras obtidas aleatoriamente de dois tipos de cabos de aço em relação à
carga de ruptura. Ao nível de significância de 5%, pode-se concluir que um cabo é mais resistente do
que o outro?
gl = 5 + 5 – 2 = 8
tab = t0,005;8 = 2,306
tcalc < ttab : Aceito H0.
Não há evidências de que exista diferença entre as resistências dos dois tipos de cabos.
43
gIN: graus de liberdade do numerador (n numerador – 1)
glD: graus de liberdade do denominador (n denominador – 1)
Teste de hipóteses para a diferença entre duas médias (Amostras Independentes – SA2 SB2).
_ _
2 2 2 2
ttab = t α ; gl , gl =( wA + wB) /( wA /nA – 1 + wB / nB-1) onde w = s / n
44
Havendo emparelhamento, calculam-se as diferenças di para cada par de valores, recaindo assim em
uma única amostra de n diferenças (é claro que as duas amostras são de mesmo tamanho).
_
Estatística do teste: t calc = d / ( sD / n)
onde:
_
1) d = média das diferenças
2) sd = desvio padrão das diferenças
3) n = tamanho da amostra das diferenças
INTERVALO DE CONFIANÇA
As estimações por ponto só são usadas quando se necessita, ao menos aproximadamente, conhecer
o valor do parâmetro para utilizá-lo numa expressão analítica qualquer. No entanto, como os
estimadores são variáveis aleatórias, muitas vezes contínuas, as estimativas obtidas quase
certamente serão distintas do valor do parâmetro, ou seja, quase certamente se estará cometendo um
erro de estimação.
Desse fato surge a idéia de se construir um intervalo em torno da estimativa por ponto, de modo que
ele tenha uma probabilidade conhecida (que será designada por 1 - α ) de conter o verdadeiro valor
do parâmetro. Essa é a configuração da estimação por intervalo, e o intervalo assim construído é
denominado intervalo de confiança.
O valor da probabilidade (1 - α ), que usualmente assume os valores de 90%, 95%, 98%, etc., é
denominado nível de confiança, e o valor é chamado de nível de significância, isto é, representa o
erro que se está cometendo quando se afirma que a probabilidade de o intervalo ( θ 1 ≤ θ ≥ θ 2)
conter o verdadeiro valor do parâmetro populacional θ é 1- α .
45
Exemplo: Feito um ensaio de corrosão com 64 peças de um lote de produção, verificou-se que o
_
tempo que a peça suportou nesse teste apresentou uma média x = 200 horas. Calcular um intervalo
de 95% de confiança para a verdadeira média µ, sabendo que σ = 16 horas.
Exemplo: A seguinte amostra foi extraída de uma população normal: 6,6,7,8,9,9,9,10,11,12. Construir
um intervalo de confiança para µ, ao nível de significância de 10%.
A área caudal associada a um valor calculado de teste é denominada nível descritivo amostral, ou
nível crítico amostral, e é indicada por p. O valor de p é a área que fica além de uma estatística do
teste calculada, e representa a probabilidade de se obter, ao acaso, um valor igual ou mais extremo
que o valor crítico no teste estatístico se a hipótese nula for verdadeira.
46
H0, porque a probabilidade de se obter, ao acaso, este valor t, ou ainda um valor mais extremo, se a
hipótese nula for verdadeira, é menor do que 5%.
47
48
6 NOÇÕES DE AMOSTRAGEM
De uma forma geral, as populações são grandes demais para serem estudadas em sua totalidade.
Por outro lado, mesmo sendo viável um estudo de tal tamanho, ele é em geral abandonado devido às
despesas e ao dispêndio de tempo implicado. O mais comum é se estudarem amostras retiradas da
população de interesse.
Para que os resultados obtidos em uma amostra possam ser generalizados para a população, isto é,
para que se possam realizar inferências válidas, a amostra deve ser representativa da população. A
melhor maneira de se obter uma amostra representativa é empregar um procedimento aleatório para
a seleção dos indivíduos.
Uma vantagem de se usar amostras aleatórias é a de que, para este tipo de amostras, existem
inúmeros métodos estatísticos que poderão auxiliar o pesquisador. Na verdade, todas as técnicas
apresentadas neste texto pressupõem o uso de amostras aleatórias, Além disto, este tipo de
amostragem não dá oportunidade ao pesquisador de escolher, mesmo de forma inconsciente, uma
amostra que favoreça a hipótese que quer ver confirmada.
Uma amostra aleatória simples é obtida de tal modo que todos os indivíduos da população têm igual
chance de serem selecionados. Para obtê-la, pode-se iniciar atribuindo um número de ordem a cada
elemento da população. A seguir, através de um dispositivo aleatório qualquer, retira-se ao acaso a
quantidade de indivíduos desejada.
Um procedimento aleatório a ser utilizado pode ser colocar em uma urna todos os números que serão
submetidos ao sorteio, retirando depois alguns às cegas. Podem-se ainda usar os números de loteria
sorteados nos últimos anos, ou uma tabela de números aleatórios, ou, ainda, programas de
computador para selecionar aleatoriamente os componentes da amostra.
Um ponto importante é que nenhum indivíduo, por ter esta ou aquela característica, terá oportunidade
maior de ser escolhido, pois a escolha independe da vontade do selecionador da amostra.
49
6.1.2 Amostragem aleatória estratificada
Às vezes, a população é constituída de subpopulações, ou estratos, e pode ser razoável supor que a
variável de interesse apresenta comportamento diferente nos distintos estratos. Neste caso, para que
uma amostra seja representativa, ela deve apresentar a mesma estratificação do universo de origem.
Para garantir que o procedimento aleatório produza uma amostra estratificada adequada, deve-se:
1) verificar quais são os estratos presentes na população;
2) calcular seus tamanhos relativos (proporções);
3) determinar o tamanho dos estratos na amostra, observando estas mesmas proporções;
4) obter aleatoriamente os elementos para cada estrato, sorteando dentro dele, ou sorteando a
partir da população, e preencher os espaços reservados para cada estrato.
Exemplo: Deseja-se avaliar o número médio de cáries em escolares de 8 anos de certa escola. Como
parece razoável supor que esta variável depende do nível sócio-econômico da criança, o
procedimento de amostragem escolhido é o de amostragem por estratos.
Para isto:
1) Verificar, inicialmente, que níveis sócio-econômicos existem nesta escola (suponha-se que
sejam três: A, B e C).
2) Verificar, por exemplo, que o nível A abrange 3% da população, o nível B, 22% e o nível C,
75%.
3) Determinar então que, para uma amostra de 120 crianças, quatro deverão ser do nível A (pois
3% de 120 é 3,6), 26 do nível B e 90 do C.
4) Sortear aleatoriamente quatro dentre as crianças do nível A, 26 do B e 90 do C. Ou então
realizar o sorteio diretamente do total de crianças da escola e preencher as subamostras
conforme os indivíduos vão sendo selecionados. Caso seja sorteado um número que
corresponda a um aluno A e já tenham sido selecionadas as quatro crianças para este
estrato, o número é desprezado e o sorteio prossegue.
Os extratos podem ser estabelecidos com base em variáveis qualitativas, como no exemplo acima, ou
variáveis quantitativas, como faixas etárias.
50
6.1.3 Amostragem aleatória sistemática
Se os elementos da população estão ordenados de alguma maneira (em listas, filas, prateleiras,
linhas de produção), é possível realizar uma amostragem sistemática, que é feita do seguinte modo:
1) escolhe-se uma constante conveniente;
2) sorteia-se o primeiro indivíduo;
3) evitam-se tantos indivíduos quantos forem indicados pela constante e toma-se o indivíduo
seguinte;
4) repete-se o processo a partir do segundo passo até obter o tamanho amostral desejado.
Exemplo: Em um hospital há 10.000 fichas de pacientes. Deseja-se uma amostra de 500 pacientes,
isto é, 5%, ou um a cada 20 pacientes da população. O ponto de partida será uma ficha selecionada
aleatoriamente dentre as primeiras 20, por exemplo, a de número 9. A próxima a ser retirada será a
29ª a seguinte a 49ª etc.
Exemplo: Deseja-se fazer uma pesquisa de opinião em uma vila. Numeram-se os quarteirões, que
são os conglomerados, em um mapa. Sorteia-se uma determinada quantidade de quarteirões. Todas
as residências do quarteirão escolhido devem ser visitadas para se obter os dados desejados.
Não existe número fixo para o tamanho da amostra a ser estudada. Há uma solução para cada caso,
dependendo:
1) Do tipo de problema que se quer resolver. Exemplos possíveis podem ser: caracterizar uma
variável ainda não investigada na população; comparar duas populações quanto a uma
variável dada; verificar se duas variáveis estão associadas.
2) Do tipo de variável. Estudos envolvendo variáveis qualitativas geralmente exigem amostras
51
maiores. Dentre as variáveis quantitativas, as que representam maior variabilidade nos dados
também exigem amostras maiores.
3) Da magnitude do erro aleatório aceito pelo pesquisador. Quanto menos o pesquisador quer
errar, maior deverá ser o tamanho da amostra.
4) Do tamanho da diferença, entre os grupos, considerada importante pelo pesquisador.
Diferenças menores exigem amostras maiores.
5) Do tempo, verbas e pessoal disponível, bem como da dificuldade em se obter os dados e da
complexidade do experimento.
O tamanho mínimo amostral é obtido a partir da análise estatística que se pretende realizar,
posteriormente, com os dados do experimento. Tanto nos testes de hipóteses como no cálculo de
intervalos de confiança, está envolvida uma medida do erro de amostragem, que é o erro padrão. Ora,
este envolve o tamanho amostral (n), sendo, portanto, um ponto de partida natural para a
determinação de n, com será visto a seguir.
O número n é o tamanho amostral mínimo a ser utilizado pelo pesquisador. Para calcular n, é
2
necessário ter uma estimativa da variabilidade da característica (s ), que pode ser obtida de uma
amostra piloto ou da literatura.
Em segundo lugar, é necessário estabelecer uma diferença máxima, aceita como um erro de
_
estimativa razoável, entre a média verdadeira e aquela obtida na amostra ( x - µ). Pela fórmula, pode-
se ver que, quanto menor for esta diferença, maior será o n.
tamanho amostral provisório n0, calcular gI e obter t α ; gl I. Estas informações são colocadas na fórmula,
52
encontra-se no valor de n e volta-se à tabela para obter no valor de t α ; gl Realizam-se vários cálculos
Portanto, há dois grandes enfoques a serem considerados no cálculo de n para análises estatísticas
univariadas básicas:
1) cálculo de n para estimar um parâmetro (média, porcentagem, coeficiente de correlação) e
2) cálculo de n para comparar amostras.
2) Observação: É necessária uma estimativa provisória da proporção p (de uma amostra piloto
ou da literatura); não são necessárias interações; q = 1- p.
gl = n – 1
u é o valor de (lembre-se que o poder do teste = 1 - ).
gI = nA + nB.
53
2 2
1) n = [ u ( pq) + z (PQ) ] / (p – P) .
54
7 ANÁLISE DA VARIÂNCIA (ANOVA)
Existem muitas situações nas quais se deseja comparar mais do que dois grupos experimentais com
respeito a uma variável quantitativa. Pode parecer correto, em um primeiro momento, realizar então
vários testes t entre os grupos, comparando-os dois a dois. No entanto, este procedimento é
inadequado. O teste t foi delineado para, em um mesmo experimento, comparar uma determinada
média A com apenas uma outra, digamos B, com uma probabilidade (por exemplo: 0,05) de se
concluir incorretamente por uma diferença que não existe. Se for feita mais de uma comparação
envolvendo a média A, a probabilidade de um erro deste tipo passa a ser maior do que 0,05.
E. S. Pearson (1942), pressupondo variâncias populacionais iguais e amostras grandes, mostrou que
a probabilidade de se cometer um erro de conclusão do tipo I (concluir por uma diferença que não
existe) aumenta com o número de médias que estão sendo comparadas. Para α = 5%, esta
probabilidade é realmente 0,05 se a comparação for entre duas médias, porém para a 0,13 se for feita
entre três médias e chega a 0,21 se for entre quatro médias.
O procedimento correto para se evitar este aumento no nível global de significância do experimento
consiste em utilizar a técnica de Análise de Variância. Este método compara todas as médias em um
único teste, e visa identificar a existência de ao menos uma diferença entre os grupos, se alguma
existir. Caso o resultado seja estatisticamente significativo, aplica-se posteriormente uma das várias
técnicas existentes de comparações múltiplas entre as médias.
A Análise de Variância é uma poderosa técnica estatística desenvolvida por R. A. Fisher. Ela consiste
em um procedimento que decompõe a variação total entre os valores obtidos do experimento em
componentes separados. Cada componente atribui a variação a uma causa ou fonte de variação
diferente; o número de causas de variação ou “fatores” depende do delineamento da investigação.
55
Um dos modelos mais simples de ANOVA é o que possui um critério de classificação. Neste modelo,
a variação global é subdividida em duas frações. A primeira é a variação entre as médias dos vários
grupos quando comparadas com a média geral do experimento, e representa o efeito dos diferentes
tratamentos. A outra é a variação observada entre as unidades experimentais de um mesmo grupo ou
tratamento com relação à média deste grupo: trata-se das diferenças individuais, ou aleatórias, nas
respostas.
A variação entre grupos experimentais é estimada pela variância entre. A variação dentro do mesmo
grupo é estimada através da média das variâncias de cada grupo: e por isso é chamada de variância
dentro. Como ela representa também a fração da variabilidade que não é explicada pelo efeito dos
grupos, é também chamada de variância residual ou, ainda, de variância do erro experimental.
O teste baseia-se na pressuposição de que os K grupos A, B,... podem originar médias diferentes,
2
mas a variação entre as médias (s ) é igual em todos os grupos que estão sendo comparadas. Em
outras palavras, deseja-se testar a hipótese:
_ _ _
2 2 2
H0: x A = x B = ... = x K... supondo que sA + sB + ... sK .
Raciocina-se, a partir daí, que, se houver efeito diferencial entre os grupos, a variação entre eles deve
ser maior do que a variação dentro do mesmo grupo. Ou seja, a variância entre deve ser maior do que
a variância dentro. Isso equivale a dizer que, se houver diferença entre grupos, o resultado da divisão
da variância entre pela variância dentro deve ser maior do que 1. Este cálculo é chamado razão F de
variâncias, em homenagem a Fisher, e seu resultado é comparado com um valor tabelado.
Tabela 8 – Anova
Observação:
A variância entre grupos representa a diferença média entre os grupos multiplicada pelo tamanho
amostral, acrescida da variação entre indivíduos (observações), ao passo que a variância dentro
56
mede apenas a variação entre indivíduos (observações).
Fórmulas da ANOVA:
2
1) Termo de correção (C): constante a ser usada em várias fórmulas C = ( x) / n
2
2) SQT = x -C
2
3) SQE = ( xi / ni) - C
4) SQD = SQT - SQE
5) GLtotal = ( n) – 1
6) GLentre = k – 1 (k é o número de grupos que estão sendo comparados)
7) GLdentro = ( n) - k
8) QMentre = SQE / GLentre
9) QMdentro = SQD / GLdentro.
Se H0 é verdadeira, isto é, se não há diferença entre as populações, então a variância entre deve ser
igual à variância dentro, e a razão F entre elas é 1. No entanto, mesmo sendo H0 verdadeira, podem-
se esperar diferenças aleatórias entre as variâncias entre e dentro porque os experimentos são
realizados com amostras. Há, portanto, possibilidade de flutuações ao acaso nos resultados.
Para testar a significância do valor de F obtido no experimento, compara-se o valor calculado como o
valor de F tabelado que estipula o limite para uma diferença aleatória entre as variâncias entre e
dentro. Se Fcalc for maior do que Ftab (F α ;gIN;gID ), então há diferença entre as populações.
As etapas de realização do teste seguem a mesma conformação vista anteriormente nos testes de
hipóteses.
57
A B C
90,8 85,5 65,9
100,0 83,0 77,1
81,1 73,7 68,5 Total
ni 3 3 3 9
xi 271,9 242,2 211,5 725,6
2
xi 24.821,85 19.630,94 14.979,47 59.432,26
2
x /ni 24.643,20 19.553,61 14.910,75 59.107,56
_
x
90,6 80,7 70,5
s 9,45 6,22 5,86
Tabela 9 – Teste de hipóteses
2
C = (725,6) / 9 = 58.499,48
SQT = 59.432,26 – 58.499,48 = 932,78
SQE = 59.107,56 – 58.499,48 = 608,08
SQD = 932,78 – 608,08 = 324,70
GL Total = 9 – 1 =8
GL entre = 3 -1 = 2
GL dentro = 9 – 3 = 6
QM entre = 608,08 / 2 = 304,04
QM dentro = 324,70 / 6 = 54,12
_ _ _
H0 : x A = x B = x C
HA: pelo menos uma diferente
F = 304,04/54,12 = 5,62
F0,005;2;6 = 5,14
Um valor de F significativo na ANOVA não indica que grupos diferem entre si: ele apenas mostra que
existe ao menos uma diferença entre os grupos estudados. A identificação de diferenças particulares
entre médias deve ser feita usando um dos vários testes de Comparações Múltiplas entre médias
existentes na literatura. Estes testes são semelhantes ao teste t, com a diferença de que controlam o
nível de significância, levando em conta o número de comparações feitas no experimento.
58
Vários procedimentos têm sido propostos, tais como:
1) Teste de Tukey
2) Teste de Student Newman Keuls (SNK)
3) Teste de Dunnett
4) Teste de Scheffé etc.
Os dois testes de comparações múltiplas mais utilizadas são os testes de Tukey e SNK.
Exemplo:
o
SE = ((MQ-dentro)/ n de repetições), SE = 1,28
59
Comparação Diferença * SE q- calculado q-tabelado Conclusão
cdp1-cdp2 -8,10 1,28 -6,33 4,166 diferentes
cdp1-cdp3 -12,0 1,28 -9,38 4,166 diferente
cdp1-cdp4 -9,00 1,28 -7,03 4,166 diferente
cdp1-cdp5 -26,20 1,28 -20,47 4,166 diferente
cdp2-cdp3 -3,90 1,28 -3,05 4,166 iguais
cdp2-cdp4 -0,90 1,28 -0,70 4,166 iguais
cdp2-cdp5 -18,10 1,28 -14,14 4,166 diferente
cdp3-cdp4 3,00 1,28 2,34 4,166 iguais
cdp3-cdp5 -14,20 1,28 -11,09 4,166 diferente
cdp4-cdp5 -17,20 1,28 -13,44 4,166 diferente
Tabela 12 – Média das repetições
Conclusão
Grupo 1 Grupo 2 Grupo 3
cdp1 cdp2 cdp5
cdp3
cdp4
Tabela 13 – Média de repetições conclusão
60
8 CORRELAÇÃO LINEAR SIMPLES
Exemplo: Deseja-se saber se existe correlação entre o tempo dedicado ao estudo e o desempenho
dos alunos em determinada disciplina. Sorteados 8 estudantes desta disciplina, obtém-se as
informações abaixo, onde x representa o número de horas de estudo e y a nota obtida em uma prova,
para cada aluno.
Fica difícil concluir alguma coisa observando diretamente os dados na tabela, Por isso o primeiro
passo é tentar organizá-los em um gráfico, para melhor visualizar as relações entre as variáveis.
61
Diagrama de Dispersão (ver figura 12):
1) Para avaliar a correlação entre características quantitativas, pode-se inicialmente representar
os dados em um gráfico cartesiano de pontos, denominado diagrama de pontos ou diagrama
de dispersão. Cada ponto do gráfico corresponde a um aluno e é marcado segundo seu valor
para x e para y.
2) Analisando o gráfico, pode-se observar que os alunos que estudaram durante mais tempo
tendem a ter notas mais altas, e os que dedicaram menos horas ao estudo, a ter um
desempenho pior na prova. No entanto, podem-se observar exceções (como o aluno D), o
que indica que, embora pareça existir uma associação entre horas de estudo e nota, ela não
é uma relação perfeita.
Outra maneira de se avaliar a correlação é utilizar um coeficiente, que tem a vantagem de ser um
número puro, isto é, independente da unidade de medida das variáveis. Isto interessa bastante, pois
se pode ter unidades de medida diferentes para as variáveis (como nota e horas), dificultando a
interpretação da associação. O coeficiente que se calcula para variáveis quantitativas que têm uma
distribuição normal ou aproximada denomina-se coeficiente de correlação de Pearson, e é indicado
pela letra r. Este coeficiente representa uma medida de intensidade da associação existente entre
duas variáveis quantitativas.
O coeficiente de correlação pode variar entre –1 e +1. Valores negativos de r indicam uma correlação
do tipo inversa, isto é, quando x aumenta, y diminui. Os valores positivos ocorrem quando a
correlação é direta, isto é, x e y variam no mesmo sentido.
O valor máximo (tanto r = +1 como r = -1) é obtido quando todos os pontos do diagrama estão em
uma linha reta inclinada. Por outro lado, quando não existe correlação entre x e y, os pontos se
distribuem em nuvens circulares. Quando os pontos formam uma nuvem cujo eixo principal é uma
curva, o valor de r não mede corretamente a associação entre as variáveis. Isto ocorre porque a
técnica para calcular este coeficiente supõe que os pontos formam nuvens elípticas cujo eixo principal
é uma reta. Neste caso, deve-se tentar transformar uma das variáveis ou, então, usar diretamente um
coeficiente de correlação não-paramétrico, como o coeficiente de Spearman.
62
8.1.2 Cálculo do coeficiente de correlação em uma amostra
2 2 2 2
R = (SPxy) / (SQx . SQy) = ( xy - x. x y / n) / {[ x – ( x) / n ] [ y – ( y) / n ]}
Note-se que SP representa a soma dos produtos xy, e SQx e SQy são as somas de quadrados de x e
y, respectivamente.
2 2
Aluno x (horas) y (horas) x y xy
A 8 10 64 100 80
B 7 8 49 64 56
C 6 4 36 16 24
D 3 8 9 64 24
E 3 6 9 36 18
F 6 9 36 81 54
G 5 7 25 49 35
H 2 4 4 16 8
40 56 232 426 299
Tabela 15 – Cálculo do coeficiente de correlação
2 2
R = (299 - (40)(56)/8 ) / {[ 232 – (40) /8] [416 – (56) / 8]} = 0,58.
Note-se que o coeficiente de correlação (r = 0,58) não é acompanhado de qualquer unidade de medida.
Quando se calcula o coeficiente r em uma amostra, é necessário ter presente o fato de que se está,
na realidade, estimando a associação verdadeira entre x e y que ocorre na população. No exemplo
visto anteriormente foi obtido o valor de r = 0,58. Não se pode, no entanto, ter certeza de que na
população de alunos existe efetivamente correlação entre horas de estudo e nota da prova, pois foi
estudada apenas uma parte da população. O valor obtido poderia ser casual, representando um erro
devido à amostragem. Para realizar um teste de hipóteses sobre a existência de correlação na
população, o raciocínio é análogo àquele visto nos outros testes de hipóteses.
Para a realização do teste, supõe-se inicialmente que não existe correlação entre x e y. Se for
realizado um processo de amostragem aleatória em uma população onde = 0, os valores de r
obtidos nas amostras geralmente serão próximos de zero. Podem ocorrer valores afastados de zero,
mas eles serão raros. A distribuição amostral de r é simétrica quando a correlação populacional for 0.
Por outro lado, vai ficando mais e mais assimétrica à medida que se afasta deste valor.
63
8.1.4 Etapas do teste de hipóteses da correlação
Suponha-se, agora, que existem razões para se acreditar que a conclusão acima não espelha a
realidade. Como interpretar esse resultado?
O teste permitiu concluir que os dados amostrais são comprovam a existência de correlação. Isto
pode ser devido a:
1) não existir realmente correlação entre x e y na população e
2) existir correlação entre x e y, mas o experimento foi incapaz de detectar esta associação,
devido ao pequeno tamanho de amostra.
Para decidir por uma destas alternativas, só há uma solução: aumentar o tamanho da amostra. Se
efetivamente existir correlação, e se ela for do grau de magnitude observado, um aumento em n
ocasionará um aumento no tcalc que poderá vir a ser estatisticamente significativo. Se, por outro lado,
não existir realmente correlação, o valor de r na amostra tenderá a se aproximar de zero, levando a
um tcalc cada vez menor e, conseqüentemente, não significativo.
64
8.1.5 Avaliação qualitativa do grau de correlação entre duas
variáveis
|r| Avaliação
0 nula
0- 0,3 frança
03|---- 0,6 regular
0,6|-----0,9 forte
0,9|------1 muito forte
1 plena ou perfeita
Tabela 16 – Avaliação qualitativa
2 2
r = (0,52) = 0,2704 = 27,04%.
Ele é expresso em percentagem, indicando quanto por cento da variação da variável “y” está
relacionada com a variável “x”.
65
66
9 REGRESSÃO LINEAR SIMPLES
O estudo da regressão aplica-se àquelas situações nas quais há razões para se supor uma relação
de causa-efeito entre duas variáveis quantitativas e se deseja expressar matematicamente esta
relação. Geralmente, chama-se a variável dependente (ou variável resposta) de y, e a variável
independente (fator, variável explicativa ou variável preditiva) de x.
O termo regressão deve-se a Francis Galton, que publicou, em 1889, um livro no qual discute
problemas de herança genética (Remington & Schork, 1974). Como observou que pais de alta
estatura apresentavam filhos com estatura mais baixa, e pais de baixa estatura tinham filhos mais
altos, Galton chamou este fenômeno de “regressão a médio”, termo que, apesar de não ser adequado
para expressar dependência, acabou sendo incorporado à linguagem estatística pelo uso.
Todo estudo de regressão deve iniciar pela elaboração de um gráfico de dispersão dos pontos. Este
passo é fundamental, pois o gráfico já dá uma boa idéia da existência, ou não, de regressão, bem
como evita o erro de aplicar esta técnica a dados para os quais não é adequada. Muitas são as
relações de causa e efeito que podem ser resumidas por linhas retas, evitando-se a necessidade de
extensas tabelas mostrando a relação. A regressão linear simples é um procedimento que fornece
equações de linhas retas (por isso o termo “linear”), que descrevem fenômenos nos quais há uma
variável independente apenas (por isso, “simples”).
67
3) ß = coeficiente angular (inclinação da reta; acréscimo positivo ou negativo ocorrido em Y para
cada acréscimo de uma unidade em X)
4) X = variável independente.
A figura 13 ilustra estes conceitos. A linha reta corta o eixo Y no valor 10, logo A = 10, e para cada
aumento de uma unidade em X há um decréscimo correspondente de duas unidades em Y, logo, ß = -2.
A letra Y representa um valor que é fixo para um determinado valor de X, isto é, Y é um valor que não
pode variar quando X assume determinada quantidade.
X Y
0 10
1 8
2 6
3 4
4 2
5 0
Y = 10 – 2X
Tabela 17 – Valores para x e y
68
Figura 14 – Pontos experimentais
A reta de regressão verdadeira seria obtida se fossem disponíveis os valores de X e Y para todos os
indivíduos da população. Neste caso, se conheceria a inclinação verdadeira da reta (o coeficiente de
regressão ß) e a altura verdadeira da reta (o coeficiente linear A).
No entanto, o mais comum são estudos de regressão entre x e y utilizando amostras da população de
pontos. São calculados, então, a e b, que são as estimativas dos parâmetros A e ß. Estes valores são
obtidos pelo Método dos Mínimos Quadrados, que tem este nome entre os valores observados (y) e a
própria reta.
69
de regressão na população.
70
9.1.7 Requisitos ao estudo da regressão linear
Certas exigências devem ser satisfeitas para se realizar inferências válidas sobre o coeficiente de
regressão:
1) A variável y deve ter distribuição normal ou aproximadamente normal.
2) A variação de y deve ser a mesma em cada valor de x (homocedasticidade). Se não houver
homocedasticidade, será necessário transformar os dados.
3) Os pontos do gráfico devem apresentar uma tendência linear; caso contrário, a equação que
melhor representará o fenômeno não será uma reta, mas outra linha qualquer.
4) Os valores de y foram obtidos ao acaso da população e são independentes uns dos outros.
5) A variável x foi medida sem erro.
Exemplo: Uma amostra de funcionários de uma repartição pública foi selecionada aleatoriamente.
Relacionou-se o tempo de serviço (em anos) com seu salário bruto mensal:
2
Funcionário Tempo (x) Sal. Min. (y) xy x
A 3 5,2 15,6 9
B 4 6,1 24,4 16
C 3 5,0 15,0 9
D 2 4,8 9,6 4
E 5 6,1 30,5 25
F 4 6,4 25,6 16
21 33,6 120,7 79
Tabela 18 – Estudo da Regressão Linear
Interpretação: O salário médio esperado para um funcionário desta repartição é de 3,54 salários
mínimos,mais 0,56 salários mínimos para cada ano de serviço.
Desejando-se saber o salário esperado de um funcionário que tenha 3,5 anos de serviço, basta
substituir x por 3,5 na equação:
71
72
10 PROCESSO DE MEDIÇÃO
Em geral, uma medição tem imperfeições que dão origem a um erro em seu resultado. Um erro é
visto tradicionalmente como tendo dois componentes: o componente aleatório e o sistemático.
Erro aleatório – Constatou-se repetidamente que os dados dos ensaios experimentais mostram
variações de leitura para leitura, mesmo após se atender a todas as fontes conhecidas de erro. Há, se
dúvida, uma razão, ou melhor, um conjunto de razões para essas variações, mas não é possível
determiná-las. O evento físico que se estiver medindo é afetado por muitos acontecimentos que
ocorrem no universo, e se está prevenido contra os mais óbvios; os restantes são agrupados e
denominados “aleatórios” ou “residuais”.
Os erros considerados nesta classe podem ser olhados como o resíduo do erro quando todos os
conhecidos efeitos sistemáticos tiverem sido levados em conta. Daí o termo “residual”. As condições
de ensaios estão sujeitas a variações devido a uma multiplicidade de pequenas causas, que não
podem ser pesquisadas separadamente. Quando as correções forem feitas para os efeitos
conhecidos, elas são também aproximadas, deixando um pequeno resíduo de erro. Embora não seja
possível compensar o erro aleatório de um resultado de medição, ele pode geralmente ser reduzido
aumentando-se o número de observações.
Erro sistemático – Como o erro aleatório, o sistemático não pode ser eliminado, porém pode ser
reduzido. Se um erro sistemático se origina de um efeito reconhecido de uma grandeza de influência
em um resultado de medição, o efeito pode ser quantificado e, se for significativo com relação à
exatidão requerida da medição, uma correção ou fator de correção pode ser aplicada para compensar
o efeito. Supõe-se que, após esta correção, o valor esperado do erro provocado por um efeito
sistemático seja zero. Algumas fontes de erros consideradas como erros sistemáticos: Instrumental,
Ambiental e de Observação.
73
74
11 MEDIDAS DE PRECISÃO
Precisão é o grau de dispersão entre resultados independentes obtidos sob condições estipuladas.
Trata-se, portanto, da propriedade referente a uma seqüência de medições.
Os quatro fatores principais que influenciam a precisão de um método de medição estão descritos na
Tabela 19, bem como as condições desses fatores que determinam as distintas medidas de precisão.
REPETITIVIDADE (REPE)
75
REPRODUTIBILIDADE (REPRO)
CÁLCULO DA REPETITIVIDADE E
REPRODUTIBILIDADE
r: medida abaixo da qual se espera encontrar a diferença absoluta de dois resultados individuais de
ensaio obtidos sob condições de repetitividade com probabilidade de aproximadamente 0,95 (95%).
r = 2,8 sr
onde:
2,8 = 1,96 2 (independente do tamanho do estudo),
sr = desvio padrão da repetitividade.
76
11.1.2 Repetitividade relativa percentual (representada por (r))
(r) = (r / x) 100
R: medida abaixo da qual se espera encontrar a diferença absoluta de dois resultados individuais de
ensaio obtidos sob condições de reprodutibilidade com probabilidade de aproximadamente 0,95
(95%).
R = 2,8 sR
onde:
2,8 = 1 ,96 2 (independente do tamanho do estudo),
sR = desvio padrão da reprodutibilidade.
(R) = (R / x ) 100
77
78
12 ANÁLISE DE VALORES EXTREMOS
(OUTLIERS)
As pessoas que analisam os dados devem sempre decidir se as medições obtidas são válidas, isto é,
se elas são representativas dos sistemas de medição:
1) Se as medições são representativas da variabilidade inerente ao sistema, não deveriam ser
descartadas.
2) Se alguma medida é o resultado de um desvio grande do procedimento analítico ou dos
cálculos necessários para a obtenção do resultado final, ou do próprio processo de
tabelamento dos dados, a observação deveria ser descartada para evitar o efeito dela nas
conclusões, ou substituída por um valor que represente a “melhor estimativa” desta
observação.
Antes de iniciar a análise dos resultados para calcular uma medida de precisão, é importante realizar
uma avaliação dos resultados em relação à presença de observações aberrantes ou extremas
(outliers). A variância (ou desvio padrão) e a média são muito afetadas pela presença de valores
extremos.
Muitos são os métodos utilizados na identificação de valores extremos (tais como: teste de Grubbs,
Cochran etc.), bem como o método de substituição destes valores. Para efeitos ilustrativos, trata-se
aqui do método descrito na norma ASTM D4483-03: Standard Practice for Evaluating Precision for
Method Standards in the Rubber and Carbon Black Manufacturing Industries.
79
MÉTODO PASSO-A-PASSO REFERENTE À
IDENTIFICAÇÃO E SUBSTITUIÇÃO DE VALORES
EXTREMOS (ASTM D4483-03)
0 Material 1
N Laboratório
Dia 1 Dia 2
1 48,8 49,9
2 51,0 51,0
3 50,4 49,9
4 51,0 49,5
5 50,3 50,1
6 52,4 52,3
7 50,8 50,8
8 51,0 51,0
9 48,1 48,3
Tabela 20 – Relação de valores
Observação:
A primeira medida a ser calculada é o h e o k para identificação da existência de valores extremos em
relação a média (h) e em relação a variabilidade (k) — passos 1 a 6.
Passo 1:
0 Material 1
N Laboratório
Dia 1 Dia 2
1 48,8 49,9
2 51,0 51,0
3 50,4 49,9
4 51,0 49,5
5 50,3 50,1
6 52,4 52,3
7 50,8 50,8
8 51,0 51,0
9 48,1 48,3
média / dia 50,42 50,31
média das médias 50,37
DP/dia 1,28 1,13
DP médio 1,21
Tabela 21 – Cálculo das médias e desvio padrão médio – dados originais
80
Passo 2:
0 0
N Laboratório Média N Laboratório Quadro Médio
1 49,35 1 2435,42
2 51,00 2 2601,00
3 50,15 3 2515,02
4 50,25 4 2525,06
5 50,20 5 2520,04
6 51,35 6 2740,52
7 50,80 7 2580,64
8 51,00 8 2601,00
9 48,20 9 2323,24
T1 ( média ) 453,300 T2 ( QM) 22841,950
média das médias 50,37
variância 1,3425
DP 1,159
Tabela 22 – Cálculos das médias dos dias e quadrado médio – dados originais
Passo 3:
o
N Laboratório d h calc
1 -1,02 -0,88
2 0,63 0,55
3 -0,22 -0,19
4 -0,12 -0,10
5 -0,17 -0,14
6 1,98 1,71
7 0,43 0,37
8 0,63 0,55
9 -2,17 -1,87
Tabela 23 – Cálculo de d (Diferença da média do laboratório com a médias das médias)
e hcalculado e htabelado - dados originais
81
d média do lab. – média das médias
hcalc d / dp das médias (passo 2)
p = número de laboratórios participantes
2
htab = (p-1) t / [p ( t + p-2) ] htab = 1,78
tp-2;0,05 = 2,365 nível de significância = 5%
Comparar o hcalc com o htab (vale a regra de decisão vista nos capítulos anteriores para teste de
hipóteses). Pela regra, somente o laboratório 12 é significativo, ou seja, identificado um valor extremo
em relação à média neste laboratório.
Passo 4:
0 0
N Laboratório Variação N Laboratório Quadrado Médio
1 1,100 1 1,210
2 0,000 2 0,000
3 0,500 3 0,250
4 1,500 4 2,250
5 0,200 5 0,040
6 0,100 6 0,010
7 0,000 7 0,000
8 0,000 8 0,000
9 0,200 9 0,040
T3 ( QM) 3,8000
Tabela 24 – Cálculo da variação e quadrado da variação - dados originais
82
Passo 5:
0
N Laboratório dp Variância
1 0,778 0,605
2 0,000 0,000
3 0,354 0,125
4 1,061 1,125
5 0,141 0,020
6 0,071 0,005
7 0,000 0,000
8 0,000 0,000
9 0,141 0,020
dp (conjunto) 0,459
T4 ( var) 1,900
var (conjunta) 0,211
Tabela 25 – Cálculo do desvio padrão de cada laboratório e a variância - dados originais
Passo 6
0
N Laboratório K calc
1 1,69
2 0,00
3 0,77
4 2,31
5 0,31
6 0,15
7 0,00
8 0,00
9 0,31
dp ( conjunto ) 0,459
Tabela 26 – Cálculo kcalculado e ktabelado – dados originais
Comparar o kcalc com o ktab (vale a regra de decisão, vista nos capítulos anteriores para teste de
hipóteses). Pela regra, somente o laboratório 4 é significativo, ou seja, identificado um valor extremo
em relação a variabilidade neste laboratório.
83
Passo 7: Cálculo da precisão: repetitividade e reprodutibilidade - dados originais:
1) n= 2
2) p= 9
3) T1 = 453,300
4) T2 = 22841,950
5) T4 = 1,90000
2
6) (Sr) = T4 / p = 0,2111
2 2 2
7) (SL) = {[pT2 – (T1) ] / p (p-1)} – [ (Sr ) / 2] = 1,2369
2 2 2
8) (SR) = (SL) + (Sr) = 1,4481
2
9) r = 2,8 (Sr) = 1,287 (repetitividade)
2
10) R = 2,8 (SR) = 2,37 (reprodutibilidade)
11) (r) = 2,55
12) (R) = 6,69
13) Valores extremos identificados: para h: laboratório 9, para k: laboratório 4.
Passo 8 (Tabela 27): Estimar, através da regressão linear, o PRV (parameter replacement value).
Figura 17 – Gráfico de valores estimados para a média dos Figura 18 – Gráfico de valores estimados para a variação do
Identificados os valores extremos (nível de significância de 5%), tanto para a média (h) quanto para as
variações (k), proceder à sua substituição pelo método AOT Rep Value (Ascending Order Trend
Replacement Value).
84
0
N Laboratório Material 1
Dia 1 Dia 2
1 48,8 49,9
2 51,0 51,0
3 50,4 49,9
4 49,8 50,7
5 50,3 50,1
6 52,4 52,3
7 50,8 50,8
8 51,0 51,0
9 49,3 49,5
Tabela 27 – regressão linear o PRV
85
Passo 11: repetir os passos de 4 a 5 com os novos valores substituídos.
Passo 13: Calcular a repetitividade e a reprodutibilidade com os novos valores substituídos, conforme
descrito no passo 7.
86
ANEXO
MODELO DE PROCEDIMENTO
OBJETIVO
Este documento descreve a metodologia para avaliação das Incertezas de Medição nas medições dos
Laboratórios da Empresa...
CAMPO DE APLICAÇÃO
DOCUMENTOS DE REFERÊNCIA
DEFINIÇÕES
Incerteza de medição
Parâmetro, associado ao resultado de uma medição, que caracteriza a dispersão dos valores que
87
podem ser razoavelmente atribuídos a um mensurando.
Variação diferencial na estimativa de saída gerada por uma variação diferencial em uma estimativa de
entrada dividida por esta variação na estimativa de entrada.
AUTORIDADE E RESPONSABILIDADE
Deve-se designar uma pessoa que fique responsável pela coordenação da atividade e o coordenador
deve designar um técnico para o controle e a implementação de documentos e verificação dos status
dos equipamentos utilizados no ensaio.
METODOLOGIA/DETALHAMENTO
Nota: Em alguns casos a natureza do método de ensaio pode impedir o cálculo rigoroso,
metrologicamente e estatisticamente válido da incerteza de medição. Nesses casos, deve-se pelo
menos tentar identificar todos os componentes de incerteza e fazer uma estimativa razoável.
88
Avaliação tipo a da incerteza padrão
1) A avaliação Tipo A da incerteza padrão é o método de avaliação da incerteza pela análise
estatística de uma série de observações. Neste caso, a incerteza padrão é o desvio padrão
experimental da média que se obtêm do cálculo da média aritmética.
2) Quando for identificado que o técnico influenciou no resultado de uma medição e quando
existir mais de um técnico que realiza a medição deve-se realizar um estudo estatístico de
Repetitividade e Reprodutibilidade (R e r). As equações para os cálculos do estudo estatístico
R e r estão apresentados na tabela 28.
89
5) dados provenientes da norma/método de ensaio
6) especificações e fabricantes
7) valores aceitos de constantes associadas a materiais e grandezas.
Como a incerteza padrão é derivada da incerteza da grandeza de entrada, tal ajuste é obtido
dividindo-se a grandeza de entrada por um número associado a distribuição de probabilidade
assumida. Os divisores para as distribuições de probabilidade são descritos na tabela 29.
90
Nota: Quando não temos certeza da distribuição de probabilidade deve-se assumir distribuição de
probabilidade retangular.
1) Incerteza combinada :
A incerteza combinada é o cálculo utilizado para associar em um único valor todas as incertezas
padrões. A incerteza combinada é dada por:
n
µi²(y) = (Ci µ(xi))² onde: µi(y): incerteza combinada
i=1 Ci: coeficiente de sensibilidade
µ(xi): incertezas padrões
2) Coeficiente de sensibilidade:
O coeficiente de sensibilidade é o coeficiente associado com a estimativa de entrada(xi), isto é, a
derivada parcial da função • com relação à variável Xi, avaliada para as estimativas de entrada(xi):
Ci = ∂ƒ = ∂ƒ
∂xi ∂Xi Xi = xi...Xn= xn
Notas:
A equação acima é utilizada quando a estimativa de saída estiver em função de um
cálculo (ex.: Tensão de ruptura que é dada em função da força por unidade de área =
kgf/mm²).
Normalmente, quando a unidade de medida da estimativa de entrada for igual a
estimativa de saída, o coeficiente de sensibilidade é 1 e não é necessária a utilização
da equação acima.
1) Incerteza expandida
A incerteza expandida(U) é obtida pela multiplicação da incerteza combinada(•i(y))
i(y)) por um fator de
abrangência(k)
U = k µi(y)
91
O fator de abrangência (k) é obtido a partir dos graus de liberdade efetivos •ii que é dado a partir da
equação de Welch-Satterhwaite.
veƒƒ
µi4(y)
= N
µ4(xi)
i
i=1
Notas:
Os graus de liberdade são definidos para cada incerteza padrão, sendo:
Para avaliação Tipo A da incerteza padrão •ii = n - 1 (onde n = número de repetições);
Para avaliação Tipo B da incerteza padrão •ii = infinito.
Por isso, temos que calcular os graus de liberdade efetivos, quando existir, da incerteza padrão Tipo
A somente para as incertezas padrão Tipo A, quando existir somente incerteza padrão Tipo B
devemos considerar os graus de liberdades efetivos igual a infinito. O fator de abrangência (k) é
obtido através da tabela 30, que está baseada na distribuição-t avaliada para uma probabilidade de
abrangência de 95,45%. Se •ve••
ve•• não for inteiro, o que usualmente é o caso, deve
deve-se truncar •ve••
ve••
para o próximo menor inteiro.
veƒƒ
•ve 1 2 3 4 5 6 7 8 10 20 50 ∞
K 13,97 4,53 3,31 2,87 2,87 2,52 2,43 2,37 2,28 2,13 2,05 2,00
Tabela 30 - Fatores de abrangência k para diferentes graus de liberdade veff
92
Tabela de cálculo da incerteza de medição
Incerteza combinada 8
Incerteza expandida 9
Normal k= 10 veff 12
Tabela 31- Tabela de Cálculo da Incerteza de Medição
As planilhas de cálculo para incerteza de medição devem ser validadas conforme orientações de um
procedimento específico(procedimento para validação de planilhas), Controle de Computadores,
Periféricos, Softwares, Documentos Informatizados e Planilhas Eletrônicas.
Quando pertinente, as planilhas eletrônicas devem ter seus cálculos/ fórmulas revalidados. A
periodicidade das revalidações deve ser indicada no Plano de Revalidação dos Cálculos/Fórmulas
das Planilhas Eletrônicas deste documento.
É uma planilha que deve ser elaborada e disponibilizada em papel ou em meio eletrônico, e depois de
registradas as informações obtidas no ensaio deve-se arquiva-la em um local para futuras consultas.
93
ALTERAÇÕES
1ª Edição Revisão: xy
Formatação da letra para arial;
Atualização do logotipo da Empresa;
O sumário foi excluído;
1ª Edição Revisão: yz
Alterado o campo de aplicação do documento, sendo que é aplicável para todos os laboratórios de
ensaios do Centro.
Foi incluído campo data no plano de ação para implementação da incerteza de medição em ensiaos
técnicos.
Exemplo de Plano para Implementação da Incerteza de Medição dos Ensaios Laboratoriais – Modelo
LOGO TIPO
Empresa XYZ
PLANO PARA IMPLEMENTAÇÃO DA INCERTEZA DE MEDIÇÃO DOS ENSAIOS
Procedimento Ensaio
Ensaio Norma(s) Interno Prazo Responsável do tipo*
________________________________ ____________________________
Responsável pela elaboração do Plano Coordenador dos Ensaios
94
Exemplo de modelo para relatório de avaliação da incerteza de medição
CAPA SUMÁRIO
(Título do procedimento,norma de
referência, Procedimento Interno
correspondente).
DIAGRAMA DE CAUSA E
EFEITO TABELA DE CÁLCULOS
DE INCERTEZAS
(Todas as fontes de incerteza do (constam todos os cálculos e a
ensaio com respectivas unidades) incerteza determinada para o
ensaio)
MEMÓRIA DE CÁLCULO
Exemplo de Plano para Revalidação dos Cálculos/Fórmulas das Planilhas Eletrônicas- Modelo
LOGO TIPO
EMPRESA XYZ
Plano para Revalidação dos Cálculos/Fórmulas das Planilhas Eletrônicas
Código do Título do Procedimento Data Prevista Data Realizada Responsável
Procedimento pela
Revalidação
-
-
-
-
-
95
Exemplo de Determinação de Incerteza
LOGO TIPO
EMPRESA XYZ
Fontes de Incerteza
Detector de Vazamento:
Vazão (V) Resolução Incerteza de Medição
V -
Vazamento
Detectado
3
Repetitividade
1 – Vazão (V)
3
cm /h
3
dm /h Fuga
Resolução 1 1,00E-03 1 50
Incerteza na 3 0,003 2 50
calibração
3 50
Erro 1 0,001
Repetitividade 0,894427191 8,94E-01 4 50
5 52
Média 50,4
DP 0,894427191
n 5
LOGO TIPO
EMPRESA XYZ
96
Cálculo da incerteza combinada (UC):
Uc 4 Uc 4
4
= 4 4 4 4 4
Ii I1 I2 I3 I4 I5
+ + + +
Vi ∞ ∞ ∞ 4 4
Uc 4 1,82117 4
4
= Veff = 550,01466
Ii (0,57735) 4 1,5 4 0,5773 4 0,447213 4 0,447213 4
+ + + +
Vi ∞ ∞ ∞ 4 4
LOGO TIPO
EMPRESA XYZ
Dados de Apoio
97
Fontes de incerteza tipo RESOLUÇÃO têm distribuição estatística retangular, divisor 3 e grau de
liberdade . Nestes casos, o "valor de entrada" é a resolução dividida por 2.
Tabela t-student para valores de fator de abrangência em função dos graus de liberdade efetivos
Veff 1 2 3 4 5 6 7 8 10 12 14 16
K 13,90 4,53 3,31 2,87 2,65 2,52 2,43 2,37 2,28 2,23 2,20 2,17
Veff 18 20 25 30 35 40 45 50 60 80 100
K 2,15 2,13 2,11 2,09 2,07 2,06 2,06 2,05 2,04 2,03 2,02 2,00
LOGO TIPO
EMPRESA XYZ
Fontes de Incerteza
FONTES MEMÓRIA DE CÁLCULO
98
BIBLIOGRAFIA
ASTM D4483-03: Standard Practice for Evaluating Precision for Test Method Standards in the Rubber and
Carbon Black Manufacturing Industries.
GUERRA, Mauri José; DONAIRE, Denis. Estatística Indutiva: teoria e aplicações. 3. ed. São Paulo: Ciência e
Tecnologia, 1986.
GUIA para a expressão da incerteza de medição. 2. ed. [s.l.]: Brasileira, ago. 1998.
nd
HINKLE, D. E. Applied Statistics for the Behavioral Sciences. 2 ed. Houghton Mifflin Company, 1988.
JUNIOR, P. S.; MACHADO, A. A.; ZONTA, E. P.; SILVA, J. B. Curso de Estatística. V. 1 e 2. [s.l.]: Universitária,
1989.
MONTGOMERY, Douglas. Introduction to Statistical Quality Control. New York: John Willey & Sons, 1985.
99