Você está na página 1de 222

Planejamento de

Experimentos
Profª. Gabriela de Paula Alves

2019
1 Edição
a
Copyright © UNIASSELVI 2019

Elaboração:
Profª. Gabriela de Paula Alves

Revisão, Diagramação e Produção:


Centro Universitário Leonardo da Vinci – UNIASSELVI

Ficha catalográfica elaborada na fonte pela Biblioteca Dante Alighieri


UNIASSELVI – Indaial.

AL474
Alves, Gabriela de Paula
Planejamento de experimentos. / Gabriela de Paula Alves.
– Indaial: UNIASSELVI, 2019.
212 p.; il.
ISBN 978-85-515-0279-2
1. Física - Experiências - Brasil. II. Centro Universitário Leonardo
Da Vinci.
CDD 530

Impresso por:
Apresentação
O planejamento de experimentos é uma área da ciência cujo objetivo
é possibilitar aos profissionais a obtenção do melhor sistema de trabalho com
menor uso de recursos. Mantendo como alicerce a estatística, este ramo do
conhecimento nos auxilia com ferramentas e modelos para otimização de
processos.

Este trabalho tem como objetivo o estudo das bases da estatística para
posterior aplicação de ferramentas visando empregá-las no planejamento
e análise de experimentos, bem como controle de qualidade adequado ao
tema. Para tanto, o conteúdo foi dividido em três unidades, sendo que cada
unidade possui tópicos com temas separados visando à maior clareza e
facilidade de compreensão dos assuntos trabalhados.

Um exemplo prático da importância da temática que será estudado


pode ser a aplicação de tal metodologia em uma pesquisa laboratorial em
que se deseje avaliar duas variáveis, por exemplo, o tempo de uma reação e o
reagente usado no processo. Uma análise separada dos fatores pode ser feita,
porém, demandará um grande número de observações e, ainda assim, não
haverá uma análise da interação entre os dois parâmetros, ou seja, como um
fator pode influenciar o outro.

Diversas ferramentas aplicadas no ramo do planejamento experimental


abordam formas de relacionar condições de trabalho distintas com respostas
independentes ou dependentes mutualmente. O uso de um planejamento
experimental é capaz de investigar suas relações e prever os melhores
resultados para um sistema com uso de poucas observações, ou ensaios.

Na Unidade 1, com o objetivo de prepará-lo para o estudo mais


aprofundado da área de planejamento de experimentos, serão inicialmente
abordados conhecimentos de estatística básica e formas de representação
comumente usadas para mensurar grandezas e unidades de medidas. Além
disso, importa examinar diferentes tipos de representações gráficas e suas
distintas aplicações. As representações visuais são amplamente praticadas
em meios de comunicação ou trabalhos científicos para que as informações
sejam traduzidas de modo mais didático e de fácil entendimento.

A Unidade 2 será composta pela abordagem de diferentes formas de


realização de um planejamento experimental. Serão mostradas estratégias,
conceitos e tratamentos de técnicas necessárias para estruturar um
experimento, bem como a análise dos dados a ser realizada. Vale apontar
que o número de parâmetros a ser explorado é fator primordial para escolha
da forma que um teste será realizado.

III
Na Unidade 3, o gerenciamento de riscos e falhas em experimentos
será tema de trabalho. Além disso, as aplicações e comparativos do método
de planejamento de experimentos com relação a outros utilizados, como
exemplo, o método científico, serão abordados e analisados.

Desse modo, as bases de conhecimento necessárias para realizar o


planejamento, análise e controle de experimentos serão trabalhadas no
decorrer deste livro.

Profª. Gabriela de Paula Alves

NOTA

Você já me conhece das outras disciplinas? Não? É calouro? Enfim, tanto


para você que está chegando agora à UNIASSELVI quanto para você que já é veterano, há
novidades em nosso material.

Na Educação a Distância, o livro impresso, entregue a todos os acadêmicos desde 2005, é


o material base da disciplina. A partir de 2017, nossos livros estão de visual novo, com um
formato mais prático, que cabe na bolsa e facilita a leitura.

O conteúdo continua na íntegra, mas a estrutura interna foi aperfeiçoada com nova
diagramação no texto, aproveitando ao máximo o espaço da página, o que também
contribui para diminuir a extração de árvores para produção de folhas de papel, por exemplo.

Assim, a UNIASSELVI, preocupando-se com o impacto de nossas ações sobre o ambiente,


apresenta também este livro no formato digital. Assim, você, acadêmico, tem a possibilidade
de estudá-lo com versatilidade nas telas do celular, tablet ou computador.
 
Eu mesmo, UNI, ganhei um novo layout, você me verá frequentemente e surgirei para
apresentar dicas de vídeos e outras fontes de conhecimento que complementam o assunto
em questão.

Todos esses ajustes foram pensados a partir de relatos que recebemos nas pesquisas
institucionais sobre os materiais impressos, para que você, nossa maior prioridade, possa
continuar seus estudos com um material de qualidade.

Aproveito o momento para convidá-lo para um bate-papo sobre o Exame Nacional de


Desempenho de Estudantes – ENADE.
 
Bons estudos!

IV
V
VI
Sumário
UNIDADE 1 – INTRODUÇÃO À ESTATÍSTICA.............................................................................. 1

TÓPICO 1 – GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS............................................ 3


1 INTRODUÇÃO...................................................................................................................................... 3
2 SISTEMAS DE UNIDADES DE MEDIDAS.................................................................................... 3
3 ANÁLISE DIMENSIONAL................................................................................................................. 6
4 ALGARISMOS SIGNIFICATIVOS................................................................................................... 9
RESUMO DO TÓPICO 1........................................................................................................................ 11
AUTOATIVIDADE.................................................................................................................................. 12

TÓPICO 2 – PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA...................................... 13


1 INTRODUÇÃO...................................................................................................................................... 13
2 ESTATÍSTICA DESCRITIVA.............................................................................................................. 13
3 MEDIDAS DE TENDÊNCIA CENTRAL.......................................................................................... 16
4 MEDIDAS DE DISPERSÃO................................................................................................................ 19
5 MEDIDAS DE POSIÇÃO.................................................................................................................... 20
6 DISTRIBUIÇÃO DE FREQUÊNCIAS............................................................................................... 21
7 ANÁLISE DE FREQUÊNCIAS ABSOLUTA, RELATIVA E ACUMULADA............................. 21
8 DISTRIBUIÇÃO NORMAL................................................................................................................ 23
RESUMO DO TÓPICO 2........................................................................................................................ 26
AUTOATIVIDADE.................................................................................................................................. 27

TÓPICO 3 – REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20.......................................... 29


1 INTRODUÇÃO...................................................................................................................................... 29
2 REPRESENTAÇÕES GRÁFICAS....................................................................................................... 29
3 GRÁFICO DE LINHAS........................................................................................................................ 30
4 GRÁFICO DE SETORES...................................................................................................................... 32
5 GRÁFICO DE BARRAS E COLUNAS.............................................................................................. 33
6 HISTOGRAMA...................................................................................................................................... 35
7 POLÍGONO DE FREQUÊNCIAS E OGIVA.................................................................................... 36
8 DIAGRAMA DE DISPERSÃO........................................................................................................... 37
9 PICTOGRAMAS.................................................................................................................................... 38
10 PRINCÍPIO DE PARETO................................................................................................................... 41
11 APLICAÇÃO DO MÉTODO............................................................................................................. 41
LEITURA COMPLEMENTAR................................................................................................................ 46
RESUMO DO TÓPICO 3........................................................................................................................ 50
AUTOATIVIDADE.................................................................................................................................. 51

TÓPICO 4 – PRINCÍPIOS BÁSICOS DE ESTATÍSTICA INFERENCIAL.................................... 53


1 INTRODUÇÃO...................................................................................................................................... 53
2 POPULAÇÃO VERSUS AMOSTRA.................................................................................................. 53
3 COLETA DE DADOS............................................................................................................................ 54
4 TÉCNICAS DE AMOSTRAGEM....................................................................................................... 55
5 ESTIMAÇÃO.......................................................................................................................................... 56

VII
6 ESTIMAÇÃO DE PARÂMETROS................................................................................................... 56
7 TAMANHO DA AMOSTRA............................................................................................................. 57
RESUMO DO TÓPICO 4...................................................................................................................... 59
AUTOATIVIDADE................................................................................................................................ 60

UNIDADE 2 – METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E


SUAS PRINCIPAIS VARIÁVEIS.............................................................................. 63

TÓPICO 1 – INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL.................................... 65


1 INTRODUÇÃO.................................................................................................................................... 65
2 INFERÊNCIA ESTATÍSTICA............................................................................................................ 66
3 INTERVALO DE CONFIANÇA ....................................................................................................... 67
4 TESTE DE HIPÓTESES...................................................................................................................... 71
5 PLANEJAMENTO EXPERIMENTAL.............................................................................................. 72
6 TIPOS DE AMOSTRAS..................................................................................................................... 74
7 TIPOS DE EXPERIMENTOS............................................................................................................. 75
RESUMO DO TÓPICO 1...................................................................................................................... 81
AUTOATIVIDADE................................................................................................................................ 82

TÓPICO 2 – PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR ................. 83


1 INTRODUÇÃO.................................................................................................................................... 83
2 ANÁLISE DE VARIÂNCIA ENVOLVENDO UM ÚNICO FATOR.......................................... 83
3 ANÁLISE DE VARIÂNCIA PARA MODELO COM EFEITOS FIXOS..................................... 85
4 ANÁLISE DE VARIÂNCIA PARA MODELO COM EFEITOS ALEATÓRIOS...................... 94
5 ANÁLISE DE VARIÂNCIA COM BLOCOS COMPLETOS ALEATORIZADOS.................. 98
LEITURA COMPLEMENTAR.............................................................................................................. 108
RESUMO DO TÓPICO 2...................................................................................................................... 112
AUTOATIVIDADE................................................................................................................................ 113

TÓPICO 3 – PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES................... 115


1 INTRODUÇÃO.................................................................................................................................... 115
2 ANÁLISE FATORIAL......................................................................................................................... 115
3 ANÁLISE FATORIAL COM MODELO DE EFEITOS FIXOS COM DOIS FATORES.......... 116
4 ANÁLISE FATORIAL COM MODELO DE EFEITOS FIXOS COM MAIS DE
DOIS FATORES................................................................................................................................... 124
LEITURA COMPLEMENTAR.............................................................................................................. 128
RESUMO DO TÓPICO 3...................................................................................................................... 134
AUTOATIVIDADE................................................................................................................................ 135

UNIDADE 3 – ANÁLISE DE EXPERIMENTOS E APLICAÇÕES................................................ 137

TÓPICO 1 – MÉTODO CIENTÍFICO VERSUS DOE..................................................................... 139


1 INTRODUÇÃO.................................................................................................................................... 139
2 MÉTODO CIENTÍFICO..................................................................................................................... 139
3 DOE........................................................................................................................................................ 141
4 COMPARATIVO.................................................................................................................................. 143
RESUMO DO TÓPICO 1...................................................................................................................... 144
AUTOATIVIDADE................................................................................................................................ 145

VIII
TÓPICO 2 – CONTROLE ESTATÍSTICO DO PROCESSO........................................................... 147
1 INTRODUÇÃO.................................................................................................................................... 147
2 CONTROLE ESTATÍSTICO DE PROCESSO................................................................................ 147
3 GRÁFICOS DE CONTROLE............................................................................................................. 148
4 CAPACIDADE DE PROCESSO........................................................................................................ 165
RESUMO DO TÓPICO 2...................................................................................................................... 169
AUTOATIVIDADE................................................................................................................................ 170

TÓPICO 3 – ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS................................. 173


1 INTRODUÇÃO.................................................................................................................................... 173
2 GERENCIAMENTO DE RISCOS..................................................................................................... 173
3 METODOLOGIA DE SUPERFÍCIE DE RESPOSTA.................................................................... 176
4 OPERAÇÃO EVOLUTIVA................................................................................................................. 178
5 ANÁLISE DE FALHAS....................................................................................................................... 179
RESUMO DO TÓPICO 3...................................................................................................................... 183
AUTOATIVIDADE................................................................................................................................ 184

TÓPICO 4 – APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO


DE EXPERIMENTOS...................................................................................................... 185
1 INTRODUÇÃO.................................................................................................................................... 185
2 PLANEJAMENTO, MELHORIA DE PROCESSOS E APLICAÇÕES....................................... 185
3 SEIS SIGMA......................................................................................................................................... 197
4 METODOLOGIA................................................................................................................................. 198
LEITURA COMPLEMENTAR.............................................................................................................. 200
RESUMO DO TÓPICO 4...................................................................................................................... 204
AUTOATIVIDADE................................................................................................................................ 205

REFERÊNCIAS........................................................................................................................................ 207

IX
X
UNIDADE 1

INTRODUÇÃO À ESTATÍSTICA

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• identificar as grandezas físicas e suas formas de mensuração;

• demonstrar a uniformização das unidades padrão de medidas e a


conversão de unidades;

• introduzir conceitos básicos estatísticos;

• conhecer os principais tipos de representações gráficas;

• compreender o Princípio de Pareto e sua aplicabilidade ao analisar a


causa de um problema.

PLANO DE ESTUDOS
Esta unidade está dividida em quatro tópicos. No decorrer da unidade
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS

TÓPICO 2 – PRINCÍPIOS DE ESTATÍSTICA DESCRITIVA

TÓPICO 3 – REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

TÓPICO 4 – PRINCÍPIOS DE ESTATÍSTICA INFERENCIAL

1
2
UNIDADE 1
TÓPICO 1

GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS

1 INTRODUÇÃO
Medir é um ato tão costumeiro em nosso cotidiano que se tornou
despercebido. Diversas são as atividades em que as medições estão presentes.
Imagine, por exemplo, um dia típico de trabalho: ao acordar o despertador
tocou no horário programado diariamente, para preparar o café da manhã, você
utilizou o micro-ondas com a potência e tempo necessários para o aquecimento
do leite. Depois, ao ir trabalhar, dirigiu a velocidade média permitida no trecho
entre sua casa e seu local de trabalho. Ao almoçar, pesou o prato de comida em
uma balança e pagou o valor compatível ao que foi consumido.

Apenas nesta descrição de um dia comum é possível enumerar uma


série de medidas recorrentes ao nosso cotidiano, como a mensuração do tempo,
velocidade, pesos, entre outras várias formas que poderiam ser elencadas. Para que
estas medições sejam possíveis, utilizamos diversas grandezas físicas na realização
destes procedimentos e podemos usar diferentes sistemas de mensuração.

2 SISTEMAS DE UNIDADES DE MEDIDAS


As unidades de medidas são grandezas que compõem um sistema de
medidas. Como forma de conceituação, pode-se definir uma grandeza como:

Propriedade dum fenômeno dum corpo ou duma substância, que


pode ser expressa quantitativamente sob a forma dum número e
duma referência. A referência pode ser uma unidade de medida,
um procedimento de medição, um material de referência ou uma
combinação destes (VIM, 2012, p. 2).

Consoante ao que foi expresso no Vocabulário Internacional de Metrologia


(VIM), uma grandeza é algo que pode ser medido. Para a mensuração das
grandezas físicas de modo mais efetivo, foi necessária a criação de um padrão
de unidades de medidas. Na antiguidade eram usadas unidades baseadas
no corpo humano, como pé, polegadas, palmo, entre outras. Porém, devido a

3
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

variações biológicas naturais, este tipo de medição gerava alto índice de erros, o
que acarretou a indispensabilidade de uso de um sistema único, correspondente
entre diversas cidades e nações. Em 1790 iniciou-se na França o processo de
criação deste sistema único, concluído em 1799 com o projeto do Sistema métrico
decimal. O Brasil só adotou o novo sistema em maio de 1875 (INMETRO, 2012a).

Graças a inovações tecnológicas, novas unidades de medidas foram


adotadas e, em 1960, criou-se o Sistema Internacional de Unidades, SI (INMETRO).

NOTA

O Vocabulário Internacional de Metrologia foi criado como uma medida para


unificar as definições e terminologias utilizadas na metrologia. No Brasil, o Inmetro (Instituto
Nacional de Metrologia, Qualidade e Tecnologia) é o órgão governamental responsável
pela publicação e revisões do VIM, sendo o documento disponibilizado gratuitamente na
página virtual do instituto (VIM, 2012).

As grandezas adotadas no Sistema Internacional de Unidades, SI, são


divididas em grandezas de base e grandezas derivadas. As primeiras são o
fundamento das unidades, sendo, portanto, independentes. As grandezas
derivadas são formadas por relações algébricas envolvendo as grandezas de base
(INMETRO, 2012).

As grandezas de base adotadas no SI foram organizadas no quadro


a seguir, assim como a simbologia empregada para cada unidade e o conceito
específico de cada uma delas.

QUADRO 1 – GRANDEZAS FUNDAMENTAIS DO SI

Nome da unidade Símbolo da


Grandeza de
de base singular unidade de Observações
base
(plural) base
O metro é o comprimento do trajeto
percorrido pela luz no vácuo durante um
Comprimento Metro (metros) m
intervalo de tempo de 1/299 792 458 de
segundo.
O quilograma é a unidade de massa; ele é
quilograma
Massa kg igual à massa do protótipo internacional
ou quilogramas)
do ou quilograma.
O segundo é a duração de 9 192 631 770
segundo períodos da radiação correspondente à
Tempo s
(segundos) transição entre os dois níveis hiperfinos do
estado fundamental do átomo de césio 133.

4
TÓPICO 1 | GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS

O ampere é a intensidade de uma corrente


elétrica constante que, se mantida em
dois condutores paralelos, retilíneos, de
Corrente ampere comprimento infinito, de seção circular
A
elétrica (amperes) desprezível, e situados à distância de 1
metro entre si, no vácuo, produz entre
estes condutores uma força igual a 2 x 10-7
newton por metro de comprimento.
O kelvin, unidade de temperatura
Temperatura kelvin termodinâmica, é a fração 1/273,16 da
K
termodinâmica (kelvins) temperatura termodinâmica do ponto
triplo da água.
O mol é a quantidade de substância de
Quantidade de mol um sistema que contém tantas entidades
mol
substância (mols) elementares quantos átomos existem em
0,012 quilograma de carbono 12.
A candela é a intensidade luminosa, numa
dada direção, de uma fonte que emite uma
Intensidade candela radiação monocromática de frequência
cd
luminosa (candelas) 540 x 1012 hertz e que tem uma intensidade
radiante nessa direção de 1/683 watt por
esferorradiano.

FONTE: Adaptado de Inmetro (2013)

Por meio do Quadro 1, percebemos que muitas unidades conhecidas


do nosso cotidiano não são consideradas grandezas de base. Como exemplo, a
velocidade de um automóvel que é expressa através de uma grandeza derivada,
proveniente de relações entre grandezas de base, de um comprimento por tempo
(metros por segundo, quilômetros por hora...).

DICAS

Veja todas as unidades de medidas padrão em uso no Brasil no Quadro geral


de Unidades de Medida disponibilizado no sítio <www.inmetro.gov.br>.

No documento são abordados, além das unidades base do SI, os prefixos do SI, regras de
grafia e tabelas gerais de unidades não pertencentes ao SI.

Desse modo é possível exprimir o valor da massa de um produto em


qualquer país do mundo utilizando o SI, o que propiciou a uniformização das
unidades em todas as regiões, independentemente da nação na qual um produto
foi produzido. Vale ressaltar que o comércio foi um dos maiores impulsionadores
desta padronização, visando evitar prejuízos e/ou confusões com relação a
conversões de unidades.

5
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

3 ANÁLISE DIMENSIONAL
Inicialmente, um tópico de grande importância ao estudar grandezas é o
aprendizado da análise dimensional. Serway e Jewett (2010, p. 7) conceituam a
análise dimensional como o procedimento específico para “tratar as dimensões
como quantidades algébricas”. Isto pode ser entendido como a necessidade de
manter um padrão de unidades ao expressar relações.

Como exemplo, uma pessoa ao realizar uma trilha ecológica decide


marcar a distância que será percorrida em todo trajeto. Ao finalizar a trilha, a
anotação consiste em:

• 500 metros de subida.


• 3,5 km de plano.
• 500 metros de descida.

Para saber a distância total percorrida, não é correto apenas realizar


o somatório das medidas listadas em unidades de medidas diferentes. Um
dimensionamento correto só é realizado quando as grandezas possuem unidades
iguais ao serem somadas ou subtraídas e, ao serem multiplicadas ou divididas
apresentem as mesmas dimensões nos dois lados da expressão (SERWAY;
JEWETT, 2010).

No exemplo citado acima, deveríamos realizar a conversão das unidades


para que todas possuíssem a mesma dimensão e, com isso, fosse possível realizar
a operação. A conversão é utilizada para trocar unidades de um sistema de
medidas para outro ou até mesmo dentro de um mesmo sistema (SERWAY;
JEWETT, 2010).

No exemplo citado, devem-se padronizar as grandezas para permitir a


operação matemática.

 1000 m 
500 m + 500 m +  3, 5km x  = 500 m + 500 m + 3500 m = 4500 m
 1 km 

A lição acima demonstra um tipo de conversão de unidades. Vamos agora


nos aprofundar e aprender um pouco mais sobre este assunto!

Inicialmente, a conversão de unidades para realização de operações de


soma e subtração são realizadas por meio da igualdade das dimensões. Para tanto,
devemos conhecer os múltiplos e submúltiplos das unidades fundamentais.

No quadro a seguir, você pode notar quais são os múltiplos e submúltiplos


das unidades. Desse modo, basta acrescentar a grandeza para realizar a conversão,
como foi feito no exemplo anterior.

6
TÓPICO 1 | GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS

QUADRO 2 – PREFIXOS DOS MÚLTIPLOS E SUBMÚLTIPLOS DAS UNIDADES

Prefixo Símbolo Potência


deci d 10-1
centi c 10-2
mili m 10-3
micro µ 10-6
nano n 10-9
deca da 10+1
hecto h 10+2
kilo k 10+3
mega M 10+6
giga G 10+9

FONTE: SI (2012)

Para utilizar esta conversão, a dimensão estudada deve ser a mesma.


Nos exemplos a seguir, veremos que qualquer unidade pode ser transformada
utilizando os seus múltiplos e submúltiplos.

O passo a passo é simples! Você deseja saber quantos centímetros equivalem


a 10 metros. Conforme Serway e Jewett (2010), para realizar a conversão deve-se:

Escrever o valor que deseja transformar e a unidade que será convertida.

10 m → cm

O próximo passo consiste em, com base no quadro de múltiplos e


submúltiplos, identificar qual o valor multiplicativo converte a dimensão inicial
na dimensão final. Além disso, lembre-se de que, ao multiplicar os valores, as
grandezas também são multiplicadas e devem ser reduzidas a fim de obter a
dimensão desejada.

1cm
10 m → cm → 10m. 1000 cm
10−2 m

Um novo modo de realizar conversões de unidades, quando temos


sistemas de medidas diferentes, é com uso de fatores de conversão padronizados
já universalmente conhecidos.

No quadro a seguir existem vários fatores de conversão amplamente


utilizados.

7
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

QUADRO 3 – FATORES DE CONVERSÃO


1 Polegada 2,54 centímetros
1 milha 1,609 quilômetros
1 hectare 10000 m2
1 metro 3,281 pé
1 litro 1dm3
1 minuto 60 segundos
1 hora 60 minutos
1 tonelada 1000 quilogramas
1 joule 6,242 x 1018 eV
1 caloria 4,186 joules
1 atmosfera 1,013 x 105 Pascal

FONTE: Adaptado de Serway e Jewett (2010)

Com o conhecimento dos fatores de conversão de unidades, é possível


transformar medidas de acordo com a unidade apropriada para cada situação.
A metodologia usada para transformação é a mesma da utilizada anteriormente,
com cancelamento mútuo das unidades na análise dimensional.

Veja agora alguns exemplos de conversão de unidades úteis para nosso


dia a dia.

Você em uma viagem ao exterior vê uma placa de trânsito que indica a


velocidade máxima do automóvel igual a 75 milhas/hora. Qual é a velocidade
correspondente em quilômetros/hora?

Conforme Serway e Jewett (2010), para realizar a conversão deve-se:

1- Escrever o valor que deseja transformar e a unidade que será convertida.

75 mi/h → km/h

2- O próximo passo consiste em, com base no quadro de conversões, identificar


qual é o fator de conversão ideal a ser utilizado.

Além disso, lembre-se de que ao multiplicar, as grandezas também são


multiplicadas e devem ser reduzidas a fim de obter a dimensão desejada.

mi 1, 609km
75 mi/h → km/h → 75 . 120,7 km/h
h 1mi

As conversões de unidades são imprescindíveis quando se trabalha com


números. Sempre que forem realizadas operações matemáticas, é fundamental
incluir as unidades de medidas para evitar erros nos resultados.

8
TÓPICO 1 | GRANDEZAS FÍSICAS E UNIDADES DE MEDIDAS

4 ALGARISMOS SIGNIFICATIVOS
Suponha que você realize uma série de medidas do comprimento de
um salão de festas que deseja utilizar no final de semana. Dificilmente todas
as medidas obtidas serão exatamente iguais, por mais que o objeto de medição
seja o mesmo. Alguma incerteza sempre está inserida em uma mensuração. Para
compreendermos o modo como esta incerteza está introduzida nas medidas, é
importante conceituarmos os chamados algarismos significativos.

Consoante a Serway e Jewett (2010), os valores das medidas são conhecidos


dentro dos limites da incerteza experimental, ou seja, depende de fatores como a
qualidade dos equipamentos utilizados para realizar uma medição, a habilidade
do operador, o número de medições realizadas assim como o ambiente externo.
Os algarismos significativos incluem o primeiro dígito estimado da medida e
estão relacionados ao número de dígitos utilizados para retratar a medida.

Isto quer dizer que quando realizamos operações com vários resultados
medidos, temos que fornecer de forma correta o número exato de algarismos
significativos. A regra básica para algarismos significativos em operações
matemáticas é dada por:

Ao multiplicar várias quantidades, o número de algarismos


significativos na resposta final é o mesmo que o número de algarismos
significativos na quantidade que tem o número menor de algarismos
significativos. A mesma regra se aplica à divisão. [...]
Quando dois valores são adicionados e subtraídos, o número de
casas decimais no resultado deve ser igual ao menor número de
casas decimais de qualquer termo na soma ou diferença” (SERWAY;
JEWETT, 2010, p. 11).

Assim, o número de casas decimais variará de acordo com o número


de algarismos significativos de cada fator. Usando as regras para este tipo de
operação matemática, deve-se igualar o número de casas decimais ao menor
número de qualquer um dos termos na soma ou diferença, conforme Serway
e Jewett (2010) descreveram. Porém, há regras específicas para demonstrar o
resultado de forma correta, utilizando arredondamento dos números. Quando
reduzir o número de casas decimais, deve-se analisar o último algarismo. Se o
último dígito for maior que 5, deve-se acrescentar um incremento unitário no
último algarismo reduzido, como exemplo 94,768 torna-se 94,8. Se o último dígito
for menor que 5, mantém-se o número sem alteração, como exemplo 94,74 torna-
se 94,7. Se o último algarismo for igual a 5, o dígito final deve ser mantido em
caso de ser par ou deve ser arredondado para o número par maior, como exemplo
55,65 torna-se 55,6 e 15,75 torna-se 15,8 (SERWAY; JEWETT, 2010).

Assim, utilizando as regras para algarismos significativos e para


arredondamento, temos como resultados as equações a seguir:

9
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

9,5 + 85,24 = 94,7


9,5 + 85,268 = 94,8
85,24 - 9,5 = 75,7
85,268 - 9,5 = 75,8

Vale ressaltar, conforme visto nos exemplos, que o arredondamento não


é sucessivo, ou seja, a regra só é aplicada para o último algarismo significativo.

Aplicando a regra referente às operações de multiplicação e divisão, ou


seja, o número de algarismos significativos na resposta final é o mesmo que o
número que houver menor quantidade de algarismos significativos. Neste ponto
é necessário atentar para o conceito de algarismos significativos.

O número de algarismos significativos de uma medida é exposto de acordo


com o número de dígitos expressos. Desse modo, o número 2,30 possui 3 algarismos
significativos e o número 0,03 possui um algarismo significativo, visto que ele pode
ser expresso como 3x10-2. Já o número 0,0075 possui 2 significativos pelo mesmo
motivo. Entretanto, se expressarmos o número como 7,50x10-2 haverá 3 algarismos
significativos. De acordo com os exemplos citados, verifica-se que o número de
algarismos expressos pode ser diferente do número de algarismos significativos na
medida. Para evitar tal dificuldade, usa-se comumente notação científica.

Análogo às operações de soma e subtração, usaremos as regras básicas


para demonstrar exemplos de multiplicação e divisão e as regras para algarismos
significativos e arredondamento.

1,25 x 5,8 = 7,2


1,25 x 5,647 = 7,06
5,647 : 0,857 = 6,59
5,8 : 1,1218 = 5,2

Nos exemplos acima, as soluções foram corrigidas para manter o menor


número de algarismos significativos envolvidos na operação.

10
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• Tudo aquilo que pode ser medido é denominado grandeza. Para a mensuração
das grandezas físicas foi criado um padrão de unidades de medidas.

• O Sistema Internacional de Unidades, SI, é um sistema único de padronização


de medidas adotado para ser possível a intercambialidade de dimensões
internacionais.

• A análise dimensional é um equacionamento para que as grandezas ao serem


matematicamente operadas possuam unidades iguais.

• Em toda medida há algarismos certos e duvidosos, sendo que o estudo dos


algarismos significativos nos dá a metodologia de padronização de tais medidas.

11
AUTOATIVIDADE

1 Determine o valor da medida após conversão conforme se pede.

1 45 μm → dam → dam

2 1000 μg → mg →
mg

3 15 m → km →
km

4 27 mm → dam →
dam

5 1,5 m → mm →
mm

6 100 km → mi →
mi

7 35 MPa → atm →
atm

8 8 hectares → m2 →
m2

2 Determine o valor da medida com o número de algarismos significativos e


arredondamento corretos conforme se pede.

1 4,452 + 13,8
=

2 111 - 3,765
=

3 21,79 x 4,1
=

4 500 : 10,25
=

12
UNIDADE 1
TÓPICO 2

PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

1 INTRODUÇÃO
A estatística está presente em nosso cotidiano de forma mais intensa do
que imaginamos. Pesquisas de mercado, taxas de crescimento de doenças, taxas
de natalidade, percentual de aumento de preços de produtos, estimativas gerais,
entre outras várias aplicações possíveis de serem exemplificadas.

De acordo com Larson e Farber (2015, p. 3), a “estatística é a ciência que


trata da coleta, organização, análise e interpretação dos dados para a tomada
de decisões”, sendo que os “dados consistem em informações provenientes de
observações, contagens, medições ou respostas”.

Para descrever as observações ou conjunto de dados de determinada


população são utilizadas ferramentas de representação dos elementos, seja por
meio de gráficos, empregados como um excelente recurso visual, ou cálculos que
fornecem descrição numérica sumarizada dos dados.

2 ESTATÍSTICA DESCRITIVA
A estatística é um ramo da ciência no qual há coleta, organização, análise e
interpretação de informações provenientes de contagens, medições ou respostas
para tomada de decisão. A estatística possui dois ramos de estudo principais,
a estatística inferencial, que utiliza uma parte do conjunto de informações para
obter conclusões de toda a representação e a estatística descritiva, que envolve a
organização e reprodução dos dados por meios numéricos ou gráficos (LARSON;
FARBER, 2015).

A estatística descritiva é objeto de estudo deste tópico do trabalho.

13
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

DICAS

O filme “Moneyball: o homem que mudou o jogo” mostra uma aplicação prática
e cotidiana da estatística, contando a história de um gerente de um time de baseball que utiliza
técnicas estatísticas para escolher os jogadores de seu time e obter resultados. É importante
apontar que o filme recebeu seis indicações para o Oscar em 2012. Vale a pena assistir a ele.

Toda análise estatística parte de um objeto de estudo, um tema específico


delimitado, ou seja, a variável de interesse. É importante salientar que se pode
obter como resposta dados qualitativos ou quantitativos. O conjunto de dados
qualitativos não possuem entradas numéricas, ou seja, apresentam atributos
(qualidades) como objeto de pesquisa, como exemplo, diagnosticar grau de
instrução, sexo, esporte favorito de uma população. Os dados qualitativos
podem ser classificados em ordinais, quando há uma ordem entre as respostas,
exemplo grau de instrução que pode ser separado e elencado em níveis, ou
nominais, quando não há nenhuma ordenação. Entretanto, o conjunto de dados
quantitativos possui grandezas numéricas ou contagens, como exemplo idade,
peso, salário, altura de sua população. Do mesmo modo, os dados quantitativos
podem ser classificados em discretos, quando usam-se apenas números inteiros
para especificação, ou contínuos, quando tratam-se de números reais, podendo
desta forma ter valores decimais (DANTE, 2016; LARSON; FARBER, 2015).

Resumidamente, pode-se visualizar a classificação dos dados através da


figura a seguir.

FIGURA 1 – CLASSIFICAÇÃO DAS VARIÁVEIS

Variáveis
(dados)

Qualitativas Quantitativas
(atributos) (numéricas)

Discretas
Nominais
(núm. inteiros)

Ordinais Contínuas
(níveis) (núm. reais)

FONTE: A autora (2018)

14
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

Além da classificação das variáveis, na Figura 1, há outro método de


categorizar as variáveis, através dos níveis de mensuração nominal, ordinal,
intervalar e de razão (LARSON; FARBER, 2015).

Dados no nível nominal de mensuração são apenas qualitativos.


Dados nesse nível são categorizados usando-se nomes, rótulos ou
qualidades. Não é possível realizar cálculos matemáticos nesse nível.
Dados no nível ordinal de mensuração são qualitativos ou
quantitativos. Dados nesse nível podem ser postos em ordem ou
classificados, mas as diferenças entre as entradas de dados não têm
sentido matemático.
Dados no nível de mensuração intervalar podem ser ordenados e é
possível calcular diferenças que tenham sentido matemático entre as
entradas de dados. No nível intervalar, um registro zero simplesmente
representa uma posição em uma escala; a entrada não é um zero natural.
Dados no nível de mensuração de razão são similares aos dados no
nível intervalar, com a propriedade adicional de que, nesse nível, um
registro zero é um zero natural. Uma razão de dois valores pode ser
formada de modo que um dado possa ser expresso significativamente
como um múltiplo de outro (LARSON; FARBER, 2015 p. 10-11).

Consoante às definições apresentadas acima e sabendo que os níveis de


mensuração descritos são importantes para determinar as melhores operações
estatísticas a serem realizadas, analogamente aos tipos de dados, o nível de
mensuração nominal são qualitativos, já os ordinais podem ser quantitativos ou
qualitativos, sendo possível ordená-los. Pode-se concluir também que o nível de
mensuração intervalar e de razão são similares, porém diferenciam-se pelo fator
zero natural, que tem o sentido de “nenhum”. Imagine que o zero natural possui
sentido numérico, como exemplo zero reais em uma conta bancária, velocidade
igual a zero, de outro modo o zero é apenas uma posição dentro de um intervalo,
como exemplo a temperatura. Como forma resumida dos níveis de mensuração há
as informações resumidas sobre eles na figura a seguir (LARSON; FARBER, 2015).

FIGURA 2 – OPERAÇÕES APROPRIADAS DE ACORDO COM O NÍVEL DE


MENSURAÇÃO DOS DADOS
Determinar
Nível de Categorizar os Ordenados os se um dado é
Subtrair os dados
mensuração dados dados múltiplo do
outro

Nominal Sim Não Não Não

Ordinal Sim Sim Não Não

Intervalar Sim Sim Sim Não

Razão Sim Sim Sim Sim

FONTE: Larson e Farber (2015)

15
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Desse modo é possível em um único quadro associar as principais


características de cada nível de mensuração de variáveis, como visto no quadro acima.

ATENCAO

Quando há o uso de todas as observações obtidas de um grupo inteiro num


conjunto de dados, tem-se a definição de população. Ao realizar a análise, se apenas
uma parte da população for examinada para alcance dos resultados há então uma
pesquisa por amostragem e o conjunto é uma amostra. Esta definição é importante para
entendimento que, na maioria das vezes, as conclusões são tomadas a partir de uma
amostra representativa de uma população. Outro conceito de grande importância de ser
determinado são os termos parâmetros e estatística amostral. Um parâmetro é a descrição
numérica de uma característica de uma população e uma estatística amostral a descrição
numérica de uma característica de uma amostra (MOORE, 2011; LARSON; FARBER, 2015).

TUROS
ESTUDOS FU

No Tópico 4 da presente unidade estes itens serão trabalhados com maior


profundidade.

Para análise dos dados obtidos de determinada variável, é comum o uso


de medidas de tendência central, medidas de variação e medidas de posição.
Estas são formas de obter informações de valores comparativos e variabilidade
em um conjunto de dados.

3 MEDIDAS DE TENDÊNCIA CENTRAL


Inicialmente estudaremos as medidas de tendência central que
representam observações típicas e centrais sobre os dados, como exemplos as
medidas de média, mediana e moda (DANTE, 2016; LARSON; FARBER, 2015).

A média possui diferentes formas de ser mensurada, sendo a mais


conhecida a média aritmética. Por definição, a média aritmética é igual à soma
dos valores dos dados dividida pelo número de observações, podendo ser
uma média populacional ou amostral, diferenciando-se apenas se o número de
observações é relativo a uma população ou a uma amostra. Matematicamente, a
média aritmética pode ser descrita como a relação entre o somatório dos números
dividido pelo número total de itens (DANTE, 2016; LARSON; FARBER, 2015).

16
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

Exemplificando, pode-se pensar que uma universidade buscando


conhecer o perfil dos alunos de uma sala de pós-graduação resolveu aplicar um
questionário aos acadêmicos. Uma das variáveis de estudo é a idade dos alunos,
obtendo-se os dados a seguir:

28 35 25 48 30 31 52 30 29 38

A média aritmética simples das medidas é dada pelo somatório de todas


as medidas dividido pelo número de dados. Desse modo, tem-se:

28  35  25  48  30  31  52  30  29  38
MA   34, 6
10

A média aritmética simples é calculada conforme exemplo acima e, neste


caso, tem como resultado o valor de 34,6 anos.

Outra forma de cálculo de uma medida de tendência central é a média


aritmética ponderada, que pode ser definida como uma média aritmética simples
com o uso de pesos nas medidas. A média ponderada é calculada por meio da
relação entre a soma de cada dado do conjunto multiplicado pelo seu respectivo
peso e este resultado é dividido pelo somatório dos pesos (DANTE, 2016).

Exemplificando, pode-se citar que um dos acadêmicos da turma da pós-


graduação analisou seu boletim na disciplina Matemática Básica e calculou sua
nota final para compará-la ao resultado apresentado no boletim. Para tanto, as
notas e respectivos pesos encontram-se elencados a seguir.

Atividade Peso Nota do aluno


Prova 1 2 6,5
Prova 2 2 7,0
Prova 3 2 5,0
Atividades 1,5 8,0
Seminário 2,5 WW7,0

Realizando o cálculo conforme foi enunciado acima, temos que a média


ponderada é igual a:

2.6, 5  2.5  1, 5.8  2, 5.7


MP   6, 65
2  2  2  1, 5  2, 5

Desse modo, o aluno conferiu sua nota final, igual a 6,65 pontos. Para isso,
realizou o somatório das notas multiplicadas pelos respectivos pesos e dividiu o
resultado pelo somatório dos pesos das medidas.

17
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Entretanto, nem sempre apenas a média é capaz de fornecer as


características básicas de um conjunto de dados. Quando há medidas com
dispersão muito elevada, a média pode induzir a um valor muito maior ou menor
que a maioria dos valores do conjunto. Como exemplo, no caso de haver um
conjunto igual a {102; 120; 105; 111; 1}, a média é 87,8 _ valor bem abaixo da
maioria do universo de medidas.

As outras medidas de tendência central auxiliam nestes casos específicos.


A mediana é definida como um valor que está no meio dos dados quando o
conjunto está ordenado, indicando o centro de um conjunto de dados ordenados
divididos em duas partes. Em caso do número de observações pares, usa-se a
média entre os dois elementos centrais (DANTE, 2016; LARSON; FARBER, 2015).

Utilizando o mesmo conjunto de dados das idades dos acadêmicos da


pós-graduação de uma universidade e podemos obter a mediana. A variável
idade foi questionada e teve como respostas os valores citados a seguir.

28 35 25 48 30 31 52 30 29 38

Para obtenção da mediana, primeiramente deve-se ordenar os valores dos


dados.

25 28 29 30 30 31 35 38 48 52

Por se tratar de um número de observações par, deve-se calcular a média


entre os dois valores centrais, neste caso, os números 30 e 31, com mediana igual
a 30,5. Suponha que haja um aluno a mais na turma e, com isso, tenhamos o
conjunto de dados com total ímpar descritos a seguir.

25 28 29 30 30 31 33 35 38 48 52

Desse modo, a mediana será igual a 31, valor central após ordenação dos
dados.

A última medida de tendência central estudada é a moda que representa o


valor que ocorre com maior frequência dentro de um conjunto de dados, podendo
haver duas modas no grupo quando a frequência de repetição é a mesma (DANTE,
2016; LARSON; FARBER, 2015).

Exemplificando, suponha o conjunto de dados das idades dos alunos da


pós-graduação para obtenção da moda.

28 35 25 48 30 31 52 30 29 38

Neste caso, a moda será 30, visto que é a única idade que tem maior
frequência em relação às outras.

18
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

4 MEDIDAS DE DISPERSÃO
Estudaremos agora as medidas de dispersão ou variação, que têm como
um dos objetivos comparar a variação em diferentes conjuntos de dados. Dentro
deste conjunto de medidas, a primeira a ser analisada é a amplitude, medindo a
diferença entre os valores máximo e mínimo para dados quantitativos. Uma das
desvantagens desta medição reside no fato de utilizar apenas dois valores em um
conjunto de dados. Desse modo, tem-se (LARSON; FARBER, 2015):

Amplitude = Valor máximo – Valor mínimo

Para sanar o ponto desfavorável da amplitude, outras medidas de


dispersão a serem estudadas são a variância e o desvio padrão, medidas que
utilizam todas as observações do conjunto de dados. Inicialmente, conceituar o
termo desvio é importante para entendimento da variância e desvio padrão. O
desvio em termos estatísticos significa a diferença do valor medido em relação
à média do conjunto de dados. Vale ressaltar que uma propriedade da média
aritmética, medida de tendência central, reside em que o somatório dos desvios
de um conjunto de dados é sempre igual a zero. Pode-se concluir que haverá
grande variabilidade dos dados para altos desvios e baixa variabilidade dos
dados para pequenos desvios. A variância amostral ou variância populacional
é definida como uma medida da média dos quadrados dos desvios. A variância
é expressa como V, σ2, s2, sendo que a variância populacional considera todo o
universo da pesquisa e a variância amostral apenas uma parte da população, a
amostra (DANTE, 2016; LARSON; FARBER, 2015; FERREIRA, 2015).

  x  MA
n 2
2 i 1 i
Variância populacional =  
n

Sendo n o número de medidas, MA a média aritmética e x o valor da


observação.

Uma desvantagem do uso desta medida consiste no fato de obter como


resultado uma unidade de medida diferente da unidade das observações,
compreendendo sempre o quadrado da unidade inicial, em termos da análise
dimensional. Para eliminar este problema, foi adotado o desvio padrão amostral
ou populacional, que consiste na raiz quadrada da variância. Dessa maneira,
o desvio padrão é apresentado na mesma unidade de medida da variável em
questão. Em síntese, o valor do desvio só será igual a zero se todos os valores
do conjunto forem iguais e, quanto mais próximo de zero o desvio se encontrar,
menor será a dispersão dos valores do conjunto (DANTE, 2016; LARSON;
FARBER, 2015; FERREIRA, 2015).

  x  MA
n 2
i 1 i
Desvio padrão populacional =  
n

19
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

O desvio padrão é utilizado também como base para determinação


estatística de um importante modelo para gestão da qualidade, o método seis
sigma, técnica que utiliza ferramentas estatísticas para controle de qualidade. Os
princípios e procedimentos de aplicação serão abordados ainda neste curso. Para
conhecer mais sobre o assunto, fique ligado na dica a seguir!

DICAS

A metodologia de aplicação do seis sigma e seus conceitos podem


ser entendidos de modo mais aprofundado no artigo Seis sigma como diferencial de
lucratividade: uma abordagem conceitual, escrito por Rafael Scalabrin, Marcos Eduardo
Servat, Leandro Dorneles, Claudir Padia, Edio Polacinski.

Para tanto, o texto está disponível em: <http://www.fahor.com.br/publicacoes/sief/2013/


seis_sigma_como_um.pdf>.

Aproveite a leitura!

Ademais, outra forma de calcular a variabilidade dos dados é por meio


do coeficiente de variação, constantemente expresso em porcentagem, o qual
é dado pelo quociente entre o desvio padrão e a média do conjunto de dados,
mensurando assim o grau de variação dos dados em relação à média aritmética,
sendo um fator adimensional (LARSON; FARBER, 2015; FERREIRA, 2015).

Desvio padrão
Coeficiente de variação = .100
média

Os principais modos de obter medidas de dispersão de um conjunto de


dados foram abordados neste item.

5 MEDIDAS DE POSIÇÃO
As últimas medidas a serem estudadas são as medidas de posição ou
separatrizes, que compreendem os quartis, decis, percentis e escore padrão. Os
quartis dividem a distribuição dos dados ordenados em quatro partes, ou seja, o
primeiro quartil representa 25% das medidas, depois o segundo quartil representa
50% das medidas, o terceiro quartil 75% das medidas e o quarto quartil 100% das
medidas. Vale apontar que o segundo quartil corresponde à mediana do conjunto
de dados. Já para o cálculo de decis e percentis utiliza-se como base a divisão do
conjunto de dados em dez partes iguais ou cem partes iguais, respectivamente.
Vale apontar que os resultados são sempre arredondados para o número inteiro
mais próximo ao representar as medidas, em caso da existência de números
decimais (LARSON; FARBER, 2015; FERREIRA, 2015).
20
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

Finalmente, a medida escore padrão ou escore-z é definida como o valor


representado pelo número de desvios padrão em que um valor x se encontra
a partir da média aritmética do conjunto de dados. Vale ressaltar que o escore
padrão pode ser positivo, quando o valor analisado for maior que a média,
negativo, quando o valor for menor que a média ou igual a zero, quando o valor
analisado for igual a média (LARSON; FARBER, 2015). Desse modo, a medida
escore padrão é dada por:

Valor X - média aritmética


z=
desvio padrão

O valor escore-z é utilizado como base da distribuição de probabilidade


normal, amplamente utilizada na estatística e será estudada no item seguinte.

6 DISTRIBUIÇÃO DE FREQUÊNCIAS
Ao coletar dados para um determinado estudo, é comum a análise da
distribuição das variáveis de acordo com o número de vezes que são obtidas ou
o modo que podem ser representadas. “Distribuição de frequência é uma tabela
em que se resumem grandes quantidades de dados, determinando o número
de vezes, que cada dado ocorre (frequência) e a porcentagem com que aparece”
(FERREIRA, 2015, p. 25).

Vale apontar que há diversos modos de organizar e interpretar os


elementos, sendo necessário primeiramente descrever os principais tipos de
variáveis que são alcançados em um experimento. As variáveis aleatórias podem
ser classificadas em discretas ou contínuas. As primeiras são unitárias, ou seja,
os resultados podem ser enumerados em um conjunto de valores possíveis,
já as contínuas possuem número incontável de resultados possíveis, sendo
representado por uma reta numérica (LARSON; FARBER, 2015).

7 ANÁLISE DE FREQUÊNCIAS ABSOLUTA, RELATIVA E


ACUMULADA
As frequências, ou seja, número de vezes que dado elemento aparece em
um conjunto, podem ser classificadas em: frequência absoluta, frequência relativa
e frequência acumulada (FERREIRA, 2015).

A frequência absoluta corresponde ao número de vezes que um dado


aparece no conjunto. A frequência relativa corresponde a uma relação da
frequência absoluta pelo número total de dados de determinado conjunto. A
frequência acumulada corresponde à soma de cada frequência relativa com
todas aquelas que lhe são anteriores na distribuição (FERREIRA, 2015).

21
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Um exemplo de aplicação pode ser visto por meio do caso, adaptado, que
foi apresentado por Ferreira (2015, p. 26).

Um questionário foi aplicado a dez candidatos a uma vaga em uma loja de


departamentos e os resultados foram organizados na tabela a seguir.

TABELA 1 – CONJUNTO DE DADOS RELATIVOS À QUALIFICAÇÃO E IDADE DOS CANDIDATOS

Candidato da Vaga Grau de escolaridade Idade Tempo de experiência


na área
1 Ensino Médio 30 7
2 Ensino Superior 35 12
3 Ensino Superior 26 4
4 Ensino Médio 22 1
5 Ensino Médio 28 8
6 Pós-graduação 30 10
7 Ensino Médio 26 3
8 Ensino Superior 33 8
9 Pós-graduação 35 6
10 Ensino Médio 23 2

FONTE: Ferreira (2015, p. 27)

As variáveis de interesse neste exemplo são: Grau d e escolaridade,


idade e tempo de experiência. Para a demonstração do resultado do cálculo da
distribuição de frequências das variáveis foi organizada a tabela a seguir.

TABELA 2 – DISTRIBUIÇÃO DE FREQUÊNCIAS PARA AS VARIÁVEIS GRAU DE ESCOLARIDADE E

Frequência Frequência Frequência


Variável Classificação
absoluta relativa (%) Acumulada (%)
Ensino Médio 5 50 50
Grau de Ensino
3 30 80
escolaridade Superior
Pós-graduação 2 20 100
22 1 10 10
23 1 10 20
26 2 20 40
Idade 28 1 10 50
30 2 20 70
33 1 10 80
35 2 20 100

FONTE: Ferreira (2015, p. 28)

22
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

Em suma, a frequência absoluta é igual ao número de vezes que o dado


aparece no conjunto. A frequência relativa, que pode ser percentual ou numérica,
é dada pela frequência absoluta dividida pelo número total de observações, neste
caso igual a 10, e em seguida multiplicada por 100 para obtenção da porcentagem.
A frequência acumulada, neste caso, apresentada em valores percentuais, é o
somatório de todas as observações da frequência relativa anteriores àquele dado.

TUROS
ESTUDOS FU

Posteriormente, as distribuições de frequências estudadas serão aplicadas


nas representações gráficas apresentadas no Tópico 3 desta unidade.

8 DISTRIBUIÇÃO NORMAL
Ao explorar os dados de determinado experimento, pode-se observar um
padrão geral regular para descrevê-los.

A chamada curva de densidade geralmente é uma descrição adequada


do padrão geral de uma distribuição e tem como características principais estar
sempre sobre o eixo horizontal ou acima dele, ter área exatamente igual a 1 abaixo
dela, ter área proporcional a todas as observações dentro do intervalo de análise
e poder apresentar diversas formas (MOORE, 2011).

Trata-se de uma representação precisa suficiente para ser usada na prática,


não uma descrição exata do conjunto de dados. Numa curva de densidade, com
auxílio de ferramentas matemáticas, estabelece-se algumas medidas como a
mediana, que é dada pelo ponto em que é possível dividir a curva em duas áreas
iguais e a média é dada pelo ponto de equilíbrio da curva. Vale apontar que numa
distribuição simétrica a média e a mediana são iguais e correspondem ao ponto
central da curva. Em geral, a média é representada pela letra µ e o desvio padrão
por σ (MOORE, 2011).

A distribuição mais comum de probabilidade utilizada na estatística e


no planejamento experimental é a distribuição normal, em que se têm variáveis
aleatórias contínuas aplicadas no modelamento de conjuntos de medidas. Na
distribuição normal há uma curva de densidade em forma de sino, sempre
simétrica com um único pico. A média corresponde ao ponto central da curva e o
desvio padrão demonstra a dispersão dos dados no conjunto, Figura 3. Os pontos
nos quais há mudança na curvatura ocorre a distâncias iguais nos dois lados da
média, sendo estes pontos de inflexão o desvio padrão (MOORE, 2011; LARSON;
FARBER, 2015).

23
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 3 – DISTRIBUIÇÃO NORMAL DE PROBABILIDADE

Pontos de inflexão

Área total = 1

x
µ-3σ µ-2σ µ-σ µ µ+σ µ+2σ µ+3σ
FONTE: Larson e Farber (2015)

Visando à padronização de valores em uma curva da distribuição normal,


utiliza-se o escore z, relação entre a diferença de um determinado valor x com a
média das observações dividido pelo desvio padrão do conjunto. O escore z nos
indica quantos desvios padrões a observação original está distante da média e em
qual direção, ou seja, positivas se posicionadas à direita da média e negativas se
posicionadas à esquerda da média. Desse modo, a distribuição normal padrão é
uma distribuição normal com média 0 e desvio padrão igual a 1 (MOORE, 2011;
LARSON; FARBER, 2015).

Conforme foi exposto, a área sob uma curva normal representa a proporção
de observações da distribuição normal naquele determinado intervalo. Para obter
de modo mais simples tal proporção acumulada, é ideal que se utilize a curva de
distribuição normal padrão, com o uso do valor do escore z calculado. Para tanto,
deve-se enunciar o problema em termos da variável x, em seguida padronizar
x em termos de uma variável normal padrão z e, posteriormente, utilizar uma
tabela padrão que representa as áreas sob a curva normal padronizada, como
exemplificada parcialmente pela tabela a seguir.

24
TÓPICO 2 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA DESCRITIVA

TABELA 3 – DISTRIBUIÇÃO NORMAL PADRÃO

FONTE: Larson e Farber (2015)

Desse modo, qualquer variável aleatória normal pode ser calculada e


sua probabilidade de ocorrência obtida se for transformada para uma variável
aleatória normal padrão.

25
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• A estatística possui dois ramos de estudo principais, a estatística inferencial,


que utiliza uma parte do conjunto de informações para obter conclusões de
toda a representação e a estatística descritiva, que envolve a organização e
reprodução dos dados por meios numéricos ou gráficos.

• As medidas de tendência central representam observações típicas e centrais sobre


um conjunto de dados, como exemplos as medidas da média, mediana e moda.

• As medidas de dispersão ou variação têm como objetivo principal comparar


a variação em diferentes conjuntos de dados, como exemplos a amplitude, o
desvio padrão, a variância e o coeficiente de variação.

• As medidas de posição ou separatrizes compreendem os quartis, decis, percentis


e escore padrão e representam modos de dividir o conjunto de observações.

• A distribuição de frequências exprime o número de vezes que dado elemento


aparece em um conjunto, podendo ser classificadas em: frequência absoluta,
frequência relativa e frequência acumulada.

• Ademais, a distribuição de probabilidade mais comum aplicada a estatística é


a distribuição normal, em que se têm variáveis aleatórias contínuas aplicadas
no modelamento de conjuntos de medidas. Na distribuição normal há uma
curva de densidade em forma de sino, sempre simétrica com um único pico. A
média corresponde ao ponto central da curva e o desvio padrão demonstra a
dispersão dos dados no conjunto.

26
AUTOATIVIDADE

1 (UNCISAL/2015)  Em cada bimestre, uma faculdade exige a realização de


quatro tipos de avaliação, calculando a nota bimestral pela média ponderada
dessas avaliações. Se a tabela apresenta as notas obtidas por uma aluna nos
quatro tipos de avaliações realizadas e os pesos dessas avaliações, sua nota
bimestral foi aproximadamente igual a:

Avaliação Nota Peso


Prova escrita 6,00 4
Avaliação continuada 7,00 4
Seminário 8,00 2
Trabalho em grupo 9,00 2

a) 8,6.
b) 8,0.
c) 7,5.
d) 7,2.
e) 6,8.

2 Quais valores são, respectivamente, a moda, média e mediana dos números


da lista a seguir?

133, 425, 244, 385, 236, 236, 328, 1000, 299, 325

a) 236; 361,1 e 312.


b) 244; 361 e 312.
c) 236; 360 e 312.
d) 236; 361,1 e 310.
e) 236; 361,1 e 299.

3 (CESGRANRIO/2014) A tabela a seguir apresenta a frequência absoluta das


faixas salariais mensais dos 20 funcionários de uma pequena empresa.

Faixa salarial (R$) Frequência absoluta


Menor que 1000,00 6
Maior ou igual a 1000,00 e menor que 2000,00 7
Maior ou igual a 2000,00 e menor que 3000,00 5
Maior ou igual a 3000,00 2
Total 20

A frequência relativa de funcionários que ganham mensalmente menos de R$


2000,00 é de:

a) 0,07.
b) 0,13.
c) 0,35.
d) 0,65.
e) 0,70. 
27
28
UNIDADE 1
TÓPICO 3

REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

1 INTRODUÇÃO
Há diversas maneiras de se apresentar dados de um experimento ou
processo. As representações visuais com o uso de gráficos são excelentes para
facilitar o entendimento do conteúdo das observações. Contudo, há várias formas de
organizar os dados e plotar os gráficos, o que torna imprescindível a compreensão
dos fundamentos de cada modelo para melhor escolha ao utilizá-los.

Um modelo gráfico específico extensamente aplicado a administração


de produção é o Diagrama de Pareto, que apresenta num diagrama de barras
as principais informações de um sistema de interesse de modo que permita
evidenciar quais fatores são mais importantes em uma priorização de temas para
um projeto ou experimento.

Dessa forma, as principais formas de representar graficamente um


conjunto de dados serão abordadas neste tópico do trabalho, visando fundamentar
as principais características específicas de cada um e dar base para uma escolha
acertada de um modelo adequado a um certo grupo de observações.

2 REPRESENTAÇÕES GRÁFICAS
A representação gráfica de um conjunto de dados é exibida com objetivo
de facilitar a visualização das observações, favorecendo o rápido entendimento
ao estudar os elementos. Porém, o conhecimento dos principais tipos de gráficos
é imprescindível para que não existam conclusões equivocadas acerca dos temas.

29
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

De acordo com Dante (2016, p. 40), “a representação gráfica fornece uma


visão de conjunto mais rápida que a observação direta dos dados numéricos. Por
isso, os meios de comunicação com frequência oferecem a informação estatística
por meio de gráficos”. Esta citação enfatiza o motivo pelo qual é tão difundido o
uso de gráficos, bem mais frequente que tabelas, em artigos de jornais e revistas.

Ademais, Morettin e Bussab (2013) citam que os gráficos são usados


visando buscar padrões e relações, correlacionando variáveis e estudando se há
inter-relacionamento entre dados. Além disso, facilita o descobrimento de novos
fenômenos e a ágil apresentação de resultados.

Neste tópico, estudaremos os principais tipos de gráficos, iniciando com o


gráfico de segmentos ou também chamado gráfico de linhas.

3 GRÁFICO DE LINHAS
O gráfico de linhas é amplamente aplicado para representar a evolução
das frequências dos valores de uma variável durante um período, exprimindo
possíveis tendências no conjunto de dados (FERREIRA, 2015; DANTE, 2016).

NOTA

Relembrando que a frequência absoluta ou apenas frequência representa o


número de vezes que um valor de uma variável é citado. Já a frequência relativa indica
a frequência absoluta em que um dado aparece em relação ao total de citações, sendo
exposta em forma de fração ou porcentagem. Desse modo, a frequência relativa é o
quociente da frequência absoluta pelo número total de dados. Já a frequência acumulada
é dada pela soma de cada frequência em conjunto às demais em uma distribuição
(FERREIRA, 2015; DANTE, 2016).

O gráfico de linhas é comumente apresentado em reportagens com


intuito de demonstrar visualmente dados obtidos em pesquisas e, com uso deste
tipo de representação, facilitar o rápido entendimento dos leitores, conforme
exemplos a seguir.

30
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

FIGURA 4 – GRÁFICO DE LINHAS SOBRE A EVOLUÇÃO DA DÍVIDA PÚBLICA EM 2018


Evolução da dívida pública em 2018
Em bilhões de R$
3800

3750

3700
Valor

3650

3600

3550

3500
Janeiro Fevereiro Março Abril Maio Junho
Dívida pública
FONTE: <https://g1.globo.com/economia/noticia/2018/07/25/divida-publica-federal-sobe-1-em-
junho-e-atinge-r-375-trilhoes.ghtml>. Acesso em: 25 jul. 2018.

Na Figura 4 acima o gráfico de linhas exibe a evolução da dívida pública


brasileira no ano de 2018. Com base na representação, é possível verificar a
tendência de aumento da dívida com o passar dos meses do ano corrente.

A Figura 5, mostrada a seguir, demonstra que a média dos salários dos


homens tende a ser sempre maior que os das mulheres no estado do Paraná/Brasil.

FIGURA 5 – GRÁFICO DE LINHAS SOBRE A MÉDIA SALARIAL ENTRE HOMENS E


MULHERES NO PARANÁ
R$ 3.000,00
R$ 2.750,00
R$ 2.500,00
R$ 2.250,00
R$ 2.200,00
R$ 1.750,00
Homens
R$ 1.500,00 Mulheres
R$ 1.250,00
R$ 1.000,00
R$ 750,00
R$ 500,00
R$ 250,00
R$ 0,00
1999 2001 2003 2006 2007 2009 2011 2013 2015
FONTE: <https://www.bemparana.com.br/noticia/homens-sempre-terao-salarios-melhores-diz-
estudo-estatistico-paranaense>. Acesso em: 25 jul. 2018.

31
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Tomando como base a Figura 5, percebe-se que não há uma tendência


de redução ou aumento da diferença entre a média dos homens e das mulheres,
porém mantendo sempre acima o salário dos homens em relação ao das mulheres.

4 GRÁFICO DE SETORES
Já o gráfico de setores ou também denominado gráfico de pizza determina
a proporção de cada item de análise, somando como frequência acumulada 100%,
sendo amplamente utilizado para variáveis qualitativas. Desse modo, o gráfico
exprime de modo bastante visual a proporção que cada setor representa para o
total, simbolicamente como se cada “pedaço” de pizza expressasse uma categoria
(MORETTIN; BUSSAB, 2013; DANTE, 2016).

Por se tratar de uma representação utilizada para variáveis qualitativas e


quantitativas o gráfico de setores é largamente usado em veículos de comunicação.

Nas Figuras 6 e 7 vemos exemplos de aplicações dos gráficos de setores,


sendo que eles demonstram claramente o percentual correspondente a cada
categoria dentro do conjunto de dados analisados.

Na Figura 6, o gráfico de setores expõe as emissões globais dos gases do


efeito estufa por setor econômico, sendo possível com isso concluir qual segmento
é o maior responsável por tais emissões.

FIGURA 6 – GRÁFICO DE PIZZA – EMISSÕES GLOBAIS DOS GASES DO EFEITO


ESTUFA POR SETOR ECONÔMICO
Energia Construções
10% 6%
Transporte
14% Eletricidade e
25% aquecimento
Indústria
21%
24% Agricultura,
silvicultura e
outros usos da terra
FONTE: <https://noticias.uol.com.br/meio-ambiente/ultimas-noticias/redacao/2015/12/07/eletricidade-
e-o-setor-campeao-na-emissao-dos-gases-do-efeito-estufa.htm>. Acesso em: 25 jul. 2018.

Desse modo, de acordo com a Figura 6, podemos concluir que os setores


de agricultura e eletricidade são os maiores responsáveis pelas emissões gasosas.
Outro exemplo de aplicação do gráfico de setores é exposto na Figura 7, que
demonstra os materiais mais usados em embalagens nos processos de fabricação.

32
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

FIGURA 7 – GRÁFICO DE PIZZA – MATERIAIS UTILIZADOS NO SETOR DE EMBALAGENS


PLÁSTICO LIDERA VALOR DE PRODUÇÃO
Madeira
Têxteis 1.261.282
2.033.335 2,68%
4,33%
Vidro
2.185.384
4,65%
Papel
2.921.233 Material plástico
6,22% 17.423.492
37,08%
Cartolina e
Papel-cartão
4.463.409
9,50%
Metálicas
7.889.494 Papelão
16,79% ondulado
8.807.395
18,75%

Nota: valores em milhares de reais


Valor da produção: R$ 46.985.014 Fonte: IBGE-PIA - Produto (UL)-2010
Elaboração: FGV - Posição 2012
FONTE: <https://www.plastico.com.br/wp-content/uploads/2013/07/noticias_grafico_
pizza_001-300x233.jpg>. Acesso em: 25 jul. 2018.

Analisando a Figura 7, percebe-se que os materiais plásticos já representam


o maior segmento de matéria-prima para o setor de embalagens.

5 GRÁFICO DE BARRAS E COLUNAS


Outra forma de representação gráfica amplamente utilizada é o gráfico de
barras, também conhecido como gráfico de colunas, que relaciona desempenho
de alguma variável com sua respectiva frequência absoluta ou relativa. Algumas
vezes, visando dar ênfase no valor real podem ser utilizados neste tipo de
representação a relação entre a variável em análise e seu respectivo valor real
numérico. As barras podem ser exibidas na posição horizontal ou vertical, sendo
aplicado a variáveis qualitativas ou quantitativas. Alguns autores consideram
os gráficos de barras aqueles em que as barras são representadas na direção
horizontal e gráfico de colunas aqueles em que as barras são representadas na
direção vertical (MORETTIN, 2010; DANTE, 2016).

Nas Figuras 9 e 10, são exibidos exemplos de gráficos de barras ou colunas.


Na Figura 9, é apresentada a estimativa das frequências relativas percentuais da
população com mais de 65 anos no Brasil para as próximas décadas.

33
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 8 – GRÁFICO DE COLUNAS – PERCENTUAL DA POPULAÇÃO ACIMA


DE 65 ANOS NO BRASIL
População com mais de 65 anos
em % do total
30
25,5
25
21,9
20,5
20
17,4
15 13,5
9,2 9,8
10
7,3
5

0
 
10 18 20 30 40 47 50 60
20 20 20 20 20 20 20 20
FONTE: <https://g1.globo.com/economia/noticia/2018/07/25/1-em-cada-4-brasileiros-tera-
mais-de-65-anos-em-2060-aponta-ibge.ghtml>. Acesso em: 25 jul. 2018.

De acordo com a Figura 8, percebe-se aumento progressivo do percentual


da população acima de 65 anos, sendo que em 2060 haverá cerca de ¼ da população
brasileira nesta faixa etária.

Já na Figura 9 é mostrada a origem das pessoas solicitando refúgio na


União Europeia no ano de 2014. Neste caso, são usadas barras horizontais na
representação e o valor numérico real do número de pessoas que solicitam refúgio.

FIGURA 9 – GRÁFICO DE BARRAS – ORIGEM DAS PESSOAS SOLICITANDO REFÚGIO


NA UNIÃO EUROPEIA
Origem das pessoas solicitando refúgio na UE
2014
Síria
Afeganistão
Kosovo
Eritrea
Sérvia
Paquistão
Iraque
Irã
Nigéria
Rússia Total: 840.876

0 30.000 60.000 90.000 120.000 150.000


FONTE: <https://goo.gl/1JxbNo>. Acesso em: 25 jul. 2018.

34
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

Na Figura 9, o valor numérico real pode ser usado para enfatizar o total de
pessoas refugiadas, sendo, mesmo assim, um gráfico de barras.

6 HISTOGRAMA
O histograma figura como um dos mais importantes gráficos aplicados
a estatística. Ele é usado quando há intervalos, ou seja, classes de valores das
variáveis com relação às frequências absoluta ou relativa, sendo aplicado a
variáveis quantitativas (MORETTIN; BUSSAB, 2013; DANTE, 2016).

Histograma é um gráfico de barras no qual o eixo horizontal,


subdividido em vários pequenos intervalos, apresenta os valores
assumidos por uma variável de interesse. Para cada um destes
intervalos é construída uma barra vertical, cuja área deve ser
proporcional ao número de observações na amostra cujos valores
pertencem ao intervalo correspondente (WERKEMA, 1995, p. 119).

Dessa forma, o histograma é análogo ao gráfico de barras, porém com


uso de intervalo de classes, geralmente com barras consecutivas encostadas umas
nas outras. Ademais, o eixo horizontal de um histograma possui as unidades de
medida para a variável (LARSON; FARBER, 2015).

Outro ponto a ser abordado é que, por meio do histograma, as informações


da forma de distribuição de um conjunto de dados e a dispersão destes dados em
torno do valor central pode ser observado facilmente (WERKEMA, 1995).

A figura a seguir apresenta um histograma da frequência dos equipamentos


GPS em relação ao intervalo de preços praticados no mercado norte-americano.

FIGURA 10 – HISTOGRAMA – EQUIPAMENTO DE NAVEGADORES GPS EM RELAÇÃO À


FAIXA DE PREÇO DE MERCADO

10 9
Frequência (número de
navegadores GPS)

8
6 6
6
4
4
2 2
2
1

5
64
,5 4,5 5
4,5 84,5 24,5 64,5 04, 44,
10 14 1 2 2 3 3

Preço (em dólares)


FONTE: Larson e Farber (2015)

35
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Pela Figura 11 é possível atentar para o fato de que as faixas de preços


são mostradas no eixo horizontal e a frequência no vertical. Além disso, percebe-
se que não há uma ordenação decrescente dos grupos de maior frequência. A
simetria da distribuição é fator de análise para a correta interpretação dos dados
apresentados nos histogramas.

Para obtenção do número de classes que deve ser apresentado no gráfico,


comumente utiliza-se a chamada regra da raiz, na qual há o cálculo da raiz
quadrada do número de observações. O resultado é aproximado para o valor
inteiro mais próximo e tem-se o número de classes que deve ser separado
(FERREIRA, 2015).

7 POLÍGONO DE FREQUÊNCIAS E OGIVA


Quando há o uso de um gráfico de segmentos ligando à sequência dos
pontos médios superiores de cada intervalo de classes, tem-se um polígono do
histograma ou polígono de frequências. Geralmente é denominado polígono
do histograma quando representado em conjunto com um gráfico do tipo
do histograma e possui como nomenclatura geral polígono de frequências
(MORETTIN, 2010; DANTE, 2016).

Trata-se de uma representação próxima a de um histograma em termos de


haverem divisões de classes das observações, porém, há posteriormente a ligação,
como em um gráfico de linhas, dos valores representativos para cada classe.

Na figura a seguir é apresentado um polígono de frequências mostrando


a relação do preço dos equipamentos de GPS versus a frequência de cada valor
médio praticado no mercado norte-americano.

FIGURA 11 – POLÍGONO DE FREQUÊNCIAS – FREQUÊNCIA DE PREÇOS DO EQUIPAMENTO


GPS NO MERCADO NORTE-AMERICANO

10
Frequência (número de

8
navegadores GPS)

44,5 84,5 124,5 164,5 204,5 244,5 284,5 324,5 364,5


Preço (em dólares)
FONTE: Larson e Farber (2015)

36
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

É interessante atentar na Figura 12 que a escala na horizontal não se inicia


no zero, havendo uma marcação no eixo demonstrando tal alteração.

Outro gráfico a ser estudado é uma ogiva, gráfico de frequência acumulada,


que é representada por um diagrama de linhas que acumula a frequência de cada
intervalo de classes (LARSON; FARBER, 2015).

Este tipo de representação é amplamente empregado na área de


administração de produção.

Na figura a seguir há a representação do preço dos navegadores GPS


praticados no mercado norte americano em relação a frequência acumulada de
tais preços.

FIGURA 12 – OGIVA – FREQUÊNCIA ACUMULADA DOS PREÇOS DE EQUIPAMENTOS


GPS NO MERCADO NORTE-AMERICANO
Preço de navegadores GPS
30
Frequência (número de

25
navegadores GPS)

20
15
10

64,5 104,5 144,5 184,5 224,5 264,5 304,5 344,5


Preço (em dólares)
FONTE: Larson e Farber (2015)

Por meio das Figuras 10, 11 e 12 foi possível confrontar a forma de


apresentação de um conjunto de dados por meio de alguns tipos de gráficos, visto
que foram retratadas as mesmas informações, isto é, com o uso do mesmo conjunto
de dados foram expostas diferentes maneiras de exprimir o conhecimento.

8 DIAGRAMA DE DISPERSÃO
Quando se deseja avaliar a relação entre elementos, o diagrama de
dispersão é usado, excelente representação que indica o vínculo entre duas
variáveis quantitativas (FERREIRA, 2015).

O diagrama de dispersão é vastamente aplicado em pesquisas científicas


para análise de correlação entre variáveis. Na figura a seguir, por exemplo, é
demonstrado o resultado de uma pesquisa indicando a taxa de mortalidade por
acidentes de trânsito entre adolescentes de 10 a 19 anos no município do Rio de
Janeiro, entre os anos de 1980 e 1994.
37
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 13 – DIAGRAMA DE DISPERSÃO – TAXA DE MORTALIDADE POR ACIDENTES DE


TRÂNSITO ENTRE ADOLESCENTES NO RIO DE JANEIRO
4

0
0 12 24 36 48 60 72 84 96 108 120 132 144 156 168 180 192
Meses
FONTE: <https://www.scielosp.org/media/assets/rpsp/v1n5/0413f2.gif>. Acesso em: 26 jul. 2018.

Na Figura 13 foi possível traçar uma linha de tendência em relação aos


dados obtidos na pesquisa. O relacionamento entre variáveis indica que tipo de
consequência a alteração em uma variável do sistema acarreta a outra. Perceba que
na representação os eixos vertical e horizontal comportam cada qual uma variável
de análise, verificando ao final o padrão evidenciado. Ao final, é possível interpretar
e obter correlações positivas, quando a medida que a variável x aumenta, y também
aumenta ou correlações negativas, quando houver o aumento de uma variável, há
decréscimo da outra. Ademais, pode-se concluir a não correlação entre as variáveis,
ou seja, não há relação entre elas. Não obstante, a existência de correlação entre
variáveis não é necessariamente possível afirmar que haja estabelecimento de uma
relação de causa e efeito entre elas (WERKEMA, 1995).

9 PICTOGRAMAS
Ainda dentro do grupo dos principais gráficos há os pictogramas, vastamente
empregados em meios de comunicação. Vale ressaltar que, visando representar
visualmente de modo mais específico determinado tema, é comum o uso de gráficos
pictóricos ou pictogramas em publicações jornalísticas, haja vista que as imagens
apresentadas ilustram e informam ao mesmo tempo (DANTE, 2016).

As Figuras 14 e 15 ilustram este tipo de representação, demonstrando


que é possível apresentar uma imagem e, ao mesmo tempo, os dados relativos
a tal ilustração.

38
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

FIGURA 14 – PICTOGRAMA – BENEFÍCIOS AMBIENTAIS E SOCIOECONÔMICOS DA


BIOTECNOLOGIA AGRÍCOLA

FONTE: <https://goo.gl/RHEz78>. Acesso em: 26 jul. 2018.

Na Figura 14 a representação é feita por meio do quanto o saco do


alimento está cheio, demonstrando claramente que o milho é o produto com
maior adicional de produção devido à biotecnologia, mesmo sem uso dos eixos
tradicionalmente exibidos em gráficos.

Além disso, na figura a seguir, há uma representação gráfica por meio de


um pictograma do impacto do câncer no mundo, mostrando a relação de pessoas
que morrem devido à doença no mundo em relação ao total de habitantes.

39
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 15 – PICTOGRAMA – IMPACTO DO CÂNCER NO MUNDO

FONTE: <https://goo.gl/7ZCkMt>. Acesso em: 26 jul. 2018.

Conforme a Figura 15, cerca de 13% das mortes no mundo se dão devido
ao câncer. Esta representação foi feita por meio do destaque da ilustração de 13
pessoas em 100 no pictograma acima.

DICAS

Para construir os gráficos citados e outras representações não estudadas, é


comum o uso de recursos computacionais, como exemplo de programas amplamente
utilizados são SPSS, Minitab e Microsoft Excel.

No artigo “Por dentro da estatística” é possível ler resumidamente cada um dos principais
programas que utilizam métodos estatísticos, comparando-os.

O artigo está disponível no endereço eletrônico <http://apps.einstein.br/revista/arquivos/


PDF/2211-EC_v9n3_125-127.pdf>. Acesso em: 8 fev. 2019.

Vale a pena a leitura!

40
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

10 PRINCÍPIO DE PARETO
O Diagrama de Pareto é uma representação visual utilizando um gráfico
de barras organizando informações de modo que permita evidenciar quais
fatores são mais importantes em uma priorização de temas para um projeto ou
experimento. O gráfico de barras é organizado de modo decrescente de magnitude
da esquerda para direita permitindo visualização dos tópicos mais relevantes na
ocorrência de um fato em análise (WERKEMA, 1995; FERREIRA, 2015).

O diagrama é extensivamente aplicado na administração de produção para


identificação dos fatores de priorização em um conjunto de dados. O princípio
estabelece que uma redução de cerca de 20% das causas relativas a um determinado
problema, seja ele qual for, acarreta a resolução de cerca de 80% destes problemas
existentes, ou seja, o princípio denominado 80-20 enuncia que 80% dos resultados
advém de 20% das causas, sendo assim é possível concentrar esforços para melhoria
nas áreas em que há concentração dos ganhos (WERKEMA, 1995).

Conforme Koch (2016), o diagrama de Pareto, também conhecido como


princípio 80/20, é contraintuitivo, pois naturalmente pensamos que 50% das
causas serão responsáveis por 50% dos resultados, mas na realidade a maioria
dos eventos possuem uma relação de 20% das causas conduzirem a 80% dos
efeitos. Vale ressaltar que este percentual não é rigoroso, há alterações próximas
à tal relação.

Na leitura complementar podemos visualizar um exemplo prático da


importância de tal representação.

Em suma, o diagrama de Pareto é uma das ferramentas básicas de


qualidade, utilizada amplamente em diversos meios para obtenção das causas
principais de determinado problema analisado.

A base mais importante acerca deste princípio é de que “muitas poucas


coisas são importantes; mas as que são importantes são tremendamente
importantes” (KOCH, 2014, p. 30). Ou seja, se forem constatadas as poucas
atividades de alto impacto em um procedimento experimental ou qualquer tipo
de trabalho, é possível obter excelentes resultados devido à concentração de
esforços nestas poucas atividades.

Consoante ao texto indicado, demonstra-se que a metodologia de Pareto pode


ser empregada em diversos meios com uma investigação descomplicada e direta.

11 APLICAÇÃO DO MÉTODO
Campos (1992) complementa que a análise de Pareto é um método simples
e poderoso, baseado em fatos e dados, para priorização de projetos e problemas.
A metodologia de aplicação do método é proposta por Campos (1992) e está
demonstrada na figura a seguir.
41
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 16 – MÉTODO DE ANÁLISE DE PARETO

Identificação do problema

Estratificação

Coleta de dados

Análise dos pontos


Prioritários

Desdobramento

Retornar ao início Responsabilidades

FONTE: Adaptado de Campos (1992)

De acordo com a Figura 16 e baseando-se em Campos (1992), a


identificação do problema é a primeira fase para aplicação do método. Para
tanto, utilizam-se representações gráficas, como exemplo cartas de controle, que
são gráficos com apresentação dos limites máximos e mínimos para variável de
controle, ou gráficos gerais para controle da situação atual do seu sistema. Neste
ponto, ao ter seu problema identificado, deve-se partir para o próximo item, a
estratificação do mesmo, por meio de ferramentas de qualidade como exemplo
o diagrama de Ishikawa. Logo após, deve-se coletar a frequência de ocorrência
dos pontos analisados para permitir a construção do diagrama de Pareto, que
é apresentado na etapa seguinte, de priorização do problema. Pode-se então,
estratificar os pontos principais, responsáveis por cerca de 80% dos problemas,
para investigação mais profunda. Por último, no item de desdobramento avaliam-
se se os problemas podem ser resolvidos e são atribuídas as responsabilidades e
prazos para solução ou deve-se retornar ao início para nova análise visando obter
um problema possível de ser solucionado.

Como exemplo de aplicação, estudaremos o passo a passo do emprego


de tal técnica para gerenciamento da qualidade de um experimento ou processo.

42
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

Meneses et al. (2017) realizaram um estudo de caso em uma indústria


de móveis de aço para diagnosticar problemas e propor melhorias no processo
produtivo de uma máquina do tipo perfiladeira. Inicialmente utilizou-se uma
folha de verificação para entendimento dos motivos das paradas não programadas
da máquina, Figura 17, para construção do diagrama de Pareto, Figura 18.

FIGURA 17 – PARADAS NÃO PROGRAMADAS – INDÚSTRIA MÓVEIS DE AÇO

DURAÇÃO
PARADAS NÃO PROGRAMADAS % %ACUMULADA
(MIN)
Sem pedido 2.307 31,69% 31,69%

Rolo de tração do alimentador na usinagem 1.300 17,85% 49,54%

Ponteadeira em mal funcionamento 672 9,23% 58,77%

Ajustes na máquina 540 7,42% 66,19%

Limpeza no setor 503 6,91% 73,09%

Vários fatores em conjunto 500 6,87% 79,96%

Dobradeiras em mal funcionamento 210 2,88% 82,85%


Retentor da válvula da mangueira de óleo do
195 2,68% 85,52%
desbobinador danificado
Baixa pressão de ar na máquina 163 2,24% 87,76%

Falta de energia 163 2,24% 90,00%

Chapa enganchou nos rolamentos 144 1,98% 91,98%

Sem espaço para armazenar 142 1,95% 93,93%

Outros 442 6,07% 100,00%

TOTAL 7.281

FONTE: Meneses et al. (2017)

Pela Figura 17, percebe-se que os maiores índices de paradas da máquina


não programadas se dão devido à ausência de pedidos e ao rolo de tração
do alimentador da usinagem. Com objetivo de representar visualmente tais
paradas, construiu-se o diagrama de Pareto, Figura 18, baseando-se nos dados
da Figura 17.

43
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

FIGURA 18 – DIAGRAMA DE PARETO – PARADAS DE MÁQUINA PERFILADEIRA


DURAÇÃO (MIN) % ACUMULADA
100,00%
2500 90,00%
2000 80,00%
70,00%
Minutos

1500 60,00%
50,00%
1000 40,00%
500 30,00%
20,00%
0 10,00%
... l ... ina ... ... s 0,00%
ido a tro

..
r

...

nc ne .

..
do ma qu

u ia
..
to m r

pr álv al .

s.
ed se pa Ou

ho g
a

a
se

no
o á

rn

r
p

m
çã em a m re o

a
no

m ç

a
a o

ul
da em

ga e e
Se e tr ira s n at pa

ha Fa de
za

sf es

en d
d ade ste
ra
pe

o
o

a
v
ri


ei

pa lt
lo te ju m
m

Vá Se
es
d

Ro on A
Li

ra

r
to
ob

P
a
n

ix
D

te
Ba
Re

C
Pradas não programadas
FONTE: Meneses et al. (2017)

Pelo diagrama mostrado na Figura 18, verificou-se que 79,96% do tempo


de parada do equipamento é devido à falta de pedidos, ao rolo de tração do
alimentador na usinagem, a pontiadeira em mal funcionamento, ajustes na
máquina, limpeza no setor e item “vários fatores em conjunto”. Devido ao elevado
número de fatores, foi realizada uma reunião com os envolvidos para diagnóstico
dos dados mais relevantes e, posteriormente, elaboração de um plano de ação
com as medidas a serem tomadas para minimizar tais problemas.

Outros exemplos de aplicação podem ser vistos no artigo escrito por


Fernandes, Ribeiro e Almeida (2016), que analisa o setor de extrusão de uma
empresa de embalagens plásticas, identificando os benefícios de implantação da
análise de falhas do setor. Para tanto, analisou-se os dados históricos dos últimos
6 meses da empresa e as falhas em tal equipamento. Posteriormente, os dados
foram organizados utilizando o diagrama de Pareto, Figura 19.

44
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

FIGURA 19 – DIAGRAMA DE PARETO – ANÁLISE DE FALHAS EXTRUSORA


16 120%
14
14
100% 100%
12 94% 97%
91%
85% 80%
10 79%
73%
8 60%
61%
6
6
42% 40%
4
4
2 2 2 20%
2 1 1 1
- 0%
Enroladeira Enroladeira Matriz Unidade Giratória Cesto Eixo Painel Sistema de
A B circular Corte Expansivo Principal Medição

Quantidade de quebras Acumulada


FONTE: Fernandes, Ribeiro e Almeida (2016)

De acordo com a Figura 19, verifica-se que as falhas na enroladeira A


representam 42% das quebras da máquina extrusora, seguindo pela enroladeira
B e matriz circular. Posteriormente, foi realizado o registro e análise dos tipos de
quebras específicos recorrentes em cada enroladeira para subsequente reunião
entre os envolvidos e apresentação das prováveis causas que acarretam tais
falhas, com uso de outras diversas ferramentas da qualidade.

O diagrama de Pareto, análogo ao conceituado acima, auxilia na análise


dos pontos prioritários a serem estudados de forma mais minuciosa, conforme
exemplificado nos dois casos apresentados resumidamente.

Desse modo, aprendemos neste tópico o quanto a representação visual


através de gráficos pode facilitar o entendimento de um conjunto de dados e a
aplicação do Diagrama de Pareto para gestão de produção.

45
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

LEITURA COMPLEMENTAR

DIAGRAMA DE PARETO

O Princípio de Pareto apresenta o conceito de que, na  maioria


das situações, 80% das consequências são resultado de 20% das causas. Isso pode ser
muito útil para tratar não conformidades, identificar pontos de melhoria e definir
que planos de ação devem ser atacados primeiro no que diz respeito a prioridade.

Ainda segundo a metodologia, os problemas referentes à qualidade


de produtos e processos, que resultam em perdas, podem ser classificados da
seguinte maneira:

• Poucos vitais: representam poucos problemas que resultam em grandes perdas.


• Muitos triviais:  representam muitos problemas que resultam em poucas
perdas.

O Diagrama de Pareto apresenta um gráfico de barras que permite


determinar, por exemplo, quais problemas devem ser resolvidos primeiro. Por meio
das frequências das ocorrências, da maior para a menor, é possível visualizar que, na
maioria das vezes, há muitos problemas menores diante de outros mais graves, que
representam maior índice de preocupação e maiores perdas para a organização.

Como fazer o Diagrama de Pareto

• Determine o tipo de perda/problema que você quer investigar.


• Especifique o aspecto de interesse do tipo de perda que você quer investigar.
• Organize uma folha de verificação com as categorias do aspecto que você
decidiu investigar.
• Preencha a folha de verificação.
• Faça as contagens, organize as categorias por ordem decrescente de frequência,
agrupe aquelas que ocorrem com baixa frequência sob denominação “outros”
e calcule o total.
• Calcule as frequências relativas e as frequências acumuladas.

EXEMPLO

Uma empresa fabrica e entrega seus produtos para várias lojas de varejo
e  quer  diminuir o número de devoluções. Para isto,  investigou o número de
ocorrências geradoras de devolução da entrega no último semestre, conforme
apresentado no quadro a seguir:

Número de
Razões
ocorrências
Separação errada 45
Faturamento incorreto 60

46
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

Atraso da transportadora 125


Pedido errado 30
Atraso na entrega 140
Preço errado 20
Produto danificado 65
Outros 15
Total 500

Passos para Construção do Diagrama de Pareto

Primeiro passo: refazer a folha de verificação ordenando os valores por


ordem decrescente de grandeza.

Número de
Razões
ocorrências
Atraso na entrega 140
Atraso da transportadora 125
Produto danificado 65
Faturamento incorreto 60
Separação errada 45
Pedido errado 30
Preço errado 20
Outros 15
Total 500

Segundo passo:  acrescentar mais uma coluna indicando os valores


acumulados. Esse cálculo é feito somando o número de ocorrências de uma razão
mais as ocorrências da razão anterior.

Número de Casos
Razões
ocorrências acumulados
Atraso na entrega 140 140
Atraso da transportadora 125 265
Produto danificado 65 330
Faturamento incorreto 60 390
Separação errada 45 435
Pedido errado 30 465
Preço errado 20 485
Outros 15 500
Total 500

47
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

Terceiro passo:  acrescentar mais uma coluna onde serão colocados os


valores percentuais referentes a cada tipo de ocorrência.

Número de Casos Percentual


Razões
ocorrências acumulados unitário %
Atraso na entrega 140 140 28
Atraso da transportadora 125 265 25
Produto danificado 65 330 13
Faturamento incorreto 60 390 12
Separação errada 45 435 9
Pedido errado 30 465 6
Preço errado 20 485 4
Outros 15 500 3
Total 500 100

 O cálculo é feito dividindo-se o número de ocorrências de um determinado


tipo pelo total de ocorrências no período.

140
% de atraso na entrega= = 0=, 28 28%
500

Quarto passo:  acumulam-se estes percentuais em uma última coluna.


Para isso, basta somar o percentual de ocorrência de cada razão ao percentual de
ocorrência da razão anterior.

Número de Casos Percentual Percentual


Razões
ocorrências acumulados unitário % acumulado%
Atraso na entrega 140 140 28 28
Atraso da transportadora 125 265 25 53
Produto danificado 65 330 13 66
Faturamento incorreto 60 390 12 78
Separação errada 45 435 9 87
Pedido errado 30 465 6 93
Preço errado 20 485 4 97
Outros 15 500 3 100
Total 500 100

48
TÓPICO 3 | REPRESENTAÇÕES GRÁFICAS E O PRINCÍPIO 80/20

Com estes dados pode ser construído o gráfico de Pareto, apresentado a seguir:

140 100
90

Participação acumulada
120
Número de casos 80
100 70
80 60
50
60 40
40 30
20
20
10
0 0
Atraso da
transportadora

Produto
danificado
Faturamento
incorreto

Separação
errada

Pedido errado

Preço errado
Atraso na
entrega

Outros
Conforme apresentado no gráfico acima, para diminuir  o problema de
devolução de produtos será necessário criar um programa de ação para a empresa
diminuir os atrasos de entrega da fábrica e da transportadora. Com isso, 53% do
problema será resolvido.

Utilização do Diagrama de Pareto

O  Diagrama de Pareto é um recurso gráfico utilizado para estabelecer


uma ordenação nas causas de perdas que devem ser sanadas, auxiliando na
identificação dos problemas e priorizando-os para que sejam resolvidos de
acordo com sua importância. Isso não quer dizer que nem todos os problemas são
importantes, mas sim que alguns precisam ser solucionados com maior urgência.

O Diagrama de Pareto  faz parte das  sete ferramentas da qualidade e


permite uma fácil visualização e identificação das causas ou problemas mais
importantes, possibilitando a concentração de esforços para saná-los.

FONTE: <http://www.blogdaqualidade.com.br/diagrama-de-pareto/>. Acesso em: 25 jul. 2018.

49
RESUMO DO TÓPICO 3
Neste tópico, você aprendeu que:

• Uma representação gráfica fornece uma visão de conjunto de dados de modo


mais direto e rápido.

• Há diferentes maneiras de organizar informações em gráficos, sendo necessário


o conhecimento das diversas formas de representações existentes para melhor
adequação do conteúdo.

• O princípio de Pareto, ou princípio 80/20, estabelece que uma redução de cerca


de 20% das causas relativas a um determinado problema, seja ele qual for,
acarreta a resolução de cerca de 80% destes problemas existentes.

50
AUTOATIVIDADE

1 (ENEM 2012) O gráfico mostra a variação da extensão média de gelo


marítimo, em milhões de quilômetros quadrados, comparando dados
dos anos 1995, 1998, 2000, 2005 e 2007. Os dados correspondem aos meses
de junho a setembro. O Ártico começa a recobrar o gelo quando termina
o verão, em meados de setembro. O gelo do mar atua como o sistema de
resfriamento da Terra, refletindo quase toda a luz solar de volta ao espaço.
Águas de oceanos escuros, por sua vez, absorvem a luz solar e reforçam o
aquecimento do Ártico, ocasionando derretimento crescente do gelo.

15
Extensão de gelo marítimo

12

1995
9
1998
2000
6 2005
2007

3
Junho Julho Agosto Setembro

Com base no gráfico e nas informações do texto, é possível inferir que


houve maior aquecimento global em:

a) 1995.
b) 1998.
c) 2000.
d) 2005.
e) 2007.

2 (ENEM 2016) O cultivo de uma flor rara só é viável se do mês do plantio para
o mês subsequente o clima da região possuir as seguintes peculiaridades:

• a variação do nível de chuvas (pluviosidade), nesses meses, não for superior


a 50 mm;
• a temperatura mínima, nesses meses, for superior a 15 °C;
• ocorrer, nesse período, um leve aumento não superior a 5 °C na temperatura
máxima.

51
Um floricultor, pretendendo investir no plantio dessa flor em sua
região, fez uma consulta a um meteorologista que lhe apresentou o gráfico
com as condições previstas para os 12 meses seguintes nessa região.

GRÁFICO 1 –

2012 2013
250 35

30
200
Pluviosidade (mm)

Temperatura (°C)
25
150
20

100 15

10
50
5

0 0
Maio

Junho

Julho

Agosto

Setembro

Outubro

Novembro

Dezembro

Janeiro

Fevereiro

Março

Abril

Maio
Pluviosidade Temperatura máxima Temperatura mínima

Com base nas informações do gráfico, o floricultor verificou que poderia


plantar essa flor rara. O mês escolhido para o plantio foi:

a) Janeiro.
b) Fevereiro.
c) Agosto.
d) Novembro.
e) Dezembro.

3 (CESGRANRIO-2010) Os processos de desenvolvimento de software


utilizam, muitas vezes, procedimentos estatísticos para, por exemplo,
apoiar a tomada de decisão. Dentro desse contexto, o Diagrama de Pareto é
baseado na clássica regra de que:

a) 20% das ocorrências causam 80% dos problemas.


b) 60% das amostras de um processo normal encontram-se nos limites do
desvio padrão.
c) Pontos fora dos limites de um desvio padrão revelam a ocorrência de
problemas aleatórios.
d) Três pontos consecutivos abaixo da média indicam um processo em
melhoria contínua.
e) Um índice de erro acima dos cinco sigmas indica um processo que alcançou
a qualidade.

52
UNIDADE 1
TÓPICO 4

PRINCÍPIOS BÁSICOS DE ESTATÍSTICA INFERENCIAL

1 INTRODUÇÃO
A estatística inferencial é um segmento desta ciência que objetiva extrair
conclusões de uma determinada população a partir de uma amostra, ou seja, de
parte desta população.

A definição padrão dos conceitos de amostra e população serão


apresentadas neste item do trabalho. Vale apontar que, ao escolher uma parte do
todo para ser analisada, tem-se que considerar a existência de um erro devido à
aproximação.

Para tanto, a forma ideal de coleta de dados, bem como o tamanho


necessário da amostra para que haja representatividade são itens necessários a
serem apontados. As técnicas utilizadas para amostragem e qual a melhor forma
de escolha do processo também serão itens tratados.

Desse modo, a maneira de coletar, analisar e tratar dados de uma amostra,


que é representativa em relação a uma população será o tema principal discutido
neste tópico.

2 POPULAÇÃO VERSUS AMOSTRA


Imagine que o governo federal deseje realizar uma pesquisa no Brasil
sobre a satisfação da população com relação a sua administração e, para isso,
faça perguntas aos brasileiros de diferentes cidades e estados. Para que todos os
brasileiros fossem ouvidos, seria necessário entrevistar milhões de pessoas, o que
tornaria o processo lento e oneroso. No entanto, utilizam-se técnicas estatísticas
para possibilitar tal processo de forma rápida e significativa.

53
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

A amostra de uma população é um conjunto representativo do todo.


Podemos definir a população como “o conjunto formado por indivíduos ou
objetos que têm pelo menos uma variável comum e observável” (MORETTIN,
2010, p. 183) ou de maneira mais simplista como “a coleção de todos os resultados,
respostas, medições ou contagens que são de interesse” (LARSON; FARBER, 2015,
p. 3). Já a amostra pode ser explanada como “um subconjunto ou parte de uma
população” (LARSON; FARBER, 2015, p. 3) ou até mesmo como “fixada uma
população, qualquer subconjunto formado exclusivamente por seus elementos”
(MORETTIN, 2010, p. 183).

Desse modo, concluímos que ao realizar uma pesquisa, como exemplo


sobre a satisfação dos eleitores em relação a um governo, estipula-se uma
amostra, representativa da população, e a análise dos dados é realizada obtendo
as conclusões possíveis.

A amostragem, processo de seleção de uma amostra para estudo, é


imprescindível para o sucesso com o universo de uma pesquisa. Baseando-se nas
definições, pode-se visualizar o exposto pela figura a seguir, em que a amostra é
uma parte da população.

FIGURA 20 – REPRESENTAÇÃO VISUAL DOS CONCEITOS DE POPULAÇÃO E AMOSTRA

POPULAÇÃO

Amostra

FONTE: A autora (2018)

Para realizar pesquisas utilizando apenas dados amostrais, há uma


metodologia aplicada à pesquisa por amostragem.

3 COLETA DE DADOS
Um estudo estatístico comumente é classificado em observacional ou
experimental, sendo que no primeiro o pesquisador não influencia as respostas,
ocorrendo sem alteração das condições existentes e apenas com a medição

54
TÓPICO 4 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA INFERENCIAL

das características de interesse. No segundo, podem ser aplicados diferentes


tratamentos para cada parte da população visando comparativos das unidades
experimentais (LARSON; FABER, 2015).

Como exemplo, coleta de dados por meio de questionários ou entrevistas


tendem a ser estudos observacionais e testes de novos processos, métodos e
tratamentos de estudos experimentais. Para coleta de dados, dois métodos
são aplicados: a simulação, com uso de modelos matemáticos ou físicos para
reprodução de situações ou processos; ou uma pesquisa, na qual há investigação
das características de determinada população (LARSON; FABER, 2015).

4 TÉCNICAS DE AMOSTRAGEM
Para executar um planejamento por amostragem, inicialmente deve-se ter
clareza de qual população será descrita e, posteriormente o que exatamente se
deseja medir com tal processo. A amostragem, medição de parte da população,
também possui um erro embutido, que se trata da diferença entre os resultados da
amostra com relação aos da população. Por meio da inferência estatística outras
técnicas de controle são aplicadas (LARSON; FABER, 2015).

Há dois tipos de amostragem para estudo, a probabilística ou aleatória e


a não probabilística ou não aleatória. Dentre os principais tipos de amostragem
aleatória, aquela que ocorre quando todos os elementos de uma população têm
chances iguais de serem selecionados, tem-se: amostragem aleatória simples,
amostragem estratificada, amostragem por conglomerado, amostragem
sistemática. Na amostragem não probabilística tem-se: amostragem por
conveniência e amostragem por cota (FERREIRA, 2015).

Em uma amostragem aleatória simples cada amostra de mesmo tamanho


tem igual chance de ser selecionada. A amostragem estratificada possui como
foco a divisão da população em subconjuntos com características similares,
ou seja, grupos homogêneos, para daí então haver a seleção aleatória de uma
amostra dentro de cada estrato. A amostragem por conglomerado reside na
divisão de grupos com elementos heterogêneos, sem que necessariamente suas
características sejam similares como na amostragem estratificada. Daí então
seleciona-se aleatoriamente alguns conglomerados e escolhe-se todos os elementos
desse conglomerado para compor a amostra. Na amostragem sistemática há uma
ordenação entre os elementos da população e são coletados aleatoriamente dados
de tal sequência de acordo com a posição que ocupam (LARSON; FABER, 2015;
FERREIRA, 2015).

Das amostragens não aleatórias, a amostragem por cota tem elementos


retirados da população segundo cotas estabelecidas de acordo com a distribuição
desses elementos na população, porém, a seleção não é aleatória. Na amostragem
por conveniência escolhem-se os meios mais acessíveis e fáceis para obtenção
dos resultados (FERREIRA, 2015).

55
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

A amostragem aleatória é, sem dúvidas, o melhor método de amostragem


se comparado ao não probabilístico, visto que todas as observações têm a mesma
chance de serem escolhidas.

5 ESTIMAÇÃO
A estimação é uma técnica da estatística inferencial para descrever uma
característica populacional baseando-se na amostra escolhida. “O objetivo de
uma amostra é nos dar informação sobre uma população maior. O processo
de extração de conclusões sobre a população com base na amostra se chama
inferência, porque inferimos informação sobre a população a partir do que sabemos
da amostra” (MOORE, 2011).

Na inferência estatística é comum o uso de estimação e teste de hipóteses.


O segundo será trabalhado posteriormente no decorrer deste trabalho. Os
parâmetros mais usuais de serem estimados são a média, a variância, o desvio
padrão e o coeficiente de correlação, todos eles determinados por características
numéricas. Trata-se de uma forma de estimar uma particularidade dos elementos
da amostra e, assim, estender tal especificidade para o todo, ou seja, para a
população (MORETTIN, 2010).

6 ESTIMAÇÃO DE PARÂMETROS
A estimação de parâmetros é realizada com o intuito de descrever a
população por meio da amostra de trabalho. Baseando-se em Morettin (2010), os
parâmetros amostrais serão determinados neste item do trabalho.

Vale apontar que se trata de uma população X, com amostra de tamanho


n elementos para realização das estimativas descritas. A média populacional, µ, é
estimada pelo estimador X , correspondente à média amostral, sendo calculado por:

1 n
X  xi
n i 1

Já a variância populacional da variável X, σ2, é estimada pelo parâmetro s2,


variância amostral, podendo ser calculada por:

1 n
s    xi  x 
2 2

n  1 i 1

O desvio padrão populacional da variável X, σ, é estimado pelo parâmetro


s, desvio padrão amostral, podendo ser calculado por:

56
TÓPICO 4 | PRINCÍPIOS BÁSICOS DE ESTATÍSTICA INFERENCIAL

 x  x
n 2
i
s i 1

n 1

Desse modo, pode-se calcular todos os principais parâmetros de estimação


visando descrever uma população.

7 TAMANHO DA AMOSTRA
Ao realizar uma pesquisa, pode ser necessário determinar o tamanho da
amostra. Para tanto, há algumas maneiras de obter tal estimativa, dependendo
dos parâmetros que serão utilizados.

A equação aplicada para estudos quantitativos para cálculo do tamanho


da amostra, n, visando obter uma estimativa da média populacional, µ, pode ser
dada por:
 2 Z a2
/2
n
E 2

Em que Zα/2 refere-se ao valor de Z na curva normal, com nível de


significância α; σ2 é a variância populacional da variável estudada e E o erro
amostral, ou seja, a diferença máxima estimada entre a média amostral e a média
populacional. Conforme visto, para se calcular o tamanho da amostra, alguns
parâmetros devem ser conhecidos. Caso não se tenha informação prévia alguma,
é necessário que se realize uma pequena amostragem para então ser possível
estimar a variância (BUSSAB; MORETTIN, 2013).

ATENCAO

O nível de significância é definido como o nível de incerteza ou grau de


desconfiança de uma inferência. Trata-se do percentual de erro aceitável em uma
estimativa (MORETTIN, 2010).

Como exemplo, Bussab e Morettin (2013) supõem que uma pequena


amostra é retirada de uma população visando conhecimento do tamanho
amostral. Neste caso, a amostra retirada da população foi de tamanho igual a 10,
n=10, e forneceu como resposta a média amostral igual a 15, X =15, e variância
amostral igual a 16, σ2=16. Para tanto, fixou-se o erro amostral em 0,5, E=0,5 e o
nível de significância em 95%, α =0,95. Desse modo, tem-se:

57
UNIDADE 1 | INTRODUÇÃO À ESTATÍSTICA

16 1, 96 
 2 Z a2 2
/2
n   245
E2  0, 5
2

Assim, é preciso uma amostra de tamanho igual a 245 observações


aproximadamente para dar representatividade à população. No caso de
populações com tamanho conhecido, é possível estimar o tamanho da amostra
com base na equação descrita a seguir.

N n0
n
N  n0
Sendo que:
1
n0 =
E02

Em que N é o tamanho da população estudada, n0 o valor aproximado do


tamanho da amostra inicial e E0 o erro amostral.

58
RESUMO DO TÓPICO 4
Neste tópico, você aprendeu que:

• A amostra de uma população é um subconjunto representativo do todo.

• Uma população corresponde ao conjunto de dados obtidos para um estudo.

• Há dois tipos de amostragem para estudo, a probabilística ou aleatória e a não


probabilística ou não aleatória. A primeira ocorre quando todos os elementos
de uma população têm iguais chances de serem selecionados.

• Dentre os principais tipos de amostragem aleatória tem-se: amostragem


aleatória simples, amostragem estratificada, amostragem por conglomerado,
amostragem sistemática.

• Na amostragem não probabilística tem-se: amostragem por conveniência e


amostragem por cota.

• A estimação é uma técnica da estatística inferencial para descrever uma


característica populacional baseando-se na amostra escolhida.

• Ao realizar uma pesquisa, pode ser necessário determinar o tamanho da


amostra. Para tanto, há algumas maneiras de obter tal estimativa, dependendo
dos parâmetros que serão utilizados.

59
AUTOATIVIDADE

1 (PM-MG) O gerente de uma empresa, com um total de 150 funcionários,


realizou um experimento com o objetivo de verificar o consumo de água dos
funcionários durante o turno de trabalho. Foram selecionados, aleatoriamente,
50 funcionários e mensurada a quantidade de litros de água consumida por
cada um, no período de 30 dias. Sabe-se, também, que cada funcionário
teve a mesma probabilidade de ser incluído na seleção. Com base nestas
informações, relacione a segunda coluna de acordo com a primeira:

COLUNA 1

(1) Quantidade total de funcionários da empresa.


(2) Consumo de litros de água por funcionário.
(3) 50 funcionários selecionados aleatoriamente.
(4) Técnica utilizada para seleção da amostra.

COLUNA 2

( ) Variável contínua.
( ) Amostra.
( ) Amostragem aleatória simples.
( ) População.

Marque a alternativa que contém a sequência CORRETA de respostas, na


ordem de cima para baixo:

a) ( ) 4, 2, 3, 1.
b) ( ) 2, 1, 4, 3.
c) ( ) 3, 2, 1, 4.
d) ( ) 2, 3, 4, 1.

2 (Fundação Carlos Chagas - 2012) No que se refere à teoria de amostragem,


considere:

I- A amostragem aleatória simples é um processo para se selecionar n


amostras tiradas de N unidades, de tal forma que todas as possíveis
amostras tenham a mesma probabilidade de serem escolhidas.
II- A amostragem sistemática é, em geral, mais eficiente do que a amostragem
aleatória simples.
III- O aumento do tamanho da amostra acarreta um aumento do erro padrão
das estimativas.

60
IV- Na amostragem por conglomerados, quando as unidades conglomeradas
contêm números diferentes de elementos, não existem processos para se
estimar o valor total da população.

Está correto o que consta APENAS em:

a) I.
b) I e II.
c) III e IV.
d) I, III e IV.
e) I e IV.

61
62
UNIDADE 2

METODOLOGIAS PARA
PLANEJAMENTO EXPERIMENTAL E
SUAS PRINCIPAIS VARIÁVEIS

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• estabelecer as principais etapas de um estudo experimental;

• identificar um planejamento experimental adequado para um dado


problema;

• examinar um experimento em termos da metodologia de planejamento


de experimentos.

PLANO DE ESTUDOS
Esta unidade está dividida em três tópicos. No decorrer da unidade você
encontrará autoatividades com o objetivo de reforçar o conteúdo apresentado.

TÓPICO 1 – INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

TÓPICO 2 – PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO


FATOR

TÓPICO 3 – PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS


FATORES

63
64
UNIDADE 2
TÓPICO 1

INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

1 INTRODUÇÃO
A estatística possui como uma das mais importantes vertentes de seu
conhecimento o planejamento de experimentos. Apesar desta ciência englobar o
planejamento, execução, coleta e análise de dados em um experimento, a etapa de
planejamento é imprescindível para o sucesso de qualquer projeto. Nesta primeira
fase as decisões e escolhas são realizadas para posteriormente serem executadas,
sendo, portanto, essencial o conhecimento de técnicas e cenários adequados para
a experimentação.

Na unidade anterior aprendemos sobre a estatística descritiva, através


da realização da análise dos dados básicos para realização de um trabalho, por
meio de representações gráficas e numéricas objetivando explorar um grupo
específico de elementos. Nesta unidade, pretende-se estudar as questões relativas
ao experimento antes que os dados sejam produzidos, ou seja, o planejamento do
experimento e as representações gráficas usuais baseando-se nos dados coletados.

A análise das variáveis por artifício das técnicas existentes possibilita a evolução
de um modelo estatístico capaz de explorar todo universo de dados necessários,
descartando os dados provenientes de técnicas não significativas e alcançando o
objetivo desejado sem a inconveniência do uso de diversas experimentações. Para
tanto, a estratégia de trabalho está alicerçada no número de fatores de análise, sendo
existentes técnicas distintas para experimentos com um único fator ou com vários
fatores. O conhecimento destes diversos métodos é imprescindível para a escolha e
realização de um planejamento experimental satisfatório.

65
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

2 INFERÊNCIA ESTATÍSTICA
Na unidade anterior, estudamos formas de estimar parâmetros de uma
amostra e quais as principais características de um conjunto de dados. Porém,
para interpretar de forma ampla e correta tais dados é preciso o entendimento de
outras propriedades estatísticas, como exemplo o conhecimento de intervalos de
confiança e testes de hipóteses, uma parte da estatística inferencial.

Segundo Moore (2011, p. 324), “a inferência estatística extrai conclusões


sobre uma população com base em dados amostrais e usa probabilidade para
indicar o grau de confiabilidade das conclusões”.

Um resumo simplificado relativo às formas de obtenção das estimativas


pode ser visto na figura a seguir.

FIGURA 1 – ESQUEMA BÁSICO ESTATÍSTICA

População Amostra
Amostragem
N; μ x,n

Inferência estatística

Estimativas por Tabelas, gráficos,


Parâmetros
intervalo, teste estimativas por
desconhecidos
de hipóteses, ... ponto...

FONTE: Adaptado de Moore (2011)

Na Figura 1, em síntese, percebe-se que uma amostra faz parte de uma


população, sendo que é plausível a realização de estimativas desta população por
meio da inferência estatística, como exemplo os testes de hipóteses, intervalos de
confiança, entre outros. Outro ponto a ser destacado é o fato de que quando um
dado qualquer é apresentado, sempre há uma margem de erro devido à inerente
imperfeição do tratamento e pesquisa realizados (MOORE, 2011; MORETTIN, 2010).

Neste ponto temos que entender que uma estimativa pontual, como média
e desvio padrão da população, dificilmente será fidedigna ao resultado global
da população, sendo, portanto, preferível a aplicação de estimativas inferenciais
como o intervalo de confiança.

66
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

3 INTERVALO DE CONFIANÇA
O intervalo de confiança é uma delimitação dos parâmetros de uma
distribuição, geralmente apresentado como uma ‘estimativa ± margem de erro’. Vale
apontar que para estimar a margem de erro deve-se utilizar um determinado
nível de confiança, ou seja, a taxa de sucesso do método que produz o intervalo
(MOORE, 2011; MORETTIN, 2010).

Desse modo, um intervalo de confiança de 95%, quer dizer que 95%


das vezes testadas, o resultado estará correto, contido dentro daquele intervalo
prescrito. O intervalo de confiança é amplamente usado para estimar parâmetros
da população, contudo, deve-se atentar para o nível de significância adotado, ou
seja, o nível de incerteza adotado. No caso acima de 95%, por exemplo, o nível de
significância seria de 5% (MORETTIN, 2010).

ATENCAO

O nível de significância é definido como o nível de incerteza ou grau de


desconfiança de uma inferência. Trata-se do percentual de erro aceitável em uma estimativa
(MORETTIN, 2010). Outro ponto a ser destacado para análise de qualquer amostra é o tipo
de distribuição amostral de probabilidade utilizada, sendo a mais comum à distribuição
Normal da população, tópico amplamente trabalhado em um estudo básico de estatística.

NOTA

A curva de densidade normal descreve a distribuição normal de probabilidade,


tendo todas uma forma geral: são simétricas em torno da média, têm forma de sino, são
caracterizadas pela média e desvio padrão. Na distribuição normal, aproximadamente 68%
das observações estão a menos de um desvio padrão da média; 95% das observações
estão a menos de dois desvios padrões da média e 99,7% das observações estão a menos
de três desvios padrões da média, conforme Figura 2 (MOORE, 2011).

67
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

FIGURA 2 – GRÁFICO DA CURVA NORMAL

Pontos de inflexão

Área total = 1

x
µ-3σ µ-2σ µ-σ µ µ+σ µ+2σ µ+3σ
FONTE: Larson e Farber (2015, p. 219)

Para padronização das curvas de distribuição normal, utiliza-se o valor


padronizado denominado escore z, calculado por:

x
z


Sendo x uma observação de uma distribuição com média μ e desvio padrão


σ. Desse modo, é possível obter o quanto a observação original está distante da
média e qual o sentido, positivo ou negativo, de variação (MOORE, 2011).

A análise dos limites aceitáveis dos resultados corresponde ao


entendimento do intervalo possível no qual os valores estão inseridos, ou seja,
o limite superior trata-se da estimativa pontual somada ao erro aceitável e o
limite inferior a estimativa pontual subtraída ao erro aceitável, como ilustrado no
exemplo a seguir.

EXEMPLO 1: De acordo com Larson e Farber (2015), um pesquisador da


área econômica está coletando dados sobre funcionários de mercearias em um
município. Os dados listados a seguir representam uma amostra aleatória do
número de horas semanais trabalhadas por 40 funcionários de diversas mercearias.

30 26 33 26 26 33 31 31 21 37
27 20 34 35 30 24 38 34 39 31
22 30 23 23 31 44 31 33 33 26
27 28 25 35 23 32 29 31 25 27

68
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

Com os dados em mãos, é possível calcular uma estimativa pontual da


média populacional por meio da média amostral.

x
 x  1184  29, 6
n 40

Assim, sabe-se que há como média 29,6 horas de trabalho dos funcionários
das mercearias do município. De modo intervalar, pode-se estimar uma amplitude
de valores, considerando aleatoriamente que a margem de erro seja igual a 2,1,
tem-se que o valor da média de horas trabalhadas está no intervalo entre (29,6-
2,1) <μ< (29,6+2,1), ou seja, 27,5 <μ< 31,7, cuja representação é dada pela Figura 3.

FIGURA 3 – ESTIMATIVA PONTUAL E INTERVALAR


Limite inferior Estimativa pontual Limite superior
27,5 x = 29,6 31,7
x
27 28 29 30 31 32
FONTE: Larson e Farber (2015, p. 278)

Em vista disso, percebe-se que é bem mais provável que a média real de uma
população esteja dentro de um intervalo de valores a um resultado fixo pontual.

No Exemplo 1, a margem de erro foi estimada aleatoriamente, porém, há


uma metodologia para definição de tal valor. Para determinação de um intervalo
de confiança, tem-se um procedimento geral adotado, exposto no quadro a seguir.

QUADRO 1 – PASSOS PARA ESTABELECIMENTO DO INTERVALO DE CONFIANÇA

Estabeleça Qual é a questão prática que requer a estimação de um parâmetro?


Identifique o parâmetro, escolha um nível de confiança ou hipóteses e
Planeje
selecione o tipo de teste/intervalo adequado a sua situação.
Verifique as condições para o
intervalo/teste que planeja usar.
Resolva Faça o trabalho em fases:
Calcule a estatística do teste/
intervalo.
Retorne à questão prática para descrever seus resultados nesse
Conclua
contexto.

FONTE: Moore (2011, p. 282)

Os níveis de confiança, considerando a distribuição normal de


probabilidade, mais usados são apresentados no quadro a seguir.

69
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

QUADRO 2 – NÍVEL DE CONFIANÇA PARA DISTRIBUIÇÃO AMOSTRAL NORMAL

Nível de confiança 90% 95% 99%


Valor crítico, z* 1,645 1,960 2,576
FONTE: Moore (2011, p. 282)

Assim, Moore (2011) enuncia que um intervalo de confiança


para uma amostra aleatória simples de tamanho n de uma
população normal com desvio padrão, σ, conhecido e uma média
populacional, μ, desconhecida, sendo x a média amostral, é dado por:


x  z*
n

O intervalo de confiança para a média de uma população normal terá uma


margem de erro especificada, m, quando o tamanho da amostra, n, for:

2
 z * 
n 
 m 

O conhecimento do número de observações a serem realizados em um


experimento é um ponto crítico para o sucesso do planejamento de um estudo,
visando evitar ensaios sem confiabilidade ou excesso de recursos desnecessários.

EXEMPLO 2: De acordo com Larson e Farber (2015), utilizando os dados


do Exemplo 1, tem-se o cálculo do desvio padrão da média e, para um nível de
confiança de 95%, a estimativa real do intervalo de confiança das observações.

O desvio padrão é dado por:

  x  MA
n 2
i
 i 1
 5, 3
n

De acordo com o Exemplo 1, a média das amostrais é igual a 29,6 horas,


com 40 observações e desvio padrão igual a 5,3. Sabe-se que z* para 95% de
confiança é igual a 1,960, conforme Quadro 2. Portanto, o intervalo de confiança
é dado por:

 5, 3
x  z*  29, 6  1, 960  29, 6  1, 64
n 40

Conclui-se que o intervalo de confiança é dado por (29,6-1,6) <μ< (29,6+1,6),


ou seja, 28,0 <μ< 31,2.

70
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

4 TESTE DE HIPÓTESES
O teste de hipótese analisa uma afirmação em relação a um parâmetro
populacional, sendo que uma das duas hipóteses testadas é dada como verdadeira.
Para examinar a igualdade das médias de k tratamentos tem-se:

H0: τ1 = τ2 =...= τk =0
H1: τi ≠ 0 para pelo menos um i

A hipótese nula, H0 contém a igualdade das médias e o complemento


da hipótese nula, ou seja, a hipótese alternativa, H1 ou Ha considera a hipótese
de médias divergentes. Vale apontar que o teste de hipóteses pode ser realizado
utilizando diversos parâmetros populacionais como a média, desvio padrão,
variância, entre outros e podem haver distintas construções de hipóteses,
conforme demonstrado no quadro a seguir (LARSON; FARBER, 2015).

QUADRO 3 – DECLARAÇÕES DE HIPÓTESES GERAIS

Declaração sobre H0 Sentença Declaração sobre H1


A média é... matemática A média é...
. . . maior ou igual a k. H0: μ ≥ k . . . menor que k.
. . . pelo menos k. H1: μ < k . . . abaixo de k.
. . . não menos que k. . . . menos que k.
. . . menor ou igual a k. H0: μ ≤ k . . . maior que k.
. . . no máximo k. H1: μ > k . . . acima de k.
. . . não mais que k. . . . mais que k.
. . igual a k. H0: μ = k . . não igual a k.
. . . k. H1: μ ≠ k . . . diferente de k.
. . . exatamente k. . . . não k. 1
FONTE: Larson e Farber (2015, p. 325)

Para realização do teste, deve-se supor uma hipótese como verdadeira.


Se a hipótese nula for verdadeira, a equação modelo da análise de variância nos
mostra que cada observação equivale a média global somada ao componente
do erro aleatório. Desse modo, a mudança nos tratamentos do fator não altera a
resposta média. Para tanto, deve-se realizar o teste de hipóteses, que é baseado
na comparação de duas estimativas independentes da variância da população,
sendo a variabilidade total dos dados descrita pela soma total dos quadrados,
conforme será aplicado no próximo tópico deste trabalho (MONTGOMERY;
RUNGER, 2016).

Resumidamente, no teste de hipóteses deseja-se avaliar se a hipótese nula


é verdadeira, o que equivale a afirmar que ao escolher uma observação em um
conjunto de dados em análise, média ou variância, por exemplo, não haverá alteração
da resposta média dos fatores, considerando o erro aleatório referente ao conjunto.

71
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

5 PLANEJAMENTO EXPERIMENTAL
Vale relembrar que por definição um experimento é um estudo de um
sistema no qual há alterações em parâmetros de entrada para análise das variações
em parâmetros de saída, conforme enunciou Werkema e Aguiar (1996) e pode-se
representar pela figura a seguir.

FIGURA 3 – ESQUEMA GERAL DE UM PROCEDIMENTO EXPERIMENTAL


fatores controláveis
x1 x2 xP

Entrada Saídas
s PROCESSO y

z1 z2 zP
fatores não controláveis
FONTE: Adaptado de Motgomery e Runger (2016)

Conforme Motgomery e Runger (2016), os métodos básicos para a coleta


de dados em um trabalho se dão por meio de um estudo retrospectivo, com uso
de dados históricos, um estudo de observação, mediante a contemplação de um
processo, ou um experimento planejado, em que há variações de parâmetros
para análise dos resultados e inferência ou decisões em relação às variáveis
responsáveis por determinadas alterações, em suma, estabelecendo relações de
causa e efeito.

Domenech (2004) enuncia que no planejamento de experimentos, ou


também representado pela sigla inglesa DOE – Design of Experiments, todas as
variáveis controladas são modificadas simultaneamente e analisa-se os resultados
das variáveis de saída, bem como as interações entre as variáveis. Comparando o
planejamento experimental a outros métodos de amostragem e análise de dados,
vejamos a figura a seguir. Na próxima unidade deste livro, abordaremos de forma
mais aprofundada os comparativos entre métodos.

72
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

FIGURA 4 – ESCOLHA DE MÉTODOS DE ESTUDO

Sim Não
Disponibilidade
de dados
Com dados Sem dados
Estratégia?

Experimental Coleta Passiva


("dados baratos") de dados ("dados caros")
Estudo
observacional
1 x's Vários x's
Ensaios
Não Sim
Balanceado?
Vários x's

Dados Um fator Ensaios Planejamento "Como"


Plano Avaliação
históricos por vez "orientados" experimental dados
balanceado subjetiva
(Ex: CEP) (OFAT) (palpite) (DOE) históricos

1 2 3 4 5 6 7
FONTE: Domenech (2004)

Posto isso, planejamento de experimentos, nomenclatura em inglês Design


of Experiments – DOE, é usado para definir quais dados serão usados, suas variáveis
e quantidades a coletar visando obter precisão estatística e baixo custo, ou seja,
otimizar os processos. Os experimentos planejados são o escopo deste trabalho,
sendo definidos como “um experimento é um procedimento no qual alterações
propositais são feitas nas variáveis de entrada de um processo ou sistema, de
modo que se possa avaliar as possíveis alterações sofridas pela variável resposta,
como também as razões destas alterações” (WERKEMA; AGUIAR, 1996, p. 15).

Assim, tem-se uma metodologia para planejar o experimento visando à


coleta e análise de dados de forma econômica e rápida.

E
IMPORTANT

Um estudo observacional tem como objetivo principal avaliar as variáveis


de interesse por meio da percepção das alterações utilizando apenas a observação
sem imposição de algum tratamento nos indivíduos ou variáveis, conforme ocorre em
experimentos planejados. Além do que já foi exposto, nos experimentos planejados é
possível analisar simultaneamente fatores combinados. Portanto, é imprescindível a
diferenciação entre estes dois conceitos para continuidade dos estudos (MOORE, 2011).

73
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

6 TIPOS DE AMOSTRAS
Dentro do planejamento experimental, a análise da amostra deve ser um
dos primeiros fatores a serem pensados. Há dois tipos básicos de amostras: uma
de resposta voluntária, quando a pessoa escolhe se irá responder a uma pesquisa,
por exemplo: questionários enviados via e-mail, ou amostra de conveniência,
quando o entrevistador faz a escolha da pessoa, como entrevistas em ruas ou
shoppings. Porém, dentro deste universo, a escolha deve ser realizada ao acaso,
evitando favorecimento de determinado grupo nos resultados. Um fator a ser
pensado em amostras de conveniência é o local escolhido para tal entrevista,
visto que uma rua de comércio popular tende a ser frequentada por pessoas de
diferente classe social a um shopping de alto padrão, podendo, portanto, acarretar
uma tendência nos dados obtidos (MOORE, 2011).

Conforme exposto, é de suma importância a aleatoriedade na escolha de


uma amostra em um experimento. Como meio de classificação amostrais, temos
as amostras aleatórias simples, AAS, que consiste em um número determinado
de indivíduos escolhidos de modo que todos tenham a mesma chance de serem
selecionados, podendo a seleção ser realizada por números em um sorteio ou
qualquer outro modo aleatório de escolha. Outra forma de classificação é a amostra
aleatória estratificada em que a população é dividida em grupos similares, os
estratos, e posteriormente utilizada a amostragem aleatória simples para coleta
dos dados (MOORE, 2011).

Por meio da amostra é possível obter conclusões acerca de uma população


mais ampla, estudo da área de inferência estatística. Os dois tipos mais comuns
de inferência estatística são obtidos por meio de intervalos de confiança e testes
de significância, que são abordados nesse trabalho (MOORE, 2011). A figura a
seguir demonstra que a sistematização das etapas de um experimento facilita o
alcance do sucesso almejado em um processo.

FIGURA 5 – ROTEIRO BÁSICO PARA REALIZAÇÃO DE UM BOM EXPERIMENTO

1- Identificação dos objetivos do experimento

Uso de informações técnicas, experiência do grupo, resultados históricos.

2- Seleção da variável resposta

Escolha da variável e determinação do método de medição.

74
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

3- Escolha dos fatores e seus níveis

Identificação dos fatores que serão constantes e daqueles que irão variar.
Escolha da faixa de variação e níveis de medição.

4- Planejamento do procedimento experimental

Análise das técnicas e interações entre fatores. Determinação dos modelos


e roteiro a ser desenvolvido.

5- Realização do experimento

Execução do planejado. Coleta de dados.

6- Análise de dados

Análise de possíveis erros. Métodos estatísticos e de representação dos dados.

7- Interpretação dos resultados

Conclusões acerca dos dados.


FONTE: Adaptado de Werkema e Aguiar (1996)

A Figura 6 demonstrou que a sistematização das etapas de um experimento


facilita o alcance do sucesso almejado no resultado.

7 TIPOS DE EXPERIMENTOS
Consoante a Werkema e Aguiar (1996), há três princípios básicos para
planejar experimentos, sendo eles: réplica, aleatorização e formação de blocos.
Resumidamente, réplica são as repetições do experimento, sendo respeitadas as
condições de cada etapa igualmente, ou seja, apenas a variável de interesse de
análise irá variar no processo. A aleatorização consiste em manter ao acaso tanto as
condições de experimentação quanto a ordem dos ensaios. Já a formação de blocos
consiste na sistematização de conjuntos homogêneos para realização de blocos
experimentais, ou seja, faz-se a união de conjuntos homogêneos para evitar erros
devido à variabilidade dos elementos e a aleatorização dentro deste conjunto.
75
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

UNI

Uma curiosidade acerca do início do uso do planejamento de experimentos


pelo pesquisador Ronald Fisher, considerado um dos maiores estatísticos da história e
desenvolvedor da técnica de DOE é contada na reportagem a seguir.

O BRILHANTISMO DE FISHER NO EXPERIMENTO DA SENHORA TOMANDO CHÁ

Ronald Aylmer Fisher, um dos maiores gênios da história da ciência recente e considerado
por muitos o pai da estatística, desenvolve em uma tarde com amigos um simples exemplo
de delineamento de experimentos (ou design de experimentos, para os que gostam de
abrasileirar). A história que é contada quase como uma lenda entre os estatísticos, foi
publicada pelo próprio Fisher em seu clássico livro The Design of Experiments e conta a
história de uma senhora que jurava que conseguia diferenciar se o leite era posto antes
ou depois do chá. Intrigado, Fisher elaborou um experimento para verificar a habilidade da
senhora e seu desenrolar é contado a seguir.

Como um bom inglês, Fisher se reuniu com seus amigos para tomar um chá ao fim de
uma bela tarde nublada típica da Inglaterra. Durante a conversa, uma senhora, ninguém
menos que Muriel Bristol, diz que consegue diferenciar se o leite é posto antes ou depois
do chá. Teimoso, Fisher duvida e propõe o seguinte teste.

1. 8 xícaras de chá serão utilizadas, sendo 4 em que o leite foi posto antes e 4 em que o
leite foi posto depois.
2. A senhora irá experimentar cada uma das xícaras em ordem aleatória e deverá selecionar
quais são os chás em que o leite foi colocado primeiro.
3. Se a senhora conseguir acertar todas as xícaras, Fisher estará convencido de que ela
realmente sabe diferenciar a ordem em que é posto o leite.

Em termos estatísticos, a história tem elementos de aleatorização e delineamento de


um experimento simples. A hipótese nula define que a senhora não tem a habilidade de
diferenciar se o leite é posto antes ou depois. Ou seja, a chance de ela acertar é um mero
acaso, a mesma de jogar uma moeda.

Fisher definiu o nível do teste em 5%. Lembrando que temos 8 xícaras no total e ela
deve selecionar 4, temos 70 combinações possíveis. Utilizando um pouco de inferência,
a região crítica deve ser definida de forma que a probabilidade de a senhora acertar certo
número de xícaras ou mais seja menor que o 5% definido. Na tabela a seguir temos as
probabilidades dos eventos possíveis. Note que a probabilidade de acertar 3 ou mais é de
17/70 (16/70 + 1/70), ou seja, 0.2428. Por outro lado, a probabilidade de acertar as 4 é de
1/70 = 0.0143 < 0.05. Portanto, a região crítica selecionada foi: 

Se a senhora acertar as 4 xícaras com leite colocado antes, então temos evidências para
dizer que sua probabilidade de acertar não é um mero acaso, ou seja, ela possui essa
habilidade inútil.

76
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

Número de acertos (X) Combinações possíveis Pr(X = x)

0 1 1/70

1 16 16/70

2 32 32/70

3 16 16/70

4 1 1/70

Em apenas uma conversa, Fisher mostrou aos seus colegas toda sua genialidade a respeito
de sua teoria em planejamento de experimentos: a aleatorização das xícaras, a definição
do nível do teste antes de coletar os dados, o planejamento e suas conclusões. Além
disso, dizem que Bristol acertou todas as quatro xícaras…

FONTE: <https://manipulandodados.com.br/o-brilhantismo-de-fisher-no-experimento-da-
senhora-tomando-cha/>. Acesso em: 16 set. 2018.

Conforme foi explanado na reportagem anteriormente, o número de


fatores em um experimento é condição necessária para a perfeita análise dos
dados. Deste modo, os planejamentos experimentais podem ser classificados de
acordo com o número de fatores estudados, pela estrutura do planejamento ou
pelo tipo de informação fornecida pela experimentação. Neste trabalho a primeira
classificação será adotada, número de fatores de estudo.

No quadro a seguir serão apresentados resumidamente os principais tipos


de formas de classificação dos planejamentos experimentais mais utilizados.

QUADRO 4 – CLASSIFICAÇÃO DOS PLANEJAMENTOS EXPERIMENTAIS


Planejamento Tipo de Aplicação Estrutura Informações fornecidas
Completamente Apropriado Base: o efeito do fator é • Estimativas e
aleatorizado com quando somente estudado por meio da comparações
um único fator um fator alocação ao acaso das dos efeitos dos
experimental está unidades experimentais aos tratamentos.
sendo estudado. tratamentos (níveis do fator). • Estimativa da
Os ensaios são realizados em variância.
ordem aleatória.
Blocos: ausentes.
Fatorial Apropriado Base: em cada repetição • Estimativas e
quando vários completa do experimento comparações dos
fatores devem ser todas as combinações efeitos dos fatores.
estudados em dois possíveis dos níveis dos • Estimativas dos
ou mais níveis e as fatores (tratamentos) são possíveis efeitos de
interações entre os estudadas. A alocação das interações.
fatores podem ser unidades experimentais aos • Estimativa da
importantes. tratamentos e a ordem de variância.
realização dos ensaios são
feitas de modo aleatório.
Blocos: ausentes.

77
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Fatorial 2k em Apropriado Base: o conjunto completo • Fornece as mesmas


blocos quando o número de tratamentos é dividido estimativas do
de ensaios em subconjuntos de modo planejamento
necessários para que as interações de ordem fatorial, exceto
o planejamento mais alta são confundidas algumas interações
com k fatores em com os blocos. São tomadas de ordem mais alta
2 níveis é muito observações em todos os que não podem ser
grande para que blocos. estimadas porque
sejam realizados Blocos: os blocos geralmente estão confundidas
sob condições surgem como consequência com os blocos.
homogêneas. de restrições de tempo,
homogeneidade de materiais
etc.
Fatorial 2k Apropriado Base: vários fatores são • Estimativas e
fracionado quando existem estudados em dois níveis, mas comparações dos
muitos fatores somente um subconjunto do efeitos de vários
(k muito fatorial completo é executado. fatores.
grande) e não é Blocos: a formação de blocos • Estimativas de certos
possível coletar algumas vezes é possível. efeitos de interação
observações (alguns efeitos
em todos os podem não ser
tratamentos. estimáveis).
• Certos
planejamentos
fatoriais fracionados
(quando k
é pequeno)
não fornecem
informações
suficientes para
estimar a variância.
Blocos Apropriado Base: são tomadas • Estimativas e
aleatorizados quando o efeito observações correspondentes comparações
de um fator está a todos os tratamentos (níveis dos efeitos dos
sendo estudado do fator) em cada bloco. tratamentos livres
e é necessário Blocos: usualmente formados dos efeitos do bloco.
controlar a em relação a um único fator • Estimativas dos
variabilidade perturbador. efeitos do bloco.
provocada • Estimativa da
por fatores variância.
perturbadores
conhecidos.
Estes fatores
perturbadores
(material
experimental,
tempo, pessoas
etc.) são
divididos em
blocos ou grupos
homogêneos.

78
TÓPICO 1 | INTRODUÇÃO AO PLANEJAMENTO EXPERIMENTAL

Blocos Apropriado Base: os tratamentos • Idêntico ao


incompletos quando todos testados em cada bloco planejamento em
balanceados os tratamentos são selecionados de forma blocos aleatorizados.
não podem ser balanceada: dois tratamentos Os efeitos de todos
acomodados em quaisquer aparecem juntos os tratamentos são
um bloco. em um mesmo bloco o estimados com igual
mesmo número de vezes precisão.
que qualquer outro para de
tratamentos.
Blocos Apropriado Base: alguns pares de • Idêntico ao
incompletos quando um tratamentos aparecem planejamento em
parcialmente planejamento juntos λ1 vezes, outros pares blocos aleatorizados,
balanceados em blocos aparecem juntos λ2 vezes, ..., mas os efeitos dos
incompletos e os pares restantes aparecem tratamentos são
balanceados juntos λn vezes. estimados com
necessita de um diferentes precisões.
número de blocos
excessivamente
grandes.
Quadrados Apropriado Base: os tratamentos • Estimativas e
latinos quando um fator são distribuídos em comparações
de interesse está correspondência às colunas e dos efeitos dos
sendo estudado linhas de um quadrado. Cada tratamentos livres
e os resultados tratamento aparece uma vez dos efeitos das duas
podem ser em cada linha e uma vez em variáveis de bloco.
afetados por duas cada coluna. O número de • Estimativas e
outras variáveis tratamentos deve ser igual ao comparações dos
experimentais ou número de linhas e colunas efeitos das duas
por duas fontes de do quadrado. variáveis de bloco.
heterogeneidade. Blocos: formados em relação a • Estimativa da
É suposta a duas variáveis perturbadoras, variância.
ausência de as quais correspondem às
interações. colunas e linhas do quadrado.
Quadrados de Similares aos Base: cada tratamento ocorre Idêntico ao planejamento
Youden quadrados latinos, uma vez em cada linha. em quadrados latinos.
mas os números O número de tratamentos
de linhas, colunas deve ser igual ao número de
e tratamentos colunas.
não precisam ser Blocos: formados em relação a
iguais. duas variáveis perturbadoras.
Hierárquico Experimentos Base: os níveis do fator B • Estimativas e
com vários fatores estão “aninhados” sob os comparações dos
onde os níveis de níveis do fator A. efeitos dos fatores.
um fator (B) são • Estimativa da
similares, mas variância.
não idênticos para
diferentes níveis
de outro fator (A).
Ou seja, o j-ésimo
nível de B quando
A está no nível
1 é diferente do
j-ésimo nível de B
quando A está no
nível 2 e assim por
diante.

79
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Superfície de O objetivo consiste Os níveis dos fatores são Mapas que ilustram a
resposta em fornecer vistos como pontos no espaço natureza e a forma da
mapas empíricos de fatores (muitas vezes superfície de resposta.
ou gráficos de multidimensional) no qual a
contorno. Estes resposta será registrada.
mapas ilustram
a forma pela
qual os fatores,
que podem ser
controlados pelo
pesquisador,
influenciam a
variável resposta.
FONTE: Werkema e Aguiar (1996, p. 39-43)

O quadro apresenta os mais variados tipos de métodos utilizados para


análises dos experimentos, sendo abordados, neste trabalho, aqueles mais
comumente aplicados. Porém, é possível constatar a grande variedade de métodos
possíveis para realização de um procedimento experimental.

Em um experimento a escolha das variáveis de análise é fator de suma


importância para qualidade dos resultados obtidos, considerando uma relação
y(x)=x. Como convenção geral, a variável y relaciona-se com o objetivo do
projeto, já as variáveis x são responsáveis pelos fatores que afetam o projeto e
afetam a variável y, ou seja, são voltadas para o processo. Para obtenção das
variáveis de análise, são utilizados conceitos de controle de qualidade, como
exemplo ferramentas como o brainstorm e diagrama de Ishikawa, que auxiliam os
envolvidos na obtenção de possíveis causas de um problema (TELHADA, s.d.).

Conforme enunciado, o planejamento de experimentos será estudado


separando os métodos com um único fator em análise e com mais de um fator em
análise, sendo o primeiro inicialmente abordado neste trabalho.

80
RESUMO DO TÓPICO 1
Neste tópico, você aprendeu que:

• Ao obter uma amostra dentro de uma população é possível, por meio da


inferência estatística, realizar estimativas da população com uso de recursos
como intervalos de confiança, mais gerais e fiéis em termos de representações
que estimativas pontuais.

• Quando um dado qualquer é apresentado, sempre há uma margem de erro


devido à inerente imperfeição do tratamento e pesquisa realizados.

• O intervalo de confiança é uma delimitação dos parâmetros de uma distribuição,


sendo em geral apresentado como uma ‘estimativa ± margem de erro’.

• O teste de hipótese analisa uma afirmação em relação a um parâmetro


populacional, sendo que uma das duas hipóteses testadas é dada como
verdadeira.

• No planejamento de experimentos, ou também representado pela sigla inglesa


DOE – Design of Experiments, todas as variáveis controladas são modificadas
simultaneamente e analisam-se os resultados das variáveis de saída, bem como
as interações entre tais variáveis.

• Há três princípios básicos para planejar experimentos, sendo eles: réplica, ou


seja, repetições do experimento; aleatorização, ou seja, manutenção ao acaso
de cada etapa do ensaio e formação de blocos, ou seja, sistematização de
conjuntos homogêneos para evitar erros devido a variabilidade dos elementos
e há aleatorização dentro deste conjunto.

81
AUTOATIVIDADE

1 Em uma indústria de alimentos ocorreu uma grande reformulação de


setores e processos visando a adequações de qualidade e logística para um
novo produto a ser produzido. Para tanto, após tal reformulação, o gerente
de Recursos Humanos fez uma estimativa da idade média de todos os
funcionários da empresa. Em uma amostra aleatória de 25 funcionários, a
idade média obtida é de 32,7 anos, com desvio padrão de 1,3 anos. Com um
nível de confiança de 90%, obtenha o intervalo de confiança.

2 Utilize o texto a seguir para a resolução da questão 2.

Suponha que um engenheiro estava interessado em estudar o efeito produzido


por três diferentes banhos (meios) de têmpera – têmpera em água, em óleo e
em solução aquosa de cloreto de sódio (água salgada) – na dureza de um
determinado tipo de aço. Aqui o seu propósito era determinar qual banho de
têmpera produziria a dureza máxima do aço. Com este objetivo ele decidiu
submeter um determinado número de amostras da liga, que denominaremos
corpos de prova, a cada meio de têmpera e a seguir mediu a dureza da liga.
A dureza média dos corpos de prova submetidos a cada um dos banhos foi
utilizada para determinar qual era o melhor meio de têmpera.

2 Com relação aos princípios básicos do modo adequado de coleta de dados


em planejamento de experimentos, assinale a alternativa correta.

a) ( ) Para realizar a coleta utilizando os princípios hierárquicos, deve-


se realizar a medição da dureza de um corpo de prova submetido à
têmpera em água, outro corpo de prova submetido à têmpera em óleo
e um submetido à têmpera em solução de cloreto de sódio na ordem em
que as amostras foram produzidas.
b) ( ) Para realizar a coleta utilizando os princípios de formação de blocos,
deve-se realizar a medição da dureza de um corpo de prova submetido
à têmpera em uma condição de experimentação em ordens ao acaso.
c) ( ) Para realizar a coleta utilizando os princípios de réplica, deve-se realizar a
medição da dureza de um corpo de prova submetido à têmpera em água,
um segundo corpo de prova submetido à têmpera em óleo e um terceiro
corpo de prova submetido à têmpera em solução de cloreto de sódio.
d) ( ) Para realizar a coleta utilizando os princípios de formação em blocos,
deve-se realizar a medição da dureza de um corpo de prova submetido
à têmpera em água, um segundo corpo de prova submetido à têmpera
em óleo e um terceiro corpo de prova submetido à têmpera em solução
de cloreto de sódio ao acaso, mesmo que os corpos de prova sejam
provenientes de processos de fabricação diferentes.

82
UNIDADE 2 TÓPICO 2

PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO


FATOR

1 INTRODUÇÃO
Iniciaremos o estudo pelos experimentos envolvendo um único fator com
um número aleatório de níveis, ou seja, apenas um fator de interesse é analisado,
porém podem existir diversas possibilidades de variação para este dado fator.

Um experimento completamente aleatorizado com um único fator


é realizado por meio da análise aleatória de um parâmetro com relação a
diferentes tratamentos (níveis), que são realizados em replicatas, evitando assim
casualidades (MONTGOMERY; RUNGER, 2016).

Para este tipo de análise, podem ser realizados diversos modos de


exploração dos dados. Neste contexto, estudaremos o planejamento utilizando
modelos fixos, modelos aleatórios e por blocos completos aleatorizados.

2 ANÁLISE DE VARIÂNCIA ENVOLVENDO UM ÚNICO FATOR


A análise de variância, ou ANOVA, é um método eficaz para análise
estatística de experimentos aleatorizados com um único fator. Podemos pensar no
desenvolvimento de um novo produto, em que haja um item a ser determinado,
porém há várias maneiras de desenvolvimento de tal item e uma escolha deve
ser feita. Para isso, o exame de qual tratamento é o ideal a ser realizado, ou seja,
qual a melhor forma de criação pode ser dada por meio da análise de variância
(MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996).

Supondo que haja um fator de interesse com k tratamentos distintos, ou


seja, k diferentes níveis de um único fator para comparação em um experimento
no qual a resposta de cada um dos k tratamentos é uma variável aleatória
(MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996).

Temos um exemplo típico de dados de um experimento com um único


fator com a organização das observações apresentada no quadro a seguir.

83
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

QUADRO 5 – DADOS TÍPICOS PARA UM EXPERIMENTO COM UM ÚNICO FATOR


Tratamento Observações Totais Médias
1 x11 x12 ... x1n x1 X
1

2 x21 x22 ... x2n x2 X


2

... ... ... ... ... ... ...


k xk1 xk2 ... xkn xk X
k

x... X ...

FONTE: Werkema e Aguiar (1996)

O Quadro 5 mostra que a variável x11 representa uma das observações para
o nível 1, ou seja, tratamento 1. Em suma, o exemplo geral mostra que em k formas
distintas de tratamentos tem-se um número igual de observações e replicatas,
gerando um número total de observações e uma média de valores obtidos para
cada um dos tratamentos. Por meio de um modelamento matemático genérico
linear estatístico é possível descrever os dados contidos no Quadro 3, sendo
apresentado o modelo matemático de análise da variância para um fator.

xij = μ + τi + εij, em que i= 1, 2, ..., k e j= 1, 2, ..., n. (1)

Sabendo que xij corresponde ao valor da variável resposta, ou seja, uma


variável a aleatória denotando a ij-ésima observação; μ um parâmetro comum a
todos os tratamentos, sendo a média global de todos os tratamentos; τi um parâmetro
associado ao efeito do i-ésimo tratamento e εij o erro aleatório associado a xij. Vale
apontar que para este tipo de experimento considera-se que o erro é normal e
independentemente distribuído com média zero e variância σ2 constante. Ademais,
considera-se que as observações foram aleatórias e o ambiente em que os tratamentos
foram realizados é o mais uniforme possível, temos desse modo um planejamento
experimental denominado planejamento completamente aleatorizado, ou PCA
(MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996).

E
IMPORTANT

É relevante evidenciar que o objetivo do estudo da análise de variância


é avaliar o efeito do fator nas variáveis de resposta de interesse, ou seja, analisar as
diferenças entre as médias aritméticas dos grupos a partir de uma análise na variação
dos dados (SOUZA et al., 2002).

Este modelamento matemático pode ser utilizado em situações distintas.


Na primeira delas, os k níveis são escolhidos inicialmente pelo experimentador, o
chamado modelo de efeito fixo. “No modelo de efeito fixo são testadas hipóteses
84
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

sobre as médias dos tratamentos e as conclusões obtidas são aplicáveis somente


aos níveis do fator considerados na análise” (WERKEMA; AGUIAR, 1996, p. 57).

O teste baseia-se nas hipóteses com relação às médias dos tratamentos


específicos, não podendo ser estendido a outros tratamentos similares. Outra
situação ocorre quando os k níveis do fator são extraídos de uma grande
população de tratamentos, sem que haja uma especificação, podendo dessa
forma ser estendido a todos os níveis da população. Além disso, são testadas
hipóteses sobre a variabilidade dos fatores τi, método denominado modelo de
efeitos aleatórios ou modelo dos componentes da variância.

Werkema e Aguiar (1996) exemplificam os dois métodos com problemas


comuns na indústria. O modelo de efeitos fixos pode ser estudado por meio da
análise do efeito na dureza de um material ao realizar um tratamento térmico
de têmpera. Este processo tem como princípio o aquecimento do material a
elevadas temperaturas e posterior resfriamento rápido em diferentes banhos
líquidos. Neste caso são escolhidos três banhos específicos: água, óleo A e óleo
B, sendo, portanto, as conclusões obtidas aplicadas especificamente para cada
tipo de banho. No modelo de efeitos aleatórios pode-se pensar em uma indústria
que fabrica um tecido por meio de diferentes teares e deseja que todos sejam
uniformes em termos de resistência e qualidade. Para tanto, selecionam-se ao
acaso alguns teares da indústria para análise e os resultados obtidos podem ser
estendidos para todos os teares existentes na planta industrial.

Agora que já sabemos a finalidade da análise de variância, vamos estudar


a fundo os dois modelos descritos acima, além de abordar o planejamento por
blocos completos aleatorizados. Para iniciar, a análise de variância para modelo
com efeitos fixos será abordada.

3 ANÁLISE DE VARIÂNCIA PARA MODELO COM EFEITOS


FIXOS
Os pressupostos básicos para possível aplicação da ANOVA são que
as populações tenham a mesma variância, que cada população tenha uma
distribuição normal e cada amostra seja independente e retirada de sua população
ao acaso (MONTGOMERY; RUNGER, 2016).

O teste de hipóteses analisa uma afirmação em relação a um parâmetro


populacional, sendo que uma das duas hipóteses testadas, hipótese nula, H0 ou
hipótese alternativa, H1 ou Ha, é dada como verdadeira. Para examinar a igualdade
das médias de k tratamentos tem-se:

H0: τ1 = τ2 =...= τk =0
H1: τi ≠ 0 para pelo menos um i

85
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Conforme exposto no Item 2, para realização do teste, deve-se supor uma


hipótese como verdadeira. Para resolução, faz-se a comparação de duas estimativas
independentes da variância da população, sendo a variabilidade total dos dados
descrita pela soma total dos quadrados (MONTGOMERY; RUNGER, 2016).

A soma total dos quadrados é dada por:

k n
SQT     xij  x ...
2

i 1 j 1

Sabe-se que a soma total dos quadrados equivale a:

SQT  SQTratamentos  SQE

Observe que é o mesmo que dizer que a soma de quadrados total é igual
a variação total dos tratamentos, SQTratamentos, que por sua vez pode ser entendida
como o somatório da variação dos tratamentos mais os erros ou resíduos da
análise, SQE.

Ou seja, a identidade da soma dos quadrados é dada por:

k n k k n

x  x ...  n  xi.  x ...     xij  xi. 


2 2 2
ij
i 1 j 1 i 1 i 1 j 1

Em suma, pode-se concluir que a variabilidade total nos dados é medida


pela soma dos quadrados das diferenças entre as médias dos tratamentos
e a média global, SQTratamentos, e uma soma dos quadrados das diferenças entre
as observações dentro de um tratamento e a média dos tratamentos, SQE. As
diferenças entre as médias observadas nos tratamentos e a média global medem
as discrepâncias entre tratamentos. Já as diferenças entre as observações dentro de
um tratamento e a média dos tratamentos são devidas somente ao erro aleatório
(MONTGOMERY; RUNGER, 2016).

A análise baseada nos graus de liberdade da identidade da soma dos


quadrados pode ser dada por:

(kn-1) = (k-1) + (k(n-1))

Conforme Montgomery e Runger (2016, p. 621) enunciaram, graus de


liberdade são “o número de comparações independentes que podem ser feitas
entre os elementos de uma amostra”. Dessa maneira, a soma total dos quadrados
tem kn-1 graus de liberdade, a soma dos quadrados dos tratamentos possui k-1
graus de liberdade e o erro experimental fornece n-1 graus de liberdade.

86
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Sabendo que kn=N, o número total de observações. Como há várias


replicatas, deve-se multiplicar o fator relativo ao erro pelos k tratamentos.

Para a resolução do problema, a média quadrática dos tratamentos,


MQTratamentos, e a média quadrática do erro, MQE, podem ser estimadas conforme
equações a seguir. Este fato é importante para realização do teste F, que indica
se a hipótese levantada anteriormente, H0, é verdadeira ou não, de acordo com a
igualdade das relações expostas a seguir.

SQTratamentos
MQTratamentos =
 k-1
SQE
MQE =
k  n-1

O fator F0 é utilizado como parâmetro comparativo no teste de hipóteses.


Por meio deste fator será possível analisar se a hipótese H0 será aceita ou não.

SQTratamentos /  k 1 MQTratamentos


F0  
SQE / k  n 1 MQE
Variação entre as médias amostrais
=
Variação entre indivíduos na mesma amostra

Em suma, se a igualdade acima for verdadeira, com o nível de significância


adotado, deve-se aceitar H0 no teste de hipóteses e cada observação consiste na
média global mais o erro, não alterando a resposta com a mudança dos níveis
do fator. Por outro lado, se a igualdade não for verdadeira, tem-se que aceitar
H1. Valores próximos a zero ou pequenos de F indicam que a hipótese nula, H0,
é verdadeira e valores grandes de F são evidência de que a hipótese alternativa,
H1, é verdadeira. O teste F é utilizado para comparar variâncias ou médias, sendo
aplicado para mais de dois tratamentos como uma forma de escolha do melhor
tratamento a ser feito (MOORE, 2011).

UNI

A distribuição F é uma distribuição de amostragem contínua da razão de


duas variáveis aleatórias independentes com distribuição qui-quadrado, cada uma dividida
por seus graus de liberdade. A distribuição F é assimétrica à direita e descrito pelos graus
de liberdade de seu numerador (v1) e denominador (v2), sendo um parâmetro tabelado
(MONTGOMERY; RUNGER, 2016).

87
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Até o momento, foi descrito o procedimento de análise quando o tamanho


das amostras era idêntico, porém em alguns casos a análise é realizada com um
fator único com amostras de tamanhos diferentes, um experimento denominado
desbalanceado. Considera-se ni o número de observações expostas ao tratamento
i (i=1, 2, ..., k) e seja N= Σki=1 ni o número total de observações. Assim, temos as
equações modificadas a seguir:

ni
k
x 2 ...
SQT    xij2 
i 1 j 1 N

k
xi2. x 2 ...
SQTratamentos   
i 1 ni N

SQE  SQT  SQTratamentos

Resumidamente:

A análise de variância compara a variação resultante de fontes


específicas com a variação entre indivíduos que deveriam ser
semelhantes. Em particular, a ANOVA testa se várias populações têm
a mesma média, comparando o afastamento entre as médias amostrais
com a variação existente dentro das amostras (MOORE, 2011, p. 493).

Dessa maneira, avaliamos que a ideia principal da ANOVA consiste na


análise das médias amostrais em relação às observações dentro do mesmo grupo.

Para análise, deve-se supor como verdadeira uma das hipóteses, sendo
então passível de erro a escolha, seja erro do Tipo I ou II. Para tanto, tem-se no
quadro a seguir os resultados possíveis em um teste de hipóteses.

QUADRO 6 – RESULTADOS DO TESTE DE HIPÓTESES

Decisão H0 é verdadeira H0 é falsa


Não rejeita H0 Decisão correta Erro tipo II
Rejeita H0 Erro tipo I Decisão correta

FONTE: Adaptado de Montomery; Runger (2016)

Deve-se estabelecer um limite de probabilidade permitida para cometer


o erro tipo I, o chamado nível de significância simbolizado pela letra grega α e
utilizar uma estatística de teste para decisão. Para concluir um teste de hipóteses,
pode-se também usar a regra baseada no valor p.

88
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Supondo a hipótese nula verdadeira, então um valor p (ou p-value) de


um teste de hipótese é a probabilidade da estatística amostral assumir
um valor tão extremo ou maior que aquele determinado em função
dos dados da amostra. Quando o valor p for menor ou igual que o
nível de significância, rejeita-se H0 (LARSON; FARBER, 2015, p. 330).

Desse modo, tem-se a decisão da aceitação ou rejeição da hipótese nula no


teste de hipóteses pela análise do valor p ou do fator F, conforme descrito acima.
Para elucidar a forma de aplicação de tais equações e definir como realizar o teste de
hipóteses e a análise de variância, um exemplo do livro de Moore (2011) será exposto.

EXEMPLO 1: De acordo com Moore, 2011, pesquisadores estudam a


relação entre variedades da flor tropical Heliconia na ilha de Dominica e as
diferentes espécies de beija-flor que fertilizam as flores. Os pesquisadores
acreditam que com o passar do tempo houve uma adaptação dos bicos dos beija-
flores e o comprimento das flores, de acordo com a espécie que fertiliza cada tipo
de flor. Para tanto, uma pesquisa foi realizada com amostras de três variedades
de Heliconia fertilizada com uma espécie diferente de beija-flor, sendo os dados
apresentados no quadro a seguir.

QUADRO 7 – COMPRIMENTO, EM MILÍMETROS, DE FLORES PARA TRÊS ESPÉCIES DE


HELICONIA

H. bihai
46,75 46,81 47,12 46,67 47,43 46,44 46,64
48,34 48,15 50,26 50,12 46,34 46,94 48,36
H. caribaea vermelha
42,01 41,93 43,09 41,47 41,69 39,78 40,57
42,18 40,66 37,87 39,16 37,40 38,20 38,07
37,97 38,79 38,23 38,87 37,78 38,01
H. caribaea amarela
37,02 36,52 36,11 36,03 35,45 38,13 37,10
36,82 36,66 35,68 36,03 34,57 34,63

FONTE: Moore (2011)

A figura a seguir mostra a saída do programa estatístico Minitab e do


programa Excel para o exemplo acima.

89
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

FIGURA 6 – SAÍDA DE UM PROGRAMA ESTATÍSTICO E DE UM PROGRAMA DE PLANILHA PARA


A ANOVA DOS DADOS DOS COMPRIMENTOS DAS FLORES

FONTE: Moore (2011)

90
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Por meio do teste F da análise de variância, percebe-se que F=259,12, o


que é uma evidência de que a hipótese nula (H0: τ1 = τ2 =...= τk =0 ; H1: τi 0
para pelo menos um i) não é verdadeira e as três variedades de flores não têm o
mesmo comprimento médio, visto que as médias populacionais não são iguais. A
maneira específica de obtenção do valor de F para comparativo será mostrada no
próximo exemplo apresentado. Vale apontar que o item gl ou DF apresentados
nas imagens corresponde ao grau de liberdade da estatística F.

Porém, o cálculo da ANOVA também pode ser realizado manualmente


com as equações propostas acima, sendo apenas um tanto quanto extenso, porém
será demonstrado ainda neste capítulo.

O quadro típico de saída de uma análise de variância para um experimento


com um único fator do modelo de efeitos fixos pode ser visto no quadro a seguir.

QUADRO 8 – ANOVA PARA UM FATOR: MODELO DE EFEITOS FIXOS

Fonte de Soma dos Graus de Média


F0
variação quadrados liberdade quadrática
MQTratamentos
Tratamentos SQTratamentos k-1 MQTratamentos F0 =
MQE

Erros SQE k(n-1) MQE


Total SQT kn-1

FONTE: Montgomery e Runger (2016)

O exemplo indicado acima foi adaptado do livro de Moore (2011)


e demonstra como a comparação entre médias pode ser aplicada usando a
ANOVA. Conforme exposto, o uso da tecnologia para realização dos testes
estatísticos é bastante comum e facilita o trabalho do experimentador, sendo
amplamente utilizados programas como Excel do Pacote Office e o Minitab, além
de calculadoras programáveis.

UNI

O uso de ferramentas computacionais é de extrema importância para facilitar


a aplicação da análise de variância. Dentre os programas computacionais mais utilizados,
conforme exposto, tem-se o software Minitab e o programa Excel do Pacote Office.

Uma dica para o uso no programa computacional Excel, em geral mais fácil de ser
encontrado, será descrito a seguir, com base no Excel 2016.

91
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

• Inicialmente, abra o programa e entre com os dados que serão analisados normalmente.
• Clique na aba “arquivo”, primeira aba da parte superior da tela.
• Ao final da lista ao lado esquerdo da tela, selecione “opções”.
• Posteriormente, abrirá uma janela, onde deverá ser selecionado o item “suplementos”
e depois clicar em “ir”, que aparece ao final da janela ao lado do item “gerenciar”.
• Na nova janela que abrirá, selecione o item “ferramentas de análise” e clique em “ok”.
• Na parte superior da janela principal do programa, escolha a aba “dados” e então clique
em “análise de dados”, ao lado direito da tela.
• Neste ponto, escolha o item “ANOVA: fator único” ou “ANOVA: fator duplo com
repetição” ou “ANOVA: fator duplo sem repetição”, de acordo com a análise que será
realizada.
• Uma nova janela se abrirá. No item "Intervalo de entrada" acrescente o conjunto de
dados e insira qual o nível de significância que deverá ser aplicado, ou seja, o fator alfa.
• Clique em "Intervalo de saída" e posteriormente em “ok”, escolhendo onde a ANOVA
deverá ser criada.

Desse modo, é possível utilizar um programa computacional simples e comum


para obtenção dos resultados da análise de variância de um conjunto de dados.

Um ponto a ser avaliado em qualquer análise de dados é a presença de


outliers ou dados discrepantes dentro de um conjunto de observações, que são
indicativos de problemas da condução do experimento, pontos não explorados
ou comportamento anormal dos dados. Em geral, são considerados discrepantes
valores que ultrapassem ±3σ para uma distribuição normal de probabilidade
(ANJOS, 2005).

Para completar o experimento, a análise dos resíduos ou erros pode ser


realizada por meio de gráficos de resíduos contra o tempo visando avaliar a
independência dentre os dados; gráfico de resíduos contra as médias (tratamentos)
visando avaliar se a variância é constante e um gráfico de probabilidade normal
para os resíduos visando avaliar a normalidade baseando-se no coeficiente de
correlação linear apresentado para a suposição (WERKEMA; AGUIAR, 1996).

UNI

O coeficiente de correlação linear mede se existe relação entre duas variáveis


quantitativas. Para tanto, um gráfico de dispersão é montado com as duas variáveis e,
quando há uma relação linear entre elas, pode-se obter uma equação para reta que se
adequa ao modelo dos dados. Tal reta é denominada regressão (FERREIRA, 2015). Na figura
a seguir é possível verificar comportamentos típicos de relacionamentos entre variáveis.

92
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

FIGURA 7 – ANÁLISE DA EXISTÊNCIA DE CORRELAÇÃO ENTRE VARIÁVEIS


y y
À medida que x
cresce, y tende a
decrescer

À medida que x
cresce, y tende a
crescer
x x
Correlação linear negativa Correlação linear positiva

y y

x x
Não há correlação Correlação não linear
FONTE: Ferreira (2015, p. 168)

Quando há uma relação linear entre as variáveis, pode-se conhecer a


intensidade da correlação por meio do coeficiente de correlação linear, R. Vale
ressaltar que a variação de R é de –1 a +1, sendo uma correlação linear negativa,
ou seja, gerando uma equação de primeiro grau negativa quando R for negativo.
Outro ponto importante a comentar é que quanto mais próximo aos extremos o
valor de R se encontrar, melhor será o ajuste dos pontos, ou melhor, mais próxima
de uma equação linear perfeita estará (RODRIGUES; IEMMA, 2005). Outro modo
de representação visual de tais informações pode ser visto nos gráficos indicados
a seguir com os respectivos coeficientes de correlação entre os dados.

93
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

FIGURA 8 – DEMONSTRAÇÃO DE DIFERENTES CORRELAÇÕES ENTRE VARIÁVEIL


a)
y

}
yi
yi
^ }(y -y )=SSE
i
^
i
(yi-yi)=SSTO


y
}(y -y )=SSR
^
i

i

R2=1- SSE ≅ 0.6 (baixo)


SSTO
xi x
b)
y
yi
} (y -y )=SSE=(y -y)=SSTO
i
^
i i

yi = y
^ –


(yi-yi)=0
^

R2=1- SSE ≅ 0.0 (nula)


SSTO
xi x
c)
y
yi= y^ i
y
– } (y -y )=SSE=(y -y)=SSTO
^
i

i i

(yi-yi)=0=SSE
^

R2=1- SSE = 1 (perfeito)


SSTO
xi x

FONTE: Domenech (s.d.)

Contudo, Montgomery e Runger (2016) e Domenech (s.d.) pontuam que


uma forte associação entre variáveis não é necessariamente uma afirmação entre
relação de causa entre tais variáveis, visto que a única maneira de determinar
relações de causa e efeito é por meio do planejamento de experimentos. Como
exemplo, a forte associação pode se dever a coleta de observações com poucos
níveis da variável de precisão.

4 ANÁLISE DE VARIÂNCIA PARA MODELO COM EFEITOS


ALEATÓRIOS
O segundo método a ser estudado em planejamento experimental para
um único fator será a análise de variância para modelo com efeitos aleatórios.
Quando em um experimento há elevado número de níveis de um fator e as
conclusões devem ser retiradas ao acaso nestes k níveis sobre toda a população,

94
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

tem-se um fator aleatório. Neste tipo de experimento, as conclusões devem ser


estendidas para toda a população de níveis do fator (WERKEMA; AGUIAR, 1996).

ATENCAO

Perceba que, no modelo com efeitos fixos, as conclusões são válidas para
os níveis dos fatores usados no experimento e, no modelo de efeitos aleatórios, temos
conclusões válidas para a população inteira de todos os níveis do fator.

O modelo estatístico específico para observações do modelo de efeitos


aleatórios é dado por:

xij = μ + τi + εij, em que i= 1, 2, ..., k e j= 1, 2, ..., n.

Sendo xij o valor da variável resposta, ou seja, uma variável a aleatória


denotando a ij-ésima observação; μ um parâmetro comum a todos os tratamentos,
sendo a média global de todos os tratamentos; τi e εij são variáveis aleatórias
independentes. Temos, neste caso, a variância de qualquer observação xij dada por:

VAR (xij ) = σx2 = στ2 + σ 2

Onde os componentes da variância denotados por: a variância de τi é


representada por στ2 e a variância de εij representada por σ 2. Vale ressaltar que os
efeitos dos tratamentos, τi, e os erros, εij, são variáveis aleatórias independentes
e identicamente distribuídas com distribuição normal de média zero e variância
dada acima (MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996).

Os procedimentos adotados para estudo do modelo de efeitos aleatórios


são idênticos aos do modelo de efeitos fixos, porém com análises distintas. No
modelo de efeitos aleatórios, tem-se a soma de quadrados totais dado por:

SQT= SQTratamentos + SQE

A razão F0 testará hipóteses diferentes às apresentadas no modelo de


efeitos fixos, sendo, portanto, dado por:

MQTratamentos
F0 =
MQE

95
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

O teste de hipóteses será igual a:

H0: στ2 = 0
H1: στ2 > 0

Caso a hipótese nula seja aceita, H0, não há variabilidade, logo, o fator
não exercerá efeito sobre o item de controle. Os estimadores utilizados para as
componentes da variância são dados por:


Ã
σ = MQE
2=

MQTratamentos -MQE

σ Æ22 =
τ τ
N

Se as amostras forem de tamanhos distintos, deve-se substituir o valor de


n por:

1
n0 
k 1

No exemplo a seguir, proposto por Werkema e Aguiar (1996), aplicaremos


a análise de variância para um modelo de efeitos aleatórios.

EXEMPLO 2: De acordo com Werkema e Aguiar (1996), uma indústria


de alumínio utiliza um grande número de cubas eletrolíticas para produção de
alumínio metálico. A equipe desejava avaliar a variabilidade do consumo de
energia elétrica entre as diversas cubas da indústria, visto que tal item poderia
comprometer a capacidade do processo, em relação ao item de controle. Para
realização do experimento, a equipe selecionou quatro cubas ao acaso e registrou,
para cada uma destas cubas, o gasto de energia elétrica necessário à produção de
quatro bateladas de alumínio. A matéria-prima utilizada de todas as bateladas
consideradas no experimento tinha qualidade uniforme e o experimento foi
realizado em ordem aleatória.

QUADRO 9 – CONSUMO DE ENERGIA ELÉTRICA DAS CUBAS UTILIZADAS NO EXPERIMENTO

Consumo de energia
Cuba 1 2 3 4 Totais Médias
1 16,7 16,3 17,0 16,0 66,0 16,5
2 14,3 14,0 15,0 14,7 58,0 14,5
3 16,0 15,0 16,3 15,7 63,0 15,8
4 15,7 16,0 17,0 16,7 65,4 16,4
x= 252,4 x = 15,8

FONTE: Werkema e Aguiar (1996)

96
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

O resultado da análise de variância obtida por meio de programas


computacionais está descrito a seguir:

QUADRO 10 – ANÁLISE DE VARIÂNCIA PARA O CONSUMO DE ENERGIA ELÉTRICA DAS CUBAS


DE PRODUÇÃO DE ALUMÍNIO NO EXPERIMENTO

Fonte de Soma de Graus de Quadrado


F0 F5%
Variação quadrados liberdade médio
Cubas
9,93 3 3,31 12,49 3,49
(tratamento)
Erro 3,18 12 0,27
Total 13,11 15

FONTE: Werkema e Aguiar (1996)

A partir da análise de variância, a equipe concluiu que as cubas da indústria


diferiam significativamente em relação ao consumo de energia elétrica necessária
para a produção do alumínio, visto que F0=12,49 > F5% = 3,49. O parâmetro F5% foi
obtido por meio de tabela, mostrada parcialmente a seguir.

TABELA 1 – DISTRIBUIÇÃO F DE SNEDECOR A 5%

FONTE: Adaptado de Montgomery e Runger (2016, p. 580)

97
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Os componentes da variância foram estimados por:

^ 2 = MQ = 0,27
σ E


MQTratamentos  MQE 3, 31  0, 27

σ 22
τ
   0, 76
n 4

Para realização de uma estimativa da variância do consumo de energia


elétrica das cubas utilizadas pela indústria, pode-se calcular:

^ 2+ σ
^ 2= σ
σ ^ 2 = 0,76 + 0,27 = 1,03
x τ

Com este resultado da estimativa da variância total conclui-se que a maior


parte da variabilidade (74%) é atribuída à diferença entre cubas. Assim, além do
teste de hipóteses comparativo, é possível também analisar qual fator é o maior
influente na variabilidade dos dados.

Analogamente, a análise dos resíduos pode ser realizada por meio


de gráfico de resíduos contra o tempo, gráfico de resíduos contra as médias
(tratamentos) e um gráfico de probabilidade normal para os resíduos, para avaliar
a normalidade baseando-se no coeficiente de correlação linear apresentado para a
suposição (WERKEMA; AGUIAR, 1996).

5 ANÁLISE DE VARIÂNCIA COM BLOCOS COMPLETOS


ALEATORIZADOS
O último tipo de modelo para experimentos com um único fator
estudado será o planejamento com blocos completos aleatorizados. É comum a
ocorrência de variabilidade em experimentos decorrente de fontes perturbadoras
conhecidas, ou fonte de ruído, que podem ser controladas visando melhoria da
eficiência da análise. Os experimentos aleatorizados em blocos completos são
utilizados quando o fator de interesse tem mais de dois níveis, ou seja, mais de
dois tratamentos e parte da variabilidade pode ser controlada devido à existência
de fontes perturbadoras ou resíduos. A denominação ‘completo’ se dá pelo fato
de que em cada bloco são avaliados todos os níveis do fator de interesse e todos
os tratamentos (MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996).

Suponha que selecione b blocos com a observações em cada bloco com


ordem aleatória. O modelo estatístico para representação de um único fator com
a níveis em b blocos é dado por:

xij = μ + τi + βj + εij, em que i= 1, 2, ..., a e j= 1, 2, ..., b.


98
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Sendo xij o valor da variável resposta, ou seja, uma observação aleatória


sob o i-ésimo nível do fator no j-ésimo bloco; μ a média global; τi um parâmetro
associado ao efeito do i-ésimo nível do fator, βj um parâmetro associado ao efeito
do j-ésimo bloco e εij o erro aleatório associado a xij. Os dados típicos para este tipo
de experimento serão apresentados no quadro a seguir.

QUADRO 11 – DADOS TÍPICOS PARA UM EXPERIMENTO COM BLOCOS COMPLETOS


ALEATORIZADOS COM A TRATAMENTOS E B BLOCOS

Blocos
Tratamento Totais Médias
1 2 ... b
1 x11 x12 ... x1b x1 X 1

2 x21 x22 ... x2b x2 X 2

... ... ... ... ... ... ...


a xa1 xa2 ... xab Xa X a

Totais x.1 x.2 ... x...


Médias X 1 X .2
... X .b
X ...

FONTE: Montgomery e Runger (2016)

Vale apontar que para este tipo de experimento considera-se que o erro é
normal e independentemente distribuído com média zero e variância σ2. Ademais,
os efeitos dos tratamentos e dos blocos são definidos como desvios da média
global. Um ponto importante é que se considera que tratamentos e blocos não
interagem, ou seja, o efeito do tratamento i é o mesmo, independentemente de
qual bloco seja testado (MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR,
1996). Ao considerar que o fator e o bloco são fatores fixos, realizamos o teste de
hipóteses para verificação da ausência de efeitos do fator, sendo expresso por:

H0: τ1 = τ2 =...= τa =0
H1: τi ≠ 0 para pelo menos um i

Para este método, tem-se a identidade da soma dos quadrados, sendo que
a soma dos quadrados total é dividida em três componentes:

a b b b a b

x  x ...  b  xi.  x ...  a   x. j  x ...     xij  x. j  xi.  x ...


2 2 2 2
ij
i 1 j 1 i 1 j 1 i 1 j 1

Ou seja:

SQT= SQTratamentos + SQBlocos+SQE

99
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Relembrando que a soma de quadrados total, SQT, é uma medida da


variabilidade entre todas as observações. Os graus de liberdade correspondentes
podem ser dados por:

(ab-1) = (a-1) + (b-1) + (a-1)(b-1)

As médias quadráticas utilizadas para a ANOVA são dadas por:

SQTratamentos
MQTratamentos 
 a  1
SQBlocos
MQBlocos 
 b  1
SQE
MQE 
 a  1  b  1
De modo que:

a b
x ...2
SQT    xij 2 
i 1 j 1 ab
1 a 2 x ...2
SQTratamentos   xi. 
b i 1 ab
1 b 2 x ...2
SQBlocos   x. j  ab
a j 1

Para testar a hipótese nula, usa-se:

MQTratamentos
F0 =
MQE

A organização dos dados para a ANOVA neste tipo de experimento pode


ser vista no quadro a seguir.

100
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

QUADRO 12 – ANOVA PARA UM FATOR: EXPERIMENTO ALEATORIZADO EM


BLOCOS COMPLETOS

Fonte de Soma dos Graus de


Média quadrática F0
variação quadrados liberdade
SQTratamentos MQTratamentos
Tratamentos SQTratamentos a-1 MQTratamentos  F0 =
 a  1 MQE
SQBlocos
Blocos SQBlocos b-1 MQBlocos 
 b  1
SQE
Erros SQE (a-1)(b-1) MQE 
 a  1  b  1
Total SQT ab-1 = N-1

FONTE: Montgomery e Runger (2016)

É importante destacar que, em um experimento aleatorizado em blocos


completos, a interação entre tratamentos e blocos não existe, sendo este caso
abordado posteriormente em experimentos fatoriais. Ademais, um procedimento
adequado para avaliar se o uso dos blocos é necessário é o exame da relação entre
MQBlocos/MQE, sendo considerado como de grande efeito sobre a resposta em
caso de um resultado elevado para tal quociente. Neste caso, sabe-se que o uso
dos fatores em blocos contribui para a precisão da comparação entre as médias
relativas aos níveis dos tratamentos (WERKEMA, AGUIAR; 1996).

EXEMPLO 3: De acordo com Werkema e Aguiar (1996), como exemplo


de aplicação, analisa-se o efeito de quatro diferentes catalisadores sobre o tempo
de reação de um processo químico estudado, sendo a matéria-prima considerada
uma variável de bloco visando aumentar a eficiência da análise. Para tanto, os
pesquisadores empregaram cinco lotes de matéria-prima de produção e produziu-
se uma batelada da substância com cada tipo de catalisador analisado, escolhidos
aleatoriamente, bem como a sequência dos ensaios, com os dados apresentados
no quadro a seguir.

QUADRO 13 – TEMPOS DE REAÇÃO (MIN) OBTIDOS NO ESTUDO PARA COMPARAÇÃO


DE CATALISADORES

Lotes
Catalisador 1 2 3 4 5 xi.
A 41 34 40 39 33 187
B 43 37 45 42 40 207
C 45 38 48 43 38 212
D 43 41 45 46 40 215
x.j 172 150 178 170 151 821=x
Média 43 37,5 44,5 42,5 37,8 205,3

FONTE: Werkema e Aguiar (1996)

101
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Com o uso de um programa computacional, obteve-se o resultado da


análise de variância descrita no quadro a seguir.

QUADRO 14 – ANÁLISE DE VARIÂNCIA PARA ESTUDO DE COMPARAÇÃO DE CATALISADORES

Fonte de Soma de Graus de Quadrado


F0 F5%
Variação quadrados liberdade médio
Catalisador
95,35 3 31,78 13,41 3,49
(tratamento)
Lote (blocos) 165,20 4 41,30
Erro 28,40 12 2,37
Total 288,95 19

FONTE: Werkema e Aguiar (1996)

Conclui-se que o catalisador afeta o tempo de reação. Outra forma indicativa


é a análise do quociente MQBlocos/MQE, que neste caso é alto, demonstrando que
os lotes de matéria-prima também exercem grande efeito no tempo de reação. O
exemplo citado anteriormente pode ser realizado manualmente, bem como os outros
apresentados. Como forma ilustrativa, os cálculos serão demonstrados a seguir.

Soma de quadrados

a b
x...2
SQT =   xij 2 -
i=1 j=1 ab
=  41 +  34  +  40  +  39  +  33 +  43 +  37  +  45  +  42 +  40 
2 2 2 2 2 2 2 2 2 2

+  45  +  38  +  48  +  43 +  38  +  43 +  41 +  45  +  46  +  40 


2 2 2 2 2 2 2 2 2 2

8212
- =288,95
4*5

1 a 2 x...2 1 8212
SQTratamentos =  i. ab 5
a j=1
x - = *  187 2
+207 2
+212 2
+215 2
 -
4*5
=95,35

1 b 2 x...2 1 8212
SQTratamentos =  .j ab 4
a j=1
x - = *  172 2
+150 2
+178+1512
 -
4*5
=165,20

SQE =SQT -SQTratamentos -SQBloocos =288,95-95,35-165,20=28,40

102
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

As médias quadráticas utilizadas para a ANOVA

SQTratamentos 95, 35
MQTratamentos    31, 78
 a  1  4  1
SQBlocos 165, 20
MQBlocos    41, 30
 b  1  5  1
SQE 28, 40
MQE    2, 37
 a  1  b  1  4  1  5  1
Para testar a hipótese nula, temos que:

H0: τ1 = τ2 =...= τa =0
H1: τi ≠ 0 para pelo menos um i

MQTratamentos 31, 78
=F0 = = 13, 41
MQE 2, 37

Desse modo, tendo como nível de significância α=0,05 (5%), compara-se:

Fa   b  1   a  1  b  1  e F0

TABELA 2 – DISTRIBUIÇÃO F DE SNEDECOR A 5%

FONTE: Adaptado de Montgomery e Runger (2016, p. 580)

103
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

e obtém-se que F0>F0,0(3,12) , 13,41>3,49, sendo deste modo concluído que o


catalisador afeta o tempo de reação, rejeitando a hipótese nula.

Em suma, percebe-se que há diferença entre as médias dos níveis do


tratamento, ou seja, o catalisador influencia o tempo de reação, porém, não é
possível afirmar como exatamente cada fator afeta o tempo de reação utilizando
os blocos completos com fatores fixos, conforme exemplo anterior. Para isso, é
preciso utilizar o método de comparações múltiplas, visando isolar as diferenças
específicas de cada tratamento (MONTGOMERY; RUNGER, 2016; WERKEMA;
AGUIAR, 1996). Conforme SOUZA et al. (2002, p. 41), “O objetivo principal, da
ANOVA, é apontar se um grupo é, estatisticamente, diferente do outro, ou não.
Logo, se a hipótese nula é rejeitada, a um determinado nível de significância,
sabe-se, então, que existe, pelo menos, uma das médias de um tratamento que
difere de outra”.

Consoante ao que foi exposto, quando a análise de variância indicar que


há uma grande diferença entre tratamentos e/ou blocos, as comparações múltiplas
são adequadas, analisando a diferença mínima significativa (dms) entre médias,
testando as seguintes hipóteses: (CARPINETTI, 2009).

• Entre tratamentos:

H0: μi = μj
H1: μi ≠ para todo i ≠ j

• Entre blocos:

H0: βi = βj
H1: βi ≠ βi para todo i ≠ j

Para tanto, diversos tipos de testes podem ser utilizados, dentre eles o
teste de Duncan, teste de Dunett, teste de Tukey, teste “t” de Student, teste de
Fisher. Alguns deles serão abordados neste trabalho, consoante ao exposto por
Carpinetti (2009).

O teste t de Student

2.quadrado médio do resíduo 2.MQE


dms = ta.E ' . = ta. E ' .
Número de repetições de cada tratamento a

O valor de tE',a é dado pela medida tabelada da estatística t, sendo E’ os


graus de liberdade do resíduo e α o nível de significância. Se o valor absoluto da
diferença entre duas médias for igual ou maior que o valor dms, as médias são
consideradas estatisticamente diferentes.

104
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Desse modo:

xi  x j  dms, para i  j

Aplicando ao exemplo anterior, e considerando os dados dos Quadros 13


e 14 e os dados da tabela com os valores de t, Figura 10, temos que:

2.MQE 2.2, 37 2.2, 37 2.2, 37


=dms ta=
,E '. t0,05=
,12 . ta=
,E '. 2,179. = 2, 37
a 4 4 4

FIGURA 10 – TABELA T DE STUDENT

105
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

FONTE: Larson e Farber (2015, p. 556)

As possíveis diferenças são dadas por:

x1.  x2.  43  37, 5  5, 5  5, 5


x1.  x3.  43  44, 5  1, 5  1, 5
x1.  x4.  43  42, 5  0, 5  0, 5
x1.  x5.  43  44, 5  1, 5  5, 2
x2.  x3.  37, 5  44, 5  7  7
x2.  x4.  37, 5  42, 5  5  5
x2.  x5.  37, 5  37, 8  0, 3  0, 3
x3.  x4.  44, 5  42, 5  2  2
x3.  x5.  44, 5  37, 8  6, 7  6, 7
x4.  x5.  42, 5  37, 8  4, 7  4, 7

Sabendo que dms=2,37, conclui-se que todos os módulos da diferença das


médias maiores que tal valor difere entre si. Logo, os tratamentos 1-2; 1-5; 2-3; 2-4;
3-5; 4-5 diferem consideravelmente entre si.

O teste de Fisher, bem como o anterior, analisa as médias comparativamente


ao fator dms.

2.quadrodo médio do resíduo 2.MQE


dms ta=
,E '. ta , E ' .
Número de blocos b

O valor de ta,E' é dado pela medida tabelada da estatística t de Student,


sendo E’ os graus de liberdade do resíduo e α o nível de significância. Se o valor
absoluto da diferença entre duas médias for igual ou maior que o valor dms, as
médias são consideradas estatisticamente diferentes.

106
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Desse modo:

xi  x j  dms, para i  j
Aplicando ao exemplo anterior, e considerando os dados dos Quadros 13
e 14 e a Figura 10, temos que:

2.MQE 2.2, 37 2.2, 37


=dms ta=
,E '. t=
0 , 05,12 . 2=
,179. 2,121
a 5 5

Comparando os valores das médias com o resultado dms, conclui-se


que os tratamentos 1-2; 1-5; 2-3; 2-4; 3-5; 4-5 diferem consideravelmente entre si,
coerente à conclusão com o teste t de Student.

Neste momento da verificação, para conclusão, é importante realizar


a comprovação do modelo e a análise dos resíduos. Isto se dá visto que
para realização da análise de variância assume-se que as observações são
independentes, normalmente distribuídas e com variância igual para cada
tratamento, porém é preciso que haja uma análise de tais circunstâncias, bem
como da ausência de interação tratamento-bloco. Para tanto, deve-se calcular a
diferença entre os valores observados e estimados e posteriormente construir
gráficos do resíduo para representação visual da variabilidade das amostras
(MONTGOMERY; RUNGER, 2016; WERKEMA; AGUIAR, 1996; SOUZA et al.,
2002). Nos experimentos aleatorizados em blocos completos, os resíduos são
definidos por:

eij  xij  x^ij  xij  xi.  x. j  x ...

em que x^ ij  xi.  x. j  x ... = valor ajustado pelo modelo, correspondente a


observação xij.

Em um gráfico de resíduos versus valores ajustados x^ij , não deve haver tipo
algum de relacionamento entre a relevância dos resíduos e dos valores ajustados.
Caso haja uma configuração interativa, deve-se avaliar o método utilizado. Outro
modo de análise é a construção de um gráfico de probabilidade normal, em que
o coeficiente de correlação linear deve ser avaliado para certificação da suposição
de normalidade. Ademais, tem-se também a análise de resíduos contra o tempo
(ordem de coleta das observações), análise de resíduos contra tratamentos, para
avaliar a igualdade de variâncias das observações, análise de resíduos contra
blocos, para avaliar a igualdade de variâncias das observações nos blocos, dentre
outras possíveis investigações (WERKEMA; AGUIAR, 1996; SOUZA et al., 2002).

Quando as interações forem verificadas, é preciso utilizar o método para


experimentos fatoriais, o qual será abordado no próximo tópico deste trabalho.

107
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

LEITURA COMPLEMENTAR

Na matéria a seguir, a autora, Bruna Faria, resume a aplicação e


interpretação da Análise de variância de modo generalista. É uma excelente opção
para aprender um pouco mais sobre a ANOVA!

COMO INTERPRETAR UMA ANÁLISE DE VARIÂNCIA?

Bruna Faria

A ANOVA ou Análise de Variância é um procedimento usado para


comparar a distribuição de três ou mais grupos em amostras independentes. A
análise de variância é também uma forma de resumir um modelo de regressão
linear através da decomposição da soma dos quadrados para cada fonte de
variação no modelo e, utilizando o teste F, testar a hipótese de que qualquer fonte
de variação no modelo é igual a zero.

Contextualizando uma aplicação da ANOVA

Suponha um curso preparatório para o ENEM que tenha em seu corpo


docente três professores de matemática, que são responsáveis por diferentes
turmas de alunos. A direção da escola suspeita que a variação do desempenho
dos alunos nas provas de matemática do ENEM pode ser explicada pelo trabalho
desenvolvido pelos seus professores.

Assim, a direção resolveu verificar as notas na prova de matemática dos


alunos de cada professor e calculou a média das notas de cada turma.

MÉDIA DA MÉDIA DA MÉDIA DA


NOTA DOS NOTA DOS NOTA DOS
ALUNOS ALUNOS ALUNOS
784,5 832,4 804,2

Mas será que essa informação é suficiente para afirmar que o desempenho
dos alunos de cada professor é realmente diferente? E se um dos professores tiver
em sua turma um aluno que não se preparou e errou quase todas as questões?
Esse aluno não seria responsável por ter diminuído a média do grupo de alunos
desse professor?

108
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Para verificar então se realmente o desempenho dos alunos variou de


acordo com o professor, faz-se necessária a utilização de teste estatístico, que
além de considerar a média das notas, leva também em conta a variação das notas
dentro de cada turma.

A Análise de Variância

Um dos objetivos da aplicação da ANOVA é o de realizar teste estatístico


para verificar se há diferença entre distribuição de uma medida entre três ou mais
grupos. Em nosso exemplo, podemos definir as hipóteses do teste como:

• H0: Não existe diferença entre o desempenho das notas dos alunos de cada
professor.
• H1: Há pelo menos um professor com alunos com desempenho diferente.

Mas o que significa diferença entre as distribuições? Qual a relação entre


as distribuições das notas dos alunos de cada professor e as hipóteses testadas
pela análise de variância?

Caso os três grupos de alunos apresentem mesma variabilidade e mesma


média de desempenho, suas distribuições tendem a se sobrepor, confirmando a
hipótese de que não existe diferença entre o desempenho das notas dos alunos
de cada professor. Caso contrário, ou seja, quando os grupos apresentam mesma
variabilidade interna e médias de desempenho diferentes, as distribuições se
distanciam quanto mais as médias de desempenho se diferenciam.

O modelo ANOVA e seus pressupostos

Para aplicação da análise de variância, são necessárias algumas suposições,


sendo elas:

1. As observações são independentes, ou seja, cada elemento amostral (aluno)


deve ser independente.
2. Os grupos comparados apresentam a mesma variância.
3. Os erros são independentes e provenientes de uma distribuição normal com
média igual a zero e variância constante.

109
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Cabe ressaltar que os grupos de alunos de cada professor podem ser


vistos como três níveis de um mesmo fator, sendo que o objetivo é saber se o
fator professor exerce alguma influência na variação do desempenho das notas
de matemática.

Quais são os resultados gerados pela análise de variância?

As informações geradas na análise de variância estão resumidas na tabela


abaixo. Nela são apresentados os graus de liberdade, a soma de quadrados, o
quadrado médio, a estatística F e o valor-p.

Análise de Variância das Notas dos Alunos por Turma


Fonte de Graus de Soma de Quadrado
Estatística F Valor P
Variação Liberdade Quadrados Médio
Tratamentos 2 56.806 28.403 0,010
Resíduos 33 178.783 5.418 5,25
Total 35 235.589 –

Os graus de liberdade são calculados com base no número de professores


(grupos) e no número total de alunos.

A soma de quadrados mede a variação dos dados. A soma de quadrados


total mede a variação total nos dados, a soma de quadrados dos tratamentos
mede a variação entre os professores de cada turma e a soma dos quadrados dos
resíduos mede a variação dentro de cada turma, ou seja, mede a variação dos
alunos de cada professor.

O quadrado médio é a razão entre a soma de quadrados e os graus de


liberdade e a estatística F, pode ser encontrada na tabela de distribuição F de
Fisher-Snedecor.

Como interpretar os resultados da ANOVA?

Tomando como base a tabela anterior, pode-se concluir que existem


pelo menos dois professores com alunos com desempenho significativamente
diferentes ao avaliar o valor-p = 0,010 (menor que o nível de significância
estabelecido de 0,05).

A conclusão da ANOVA pode ser feita também com base na Estatística


F. A estatística F tem distribuição F de Fisher-Snedecor com k-1 e n-k graus de
liberdade, onde k é o número de grupos (k = 3) e n é o número de observações (n
= 36). Neste caso fictício, obteríamos F ≅ 3,32 e como a Estatística F (5,25) foi maior
que o F tabelado (3,32), conclui-se que existe pelo menos dois professores com
alunos com desempenho significativamente diferentes.

110
TÓPICO 2 | PLANEJAMENTO DE EXPERIMENTOS COM UM ÚNICO FATOR

Mas como saber quais professores com alunos com desempenhos diferentes
diferem entre si? A forma de averiguar isto é complementar a ANOVA, através da
utilização do teste de comparação múltipla, como por exemplo, o teste de Tukey.

FONTE: <http://www.abgconsultoria.com.br/blog/como-interpretar-uma-analise-de-variancia-
anova/>. Acesso em: 5 set. 2018.

Com a leitura complementar, foi possível visualizar mais uma aplicação


da análise de variância, sendo agora proposta uma atividade de estudo para
colocar em prática todos os conhecimentos adquiridos até então.

111
RESUMO DO TÓPICO 2
Neste tópico, você aprendeu que:

• A análise de variância, ou ANOVA, é um método eficaz para análise estatística


de experimentos aleatorizados com um único fator.

• O objetivo do estudo da análise de variância é avaliar o efeito do fator nas


variáveis de resposta de interesse, ou seja, analisar as diferenças entre as médias
aritméticas dos grupos a partir de uma análise na variação dos dados.

• “No modelo de efeito fixo são testadas hipóteses sobre as médias dos
tratamentos e as conclusões obtidas são aplicáveis somente aos níveis do fator
considerados na análise” (WERKEMA; AGUIAR, 1996, p. 57).

• No modelo de efeitos aleatórios não há uma especificação para retirada dos


diferentes níveis de um fator, podendo dessa forma ser estendido a todos os
níveis da população.

• Os experimentos aleatorizados em blocos completos são utilizados quando o


fator de interesse tem mais de dois tratamentos e parte da variabilidade pode
ser controlada devido à existência de fontes perturbadoras ou resíduos.

• Quando a análise de variância indicar que há uma grande diferença entre


tratamentos e/ou blocos, as comparações múltiplas são adequadas, analisando
a diferença mínima significativa (dms) entre médias.

112
AUTOATIVIDADE

1 (Adaptado de SOUZA et al., 2002) Considere a tabela a seguir, que condensa


os tempos em minutos, que quatro tipos de barcos, com cascos diferentes,
levaram para percorrer determinado circuito, em três dias diferentes: dia
calmo, com ondas moderadas e um dia com ondas fortes e muito vento.
Verifique se as médias para os tratamentos e para os blocos ao acaso podem
ser consideradas iguais por meio da análise de variância com nível de
significância de 1%.

Blocos
CASCO Dia 1 Dia 2 Dia 3 xi. xi.2
1 45 46 51 142 20164
2 42 44 50 136 18496
3 36 41 48 125 15625
4 49 47 54 150 22500
x.j 172 178 203 553 76785
x .j
2
29584 31684 41209 102477

Realize todos os cálculos manualmente e com auxílio de um programa


computacional para comparação.

113
114
UNIDADE 2 TÓPICO 3

PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS


FATORES

1 INTRODUÇÃO
Quando for necessária a análise do efeito de dois ou mais fatores de
interesse sobre um item de controle de um processo, um experimento fatorial deve
ser criado. Para a resolução utiliza-se o mesmo procedimento básico realizado em
experimentos com um único fator, a análise de variância. Ademais, neste tipo de
técnica, as interações entre fontes também são avaliadas.

Estudaremos os conteúdos de experimentos fatoriais separando a análise


fatorial por modelos fixos com dois fatores de interesse e aqueles com mais de
dois fatores de interesse, sendo assim a forma geral de estudo.

2 ANÁLISE FATORIAL
No planejamento de experimentos com várias condições, são analisados
os efeitos de dois ou mais fatores de interesse sobre um item de controle deste
processo, os denominados experimentos fatoriais, isto é, todas as tentativas
experimentais são combinadas em todos os níveis dos fatores. Cada combinação
é um tratamento, sendo um esquema fatorial completo quando todas as
combinações possíveis são realizadas. A operacionalização do planejamento
experimental é realizada por meio da análise de variância para dois ou mais
fatores, com investigação da presença de interações (WERKEMA; AGUIAR, 1996;
MONTGOMERY; RUNGER, 2016; RODRIGUES; IEMMA, 2005).

Neste estudo, os fatores controláveis cujos efeitos não estão sendo


analisados serão mantidos constantes, em níveis pré-fixados, durante
a execução do experimento. Novamente, a aleatorização será realizada
para balancear os possíveis efeitos dos fatores não controláveis
sobre o item de controle de interesse, com o objetivo de tentar evitar
confundimentos na avaliação dos resultados (WERKEMA; AGUIAR,
1996, p. 144).

115
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Um ponto vantajoso da análise fatorial em relação à análise de um único


fator está no fato de ser possível identificar interações entre fontes de condições
distintas. Ademais, em geral, os experimentos fatoriais necessitam de menor
número de observações para obtenção de um resultado eficiente. É importante
ressaltar que as ferramentas de qualidade também são aplicadas em conjunto ao
planejamento experimental visando o maior aproveitamento dos resultados. O
brainstorm, ou tempestade de ideias, é uma discussão entre envolvidos na equipe
de trabalho e é amplamente empregado para avaliação dos fatores controláveis
em uma atividade, por exemplo (WERKEMA, AGUIAR; 1996; MONTGOMERY;
RUNGER, 2016).

3 ANÁLISE FATORIAL COM MODELO DE EFEITOS FIXOS


COM DOIS FATORES
A análise estatística geral de experimentos fatoriais com dois fatores será
inicialmente realizada utilizando o modelo de efeitos fixo. Para tanto, os dois
fatores são representados como A e B e o número de níveis destes fatores como
a e b, respectivamente. Desse modo, cada réplica possuirá ab combinações de
tratamentos. A observação aleatória do ij-ésima célula para a k-ésima réplica é
expressada por xijk, com abn observações em ordem aleatória, com média global μ,
τi um parâmetro associado ao efeito do i-ésimo nível do fator A, βj um parâmetro
associado ao efeito do j-ésimo nível do fator B, (τβ)ij o efeito da interação entre A e B
e εijk o erro aleatório associado à xijk com distribuição normal, média zero e variância
σ2, com modelo estatístico representado por: (MONTGOMERY; RUNGER, 2016).

xijk = μ + τi + βj + (τβ)ij + εijk, em que i= 1, 2, ..., a; j= 1, 2, ..., b e k=1, 2, ..., n


A forma geral de organização de dados para a análise de variância de um


experimento fatorial com dois fatores é representada no quadro a seguir.

QUADRO 15 – DADOS TÍPICOS PARA UM COM DOIS FATORES EXPERIMENTO FATORIAL

Fator B
Fator A Totais Médias
1 2 ... B
x111, x112, ..., x121, x122, ..., x1b1, x1b2, ...,
1 ... x1.. X
x11n x12n x1bn 1..

x211, x212, ..., x221, x222, ..., x2b1, x2b2, ...,


2 ... x2.. X
x21n x22n x2bn 2..

... ... ... ... ... ... ...


xa11, xa12, ..., xa21, xa22, ..., xab1, xab2, ...,
a ... xa.. X
xa1n xa2n xabn a..

Totais x.1. x.2. ... x.b. x...


Médias X
.1.
X
.2.
... X
.b.
X ...

FONTE: Montgomery e Runger (2016); Werkema e Aguiar (1996)

116
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

Sendo A e B fatores fixos, ou seja, os fatores são escolhidos pelo pesquisador


e as inferências são restritas somente a esses níveis.

Analogamente aos experimentos com um único fator, a análise de


variância será dada pela realização do teste de hipóteses para verificação dos
possíveis testes:

H0: τ1 = τ2 =...= τa =0; neste caso não há nenhum efeito principal do fator A.
H1: τi ≠ 0 para pelo menos um i.
H0: β1 = β2 =...= βb =0; neste caso não há efeito principal do fator B.
H1: βj ≠ 0 para pelo menos um j.
H0: (τβ)11 = (τβ)12 =...= (τβ)ab =0; neste caso não há interação alguma.
H1: no mínimo um (τβ)ij ≠ 0.

Para este método, tem-se a identidade da soma dos quadrados, sendo que
a soma dos quadrados total é dividida em quatro componentes:

a b n
   1 xijk  x ...
2

i 1 j 1 k 1
a b a b
=bn  xi ...  x ...  an  x. j .  x ...  n   xij .  xi..  x. j .  x ...
2 2 2

i 1 j 1 i 1 j 1
a b n
+  1 xijk  xij . 
i 1 j 1 k 1

Ou seja:

SQT = SQA + SQB + SQAB + SQE

Os graus de liberdade correspondentes podem ser dados por:

(abn-1) = (a-1) + (b-1) + (a-1)(b-1) + ab(n-1)

De modo que:

a b n
x...2
SQT = ∑ ∑ ∑ xijk 2
-
i=1 j=1 k=1 abn
xi..2 x...2
a
SQA = ∑ -
i=1 bn abn
b 117x 2
.j. x...2
SQ = -
xi..2 x...
a
SQA = ∑ -
i=1 bn abn
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

b x 2
x...2
SQB = ∑
.j.
-
j=1 an abn
xij.2 x...2
a b
SQSubtotais = ∑ ∑ -
i=1 j=1 n abn
n
xij. = ∑ xijk
k=1

Assim:

SQAB = SQSubtotais - SQA - SQE

SQE = SQT - SQA - SQB - SQAB

As médias quadráticas utilizadas para a ANOVA são dadas por:

SQA
MQA =
 a-1
SQB
MQB =
 b-1
SQAB
MQAB =
 a-1 b-1
SQE
MQE =
ab  n-1

A organização típica dos dados para este tipo de experimento foi realizada
no quadro a seguir.

118
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

QUADRO 16 – ANOVA PARA DOIS FATORES


Fonte de Soma dos Graus de
Média quadrática F0
variação quadrados liberdade
SQA MQA
Fator A SQA a-1 MQA  F0/ A =
 a  1 MQE

SQB MQB
Fator B SQB b-1 MQB  F0/ B =
 b  1 MQE

Interação SQAB MQAB


SQAR (a-1)(b-1) MQAB  F0/ AB =
AB  a  1  b  1 MQE

SQAB
Erros SQE ab(n-1) MQAB 
ab  n  1

Total SQT abn-1

FONTE: Montgomery e Runger (2016); Werkema e Aguiar (1996)

As regras de decisão, baseando-se na distribuição F, podem ser resumidas em:

• Se F0/A > Fα (a-1, ab (n-1)), conclui-se que o fator A influencia a variável resposta
com o nível de significância α.
• Se F0/B >Fα (b-1, ab(n-1)), conclui-se que o fator B influencia a variável resposta
com o nível de significância α.
• Se F0/AB > Fα ((a-1)(b-1). ab(n-1)), conclui-se que a interação entre A e B influencia
a variável resposta com o nível de significância α.

O efeito da interação é de suma importância para a interpretação correta


dos resultados, visto que quando esta é relevante um comparativo entre médias
de um fator podem ser mal interpretadas devido a interação AB. Só é possível
interpretar isoladamente o efeito de cada fator se a interação não for significativa,
em qualquer outro caso é necessário analisar hipóteses sobre os níveis de um dos
fatores dentro de cada nível do outro (RODRIGUES; IEMMA, 2005). Outro ponto
que não pode deixar de ser avaliado é a verificação da adequação do modelo. Os
resíduos de um fatorial com dois fatores são dados por:

eijk = xijk - xij.

Logo, conclui-se que os resíduos são a diferença entre as observações e


as médias das células correspondentes. Posteriormente são plotados gráficos
para análise do resíduo, mesmo método aplicado aos experimentos com um
único fator. Para verificação da adequação do modelo de ANOVA, os gráficos de
resíduos possuem objetivos específicos e são apresentados no quadro a seguir.

119
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

QUADRO 17 – OBJETIVOS DOS GRÁFICOS DE RESÍDUOS PARA VERIFICAÇÃO


DE ADEQUAÇÃO DE MODELOS

Gráfico Para avaliar a validade da suposição de


Resíduos contra o tempo Independência
Resíduos contra médias xij. Igualdade de variâncias
Resíduos contra níveis do fator A Igualdade de variâncias
Resíduos contra níveis do fator B Igualdade de variâncias
Probabilidade normal para os resíduos Normalidade

FONTE: Werkema e Aguiar (1996)

EXEMPLO 1:

Uma forma exemplificativa deste tipo de experimento foi mostrada por


Werkema e Aguiar (1996), em que uma equipe da indústria de equipamentos
eletrônicos avalia o tipo de efeito exercido pelos fatores diâmetro e velocidade de
rotação da broca sobre a vibração da superfície das placas de circuito impresso,
durante o processo de furação. Com este objetivo foi realizado um experimento
completamente aleatorizado com três níveis para cada fator e com quatro réplicas.
O quadro com os dados e a análise de variância serão mostrados a seguir.

QUADRO 18 – MEDIDAS DA VIBRAÇÃO DA SUPERFÍCIE DAS PLACAS DE CIRCUITO


IMPRESSO DURANTE A FURAÇÃO

Velocidade Diâmetro da broca (polegadas)


de rotação
da broca 1/16 1/12 1/8
(rpm)
10,6 13,7 11,2 12,3 24,5 21,3
40
16,8 16,6 16,1 12,3 19,9 18,4
Total 57,7 51,9 84,1
14,8 14,7 22,8 22,8 24,3 26,3
60
16,8 11,2 23,6 24,6 30,0 26,6
Total 57,5 93,8 107,2
17,1 12,0 21,3 23,4 31,6 35,5
80
14,6 15,4 27,3 23,6 28,9 31,9
Total 59,1 95,6 127,9

FONTE: Werkema e Aguiar (1996)

A análise de variância foi realizada e teve como resposta os valores


organizados no quadro a seguir.

120
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

QUADRO 19 – ANÁLISE DE VARIÂNCIA PARA AS MEDIDAS DA VIBRAÇÃO DA SUPERFÍCIE DAS


PLACAS DE CIRCUITO IMPRESSO
Fonte de Soma dos Graus de
Média quadrática F0 F5%
variação quadrados liberdade
Velocidade
352,31 2 176,15 31,90 3,35
da broca A
Diâmetro
876,48 2 438,24 79,36 3,35
da broca B
Interação
193,83 4 48,46 8,78 2,73
AB
Erro 149,10 27 5,52
Total 1571,72 35

FONTE: Werkema e Aguiar (1996)

Com os dados da ANOVA, conclui-se que, com o nível de significância


de 5%, a velocidade e o diâmetro da broca, bem como a interação entre os fatores
afetam a vibração da superfície durante o processo de furação.

Na posse dos dados, foi montado o gráfico a seguir da vibração versus


diâmetro da broca. O que se pode afirmar é que há interação entre os fatores,
mesmo porque as retas formadas no gráfico não são paralelas, mas um indicativo
da existência de interação. Ademais, considerando a necessidade de produtividade
dos meios de produção e a redução da vibração do equipamento, a melhor opção
aparenta ser o uso de uma broca de diâmetro 1/16 polegadas com velocidade de
rotação igual a 80 rpm.

FIGURA – 11 GRÁFICO DAS RESPOSTAS MÉDIAS DO EXPERIMENTO


50

40

30
Vibração

20

10

0
1/16" 1/12" 1/8"

Diâmetro
40 60 80
FONTE: Werkema e Aguiar (1996)

121
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

A análise dos resíduos pode ser observada por meio do quadro montado
a seguir e dos gráficos apresentados de resíduos.

QUADRO 20 – RESÍDUOS ASSOCIADOS ÀS OBSERVAÇÕES

Velocidade Diâmetro da broca (polegadas)


de rotação
da broca 1/16 1/12 1/8
(rpm)
-3,8 (17) 2,4 (33) -1,8 (09) 3,1 (05) 3,5 (15) -1,1 (20)
40
-0,7 (30) 2,2 (18) -0,7 (23) -0,7 (03) 0,3 (26) -2,6 (31)
0,4 (04) 2,4 (35) -0,7 (34) 0,2 (32) -2,5 (10) 3,2 (01)
60
0,3 (25) -3,2 (19) -0,7 (24) 1,2 (29) -0,5 (22) -0,2 (21)
2,3 (11) -0,2 (07) -2,6 (08) 3,4 (16) -0,4 (36) -3,1 (02)
80
-2,8 (27) 0,6 (12) -0,5 (06) -0,3 (28) 3,5 (14) -0,1 (13)
Os números entre parênteses indicam a ordem de coleta dos dados.

FONTE: Werkema e Aguiar (1996)

GRÁFICO 1 – GRÁFICOS DE RESÍDUOS PARA O EXPERIMENTO


4

3
2
1
Resíduos

0
-1
-2

-3
-4
0 10 20 30 40
Ordem
4

3
2
1
Resíduos

0
-1
-2

-3
-4
0 10 20 30 40
Médias

122
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

3
2
1

Resíduos
0
-1
-2

-3
-4
1 2 3
Velocidade

3
2
1
Resíduos

0
-1
-2

-3
-4
1 2 3
Diâmetro
FONTE: Werkema e Aguiar (1996)

GRÁFICO 2: GRÁFICO DE PROBABILIDADE NORMAL PARA OS RESÍDUOS DO EXPERIMENTO

. 999
. 99
. 95
Probabilidade

. 80
. 50
. 20
. 05
. 01
. 001

-4,2 -3,2 -2,2 -1,2 -0,2 0,8 1,8 2,8 3,8

Resíduos
Média = 0,000 TESTE DE NORMALIDADE
Desvio Padrão = 2,064 Coeficiente de Correlação Linear = 0,9778
Número de dados = 36 P-valor (aproximado): > 0,1000
FONTE: Werkema e Aguiar (1996)

123
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

Concluindo, percebe-se que as conclusões dos ensaios são confiáveis, com


alto coeficiente de correlação.

4 ANÁLISE FATORIAL COM MODELO DE EFEITOS FIXOS


COM MAIS DE DOIS FATORES
Agora considere que é necessário realizar um experimento com mais de
dois fatores, por exemplo, com três fatores. Analogamente, haverá a níveis do
fator A, b níveis do fator B e c níveis do fator C (e assim por diante no caso de mais
de três fatores). Considerando uma análise global, tem-se o seguinte modelo geral
e a tabela de análise de variância para o modelo de efeitos fixos com três fatores:

xijkl = μ + τi + βj + γk + (τβ)ij + (τγ)ik + (βγ)jk + (τβγ)ijk + εijkl, em que i= 1, 2, ...,


a; j= 1, 2, ..., b; k=1, 2, ..., c; l=1, 2, ..., n

Os dados típicos para análise de variância com três fatores são apresentados
no quadro a seguir.

QUADRO 21 – DADOS TÍPICOS PARA ANOVA COM TRÊS FATORES

Fonte de Soma dos Graus de


Média quadrática F0
variação quadrados liberdade
MQA
Fator A SQA a-1 MQA F0/ A =
MQE
MQB
Fator B SQB b-1 MQB F0/ B =
MQE
MQC
Fator C SQC c-1 MQC F0/ C =
MQE
Interação MQAB
SQAB (a-1)(b-1) MQAB F0/ AB =
AB MQE

Interação MQAC
SQAC (a-1)(c-1) MQAC F0/ AC =
AC MQE

Interação MQBC
SQBC (b-1)(c-1) MQBC F0/ BC =
BC MQE
Interação MQABC
SQABC (a-1) (b-1) (c-1) MQABC F0/ ABC =
ABC MQE
Erro SQE abc(n-1) MQE
Total SQT abcn-1

FONTE: Montgomery e Runger (2016) e Werkema e Aguiar (1996)

124
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

Conforme foi visto, quando há o aumento no número de fatores analisados


em um experimento, torna-se trabalhoso o emprego dos planejamentos fatoriais
comuns, sendo preciso o uso dos planejamentos fatoriais 2k. Neste tipo de
experimento há k fatores, cada um com somente dois níveis, totalizando 2k
observações sendo o mais habitual o tipo 22.

Uma notação especial é usada para marcar as combinações dos


tratamentos. Em geral, uma combinação de tratamentos é representada
por uma série de letras minúsculas. Se uma letra estiver presente, o
fator correspondente é corrido no nível alto naquela combinação de
tratamento; se ela estiver ausente, o fator é corrido em seu nível baixo.
Por exemplo, a combinação de tratamentos a indica que o fator A
está no nível alto e o fator B está no nível baixo. A combinação de
tratamentos com ambos os fatores no nível baixo é representada por
(1) (MONTGOMERY; AGUIAR, 2016, p. 459).

No trecho citado tem-se a explicação das notações principais usadas nos


planejamentos fatoriais. Outra forma de indicação dos níveis, alto e baixo, é por
meio de sinais, + e -, respectivamente. Os efeitos de interesse no planejamento
fatorial são os efeitos principais A e B e a interação entre AB.

Os efeitos são dados por:

a+ab b+  1 1
A= - = - =  a+ab-b-  1 
x A+ x A 2n 2n 2n 
b+ab a+  1 1
B= - = - =  ab+  1 -a-b 
xB+ xB- 2n 2n 2n 
ab+  1 a+b 1
AB= - =  ab+  1 -a-b 
2n 2n 2n 

A soma dos quadrados para um efeito é dada por:

 Contraste 
2

SQ 
n 2k

O contraste são os fatores entre colchetes em cada um dos fatores e


interação.

125
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

DICAS

No artigo Efeitos por comparações e por experimento em interações de


experimentos fatoriais é possível ler resumidamente sobre o efeito do nível de significância
adotado nas interpretações das conclusões obtidas.

O artigo está disponível no seguinte endereço eletrônico: <http://www.scielo.br/pdf/


cagro/v32n1/a10v32n1.pdf>. Acesso em: 5 fev. 2019.

Vale a pena a leitura!

EXEMPLO 2: Um exemplo, demonstrado por Montgomery e Aguiar


(2016), descreve a aplicação dos planejamentos fatoriais com dois níveis para
fabricação de circuitos integrados. Uma etapa básica do processo nessa indústria
é fazer crescer uma camada epitaxial em pastilhas polidas de silício. As pastilhas
são montadas em uma base e posicionadas no interior de um recipiente em forma
de sino. Vapores químicos são introduzidos por meio de bocais próximos ao topo
do recipiente. A base é girada e calor é aplicado. Essas condições são mantidas até
que a camada epitaxial esteja espessa o suficiente.

O quadro apresenta os resultados de um planejamento fatorial 22, com


n=4 réplicas, usando os fatores A=tempo de deposição e B=vazão de arsênio. Os
dois níveis do tempo de deposição são -=curto e +=longo; os dois níveis da taxa de
arsênio são -=55% e +=59%. A variável de resposta é a espessura (μm) da camada
epitaxial. Podemos encontrar as estimativas dos efeitos, usando os dados do
quadro a seguir e das equações dos fatores, conforme segue:

QUADRO 22 – RESULTADO DOS NÍVEIS DO TEMPO DE DEPOSIÇÃO E DA TAXA DE ARSÊNIO


NA ESPESSURA DA CAMADA EPITAXIAL E A ESTIMATIVA DE SEUS EFEITOS

Combinação Fatores do planejamento Espessura (μm)


de
tratamentos A B AB Espessura (μm) Total Média

(1) - - + 14,037 14,165 13,972 13,907 56,081 14,020


a + - - 14,821 14,757 14,843 14,878 59,299 14,825
b - + - 13,880 13,860 14,032 13,914 55,686 13,922
ab + + + 14,888 14,921 14,415 140,932 59,156 14,789

FONTE: Montgomery e Aguiar (2016)

126
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

1 1
A=  a+ab-b-  1  =  59,299+59156-55,686-56,081 =0,836
2n 2.4
1 1
B= b+ab-a-  1  =  55,686+59,156-59,299-56,081 =-0,067
2n 2.4
1 1
AB=  ab+  1 -a-b  =  59,156+56,081-59,299-55,686 =0,032
2n 2.4
2
 a+ab-b-  1   6,688 
2

SQA =  = =2,7956
n2k 16
b+ab-a-1  12  -0,538 2
SQB =  =  =0,0181
k
n2 16
2
 ab+  1 -a-b   0,252
2

SQAB =  = =0,0040
n2k 16
 56,081+...+59,156 
2

SQT =  14,037  +...+  14,932


2 2
- =3,0672
16

A análise de variância para o experimento foi dada por:

QUADRO 23 – ANÁLISE DE VARIÂNCIA PARA OS NÍVEIS DO TEMPO DE DEPOSIÇÃO E DA


TAXA DE ARSÊNIO NA ESPESSURA DA CAMADA EPITAXIAL E A ESTIMATIVA DE SEUS EFEITOS
Erro padrão do
Termo Efeito Coeficiente t Valor P
coeficiente
Constante 14,3889 0,03605 399,17 0,000
A 0,8360 0,4180 0,03605 11,60 0,000
B -0,0672 -0,0336 0,03605 -0,93 0,369
AB 0,0315 0,0157 0,03605 0,44 0,670

Fonte de Soma dos Graus de


Média quadrática F0 Valor P
variação quadrados liberdade
A (tempo de
2,7956 1 2,7956 134,40 7,07E-8
deposição)
B (vazão de
0,0181 1 0,0181 0,87 0,38
arsênio)
AB 0,0040 1 0,0040 0,19 0,67
Erro 0,2495 12 0,0208
Total 3,0672 15
FONTE: Montgomery e Aguiar (2016)

De acordo com a ANOVA, percebe-se que o tempo de deposição é o único


fator que afeta significativamente a espessura da camada epitaxial. Tempos mais
longos conduzem a camadas mais espessas.

127
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

LEITURA COMPLEMENTAR

Na matéria a seguir, o autor, Marcelo Petenate, resume de forma sintetizada


a aplicação e interpretação de um planejamento de experimentos fatoriais. É uma
excelente opção para aprender um pouco mais sobre o tema!

COMO IMPLEMENTAR UM EXPERIMENTO FATORIAL

Marcelo Petenate

[...] Para implementar um experimento fatorial selecionamos um número


fixo de níveis de cada fator ou variáveis e então executamos algumas vezes o
experimento para todas as possíveis combinações. Nesse post iremos discutir
como implementar experimentos fatoriais quando temos dois níveis para 3 fatores,
ou seja, um experimento 2^3, mas pode ser generalizado para um experimento
com mais de 3 fatores. [...]

A seguir, vamos ilustrar a implementação com um exemplo de um


experimento fatorial 2^3. Ou seja, temos 2 níveis para cada um dos 3 fatores,
gerando 2x2x2=2^3 combinações de fatores. Os níveis serão denominados como
“+” ou “-“, indicando o nível mais baixo e o nível mais alto. Abaixo temos uma
imagem que exemplifica bem o experimento fatorial 2^3. Do lado esquerdo temos
todas as combinações possíveis e do lado direito um cubo em que cada vértice é
uma das combinações da tabela ao lado.

FIGURA 1 – ILUSTRAÇÃO DE UM EXPERIMENTO FATORIAL 2^3

Delineamento
Formulação A B C 7 8
1 - - -
2 + - -
+ 3 4
3 - + -
B 5 6 +
4 - - +
5 + + -
C
- 1 2 -
6 - - +
7 + - + A
- +
8 + + +

• Um exemplo

Vamos utilizar um exemplo do capítulo de Delineamento Fatorial com 2 níveis


do livro de planejamento de experimentos de Box, Hunter & Hunter. Suponha que você
queira estudar o rendimento em % de uma solução produzida (resposta) realizando um
experimento fatorial 2^3 com dois fatores quantitativos, temperatura e concentração,
e uma variável qualitativa, tipo de catalisador.

128
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

A Tabela 1 abaixo contém os valores do experimento. A primeira tabela


informa os níveis dos três fatores em questão: temperatura, concentração e tipo de
catalisador. A segunda tabela mostra as combinações possíveis do planejamento
ilustrada pelos sinais “+” e “-” e a resposta obtida através da média de duas
replicações da configuração. Na última tabela substituímos os sinais pelos
respectivos níveis e a resposta se mantem, pois nada foi alterado.

TABELA 1 – DADOS DO EXPERIMENTO FATORIAL

Temperatura (°C) Concentração (%) Catalisador


- + - + - +
160 180 20 40 A B

Fatores Codificados
Temperatura Concentração Catalisador Resposta(y)
- - - 60
+ - - 72
- + - 54
+ + - 68
- - + 52
+ - + 83
- + + 45
+ + + 80

Níveis dos fatores


Temperatura Concentração Catalisador Resposta (y)
160 20 A 60
180 20 A 72
160 40 A 54
180 40 A 68
160 20 B 52
180 20 B 83
160 40 B 54
180 40 B 80

Os números da Tabela 1 podem ser ilustrados no cubo de delineamento


mostrado na Figura 1. O resultado pode ser visto na Figura 2.

129
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

FIGURA 2 – CUBO FATORIAL COM NÚMEROS DO EXPERIMENTO EXEMPLO ACIMA

45 80

+ 54 68

Concentração 52 83 +
Catalisador
- 60 72 -

- Temperatura +

• Preciso mesmo desenhar esse cubo?

Não. O cubo fatorial serve apenas como ferramenta de visualização. O


que você precisa mesmo é dos dados da Tabela 1 para partir para a próxima
etapa: calcular os efeitos principais.

• Como calcular os efeitos principais

Considere mais uma vez o exemplo ilustrado na seção anterior. Se fixarmos


a concentração em 20% e a utilização do catalisador A, podemos ver produção
de solução a 160 graus é de 60% e a 180 graus é de 72%. Ou seja, uma diferença
de 72 – 60 = 12% passando de 160 para 180 graus, mantendo os outros fatores
fixos. Note que essa diferença pode ser calculada para outras combinações de
fatores fixos. A média de todas essas diferenças possíveis é denominada de efeito
principal do fator. No caso da temperatura, podemos ver todos os seus efeitos e o
efeito principal resultante da média desses na Tabela 2 abaixo.

TABELA 2 – EFEITOS DA TEMPERATURA NO EXPERIMENTO

Produção (%)
Produção com
Concentração Catalisador com T a 160 Efeito = T+ – T-
T a 180 (T+)
(T-)
20 A 60 72 72 – 60 = 12
40 A 54 68 68 – 54 = 14
20 B 52 83 83 – 52 = 31
40 B 45 80 80 – 45 = 35
(12 + 14 + 31 +
Efeito principal da temperatura (média dos efeitos)
35)/4 = 23

130
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

O mesmo cálculo pode ser reproduzido para obter os efeitos principais


da concentração e tipo de catalisador. Para isso, mantenha fixos os outros fatores
e calcule a diferença entre a resposta quando seu fator de interesse está no nível
“+” menos a resposta com o nível do fator de interesse em “-“. Assim, podemos
obter os efeitos principais dos fatores: 23 para temperatura, -5 para concentração
e 1.5 para tipo de catalisador.

Podemos utilizar novamente o cubo fatorial para ilustrar os efeitos de cada


fator. Na Figura 3 as arestas do cubo representam a diferença entre as respostas
para cada uma das 4 combinações dos fatores fixados, sendo a seta no centro no
cubo indicando a direção em que a diferença foi calculada.

FIGURA 3 – EFEITOS DOS FATORES DO EXPERIMENTO


+35
-9 +12
+14
-7 -3
T C K
-6 -4
+31 -8
+12 +11

Temperatura (T) Concentração (C) Catalisador (k)

• Verificando se há interação entre os fatores

Note na Figura 3 que os efeitos da temperatura utilizando o catalisador


do tipo B (ao fundo) é consideravelmente maior que os efeitos da temperatura
utilizando o catalisador do tipo A (frente). Isso é uma evidência de que os fatores
temperatura e tipo de catalisador interagem, ou seja, há interação entre os fatores.

Para obter o efeito dessa interação, basta calcular a média das 4 respostas
quando os níveis são iguais (++ e –) e média das 4 respostas quando os níveis são
diferentes (+- e -+). Depois isso, faça a diferença da média de níveis iguais menos
a média de níveis diferentes.

Na Tabela 3 abaixo, em tons mais escuros estão as combinações de


temperatura e tipo de catalisador com níveis iguais (++ e –) e de fundo branco
com níveis diferentes (+- e -+). Tome a média das respostas em tom mais escuro
e faça a diferença com a média das respostas de fundo branco. O resultado
será (60+54+83+80)/4 – (72+68+52+45)/4 = 10. Ou seja, o efeito de interação entre
temperatura de tipo de catalisador é 10. As outras interações podem ser calculadas
da mesma maneira.

131
UNIDADE 2 | METODOLOGIAS PARA PLANEJAMENTO EXPERIMENTAL E SUAS PRINCIPAIS VARIÁVEIS

TABELA 3 – RESULTADO DO EXPERIMENTO FATORIAL COM LINHAS EM DESTAQUE PARA


CALCULAR EFEITO DE INTERAÇÃO

Temperatura Concentração Catalisador Resposta (y)


– – – 60
+ – – 72
– + – 54
+ + – 68
– – + 52
+ – + 83
– + + 45
+ + + 80

Todos esses cálculos podem ser obtidos em algum software estatístico


como o Minitab. [...]

• Como interpretar os resultados

Em geral, os resultados são disponibilizados em uma tabela, como na


Tabela 4, com os efeitos principais de cada fator e suas respectivas interações
seguidas do erro padrão. Esse erro padrão é uma medida de precisão do efeito
principal, ou seja, altos valores indicam baixa certeza acerca do valor mostrado
pelo efeito principal.

TABELA 4 – EFEITOS E SEUS RESPECTIVOS ERROS PADRÃO CALCULADOS PARA O


EXEMPLO DE FATORIAL 2^3

Fatores e interações Efeito ± Erro Padrão


Temperatura, T 23.0 ± 1.4
Concentração, C -5.0 ± 1.4
Tipo de catalisador, K 1.5 ± 1.4
TxC 1.5 ± 1.4
TxK 10.0 ± 1.4
CxK 0.0 ± 1.4
TxCxK 0.5 ± 1.4

Em meio a todos esses números, precisamos primeiro identificar o que


realmente importa. Ou seja, quais efeitos são significativos. Em estatística dizemos
que um efeito é significativo se temos evidências o suficiente para dizer que o
valor o qual ele estima é diferente de zero. Neste caso, o efeito estimado deve ser
consideravelmente maior que o seu erro padrão, caso contrário a imprecisão da
estimativa não nos permite garantir que ela está estimando algo diferente de zero.
Assim, baseado na teoria estatística de planejamento de experimentos, vamos
considerar como significativos os efeitos que são 2.3 vezes maior que o erro-padrão.

132
TÓPICO 3 | PLANEJAMENTO DE EXPERIMENTOS COM VÁRIOS FATORES

No caso do exemplo desse post, são significativos os efeitos dos fatores


temperatura e concentração e a interação entre temperatura e tipo de catalisador
(T x K). Porém, quando há uma interação significativa, temos que considerar os
fatores envolvidos. Por exemplo, a interação T x K foi significativa, mas o tipo de
catalisador tem um efeito quase igual ao seu erro padrão, mas mesmo assim vamos
considerá-lo para a análise pois interage com a temperatura. Na Tabela 5 temos
apenas os efeitos significativos para explicar a variabilidade da variável resposta.

TABELA 5 – EFEITOS SIGNIFICATIVOS E SEUS RESPECTIVOS ERROS PADRÃO CALCULADOS


PARA O EXEMPLO DE FATORIAL 2^3

Fatores e interações Efeito ± Erro Padrão


Temperatura, T 23.0 ± 1.4
Concentração, C -5.0 ± 1.4
Tipo de catalisador, K 1.5 ± 1.4
TxK 10.0 ± 1.4

Agora com apenas os efeitos significativos em mãos, podemos analisá-los


e tirar as conclusões necessárias. Comecemos pela concentração, efeito que não
possui nenhuma interação significativa com outro fator. O efeito -5 indica que
cada unidade de concentração que eu aumento no meu experimento reduz em
média 5 pontos percentuais do rendimento da solução (variável resposta). Ou
seja, concentração possui um efeito negativo no rendimento da solução.

Analisemos agora os efeitos da temperatura e tipo de catalisador. Como há


interação entre os dois fatores, não podemos analisá-los separadamente. Utilizando
o catalisador do tipo A o efeito da temperatura é de 13 unidades, mas utilizando o
catalisador do tipo B seu efeito aumenta para 33 unidades. Ou seja, quando utilizo
o catalisador do tipo B, cada unidade de temperatura que aumentamos produz um
aumento de 33 pontos percentuais no rendimento da solução.

No entanto, precisamos tomar cuidado em como tirar conclusões a


partir desse experimento. O resultado obtido sobre o efeito da interação entre
temperatura e tipo de catalisador é muito bom, mas não quer dizer que se eu
aumentar 4 unidades de temperatura utilizando o catalisador do tipo B vou
obter um rendimento de 132%. Impossível. Os resultados devem ser utilizados
como um guia de onde devemos explorar mais e realizar mais estudos. Não fique
satisfeito com apenas um experimento, use os resultados para planejar outro
experimento agora mais específico e com o objetivo de entender melhor os fatores
que são significativos.
FONTE: <https://www.escolaedti.com.br/como-implementar-um-experimento-fatorial/>. Acesso
em: 16 set. 2018.

Desse modo, vemos mais uma aplicação dos planejamentos de


experimentos fatoriais com vários fatores de interesse.

133
RESUMO DO TÓPICO 3
Neste tópico, você aprendeu que:

• No planejamento de experimentos com várias condições são analisados os


efeitos de dois ou mais fatores de interesse sobre um item de controle deste
processo, os denominados experimentos fatoriais.

• Nos experimentos fatoriais todas as tentativas experimentais são combinadas


em todos os níveis dos fatores.

• As interações entre as fontes podem ser analisadas por meio dos experimentos
fatoriais.

• Quando há o aumento no número de fatores analisados em um experimento,


torna-se trabalhoso o emprego dos planejamentos fatoriais comuns, sendo
preciso o uso dos planejamentos fatoriais 2k.

• Neste tipo de experimento há k fatores, cada um com somente dois níveis,


totalizando 2k observações sendo o mais habitual o tipo 22.

134
AUTOATIVIDADE

1 (Adaptado de MONTGOMERY; RUNGER, 2016) Zarcões de tinta para


aviões são aplicados em superfícies de alumínio, por meio de dois métodos:
imersão e aspersão. A finalidade do zarcão é melhorar a adesão da tinta,
podendo ser aplicado em algumas peças usando qualquer método. O grupo
de engenharia de processo responsável por essa operação está interessado
em saber se três diferentes zarcões diferem nas suas propriedades de
adesão. Um experimento fatorial foi realizado para investigar o efeito do
tipo de zarcão e do método de aplicação na adesão da tinta. Três espécimes
foram pintados com cada um dos zarcões, usando cada um dos métodos de
aplicação. Uma camada de tinta foi aplicada e a força de adesão foi medida.
Os dados dos experimentos são mostrados no quadro a seguir.

Tipo de
Imersão Total Aspersão Total xi..
Zarcão
4,0 5,4
1 4,5 12,8 4,9 15,9 28,7
4,3 5,6
5,6 5,8
2 4,9 15,9 6,1 18,2 34,1
5,4 6,3
3,8 5,5
3 3,7 11,5 5,0 15,5 27,0
4,0 5,0
x.j. 40,2 49,6 89,8= x...

Realize a ANOVA, com nível de significância de 5%, e analise se há


algum tipo de interação entre os métodos, bem como verifique a adequação
do modelo por meio da análise dos resíduos.

135
136
UNIDADE 3

ANÁLISE DE EXPERIMENTOS E
APLICAÇÕES

OBJETIVOS DE APRENDIZAGEM
A partir do estudo desta unidade, você deverá ser capaz de:

• diferenciar o método científico do projeto de experimentos;

• conhecer métodos de controle e monitoramento de processos e


experimentos;

• analisar o mapeamento de processos e falhas prováveis, assim como os


efeitos combinados de tais falhas;

• esclarecer a sistematização do gerenciamento de riscos;

• examinar a da metodologia de planejamento de experimentos em


diferentes áreas de aplicação.

PLANO DE ESTUDOS
Esta unidade está dividida em quatro tópicos. No decorrer da unidade,
você encontrará autoatividades com o objetivo de reforçar o conteúdo
apresentado.

TÓPICO 1 – MÉTODO CIENTÍFICO VERSUS DOE

TÓPICO 2 – CONTROLE ESTATÍSTICO DO PROCESSO

TÓPICO 3 – ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

TÓPICO 4 – APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO


DE EXPERIMENTOS

137
138
UNIDADE 3
TÓPICO 1

MÉTODO CIENTÍFICO VERSUS DOE

1 INTRODUÇÃO
Dentro do universo científico há diversos métodos de pesquisa e maneiras
de realizar um planejamento integrado visando ao alcance de um objetivo
específico.

Neste contexto, o conhecimento do conjunto de atividades e etapas


integrantes a cada tipo de metodologia básica é fator crucial para facilitar o
atingimento da meta de um trabalho.

O planejamento experimental estatístico é uma das distintas técnicas que


podem ser aplicadas para investigação de um problema e conhecimento sobre a
temática de um trabalho. Porém, há outras maneiras de estudo diversas que serão
conhecidas e comparadas a seguir.

2 MÉTODO CIENTÍFICO
Um método pode ser entendido como um conjunto de atividades sistemáticas
e racionais que permitam atingir um objetivo (MARCONI; LAKATOS, 2003).

A metodologia, em um nível aplicado, examina, descreve e avalia


métodos e técnicas de pesquisa que possibilitam a coleta e o
processamento de informações, visando ao encaminhamento e à
resolução de problemas e/ou questões de investigação.
A metodologia é a aplicação de procedimentos e técnicas que devem
ser observados para construção do conhecimento, com o propósito de
comprovar sua validade e utilidade nos diversos âmbitos da sociedade
(PRODANOV; FREITAS, 2013, p. 14).

Para que o conhecimento seja considerado científico, é necessário que


haja uma análise do fenômeno em estudo, bem como todas as especificidades
que o envolvem, de modo que seja possível replicá-lo, explicá-lo e entender suas
relações (PRODANOV; FREITAS, 2013).

139
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Marconi e Lakatos (2003) complementam que o conhecimento científico


deve ser sistemático, baseado em fatos e ser verificável. Silva (2007) complementa
que a ciência deve ser objetiva, ou seja, sem especulações ou tendenciosidade,
lógica, regida por regras racionais e padronizadas e sistemática, organizada e
reprodutível. Um resumo esquemático é proposto em relação às etapas gerais
utilizadas para o processo de aplicação do método científico, figura a seguir.

FIGURA 1 – REPRESENTAÇÃO MÉTODO CIENTÍFICO

Corpo de
conhecimento
disponível

Problema Hipótese
Novo corpo de
conhecimento

Consequências Verificação da Novo problema


verificáveis hipótese

FONTE: Silva (2007, p. 17)

Vale ressaltar que entre métodos científicos pode-se incluir os tipos


dedutivo, indutivo, hipotético-dedutivo e dialético. O uso específico de cada um
depende da aplicação e da natureza dos fatores em estudo.

O método indutivo tem como objetivo o estudo de dados particulares


para formulação de argumentos amplos, que possam ser premissas universais,
mesmo que não estejam diretamente contidas nas partes específicas examinadas.
O método tem objetivo de ampliar o alcance dos conhecimentos por meio das
premissas iniciais (MARCONI; LAKATOS, 2003).

No método dedutivo se todas as premissas são verdadeiras, a conclusão


deve ser verdadeira, de modo que toda informação deve estar, mesmo que
implicitamente, nas premissas. O método tem como objetivo explicar o conteúdo
das premissas iniciais, sendo, portanto, uma forma de obter a “certeza” daquilo
que foi enunciado (MARCONI; LAKATOS, 2003).

O método hipotético-dedutivo tem um processo investigatório de um


problema no qual, por meio de conhecimentos prévios são formuladas hipóteses que
devem ser testadas e analisadas para rejeição ou aceitação da teoria. Desse modo,
tem-se uma observação de um problema, sua análise e posterior conclusão com base
em teorias ou modelos propostos e testados (MARCONI; LAKATOS, 2003).

O método dialético considera que há um relacionamento mútuo entre


unidades, com constante mudanças e movimentação entre ideias e processos,
mantendo uma abertura ao desenvolvimento de novos fundamentos para todos
os fenômenos. Trata-se de um método qualitativo no qual há um dinamismo em
relação a todos os possíveis padrões (MARCONI; LAKATOS, 2003).

140
TÓPICO 1 | MÉTODO CIENTÍFICO VERSUS DOE

Desse modo, há diversas técnicas distintas de aplicação de um método


científico visando alcançar um objetivo específico. Para tanto, basta conhecê-los
para análise de qual é a melhor técnica a ser aplicada.

3 DOE
O método estatístico pode ser visto como uma vertente do método
científico hipotético-dedutivo que permite obter uma descrição quantitativa de
um sistema de interesse delimitado. Posteriormente essas relações podem ser
generalizadas sobre a natureza, ocorrência ou significado, sendo um método de
experimentação e prova (MARCONI; LAKATOS, 2003).

A busca por respostas aos problemas utilizando o planejamento


experimental gera uma modelagem do fenômeno, com as variáveis da questão
apresentada relacionadas em um modelo. Vale apontar que para entendimento
de quais variáveis estão envolvidas no processo é preciso que haja a observação
do fenômeno, obtenção de dados e construção de hipóteses e justificativas
para os relacionamentos para construção do modelo. Daí então o modelo pode
ser implementado e analisado em termos de sua validade ou não para uma
experimentação (SCHWAAB; PINTO, 2007).

A figura a seguir demonstra o modelo proposto por Schwaab e Pinto


(2007) para resolução de problemas utilizando desing of experiments, ou seja,
planejamento experimental.

FIGURA 2 – ESQUEMA GERAL MÉTODO CIENTÍFICO APLICADO A EXPERIMENTAÇÕES

Observações e fatos
geram um problema.

Realizam-se experimentos.
Acumula-se informação de
natureza empírica.

Identificam-se variáveis
relevantes. Constroem-se
modelos.

Usa-se o modelo para


responder perguntas e fazer
previsões.

Respostas e previsões
são confirmadas
Não experimentalmente?

Sim

Problema
resolvido.

FONTE: Schwaab e Pinto (2007, p. 22)

141
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

É perceptível a importância de conhecer o problema a ser analisado,


visto que quanto mais se compreende a questão melhor será o planejamento do
experimento. Assim, a coleta de informações é etapa crucial para o sucesso de um
projeto. O embasamento de hipóteses e previsões deve ser feito não apenas com
a observação do pesquisador, mas também com o uso de pesquisa bibliográfica.

Schwaab e Pinto (2007) enumeram algumas questões que devem ser


respondidas durante o desenvolvimento de um trabalho experimental, sendo
elas organizadas no quadro a seguir.

QUADRO 1 – PERGUNTAS BÁSICAS EM UM TRABALHO EXPERIMENTAL

Questões relativas à definição dos objetivos


1. Por que o trabalho experimental deve ser feito? Que questões devem ser respondidas com o
trabalho?
2. Quais são as implicações de não serem detectadas correlações que de fato existem ou de serem
detectadas correlações que de fato não existem?
3. Qual é a região experimental a ser investigada?
4. Qual é o tempo disponível?
5. Qual é o orçamento disponível?
6. Que informações preliminares podem ser consideradas?
7. Procura-se um ponto ótimo ou apenas as correlações entre as variáveis?
Tipo de modelagem
1. Pretende-se fazer uso apenas de modelos empíricos ou também serão usados modelos
teóricos?
2. A forma funcional analisada está predeterminada ou deverá ser desenvolvida?
3. Quais são as variáveis dependentes, fixadas arbitrariamente pelo investigador para realizar os
experimentos, e independentes, obtidas como respostas experimentais?
Programa Experimental
1. Que variáveis serão medidas e controladas? Que variáveis serão apenas medidas? Como as
variáveis serão medidas? Qual deverá ser a sequência de medição?
2. Quais são os erros de medição associados às medidas de cada variável?
3. Que variáveis podem ser consideradas inicialmente como as mais importantes? E quais são as
variáveis menos importantes? Os efeitos podem ser de fato avaliados?
4. Que problemas externos podem perturbar os resultados? Como controlar e minimizar estes
efeitos?
5. Que tipo de controle das variáveis é desejável?
6. Até que ponto as variáveis independentes podem ser assim consideradas? As variáveis
independentes são funções de outras variáveis?
7. Os erros são uniformes ou diferentes em cada região de experimentação?
Réplicas
1. Como os experimentos serão replicados? Em sequência, em grupo?
2. Quantas réplicas serão realizadas?
3. Como os dados serão analisados e interpretados?

FONTE: Schwaab e Pinto (2007, p. 38)

Nem todas as questões são aplicáveis a todos os tipos de experimentos, porém,


é importante que o pesquisador reflita com relação a todos os tópicos elencados.

142
TÓPICO 1 | MÉTODO CIENTÍFICO VERSUS DOE

4 COMPARATIVO
A estatística pode ser vista como a parte científica do estudo da incerteza.
Trata-se de uma lei na qual todos os fenômenos podem ser estimados e previstos.
Vale apontar que as estimativas são na realidade valores esperados aos resultados,
não sendo iguais aos reais devido aos erros aleatórios que ocorrem e são inerentes
a qualquer processo. O planejamento de experimentos permite, não apenas
estimar valores como obter a significância de cada erro para o resultado final
almejado. A análise estatística é parte integrante do próprio método científico
(SILVA, 2007).

No planejamento de experimentos se uma variável não puder ser medida


não é possível avaliar seus efeitos sobre os resultados. Desse modo, para o DOE,
técnicas e equipamentos para acompanhamento do trabalho experimental com um
sistema de medição eficiente são cruciais para o sucesso do trabalho de investigação.
Ademais, as incertezas do experimento precisam ser avaliadas e quantificadas para
consistência das conclusões obtidas (SCHWAAB; PINTO, 2007).

Vale apontar que o planejamento de experimentos está inserido como


parte integrante de um tipo específico de método científico estudado, técnica
ampla e com uso de metodologias qualitativas e quantitativas, conforme foi visto
no item anterior do trabalho.

143
RESUMO DO TÓPICO 1

Neste tópico, você aprendeu que:

• Conhecimento científico é aquele no qual há uma análise do fenômeno em


estudo, suas especificidades que o envolvem, sendo possível replicá-lo, explicá-
lo e entender suas relações.

• Há diversas técnicas distintas de aplicação de um método científico visando


alcançar um objetivo específico, dentre eles os tipos dedutivo, indutivo,
hipotético-dedutivo e dialético.

• O planejamento de experimentos está inserido no método científico hipotético-


dedutivo, cujo nome dado é método estatístico que permite obter uma
descrição quantitativa de um sistema de interesse delimitado com relações que
podem ser generalizadas sobre a natureza, ocorrência ou significado, sendo
um método de experimentação e prova.

144
AUTOATIVIDADE

1 Relacione as colunas com as características de cada material de acordo com


as características de cada método científico elencado a seguir e assinale a
alternativa com a sequência correta:

I- Método indutivo
II- Método dedutivo
III- Método hipotético-dedutivo
IV- Método dialético

( ) Método no qual há uma grande abertura para mudanças e movimentações


dos fundamentos teóricos.
( ) Método no qual há conclusões universais por meio de argumentos
específicos, não leva necessariamente a certeza universal.
( ) Método no qual há conclusões universais por meio de argumentos
específicos verdadeiros para todo e qualquer enunciado.
( ) Método no qual a formulação de hipóteses é realizada e, posteriormente
testadas e a conclusão é obtida com relação a tais propostas.

a) I – II – III – IV.
b) II – III – I – IV.
c) IV – III – II – I.
d) IV – I – II – III.

2 Assinale a alternativa correta:

a) O método científico aplicado no planejamento de experimentos tem


como característica a descrição qualitativa de um sistema delimitado e
posteriormente a formação de hipóteses baseadas em tal relação.
b) O método científico aplicado no planejamento de experimentos tem
como característica a descrição quantitativa de um sistema delimitado e
posteriormente a formação de hipóteses baseadas em tal relação.
c) O método científico aplicado no planejamento de experimentos tem
como característica a modelagem-problema baseado em um fenômeno e,
posteriormente, a obtenção de dados e conclusão embasada nas previsões,
porém com limitação no fato de não haver validação da proposta, ou seja,
análise se é ou não verdadeira.
d) O método científico aplicado no planejamento de experimentos tem
como característica a modelagem problema baseando em um fenômeno
e, posteriormente, sem obtenção de dados a conclusão é embasada em
previsões via pesquisa bibliográfica.

145
146
UNIDADE 3
TÓPICO 2

CONTROLE ESTATÍSTICO DO PROCESSO

1 INTRODUÇÃO
Os erros são inerentes a qualquer medição, porém, quando a inexatidão
interfere grandemente no resultado, podem-se obter respostas incoerentes aos
valores reais para um dado problema. O conhecimento das possíveis falhas em
experimentos é necessário para o sucesso, bem como o controle dos processos
para evitar a ocorrência de tais desvios.

Neste contexto, conheceremos o papel das ferramentas estatísticas na melhoria


e gerenciamento da qualidade de experimentos e processos. Vale apontar que os
modelos auxiliam tanto no planejamento e desenvolvimento de produtos quanto no
gerenciamento e controle de requisitos de produtos e indicadores de processos.

Além disso, testes de confiabilidade e vida de produtos são imprescindíveis


para qualquer indústria ou negócio.

2 CONTROLE ESTATÍSTICO DE PROCESSO


O controle estatístico de processo utiliza diversas técnicas estatísticas
aplicadas à produção visando à redução sistemática da variabilidade nas
características de qualidade de interesse. Naturalmente, qualquer processo ou
experimento possui erros e variabilidade, fato que comprova a importância do
uso de replicatas e parâmetros estatísticos como: média amostral e desvios em
um conjunto de observações. A eliminação completa de tais ruídos é impossível,
porém o controle e redução deve ser objetivada. Os erros típicos de qualquer
processo podem ser classificados como grosseiros, sistemáticos ou aleatórios. Os
erros grosseiros ocorrem, em geral, devido a um operador mal treinado ou sem
atenção sendo, portanto, consequência de erros humanos. Os erros sistemáticos
afetam o resultado sempre na mesma direção, ou seja, ocorrem em geral devido
a algum problema relativo ao equipamento ou método de análise possuindo um
padrão de alteração. Já os erros aleatórios ocorrem devido a variações que não
são passíveis de controle que influenciam o resultado final (BARROS NETO;
SCARMINIO; BRUNS, 2010; RIBEIRO; CATEN, 2012).

147
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

UNI

O termo qualidade pode ser entendido como adequação ao uso e aos


requisitos de conformidade inerentes a determinado processo ou produto (MONTGOMERY;
RUNGER, 2016).

Tem-se como ferramentas básicas para resolução de problemas em termos


de controle estatístico de processo (CEP): histograma, gráfico de Pareto, Diagrama
de causa e efeito, diagrama de concentração de defeitos, gráfico de controle,
diagrama de dispersão, folha de verificação. Algumas ferramentas já foram
abordadas no conteúdo deste trabalho e outras ainda serão foco de estudo. Porém,
há tópicos que não fazem parte do escopo deste conteúdo (MONTGOMERY;
RUNGER, 2016).

O controle estatístico de processo auxilia no monitoramento contínuo


e na detecção de problemas em experimentos ou produtos. Quando há o
acompanhamento de processos por meio dos dados históricos e atuais é possível
identificar tendências de alterações tornando viável a intervenção e adequação
para correções.

Analogamente aos erros cometidos em um processo, podemos avaliar o


tipo de alterações que ocorrem devido a causas comuns ou causas especiais. As
primeiras ocorrem naturalmente, sendo inerentes aos processos e ocorrem de
maneira aleatória, sendo resultante do efeito cumulativo de pequenas causas de
variabilidade normais às condições de operação. Quando há uma variabilidade
acima do nível aceitável de desempenho, o processo torna-se fora de controle
e tem-se um problema decorrente de uma causa especial de instabilidade. As
causas especiais não seguem um padrão aleatório, reduzem o desempenho do
processo e são consideradas como falhas de operação. Uma ferramenta estatística
que descreve o padrão de variação das medidas é o gráfico de controle, o qual
pode detectar em tempo real ocorrências de mudanças em processos (MOORE,
2011; RIBEIRO; CATEN, 2012; MONTGOMERY; RUNGER, 2016).

3 GRÁFICOS DE CONTROLE
Segundo Moore (2011, p. 38) “gráficos de controle são ferramentas
estatísticas que monitoram um processo e nos alertam quando o processo foi
perturbado e está fora de controle”. Isto posto, pode-se inferir que as representações
gráficas nos indicam se o processo em análise está dentro do nível aceitável ou
não de variabilidade.

Os gráficos de controle podem também auxiliar para estimação de


parâmetros de processos, inclusive determinando sua capacidade e possibilidade
148
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

de melhorias, bem como o monitoramento dos indicadores de qualidade


(MONTGOMERY; RUNGER, 2016). Segundo Ribeiro e Caten (2012):

O emprego correto das cartas de controle: a) permite que o


monitoramento do processo seja executado pelos próprios operadores,
b) fornece uma distinção clara entre causas comuns e causas
especiais, servindo de guia para ações locais ou gerenciais, c) fornece
uma linguagem comum para discutir o desempenho do processo,
possibilitando a alocação ótima dos investimentos em melhoria da
qualidade e d) auxilia o processo a atingir alta qualidade, baixo custo
unitário, consistência e previsibilidade (RIBEIRO; CATEN, 2012, p. 18).

Os gráficos de controle podem ser classificados em gráficos para variáveis,


quando descrevem um parâmetro de interesse com uma medida central e uma
medida de variabilidade ou gráficos para atributos, quando as medidas são
julgadas como “conforme” ou “não conforme”, sendo baseados na amplitude ou
desvio padrão das amostras (MONTGOMERY; RUNGER, 2016).

Em suma, os gráficos de controle para variáveis são aplicados a dados que


seguem uma distribuição contínua. Já os gráficos de controle para atributos são
aplicados a dados que seguem uma distribuição discreta.

Um exemplo típico de gráfico de controle para variáveis é demonstrado


na figura a seguir. Percebe-se que há uma linha central (LC) na qual se espera
que a maior parte dos resultados se encontre próximos, sendo, portanto, o
valor médio da característica de controle. Devido às variabilidades inerentes
a qualquer processo, tem-se um intervalo de aceitação de valores possíveis, os
quais são representados pelo limite superior de controle (LSC) e limite inferior
de controle (LIC). Quando as observações demonstram tendência próxima aos
limites apresentados, deve-se investigar e, em caso de comportamento fora dos
limites, ações corretivas são necessárias (MONTGOMERY; RUNGER, 2016).

FIGURA 3 – GRÁFICO TÍPICO DE CONTROLE


Característica da qualidade da amostra

Limite superior de controle

Linha central

Limite inferior de controle

Número da amostra ou tempo


FONTE: Montgomery e Runger (2016, p. 515)

149
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Para montagem de um gráfico de controle, deve haver a coleta de dados


históricos e calcular parâmetros estatísticos que possibilitem a obtenção dos
limites de controle. Um exemplo de aplicação de uma carta de controle para o
diâmetro de amostras é representado na figura a seguir.

FIGURA 4 – CARTA DE CONTROLE PARA O DIÂMETRO DE AMOSTRAS


Diâmetro
Causas
Limite de Especiais
Controle 35.2
Superior
Causas
X
Média Comuns

Limite de
Controle 31.8 Causas
Inferior 23 28 33 38 43 Especiais

Amostra
FONTE: Ribeiro e Caten (2012)

Na Figura 4, percebe-se que todos os eventos ocorridos dentro dos limites


de controle são classificados como causas comuns, ou seja, fatores normais e
inerentes à operação. Aqueles pontos que ultrapassam os limites de controle são
considerados como causas especiais, ou seja, falhas operacionais que devem ser
analisadas e pontualmente melhoradas, visto que demonstra instabilidade no
processo. É natural que, ao iniciar o uso dos gráficos de controle, haja um grande
número de causas especiais e instabilidade do processo, porém, a atuação do
grupo de trabalho minimiza tais fatores e dirigem ações visando à estabilidade.

O primeiro caso a ser estudado são os gráficos de controle de x , gráfico


de controle para as médias. Tendo em vista a importância das cartas de controle
para monitoramento dos dados, o modo de cálculo dos limites de controle deve
ser muito bem projetado. Os valores de LC, LIC e LSC são expressos por um
modelo geral, denominado teorema central do limite, utilizando dados históricos e
calculando a média populacional, μ, sabendo que a média amostral é x , o desvio
padrão populacional, σ, sabendo que o desvio padrão amostral é s, com distribuição
normal e número do tamanho de amostras igual a n. Para tanto, tem-se:

LC  � 

LSC    k
n

LIC    k
n

O valor de k dependerá do nível de confiança que for utilizado (MOORE,


2011). Quando os valores do desvio padrão populacional e da média populacional
não forem conhecidos, estimamos a média amostral por meio da relação
(MONTGOMERY; RUNGER, 2016):

150
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

1 m
  x   Xi
^
m i 1

Considerando m amostras disponíveis, cada uma com tamanho n.


Tipicamente, utiliza-se k=3, porém, outros valores podem também serem
aplicados como mostra a figura a seguir.

FIGURA 5 – DISTRIBUIÇÃO DAS MÉDIAS AMOSTRAIS

99,7% de todos os x
estão no intervalo ± 3σ x
95,5% de todos os x
estão no intervalo ± 2σ x

-3σ x -2σ x -1σ x µx = µ +1σ x +2σ x +3σ x

(média)
x
Erro padrão = x 
n
FONTE: Render et al. (2010, p. 730)

A Figura 5 mostra as populações e distribuição amostral do tipo normal


de amostras aleatórias que demonstram que ao utilizar k=3, tem-se ± 3 σ, e 99,74%
das vezes as médias amostrais estão dentro do intervalo de três desvios padrões
para mais ou para menos em torno da média populacional. Para k=2, tem-se ± 2 σ,
e 95,44% das vezes as médias amostrais estão dentro do intervalo de dois desvios
padrões para mais ou para menos em torno da média populacional. Para k=1,
tem-se ± 1 σ, e 68,26% das vezes as médias amostrais estão dentro do intervalo
de um desvio padrão para mais ou para menos em torno da média populacional
(RENDER et al., 2010). Logo em seguida veremos um exemplo de aplicação e
montagem de um gráfico de controle.

EXEMPLO 1 (Adaptado de MOORE, 2011)

Um fabricante de monitores de computador deve controlar a tensão na


malha de fios finos verticais que se encontram atrás da superfície da tela. Tensão
excessiva irá romper a malha e tensão de menos irá permitir rugas. A tensão é
medida por um aparelho elétrico com leituras de saídas em milivolts. O operador
mede a tensão numa amostra de 4 monitores a cada hora, sendo demonstradas
as últimas 20 amostras na figura a seguir. Vale apontar que a tensão média do
processo é de 275 mV e o desvio padrão do processo de 43 mV.

151
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

TABELA 1 – VINTE AMOSTRAS PARA O GRÁFICO DE CONTROLE DA TENSÃO


NA MALHA (MILIVOLTS)

MÉDIA
AMOSTRA MEDIDAS DE TENSÃO DESVIO-PADRÃO
AMOSTRAL

1 234,5 272,3 234,5 272,3 253,4 21,8

2 311,1 305,8 238,5 286,2 285,4 33,0

3 247,1 205,3 252,6 316,1 255,3 45,7

4 215,4 296,8 274,2 256,8 260,8 34,4

5 327,9 247,2 283,3 232,6 272,7 42,5

6 304,3 236,3 201,8 238,5 245,2 42,8

7 268,9 276,2 275,6 240,2 265,2 17,0

8 282,1 247,7 259,8 272,8 265,6 15,0

9 260,8 259,9 247,9 345,3 278,5 44,9

10 329,3 231,8 307,2 273,4 285,4 42,5

11 266,4 249,7 231,5 265,2 253,2 16,3

12 168,8 330,9 333,6 318,3 287,9 79,7

13 349,9 334,2 292,3 301,5 319,5 27,1

14 235,2 283,1 245,9 263,1 256,8 21,0

15 257,3 218,4 296,2 275,2 261,8 33,0

16 235,1 252,7 300,6 297,6 271,5 32,7

17 286,3 293,8 236,2 275,3 272,9 25,6

18 328,1 272,6 329,7 260,1 297,6 36,5

19 316,4 287,4 373,0 286,0 315,7 40,7

20 296,8 350,5 280,6 259,6 296,9 38,8

FONTE: Moore (2011, p. 40)

Para construção do gráfico de controle, inicialmente representa-se a


média amostral por número da amostra em um sistema cartesiano, ou seja, plotar
um gráfico de média amostral por número de amostras com base nos valores
representados na figura do exemplo.

152
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Considerando como limite de controle 3-sigma, ou seja, 99,7% de certeza,


a linha central está em μ=275 mV, tensão média do processo, os limites inferior e
superior de controle tendo o desvio padrão igual a 43 mV, tamanho das amostras
igual a 4 (medidas de tensão por hora) serão dados por:


LSC=   k  275  64, 5  339, 5mV
n
 43
LIC=   k  275  3  275  64, 5  210, 5mV
n 4

FIGURA 6 – GRÁFICO DA MÉDIA AMOSTRAL PARA OS DADOS DE TENSÃO NA MALHA


400

350 LSC
Média amostral

300

250

LIC

200

150

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Número da amostra
FONTE: Moore (2011, p. 41)

Com o gráfico final demonstrado, percebe-se que não há nenhum ponto fora
dos limites de controle, não foram detectadas perturbações grandes no processo.

A análise posterior à montagem do gráfico de controle é imprescindível


para bom uso dele, visto que o reconhecimento dos padrões dos comportamentos,
mesmo que dentro dos limites de aceitação, levam ao entendimento do processo
de maneira integral.

A figura a seguir demonstra alguns aspectos dos gráficos que são


indicativos para a investigação de possíveis causas de problemas nos processos
estudados, visto que apresentam pontos dentro dos limites aceitáveis, porém
sistematicamente com tendências de desajustes.

153
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

FIGURA 7 – PADRÕES NOS GRÁFICOS DE CONTROLE

Limite superior de
controle

Ativo

Limite inferior de
controle

Comportamento normal. Um ponto fora acima. Um ponto fora abaixo.


Investigar a causa. Investigar a causa.
Limite superior de
controle

Ativo

Limite inferior de
controle
Dois pontos próximos Dois pontos próximos Sequência de cinco pontos
do limite superior. do limite inferior. acima da linha central.
Investigar a causa. Investigar a causa. Investigar a causa.

Limite superior de
controle

Ativo

Limite inferior de
controle
Sequência de cinco pontos Tendência nas duas Comportamento
abaixo da linha central. direções de cinco errático. Investigar.
Investigar a causa. pontos. Investigar a
causa da mudança
progressiva.
FONTE: Render et al. (2010, p. 728)

Outra maneira de uso dos gráficos de controle pode ser aplicada quando
tanto o valor médio da característica de interesse como sua variabilidade são
monitorados.

O controle da qualidade média é exercido pelo gráfico de controle


para médias, geralmente chamado de gráfico X . A variabilidade do
processo pode ser controlada pelo gráfico da amplitude (gráfico R)
ou pelo gráfico do desvio padrão (gráfico S), dependendo de como
o desvio padrão da população seja estimado MONTGOMERY;
RUNGER, 2016, p. 519).

Estudando o gráfico de S, estimador do desvio padrão amostral s, com


uso de k=3, ou seja, três sigmas, mantemos a ideia geral de cálculo dos limites de
controle, porém com adaptações (MONTGOMERY; RUNGER, 2016).

154
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Para construção da representação gráfica, calcula-se o desvio padrão


de cada subgrupo. A média de s será dada por uma constante, c4, multiplicada
pelo desvio padrão do processo, denotando o valor da linha central. O valor da
constante é dependente do tamanho das amostras, conforme demonstrado pela
Tabela 1. Percebe-se que para amostras grandes está próxima de 1 (MOORE, 2011).

Novamente, para o cálculo dos limites de controle e construção da


representação gráfica, tem-se que:

LC=c 4 =s
s
LSC  c4  3 1  c42  s  3 1  c42
c4
s
LIC  c4  3 1  c42  s  3 1  c42
c4

QUADRO 2 – CONSTANTES UTILIZADAS PARA GRÁFICOS DE CONTROLE S


n c4
2 0,7979
3 0,8862
4 0,9213
5 0,9400
6 0,9515
7 0,9594
8 0,9650
9 0,9693
10 0,9727
11 0,9754
12 0,9776
13 0,9794
14 0,9810
15 0,9823
16 0,9835
17 0,9845
18 0,9854
19 0,9862
20 0,9869
21 0,9876
22 0,9882
23 0,9887
24 0,9892
25 0,9896
FONTE: Adaptado de Montgomery e Runger (2016, p. 594)

155
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Conforme exposto, as constantes são dependentes do tamanho amostral,


n. Novamente, para estimar o desvio padrão, usa-se a seguinte relação
(MONTGOMERY; RUNGER, 2016):

1 m
s  si
m i 1

Considerando m amostras disponíveis, cada uma com tamanho n.


Um ponto a ser examinado é a tendência do processo, visto que ao manter as
observações próximas do limite central por períodos prolongados pode ser um
indicativo de uma possibilidade de melhoria, reduzindo ainda mais os limites
de controle e, assim, tendo um processo com uma menor amplitude de variação.

A amplitude de variação avalia a variabilidade do processo, ou seja, sua


dispersão. A amplitude de uma amostra corresponde a diferença entre a maior e
a menor observação. Neste caso, tem-se o gráfico de X e R (MOORE, 2011).

Para estabelecer os limites do gráfico de R, tem-se que estimar o desvio


padrão da amplitude e a amplitude média da amostra, r . Desse modo, os limites
central, inferior e superior para o gráfico de controle R podem ser dados por:

LC = r
LSC = D4 r
LIC = D3 r

Os valores das constantes D4 e D3 são apresentados no Quadro 3.

QUADRO 3 – FATORES PARA CONSTRUÇÃO DO GRÁFICO DE CONTROLE R PARA VARIÁVEIS

n D3 D4
2 0 3,267
3 0 2,575
4 0 2,282
5 0 2,115
6 0 2,004
7 0,076 1,924
8 0,136 1,864
9 0,184 1,816
10 0,223 1,777
11 0,256 1,744

156
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

12 0,284 1,716
13 0,308 1,692
14 0,329 1,671
15 0,348 1,652
16 0,364 1,636
17 0,379 1,621
18 0,392 1,608
19 0,404 1,596
20 0,414 1,586
21 0,425 1,575
22 0,434 1,566
23 0,443 1,557
24 0,452 1,548
25 0,459 1,541

FONTE: Adaptado de Montgomery e Runger (2016, p. 594)

Com base nos valores das constantes apresentados, percebe-se que o limite
inferior de controle pode ser um número negativo ao ser calculado, porém, é
costumeiro mantê-lo igual a zero quando tal fato ocorre, visto que não há valores
negativos plotados no gráfico R (MONTGOMERY; RUNGER, 2016).

É possível também estimar os valores do desvio padrão e do gráfico de


controle da média a partir do gráfico de controle das amplitudes. Isto reduz a
necessidade de coleta de diversos dados que muitas vezes são de difícil acesso.
Para realizar a estimativa do gráfico de controle das médias por meio do gráfico
de controle das amplitudes temos que:

R
^ =
d2
LC=x
LSC  x  A2 r
LIC  x  A2 r

Em que A2 e d2 são constantes demonstradas no quadro a seguir, R um


estimador do desvio padrão da distribuição, a média amostral é x e a amplitude
média amostral r .

157
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

QUADRO 4 – FATORES PARA CONSTRUÇÃO DO GRÁFICO DE CONTROLE PARA VARIÁVEIS

n A2 d2
2 1,880 1,128
3 1,023 1,693
4 0,729 2,059
5 0,577 2,326
6 0,483 2,534
7 0,419 2,704
8 0,373 2,847
9 0,337 2,970
10 0,308 3,078
11 0,285 3,173
12 0,266 3,258
13 0,249 3,336
14 0,235 3,407
15 0,223 3,472
16 0,212 3,532
17 0,203 3,588
18 0,194 3,640
19 0,187 3,689
20 0,180 3,735
21 0,173 3,778
22 0,167 3,819
23 0,162 3,858
24 0,157 3,895
25 0,153 3,931

FONTE: Adaptado de Montgomery e Runger (2016, p. 594)

Para realizar a estimativa do gráfico de controle das médias por meio do


gráfico de controle do desvio padrão temos:

S
=
c4
LC=x
S
LSC  x  3
c4 n
S
LIC  x  3
c4 n

158
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Em que c4 é uma constante demonstrada na Tabela 1, S um estimador do


desvio padrão da distribuição, a média amostral é x e n o tamanho da amostra.

Um exemplo de aplicação dos gráficos de controle da média, desvio


padrão e amplitude será demonstrado para melhor aprendizado.

EXEMPLO 1 (Adaptado de MONTGOMERY; RUNGER, 2016)

Uma peça componente de um motor de avião a jato é fabricada por


um processo de moldagem. A abertura do rotor nessa moldagem é importante
parâmetro funcional da peça. O quadro a seguir apresenta 20 amostras de cinco
peças cada uma. Os valores dados no quadro foram codificados pelo uso dos três
últimos dígitos da dimensão; isto é, 31,6 deve ser 0,50316 polegada.

QUADRO 5 – DADOS DAS 20 AMOSTRAS DAS 5 PEÇAS E RESULTADO DO CÁLCULO DAS


GRANDEZAS x , S E r

Número
da x1 x2 x3 x4 x5 x r s
amostra
1 33 29 31 32 33 31,6 4 1,67332
2 33 31 35 37 31 33,4 6 2,60768
3 35 37 33 34 36 35,0 4 1,58114
4 30 31 33 34 33 32,2 4 1,64317
5 33 34 35 33 34 33,8 2 0,83666
6 38 37 39 40 38 38,4 3 1,14018
7 30 31 32 34 31 31,6 4 1,51658
8 29 39 38 39 39 36,8 10 4,38178
9 28 33 35 36 43 35,0 15 5,43139
10 38 33 32 35 32 34,0 6 2,54951
11 28 30 28 32 31 29,8 4 1,78885
12 31 35 35 35 34 34,0 4 1,73205
13 27 32 34 35 37 33,0 10 3,80789
14 33 33 35 37 36 34,8 4 1,78885
15 35 37 32 35 39 35,6 7 2,60768
16 33 33 27 31 30 30,8 6 2,48998
17 35 34 34 30 32 33,0 5 2,00000
18 32 33 30 30 33 31,6 3 1,51658
19 25 27 34 27 28 28,2 9 3,42053
20 35 35 36 33 30 33,8 6 2,38747

x =33,32  r =5,8 S =2,345 

FONTE: Adaptado de Montgomery e Runger (2016)

159
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

As grandezas x , S e x aparecem no final do quadro. Para o cálculo do


gráfico R, baseando-se nos dados tabelados para as constantes para n=5, temos que:

LC=r=5,8
LSC=D4 r=  2,115  5,8  =12,27
LIC=D3 r=  0  5,8  =0

Para o cálculo dos limites no gráfico das médias amostrais utilizando o


gráfico de controle das amplitudes, tem-se:

LC  x  33, 32
LSC  x  A2 r  33, 32   0, 577   5, 8   36, 67
LIC  x  A2 r  33, 32   0, 577  5, 8   29, 97

Para o cálculo dos limites no gráfico do desvio padrão amostrais, com a


constante c4 = 0,9400, tem-se:

LC  c4  S  2, 345
S 2, 345
LSC  S  3 1  c42  2, 345  3 1  0, 94002  4, 898
c4 0, 9400
S 2, 345
LIC  S  3 1  c42  2, 345  3 1  0, 94002  0, 208
c4 0, 9400

Os gráficos foram plotados, obtendo como resultado:

GRÁFICO 1 – GRÁFICOS DE CONTROLE PARA ABERTURA DE UM ROTOR


42
40 1
38 1
LSC=36,67
36 x=
Médias

34 33,32

32
LIC=29,97
30
1
28
1
26
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Subgrupo

160
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

16
14
LSC=12,27 1
12
Amplitudes 10
8
a = 5, 80
6
4
2 LIC=0,00
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Subgrupo

6
LSC=4,899 1
5
Desvios-padrão

4
S =2,345
3
2
1 LIC=0,00
0
5 10 15 20
Subgrupo
FONTE: Montgomery e Runger (2016)

Desse modo, percebe-se que algumas amostras demonstram a ocorrência


de causas especiais de falhas, estando acima dos limites de controle, como no
caso da amostra 9 nos gráficos de controle da amplitude e do desvio padrão. No
gráfico de controle das médias um número maior de amostras se apresentara
fora dos limites de controle. Assim, medidas avaliativas e corretivas devem ser
tomadas pelo grupo de trabalho.

Ademais, os gráficos de controle também podem ser aplicados a atributos,


diferentemente dos gráficos vistos acima que correspondem a variáveis. Serão
analisados dois tipos de representações por atributos, os gráficos p e gráficos
u. Neste tipo de exposição, tem-se a verificação da conformidade ou não de
determinado padrão.

Inicialmente trabalharemos com os gráficos p, que representam as


proporções amostrais de um processo versus a ordem de coleta de tais dados.
Podem ser conhecidos também como gráfico de controle da fração defeituosa ou
conforme (MOORE, 2011; MONTGOMERY; RUNGER, 2016).

A proporção de sucesso de um processo pode ser calculada por:

161
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

número total de sucessos em amostras passadas


P=
número totall de indivíduos nessas amostras

Tipicamente, o cálculo da proporção defeituosa é mais comum, sendo,


portanto:

número total de unidades defeituosas em amostras passadass D


P= =
número total de indivíduos nessas amostras n

O valor de P pode ser entendido como uma média, conforme visto acima
relativo a dados históricos. Considera-se D uma variável aleatória binominal com
parâmetro desconhecido p. Como se trata de um gráfico de controle, os limites
central, superior de controle e inferior de controle devem ser calculados para
amostras de tamanho n e possuem como linha central p.

p  1-p 
LSC = p + 3
n
LC = p
p  1-p 
LIC = p - 3
n

Quando o número de amostras defeituosas no processo não é conhecido,


deve-se estimar o valor de p. Sendo m o número de amostras preliminares, cada
uma com tamanho igual a n e Di o número de defeitos da i-ésima amostra, tem-se
a fração defeituosa média dada por:

1 m 1 m
P  i mn 
m i 1
P 
i 1
Di

Em que P é um estimador de p. Desse modo, para o gráfico p, pode-se


relacionar:

p  1-p 
LSC = p + 3
n
LC = p
p  1-p 
LIC = p - 3
n

162
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Com p igual ao valor da fração defeituosa média. Vale apontar que os


cálculos consideram a aproximação de igualdade da distribuição de probabilidade
binominal a normal (MONTGOMERY; RUNGER, 2016).

EXEMPLO 1 (Adaptado de MOORE, 2011)

As faltas não programadas do pessoal do escritório ou dos operários


representam um custo importante para muitas empresas. Pediram a você que
reduzisse o absenteísmo numa unidade de produção em que 12% dos funcionários
estão ausentes em um dia típico de trabalho. O total de funcionário de produção
na fábrica é de 987 colaboradores.

Algumas ações foram tomadas, como treinamento de supervisores e


melhoria das condições de trabalho e foi monitorado o progresso por meio de um
gráfico p da proporção de ausentes.

Analisando dados dos últimos três meses, haviam 64 dias de trabalho


nesses meses e o número total de dias úteis para os funcionários foi de:

(64) (987) = 63168 dias – pessoas

As faltas entre todos os funcionários totalizaram 7580 dias-pessoas. A


proporção média diária de faltas foi:

total de dias de ausência 7580


p= = =0,120
total de dias úteis para trabalhho 63168

Para criação do gráfico de controle p, deve-se calcular os limites de


controle, conforme a seguir.

p 1  p   0,120  0, 880   0,151


LSC  p  3  0,120  3
n 987
LC  0,120
p 1  p   0,120  0, 990   0, 089
LIC  p  3  0,120  3
n 987

Os dados foram coletados nas próximas quatro semanas na empresa e


organizadas na tabela demonstrada neste exemplo.

Proporções de trabalhadores ausentes durante quatro semanas

163
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

TABELA 2 – PROPORÇÕES DE TRABALHADORES AUSENTES DURANTE QUATRO SEMANAS

Seg Ter Qua Qui Sex Seg Ter Qua Qui Sex

Funcionários
129 121 117 109 122 119 103 103 89 105
ausentes

^
Proporção p 0,131 0,123 0,119 0,110 0,124 0,124 0,121 0,104 0,090 0,106

Seg Ter Qua Qui Sex Seg Ter Qua Qui Sex

Funcionários
99 92 83 92 92 115 101 106 83 98
ausentes

^
Proporção p 0,100 0,093 0,084 0,093 0,093 0,117 0,102 0,107 0,084 0,099

FONTE: Moore (2011)

Posteriormente, foi montado o gráfico de controle p.

GRÁFICO 2 – GRÁFICO P PARA PROPORÇÃO DIÁRIA DE FUNCIONÁRIOS AUSENTES AO


LONGO DE UM PERÍODO DE QUATRO SEMANAS
0,18

0,16
LSC
Proporção de ausentes

0,14

0,12 X
X
X
0,10 X
LIC X

0,08 X X

0,06
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Dia
FONTE: Moore (2011)

164
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Percebe-se que as ações tomadas foram efetivas, visto que a tendência do


gráfico é de manter os dados abaixo da linha central e mais próximo do limite
inferior de controle. Os pontos marcados com x demonstram ocorrência de
causas especiais. No exemplo dado, o gráfico p é gerado visando controle do
absenteísmo em uma indústria. Idealmente, para este tipo de análise é interessante
adotar gráficos setoriais em uma empresa, objetivando controle mais de perto dos
colaboradores.

Outro tipo de gráfico de controle por atributos que será estudado são os
gráficos u ou seja, representações de monitoramento para defeitos por unidade.
Considerando que cada subgrupo consiste em n unidades em um total de C
defeitos no subgrupo, tem-se que (MONTGOMERY; RUNGER, 2016):

C
U=
n

Para o cálculo dos limites de controle no gráfico U, as relações são dadas por:

u
LSC  u  3
n
LC  u
u
LIC  u  3
n

Em que Ū é o número médio de defeitos por unidade. Por tratar-se de


valores em geral pequenos, pode haver a ocorrência de frações numéricas, o que
é comumente evitado utilizando um gráfico de controle do tipo C, no qual tem-
se o total de defeitos em uma amostra, não mais sendo calculado por unidade
(MONTGOMERY; RUNGER, 2016).

4 CAPACIDADE DE PROCESSO
Uma importante análise é necessária neste ponto do trabalho, da
capacidade de um processo, ou seja, a investigação se o processo escolhido tem
possibilidade de cumprir com a demanda e exigência fixadas. A capacidade não
está vinculada ao controle do processo, porém se o controle não for efetivo a
verificação da capacidade dele é prejudicada (MOORE, 2011).

Para estimação da capacidade, é comum o uso de gráficos de tolerância


ou gráfico de amarração e histogramas. No gráfico de tolerância medidas de
um mesmo subgrupo dos dados são conectadas com linhas, auxiliando para
verificação de padrões de comportamento ao longo do tempo nas medidas
individuais ou médias amostrais (MONTGOMERY; RUNGER, 2016).

165
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Outro modo de expressar a razão da capacidade de um processo (RCP) se


dá por meio numérico, sendo dado por:

LSE  LIE
RCP  C p 
6

O denominador da razão é dado pela largura das especificações, sendo


igual aos limites de ambos os lados da média de um processo em uma distribuição
normal. Os limites LSE e LIE correspondem ao limite superior de especificação e
limite inferior de especificação, respectivamente. Desse modo, tem-se a tolerância
especificada no numerador e a tolerância natural do processo no denominador.
A análise do resultado nos propõe que quanto maior for o valor de CP, maior
será a capacidade do processo em satisfazer às especificações, enquanto a
média for centrada. Habitualmente, o valor mínimo exigido para CP é de 1,33
(MONTGOMERY; RUNGER, 2016; WERKEMA, 1995).

Note que quando o denominador é maior que o numerador, tem-se RCP <
1 e há uma grande quantidade de unidades não conformes produzidas. Da mesma
maneira, quando o denominador é menor que o numerador, tem-se RCP > 1 e há
uma pequena quantidade de itens não conformes. Por último, quando RCP =1 há
indicativo que o processo ainda precisa melhorar. A figura a seguir demonstra
graficamente os diferentes tipos de representação dos processos citados.

FIGURA 8 – FRAÇÃO NÃO CONFORME DO PROCESSO E RAZÃO DA CAPACIDADE DE PROCESSO

RGP > 1

LIE µ LSE
3σ 3σ
(a)

RGP = 1

Unidades não Unidades não


conformes conformes
µ
3σ 3σ
LIE LSE
(b)

RGP < 1

Unidades não Unidades não


conformes conformes
LIE µ LSE
3σ 3σ
(c)
FONTE: Montgomery e Runger (2016, p. 532)

166
TÓPICO 2 | CONTROLE ESTATÍSTICO DO PROCESSO

Outra importante informação destacada na figura anterior é a porcentagem


da faixa de especificação utilizada pelo processo (P), a qual é dada por:

1
P= *100
Cp

O resultado de P indica a percentagem da largura das especificações


usadas pelo processo. É imprescindível destacar que os cálculos supõem uma
distribuição normal, com média centrada entre os limites de especificação, ou
seja, indicam a capacidade potencial quando o processo estiver centralizado.
Caso seja necessário calcular a capacidade real, tem-se o RCOK. Trata-se de uma
razão unilateral de capacidade que é calculada com base no limite mais próximo
da média do processo (MONTGOMERY; RUNGER, 2016).

 LSE     LIE 
RCPK  C pK  min  ,
 3 3 

Em que μ é a média do processo e σ o desvio padrão. Quando o processo


estiver centralizado, o valor de RCP será igual ao RCPK.. Analogamente para RCP,
pode-se calcular a porcentagem da faixa de especificação (P) acima do limite superior
de especificação ou abaixo do limite inferior de especificação, sendo dadas por:

 LIE   
P  X  LIE   P  Z  
  
 LSE   
P  X  LSE   P  Z  
  

Em que X é o resultado de um processo normalmente distribuído e sob


controle e Z fator da distribuição de probabilidade normal. A resposta de P indica
a fração das observações não conforme com relação às especificações de controle.

Conforme Montgomery e Runger (2016, p. 534), “uma razão de capacidade de


processo indica se a variabilidade natural ou casual em um processo é ou não aceitável
em relação às especificações”. O índice de capacidade é um parâmetro estatístico
sendo possível, portanto, calcular o intervalo de confiança e estimar seu erro.

Uma aplicação de cálculo da razão de capacidade será demonstrada no


exemplo a seguir.

167
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

EXEMPLO 1 (Adaptado de MONTGOMERY; RUNGER, 2016)

Para um processo eletrônico de fabricação, uma corrente tem


especificações de 100 ± 10 miliampères. A média e o desvio padrão do processo
são 107,0 e 1,5, respectivamente. A média do processo está mais perto de LSE.
Calcule as razões de capacidade.

LSE  LIE 110  90


RCP    2, 22
6 6 1, 5 
 LSE    110  107 
RCPK      0, 67
 3   3 1, 5  

Devido ao baixo valor de RCPK , há um indicativo que o processo está


propenso a produzir corrente fora dos limites de especificação. Utilizando uma
tabela para distribuição normal de probabilidade, é possível calcular as frações
de saída.

 LIE     90  107 
P ( X  LIE )  P  Z    PZ   P  Z  11, 33  0
    1, 5 
 LSE     110  107 
P  X  LSE   P  Z    PZ   P  Z  2   0, 023
    1, 5 

Como a probabilidade de ocorrências de pontos abaixo do limite inferior


de especificação é igual a zero, haverá erros no processo acima do limite superior
de especificação. Idealmente, a média do processo deveria ser centrada nas
especificações em 100 miliampères.

Um processo referido como 6-sigma, metodologia que trabalharemos


ainda nesta unidade, possui RCPK=RCP=2,0 para uma distribuição normal e
centralizada, sendo, portanto, um fator de controle em experimentos e processos
(MONTGOMERY; RUNGER, 2016).

168
RESUMO DO TÓPICO 2

Neste tópico, você aprendeu que:

• O controle estatístico de processo utiliza diversas técnicas estatísticas aplicadas


à produção visando redução sistemática da variabilidade nas características de
qualidade de interesse.

• Os gráficos de controle podem também auxiliar para estimação de parâmetros


de processos, inclusive determinando sua capacidade e possibilidade de
melhorias, bem como o monitoramento dos indicadores de qualidade.

• Nos gráficos de controle há uma linha central (LC) que representa o valor
médio da característica de controle e os valores dos intervalos de aceitação, os
quais são representados pelo limite superior de controle (LSC) e limite inferior
de controle (LIC).

• Quando as observações em um gráfico de controle demonstram tendência


próxima aos limites de aceitação, deve-se investigar e, em caso de
comportamento fora dos limites ações corretivas são necessárias.

• Os gráficos de controle mais comuns para variáveis são representações com


uso das médias, amplitudes, desvio padrão. Já os gráficos de controle para
atributos usualmente aplicados são as representações de proporções amostrais
ou de monitoramento de defeitos por unidade ou processo.

• A capacidade de um processo indica se a variabilidade natural ou casual das


observações é ou não aceitável em relação às especificações.

169
AUTOATIVIDADE

1 (MONTGOMERY; RUNGER, 2016, p. 525). A espessura de uma peça


metálica é um importante parâmetro da qualidade. Dados sobre a espessura
(em polegadas) são dados na tabela a seguir, para 25 amostras de cinco
peças cada uma.

Núm.
x1 x2 x3 x4 x5
Amostra
1 0,0629 0,0636 0,064 0,0635 0,064
2 0,063 0,0631 0,0622 0,0625 0,0627
3 0,0628 0,0631 0,0633 0,0633 0,063
4 0,0634 0,063 0,0631 0,0632 0,0633
5 0,0619 0,0628 0,063 0,0619 0,0625
6 0,0613 0,0629 0,0634 0,0625 0,0628
7 0,063 0,0639 0,0625 0,0629 0,0627
8 0,0628 0,0627 0,0622 0,0625 0,0627
9 0,0623 0,0626 0,0633 0,063 0,0624
10 0,0631 0,0631 0,0633 0,0631 0,063
11 0,0635 0,063 0,0638 0,0635 0,0633
12 0,0623 0,063 0,063 0,0627 0,0629
13 0,0635 0,0631 0,063 0,063 0,063
14 0,0645 0,064 0,0631 0,064 0,0642
15 0,0619 0,0644 0,0632 0,0622 0,0635
16 0,0631 0,0627 0,063 0,0628 0,0629
17 0,0616 0,0623 0,0631 0,062 0,0625
18 0,063 0,063 0,0626 0,0629 0,0628
19 0,0636 0,0631 0,0629 0,0635 0,0634
20 0,064 0,0635 0,0629 0,0635 0,0634
21 0,0628 0,0625 0,0616 0,062 0,0623
22 0,0615 0,0625 0,0619 0,0619 0,0622
23 0,063 0,0632 0,063 0,0631 0,063
24 0,0635 0,0629 0,0635 0,0631 0,0633
25 0,0623 0,0629 0,063 0,0626 0,0628

170
a) Usando todos os dados, encontre os limites de controle iniciais para os
gráficos X e R, construa o gráfico e plote os dados. O processo está sob
controle estatístico?
b) Use os limites de controle iniciais do item (a) para identificar pontos fora de
controle. Se necessário, reveja os limites de controle calculados no item (a),
considerando que qualquer amostra fora dos limites de controle poderá ser
eliminada.

2 (MONTGOMERY; RUNGER, 2016, p. 534). Suponha que a característica de


qualidade seja normalmente distribuída, com especificações em 100 ±20. O
desvio padrão do processo é 6.

Suponha que a média do processo seja 106. Calcule RCP e RCPK e interprete as
razões.

171
172
UNIDADE 3
TÓPICO 3

ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

1 INTRODUÇÃO
Neste tópico serão abordados o gerenciamento de riscos e a análise de
falhas relativas à gestão de um experimento ou processo.

Consoante ao que foi discutido no tópico anterior, os gráficos de controle


são ferramentas imprescindíveis para a indicação das tendências e monitoramento
dos processos, porém, o uso único de tal recurso reduz consideravelmente a eficácia
e efetividade nas ações. Por isso, para controle de processos e solucionamento de
problemas são usadas diversas outras técnicas conjuntas visando gerenciar riscos
e falhas, além de monitorar e otimizar os processos e modelos.

Neste contexto, estudaremos alguns mecanismos e ferramentas para gerir


de modo mais completo e sistêmico um experimento.

2 GERENCIAMENTO DE RISCOS
Todo e qualquer experimento possui um nível de incerteza quanto ao
resultado atingido. Desse modo, é inerente ao desenvolvimento um grau de risco que
deve ser estimado e gerido visando ao controle e minimização dos impactos destes
nos resultados. De modo generalista, podemos definir risco da seguinte maneira:

Um risco é um evento incerto que, se ocorrer, pode comprometer


a realização do objetivo do projeto. Identificação de riscos inclui
determinar quais riscos podem afetar adversamente o objetivo do
projeto e qual pode ser o impacto de cada risco, caso ocorra (GIDO;
CLEMENTES; BAKER, 2018).

Uma das maneiras de gerenciar os eventos incertos é por meio do uso de


ferramentas de qualidade. Vale apontar que a gestão de riscos envolve não apenas
a identificação como também a avaliação e respostas aos riscos detectados. Dentre
estes métodos possíveis, os mais comuns de serem aplicados são o Diagrama
de causa e efeito e o Brainstorming, dentre outras técnicas, almejando alcançar
excelência de qualidade (GIDO; CLEMENTES; BAKER, 2018; MONTGOMERY;
RUNGER, 2016).

173
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

O brainstorming é uma discussão realizada entre envolvidos em um


processo para elencar ideias espontaneamente com objetivo de obter a solução de
um problema em uma operação/experimento. Neste momento, a quantidade de
ideias dadas é fator preponderante à qualidade ou aderência da solução sugerida.
Com base nessa lista de variáveis, o diagrama de causa e efeito é construído. O
diagrama demonstra por meio de um resumo organizado as principais causas de
alteração dos fatores envolvidos no processo e visa obter a causa raiz do problema
(GIDO; CLEMENTES; BAKER, 2018; MONTGOMERY; RUNGER, 2016).

A figura a seguir demonstra um exemplo de um diagrama de causa e


efeito, também denominado Diagrama de Espinha de Peixe ou diagrama de
Ishikawa geral, sem aplicação específica visando demonstrar como montar um
diagrama e quais os parâmetros segmentados se unem em torno da característica
de qualidade almejada, o efeito.

FIGURA 9 – DIAGRAMA DE CAUSA E EFEITO

Fluxo de
processo Produto

Parâmetros do Característica
processo da qualidade

Mão de obra Método Matéria prima

Causas Efeito

Máquina Medição Meio ambiente

FONTE: Ribeiro e Caten (2012)

Utilizando o mesmo princípio, a Figura 9 foi montada com o diagrama de


causa e efeito aplicado a um processo de soldagem industrial com defeitos. Neste
caso, procura-se obter as possíveis causas da ocorrência de defeitos no processo
de fabricação.
174
TÓPICO 3 | ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

FIGURA 10 – DIAGRAMA DE CAUSA E EFEITO APLICADO À SOLDAGEM


Máquina Soldagem Fluxo

Remoção do Pressão do rolo Temperatura Quantidade


estêncil
Velocidade do rolo Altura da pasta Densidade relativa
Manutenção
Ângulo do rolo Densidade Tipo

Defeitos de
soldagem
Alinhamento
da palheta Orientação
Soldabilidade
Temperatura
Carregamento
da palheta Solda contaminada

Operador Componentes Refluxo

FONTE: Montgomery e Runger (2016)

No diagrama, as ideias são organizadas separadas em categorias e as


soluções potenciais para o problema relacionadas a cada categoria são alinhadas
próximas à seção correspondente, sendo o problema pesquisado disposto à
direita no diagrama. Neste ponto as ideias são discutidas e realiza-se uma análise
crítica para montagem final do diagrama. Outro modo de gerenciar riscos em
um sistema pode ser feito por meio da análise de dados históricos das potenciais
fontes de riscos e avaliação dos eventuais problemas atuais do processo (GIDO;
CLEMENTES; BAKER, 2018).

Posteriormente, o impacto desta incerteza prevista deve ser avaliado,


determinando a probabilidade de ocorrência e classificação da influência do
fator. Uma maneira de organizar os dados obtidos pode ser feita por meio
da matriz de avaliação de riscos, que contém o risco previsto, seu impacto no
resultado, a probabilidade de ocorrência, sendo classificada em baixa, média ou
alta, por exemplo, o grau de impacto, também categorizado da mesma forma,
o responsável por uma ação preventiva e o plano de resposta proposto para
minimizar ou extinguir tal risco. O plano de resposta pode ser entendido como
um plano de ação que visa programar intervenções para evitar a ocorrência do
evento (GIDO; CLEMENTES; BAKER, 2018).

O monitoramento dos riscos envolve a implementação dos planos de


resposta e a revisão regular da matriz de monitoramento dos riscos visando
identificar novos considerações e propostas de melhorias continuamente.

Isto posto, percebe-se que para o controle e gerenciamento de um


processo é necessário não apenas com uso de uma ferramenta, mas de uma visão
global e sistêmica para eficiência e sucesso almejados. Assim, a otimização de
processos visando gerenciar riscos é uma técnica amplamente aplicada para
experimentos. A otimização objetiva determinar o conjunto de condições de
operação que irão gerar o melhor desempenho no processo estudado. Para tanto,
algumas metodologias principais serão trabalhadas: a metodologia de superfície
de resposta e a operação evolutiva (MONTGOMERY, 2017).

175
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

3 METODOLOGIA DE SUPERFÍCIE DE RESPOSTA


A metodologia de superfície de resposta (MSR) objetiva otimizar uma
resposta influenciada por diversos fatores. Trata-se de uma técnica sequencial
para obter o ponto mais próximo possível do ideal. Para a execução de sistemática,
é necessário o uso de softwares estatísticos (MONTGOMERY, 2017).

Suponha que em um experimento os fatores temperatura e tempo de


reação sejam elementos cruciais para a determinação da máxima produção no
processo. Desse modo, pode-se prever as relações por meio da função dada
a seguir, sendo a temperatura da reação (x1) e o tempo de reação (x2) visando
maximização da produção (y).

y  f  x1 , x2   E

Em que o erro ou resíduo observado na reposta y é dado por ε. A


superfície de resposta é representada numericamente pela função do valor
esperado de resposta E(y), denotado abaixo, e pode ser vista graficamente de
modo tridimensional e num gráfico de contorno, que traça as linhas de resposta
para obtenção da resposta ótima para o experimento, conforme a figura a seguir
(MONTGOMERY, 2017).

E  y   f  x1 , x2 

FIGURA 11 – SUPERFÍCIE DE RESPOSTA TRIDIMENSIONAL E GRÁFICO DE CONTORNO


DA SUPERFÍCIE DE RESPOSTA
35
Tempo de reação, minutos
Produção esperada, E(y)

100 30
90 90 85
25
80
70 20
Condições corretas
60 35 tos 80
50 30
m inu 15 de operação
75
25 o,
40 20
100 110 15 eaçã 10 45 50 55 60 65 70
120 130 140 150
10 er 100 110 120 130 140 150
p od
Temperatura °C m Temperatura °C
Te
FONTE: Montgomery (2017, p. 445)

As representações gráficas partem de um modelo matemático mais robusto,


no qual a variável dependente se relaciona com as variáveis independentes numa
aproximação por meio de um modelo que pode ser de primeira ordem ou não. Os
modelos de primeira ordem indicam uma função linear entre as variáveis, sendo
representado por:

y   0  1 x1   2 x2  ... k xk  

176
TÓPICO 3 | ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

Perceba que a equação gerada e os fatores, bem como seus coeficientes


são resultado de uma análise do experimento, como exemplo por meio do uso da
ANOVA. Vale apontar que geralmente em experimentos a operação é realizada
em regiões afastadas do ponto ótimo, devido a diversos fatores práticos, dentre
eles custo e tempo de operação. Por conta disto, o uso do modelo de primeira
ordem é uma aproximação relativamente adequada para obtenção da melhor
superfície de trabalho (MONTGOMERY, 2017).

O método da inclinação máxima ascendente é uma maneira gráfica de


obter a região de resposta ótima. Assim, representa-se os fatores x1 e x2 na abcissa
e ordenada do sistema cartesiano e estimam-se valores destas variáveis nos
extremos que forem de interesse, ou seja, estima-se um valor máximo e mínimo
para x1, bem como para x2, e as respostas da equação estimada, apresentada a
seguir, obtendo assim um modelo ajustado com uma série de retas paralelas.
Quando se pretende maximização da resposta, a região ideal será aquela que
apresentar maior inclinação da reta e quando se deseja a minimização tem-se a
inclinação máxima descendente (MONTGOMERY, 2017).
k
y^  ^0   ^i xi
i 1

Estabelecendo assim o gráfico da figura a seguir.

FIGURA 12 – SUPERFÍCIE DE RESPOSTA DE PRIMEIRA ORDEM E TRAJETÓRIA DA


INCLINAÇÃO MÁXIMA ASCENDENTE

Trajetória da
inclinação
máxima
ascendente
Região da superfície de
resposta de primeira
ordem ajustada

ŷ = 50

ŷ = 40

ŷ = 30
ŷ = 20
ŷ = 10

FONTE: Montgomery (2017, p. 446)

177
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Desse modo, verifica-se a superfície de resposta ideal para um dado


experimento de acordo com o desejado pelo experimentador. Outros modos
de uso da mesma técnica são comuns, porém trata-se de metodologias mais
avançadas de análise.

4 OPERAÇÃO EVOLUTIVA
O método de operação evolutiva (OPEV) propõe que haja um
monitoramento contínuo da operação com acompanhamento das flutuações
visando obter sempre um melhor desempenho (MONTGOMERY, 2017).

Desse modo, a OPEV é amplamente aplicada em operações de processos.


Utilizando o mesmo exemplo do tópico anterior, suponha que em um processo os
fatores temperatura e tempo de reação sejam elementos cruciais para a determinação
da máxima produção no processo. Assim, a temperatura da reação (x1) e o tempo
de reação (x2) visando maximização da produção (y) foram determinados de modo
que favoreça também as outras características de qualidade utilizando a técnica
MSR, por exemplo. Para monitoramento do processo, a operação evolutiva será
aplicada utilizando os princípios do planejamento de experimentos. Inicialmente,
deve-se atribuir a cada variável independente do processo um nível, sendo os
mesmos “baixo” ou “alto”, admitindo que as perturbações devido à modificação
em tais variáveis não alterem significativamente a qualidade do resultado final,
porém passíveis de melhorias. A figura a seguir demonstra os níveis de fatores
nas variáveis independentes exemplificadas (MONTGOMERY, 2017).

FIGURA 13 – COMBINAÇÕES DAS VARIÁVEIS INDEPENDENTES PARA UM


PLANEJAMENTO FATORIAL 22
x2

Alto y5 y3
(5) (3)

(1)

y1

(2) (4)
Baixo
y2 y4

x1
Baixo Alto
FONTE: Montgomery (2017, p. 458)

178
TÓPICO 3 | ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

Os pontos 1, 2, 3, 4 e 5 correspondem à resposta da variável dependente,


y1, y2, y3, y4, y5, respectivamente. Montgomery (2017, p. 458) enuncia que “o efeito
principal de um fator se define como a variação média na resposta produzida
por uma variação do nível baixo para o nível alto do fator”. Desse modo, pode-
se avaliar o efeito da interação entre fatores e o efeito de cada fator por meio da
diferença média entre as respostas no lado direito e esquerdo do planejamento
para a variável independente x1 e a diferença média nas respostas na parte
superior e da base para a variável independente x2, ou matematicamente:

1
Efeito x1   y3  y4    y2  y5  
2
1
Efeito x2   y3  y5    y2  y4  
2
1
Efeito x1x2   y2  y3  y4  y5 
2

Vale apontar que a interação ocorre se a mudança do nível baixo para alto
em x1 produzir efeito nos dois níveis de x2.

Devem-se realizar vários ciclos para análise das condições da variável resposta
y e quando se obtém uma situação melhor, tem-se completado uma fase OPEV.

5 ANÁLISE DE FALHAS
A análise de falhas pode ser realizada por meio da verificação de adequação
do modelo, ou seja, análise dos resíduos ou modelos de regressão obtidos ao
realizar um experimento, conforme já foi superficialmente demonstrado na
Unidade 2 deste livro.

Algumas suposições para aplicação de um modelo de regressão devem


ser verificadas para melhor adequação do emprego de tal técnica. Desse modo,
pode-se enumerar:

1. O relacionamento entre y e x é linear, ou ao menos bem aproximado


por uma linha reta na região considerada no estudo.
2. O erro ε tem média zero.
3. O erro ε tem variância constante σ2.
4. Os erros não são correlacionados.
5. O erro ε tem distribuição normal.
Para a estimação dos parâmetros do modelo de regressão é
necessário que as condições 2, 3 e 4 sejam válidas. Para construir
testes de hipóteses e intervalos de confiança é preciso que a condição
5 também seja satisfeita. Além disto, é assumido que a ordem do
modelo está correta, isto é, se é ajustado um modelo de primeira
ordem, está implícito que o fenômeno realmente se comporta desta
maneira (suposição 1). Usualmente não são detectados desvios das
suposições associadas ao modelo por meio do exame de estatísticas
padrão de sumarização de dados, como, por exemplo, as estatísticas
t ou F ou o coeficiente R2 (WERKEMA; AGUIAR, 1996, p. 48).

179
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Um resíduo pode ser definido como valores que integram o erro


apresentado em um modelo, sendo, portanto, a variação entre uma observação
(yi) e o valor correspondente estimado (ŷi) num modelo de regressão (WERKEMA;
AGUIAR, 1996).

ei = yi- ŷi ,i = 1,2,...,n

Há diversos modos de representar graficamente os resíduos, sendo os


principais estudados neste tópico. A primeira forma que será apresentada são
gráficos de resíduos (ei) contra valores ajustados (ŷi), empregado para detecção
da relação de linearidade da equação de regressão, análise se a variância do erro
é constante e da possível presença de pontos extremos (outliers), ou seja, afastados
da maioria dos outros na região de estudo. Os exemplos típicos de variações nos
padrões das representações gráficas podem ser vistos na figura a seguir.

FIGURA 14 – PADRÕES DE GRÁFICOS DE RESÍDUOS CONTRA VALORES AJUSTADOS

ei ei ei ei
0 0 0 0

ŷi ŷi ŷi ŷi
(a) (b) (c) (d)
FONTE: Werkema e Aguiar (1996, p. 51)

Na parte (a) da Figura 14, existem os resíduos centrados aproximadamente


em torno de zero, ou seja, é a situação ideal do modelo linear e suas suposições
associadas a ele. Na parte (b) tem-se uma forma de sino indicando que a variância do
erro não é constante, sendo neste caso função crescente de y. Já a parte (c) tem uma
forma demonstrando que a variância do erro é maior para valores intermediários
de y, logo a variância do erro não é constante. Na parte (d) há indicativo de ausência
de linearidade no sistema, sendo preciso incluir outras variáveis no modelo ou
transformações na variável resposta (WERKEMA; AGUIAR, 1996).

Quando a variância do erro não é constante empregam-se dois métodos,


o emprego dos mínimos quadrados ponderados para ajuste do modelo ou
transformações na variável resposta (WERKEMA; AGUIAR, 1996).

O gráfico de resíduos contra valores da variável regressora xi tem a mesma


interpretação das representações dos resíduos versus os valores ajustados. Já os
gráficos de resíduos contra o tempo analisam a validade da suposição da existência
ou não da correlação entre os erros. Desse modo, ao verificar a correlação pode
ser que haja, por exemplo, ausência de uma variável importante. Quando há
correlação entre os erros, denomina-se autocorrelação, com exemplos deste fato
apresentados na figura a seguir (WERKEMA; AGUIAR, 1996).
180
TÓPICO 3 | ANÁLISE DE FALHAS E GERENCIAMENTO DE RISCOS

FIGURA 15 – GRÁFICO DE RESÍDUOS CONTRA O TEMPO COM PRESENÇA DE


AUTOCORRELAÇÃO

ei ei

0 0

tempo tempo
FONTE: Werkema e Aguiar (1996, p. 56)

Já no gráfico de probabilidade normal para os resíduos analisa-se a


suposição de distribuição normal do modelo. Quando há grandes variações, deve-se
adotar outras técnicas de estimação. Na figura a seguir são apresentadas algumas
configurações gerais do gráfico de probabilidade normal para resíduos sendo a parte
(a) satisfatória, ou seja, relação aproximadamente linear indicando que a suposição é
válida. Na parte (b) e (c) não há validade da suposição (WERKEMA; AGUIAR, 1996).

FIGURA 16 – GRÁFICO DE PROBABILIDADE NORMAL PARA RESÍDUOS


(a)
1
Probabilidade

0,5

0
Resíduos Ordenados
(b) (b)
1 1
Probabilidade

Probabilidade

0,5 0,5

0 0
Resíduos Ordenados Resíduos Ordenados
(c) (c)
1 1
Probabilidade

Probabilidade

0,5 0,5

0 0
Resíduos Ordenados Resíduos Ordenados
FONTE: Werkema e Aguiar (1996, p. 59)

181
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Outro modo de análise da validade do modelo para os gráficos


apresentados se dá por meio do coeficiente de determinação R2, o qual mede “a
proporção da variabilidade presente nas observações da variável resposta y, que é
explicada pela variável regressora x no modelo de regressão ajustado dos dados”
(WERKEMA; AGUIAR, 1996, p. 74).

Desse modo, a magnitude do coeficiente indica a adequação do modelo de


regressão avaliado. Em suma, pode-se resumir a verificação da adequação do modelo
por meio de diversos tipos de gráficos de resíduos, conforme o quadro a seguir.

QUADRO 6 – VERIFICAÇÃO DA ADEQUAÇÃO DO MODELO DE ANÁLISE DE REGRESSÃO –


ANÁLISE DE RESÍDUOS

Resíduos

ei = yi- ŷi ,i = 1,2,...,n

Gráficos Suposições Avaliadas


Resíduos contra valores ajustados ŷi Variância constante
Ou Linearidade da equação de regressão
Resíduos contra valores da variável regressora xi Ausência de observações extremas
Resíduos contra o tempo Ausência de correlação entre erros
Probabilidade normal para os resíduos Normalidade

FONTE: Adaptado de Werkema e Aguiar (1996, p. 61)

Algumas medidas podem ser adotadas quando as suposições avaliadas


não são válidas e tem-se um modelo não satisfatório ao esperado, conforme foi
citado no decorrer do texto.

182
RESUMO DO TÓPICO 3

Neste tópico você aprendeu que:

• O gerenciamento de riscos pode ser realizado por meio do uso de ferramentas


de qualidade, como o Diagrama de causa e efeito e o Brainstorming.

• O brainstorming é uma discussão realizada entre envolvidos em um processo


para elencar ideias espontaneamente com objetivo de obter a solução de um
problema em uma operação/experimento.

• O diagrama de causa e efeito demonstra por meio de um resumo organizado


as principais causas de alteração dos fatores envolvidos num processo e visa
obter a causa raiz de um problema.

• A otimização de processos visando gerenciar riscos é uma técnica amplamente


aplicada para experimentos para evitar falhas. A otimização objetiva determinar
o conjunto de condições de operação que irá gerar o melhor desempenho.

• Para otimização, a metodologia de superfície de resposta (MSR) objetiva


otimizar uma resposta influenciada por diversos fatores. Trata-se de uma
técnica sequencial para obter o ponto mais próximo possível do ideal.

• Para otimização, o método de operação evolutiva (OPEV) propõe que haja um


monitoramento contínuo da operação com acompanhamento das flutuações
visando obter sempre um melhor desempenho.

• A análise de falhas de um modelo de experimento pode ser realizada por meio


de gráficos de resíduos e avaliada a validade das suposições esperadas.

183
AUTOATIVIDADE

1 (FUMARC – 2013 – Analista da Polícia Civil – Estatística). No estudo da


adequação de um modelo de regressão linear simples, foram obtidos os
seguintes gráficos para análise dos resíduos:

DIAGRAMA DE DISPERSÃO GRÁFICO DE RESÍDUOS X VALORES


1600 AJUSTADOS
1400
2
1200

Resíduos
1000
1
800
Y

600 0
400
200 -1
0
-3 -2 -1 0 1 2 -2
x -0,3 -0,2 -0,1 0,0 0,1 0,2 0,3
(i)
(ii) Valores ajustados

GRÁFICO DE RESÍDUOS X TEMPO GRÁFICO DE PROBABILIDADE


2
NORMAL
99,9
99
Resíduos

1 95
Probabilidade

90
80
70
0 60
50
40
-1 30
20
10
5
-2 1
1 5 10 15 20 25 30 35 40 45 50 55 60 65
0,1
Ordem de coleta dos dados -3 -2 -1 0 1 2 3
(iii) Resíduos ordenados
(iv)

Analisando os gráficos, é CORRETO afirmar que o modelo ajustado é


inadequado porque:

a) O gráfico (i) não satisfaz a suposição de que o relacionamento entre Y e X é


linear.
b) O gráfico (ii) não satisfaz a suposição de que os erros não são correlacionados.
c) O gráfico (iii) não satisfaz a suposição de que a variância dos erros é
constante.
d) O gráfico (iv) não satisfaz a suposição de que os erros seguem uma
distribuição normal.

2 Aplicando a técnica de otimização da metodologia de superfície de resposta


(MSR), avalie quando é idealmente utilizado o método da inclinação
máxima ascendente e quando é utilizado o método da inclinação máxima
descendente.

184
UNIDADE 3
TÓPICO 4

APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE


EXPERIMENTOS

1 INTRODUÇÃO
No planejamento de experimentos tem-se um conjunto de técnicas que
são amplamente utilizadas para desenvolvimento de novos produtos/processos,
bem como para comparações dentre métodos de trabalho e avaliação de possíveis
mudanças. Neste contexto, diversas são as maneiras de aplicar esta metodologia, seja
em experimentos laboratoriais, em operações industriais ou pesquisas científicas.

Dentro de uma visão sistêmica, tem-se o emprego de outras metodologias


em conjunto ao planejamento de experimentos para obtenção de resultados
estáveis e com monitoramento constante. Isto posto, técnicas como a estratégia de
melhoria aplicando a metodologia seis sigma, que visa à redução da variabilidade
dos processos, é uma forma prática e didática de utilização de ferramentas de
análise e monitoramentos de sistemas de forma eficaz e padronizada.

2 PLANEJAMENTO, MELHORIA DE PROCESSOS E APLICAÇÕES


O planejamento experimental é útil para o delineamento de processos por
meio da análise de respostas à entrada de variáveis controláveis e não controláveis
e aos fatores de erros admitidos, bem como as modificações nos resultados devido
a alterações nas entradas de determinado processo ou experimento. Aliado a esta
técnica, o controle estatístico de processos (CEP) auxilia no monitoramento das
informações dos sistemas. Uma maneira simples de entendimento é por meio da
comparação implícita entre os elementos determinando que o CEP é um método
estatístico passivo enquanto o planejamento experimental é uma metodologia
ativa para melhoria de processos. Ambos são importantes e extremamente eficazes
se aplicados em conjunto (MONTGOMERY, 2017).

Uma amostra prática da relevância em aplicar as técnicas conjuntamente é


por exemplo quando, através de um gráfico de controle, percebe-se que o processo
está fora de controle ou com tendência para tal problema. Apenas o gráfico de
controle não é capaz de indicar qual variável deve ser alterada para que o processo
retorne às proximidades do limite central. Porém, com a técnica de planejamento

185
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

experimental é possível identificar a influência de cada variável no processo, bem


como a interação entre elas. Montgomery (2017, p. 405) enuncia que o planejamento
experimental estatístico no planejamento de engenharia pode ser aplicado:

1. Avaliação e comparação de configurações de planejamento básicas.


2. Avaliação de materiais alternativos.
3. Determinação dos parâmetros-chave do planejamento do produto
que tem impacto sobre o desempenho.
O uso do planejamento experimental nessas áreas pode resultar em
capacidade melhorada de fabricação do produto, desempenho de
campo e confiabilidade ressaltados, menor custo e menor tempo de
desenvolvimento do produto (MONTGOMERY, 2017, p. 405).

Objetivando a melhoria de processos e redução de perdas, o planejamento


experimental é amplamente utilizado, sendo aplicado em diversas áreas de
pesquisa ou prática industrial. Alguns exemplos de aplicação da metodologia
serão tratados no decorrer deste tópico, demonstrando quão ampla e versátil
pode ser a técnica.

Exemplo 1

Galdámez e Carpinetti (2001) apresentam no artigo “Aplicação das


técnicas de planejamento e análise de experimentos no processo de fabricação de
produtos plásticos” a utilização da técnica em uma indústria de manufatura de
moldagem de plástico por injeção.

Na fase inicial, uma reunião da equipe decidiu quais eram as variáveis


que seriam analisadas no processo, sendo escolhidos os fatores tempo de injeção,
tempo de resfriamento, temperatura do molde, temperatura da máquina,
velocidade de injeção e pressão de injeção, com os níveis de fatores apresentados
no quadro a seguir.

QUADRO 7 – NÍVEIS DOS FATORES CONTROLÁVEIS

Tempo Tempo Temperatura Temperatura Velocidade Pressão


Níveis
injeção resfriamento molde Máquina injeção Injeção

Z1:190°C Z3:165°C
Água
-1 2(s) 6(s) 40% 18 BAR
industrial
Z2:170°C Z4:160°C

Z1:190°C Z3:230°C
+1 10(s) 15(s) Água normal 100% 30 BAR
Z2:240°C Z4:220°C

FONTE: Galdàmez e Carpinetti (2001, p. 5)

186
TÓPICO 4 | APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE EXPERIMENTOS

As variáveis de resposta, ou seja, aquelas que serão analisadas ao final do


processo são: falha por falta de material ou rebarba devido ao excesso de material,
dimensional e deformação da peça. Para análise estatística, foram montadas
escaldas numéricas de tais fatores para investigação da qualidade. A matriz do
experimento é apresentada no quadro a seguir.

QUADRO 8 – MATRIZ DO EXPERIMENTO

Tempo Tempo Temperatura Temperatura Velocidade Pressão


Teste
injeção resfriamento molde Máquina injeção Injeção

Água Z1:190°C Z3:165°C


1 2 6 40 18
industrial Z2:170°C Z4:160°C
Água
2 10 6 '' 100 18
industrial
Água
3 2 15 '' 100 30
industrial
Água
4 10 15 '' 40 30
industrial
5 2 6 Água normal '' 100 30

6 10 6 Água normal '' 40 30

7 2 15 Água normal '' 40 18

8 10 15 Água normal '' 100 18

Z1:190°C Z3:230°C
9 2 6 Água normal 40 30
Z2:240°C Z4:220°C
Água
10 10 6 '' 100 30
industrial
Água
11 2 15 '' 100 18
industrial
Água
12 10 15 '' 40 18
industrial
13 2 6 Água normal '' 100 18

14 10 6 Água normal '' 40 18

15 2 15 Água normal '' 40 30

16 10 15 Água normal '' 100 30

FONTE: Galdàmez e Carpinetti (2001)

Com base nos dados apresentados e nos índices de qualidade adotados, foi
possível aplicar a ferramenta estatística ANOVA e os gráficos lineares dos efeitos
produzidos nas variáveis de resposta. A figura a seguir mostra as representações
gráficas dos efeitos nas variáveis de resposta.

187
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

FIGURA 17 – GRÁFICO DOS EFEITOS

FALHA/REBARBA
DEFORMAÇÃO

DIMENSIONAL
6,0 5,06
8,0
5,97 4,0
6,0
6,0
4,0 2,0 2,70
4,0 4,44
2,0 0,98 2,0
0,0
0,0 0,0
-1 1 -1 1
-2,0 -1 1
-4,0
Temperatura Máquina Temperatura Máquina -6,0 -4,56
Temperatura Máquina
5,75

FALHA/REBARBA FALHA/REBARBA
DEFORMAÇÃO

DIMENSIONAL
6,0

8,0 4,0
6,0
6,0 5,74 2,0
2,01 4,0
4,0 2,0 3,34
1,21 0,0
2,0 0,0
-1 1 -2,0 -1 1
0,0
-1 1 -4,0
Pressão de Injeção Pressão de Injeção -6,0 -3,47
Pressão de Injeção
DEFORMAÇÃO

DIMENSIONAL

6,0
4,33
8,0 4,0
6,0 2,93 4,01 3,43 6,0
2,0 4,0
4,0 0,69
2,0 2,0
0,0 0,0
0,0 -2,0 -0,81
-1 1 -4,0 -1 1
-1 1
Tempo Resfriamento Tempo Resfriamento -6,0
Tempo Resfriamento
FALHA/REBARBA
DEFORMAÇÃO

DIMENSIONAL

1
6,0
4,0 3,64
4,11
8,0
6,0 3,74 2,0 6,0
4,0 4,0
3,20 0,0 2,0 -0,03 -0,09
2,0
-1 1 0,0
0,0 -2,0 -1 1
-1 1 -4,0
Tempo Molde Tempo Molde -6,0
Tempo Molde
FALHA/REBARBA
DEFORMAÇÃO

DIMENSIONAL

6,0 5,0 4,43


3,18 4,0 3,0
4,0 3,0 2,0
3,76 3,33
2,0 2,0 1,0 0,50
1,0 0,0
0,0 0,0 -1,0
-1 1 -1 1 -0,63
-2,0 -1 1
Tempo de Injeção Tempo de Injeção -3,0
Tempo de Injeção

FONTE: Galdàmez e Carpinetti (2001)

Percebe-se que alguns fatores são diferentes de zero e, com isso têm
importância na análise dos efeitos. Exemplo: a temperatura da máquina e a
pressão de injeção. A análise de variância, ANOVA, foi aplicada e é demonstrada
na tabela a seguir.

188
TÓPICO 4 | APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE EXPERIMENTOS

TABELA 3 – ANOVA

Variável resposta: Dimensional

Fonte de Variação Soma Quadrado g.l. Quadrado médio F Valor p

1.Tempo Injeção 4,90 1 4,90 0,30 0,60

2.Tempo Resfriamento 3,29 1 3,29 0,30 0,66

3.Temperatura Molde 0,88 1 0,88 0,05 0,82

4.Temperatura Máquina 22,21 1 22,21 1,35 0,27

5.Pressão Injeção 56,06 1 56,06 3,41 0,09

Erro 164,51 10 16,45

Variável resposta: Falha/Rebarba

Fonte de Variação Soma Quadrado g.l. Quadrado médio F Valor p

1.Tempo Injeção 5,06 1 5,06 0,64 0,44

2.Tempo Resfriamento 9,00 1 9,00 1,14 0,31

3.Temperatura Molde 0,02 1 0,02 0,00 0,97

4.Temperatura Máquina 324,00 1 324,00 41,09 0,00

5.Pressão Injeção 185,64 1 185,64 23,55 0,00

Erro 78,84 10 7,88

Variável resposta: Deformação

Fonte de Variação Soma Quadrado g.l. Quadrado médio F Valor p

1.Tempo Injeção 1,35 1 1,35 0,22 0,65

2.Tempo Resfriamento 4,68 1 4,68 0,78 0,40

3.Temperatura Molde 1,18 1 1,18 0,20 0,67

4.Temperatura Máquina 99,75 1 99,75 16,60 0,00

5.Pressão Injeção 82,13 1 82,13 13,67 0,00

Erro 60,10 10 6,01

FONTE: Galdàmez e Carpinetti (2001)

189
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Como resultado do planeamento experimental, pode-se destacar o


conhecimento dos parâmetros chave para melhoria do desempenho do processo,
sendo a pressão de injeção e temperatura da máquina. Como consideração final,
os autores sugeriram a aplicação da metodologia de superfície de resposta (MSR)
para determinação da melhor maneira de regulagem da máquina.

EXEMPLO 2

Silva e Sant’Anna (2007) apresentam no artigo “Uma aplicação do


planejamento de experimentos na indústria farmacêutica”, a utilização da técnica
em uma indústria farmacêutica para aumento do conhecimento sobre processos
críticos de fabricação e embalagem. Relata-se a existência de problemas das
embalagens de um antiácido produzido pela empresa, porém não há certeza de
que a resolução se dá apenas com a modificação da embalagem, podem haver
fatores também no processo de produção.

Para tanto, utilizou-se uma modelagem fatorial para análise do tempo


ótimo de mistura considerando os fatores misturador (fator A – nautamixer),
posição do lote no dia (fator B – batch position in a day) e tempo de mistura na fase
final do processo (fator C – mixing time), considerada crítica. A posição do lote no
dia é avaliada para certificação de que o acúmulo de resíduos nos equipamentos
não é um fator de erro no sistema.

Com a aplicação da ANOVA, análise de variância, para interpretação dos


resultados e a montagem de gráficos, Quadros 9 e 10 e Gráfico 3, foi possível concluir
que o único fator com alta variabilidade foi em relação à posição do lote no dia.

QUADRO 9 – ANOVA
Factor A B C
Batch
position Mixing
Row # Nautamixer Y1 Y2 Y3 Y4 Y5 Ybar S
in a time
day
1 1 1 15 1,533333 2,433333 4,033333 2,933333 2,933333 2,833333 0,930054
2 1 1 30 6,833333 6,533333 6,533333 7,533333 7,533333 7,033333 0,565684
3 1 3 15 4,133333 4,433333 4,333333 4,133333 4,133333 4,293333 0,151658
4 1 3 30 5,633333 5,933333 6,233333 6,333333 6,333333 6,153333 0,383406
5 2 1 15 2,333333 2,233333 3,333333 3,133333 3,133333 2,953333 0,649615
6 2 1 30 4,433333 6,933333 6,733333 7,533333 7,533333 6,673333 1,318332
7 2 3 15 4,333333 3,933333 4,433333 4,333333 4,333333 4,273333 0,194936
8 2 3 30 8,233333 8,433333 8,433333 9,033333 9,333333 8,693333 0,466905

FONTE: Silva e Sant’Anna (2007)

190
TÓPICO 4 | APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE EXPERIMENTOS

QUADRO 10 – ANÁLISE DE REGRESSÃO – EXPERIMENTO 1

Y-hat Model
Factor Name Coeff P (2 Tail) Tol Active
Const 5,36333 0,0000
A Nautamixer 0,28500 0,0132 1 X
B Batch position in a day 0,49000 0,0001 1 X
C Mixing time 1,77500 0,0000 1 X
AB 0,34500 0,0033 1 X
AC 0,26000 0,0226 1 X
BC -0,20500 0,0381 1 X
ABC 0,38000 0,0014 1 X

Rsq 0,9107
Adj Rsq 0,8911
Std Error 0,6866
F 46,6114
Sig F 0,0000

Source SS df MS
Regression 153,8 7 22,0
Error 15,1 32 0,5
Total 168,9 39

Factor Name Low High Exper

A Nautamixer 1 2 1,5
B Batch position in a day 1 3 2
C Mixing time 15 30 22,5

Prediction
Y-hat 5,363333333
S-hat 0,582573828

99% Prediction Interval

Lower Bound 3,615611849


Upper Bound 7,111054818

191
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Y-hat Model
Factor Name Coeff P (2 Tail) Tol Active
Const 0,58257 Not Avail
A Nautamixer 0,07487 Not Avail 1
B Batch position in a day - 0,28335 Not Avail 1 X
C Mixing time 0,10101 Not Avail 1
AB - 0,04318 Not Avail 1
AC 0,13416 Not Avail 1
BC 0,02492 Not Avail 1
ABC - 0,12411 Not Avail 1

Rsq 1,00000
Adj Rsq Not Avail
Std Error Not Avail
F Not Avail
Sig F Not Avail

Source SS df MS
Regression 1,1 7 0,2
Error 0,0 0 Not Avail
Total 1,1 7

FONTE: Silva e Sant’Anna (2007)

GRÁFICO 3 – EFEITOS DAS VARIÁVEIS


S-hat Marginal Means Plot
0,9

0,8

0,7

0,6

0,5

0,4

0,3
1 2 1 3 15 30
Nautamixer Batch position in a day Mixing time
FONTE: Silva e Sant’Anna (2007)

192
TÓPICO 4 | APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE EXPERIMENTOS

Tendo em vista tal resultado, projetou-se novo experimento para análise


do fator posição do lote no dia. Para tanto, montaram-se 5 lotes, sendo o primeiro
após a lavagem dos misturados, no misturador 2, o tempo de 45 minutos e no
misturador 1, o tempo de 55 minutos. Os demais lotes do dia com 35 minutos até
o limite de 3 lotes por misturador. O quadro e o gráfico a seguir demonstram que
o fator que mais afeta a média é o tempo de mistura.

QUADRO 11 – ANÁLISE DE REGRESSÃO – EXPERIMENTO 2

Y-hat Model
Factor Name Coeff P (2 Tail) Tol Active
Const 5,36333 0,0000
A Nautamixer 0,28500 0,0132 1 X
B Batch position in a day 0,49000 0,0001 1 X
C Mixing time 1,77500 0,0000 1 X
AB 0,34500 0,0033 1 X
AC 0,26000 0,0226 1 X
BC -0,20500 0,0381 1 X
ABC 0,38000 0,0014 1 X

Rsq 0,9107
Adj Rsq 0,8911
Std Error 0,6866
F 46,6114
Sig F 0,0000

Source SS df MS
Regression 153,8 7 22,0
Error 15,1 32 0,5
Total 168,9 39

Factor Name Low High Exper

A Nautamixer 1 2 1
B Batch position in a day 1 3 1
C Mixing time 15 30 45

Prediction
Y-hat 11,23333333
S-hat 0,865921684

193
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

99% Prediction Interval

Lower Bound 8,63556828


Upper Bound 13,83109839

Y-hat Model
Factor Name Coeff P (2 Tail) Tol Active
Const 0,58257 0,0008
B Batch position in a day - 0,28335 0,0224 1 X

Rsq 0,6083
Adj Rsq 0,5430
Std Error 0,2625
F 9,3181
Sig F 0,0224

Source SS df MS
Regression 0,6 1 0,6
Error 0,4 6 0,1
Total 1,1 7

FONTE: Silva e Sant’Anna (2007)

GRÁFICO 4 – EFEITOS DAS VARIÁVEIS – EXPERIMENTO 2


S-hat Marginal Means Plot
7,5
7

6,5

5,5
5
4,5
4
3,5
3
1 2 1 3 15 30
Effect Levels

Nautamixer Batch position in a day Mixing time


FONTE: Silva e Sant’Anna (2007)

194
TÓPICO 4 | APLICAÇÕES DA METODOLOGIA DE PLANEJAMENTO DE EXPERIMENTOS

Nos gráficos das interações é possível verificar que ocorre interação


no misturador 1 e não ocorre no misturador 2, demonstrando que o tempo de
mistura é fator influente no sistema.

GRÁFICO 5 – INTERAÇÕES ENTRE FATORES


Interaction Plot of Batch Position in a day vs
Mixing time Constants: Nautamixer = 1
9

8
7
Response Value

6
5

4
3

1
0
1 1,7 2,4 3,1 3,8 4,5 5,2 5,9 6,6 7,3 8
Batch position in a day
15 35

Interaction Plot of Batch Position in a day vs


Mixing time Constants: Nautamixer = 2
18

16
14

12
Response Value

10

6
4

2
0
1 1,7 2,4 3,1 3,8 4,5 5,2 5,9 6,6 7,3 8

15 35

Batch position in a day


FONTE: Silva e Sant’Anna (2007)

195
UNIDADE 3 | ANÁLISE DE EXPERIMENTOS E APLICAÇÕES

Visando obter o ponto de trabalho ótimo, foram montadas curvas de contorno


para os fatores “posição do lote no dia” e “tempo de mistura”. Para os misturadores,
o tempo de mistura necessário vai crescendo com o passar do dia, sendo que no
misturador 1 após o terceiro lote não há mais o alcance do ponto ótimo.

GRÁFICO 6 – EFEITOS DAS VARIÁVEIS

FONTE: Silva e Sant’Anna (2007)

196
Como conclusão, verificou-se que houve uma alteração no misturador 1
por um problema técnico de falha, acarretando tal contratempo. Além disso, para
parametrização do processo implementou um tempo limite de reação baseando-
se nos resultados obtidos com as técnicas empregadas.

Conforme foi exposto, as aplicações para a técnica são diversas, transpondo


o patamar de apenas a etapa inicial de planejamento de experimentos, indo além,
sendo empregada em melhorias de processos, dentre outra variedade de funções.
Ademais, o planejamento de experimentos é uma metodologia amplamente
aplicada a uma das técnicas de maior importância no controle de qualidade de
processos mundiais, o seis sigma, que será detalhado a seguir.

3 SEIS SIGMA
Seis sigma é uma metodologia estruturada cujo objetivo é o alcance da
excelência em produtos, serviços ou processos com melhoria contínua e uso de
ferramentas estatísticas.

Conforme Rotondaro et al. (2011, p. 52), “quando falamos em seis


sigma, significa redução da variação no resultado entregue aos clientes numa
taxa de 3,4 falhas por milhão ou 99,99966% de perfeição”. A figura a seguir
mostra a metodologia seis sigma por meio do gráfico da distribuição normal de
probabilidade.

Como enunciado, a nomenclatura é inspirada no parâmetro estatístico que


mensura a variabilidade, σ, e pode ser vista com o uso da curva de distribuição de
probabilidade normal, cujo centro é a média e os extremos a indicação do número
de desvios padrões da média, σ, são aplicados para gerar o número de falhas
permitidas, ou seja, número de ocorrências fora dos limites de controle aceitáveis.
Comparativamente, um processo com nível de qualidade de dois sigma tem
69,15% de produtos conformes e apresenta 308537 defeitos por milhão; já em
um processo três sigma há 93,32% de produtos conformes com 66807 defeitos
apresentados por milhão; no quatro sigma 99,3790% de produtos conformes e
6210 defeitos por milhão; em cinco sigma 99,97670% de produtos conformes e 233
defeitos por milhão; já no seis sigma tem-se 99,999660% de produtos conformes e
3,4 defeitos por milhão de produtos produzidos (RIBEIRO; CATEN, 2012).

197
FIGURA 18 – GRÁFICO DE DISTRIBUIÇÃO NORMAL DE PROBABILIDADE APLICADO À
METODOLOGIA SEIS SIGMA
LIE Nominal LSE

-1,5σ +1,5σ

3,4 ppm 3,4 ppm

-6σ -5σ -4σ -3σ -2σ -1σ µ +1σ +2σ +3σ +4σ +5σ +6σ
FONTE: Ribeiro e Caten (2012, p. 152)

Desse modo, visando à redução de variabilidade, deve-se mensurar,


monitorar e aplicar várias ferramentas estatísticas objetivando atingir a meta
estipulada. Vale ressaltar que a técnica pode ser aplicada a qualquer tipo de
organização e/ou processo.

4 METODOLOGIA
Uma metodologia aplicada em projetos seis sigma é o processo DMAIC,
sigla que forma o acrônimo para os cinco passos do procedimento de aplicação:
definir, medir, analisar, melhorar e controlar (em inglês define, measure, analyse,
improve, control). Alguns autores utilizam a sigla em português como DMAMC. O
processo está ilustrado na figura a seguir (MONTGOMERY, 2017).

FIGURA 19 – PROCESSO DMAIC

Definir Medir Analisar Melhorar Controlar


Definir Medir Analisar Melhorar Controlar
Oportunidades Desempenho Oportunidade Desempenho Desempenho

Objetivo Objetivo Objetivo Objetivo Objetivo

• Identificar e/ • Determinar o • Analisar dados para • Gerar e • Desenvolver planos


ou validar a que medir compreender as quantificar de gerenciamento
oportunidade • Gerenciar a razões de variação e potenciais do andamento do
de melhoria do coleta de dados identificar potenciais soluções processo
negócio de medições causas básicas • Avaliar e • Processo à prova de
• Definir requisitos • Desenvolver • Determinar a selecionar a erro
críticos do cliente e validar os capacidade do solução final • Monitor e
• Processos de sistemas de processo, capacidade • Verificar controlador
documentos medida de processamento, e receber características
(mapas) • Determinar o tempo de ciclo aprovação para críticas do processo
• Estabelecer carta nível Sigma de • Formular, investigar a solução final • Desenvolver planos
do projeto, montar desempenho e verificar hipótese de de ação de fora de
equipe causas básicas controle

FONTE: Montgomery (2017, p. 36)

198
Resumindo, o projeto seis sigma tem como metodologia o uso de um
passo a passo bem estruturado no qual na primeira etapa a seleção dos projetos
deve ser de suma importância, com definições claras do problema, efeitos e
metas a serem alcançadas. As ferramentas básicas utilizadas nesta fase são: dados
históricos, brainstorming, desenho dos processos, mapa de fluxo de valor, dentre
outros (ROTONDARO et al., 2011).

Além disso, nesta fase, deve-se construir uma carta de intenções do projeto,
documento constando a descrição do projeto, abrangência, datas de início e
conclusão previstas, descrição das atividades e medidas que serão tomadas, bem
como os potenciais ganhos com a aplicação do projeto (MONTGOMERY, 2017).

No segundo passo, medir, envolve a coleta de dados de forma estratificada


para posterior análise e aplicação. Nesta fase, avalia-se o estado atual do processo
e as variáveis críticas de entrada e saída. O conhecimento do processo neste ponto
é importante para estabelecimento de metas coerentes, então, saber o desempenho
de referência atual e a capacidade do processo é imprescindível. As ferramentas
aplicadas são ferramentas estatísticas gerais, cálculo da capacidade do processo,
folha de verificação, gráfico de Pareto, diagramas de dispersão dentre outras
várias possíveis (MONTGOMERY, 2017; ROTONDARO et al., 2011; RIBEIRO;
CATEN, 2012).

O terceiro passo, analisar, determina as relações de causa e efeito no processo e


as diversas fontes de variabilidade baseando-se nos dados coletados na etapa anterior.
Neste ponto, o projeto de experimentos é a técnica principal para entendimento das
relações entre variáveis com aplicação de diversas ferramentas, como gráficos de
controle, testes de hipóteses, intervalos de confiança, análise de regressão, análise
de variância, dentre outras para que os dados sejam convertidos em informações
(MONTGOMERY, 2017; ROTONDARO et al., 2011; RIBEIRO; CATEN, 2012).

No quarto passo, melhorar, a equipe deve executar as melhorias e soluções


propostas com base nas informações obtidas do processo. Um plano de ação deve
ser elaborado para que as ações estejam claras para todos os envolvidos. Trata-se
da etapa de aperfeiçoamento do processo, sendo, portanto, comum a mudança de
processos, aplicação de metodologias para otimização, recálculo da capacidade
dos processos, planejamento de experimentos com novos parâmetros visando
solucionar os problemas já visualizados (MONTGOMERY, 2017; ROTONDARO
et al., 2011; RIBEIRO; CATEN, 2012).

Na quinta e última fase, controlar, tem-se a principal diferenciação


da metodologia seis sigma, em que a equipe deve assegurar que as melhorias
propostas não sejam perdidas, é a fase de padronização de processos e validação
de resultados. Nesta etapa os novos procedimentos são elaborados, bem como
o controle estatístico de processos deve ser aplicado (MONTGOMERY, 2017;
ROTONDARO et al., 2011; RIBEIRO; CATEN, 2012).

Vale ressaltar que a metodologia seis sigma é vista como um ciclo de


melhorias, sendo, portanto, um processo contínuo.

199
LEITURA COMPLEMENTAR

O emprego da metodologia seis sigma em diversas aplicações demonstra


a importância da técnica na busca por excelência em processos e produtos. A
leitura complementar indicada fornece uma visão geral do tema, bem como sua
serventia desde o passado até os dias atuais.

SEIS SIGMA – PRESENTE E FUTURO

Marco Siqueira Campos

Resumo

A Estratégia Seis Sigma tem causado uma verdadeira revolução no segmento


automotivo. Vários fabricantes de autopeças, automóveis, caminhões e aeronaves
adotaram esta estratégia e estão obtendo ganhos efetivos, tanto em qualidade quanto
em custos. Seis Sigma busca o aumento da satisfação dos clientes e de resultados
pela redução da variabilidade e, consequentemente, dos defeitos. Tem-se mostrado a
ferramenta mais poderosa e eficiente, para a redução drástica de falhas, permitindo
o aprimoramento de processos de forma estruturada, consistente e duradoura, pois
analisa os problemas sob o ponto de vista científico. É o maior impacto contemporâneo
sobre a estratégia da Qualidade, encerrando um ciclo iniciado no Japão do pós-guerra. 
Embora as ferramentas estatísticas utilizadas no Seis Sigma não sejam novas, esta
abordagem acrescenta considerável valor a elas, ao formalizar seu uso de forma
integrada, num caminho lógico que evita empregá-las isolada e individualmente,
desenvolvendo um vocabulário de métricas e ferramentas uniformizado em toda
a organização. Com Seis Sigma, intensifica-se a necessidade de entender e reduzir
as variações, em vez de somente estimá-las. Esta abordagem muda a forma de
gerenciamento, pois as decisões passam a ser baseadas em dados e, não apenas, em
intuição ou sentimentos.

Este artigo apresenta uma introdução ao método e às mudanças


ocasionadas com a implantação da Qualidade Seis Sigma, assim como tendências
futuras na sua utilização. [...]

Método

Seis Sigma é uma estratégia que busca a satisfação dos clientes e de menores
custos pela redução da variabilidade e, consequentemente, dos defeitos. Também
representa uma medida de desempenho e meta para operação de processos, com
uma taxa de 3,4 falhas por milhão de atividades ou "oportunidades". [...]

A implantação de Seis Sigma inicia pelo levantamento da satisfação do


cliente, suas necessidades e requisitos que, associados aos objetivos estratégicos
do negócio, definirão os projetos prioritários. A partir daí serão estabelecidas as
Características Críticas para a Qualidade (CTQs) em cada processo e começa a
aplicação com o método DMAIC.

200
Voz do Cliente + Estratégia

Processos Críticos

Projetos de Melhoria

DMAIC

Seis Sigma segue um caminho lógico,  utilizando o método científico,


chamado DMAIC (sigla das iniciais das palavras Definir,  Medir, Analisar,
Aprimorar e Controlar em inglês), consistindo das seguintes etapas:

• Definir – Etapa em que são analisados os requisitos do cliente e as necessidades


do negócio, para a identificação dos processos críticos que definirão a escolha
dos projetos que serão desenvolvidos. 
• Medir  – Etapa em que são aplicadas  as ferramentas estatísticas que medem
o desempenho  dos processos, permitindo a visualização  do estado atual
dos mesmos, para a definição  das metas de aprimoramento. Esta etapa
é fundamental para que, no futuro, possamos saber se obtivemos sucesso nos
projetos de aprimoramento.
• Analisar – Etapa em que são aplicadas as ferramentas estatísticas que permitem 
descobrir a causa-raiz dos problemas apresentados. Esta etapa é crítica, pois define 
qual é a causa, para que atuemos nela e, não, nas suas consequências.
• Aprimorar – Etapa em que são aplicadas as ferramentas estatísticas que permitem 
aprimorar o processo. Aqui, começa realmente  o aperfeiçoamento dos
processos, eliminando os erros ou desenvolvendo novas soluções.
• Controlar – Etapa em que são aplicadas ferramentas estatísticas, possibilitando que os apri-
moramentos obtidos sejam mantidos na organização e se transformem em novos padrões. 

É  muito importante que estas etapas sejam seguidas criteriosamente,


para que evitemos trabalhar nas consequências ou sintomas dos problemas
e, realmente, possamos agir na verdadeira causa. Muitas vezes, pela pressa
em resolvermos os problemas ou por erros de julgamento, não avaliamos
todos os aspectos, tomando decisões incorretas que farão com que os mesmos
problemas se repitam no futuro. Este encadeamento lógico entre as etapas,

201
em que só executamos uma etapa após a finalização da anterior, permite uma
melhor compreensão dos processos, facilitando o caminho, para a resolução dos
problemas ou o aprimoramento dos processos. [...] Acompanhando 10 projetos
Seis Sigma em uma organização, fornecedora da cadeia automotiva, listamos, na
tabela 7, a frequência de utilização de cada técnica.

TABELA 1 – FERRAMENTAS DE QUALIDADE MAIS USADAS

Nº de vezes usada
Ferramenta
em 10 projetos
Mapeamento de processos 10
Diagrama de causa e efeito 10
Matriz de causa e efeito 8
FMEA 4
Gráfico box plot 9
Diagrama de Pareto 7
Histograma 3
Análise de capacidade 6
Análise do sistema de medição para variáveis (R&R) 4
Análise do sistema de medição para atributos (R&R) 2
Técnicas de previsão (forecast) 1
Estudo e gráfico multivari 6
Teste de hipóteses para médias 7
Teste de hipóteses para variâncias 7
Teste de hipóteses para medianas 1
Análise de variância – ANOVA 1
Correlação e regressão linear simples ou múltipla 4
Experimento fatorial fracionário 2
Experimento fatorial completo 3
Experimentos de misturas 1
Simulação discreta de eventos 2
Gráficos de controle por variáveis 5
Gráficos de controle por atributos 1
Pré-controle 1
Plano de controle 4
Dispositivo à prova de falhas 2

O mapeamento de processos, o diagrama de causa e efeito e as técnicas


gráficas são as ferramentas mais usadas. Também, se destaca o grande número de
testes de hipóteses e de experimentos realizados.

202
A implantação de Seis Sigma é executada por uma equipe de especialistas
nos processos, capacitados a pensar estatisticamente, a fim de encontrarem a
solução para a verdadeira causa dos problemas. Esta equipe de especialistas
atuará como agente de mudança na organização, aplicando e disseminando o
uso das ferramentas estatísticas e da qualidade no aprimoramento dos projetos.
Usualmente, são chamados de Black belts e Green belts, numa referência às
denominações dos especialistas em artes marciais, sendo funcionários das
unidades de negócios, (onde os processos estão sendo aprimorados) e, não,
funcionários da área da qualidade. [...]

A capacitação dos agentes de mudança é realizada com uma abordagem


distinta dos treinamentos usuais, utilizando-se o conceito de certificação dos
participantes. Ao iniciar o treinamento, o participante recebe um projeto, definido
por sua diretoria, no qual realizará as etapas práticas do treinamento, efetuado
em 4 módulos teóricos, intercalados com atividades práticas[...]. A certificação é
fornecida, após o participante ter concluído o treinamento e finalizado dois projetos.

[...]

Conclusões

Seis Sigma é uma estratégia nova; ainda precisaremos de algum tempo


para conhecermos todos os seus benefícios, mas sabemos que não se trata de mais
uma "onda" da qualidade, pois incorpora, definitivamente, a visão do negócio na
estratégia da qualidade. 

O apoio em métodos estatísticos garante uma base científica consistente,


permeando a tomada de decisão, baseada em dados por todos os níveis.

Entre as consequências positivas do processo destacamos:

• aumento da satisfação dos membros da equipe, por adquirirem maior


conhecimento nos processos e estarem realizando suas atividades de forma
mais eficaz, gerando valor com seu trabalho;
• aumento da satisfação dos clientes, por estarem recebendo o que necessitam de
forma precisa e pontual;
• aumento da satisfação dos acionistas pela retenção dos clientes, aumento de
mercado, aumento do valor de suas ações e redução de custo.
 
Os pontos mostrados acima fazem com que esta seja a escolha preferida
da indústria automotiva, para a redução de custos e aumento da qualidade. 
FONTE: CAMPOS, M. Seis sigma: presente e futuro. Disponível em: <http://siqueiracampos.
com/art_jan_03.asp>. Acesso em: 10 nov. 2018.

A leitura complementar apresentada destaca a importância do uso de


ferramentas aplicadas à metodologia Seis sigma e à relevância do tema para as
organizações. A sistemática do método e como os procedimentos de aplicação
serão detalhados a seguir.

203
RESUMO DO TÓPICO 4

Neste tópico, você aprendeu que:

• O planejamento de experimentos é uma técnica amplamente utilizada aliada


ao controle estatístico de processos visando à melhoria de sistemas, avaliação e
comparação de alternativas para parâmetros e planejamento de desempenhos.

• Seis sigma é uma metodologia estruturada cujo objetivo é o alcance da


excelência em produtos, serviços ou processos com melhoria contínua e uso de
ferramentas estatísticas para redução da variabilidade.

• A aplicação do seis sigma equivale a realizar os cinco passos do procedimento


de aplicação: definir, medir, analisar, melhorar e controlar. Cada etapa tem
suas características delimitadas e ferramentas estatísticas comuns de utilização,
sendo que o planejamento experimental é imprescindível para embasamento
da técnica.

204
AUTOATIVIDADE

1 (CESGRANRIO – 2011 – Engenharia de Produção) Uma das características


marcantes do programa Seis Sigma é:

a) Adotar uma abordagem segmentada e individualizada.


b) Valer-se, exclusivamente, de ferramentas estatísticas como critério de
avaliação e priorização de projetos.
c) Estar voltado à alteração e construção de uma cultura organizacional de
melhoria contínua, sem, necessariamente, estar vinculado a um objetivo
imediato ou a projetos em execução.
d) Conjugar ferramentas estatísticas e não estatísticas, com uma integração do
gerenciamento por processo e por diretrizes, mantendo o foco nos clientes,
nos processos críticos e nos resultados da empresa.
e) Ser especialmente eficaz em processos produtivos que utilizam uma análise
de capabilidade, como ocorre em indústrias com linhas de produção em
massa, sendo de pouca valia para processos em que não se aplica tal análise,
como no setor de serviços.

2 (CESPE – 2014 – Engenharia de Produção) Assinale a opção correta no que


diz respeito à metodologia Seis Sigma.

a) Quanto mais baixo for o número de sigmas em relação a um produto,


menor será o seu nível de falhas e melhor será o seu nível de qualidade,
sendo seis o número máximo tolerável de falhas que um produto pode ter.
b) O termo Sigma refere-se a processo livre de falhas e designa a existência de
índice de perfeição igual a 99%.
c) Essa metodologia consiste em um controle qualitativo que gera indicadores
e que não envolve cálculos estatísticos na avaliação de desempenho em
relação à especificação ou à tolerância.
d) Essa estratégia baseia-se na inter-relação entre o projeto de um produto
e não compreende a análise do que é feito no processo de entrega desse
produto ao cliente.
e) A meta de qualidade prevista nessa metodologia está relacionada a 3,4
ppm de unidades defeituosas.

205
206
REFERÊNCIAS
ALVARENGA, D.; BRITO, C. 1 em cada 4 brasileiros terá mais de 65 anos em
2060, aponta IBGE. Portal G1, Rio de Janeiro, 25 jul. 2018. Disponível em:
https://g1.globo.com/economia/noticia/2018/07/25/1-em-cada-4-brasileiros-
tera-mais-de-65-anos-em-2060-aponta-ibge.ghtml. Acesso em: 25 jul. 2018.

ANJOS, A. Planejamento de experimentos: Caderno de estudos. Curitiba:


UNIVERSIDADE FEDERAL DO PARANÁ, 2005.

BARROS NETO, B.; SCARMINIO, I.; BRUNS, R. Como fazer experimentos:


pesquisa e desenvolvimento na ciência e na indústria. 4. ed. Porto Alegre:
Bookman, 2010.

BASTIANI, J.; MARTINS, R. Diagrama de Pareto. Blog da qualidade, 27 set.


2012. Disponível em: http://www.blogdaqualidade.com.br/diagrama-de-
pareto/. Acesso em: 25 jul. 2018.

CAMPOS, M. Seis sigma – Presente e futuro. Disponível em: http://


siqueiracampos.com/art_jan_03.asp. Acesso em: 10 nov. 2018.

CAMPOS, V. Controle da qualidade total no estilo japonês. Belo Horizonte:


Fundação Christiano Ottoni, 1992.

CARPINETTI, L. Planejamento e análise de experimentos: caderno de


estudos. São Carlos: UNIVERSIDADE DE SÃO PAULO, 2009.

CIB. Biotecnologia beneficia produção, meio ambiente e agricultores. Pioneer


sementes, 25 maio 2015. Disponível em: http://www.pioneersementes.
com.br/Soja/Central-de-Informacoes/noticias/3139/biotecnologia-beneficia-
producao-meio-ambiente-e-agricultores. Acesso em: 26 jul. 2018.

DANTE, L. Matemática: conceitos e aplicações. São Paulo: Ática, 2016.

DOMENECH, C. Modelos de Regressão. Portal M. I. Domenech, São Paulo,


s.d. Disponível em: https://www.midomenech.com.br/lean-seis-sigma/docs/
modelos-de-regressao.pdf. Acesso em: 24 set. 2018.

207
DOMENECH, C. Seleção do esquema de amostragem. Revista Banas
Qualidade, São Paulo, n. 146, p. 80-82, 2004. Disponível em: https://www.
midomenech.com.br/lean-seis-sigma/downloads/artigos/94-banas-doe-parte-
i-conceituacao-e-planejamento.html. Acesso em: 24 set. 2018.

FARIA, B. Como interpretar uma análise de variância (ANOVA)? ABG


Consultoria estatística, Belo Horizonte, 10 jul. 2017. Disponível em: http://
www.abgconsultoria.com.br/blog/como-interpretar-uma-analise-de-
variancia-anova/. Acesso em: 5 set. 2018.

FERNANDES, A.; RIBEIRO, J.; ALMEIDA, L. Ferramentas da qualidade:


aplicação em uma indústria de embalagens plásticas para redução de
quebras nas máquinas extrusoras. In:
ENCONTRO NACIONAL DE ENGENHARIA DE PRODUÇÃO, 2017,
Joinville. Anais eletrônicos do Enegep. João Pessoa: 2016. Disponível em:
http://www.abepro.org.br/biblioteca/TN_STO_227_328_29728.pdf. Acesso
em: 26 jul. 2018.

FERREIRA, V. Estatística básica. Rio de Janeiro: SESES, 2015.

FRANCO, G. O brilhantismo de Fisher no experimento da senhora tomando


chá. Portal manipulando dados, 6 abr. 2015. Disponível em: https://
manipulandodados.com.br/o-brilhantismo-de-fisher-no-experimento-da-
senhora-tomando-cha/. Acesso em: 16 set. 2018.

GALDÁMEZ, E.; CARPINETTI, L. Aplicação das técnicas de planejamento


e análise de experimentos no processo de fabricação de produtos plásticos.
São Paulo, 2011.

GIDO, J.; CLEMENTES, J.; BAKER, R. Gestão de Projetos. 7. ed. São Paulo:
Cengage, 2018.

INMETRO, Sistema Internacional de Unidades – SI. Rio de Janeiro:


INMETRO 2012a.

INMETRO, Vocabulário Internacional de Metrologia – conceitos


fundamentais e gerais e termos associados (VIM 2012). Duque de Caxias:
INMETRO 2012b.

INMETRO. Portaria nº 590, de 2 de dezembro de 2013. Quadro geral de


Unidades legais de Medida. Disponível em: http://www.inmetro.gov.br/
consumidor/unidLegaisMed.asp. Acesso em: 9 jul. 2018.

208
INSTITUTO NACIONAL DE METROLOGIA. Disponível em: http://www.
inmetro.gov.br/. Acesso em: 25 jun. 2018.

KOCH, R. A revolução 80/20. Belo Horizonte: Gutenberg, 2016.

KOCH, R. O gestor 80/20. São Paulo: Vogais, 2014.

KOWALSKI, R. Homens sempre terão salários melhores, diz estudo


estatístico paranaense. Portal Bem Paraná, Curitiba, 03 mar. 2018. Disponível
em: https://www.bemparana.com.br/noticia/homens-sempre-terao-salarios-
melhores-diz-estudo-estatistico-paranaense. Acesso em: 25 jul. 2018.

LARSON, R.; FARBER, B. Estatística aplicada. São Paulo: Pearson Education


do Brasil, 2015.

LAURINDO, F.; LEE HO, L.; CARVALHO, M.; BRAZ, M.; BALESTRASSI,
P. Seis sigma: estratégia gerencial para a melhoria de processos, produtos e
serviços. São Paulo: Atlas, 2011.

MARCONI, M.; LAKATOS, E. Fundamentos de metodologia científica. 5.


ed. São Paulo: Atlas, 2003.

MARTELLO, A. Dívida pública federal sobe 1% em junho e atinge R$3,75


trilhões. Portal G1, Rio de Janeiro, 25 jul. 2018. Disponível em: https://
g1.globo.com/economia/noticia/2018/07/25/divida-publica-federal-sobe-1-
em-junho-e-atinge-r-375-trilhoes.ghtml. Acesso em: 25 jul. 2018.

MENESES, V.; FRASAO, S.; ARAÚJO FILHO, F.; SOUSA, K.; LIMA, Y.
A aplicação de ferramentas da qualidade em uma indústria metalúrgica
de produtos de aço. In: ENCONTRO NACIONAL DE ENGENHARIA
DE PRODUÇÃO, 2017, Joinville. Anais eletrônicos do Enegep.
Joinville: 2017. Disponível em: http://www.abepro.org.br/biblioteca/TN_
STO_239_385_34186.pdf. Acesso em: 26 jul. 2018.

MONTGOMERY, D. Introdução ao controle estatístico da qualidade. Rio de


Janeiro: LTC, 2017.

MONTGOMERY, D.; RUNGER, G. Estatística aplicada e probabilidade para


engenheiros. Rio de Janeiro: LTC, 2016.

MORETTIN, L. Estatística básica: probabilidade e inferência. São Paulo:


Pearson Prentice Hall, 2010.

209
MORETTIN, L. Estatística básica: probabilidade e inferência. São Paulo:
Pearson Prentice Hall, 2010.

MORETTIN, P.; BUSSAB, W. Estatística básica. São Paulo: Saraiva, 2013.

PAES, A.; CAVALCANTI, B.; VICTOR, E.; COCARELLI, T. Por dentro da


estatística. Revista Einstein, São Paulo, 2011. Disponível em: http://apps.
einstein.br/revista/arquivos/PDF/2211-EC_v9n3_125-127.pdf. Acesso em: 20
jul. 2018.

PERECIN, D.; CARGNELUTTI FILHO, A. Efeitos por comparações e por


experimento em interações de experimentos fatoriais. Revista Ciência e
Agrotecnologia, Lavras, jan.-fev. 2018. Disponível em: http://www.scielo.br/
pdf/cagro/v32n1/a10v32n1.pdf. Acesso em: 5 set. 2018.

PETENATE, M. Como implementar um experimento fatorial. Portal Escola


EDTI, São Paulo, 30 jun. 2015. Disponível em: https://www.escolaedti.com.
br/como-implementar-um-experimento-fatorial/. Acesso em: 16 set. 2018.

PRODANOV, C.; FREITAS, E. Metodologia do trabalho científico: métodos


e técnicas da pesquisa e do trabalho acadêmico. 2 ed. Novo Hamburgo:
Universidade Feevale, 2013.

REDAÇÃO. Dez gráficos que explicam o impacto do câncer no mundo.


Portal G1, Rio de Janeiro, 4 fev. 2016. Disponível em: http://g1.globo.com/
bemestar/noticia/2016/02/dez-graficos-que-explicam-o-impacto-do-cancer-
no-mundo.html. Acesso em: 26 jul. 2018.

REDAÇÃO. Eletricidade é o setor campeão na emissão dos gases do efeito


estufa. Portal UOL, São Paulo, 07 dez. 2015. Disponível em: https://noticias.
uol.com.br/meio-ambiente/ultimas-noticias/redacao/2015/12/07/eletricidade-
e-o-setor-campeao-na-emissao-dos-gases-do-efeito-estufa.htm. Acesso em: 25
jul. 2018.

REDAÇÃO. Refugiados na Europa: a crise em mapas e gráficos. Portal G1,


Rio de Janeiro, 06 set. 2015. Fonte: Disponível em: http://g1.globo.com/
mundo/noticia/2015/09/refugiados-na-europa-crise-em-mapas-e-graficos.
html. Acesso em: 25 jul. 2018.

RENDER, B.; STAIR, R.; HANNA, M. Análise quantitativa para


administração.10. ed. Porto Alegre: Bookman, 2010.

210
RETO, M.A. Incentivos do Governo estimulam reação do setor de
embalagens. Revista Plástico, São Paulo, 1 jul. 2013. Disponível em: https://
www.plastico.com.br/noticias-incentivos-do-governo-estimulam-reacao-do-
setor-de-embalagens/. Acesso em: 25 jul. 2018.

RIBEIRO, J.; CATEN, C. Controle estatístico do processo. Porto Alegre:


Fundação Empresa Escola de Engenharia da Universidade Federal do Rio
Grande do Sul, 2012.

RODRIGUES, M.; IEMMA, A. Planejamento de experimentos e otimização


de processos. São Paulo: Casa do Pão editora, 2005.

ROTONDARO, R.; RAMOS, A.; RIBEIRO, C.; MIYAKE, D.; NAKANO, D.;
SCHWAAB, M.; PINTO, J. Análise de dados experimentais I. Rio de Janeiro:
E-papers, 2007.

SERWAY, R.; JEWETT, J. Física para cientistas e engenheiros. São Paulo:


Cengage Learning, 2010.

SILVA, C.; SANT’ANNA, A. Uma aplicação do planejamento de


experimentos na indústria farmacêutica. Revista Sistemas e Gestão, Rio de
Janeiro, v. 2, n. 3, p. 274-284, set-dez 2007.

SILVA, J. Estatística experimental: Planejamento de experimentos. Pelotas:


Universidade Federal de Pelotas, 2007.

SOUZA, A.; ETHUR, A.; LOPES, L.; ZANINI, R. Introdução a projetos de


experimentos: caderno de estudos. Santa Maria: UNIVERSIDADE FEDERAL
DE SANTA MARIA, 2002.

SOUZA, E.; ASSIS, S.; SILVA, C. Violência no Município do Rio de Janeiro:


áreas de risco e tendências da mortalidade entre adolescentes de 10 a 19
anos. Revista Panamericana de Salud Pública, Washingon, 1997. Disponível
em: https://www.scielosp.org/article/rpsp/1997.v1n5/389-398/. Acesso em: 26
jul. 2018.

TELHADA, M. Variável x ou y? Portal M. I. Domenech, São Paulo,


s.d. Disponível em: https://www.midomenech.com.br/lean-seis-sigma/
downloads/artigos/146-variavel-x-ou-y.html. Acesso em: 24 set. 2018.

WERKEMA, M. Ferramentas estatísticas básicas para o gerenciamento de


processos. Belo Horizonte: Fundação Christiano Ottoni, 1995.

211
WERKEMA, M.; AGUIAR, S. Análise de regressão: como entender o
relacionamento entre as variáveis de um processo. Belo Horizonte: Fundação
Christiano Ottoni, 1996.

WERKEMA, M.; AGUIAR, S. Planejamento e análise de experimentos:


como identificar e avaliar as principais variáveis influentes em um processo.
Belo Horizonte: Fundação Christiano Ottoni, 1996.

212

Você também pode gostar