Você está na página 1de 296

Controle

Estatístico
do Processo
PROFESSOR
Me. Paulo Otávio Fioroto

ACESSE AQUI O SEU


LIVRO NA VERSÃO
DIGITAL!
DIREÇÃO UNICESUMAR
Reitor Wilson de Matos Silva Vice-Reitor Wilson de Matos Silva Filho Pró-Reitor de Administração Wilson de Matos Silva Filho
Pró-Reitor Executivo de EAD William Victor Kendrick de Matos Silva Pró-Reitor de Ensino de EAD Janes Fidélis Tomelin
Presidente da Mantenedora Cláudio Ferdinandi

NEAD - NÚCLEO DE EDUCAÇÃO A DISTÂNCIA


Diretoria Executiva Chrystiano Mincoff, James Prestes, Tiago Stachon Diretoria de Graduação e Pós-graduação Kátia Coelho Diretoria
de Cursos Híbridos Fabricio Ricardo Lazilha Diretoria de Permanência Leonardo Spaine Diretoria de Design Educacional Paula
Renata dos Santos Ferreira Head de Graduação Marcia de Souza Head de Metodologias Ativas Thuinie Medeiros Vilela Daros Head
de Tecnologia e Planejamento Educacional Tania C. Yoshie Fukushima Gerência de Planejamento e Design Educacional Jislaine
Cristina da Silva Gerência de Tecnologia Educacional Marcio Alexandre Wecker Gerência de Produção Digital Diogo Ribeiro Garcia
Gerência de Projetos Especiais Edison Rodrigo Valim Supervisora de Produção Digital Daniele Correia

PRODUÇÃO DE MATERIAIS

Coordenador de Conteúdo Crislaine Rodrigues Galan Designer Educacional Aguinaldo Jose Lorca Ventura Revisão
Textual Nagela Neves da Costa Editoração André Morais de Freitas Ilustração Welington Oliveira Realidade Aumentada
Maicon Douglas Curriel; Matheus Alexander de Oliveira Guandalini; César Henrique Seidel Fotos Shutterstock.

FICHA CATALOGRÁFICA

C397 CENTRO UNIVERSITÁRIO DE MARINGÁ.


Núcleo de Educação a Distância. FIOROTO, Paulo Otávio.

Controle Estatístico do Processo. Paulo Otávio Fioroto. Maringá


- PR.: Unicesumar, 2021.

296 p.

ISBN 978-65-5615-655-2
“Graduação - EaD”.

1. Controle 2. Estatístico 3. Processo. EaD. I. Título.

CDD - 22 ed. 658.56

Impresso por:

Bibliotecário: João Vivaldo de Souza CRB- 9-1679 Pró Reitoria de Ensino EAD Unicesumar
Diretoria de Design Educacional

NEAD - Núcleo de Educação a Distância


Av. Guedner, 1610, Bloco 4 - Jd. Aclimação - Cep 87050-900 | Maringá - Paraná
www.unicesumar.edu.br | 0800 600 6360
A UniCesumar celebra os seus 30 anos de
história avançando a cada dia. Agora, enquanto
Universidade, ampliamos a nossa autonomia Tudo isso para honrarmos a
e trabalhamos diariamente para que nossa nossa missão, que é promover
educação à distância continue como uma das a educação de qualidade nas
melhores do Brasil. Atuamos sobre quatro diferentes áreas do conhecimento,
pilares que consolidam a visão abrangente do formando profissionais
que é o conhecimento para nós: o intelectual, o cidadãos que contribuam para o
profissional, o emocional e o espiritual. desenvolvimento de uma sociedade
justa e solidária.
A nossa missão é a de “Promover a educação de
qualidade nas diferentes áreas do conhecimento,
formando profissionais cidadãos que contribuam
para o desenvolvimento de uma sociedade
justa e solidária”. Neste sentido, a UniCesumar
tem um gênio importante para o cumprimento
integral desta missão: o coletivo. São os nossos
professores e equipe que produzem a cada dia
uma inovação, uma transformação na forma
de pensar e de aprender. É assim que fazemos
juntos um novo conhecimento diariamente.

São mais de 800 títulos de livros didáticos


como este produzidos anualmente, com a
distribuição de mais de 2 milhões de exemplares
gratuitamente para nossos acadêmicos. Estamos
presentes em mais de 700 polos EAD e cinco
campi: Maringá, Curitiba, Londrina, Ponta Grossa
e Corumbá), o que nos posiciona entre os 10
maiores grupos educacionais do país.

Aprendemos e escrevemos juntos esta belíssima


história da jornada do conhecimento. Mário
Quintana diz que “Livros não mudam o mundo,
quem muda o mundo são as pessoas. Os
livros só mudam as pessoas”. Seja bem-vindo à
oportunidade de fazer a sua mudança!

Reitor
Wilson de Matos Silva
Antes de tudo, nada mais justo do que eu me apresentar!
Meu nome é Paulo Otávio Fioroto, sou mestre e bacharel
em Engenharia de Alimentos, com ambas as formações
pela Universidade Estadual de Maringá. Durante minha
graduação, tive a oportunidade de atuar em uma em-
presa de consultoria, que proporcionou meu primeiro
contato com a maioria do conteúdo que discutiremos
neste material. Sempre, gostei muito de ler, os mais
diversos assuntos — histórias fictícias, biografias, livros
técnicos e o que mais você puder pensar —, e, desde o
momento em que conheci as ferramentas da Qualidade
e do Controle Estatístico, tive minha curiosidade desper-
tada e iniciei uma busca por mais conteúdo a respeito.
Ainda, tive a oportunidade de realizar dois cursos in-
dependentes, voltados para Six Sigma e Lean Manufac-
turing, isso adicionou certo peso à minha formação e me
abriu os olhos para certos raciocínios que, por mais que
pareçam óbvios, não recebem a devida importância. O
conhecimento adquirido, durante todas essas pesquisas,
Aqui você pode abriu-me várias portas, incluindo uma oportunidade de
conhecer um estágio no exterior, além de ampliar a minha visão para
pouco mais sobre
o fato de que toda informação pode ser um indicador
mim, além das
informações do que nos ajudará, em nosso cotidiano na empresa.
meu currículo.
REALIDADE AUMENTADA

Sempre que encontrar esse ícone, esteja conectado à internet e inicie o aplicativo
Unicesumar Experience. Aproxime seu dispositivo móvel da página indicada e veja os
recursos em Realidade Aumentada. Explore as ferramentas do App para saber das
possibilidades de interação de cada objeto.

RODA DE CONVERSA

Professores especialistas e convidados, ampliando as discussões sobre os temas.

PÍLULA DE APRENDIZAGEM

Uma dose extra de conhecimento é sempre bem-vinda. Posicionando seu leitor de QRCode
sobre o código, você terá acesso aos vídeos que complementam o assunto discutido

PENSANDO JUNTOS

Ao longo do livro, você será convidado(a) a refletir, questionar e transformar. Aproveite


este momento.

EXPLORANDO IDEIAS

Com este elemento, você terá a oportunidade de explorar termos e palavras-chave do


assunto discutido, de forma mais objetiva.

EU INDICO

Enquanto estuda, você pode acessar conteúdos online que ampliaram a discussão sobre
os assuntos de maneira interativa usando a tecnologia a seu favor.

Quando identificar o ícone de QR-CODE, utilize o aplicativo Unicesumar


Experience para ter acesso aos conteúdos on-line. O download do aplicativo
está disponível nas plataformas: Google Play App Store
CONTROLE ESTATÍSTICO DO PROCESSO

Toda empresa quer que suas ações ocorram com 100% de eficiência, sem erros, com
produtos padronizados e com o mínimo de gastos possível. Isso, entretanto, é algo
improvável. Até mesmo a empresa mais bem preparada terá produtos defeituosos ou
suspenderá sua produção, seja para manutenção, seja por falhas humanas. Devemos
aceitar que problemas acontecerão. Mas como determinaremos a quantidade de falhas
aceitável em um processo? E, ainda, como saberemos o quão graves elas são?
O foco do Controle Estatístico do Processo (CEP) é, justamente, este. Cada proces-
so dependerá de diversos parâmetros, como: a quantidade de itens em cada lote e a
margem de erro estabelecida como aceitável. Além disso, precisamos compreender se
o processo analisado tem um histórico regular de falhas ou se elas são pontuais. Isso
será vital para que possamos determinar se tudo está dentro daquilo que a empresa
quer ou se precisamos intervir, de alguma forma, para que o processo gere resultados
satisfatórios.
Para tornar a visualização mais simples, sugiro que você, em sua casa, realize uma
breve experiência cujo foco é gerar um contato inicial com os princípios daquilo que
veremos durante a disciplina. Tenha em mente que, apesar de parecer algo simples, é
uma situação que pode ser encontrada no cotidiano de alguém que trabalha com Pro-
cessos ou Qualidade. Você pode abrir um pacote de biscoitos qualquer e pesá-los em
uma balança. Além disso, você pode usar uma régua para medi-los. A intenção dessa
ação é perceber que, por menor que seja, é comum que ocorram diferenças entre os
resultados, tanto para os pesos quanto para as medidas.
Além disso, sabemos, também, o peso que cada biscoito deveria ter, visto que essa
informação é contida na embalagem; e é notável que as amostras pesadas não atingem,
perfeitamente, o que foi determinado. Será que devemos considerar essas variações
como falhas?
A resposta, provavelmente, será: não; não precisamos dizer que ocorreram erros.
Por mais que desvios sejam indesejáveis, eles também são inevitáveis. Por isso, cada
empresa estabelece uma variação máxima que será permitida para cada produto.
Por exemplo, caso falemos de um item cujo peso esperado seja de 15 kg, é natural que
ocorra uma variação de 10 gramas, visto que isso representa menos de 1% daquilo que
se esperava obter; isso é algo que provavelmente já é previsto no processo, inclusive.
Por outro lado, caso o peso desejado seja de 50 gramas e a variação seja dos mesmos
10 gramas, é evidente que tivemos uma falha grave no processo produtivo, pois nos
referimos a uma variação que corresponde a 20% do valor esperado, algo absoluta-
mente indesejável. Isso mostra que uma variação ser aceitável ou não é algo relativo.
Esses desvios podem causar problemas graves para uma empresa. É comum que
produtos tenham seu peso registrado em suas embalagens. Caso a informação des-
crita seja a de que estão contidos, por exemplo, 2 litros em uma garrafa, e na verdade
haja 50 ml a menos, o cliente será lesado, o que pode (e irá) resultar em reclamações.
Por outro lado, caso haja 50 ml a mais do que o registrado na embalagem, a empresa
será prejudicada, pois forneceu produto em excesso e não recebeu por isso. Indepen-
dentemente do cenário, ao menos um dos lados será prejudicado. Uma variação em
um produto pode resultar em danos não apenas aos cofres, mas também à imagem
da companhia.
O que descrevemos até o momento é, de forma bem simplificada, o cotidiano de
alguém que atua com o CEP, em uma indústria. O profissional, entretanto, conta com
diversas ferramentas, como gráficos, tabelas, históricos e equipamentos de alta preci-
são, para realizar as ações em questão e identificar se, de fato, ocorreram falhas. Cada
situação, porém, exigirá uma ferramenta diferente, as quais serão o assunto central
de, praticamente, todo o nosso material.
É possível perceber que o Controle Estatístico do Processo tem grande relevância
não apenas para a empresa, mas também para o cliente! Controlar o que é produzido é
uma forma de impedir que falhas ocorram e, como consequência, manter a qualidade,
agradar ao cliente e proteger a imagem da empresa. Trabalharemos de forma direta
com a Estatística e com a Qualidade, unindo as duas áreas em ferramentas voltadas
para um único fim. Diante do exposto, o que você espera da disciplina de CEP?
CAMINHOS DE
APRENDIZAGEM

1
11 2
41
O PROCESSO FERRAMENTAS DE
DMAIC (DEFINIR, CONTROLE - PARTE I
MEDIR, ANALISAR,
IMPLEMENTAR E
CONTROLAR)

3
71 4
103
FERRAMENTAS DE ESTATÍSTICA
CONTROLE - PARTE II DESCRITIVA
E NOÇÕES DE
PROBABILIDADE

5 131 6
159
CONTROLE CONTROLE
ESTATÍSTICO DO ESTATÍSTICO DO
PROCESSO POR PROCESSO POR
ATRIBUTOS VARIÁVEIS
7
187
8
217
GRÁFICOS DE CAPACIDADE DE
SOMA CUMULATIVA PROCESSOS
E MÉDIA MÓVEL
EXPONENCIALMENTE
PONDERADA

9
245
AMOSTRAGEM DE
ACEITAÇÃO
1
O Processo DMAIC
(Definir, Medir,
Analisar, Implementar
e Controlar)
Me. Paulo Otávio Fioroto

Nesta unidade, discutiremos as cinco etapas do processo DMAIC;


conheceremos algumas ferramentas gráficas, usadas para medição
e análise; e aprenderemos o brainstorming e o diagrama 5W2H.
UNICESUMAR

Qual é o primeiro passo para entender o que deve ser feito, na resolução
de um problema? A resolução de um problema é algo cotidiano na vida
de um profissional de qualquer área. Por “problemas”, devemos entender
que não falamos apenas de defeitos, mas sim de casos nos quais preci-
samos cumprir com algo que nos foi pedido, por exemplo, aumentar
o rendimento de uma linha de produção em 10%, ou entender o mo-
tivo pelo qual a empresa recebe reclamações sobre um determinado
produto. Claro, cada problema tem suas particularidades e exige suas
próprias análises. Será, entretanto, que existe uma forma generalizada
de abordar a resolução de todas as situações? Para encontrarmos uma
resposta para esse questionamento, podemos trabalhar usando uma
situação que envolva a prática, vamos lá?
Caroline é uma engenheira de produção recém-formada e que atua
no setor de Qualidade de uma empresa de porte médio do ramo de be-
bidas, com foco principal, mas não exclusivo, em cervejas. Ela adquiriu
certa experiência ao estagiar em empresas maiores, durante a graduação,
e iniciou sua carreira efetivamente em uma companhia que, apesar de
não ser tão grande quanto aquelas nas quais obteve experiência, tem
uma boa fama entre os clientes da região.

12
UNIDADE 1

Essa boa fama é consequência do fato de que a empresa, sempre, busca atender às reclamações dos
clientes de forma rápida, as quais são captadas tanto com base no site da empresa quanto em suas redes
sociais, além de pesquisas de opinião realizadas em supermercados, com certa frequência. Tanto em
redes sociais quanto em outras ferramentas de comunicação, o produto sempre foi elogiado, e nunca
houve queixas graves sobre a qualidade. Entretanto uma das reclamações acabou tornando-se muito
frequente nos últimos tempos, mais especificamente, nas últimas três semanas. A cerveja produzida pela
fábrica tem apresentado gosto e aparência estranhos ao público. Caroline, então, tornou-se a responsável
por analisar as reclamações, compreender o ocorrido, além de se comprometer em resolver o problema.
Caroline, em um primeiro momento, não sabia sequer como começar. Afinal, ela havia se tornado
responsável por resolver dois problemas simultaneamente, uma vez que a aparência e o gosto da cer-
veja estavam fora do padrão desejado. Se temos dois problemas separados, como podemos agir para
obter o que se quer do produto?
A resposta para essa pergunta é mais simples do que se pode imaginar. Na verdade, você não
precisa resolver as duas situações simultaneamente. Cada problema exige procedimentos, análises
e, consequentemente, soluções diferentes. O que deve ser feito é resolver um de cada vez, buscando
soluções pontuais para cada caso. Geralmente, o fato da solução de um problema ser pesquisada em
nada impede que os outros casos também possam ser estudados, apenas que cada um deve receber
atenção em momentos específicos. Foi, então, que Caroline entendeu o primeiro passo para resolver
as situações: definir qual problema seria tratado.

13
UNICESUMAR

Sabemos que os problemas são relacionados ao gosto e à aparência da cerveja. Sendo assim, Caroline
decidiu, primeiramente, focar na questão da aparência do produto. Agora que sabia em qual problema iria
trabalhar, faltava Caroline entender o que, de fato, estava errado com a aparência do produto. Por meio
das reclamações, ela notou que a maioria falava sobre a turbidez da cerveja. Geralmente, espera-se uma
coloração mais clara e límpida, mas a aparência do produto era opaca. Uma possível causa para a turbidez
é a falta de limpeza do filtro que separa a levedura, usada na fase de fermentação do produto final. Por
mais que a levedura não faça parte do produto final, é comum que uma parte dela seja transferida junto
da cerveja até a fase seguinte, que é a maturação. Nessa etapa, ocorre uma espécie de “limpeza” do produto,
de forma que os resquícios de levedura são separados do produto através de decantação e/ou de um filtro.
No controle interno da empresa, a coloração da cerveja é medida com base em notas atribuídas pelos
próprios operadores, elas variam de 1 a 5, sendo 1 a nota que indica muita turbidez e 5 a nota desejável,
essa sinaliza que o produto está com coloração límpida. Tendo isso como base, Caroline realizou, então, a
segunda fase para a solução do problema: a medição dos atributos. Para a medição, coletaram-se diversas
amostras de cerveja produzida. Posteriormente, os operadores as examinaram e atribuíram uma nota, na
escala de 1 a 5. As notas foram usadas para medir a turbidez do produto, o que deu fim à segunda etapa
da nossa resolução de problemas.
A terceira fase se refere à análise dos dados obtidos e medidos durante o momento anterior. Durante
essa fase, Caroline se utilizou de ferramentas da qualidade, como o histograma e o gráfico de Pareto
(ambas serão tratadas a fundo posteriormente em nosso material) para verificar que, de fato, as notas
médias para as amostras coletadas eram baixas, na faixa entre 1 e 2, o que indica grande turbidez.
Isso levou a engenheira a crer que excesso de levedura estava misturado ao produto final, o que mostrou
que seria necessário checar o filtro usado na fase de maturação. Após parar a produção por um período
e checar o equipamento usado nessa fase, Caroline notou que, em um primeiro momento, tudo parecia
funcionar adequadamente. Porém, ao analisar mais de perto, notou uma falha: a malha da peneira usada
como filtro tinha espaços maiores do que o ideal. O padrão da fábrica era usar malhas com brechas de
5 mm, enquanto a peneira encontrada, usava espaços de 15 mm, o triplo do adequado. Isso permitia a
passagem da levedura pelo processo e, como não há mais etapas de separação posteriores na produção,
a levedura permanecia misturada à cerveja; isso, portanto, deixava a sua aparência túrbida.
Caroline verificou que a peneira que chegou à empresa estava na embalagem daquela que seria a
correta, evidenciando que o erro foi da própria empresa que produz o equipamento. Com base nisso,
Caroline encontrou a solução, simples, de trocar a peneira. Essa etapa se refere à quarta fase da resolução
de problemas, que é a implementação da solução.
Tão importante, porém, quanto solucionar o problema, é impedir que a falha ocorra novamente.
Para isso, então, é usada a quinta fase da resolução de situações: o controle. A partir desse dia, a empresa
passou a inspecionar as peneiras adquiridas como forma de garantir que o mesmo erro não acontecesse
novamente. Do mesmo modo, os dados referentes à turbidez da cerveja também começaram a ser men-
surados e analisados com uma frequência maior, como forma de segurança.
A técnica de resolução de problemas usada por Caroline, em nosso estudo de caso, é o chamado
DMAIC; na literatura, também, pode ser encontrado com o nome de DMAMC. O nome nada mais

14
UNIDADE 1

é do que a sigla para a ordem das ações: define (definir), measure (medir), analyse (analisar), improve
(melhorar, ou, como adaptado para o português, implementar) e control (controlar).
Após analisar a situação apresentada, seria possível usar o mesmo raciocínio e as mesmas ferramentas
para resolver qualquer problema? Que tal pensar em uma situação que você tenha vivenciado em algum
projeto realizado — na época de escola, durante a graduação ou em seu ambiente de trabalho — e tentar
aplicar um pensamento semelhante? Utilize do seu “Diário de bordo” para anotar possíveis formas de
responder este questionamento, ok? Conto com a sua participação!
Apesar das ferramentas variarem, o DMAIC serve como caminho para resolução de qualquer proble-
ma. Qualquer ação pode ser realizada com base no DMAIC, na verdade! Do mesmo modo, um problema
pode ser resolvido de formas diferentes. A situação que Caroline vivenciou, em nosso estudo de caso,
seguiu um caminho lógico muito coerente com a realidade de alguém responsável por uma indústria de
alimentos, mas outras ações poderiam ser tomadas em alguns momentos.
Em conversa com profissionais que atuam no ramo cervejeiro, contei-lhes a situação que vimos no
estudo de caso e lhes perguntei como resolveriam esse problema. Alguns disseram que, na etapa de
medição, teriam realizado testes de cromatografia para identificar a composição da cerveja e identificar
que tipo de microrganismo poderia causar a turbidez. Outros relataram que, na etapa de análise, ao invés
de usar o histórico dos resultados da turbidez, teriam coletado amostras mais recentes. Houve, inclusi-
ve, um profissional que comentou que, na fase de definição, teria priorizado a correção do sabor, pois
acredita que este fator é mais relevante para o cliente do que a aparência, algo que, na verdade, caberia
ser discutido. Enfim, diversos podem ser os caminhos a serem tomados por alguém que atue no ramo.
Tudo dependerá da experiência e das ferramentas que ele tiver em mãos.
As particularidades para cada etapa do DMAIC, além de ferramentas comumente usadas em cada
uma de suas fases, serão nosso assunto durante toda a primeira unidade do nosso material.

DIÁRIO DE BORDO

15
UNICESUMAR

Podemos definir o Controle Estatístico do Processo (CEP) como um método de prevenção e detecção
de problemas. Há quem diga que se trata de uma ferramenta, mas essa ideia não é correta, a verdade é
que o CEP se trata de um conjunto de ferramentas, de maneira que se pode escolher a mais adequada
para resolver uma determinada situação. Quando dizemos que o CEP se trata da detecção de proble-
mas, tenha em mente que falamos de qualquer situação que precise de uma análise aprofundada para
que possa ser solucionada. E, é claro, deve-se entender qual é essa situação, o que pode ser feito por
meio do DMAIC.
Apesar da forte relação do DMAIC com o Lean Manufacturing — sendo esta a filosofia que busca
a redução de desperdícios — e, principalmente, com o Seis Sigma, as etapas não são, obrigatoriamente,
exclusividade deles. É, porém, impossível falar de ambos sem falar do DMAIC, da mesma forma que
é impossível tratar de DMAIC sem tratar, mesmo que de forma breve, sobre o Seis Sigma. É perfeita-
mente possível que uma empresa use o DMAIC como algo individualizado em numa única tarefa ou,
então, ligado à gestão de projetos (MONTGOMERY, 2017).
É natural que haja certa confusão entre o DMAIC e o ciclo PDCA, que envolve as etapas plan (pla-
nejar), do (fazer), check (checar) e act (agir). E não é para menos, afinal, ambos são ciclos que buscam
guiar as etapas que devem ser seguidas para a resolução de um problema. A semelhança não se resu-
me a isso, principalmente pelo fato de que o PDCA, que surgiu primeiro, foi a base para a criação do
DMAIC. Além disso, ambos são usados visando à solução de um problema específico e/ou à geração de
melhoria contínua. A fase inicial do ciclo DMAIC, no entanto, em especial a fase de definição daquilo
que será tratado e realizado, é mais elaborada do que a etapa de planejamento do ciclo PDCA. Para
mais, o DMAIC se utiliza não apenas das ferramentas do ciclo PDCA, mas também de ferramentas
consideradas mais avançadas, trabalhando diretamente com a estatística e, comumente, aplicando
softwares para tanto. Em alguns momentos, algumas etapas do DMAIC podem ser tão complexas
que se torna necessário criar um ciclo PDCA apenas para realizá-la, fato mais comum em projetos de
longa duração. Um comparativo entre as etapas pode ser visto no Quadro 1.

Definir o problema a ser resolvido D

Coletar os dados M
P
Analisar os dados A

Elaborar aquilo que será feito como resolução


I
D Executar aquilo que foi elaborado

C Verificação dos novos resultados


C
A Concluir a tarefa em definitivo

Quadro 1 - Comparativo de etapas entre o ciclo PDCA e o DMAIC / Fonte: o autor.

16
UNIDADE 1

Antes de darmos início às nossas explicações sobre cada etapa, discutiremos o Seis
Sigma e o Lean Manufacturing, visto que, para entendermos a finalidade do DMAIC,
precisamos compreender a mentalidade daqueles que o aplicam. O foco do Seis
Sigma é a redução drástica de problemas, tendo como principal base a estatística e
suas ferramentas. Nesta ciência, o desvio padrão é representado pela letra grega σ, a
qual é lida como sigma.
Podemos ter duas certezas para qualquer processo. A primeira delas é a de que,
apesar de ser possível chegar perto dessa marca, nunca existirá um processo com
100% de perfeição. A segunda é a de que um processo não ocorrerá sempre da mesma
forma, pois a sua média variará entre um lote e outro. É importante, todavia, que a
variação dessa média seja mínima, afinal, queremos que os lotes sejam iguais uns aos
outros, mas, como isso não é sempre possível, o mínimo de variação já é suficiente.
Sendo assim, a intenção principal do programa Seis Sigma é permitir que a média das
amostras de um lote se desloque, no máximo, 1,5 desvios padrões para cima ou para
baixo, sendo que os outros 4,5 desvios padrões serão a distância máxima permitida
entre a média do processo e o limite de especificação mais próximo (LOBO, 2020).
Por “limite de especificação”, entendemos o maior erro que consideraremos aceitá-
vel. Por exemplo, se uma empresa produz latas de 350 mL, pode ser que ela considere
uma variação de 2 mL para mais ou para menos como esperado, ou seja, seus limites
de especificação são 348 mL e 352 mL. Cada produto tem suas próprias especificações,
as quais são determinadas pela própria companhia, sendo muitas vezes determinadas
por meio de percentuais ao invés de valores absolutos.
O somatório de desvios padrões envolvidos é igual a 6, e consideramos sempre 3
desvios padrões abaixo da média e 3 acima. E por qual motivo usamos seis desvios
padrões? Pois bem, isso ocorre devido ao modelo matemático da distribuição normal.
Se tivermos um modelo que atua, considerando dois sigmas, um para cada lado da
média, teremos 68% dos dados dentro daquilo que é desejado. Caso tenhamos qua-
tro sigmas, com dois para cada lado da média, teremos 95% das observações dentro
daquilo que consideramos adequado. Quando trabalhamos com o Seis Sigma, com
três sigmas para cada lado da média, temos um índice de aproximadamente 99,7%
dentro daquilo que foi estabelecido (LOBO, 2020). A distribuição normal com os
percentuais apresentados pode ser vista na Figura 1.
O processo ideal terá uma curva de formato similar ao apresentado na figura, mas
ela será menos larga. Isso apresenta que o desvio padrão entre as amostras analisadas
é mínimo, o que indica concentração de valores mais próximos à média.

17
UNICESUMAR

Figura 1 - Distribuição normal com desvios de 2, 4 e 6 sigma em relação à média

Descrição da Imagem: um gráfico em forma de curva, uma linha sobe continuamente, atingindo um ponto mais alto, e, em seguida,
desce. A região central contém 68,2% dos dados, os quais estão a uma distância de um desvio padrão, para mais ou para menos, do
centro do gráfico. Uma segunda região, que inclui a central e mais uma certa área, contém 95,4% dos dados, os quais estão todos a
uma distância de dois desvios padrão, para mais ou para menos, do centro do gráfico. Uma terceira região, que inclui a região citada
anteriormente e mais uma pequena área, representa 99,7% dos dados, os quais se encontram a uma distância de três desvios padrão
para mais ou para menos em relação à média.

Teoricamente, um processo que siga à risca o Seis Sigma atingirá um nível de perfeição no qual ocor-
ram apenas 3,4 falhas para cada um milhão de ações, o que equivale a um nível de perfeição igual a
99,99966% de ações realizadas adequadamente. Na maioria dos casos, contentar com 99% já seria algo
para se orgulhar — e, de fato, é um excelente resultado —, mas, se considerarmos certos dados, veremos
que isso está muito aquém do ideal. Por exemplo, tomando como base a aviação, são realizados, apro-
ximadamente, 15,6 milhões de voos comerciais por ano. Se dissermos que 99% dos voos ocorreram
adequadamente, teremos a informação de que 15,44 milhões de voos não tiveram uma única falha,
isso indica 156 mil voos com problemas. Entretanto, se usarmos o percentual proposto pelo Seis Sigma,
encontraremos 15,5999 milhões de voos que ocorrem perfeitamente, indicando problemas em apenas
52 deles, um número invejável.
Tenha em mente, porém, que nem mesmo as empresas que são as pioneiras da aplicação — no caso,
a Motorola, criadora da metodologia, e a General Electric, comandada por muito tempo pelo brilhante
Jack Welch, considerado o empresário do século e principal responsável pela sua popularização —
conseguiram atingir esse nível de perfeição. Definitivamente, os resultados delas são excelentes, mas
isso mostra que o Seis Sigma é uma busca contínua por melhorias (OLIVEIRA, 2014). Se empresas
do porte destas, que aplicam o Seis Sigma há décadas, ainda não atingiram esse nível de perfeição na
prática, não se pode esperar que alguma outra companhia, independentemente do porte, atinja resul-
tados 100% adequados do dia para a noite.

18
UNIDADE 1

Ainda, sobre o tema e, novamente, abordando os resultados referentes à aviação, por um lado, de-
finitivamente não ocorrem mais de 50 quedas de avião por ano, se seguirmos as informações dadas
pela mídia, provavelmente encontraremos, quando muito, 10 quedas de voos comerciais por ano. Por
outro lado, com certeza há mais de 50 falhas nesse período, visto que, entre elas, podemos contabilizar
atrasos, cancelamentos, problemas mecânicos, pousos de emergência e quaisquer outras possibilidades
— eu mesmo tive problemas nas últimas 3 vezes em que estive num voo! O nível de perfeição atingi-
do definitivamente não corresponde ao Seis Sigma, mas é visível que as empresas seguem buscando
a melhoria e que a quantidade de falhas é muito menor do que seria se o controle não fosse usado. A
proposta é a busca contínua pela melhoria, algo que um profissional deve ter como alvo em todos os
momentos de sua carreira.
É possível realizar cursos para se especializar em Seis Sigma e suas ferramentas, e isso é algo ab-
solutamente relevante para qualquer profissional que atue como gestor ou como um engenheiro que
lide com processos industriais de larga escala. Há diversos níveis de classificação para profissionais,
baseados em seu conhecimento e sua experiência, conforme apresentado no Quadro 2.

Nível Descrição

Atua em ações pontuais para resolução de problemas, tem conheci-


White Belt
mento básico das ferramentas do Seis Sigma.

Tem treinamento específico sobre as ferramentas e participa de equipes


Yellow Belt
de projetos Seis Sigma.

Green Belt Atua na coleta e análise de dados, pode liderar projetos de menor escala.

Indivíduo experiente que lidera a maioria dos projetos e treina os novos


Black Belt
membros.

Possui grande experiência, com vários projetos liderados, e é o centro


Master Black Belt do projeto, geralmente atuando a nível estratégico e sendo o principal
contato com os principais líderes da empresa.

Quadro 2 - Níveis de formação Seis Sigma / Fonte: adaptado de Lobo (2020).

O impacto de uma formação relacionada ao Seis Sigma na


carreira de um indivíduo é muito extenso e pode abrir diversas
possibilidades! Que tal discutirmos um pouco sobre o tema
e tratarmos sobre indivíduos que tiveram impacto sobre o
desenvolvimento do Seis Sigma como um todo?

19
UNICESUMAR

A relação entre o Seis Sigma e o Controle Estatístico do Processo é plenamente visível, já que ambos
se utilizam de ferramentas da Qualidade e da estatística para o gerenciamento de processos. Sendo
assim, caso você já tenha realizado algum curso relacionado ao Seis Sigma, independentemente do nível
de classificação, provavelmente reconhecerá uma grande parcela do conteúdo que trataremos aqui.
Da mesma forma, caso você se sinta inspirado a iniciar um curso Seis Sigma, após finalizarmos essa
disciplina, algo que eu recomendo fortemente, principalmente se você já estiver atuando no mercado
de trabalho, certamente terá uma maior facilidade na absorção do conteúdo quando for realizá-lo.

Em 2015, Jack Welch foi um dos convidados a participar da série


e-Talks, em que fala sobre suas práticas de sucesso nos 20 anos em
que foi CEO da General Electronics. Em uma conversa descontraída,
ele cita o Seis Sigma como um dos embasamentos para o sucesso da
empresa durante sua gestão, além de expor diversos ensinamentos
sobre os mais variados temas.
Para acessar, use seu leitor de QR Code.

Enquanto o DMAIC tem sua aplicação muito mais visível, quando falamos do Seis Sigma, podemos
atrelar esse pensamento, também, ao Lean Manufacturing. Mas, antes, precisamos entender o que é,
de fato, o Lean. Isso nos remete ao Japão Pós-Segunda Guerra Mundial, em que a população estava em
situação crítica com a falta de alimentos e matérias-primas em geral. Como as indústrias não tinham
condições de importar produtos de outros países, decidiram tirar o máximo de proveito de tudo que
tinham à disposição, evitando todos os desperdícios possíveis.
A partir dessa mentalidade, as indústrias japonesas, lideradas pela automobilística Toyota, conse-
guiram produzir itens de melhor qualidade, com o menor gasto possível e em uma velocidade de dar
inveja a qualquer companhia do exterior, chegando ao ponto de exportar produtos para países em
condições muito melhores. Em alguns anos, o Japão estava totalmente recuperado e sua economia estava
entre as melhores do mundo. Este modelo foi a origem da mentalidade Lean, a qual só seria reconhe-
cida mundialmente em meados da década de 80, após estudos sobre modelos de gestão de empresas
automobilísticas, em diversos continentes (RODRIGUES, 2016). Entretanto, apesar das décadas de
atraso para perceberem que a forma de gestão da Toyota era uma mina de ouro, a sua popularização
foi praticamente imediata, em 1990, a partir da publicação dos estudos realizados, a mentalidade Lean,
finalmente, recebeu a atenção que merece.

20
UNIDADE 1

O termo “Lean Manufacturing” significa manufatura enxuta, ou seja, fazer o máximo possível
com o mínimo necessário. Isso é uma forma de evitar desperdícios e aproveitar cada pequena peça,
cada instante, cada possibilidade que, caso caísse em outras mãos, poderia ser desperdiçada. Quando
pensamos em “desperdício”, pensamos em algo jogado fora, ou então alguém procrastinando e des-
perdiçando tempo. Talvez, até mesmo, alguém gastando dinheiro com algo supérfluo. Enquanto todos
esses pensamentos são corretos, eles também são limitados. Segundo a mentalidade enxuta, temos 7
tipos de desperdícios (RODRIGUES, 2016):
• Tempo: possivelmente, o desperdício mais fácil de ser identificado, visto que qualquer ação
desnecessária dentro de uma empresa torna-se desperdício de tempo que poderia ser aprovei-
tado em ações úteis.
• Movimento: trata-se do excesso de movimentação do funcionário envolvido no processo, tanto
na realização de movimentos desnecessários, parado em um mesmo lugar, quanto na má dis-
tribuição de equipamentos e máquinas ao seu redor, o que gera caminhadas longas entre um
ponto e outro que poderiam ser evitadas.
• Processamento: concerne processos que podem ser considerados inúteis e que apenas geram
gastos, sem que agreguem valor ao produto.
• Defeitos: produtos defeituosos geram retrabalho, o que é desperdício de tempo, esforço e dinheiro.
• Estoque: excesso de estoque causará uso de espaço que poderia ser melhor aproveitado, além
de imobilizar capital e gerar riscos desnecessários.
• Transporte: referente a layouts mal projetados, os quais dificultam a movimentação interna de
peças e equipamentos, algo que toma tempo.
• Superprodução: produção em excesso, o que gera estoques desnecessários e, principalmente
para casos em que se trabalha com produtos perecíveis, pode resultar em grandes perdas.

De modo resumido, podemos dizer que todos os desperdícios consomem direta ou indiretamente, ao
menos, um dos três fatores: tempo, espaço e dinheiro. E todos eles têm uma coisa em comum: o fato
de não agregarem valor ao produto final.
Por “valor”, devemos considerar apenas os aspectos pelos quais o cliente aceita pagar, em outras
palavras, aquilo que atende às suas necessidades e/ou expectativas. O excesso de tempo necessário
para produzir um bem não agrega valor ao item de forma alguma, na verdade, ocorre exatamente o
contrário, pois muitas pessoas estão dispostas a pagar um pouco mais para que seu produto chegue
até elas mais depressa.
O excesso de movimentos, a estrutura usada para produzir o item, nada disso irá agregar valor
ao consumidor final. A intenção da mentalidade enxuta é, justamente, reduzir ao máximo as ações
desnecessárias e limitar o processo apenas àqueles aspectos que são estritamente necessários. Isso
gera economia de tempo e de finanças, mas as vendas permanecem inalteradas, ou seja, o saldo final
torna-se positivo, já que gastamos menos e recebemos a mesma quantia.

21
UNICESUMAR

Determinar o preço de venda de um produto antes dele começar a ser produzido fará com
que os responsáveis pelo seu desenvolvimento inovem o processo de produção, esse é um
princípio do Lean Manufacturing.

Após essa explicação, você deve se perguntar: de que forma o DMAIC se aplica ao Lean Manufacturing?
A resposta, na verdade, é muito simples. Suponha que tenhamos uma situação em que nosso produto
leva tempo demais para ser produzido. Se considerarmos um caminho análogo ao que foi apresentado
em nosso estudo de caso inicial, teremos como definição do problema a “demora para produção”. Na
etapa seguinte, em que ocorre a tomada de dados, ocorre a cronometragem de cada uma das fases de
produção daquele bem. Com isso, podemos dizer qual das etapas é aquela que consome mais tempo
e definir quais são nossos gargalos de produção.
Em seguida, ainda seguindo o raciocínio usado por Caroline, ocorre a análise dos dados obtidos
e a identificação daquele que é, de fato, o problema. Por consequência, ocorre a definição e a imple-
mentação da melhoria proposta pelos envolvidos e, por último, o controle para verificar se tudo segue
conforme o planejado, após a aplicação do DMAIC.
O Seis Sigma e o Lean Manufacturing podem atuar juntos sem maiores problemas, inclusive, muitos
projetos voltados ao Seis Sigma são desenvolvidos, justamente, pensando na manufatura enxuta. Não
à toa, há diversos cursos no mercado cujo nome é “Lean Seis Sigma”, pois focam no desenvolvimento
dos dois pensamentos. Além disso, as ferramentas usadas para ambos os casos são praticamente as
mesmas, então, torna-se prático estudar os dois formatos simultaneamente.

22
UNIDADE 1

A partir de agora, daremos continuidade ao estudo do DMAIC; abordaremos suas


etapas pontualmente e apresentaremos algumas de suas ferramentas mais importantes.
Assim como já foi exposto, a etapa “definir”, na qual se determina aquilo que será
trabalhado no decorrer das atividades, é, de certo modo, a definição de um objetivo
específico daquilo que, independentemente da situação, pode ser considerado como
um projeto.
Além disso, é também nessa etapa que será definida a equipe que trabalhará na re-
solução do problema, além de quais aspectos deverão ser avaliados durante o projeto, o
cronograma das atividades e o que se espera obter após a sua conclusão, ou seja, é com
base naquilo pensado e dito, durante a fase de definição, que será elaborado o contrato.
Em resumo, todo o escopo do projeto será planejado aqui, incluindo metas e a definição
de clientes e/ou fornecedores afetados. Todos os processos a serem influenciados, pelo
que será realizado, devem ser, devidamente, listados neste momento.
As próximas fases dependerão daquilo que será definido durante essa etapa, quais
medidas serão tomadas, como elas serão tomadas, como serão analisadas, o que será
feito para implantar eventuais soluções desenvolvidas bem como se dará o controle
dos resultados obtidos posteriormente.
Dentre as ferramentas que podem ser usadas como auxílio para a fase de definições,
sempre é interessante darmos destaque àquelas que atuam de forma gráfica, usando
figuras que não exijam leituras longas e permitam lembranças rápidas sobre o que foi
falado. Uma delas é o diagrama SIPOC, palavra a qual, também, representa uma sigla,
neste caso, suppliers (fornecedores), input (entrada), process (processo), output (saída)
e client (cliente).
O SIPOC se trata de um diagrama em forma de quadro, em que cada coluna re-
presenta, em ordem, uma das letras que fazem parte da sigla. Sua função é auxiliar no
mapeamento de processos, tornando a listagem de pessoas e materiais envolvidos muito
mais simples de visualizar (MONTGOMERY, 2017). Cada SIPOC representará um
único processo: unir dois processos em um único diagrama pode causar certa confusão!
Na primeira coluna, voltada aos fornecedores, serão listados os fornecedores de
material para a realização daquele processo específico estudado. Caso haja mais de
um fornecedor para a mesma matéria-prima, você pode optar por colocar apenas um
ou todos eles, fica a critério de quem está preenchendo. Entretanto, como conselho,
sempre sugiro colocar o máximo de informações possível no diagrama!
A segunda coluna trata dos inputs, que são todo o material necessário para a rea-
lização do processo. Normalmente, as colunas são preenchidas na ordem em que são
apresentadas. Entretanto, falando por experiência própria, não há problema algum
em preencher essa coluna, antes de indicar os fornecedores. Não são raros os casos
em que os envolvidos conhecem melhor o material necessário do que as empresas
que os fornecem, portanto, caso seja útil e facilite o trabalho na hora de listar quem
são os fornecedores de material, é perfeitamente válido realizar essa inversão!

23
UNICESUMAR

A terceira coluna indica os procedimentos realizados dentro do processo em questão. Seu preen-
chimento pode se dar, tendo como base um fluxograma, visto que apenas as etapas, na ordem em que
são realizadas, são necessárias para completar essa coluna.
Um fluxograma se trata de uma sequência cronológica dos passos do processo, fornecendo uma
visualização rápida e simplificada de tudo que é realizado (WERKEMA, 2013). Essa ferramenta pode
ser útil não apenas no momento da aplicação do SIPOC, mas também no processo como um todo,
pois um olhar simplificado sobre o processo pode ser necessário a qualquer momento. Um exemplo
de fluxograma, tendo como base o processo estudado por Caroline em nosso estudo de caso, pode ser
visto na Figura 2.

Moagem do malte

Envase
Água Mosturação

Bagaço Clarificação Maturação

Lúpulo Fervura/ Fermentação


resfriamento

Figura 2 - Exemplo de fluxograma para produção de cerveja / Fonte: o autor.

Descrição da Imagem: um fluxograma indica a produção de cerveja. O processo é iniciado com a moagem do malte, passando para a
mosturação, etapa na qual há adição de água, indo para a clarificação, onde há a saída de bagaço, e em seguida chega às etapas de fervu-
ra e resfriamento, quando há adição de lúpulo. Em seguida, passa para as fases de fermentação, maturação e envase, respectivamente.

A coluna seguinte se refere às saídas do processo. Nela, podem (e devem) ser incluídos tanto o(s)
produto(s) final(is) do processo quanto eventuais sobras, refugos, produtos quebrados e similares. Por
último, temos a coluna dos clientes, os quais receberão o(s) item(ns) resultante(s) da coluna anterior.
Como exemplo de diagrama SIPOC, apresentamos o Quadro 3, que expõe o diagrama que poderia
ser elaborado pela engenheira Caroline, personagem do nosso estudo de caso, apresentado no início
de nossa unidade, para a produção de cerveja.

24
UNIDADE 1

S I P O C

Fornecedor A (lúpulo) Lúpulo Brassagem Cerveja Distribuidoras

Fornecedor B (malte) Malte Filtragem Levedura usada Mercados

Produtos Fazendas (levedura


Fornecedor C (levedura) Levedura Fervura
defeituosos usada)

Fornecedor D
Latas Resfriamento
(latas)

Fornecedor E (garrafas) Garrafas Fermentação

Maturação

Envase

Quadro 3 - Exemplo de diagrama SIPOC para produção de cerveja / Fonte: o autor.

O diagrama SIPOC pode ser usado também para falar de uma única etapa de um processo. Por exem-
plo, caso falássemos, apenas, da etapa de fermentação da cerveja, teríamos listados como fornecedores
apenas as empresas das quais adquirimos a matéria-prima usada nessa etapa (no caso, a empresa que
fornecer a levedura). Já as nossas entradas seriam a levedura e o produto gerado pela etapa, imedia-
tamente, anterior à fermentação.
Há diversas outras ferramentas que podem ser usadas durante a fase de definição, mas o diagrama
SIPOC tende a ser a mais completa. Entretanto, não é raro que este seja aliado a um fluxograma para
a definição dos processos envolvidos, visto que, por melhor que o diagrama seja para visualizar aquilo
que ocorre antes e após o procedimento, ele não fornece dados tão detalhados sobre as etapas quanto
um fluxograma pode oferecer.
Tendo essa fase definida, partimos para o segundo ponto do DMAIC — as medições. A etapa
“medir” tem como principal objetivo avaliar e compreender o estado atual do processo analisado
(MONTGOMERY, 2017). É impossível que saibamos se algo funciona dentro do esperado sem que
tenhamos dados, isto é, medições; então, precisamos ter conhecimento de todas as variáveis envolvidas
naquilo que é estudado e qual seu efeito sobre os resultados.
Se não conhecermos os dados anteriores à aplicação do projeto, não teremos uma forma de saber o
impacto que causamos nos resultados. Tão importante quanto termos os registros posteriores ao pro-
jeto, é termos aqueles anteriores. Um resultado em nada vale, se não houver algo com que se comparar.
Em tempo, é comum que vejamos o termo “medir” e pensemos que precisamos usar uma régua,
uma balança ou qualquer instrumento de medição físico para termos os dados em mãos. Mas, se es-
tivermos falando de uma empresa relativamente bem preparada, os dados já terão sido coletados em
ocasiões anteriores, o que torna desnecessário o esforço de ir até o chão de fábrica para realizar todo o
procedimento de anotações. Em casos ainda melhores, os dados já estão todos coletados e computados,
economizando horas, talvez até dias e semanas, de trabalho.

25
UNICESUMAR

Quantos dados são necessários para que possamos dizer que temos o suficiente para pros-
seguir com nosso projeto?

A partir do momento em que se tem os dados, o ideal é que eles sejam distribuídos em ferramentas
de análise (WERKEMA, 2014). O fato do profissional alocar as informações em gráficos, tabelas e/ou
similares pode ser também atribuído à fase de análise, conforme algumas obras da literatura o fazem.
Isso, porém, é plausível de discussão, visto que essa é a ação que encerra a etapa de medição e/ou ini-
cia a etapa de análise do ciclo DMAIC. Mas, no final, contanto que o passo a passo seja devidamente
seguido, torna-se indiferente em qual das etapas essa ação é encaixada.
Geralmente, para dados históricos, utiliza-se como base o histograma, que se trata de um gráfico
de barras focado em resumir um conjunto de dados, permitindo a visualização imediata da variação
entre os dados. Um exemplo de histograma está representado na Figura 3. Esta identifica a quantidade
de funcionários em determinadas faixas etárias que atuam na cervejaria em que Caroline trabalha.

Distribuição
12

10

0
21-24 25-28 29-32 33-36 37-40
Figura 3 - Exemplo de um histograma padrão / Fonte: o autor.

Descrição da Imagem: um gráfico de barras verticais indica, em seu eixo horizontal, 5 faixas de valores: 21 a 24, 25 a 28, 29 a 32, 33
a 36 e 37 a 40, com as barras indicando as respectivas quantidades no eixo vertical para cada uma das faixas de valores: 9, 11, 6, 9 e
5, respectivamente.

26
UNIDADE 1

Pode-se, também, usar ferramentas como os gráficos de controle, que apresentam


uma faixa de valores que podem ser consideradas como aceitáveis. Um exemplo de
gráfico de controle está apresentado na Figura 4, que indica a quantidade de defeitos
encontrados em cada lote de cerveja produzido na fábrica em que Caroline trabalha.
Note que há uma linha superior e uma linha inferior no gráfico, as quais não devem
ser ultrapassadas de forma alguma, um ponto que esteja acima do limite superior ou
abaixo do limite inferior pode indicar problemas no processo.

Gráfico de controle
10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Quantidade de defeitos no lote Média


Limite superior de controle Limite inferior de controle

Figura 4 - Exemplo de gráfico de controle / Fonte: o autor.

Descrição da Imagem: um gráfico com 3 linhas perfeitamente horizontais nos valores iguais a 0, 3,5 e 8,7,
respectivamente, e uma quarta linha que está ligada a 25 pontos diferentes no decorrer do gráfico, indicando
a quantidade de defeitos em cada um dos 25 lotes analisados. Como exceção do ponto 19, o qual está acima
da linha indicando o valor de 8,7, todos os pontos encontram-se na faixa de valores entre 0 e 8,7.

Pode, também, ser usado o diagrama de Pareto (ou gráfico de Pareto) como forma
de medir o impacto que cada uma das possíveis causas tem sobre um determinado
efeito. Um exemplo visual do diagrama é apresentado na Figura 5, que apresenta as
quantidades de reclamações recebidas pela cervejaria do nosso estudo de caso inicial.

27
UNICESUMAR

Diagrama de Pareto
90 100,00%
80 90,00%
70 80,00%
60 70,00%
50 60,00%
50,00%
40
40,00%
30
30,00%
20 20,00%
10 10,00%
0 0,00%
Coloração Sabor Volume Lacre Prazo de Canto Outros
estranha desagradável errado enferrujado validade da lata
apagado amassado

Quantidades Freq. Rel. AC.

Figura 5 - Exemplo de diagrama de Pareto / Fonte: o autor.

Descrição da Imagem: um gráfico com 7 barras verticais, que se inicia com a maior e vai até a menor, e com uma linha amarela cres-
cente, a qual parte de uma posição inferior da segunda barra até atingir o ponto mais alto, bem acima da última barra.

As três ferramentas citadas, além de outras, serão trabalhadas de maneira aprofundada no decorrer de
nossas próximas unidades. Guarde bem os seus nomes, pois elas serão de grande importância para a
disciplina e para a sua carreira! A partir de agora, falaremos da etapa “analisar”. Como já apontado,
pode ser que você encontre, em outras literaturas, o uso das ferramentas citadas na etapa de medições
atreladas à etapa de análise. Ainda assim, não precisa se preocupar, pois, contanto que você siga a ordem
das ações adequadamente, a etapa em que elas serão encaixadas não terá interferência nos resultados.
Agora que temos todos os dados organizados da forma como queremos, chega o momento de
entendermos o que de fato está acontecendo no nosso processo! Nossa intenção é a de correlacio-
nar causas e efeitos. Por “efeito”, podemos estar falando de resultados bons, resultados ruins, melhorias,
falhas, crescimentos, decréscimos, estagnações e qualquer outra situação que possa ter ocorrido com
nossos resultados.
Por “causas”, devemos entender que todo resultado (ou efeito) tem mais de um motivo, e as causas
são esses motivos. Se mencionarmos a cervejaria em que Caroline atua, podemos verificar, desde o
início, que o efeito “reclamações” acontece majoritariamente por causa da coloração estranha e do
sabor desagradável, e, se checarmos a Figura 3 apresentada anteriormente, veremos outras causas que
podem ter gerado esse efeito. Estendendo o exemplo para outras situações, podemos falar sobre o
efeito “acidentes de trânsito”, em que temos diversas potenciais causas, como falta de atenção, excesso
de velocidade, não manter distância segura em relação ao carro da frente, alcoolismo, defeito no carro,
entre outros. São raros os problemas que têm uma única origem.

28
UNIDADE 1

O nome dado formalmente à causa do problema é “causa raiz”. No sentido figura-


tivo, pode-se ver o problema como uma planta, e toda planta se origina de uma raiz.
Se destruímos a raiz, a planta morre ou, ao menos, fica mais fraca. Partindo da mesma
analogia, se eliminamos a causa raiz, o problema é encerrado ou, pelo menos, reduzido.
Nós já sabemos quais são as possíveis causas para um determinado efeito, porque
já realizamos a listagem delas na fase anterior e as organizamos em quadros e/ou
gráficos. Mas tão importante quanto entender quais são as causas, é descobrir qual
é a principal delas!
Para expor a importância de forma simplificada, pense no seguinte cenário: temos
um problema específico, o qual ocorre por três razões diferentes: a causa A, a causa
B e a causa C. A causa A foi a culpada por 10% das vezes que o problema ocorreu,
enquanto a causa B foi responsável por 15% das ocorrências. Já a causa C foi o que
gerou o problema em 75% das vezes.
Para resolver a situação nós vamos, então, focar nossa atenção a, apenas, uma das
causas. Se focarmos nossos esforços em eliminar a causa A, teremos 10% dos nossos
problemas resolvidos. Se nossa atenção estiver na causa B, resolveremos 15% das
situações. Agora, quando visarmos à causa C, reduziremos a quantidade de proble-
mas em 75%. Com base nesse ponto de vista, fica evidente que o nosso foco deve
ser a causa mais impactante, ou seja, a causa C. Mesmo que isso exija mais tempo e
um investimento relativamente maior do que as outras duas causas, o retorno será
muito maior.
A análise nos dirá quais são as principais causas das variações — sejam estas boas
ou ruins — e, com base nela, teremos as hipóteses das causas dos problemas (LOBO,
2020). A proposição e a discussão das hipóteses cogitadas são usadas para determinar
se diferentes condições de trabalho produzem resultados diferentes, pode acontecer
de uma única alteração mudar todo o rumo de uma operação (MONTGOMERY,
2017). Este será o caminho para pensar na solução implementada na próxima fase.
Além do Diagrama de Pareto, anteriormente apresentado, uma ferramenta de
grande utilidade no momento da análise é o FMEA (failure modes and effect analy-
sis, traduzido para o português como análise de modos e efeitos de falha), em que
falhas e erros em geral são analisados e têm notas de 1 a 10 atribuídas com base em
três critérios:
• Possibilidade de acontecer (sendo 1 a possibilidade mínima e 10 a certeza de
que ocorrerá).
• A chance dessa falha ser detectada (sendo 1 uma chance alta e 10 uma chance
baixa, a inversão de notas em relação aos outros parâmetros ocorre, porque a
nota mais alta é atribuída ao pior cenário).
• O impacto da falha (sendo 1 a nota para impactos baixos e 10 um alto impacto).

29
UNICESUMAR

Após o estabelecimento das notas, é determinado o NPR (número de prioridade de risco), o qual se
dá multiplicando os três valores. Quanto mais alto for o valor determinado para o NPR, maior deve
ser o foco dado àquela situação específica (MONTGOMERY, 2017).
O formato de um FMEA costuma seguir o que se mostra no Quadro 4, tendo como base o estudo
de caso apresentado no início de nossa unidade. Entretanto tenha em mente que a ferramenta pode ser
adaptada de empresa para empresa, não são raros os casos nos quais encontramos colunas adicionais,
por exemplo, uma que exponha possíveis soluções a serem tomadas. Use sua criatividade quando for
aplicar algo do tipo no seu local de trabalho - afinal, quanto mais informações conseguirmos colocar
em um único quadro, melhor!

Chance de Efeito da Chance de Impacto Força do


Ação Falha NPR
ocorrência falha detecção da falha impacto

Gosto Clientes
Entrada
ruim do desgosto-
de oxi- 3 10 9 270
produto sos com o
gênio
final produto
Leve- Clientes
Turbidez
dura no preocupa-
7 do produ- 8 8 448
produto dos com a
Fabricação to final
final aparência
de cerveja
Redução
de volume Reclama-
Latas do produ- ções de
5 6 5 150
furadas to ainda clientes
dentro da lesados
lata

Quadro 4 - Exemplo de diagrama FMEA / Fonte: o autor.

Um aspecto relevante para o FMEA é o de que, geralmente, deve-se optar por trabalhar com ele para
prevenção, e não para solução (RODRIGUES, 2016). Entretanto, em casos pontuais, nos quais a si-
tuação não havia sido prevista, ou, ainda, quando se deve criar uma espécie de classificação para as
causas que geraram o problema, é válido o seu uso em situações nas quais a intenção é consertar algo
que já tenha ocorrido.
É importante observar que, apesar de podermos trabalhar com mais de uma causa por vez, nunca de-
vemos analisar mais de um efeito em cada situação. Discutir mais de um problema simultaneamente pode
gerar desentendimentos e desinformação entre os participantes da reunião, o que só deixará tudo pior. Um
problema tem várias soluções, mas nem sempre uma única solução servirá para mais de um problema.
Assim como em todas as etapas do DMAIC, é importante que a análise seja realizada por mais de
um indivíduo. Quando consideramos uma empresa comum, pensamos que os diretores e os gestores
possuem todas as informações, mas isso é um grave engano. Muito do conhecimento, em especial o
prático, é pertencente aos operadores do chão de fábrica, e eles têm informações e pontos de vista dife-

30
UNIDADE 1

rentes daqueles que atuam em cargos considerados mais altos. Ao menos um funcionário de cada nível
hierárquico deve estar presente na hora de discutir as análises.
A partir do momento em que se chega a uma definição sobre aquilo que deve receber a atenção da
empresa, é iniciada a próxima fase do DMAIC, que se trata da implementação da melhoria. No inglês,
a quarta etapa é conhecida como “improve”, que significa “melhorar”. O nome em português,
apesar de ter um efeito próximo, não expõe a natureza completa dessa fase, pois, antes de implementar,
é preciso definir qual será a melhoria.
Isso pode ser feito imediatamente após ocorrerem as discussões da etapa de análise. Vale citar que,
apesar de sempre ser necessário que as melhorias foquem na principal causa determinada, também
podem ser pensadas e pesquisadas melhorias para resolver os demais problemas.
Em nosso estudo de caso apresentado, no início da unidade, focamos no fato de que Caroline deveria
priorizar a troca do filtro utilizado no processo. Entretanto, caso essa não fosse a única causa do efeito
analisado (coloração inadequada), ela poderia ter buscado mais uma solução para outra potencial causa.
Ao final da etapa anterior, discutimos sobre o quão importante é contar com o ponto de vista de
profissionais de todos os níveis hierárquicos na análise. Pois bem, na hora de pensar em uma solução
isso se torna não apenas importante, mas obrigatório! Você pode até conseguir pensar em uma melho-
ria por conta própria, mas é impossível implementá-la sem que haja aprovação prévia dos principais
envolvidos — é uma questão burocrática e até mesmo ética. Todo o procedimento DMAIC deve ser
realizado em conjunto, mas, especificamente, na etapa de implementações e melhorias, ele é mais im-
portante do que nunca.
Sendo assim, é relevante conversar com todos os envolvidos, quando se pensa em uma potencial
melhoria para o processo. Essa discussão se trata do chamado brainstorming, que, em português, foi
traduzido como “tempestade de ideias”. Como o próprio nome já sugere, trata-se da geração coletiva de
novas ideias. Falando sobre a metodologia de um brainstorming, podemos realizá-lo de duas formas: a
estruturada, em que todos expõem as suas ideias em turnos, como se fosse realizada uma grande roda
de conversas, na qual cada um espera seu momento de falar, e a não-estruturada, em que cada um fala
na hora que a ideia surgir, o que torna o processo mais dinâmico e descontraído. Isso, no entanto, deixa
as pessoas mais inibidas com menos oportunidades de fala.
Caso você, estudante, deseje realizar um brainstorming, sugiro que reflita bem sobre as pessoas
envolvidas. As duas maneiras apresentadas são ótimas, mas o rendimento dependerá do grupo com o
qual você está trabalhando. Caso você sinta que o grupo inteiro sente liberdade de falar, então o formato
não-estruturado pode render mais frutos. Caso seja um grupo de desconhecidos, relativamente mais
tímido, usar o brainstorming estruturado pode ser mais efetivo. A presença de um mediador durante o
processo é facultativa, sendo mais recomendada no formato estruturado, visto que a função do indivíduo
é a de fazer todos exporem seus pontos.
A literatura recomenda que o grupo para o brainstorming seja de, no máximo, 15 pessoas, o que, para
um processo estruturado, realmente é algo viável. Porém, por experiência própria, sugiro que evite ultra-
passar a quantidade de oito pessoas em uma discussão — principalmente em uma não-estruturada —,
pois o excesso de pessoas pode desorganizar o processo e gerar um efeito contrário ao que gostaríamos.

31
UNICESUMAR

Em qualquer hipótese, jamais durante o brainstorming teça ou permita que sejam feitas críticas a uma
ideia exposta. O momento é de dar ideias, não de criticá-las, visto que isso é algo que pode desmotivar
o indivíduo que deu a sugestão e, tão ruim quanto, quebrar o fluxo de funcionamento da atividade
(LOBO, 2020). Após todas as ideias serem listadas, será o momento de selecionar as melhores, essa é
a hora de opinar sobre tudo que foi exposto.
Após o processo de discussão e a melhor solução — ou as melhores — ter sido escolhida, chega o
momento de realizar a sua implementação. Entretanto, antes de fazê-lo, é necessário organizar todos
os aspectos. Quem irá aplicar? Quando será aplicado? Como será aplicado? Para isso, há uma outra
ferramenta da Qualidade muito popular e que merece nossa atenção nesse momento: o diagrama
5W2H. O diagrama nada mais é do que um quadro que indica as informações necessárias sobre a
ação, ou as ações, a ser realizada.
5W2H é a sigla para indicar as 7 perguntas a serem respondidas no diagrama. Estas são “what?” (o
que?), “who?” (quem?), “where?” (onde?), “when?” (quando?), “why?” (por que?), “how?” (como?) e “how
much?” (quanto custa?). Como são 7 itens a serem respondidos, pode ser feito um diagrama com 7 co-
lunas, uma com cada resposta. É sempre recomendável que a primeira coluna seja referente ao “what?”
e que a segunda seja relacionada ao “who?”, pois isso deixará claro logo de início o que será feito e por
quem será feito. A ordem das demais colunas não tem tanta interferência na interpretação do diagrama.
Essas informações devem ficar claras a todos aqueles que tenham algum envolvimento com o pro-
cedimento a ser realizado. Formas bem simples de fazer com que isso chegue a todos são por meio de
um e-mail corporativo ou uma folha impressa posicionada em um local de fácil acesso e visibilidade
a todos. Tomando como exemplo a ação realizada por Caroline no estudo de caso inicial, teríamos o
diagrama 5W2H exposto no Quadro 5.

How much?
What? Who? Where? When? Why? How?
(Quanto
(O que?) (Quem?) (Onde?) (Quando?) (Por quê?) (Como?)
custa?)

Desmontar
Corrigir pro- o encana- R$ 150,00
Troca do Operador Setor de 13 de janei-
blemas de mento e (preço do
filtro José maturação ro
turbidez colocar o novo filtro)
novo filtro

Quadro 5 - Diagrama 5W2H para correção do problema de turbidez da cerveja / Fonte: o autor.

32
UNIDADE 1

Que tal termos uma discussão mais aplicada à prática sobre o 5W2H?
Apesar de ser uma ferramenta voltada à gestão, também é algo que
pode ser aplicado à nossa vida pessoal, de uma maneira mais sim-
ples do que parece! No vídeo a seguir, comento a respeito da aplica-
ção da ferramenta no dia a dia e o quanto ela ajudará a organizar o
seu cotidiano e o de sua família.

Com o brainstorming e o diagrama 5W2H, além da realização prática da implementação da solução,


a quarta etapa do DMAIC já pode ser considerada concluída. Não são raros os casos em que a solução
é implementada em forma de teste, antes de ser devidamente efetivada e considerada como definitiva;
afinal, é muito arriscado aplicar uma ideia logo, em um primeiro momento, e já dizer que esse será o
novo formato. Nós nunca saberemos os resultados de algo até que eles sejam testados e comparados
com os dados anteriores à aplicação do novo método. Por esse motivo, partimos para a nossa quinta
e última etapa da ferramenta DMAIC.
A etapa “Controlar” pode se utilizar de ferramentas similares às etapas de medição e análise. A
intenção, aqui, é a de comparar os dados após a aplicação da melhoria com os dados anteriores a ela,
pois não adianta dizer que algo foi feito e não saber quais são os resultados. Sempre que você tiver que
apresentar algo, tenha em mãos os dados referentes ao antes e depois, caso contrário, não há sentido em
dizer que algo melhorou ou piorou, pois não há base concreta para estes argumentos. Esse, inclusive,
é o motivo pelo qual as ferramentas das etapas de medição e análise são as mesmas. Já temos todos os
dados anteriores tabulados e analisados conforme aquilo que usamos previamente, seja um histograma,
seja um diagrama de Pareto, seja qualquer outra ferramenta. Não há sentido em analisar os dados an-
teriores à implementação de uma maneira diferente da que usarmos para tratar dos dados posteriores.

Podemos dizer que tudo que discutimos até o momento tem como foco duas palavras: melho-
ria contínua. A aplicação do DMAIC, seja por meio do Seis Sigma, seja do Lean Manufacturing,
seja até mesmo de ambos, é vital para que possamos fazer o melhor com aquilo que temos
em nossa empresa. Apesar do forte vínculo do conteúdo abordado com a Qualidade, o que
foi falado aqui pode ser aplicado em qualquer setor da empresa, por qualquer nível da escala
hierárquica. De fato, muito é exigido para que as soluções aplicadas, usando o DMAIC, sejam
eficientes, e é necessária a colaboração de todos para que o efeito desejado seja atingido.
Entretanto o início da aplicação, ou, então, o surgimento das ideias, começará com um único
indivíduo, e este pode ser você. Sempre tenha em mente que, por melhor que algo esteja, sem-
pre será possível melhorar, basta um pouco de criatividade para encontrar o que pode ser feito.

33
UNICESUMAR

Ainda, sobre o controle dos dados, em nada adiantaria implementarmos uma solução perfeita e, de-
pois de algumas semanas, os colaboradores pararem de agir conforme a nova proposta. Seria a mesma
coisa que realizar uma dieta, perder 20 kg e, em seguida, voltar a comer da mesma forma de antes. A
mudança de hábitos é algo necessário para que o novo processo funcione adequadamente, e ela deve
ser espalhada e implementada na cultura da empresa, de forma a ser mantida.
A melhor forma de fazer isso é com treinamentos aos indivíduos que precisam se adequar à mu-
dança, treinamentos os quais devem ser registrados e documentados. Além disso, o controle dos dados
deve ser constante e receber atenção especial no período inicial, pois é a forma com a qual saberemos
o quão efetivas foram nossas ações (MONTGOMERY, 2017). O desenvolvimento de manuais com as
novas instruções de trabalho é, também, uma ótima forma de impedir que as falhas voltem a ocorrer.
Informações por escrito sempre são a forma mais confiável de garantir que tudo está registrado em
algum lugar e que, portanto, devem ser seguidas obrigatoriamente.
Nesse momento, devemos responder se nossos resultados esperados foram, de fato, atingidos. Caso
a resposta seja negativa, será necessária a aplicação de um novo DMAIC, com novas informações.
Conforme dito no início da nossa unidade, nem mesmo as empresas que aplicam o Seis Sigma (e, con-
sequentemente, o DMAIC) atingiram os resultados perfeitos até hoje, e elas estão tentando há décadas.
Quando houver melhora nos resultados por conta da aplicação do DMAIC, você deve se contentar,
mas nunca se mostrar completamente satisfeito! A intenção é justamente a melhoria contínua. Pode
ser que os resultados perfeitos, abordados pelo Seis Sigma, nunca sejam alcançados, mas isso nunca
impediu alguém de tentar!
O que vimos, nesta unidade, tem sua função e aplicação no cotidiano do profissional muito objetiva.
A intenção do DMAIC é apresentar um caminho seguro para a resolução de problemas. Reforçamos,
no entanto, que as ferramentas e métodos usados variam de um caso para outro! Cabe a você, como
profissional, conhecer as ferramentas adequadas e selecioná-las no momento da prática. Nossas pró-
ximas unidades, inclusive, terão foco em várias delas e o(a) ajudarão a compreender quais situações
exigem o uso de cada uma.
O Seis Sigma e o Lean Manufacturing podem ser, diretamente, relacionados com o DMAIC, ób-
vio, mas podemos preferir ver os dois como formas de pensar e organizar as nossas ideias. O Lean
Manufacturing nos ajudará a pensar em como reduzir nosso trabalho e nossos gastos a um mínimo
possível, mas manter a qualidade daquilo que é produzido intacta, ou, até mesmo, melhorando-a. Já o
Seis Sigma terá um foco mais voltado à Estatística, o que nos ajudará a manter o controle, tendo como
base a variação de nossos dados.
Desse modo, podemos aplicar ambos ao mesmo tempo, a tendência é que um ajude o outro, na ver-
dade, visto que a redução de desperdícios é benéfica para os resultados obtidos no Seis Sigma, enquanto
a estatística é uma boa forma de mensurar o quanto o Lean Manufacturing é efetivo. As ferramentas
do DMAIC, apesar de serem o ponto central, não são as únicas que podem ser adotadas, visto que o
uso de softwares estatísticos é sempre recomendável e pode auxiliar na obtenção de dados de forma
rápida. Você pode, inclusive, escolher o software com o qual acredita ter maior afinidade, cada pessoa
se adapta a um programa diferente, e há dezenas de opções no mercado para cada função desejada.

34
UNIDADE 1

E aí, caro(a) estudante, você lembra da atividade que propus no início dessa unidade? Vamos relem-
brá-la? Afinal, é possível resolver qualquer problema, usar o mesmo raciocínio de Caroline, em nosso
estudo de caso, e as mesmas ferramentas? A resposta é: não, não é possível! O DMAIC pode, sim, ser
usado em qualquer situação, mas as ferramentas podem variar! O raciocínio dela foi coerente com o
problema apresentado, mas outros casos exigirão outros pensamentos, com caminhos, ferramentas e
análises diferentes. A função do DMAIC será a de nos ajudar a organizar esses pensamentos, o restante
vai depender do nosso conhecimento!

35
Pois bem, agora é com você! Que tal preenchermos o mapa mental com base no que vimos durante
nossa unidade? O objetivo, aqui, é que você preencha as principais características dos programas
Seis Sigma e Lean Manufacturing, além das etapas do DMAIC. Como sugestão, você pode colocar
não apenas as características, mas também as ferramentas que podem ser usadas em cada uma
das etapas. Recomendo, também, que você realize os exercícios propostos ao final da unidade,
pois eles colaborarão com a fixação de tudo que discutimos!

Etapa
definir

Etapa
Características
medir
do Seis Sigma
DMAIC
Etapa
analisar

Características do
Etapa
Lean Manufacturing
implementar/melhorar

Etapa
controlar

Descrição da Imagem: um quadro em o escrito “DMAIC”, no centro, se interliga a diversos outros. À direita, há a divisão em 5
quadros menores, com os escritos “etapa definir”, “etapa medir”, “etapa analisar”, “etapa implementar/melhorar” e “etapa contro-
lar”. À esquerda, há mais dois quadros, com os escritos “características do seis sigma” e “características do lean manufacturing”.

36
1. Análise de Modos de Falhas e Efeito (Failure Mode and Effect Analysis – FMEA) é um mé-
todo estruturado e formalmente documentado; ele permite prevenir falhas e analisar
os riscos e a criticidade de um processo ou de seus eventos, por meio da identificação
de causas, efeitos e da consequente utilização de mecanismos ou ações para inibir as
falhas potenciais (RODRIGUES, 2016). O método FMEA leva em consideração notas de
1 a 10 para os aspectos referentes à chance do problema ocorrer, à probabilidade dele
ser detectado e ao impacto causado por ele. Considere uma situação na qual temos três
causas para um único problema cujos parâmetros estão expostos no quadro, a seguir.

Efeito
Chance de Chance de Impacto Força do
Ação Falha da
ocorrência detecção da falha impacto
falha

Impacto
Causa A 5 Efeito A 7 2
A
Impacto
Produção Causa B 8 Efeito B 4 6
B
Impacto
Causa C 5 Efeito C 5 8
C

Fonte: o autor.

Analise os dados e indique qual das causas deve ter sua solução priorizada. Justifique
a resposta, expondo o motivo da sua escolha.

2. O DMAIC é um procedimento estruturado de resolução de problemas largamente usa-


do para a melhoria da qualidade e do processo. Em geral, é associado a atividades do
Seis Sigma, e quase todas as implementações do Seis Sigma usam o processo DMAIC
para o gerenciamento e conclusão de projetos. O DMAIC, no entanto, não é necessa-
riamente ligado, de maneira formal, ao Seis Sigma; e, por isso, pode ser usado pela
organização, independentemente do Seis Sigma, sendo um procedimento bem geral
(MONTGOMERY, 2017).
A respeito do procedimento DMAIC, são feitas as seguintes afirmações:
I) A fase de definição envolve o momento em que ocorre coleta de dados referentes
ao processo.
II) A tabulação dos dados pode acontecer na fase de medição, mas sua compreensão
se dá na fase de análise.
III) A fase de implementação também pode ser chamada de fase de melhoria, visto que
é a parte na qual as ideias cogitadas são testadas.
IV) A fase final, que concerne ao controle, pode utilizar ferramentas iguais às da fase
de medição.

37
É correto o que se afirma em:
a) I e II, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) II, III e IV, apenas.
e) I, II, III e IV.

3. O procedimento DMAIC utiliza diversas ferramentas da Qualidade para medir e analisar


os dados referentes a um processo. Dentre as ferramentas, uma delas costuma ser
indicada para expor qual possível causa é a principal responsável pelo efeito gerado e,
consequentemente, auxilia na escolha de qual causa raiz deve ser priorizada.
Assinale a alternativa que indica a ferramenta à qual o trecho apresentado se refere.
a) Histograma.
b) Fluxograma.
c) Gráfico de controle.
d) Diagrama de Pareto.
e) Diagrama SIPOC.

4. O Seis Sigma e o Lean Manufacturing são duas filosofias usadas em empresas, pensando
em fatores, como a melhoria contínua. Entretanto, apesar de suas semelhanças e de
ambas poderem atuar em conjunto, há características que são muito mais presentes
em um dos programas do que no outro.
A seguir, são apresentadas 4 características:
I) Redução de desperdícios.
II) Controle estatístico dos dados.
III) Redução na variabilidade entre itens iguais.
IV) Aumento da velocidade de produção.

Considere L para Lean Manufacturing e S para Seis Sigma. Assinale a alternativa que
apresenta com qual programa as afirmativas I, II, III e IV, respectivamente, podem ser
vinculadas com maior clareza.
a) S, L, L, S.
b) L, S, S, S.
c) S, L, S, L.
d) L, S, L, S.
e) L, S, S, L.

38
5. O DMAIC pode ser considerado como um caminho básico para a resolução de problemas
em geral. Todas as ações devem ser executadas na ordem proposta, pois ela segue um
raciocínio que ajudará a encontrar a solução para todo tipo de situação.
A respeito da ordem das ações, a seguir, são indicadas 5 ações para a resolução de um
problema específico.
I) Interpretar as informações que foram obtidas.
II) Acompanhar de perto os resultados obtidos ao final.
III) Coletar os dados.
IV) Entender qual é o problema a ser corrigido.
V) Discutir soluções viáveis para a situação.
Assinale a alternativa que indica corretamente a ordem com que as ações devem ser
realizadas, segundo o DMAIC.
a) IV, III, I, V, II.
b) IV, I, V, III, II.
c) III, I, IV, V, II.
d) IV, V, III, II, I.
e) IV, III, V, I, II.

6. A ferramenta brainstorming é considerada muito relevante em discussões; por isso,


amplamente usada nas etapas do DMAIC, em especial, na etapa de implementação e
melhorias. Explique do que se trata a ferramenta, quais profissionais devem ser envol-
vidos, nela, e o motivo pelo qual eles devem ser envolvidos. Exponha, também, quais
modalidades de brainstorming podem ser usadas e suas diferenças.

39
40
2
Ferramentas de
Controle - Parte I
Me. Paulo Otávio Fioroto

Esta unidade é voltada à apresentação das três primeiras ferra-


mentas da qualidade, com as quais trabalharemos. Por isso, abor-
daremos, aqui, a estruturação e o preenchimento de uma folha
de coleta; discutiremos a montagem de um diagrama de Ishikawa
e exporemos todo o processo de criação e interpretação de um
diagrama de Pareto.
UNICESUMAR

Existe uma ferramenta da qualidade que seja superior às demais? Você deve conhecer diversas ferra-
mentas da qualidade, seja por experiência profissional, seja por meio de outras disciplinas, seja, ainda,
por pura curiosidade. Ter que usar gráficos, diagramas, tabelas e quadros em relatórios empresariais e
em análises no cotidiano são parte comum do dia a dia de um bom gestor. Mas, tão importante quanto
saber interpretá-los, é saber montá-los!
É natural que alguns profissionais tenham preferência por uma ferramenta ou um software específi-
co — este que vos fala não é exceção, inclusive, sinto maior afinidade por alguns programas específicos,
quando se trata da análise de dados. Entretanto não é por preferirmos uma ferramenta que deixaremos
de conhecer as outras, concorda? Por isso mesmo, tanto a nossa unidade atual quanto a próxima tratarão,
especificamente, das principais ferramentas da qualidade.
Segundo a maior parte da literatura, temos sete ferramentas da qualidade. Porém, apesar de algumas
das ferramentas serem presença absoluta em todas as listas, outras não são unanimidade entre todos
os autores, por isso, é muito comum que encontremos um ou dois itens diferenciados em cada lista, na
verdade. O brainstorming, por exemplo, o qual foi um dos assuntos tratados em nossa unidade anterior,
é uma das presenças esporádicas nas listas, isto é, nem sempre é considerado no grupo das ferramentas.
Por outro lado, apresentamos o diagrama de Pareto, o histograma e o gráfico de controle, que são
incontestáveis na listagem. Enquanto os dois primeiros itens serão abordados entre esta e a próxima
unidade, o terceiro, por ser a ferramenta mais aplicável e mais versátil dentre todas, terá lugar de destaque
em outro momento do material. Sendo assim, por enquanto, deixaremos os gráficos de controle de lado.
Apesar de termos formalmente sete ferramentas, se unirmos todas as listas, esse número certamente
irá aumentar. Aqui, iremos nos manter fiéis a essa quantidade, e não consideraremos o brainstorming
dentro da seleção. Para conhecer as ferramentas, que tal apresentarmos o uso delas na prática e abor-
darmos um novo estudo de caso?
Trataremos, agora, de Maycon, um profissional certificado em Seis Sigma e Lean Manufacturing que
atua em uma empresa de consultoria, localizada em uma pequena cidade do interior paulista. A região
conta com poucos concorrentes e, por conta disso, a companhia é altamente requisitada, sendo contra-
tada, principalmente, por dois grupos específicos de empresários: os iniciantes, com pouca ou nenhuma
experiência no mercado, e os mais idosos, aqueles que gerenciam sua própria empresa há algumas dé-
cadas, mas que começaram a sentir os efeitos da concorrência e não sabem como se manter atualizados.
Maycon foi enviado para auxiliar uma companhia que estava iniciando a produção de pastas de den-
te. Apesar de serem novos no ramo, a companhia já trabalhava com outros produtos da área de saúde
bucal anteriormente, como fios dentais e produção de materiais para protetores bucais. O proprietário
da empresa, Marcelo, é um senhor que atua no mercado há vários anos e que, apesar de bem-sucedido
e com um bom olhar para investimentos, nunca realizou qualquer curso voltado à gestão, o que deixou
a empresa estagnada por algum tempo. Entretanto, por estar cada vez mais próximo da aposentadoria
e por querer deixar a empresa nas mãos de seus filhos, os quais ainda estão no Ensino Médio, decidiu
começar a expandir a marca, de forma a torná-la rentável para quando seus herdeiros assumirem o
comando, definitivamente.

42
UNIDADE 2

Voltando a tratar de Maycon, por ele ser um profissional com experiência, já sabe que deve seguir
os passos do DMAIC para conseguir auxiliar a empresa em questão. Os funcionários da companhia,
porém, em especial aqueles que atuam na linha de produção das pastas de dente, apesar de muito
empenhados e empolgados com a oportunidade, são majoritariamente iniciantes e com pouco tem-
po de vivência em outros empregos. Por conta disso, não fazem ideia do que se trata a sigla DMAIC,
tampouco conhecem as ferramentas envolvidas. Vários nem sequer conhecem os conceitos voltados
à qualidade, na verdade. Sendo assim, mesmo com todos os colaboradores se mostrando dispostos
a colaborar e compartilhar informações, Maycon cogitou, em um primeiro momento, que precisaria
agir praticamente sozinho. Entretanto, após pensar um pouco mais sobre o assunto, concluiu que faria
melhor: não apenas realizaria seu trabalho, como ajudaria os funcionários a aprenderem as ferramentas
e os faria executar o raciocínio necessário, atuando como uma espécie de mentor.
Após conversar com alguns dos indivíduos da fábrica, entre operadores, supervisores e gerentes, o
consultor percebeu que havia mais de um problema a ser tratado. Notou-se que o gosto do produto é
irregular para um mesmo sabor (algumas unidades aparentam fornecer um frescor maior a quem a
usa), algumas embalagens, mesmo sem furos, têm uma quantidade de pasta menor do que a desejada
e, por último, mas não menos importante, a consistência da pasta costuma variar entre um lote e outro.
Sabemos que não se pode analisar mais de um problema por vez, mas isso não impede que eles sejam
resolvidos simultaneamente, com uma equipe focada em cada situação específica. Maycon decidiu tratar
de todos os problemas de uma só vez, dividindo os funcionários da empresa em equipes, cada uma
voltada a uma das situações, e concentrando o gerenciamento dos projetos de melhoria nele mesmo.
Vendo as situações apresentadas e sabendo que temos os nossos problemas definidos, qual seria a
melhor ferramenta para realizar a medição e a análise dos dados referentes aos problemas?

43
UNICESUMAR

Pois bem, cada um dos problemas poderá ter seus dados medidos de uma maneira diferenciada. En-
quanto alguns dos atributos analisados — como a quantidade de pasta dentro de cada tubo — podem
ser determinados, utilizando-se de uma balança de precisão, outros dados, como a consistência e o
frescor, deverão ser analisados tendo como base a opinião de pessoas que, preferencialmente, não
estejam diretamente envolvidas com o processo. Isso é algo natural, pois são dados de naturezas dife-
renciadas. Desse modo, enquanto a quantidade de pasta é um parâmetro absoluto, os outros dados são
uma questão de opinião.
Tenha em mente, porém, que o fato dos dados terem naturezas diferentes não nos impede de orga-
nizá-los de maneira similar! Para tanto, podemos usar uma das ferramentas da qualidade mais simples
e, justamente pela facilidade de aplicação, a mais popular: a folha de controle.
A grosso modo, uma folha de verificação é apenas uma folha utilizada para coleta de dados; seu
preenchimento e sua importância, entretanto, são muito maiores do que essa descrição faz parecer,
pois o registro dos dados é melhor organizado do que se fosse usada uma folha qualquer. Além disso,
é sempre importante termos um lugar para anotar aquilo que coletamos, concorda?
Feita a coleta de dados, Maycon decidiu focar nos dados relacionados à quantidade de pasta que
havia dentro de cada um dos tubos, visto que, apesar de todos os problemas serem relevantes, esse é
aquele que mais poderia trazer problemas à empresa. Analisando os dados, Maycon notou que mui-
tas unidades continham uma quantidade de pasta 25 gramas menor do que indicado na embalagem,
variando para mais ou para menos. Considerando que o tubo deveria conter 250 gramas, concluiu-se
que era um desvio de 10% em relação ao valor nominal da embalagem, isto é, o valor que é indicado
no momento da venda ao cliente.
Após tomar nota desse problema, Maycon pediu para um dos supervisores do chão de fábrica mos-
trar todo o processo produtivo, pois não tinha conhecimento do funcionamento da linha de produção
de cremes dentais. Após uma explicação completa sobre todo o procedimento, ele notou uma situação
que considerou inesperada: o fato de que os processos, apesar de mecanizados, ainda dependiam muito
de ajustes e de operadores manuais. Ao conversar com o dono, decidiu chamar alguns dos indivíduos
envolvidos no processo, entre vários níveis hierárquicos, para listar possíveis problemas que possam
causar a falta de creme dental no interior dos tubos.
Para tanto, foi realizado um brainstorming, no qual Maycon atuou como mediador e permitiu que
todos expusessem seus pontos de vista e sugerissem eventuais causas que pudessem resultar no efeito
“tubos com pouco creme dental”. Com base nas informações que foram passadas, o consultor apre-
sentou as anotações feitas, durante a roda de conversa, em um formato diferenciado — um diagrama
desenhado em forma de espinha de peixe, conhecido formalmente como diagrama de Ishikawa ou
diagrama de causa e efeito.
Esse diagrama não apenas ajuda a entender quais são as possíveis causas que geram um determinado
efeito, como também pode auxiliar na divisão delas em causas secundárias, isto é, causas que geram as
causas, proporcionando um entendimento mais aprofundado da causa raiz. Além disso, nele, ocorre
a classificação das causas por categorias, pois, enquanto algumas das causas podem ser classificadas
como problemas referentes à matéria-prima, outras são ocorrências devido a falhas mecânicas, ou
então à mão de obra.

44
UNIDADE 2

O diagrama de Ishikawa, porém, apresenta uma limitação: o fato de não trabalhar com dados
numéricos. Sua função é voltada à organização de informações, trabalhando como uma listagem, em
um formato mais elaborado e analítico. Quando falamos de processos, são raros os casos nos quais
não temos que trabalhar com quantidades absolutas ou relativas, então, apesar da sua utilidade como
ferramenta organizacional, sempre devemos ter alguma ferramenta atrelada ao diagrama. Mas, con-
siderando a gama de ferramentas que a qualidade nos oferece, obviamente teremos ao menos uma
possibilidade de uso. E Maycon, com sua experiência, já tinha a ferramenta em mente, antes mesmo
do início da montagem do diagrama de Ishikawa. Chegou, então, a hora de posicionar todos os dados
em um diagrama que conhecemos na unidade anterior: o diagrama de Pareto.
Se o diagrama de Ishikawa organizou eventuais causas, o diagrama de Pareto foi usado para elen-
cá-las em nível de impacto, quase como um rankeamento. Dentre todas as possíveis causas citadas,
aquelas que se mostraram mais coerentes foram analisadas. Primeiramente, uma hipótese levantada
foi o fato de haver pequenos furos nos tubos, o que poderia ocasionar o vazamento do produto, essa foi
chamada de hipótese A. Também, foi cogitado que equipamentos desregulados injetavam uma quan-
tidade menor de pasta do que o desejado, isso foi classificado como hipótese B. Uma terceira possível
causa foi o fato dos processos, que necessitavam de atuação manual dos operadores, ocorriam sem um
treinamento específico e, consequentemente, o processo assíncrono irregular, tornando os produtos
diferentes entre si, o que foi chamado de hipótese C. Por último, uma causa levantada é a de que o creme
dental produzido era insuficiente, o que forçava os equipamentos a injetarem uma quantidade menor
em cada tubo. Seguindo a lógica, essa possibilidade foi chamada de hipótese D. Também, cogitaram-se
outras hipóteses, estas foram vistas como de menor relevância e, portanto, uma menor chance de ser a
causa principal do problema. Desse modo, elas foram encaixadas uma categoria, com o nome “Outros”.
Após serem definidas as possíveis causas que podem resultar no problema analisado, foram coletados
dados referentes a esses processos; no caso, houve novas coletas, dessa vez, focadas especificamente em
verificar a quantidade de falhas encontradas em cada uma das hipóteses. Em seguida, os dados foram
organizados em forma decrescente no diagrama de Pareto, como sempre deve ser realizado. Unindo
todas as observações, somaram-se 350 erros em pouco mais de 1000 observações realizadas. Dentre
as 350 falhas, 129 ocorreram por conta da hipótese B (equipamentos desregulados), o que correspon-
de a 36,86% do total de falhas. Em seguida, a hipótese A (furos nos tubos) se mostrou real, e foram
encontrados 92 casos em que essa foi a falha, indicando 26,29% das ocorrências em termos relativos.
A hipótese D (pouco produto para ser injetado) correspondeu a 69 ocasiões, referentes a 19,71% dos
erros, e a hipótese C (atividade manual irregular) apareceu em 42 situações, atingindo exatos 12% das
ocasiões. O grupo “Outros”, que corresponde a outras possíveis causas, teve uma parcela de 5,14% das
falhas, equivalente a 18 casos.
Com base nessa análise, é possível notar que os equipamentos desregulados são, com alguma sobra,
a principal causa do problema, seguidos pelos tubos com furos. A intenção do diagrama de Pareto é,
justamente, indicar qual ou quais são as causas principais a serem tratadas. Se Maycon ajudar a empresa
a resolver os problemas referentes às hipóteses A e B, 63,15% das causas cessarão, o que significa que
o problema, apesar de continuar existindo, se tornará muito menos frequente.

45
UNICESUMAR

O que vimos no estudo de caso, até o momento, foi a aplicação das três primeiras etapas do DMAIC.
O diagrama de Pareto, junto ao diagrama de Ishikawa previamente desenvolvido, foi usado justamente
como forma de analisar onde se encontrava a causa raiz para o efeito. As etapas seguintes, com imple-
mentação da melhoria e controle, são feitas de forma voltada especificamente às causas encontradas,
portanto, não serão relevantes para nosso estudo nesse momento. O que nos interessa, a partir de agora,
são as três ferramentas abordadas: a folha de verificação, o diagrama de Ishikawa e o diagrama de Pareto.
As ferramentas que abordamos, nesta unidade, nesse momento, são consideradas essenciais em
qualquer empresa, principalmente quando tratamos da indústria. Elas podem ser abordadas em diversas
situações, até mesmo no seu cotidiano. Entretanto, apesar da grande aplicabilidade das ferramentas, é
muito importante que saibamos qual é o caso ideal para aplicação de cada uma delas. Sendo assim, em
quais situações devemos aplicar a folha de verificação, o diagrama de Ishikawa e o diagrama de Pareto?
Toda ferramenta tem seus devidos momentos e situações para aplicação. Não se pode simplesmente
usar um diagrama de Pareto sem que se conheça, pelo menos, três ou quatro potenciais causas para
um determinado problema. Da mesma forma, não há motivo para usá-lo, se a causa for apenas uma,
por exemplo, se você estiver dirigindo um carro e ele parar repentinamente, você determinará qual é
a causa-raiz da parada. Caso seja verificado que se trata da falta de combustível, não há motivo para
você se preocupar em trocar os pneus ou consertar o motor. Por mais útil que o diagrama seja, seu uso
nem sempre é necessário ou relevante, e cabe ao responsável definir qual é a forma ideal de lidar com
a situação. Você acredita que o caminho definido por Maycon para analisar o problema exposto foi o
correto? Poderia ser usada alguma outra ferramenta como substituinte, ou, então, atrelada àquilo que
foi realizado no estudo de caso?

DIÁRIO DE BORDO

46
UNIDADE 2

Para respondermos a esse questionamento, precisamos conhecer cada uma das ferramentas que foram
abordadas e sua finalidade. Vamos lá? Nossa primeira discussão será a ferramenta considerada mais
simples cuja importância, porém, é vital para qualquer processo: a folha de verificação. No estudo
de caso, sua descrição foi um pouco enxuta, mas, apesar da sua simplicidade, ela conta com detalhes
essenciais e instruções de preenchimento que devem ser seguidas à risca.
A primeira informação que deve constar na folha de verificação é o processo ou objeto analisado.
Isso pode constar logo acima do cabeçalho a ser preenchido com os demais dados necessários. A seguir,
devem vir outras informações, como: o nome de quem realizou o preenchimento, a data, o horário e,
dependendo da situação, o tipo de peça mensurado (MONTGOMERY, 2017).
O nome de quem realizou o preenchimento é importante para que, caso seja necessário tirar alguma
dúvida sobre o que estiver descrito, seja possível identificar exatamente quem foi o responsável. Data
e horário são igualmente significativos, pois nos permitirão dizer com exatidão em qual lote foram
percebidos os dados coletados, isso facilitará muito o trabalho, caso ocorra algum problema, pois já
se saberá onde procurar a causa-raiz.
Além disso, é de grande importância que a folha seja sempre preenchida pela mesma pessoa. Caso
a empresa trabalhe em turnos, então, deve haver um indivíduo responsável em cada turno. Isso ocorre
pela necessidade de padronização nas medições e preenchimentos. É natural que pessoas diferentes,
mesmo recebendo o mesmo treinamento, executem tarefas de maneiras diferenciadas. Folhas de
verificação não têm espaço para esse tipo de liberdade, pois todos os dados devem ser mensurados
e anotados de maneira idêntica, um dado anotado, erroneamente, pode gerar diversos problemas. É,
sempre, interessante que o responsável pelo preenchimento passe por um treinamento prévio, por mais
que a execução pareça simples. Em tempo, o indivíduo deve ter plena noção da importância da coleta
de dados e do preenchimento adequado, pois ele deve entender o peso da responsabilidade.
Os dados citados são exigidos para qualquer modelo de folha de verificação. Entretanto o preen-
chimento pode variar, visto que cada empresa e cada processo utilizam informações diferenciadas. Há
várias categorias para as folhas de verificação e, dentre elas, as mais comuns são (WERKEMA, 2014):

Folha de verificação Folha de


Folha de
para a distribuição de verificação para
verificação para
dados de controle. localização de
classificação.
defeitos.

47
UNICESUMAR

A folha para distribuição de dados de controle é preenchida, levando em conta o desvio dos resultados
em relação ao que se espera obter. Ela possui diversas linhas compostas por pequenos quadrados, e
um X é marcado em cada quadrado, quando se encontra um item que corresponde àquele desvio.
Um exemplo dessa folha é apresentado na Figura 1, que é similar ao modelo aplicado por Maycon,
em nosso estudo de caso.
Marcas
Desvio 5 10 15 20 Frequência
-10
-9 x 1
-8 x 1
-7 x x x 3
LIE -6 x x x x 4
x x x x x
Quantidade de pasta no tubo (g)

-5 5
-4 x x x x x 5
-3 x x x x x x 6
-2 x x x x x x x 7
-1 x x x x x x x x x x x x x 13
180 0 x x x x x x x x x x x x x x x x 16
1 x x x x x x x x x 9
2 x x x x x x x x 8
3 x x x x x x 6
4 x x x x x x 6
5 x x x x 4
LSE 6 x x x 3
7 x x 2
8 x 1
9
10
TOTAL 100
Figura 1 - Modelo de folha de distribuição de dados de controle / Fonte: o autor.

Descrição da Imagem: uma tabela dividida em várias colunas e linhas, formando vários pequenos quadrados na parte central. As
linhas indicam o quanto o valor pesado para cada embalagem se desvia dos 180 gramas desejados. As colunas indicam a quantidade
de amostras em que houve desvios. Para cada amostra que tiver sido contabilizada, é marcado um X em um quadrado.

Na Figura 1, nota-se que o valor 180, no lado esquerdo, está ao lado do desvio igual a 0. Isso significa
que o valor nominal indicado (isso é, a quantidade de pasta indicada na embalagem) é de 180 g, e que
várias unidades observadas tiveram exatamente essa quantidade de creme dental. A quantidade pode
ser observada pela quantidade de X marcados em cada linha, no caso da linha com desvio 0, temos 16
unidades, conforme registrado na última coluna da Figura 1.
Importante observar que temos também as indicações “LIE” e “LSE”. Ambas as siglas se referem,
respectivamente, ao limite inferior de especificação e ao limite superior de especificação. Estes são os
limites determinados pela própria empresa para variações nos produtos que possam ser consideradas
aceitáveis. No caso apresentado na Figura 1, a variação aceita é de 6 gramas para mais ou para menos,
em outras palavras, qualquer embalagem que contenha menos que 174 g ou mais que 186 g estará
totalmente fora do que a empresa aceita.
Os limites de especificação não são determinados com base matemática, são apenas valores deter-
minados pelos gestores responsáveis para o processo. Há, também, os chamados limites de controle,
os quais são diferentes dos limites de especificação e são determinados estatisticamente. Discutiremos
isso a fundo, em unidades posteriores.

48
UNIDADE 2

Os limites de especificação são determinados por meio da escolha dos gestores


responsáveis pelo processo. Sabendo, porém, que a base para os definir não é
a estatística, como os responsáveis podem determiná-los?

No canto inferior direito, está descrita a quantidade total de itens analisados. Essa infor-
mação é relevante para que, com apenas uma consulta breve, seja possível conhecer o
percentual de itens que se encontra dentro dos padrões. No caso desse modelo de ficha, o
preenchimento é a parte mais simples, visto que basta preencher cada quadrado com um
X, quando encontrar uma amostra com aquela massa ou qualquer que seja o parâmetro
em análise. As complicações geralmente se encontram no procedimento de medição, visto
que ele deve ocorrer de forma idêntica para todas as aferições. Enquanto quem executa
deve sempre cuidar para que suas ações sejam iguais, essa pessoa também precisa estar
atenta à calibração do instrumento de medição. Uma falha no equipamento pode fazer
com que todos os dados coletados se tornem inúteis.
Uma vantagem desse modelo de folha de verificação se dá pela montagem automática
de um histograma. Se considerarmos os espaços preenchidos em cada linha, teremos
um gráfico de barras montado na horizontal, bastando colocá-las na vertical para que
tenhamos o histograma pronto. Caso o histograma tenha um formato similar ao de
uma distribuição normal, conforme visto na nossa unidade anterior, haverá uma maior
probabilidade do processo estar funcionando adequadamente. O segundo formato de
folha de verificação que abordaremos é a folha de classificação. Visualmente, a estrutura
dessa folha é mais simples do que o nosso primeiro exemplo, mas sua importância não
pode ser avaliada, apenas, por esse fator.
Essa folha é usada para subdividir características de interesse em categorias mais
aprofundadas. Por exemplo, pode ser criada uma folha em que sejam registradas as
quantidades de produtos defeituosos, o que é plenamente viável. Entretanto, você con-
corda que é relevante saber qual é o defeito encontrado? Pois bem, aí está a função da
folha de verificação para classificação, ela estratificará a característica de maneira mais
detalhada (WERKEMA, 2014).
Um exemplo está apresentado na Figura 2, em que podemos encontrar a quantidade de
cada tipo de falha que foi anotada pelo responsável de um determinado turno, enquanto
Maycon realizava a consultoria apresentada no estudo de caso. Importante citar que
mais de uma folha de verificação deve ser preenchida e analisada, pois pode acontecer
de o momento, em que foram coletados estes dados, ser atípico em relação aos demais,
mascarando as informações.

49
UNICESUMAR

Nome: Fernando Henrique Simão Data: 22/01/2021


Horário: 10:15

Defeito Contagem Subtotal

Tubos furados 19
Textura inadequada 7
Tampa amassada 11
Gosto desagradável 4
Faltando pasta 25
Caixa arranhada 8
Total

Total rejeitado 74

Figura 2 - Modelo de folha de classificação / Fonte: o autor.

Descrição da Imagem: uma ficha dividida em três colunas, sendo a primeira incluindo defeitos encontrados
nos produtos, a segunda usada para contabilizar a quantidade de vezes que cada um dos defeitos aconteceu
usando marcações em forma de riscos e a terceira incluindo o total numérico de erros. Na parte superior
também estão inclusos nome de quem fez a anotação, a data da coleta de dados e o horário.

O preenchimento é bem mais simples do que o modelo para distribuição de dados de


controle, entretanto ele tende a ser um pouco mais demorado. Isso ocorre por conta
da variedade de defeitos que podem surgir, e nem sempre todos são identificados de
imediato. Caso haja uma folha de verificação para cada processo, o preenchimento
torna-se mais rápido, dependendo apenas da atenção do responsável.
Volto a dizer que é necessário que o indivíduo que preenche as folhas de verificação
seja sempre o mesmo, pois a prática e o olhar dele se tornarão, cada vez mais, regulares,
com o passar do tempo, permitindo que ele classifique todos os defeitos com base
em um mesmo critério de classificação. Enquanto algumas pessoas podem não con-
siderar uma parte da embalagem como amassada, outras serão mais perfeccionistas
e marcarão como uma falha. Isso, de forma alguma, é errado, afinal, cada indivíduo
tem um olhar diferenciado. O importante é que os critérios de observação e anotação
sejam sempre os mesmos.
A vantagem da folha de verificação para classificação se dá pela agilidade para
montagem de um eventual diagrama de Pareto. Como cada falha já é estratificada e
contabilizada na própria folha, basta organizar os dados para a montagem do diagrama,
o qual nos ajudará a compreender qual é a principal causa para os produtos defeituosos.

50
UNIDADE 2

Por último, nosso terceiro modelo de folha de verificação é a folha de localização de defeitos. Den-
tre aqueles que apresentamos, este é aquele menos comum, pois é usado apenas em situações muito
específicas. Entretanto, tratando-se desses casos específicos, a ideia é absolutamente útil e torna a
identificação do problema pelo leitor muito rápida e fácil. Vale citar que seu uso é mais propício a itens
que são compostos por mais de uma peça e, geralmente, mas não exclusivamente de grande porte.
Pense nessa folha como uma espécie de mapa. Esse modelo de folha de verificação terá o desenho
de uma peça ou item específico — por exemplo, uma geladeira —, que representará em 3 vistas: frontal,
lateral e superior. Em pelo menos uma das três vistas, haverá uma representação gráfica do defeito
daquele item específico, como um arranhão, uma mancha ou uma parte amassada (WERKEMA, 2014).
A identificação do defeito pode ser feita com base em cores ou formatos. Por exemplo, a região
amassada pode ser identificada por meio do desenho de um círculo na parte específica, enquanto um
arranhão pode ter como símbolo padrão um risco. Por outro lado, o amassado pode ser registrado
apenas com um traço vermelho, enquanto o arranhão pode ser representado com um traço azul. É
muito importante que os símbolos sejam padronizados, e é sempre recomendado que seja colocada
uma legenda para os símbolos ou cores na parte de baixo da folha, isso impede que qualquer falha de
comunicação possa ocorrer. A legenda, também, pode ser colocada, em um quadro à parte, contanto
que este esteja de fácil alcance a todos que precisarem interpretar a folha. Um exemplo para uma folha
de verificação para localização de defeitos é apresentado na Figura 3, mostrando uma geladeira com
um defeito externo.

Folha de verificação para localização de defeitos


Geladeira
Nome:_____________________________________________________
Data:_________ Horário:___________

Topo
Frente/Atrás Lateral

Figura 3 - Modelo de folha de localização de defeitos / Fonte: o autor.

Descrição da Imagem: uma folha com campos em branco para nome, data e horário. Há três retângulos logo abaixo dos campos, cada
um indicando uma posição diferente de uma geladeira. A primeira mostra a parte dianteira do objeto, que apresenta dois riscos que
indicam arranhões, a segunda mostra a lateral, que contém um círculo que indica um amassado, e a última apresenta a vista superior,
sem indicações de defeitos.

51
UNICESUMAR

O exemplo apresentado na Figura 3 tem a indicação de dois defeitos, um na parte frontal e outro na
lateral do item. Os traços na parte frontal costumam indicar arranhões na superfície, enquanto círculos
ou formas similares, conforme a lateral, podem representar manchas ou bolhas. A importância desse
tipo de folha, além de facilitar a identificação do defeito, está em expor sua origem. Caso haja excesso
de situações em que um mesmo erro aconteça em várias unidades, é perfeitamente possível encontrar o
momento em que o problema acontece, com uma simples análise das possibilidades (WERKEMA, 2014).
Há outras modalidades de folhas, as quais podem fornecer mais informações, conforme adaptadas.
Ao invés do uso diário de folhas, pode ser usada apenas uma folha com indicação para a semana toda,
em que ocorre a estratificação de turnos e de dias da semana. Da mesma forma, pode haver uma divisão
na folha embasada nas máquinas que estavam em operação e, caso haja concentração de falhas apenas
em um dos maquinários, apenas a produção daquele equipamento deverá ser pausada, sem influenciar
as demais e, assim, gerar menos preocupações e impactos nos resultados.
Ainda, tratando de ferramentas que podem nos ajudar a encontrar causas para efeitos em geral,
temos o diagrama de Ishikawa. Caso você já tenha alguma experiência com a área da Qualidade, é
possível que conheça o diagrama por meio de outros nomes: diagrama de causa e efeito ou diagrama
espinha de peixe, sendo este último um nome informal, mas muito popular, baseado na estrutura com
que o diagrama é desenhado. Os três nomes se referem exatamente à mesma ferramenta, então você
pode optar por chamá-la como preferir.
O nome do diagrama vem com base em seu criador, o engenheiro japonês Kaoru Ishikawa, que
o desenvolveu na década de 40. Sua intenção era apresentar uma ferramenta que pudesse ser usada
como base para que até mesmo leigos em relação à Qualidade organizem seu pensamento em relação
a determinados efeitos e encontrem uma solução (LOBO; LIMEIRA; MARQUES, 2015).

O artigo científico “Estudo da aplicação de ferramentas da qualidade


em uma linha de envase numa indústria alimentícia” mostra o bom uso
prático das ferramentas que são abordadas nesta unidade. Apesar
de, como expõe o título, o foco ser a indústria de alimentos, a abor-
dagem usada pode ser adaptada para outros casos. É uma leitura
rápida e recomendada!
Para acessar, use seu leitor de QR Code.

52
UNIDADE 2

A finalidade do diagrama é relacionar um efeito com diversas causas e tornar essa relação visível. Em
um primeiro momento, pode parecer algo muito simplório e apenas burocrático, mas as suas conse-
quências são visíveis e gratificantes, muitas vezes, causas que poderiam passar despercebidas são notadas
por meio de uma análise mais aprofundada, motivada, justamente, pela montagem do diagrama de
Ishikawa. A interpretação do diagrama é uma ação muito frequente na etapa de análise do DMAIC.
A estrutura básica do diagrama leva em conta seis aspectos, conhecidos como os 6M: mão de obra,
materiais (ou matéria-prima), maquinário, método, medição e meio ambiente. Por “meio ambiente”,
entenda que falamos, majoritariamente, do ambiente em que uma ação é realizada, envolvendo também
o psicológico dos envolvidos (questões relacionadas à motivação, que ocorrem devido a um ambiente
ruim de trabalho) e, claro, o ambiente da empresa em si, como a temperatura do local de trabalho, a
umidade, o excesso de barulho, a falta de espaço e questões similares — o termo foi adaptado dessa
forma para possibilitar a sigla 6M, visto que isso facilita a lembrança dos seis termos.
Cada um dos aspectos citados é posicionado na ponta de uma linha do diagrama, ligando-se a uma
linha central que segue em direção ao efeito analisado. Dessa forma, fica visualmente indicado que a
união de todos os seis aspectos é o que gera o efeito estudado. Vale citar que alguns diagramas não usam
todos os seis pontos, não é raro encontrar diagramas que consideram, apenas, quatro ou cinco deles.
Assim sendo, é gerada a estrutura básica de um diagrama de Ishikawa, a qual pode ser vista na Figura 4.

Mão de obra Maquinário Materiais

Efeito

Método Medição Meio ambiente

Figura 4 - Estrutura básica de um diagrama de Ishikawa / Fonte: o autor.

Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “efeito”. Do meio dessa linha saem
seis outras linhas que apontam na vertical, cada uma chegando a um retângulo com os escritos “mão de obra”, “maquinário”, “materiais”,
“método”, “medição” e “meio ambiente”.

53
UNICESUMAR

Observando a estrutura apresentada na Figura 4, é possível compreender o apelido “espinha de peixe”,


já que cada um dos aspectos gera uma “espinha” diferente, enquanto o efeito seria análogo à cabeça
do esqueleto. Cada diagrama de Ishikawa só pode analisar um efeito por vez. Uma análise dupla pode
gerar conflitos de informações, o que vai contra o propósito da ferramenta. Para memorizar essa
informação, lembre-se que não existem peixes com duas cabeças, portanto, não existe diagrama de
Ishikawa com dois efeitos!
Ligada a cada uma das espinhas estarão as causas primárias de cada um dos efeitos. Cada uma
das causas deve ser encaixada na espinha em que os responsáveis pelo diagrama considerarem mais
coerente. Tomando como exemplo nosso estudo de caso, se estivermos falando da causa referente
aos operadores que não atuam de forma sincronizada, podemos encaixá-la no grupo “mão de obra”,
enquanto os tubos que já chegam com pequenos furos são parte do aspecto “materiais”.
É interessante realizar um brainstorming, enquanto se definem as causas. Não é preciso encaixar
cada uma delas na espinha adequada imediatamente, pois isso pode ser feito após a chuva de ideias
ser concluída. Por mais que isso tome algum tempo em excesso, acaba por eliminar causas que tenham
sido sugeridas em duplicata e abre espaço para discussões sobre em qual das espinhas cada uma delas
deve entrar. As causas primárias geram novas linhas, estas partem do meio das espinhas já desenhadas,
conforme representado na Figura 5.

Mão de obra Maquinário Materiais

Ações sem sincronia Equipamentos desregulados Tubos furados

Profissionais sem experiência


Tubos com
quantidades de
creme variando
Pouco produto para ser injetado

Atividades manuais Balanças desreguladas Descaso dos operadores

Método Medição Meio ambiente

Figura 5 - Diagrama de Ishikawa com causas primárias indicadas / Fonte: o autor.

Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “Tubos com quantidades de creme
variando”. Do meio dessa linha saem seis outras linhas que apontam na vertical, cada uma chegando a um retângulo com os escritos
“mão de obra”, “maquinário”, “materiais”, “método”, “medição” e “meio ambiente”. Das linhas verticais saem outras linhas horizontais,
com escritos menores.

54
UNIDADE 2

É possível ter mais de uma causa primária em um mesmo grupo, isso é comum, na verdade.
No exemplo apresentado na Figura 5, temos pelo menos uma causa em cada aspecto, mas
não há um limite de causas a serem posicionadas em cada espinha. É importante, todavia,
levar em conta que todas as causas apresentadas possam ter sua origem devidamente
rastreada. Por exemplo, sabemos que o descaso dos operadores no ambiente de trabalho
é uma possível causa para o problema, assim como sabemos que as balanças desreguladas
são outra possível causa. Entretanto, por que os operadores estão desmotivados? Por que
as balanças estão desreguladas? É importante que possamos entender os motivos disso,
pois só assim chegaremos à chamada causa-raiz.

Uma forma interessante de encontrar a origem desses problemas é com base


na ferramenta “cinco porquês”. Ela se baseia em questionar o porquê da causa
acontecer, o que nos levará a uma subcausa. Em seguida, questiona-se o por-
quê da existência dessa subcausa, levando a uma nova subcausa. O processo é
realizado cinco vezes, até ser encontrado o motivo inicial do problema.

55
UNICESUMAR

A partir do momento que encontrarmos um ou mais motivos para a causa primária, podemos adicioná-lo
ao diagrama em forma de causa secundária. Essa ação é relevante, pois, se resolvermos a causa secundá-
ria, automaticamente a causa primária terá sido total ou parcialmente resolvida e, consequentemente, o
efeito principal do diagrama também será solucionado.
É possível que surjam casos nos quais uma causa encaixada em uma espinha tenha uma subcausa
relacionada a outra. Por exemplo, caso a causa primária seja um maquinário que não esteja calibrado
adequadamente, isso se encaixa na espinha “máquina”; e se a causa secundária for que o indivíduo res-
ponsável pela calibração não recebeu um treinamento adequado, isso se encaixa na espinha “mão de obra”.
Caso isso ocorra, não é necessário realizar qualquer mudança no diagrama, pois, apenas, complicaria a
ação e talvez dificultasse a interpretação.
É possível, também, que uma mesma causa secundária seja responsável por duas ou mais causas pri-
márias. Nesse caso, nada impede que ela seja descrita mais de uma vez no diagrama. Após acrescentarmos
uma causa secundária às espinhas, o diagrama fica com aparência similar ao que se pode ver na Figura 6.

Mão de obra Maquinário Materiais

Ações sem sincronia Equipamentos desregulados Tubos furados


Inexperiência
na calibração Recebimento
Falta de inadequado
treinamento Profissionais sem experiência
Tubos com
quantidades de
creme variando
Pouco produto para ser injetado

Falta de oportunidades internas


Atividades manuais Balanças desreguladas
Descaso dos operadores

Método Medição Meio ambiente

Figura 6 - Diagrama de Ishikawa com causas primárias e secundárias indicadas / Fonte: o autor.

Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “Tubos com quantidades de creme
variando”. Do meio dessa linha saem seis outras linhas que apontam na vertical, cada uma chega a um retângulo com os escritos “mão
de obra”, “maquinário”, “materiais”, “método”, “medição” e “meio ambiente”. Das linhas verticais saem novas linhas horizontais menores,
e dessas linhas saem novas linhas verticais ainda menores, que indicam causas secundárias.

O processo de divisão das causas principais em subcausas pode continuar indefinidamente, chegando a
causas terciárias, quaternárias e, assim, por diante. O importante é que seja possível interpretar o que foi
descrito no diagrama e que seja encontrada uma causa raiz para um determinado problema. Inclusive,
caso seja necessário aprofundar a análise de uma das causas, pode ser criado um novo diagrama de
Ishikawa, em que essa causa, agora, será posicionada como efeito e terá suas causas rastreadas.
Uma ideia a ser levada em conta é a de que o diagrama de Ishikawa não precisa ser usado apenas
para análise de problemas, ele pode ser usado para oportunidades, também. O efeito posicionado na
“cabeça” do diagrama, nesse caso, seria a melhoria desejada.

56
UNIDADE 2

Como você pode notar, o diagrama de Ishikawa é uma ferramenta de fácil entendimento e que
foca na organização de ideias, auxiliando no entendimento da origem de um problema. Entretanto,
apesar de ser uma excelente base para raciocínios, ele tem uma limitação: o diagrama de Ishikawa é
incapaz de mensurar o impacto e a importância de cada uma das causas, pois atua apenas como uma
forma de listá-las. Para suprir essa limitação, usamos outra ferramenta, a qual também é um diagrama
e costuma ser usada em conjunto com o Ishikawa — o diagrama de Pareto, também conhecido como
gráfico de Pareto.
Antes de tudo, deve-se esclarecer que o diagrama de Pareto não depende do diagrama de Ishikawa
para ser realizado, e tampouco o contrário, pois ambos são ferramentas independentes e muito úteis,
sendo presenças unânimes nas listas de ferramentas da qualidade. Entretanto, quando usadas em
conjunto, o efeito é potencializado.
Erroneamente, é indicado que o criador do diagrama foi o economista italiano Wilfried Pareto.
De fato, ele foi o responsável pelo desenvolvimento do princípio de Pareto, este diz que a maior parte
da riqueza fica nas mãos de poucos indivíduos, enquanto os muitos restantes possuem apenas uma
pequena parte da riqueza, mas o diagrama não é da sua autoria.
O inventor da ferramenta é, de fato, Joseph Juran, um dos gurus da Qualidade, que a criou na dé-
cada de 50 e baseou o raciocínio no princípio de Pareto, mas analisando efeitos e causas. De acordo
com Juran, 20% das causas são responsáveis por 80% dos defeitos, isto é, poucas causas geram grande
impacto (TOLEDO et al., 2017).
Apesar dos números 20 e 80 serem apenas figurativos, eles ilustram muito bem a ideia referente
ao diagrama, ao ponto de que, em algumas fontes, pode-se encontrar o termo “diagrama de Pareto”
com o nome “Gráfico 80/20”. A partir do momento em que se descobre a causa — ou as causas —
responsável pela maior parte das falhas, sempre devemos dirigir nossa atenção a resolvê-la. É sempre
mais interessante priorizar a causa mais impactante, pois, a partir do momento em que ela deixa de
existir, a quantidade de vezes que o problema estudado ocorre diminui drasticamente. As causas mais
impactantes são chamadas de “vitais”, enquanto as causas que correspondem a uma parcela menor são
conhecidas como “triviais” (TOLEDO et al., 2017).

Sabia que o uso do diagrama de Pareto não se resume ao


controle de qualidade? Na verdade, podemos aplicá-lo em
diversos aspectos do nosso cotidiano! A finalidade continua
sendo identificar as causas de maior impacto, mas podemos
adaptar a ferramenta para tratar das nossas finanças. Para
entender isso, é só dar o play!

57
UNICESUMAR

Para a montagem de um diagrama de Pareto, primeiramente devem ser listadas as pos-


síveis causas para o efeito analisado. O diagrama de Ishikawa, apesar de não ser a única
forma, é a mais eficiente e organizada maneira de ter essas informações em mãos. Feito
isso, são coletados os dados referentes às possibilidades listadas. Vale citar que uma fer-
ramenta muito usada para contabilizar a quantidade de ocorrências de cada causa é a
folha de verificação, em especial, o modelo de classificação, que foi o segundo formato
conhecido, nesta unidade.
A partir da coleta de dados, são contabilizadas as ocasiões em que cada uma das
causas ocorreu. As causas devem ser organizadas em ordem decrescente na tabela, isto
é, da causa que mais vezes aconteceu à causa que se passou menos vezes, conforme
representado na Tabela 1. A quantidade de vezes que cada causa aparece é chamada de
frequência absoluta. Usaremos valores fictícios para nosso exemplo.

Causa Frequência absoluta


Causa A 84
Causa B 52
Causa C 33
Causa D 21
Causa E 13
Outros 8
Tabela 1 - Primeira etapa da montagem do diagrama de Pareto / Fonte: o autor.

A última linha tem a nomenclatura “outros”. Nela, são consideradas as causas menos fre-
quentes, uma vez que ocorreram tão poucas vezes que não se torna necessário criar uma
nova linha para cada uma delas. É importante que todas as causas nomeadas ocorram com
uma frequência maior do que as causas indicadas na categoria “outros”, a qual deve represen-
tar sempre menos do que 10% dos dados, o mais adequado seria um valor próximo de 5%.
Após tabelar a frequência absoluta de cada causa, criaremos uma nova coluna na
tabela; nela, conterá os dados referentes às somas dos dados apresentados na frequência
absoluta. O nome que se dá a esses dados é “frequência absoluta acumulada”, e sua re-
presentação será feita na Tabela 2.

Causa Frequência absoluta Frequência abs. acumulada


Causa A 84 84
Causa B 52 84+52 = 136
Causa C 33 136+33 = 169
Causa D 21 169+21 = 190
Causa E 13 190+13 = 203
Outros 8 203+8 = 211
Tabela 2 - Segunda etapa da montagem do diagrama de Pareto / Fonte: o autor.

58
UNIDADE 2

Os valores, em negrito, na Tabela 2 são os únicos que precisam ser escritos, com os somatórios, pois
são apresentados apenas para fins didáticos. A intenção é saber a quantidade de ocorrências de todas
as causas somadas, e esse valor se dá na última linha da tabela, em que encontramos a informação de
211 observações no total. Essa informação será de extrema importância para montarmos a próxima
coluna de dados.
Trataremos, agora, da frequência relativa de observações, em outras palavras, nossos resultados serão
dados em percentuais. Para tanto, basta descobrirmos qual a porcentagem que cada causa representa
no total de observações, e, para esse cálculo, precisamos da frequência absoluta de cada uma das causas
e do total de observações, que é de 211.
Para o cálculo do percentual, dividimos o valor da frequência absoluta de uma determinada causa
pelo valor total de observações e, em seguida, multiplicamos o resultado por 100, isso nos retornará
o resultado já em porcentagem. Como exemplo, será apresentado o cálculo da frequência relativa da
causa A, na Equação 1.

 Freq. abs.  100 


84
 100  39, 81% (1)
Total de observações  211
Para as demais frequências relativas, basta realizar o mesmo cálculo, substituindo o valor da frequência
absoluta para cada uma das causas. Os resultados para cada uma delas estão representados na Tabela 3.

Frequência abs. acu- Frequência


Causa Frequência absoluta
mulada relativa
Causa A 84 84 39,81%
Causa B 52 136 24,65%
Causa C 33 169 15,64%
Causa D 21 190 9,95%
Causa E 13 203 6,16%
Outros 8 211 3,79%
Tabela 3 - Terceira etapa da montagem do diagrama de Pareto / Fonte: o autor.

Para resultados mais exatos, recomenda-se que sejam consideradas duas casas, após a vírgula, para os
percentuais. Por conta disso, podem ocorrer desvios no arredondamento, e o resultado do somatório
não será de exatamente 100%, mas será muito próximo disso.
A informação que a frequência relativa nos traz é o tamanho do impacto de cada uma das causas.
Por mais que tenhamos, pelo menos, seis causas diferentes, a causa A, sozinha, é responsável por quase
40% das ocorrências do problema, ou seja, já se sabe que ela deverá ser nossa prioridade para resolução.
É importante observar que, caso uma das causas de menor frequência possa ser resolvida com muita
facilidade e agilidade, ela pode ser priorizada. Não há motivos para deixar uma causa seguir ocorren-
do, se o esforço para a eliminar é quase nulo. A prioridade, no entanto, ainda, deverá ser a redução de
ocorrências da causa principal, pois é o que gera maior retorno, em curto prazo. A montagem do dia-
grama, porém, ainda, não foi concluída, pois a tabela precisa de mais uma coluna, a frequência relativa

59
UNICESUMAR

acumulada. Para tanto, realizaremos um novo somatório, mas considerando os valores apresentados
obtidos para a frequência relativa. A nova coluna está incluída na Tabela 4.

Frequência Frequência abs. Frequência Frequência relativa


Causa
absoluta acumulada relativa acumulada

Causa A 84 84 39,81% 39,81%

Causa B 52 136 24,65% 39,81+24,65 = 64,46%

Causa C 33 169 15,64% 64,46+15,64 = 80,10%

Causa D 21 190 9,95% 80,10+9,95 = 90,05%

Causa E 13 203 6,16% 90,05+6,16 = 96,21%

Outros 8 211 3,79% 96,21+3,79 = 100%

Tabela 4 - Quarta etapa da montagem do diagrama de Pareto / Fonte: o autor.

Novamente, apenas os valores, em negrito, precisam ser descritos na tabela, com o somatório dos
percentuais apresentados apenas para fins didáticos. A tabela fica completa quando temos a frequência
relativa acumulada registrada. Entretanto o diagrama de Pareto, ainda, não foi completamente mon-
tado, pois precisamos transformar os dados obtidos em um gráfico. Para a montagem do diagrama
de Pareto, leva-se em conta duas colunas da Tabela 4: a frequência absoluta, que é a primeira coluna
com dados, e a frequência relativa acumulada, que acabamos de preencher.
Quando os dados estão organizados em forma de gráfico, a frequência absoluta é representada
por barras, as quais seguirão sempre de forma decrescente, da esquerda para a direita, enquanto
a frequência relativa acumulada será representada por uma única linha de ascendência contínua
no mesmo sentido. Por convenção, o eixo vertical esquerdo do gráfico sempre será usado para a
interpretação das quantidades absolutas, ou seja, será relacionado às barras. Já o eixo vertical direito
contará com os percentuais, servindo como guia para a linha que contém as informações referentes
à frequência relativa acumulada. O diagrama de Pareto para o nosso exemplo, então, será estruturado
conforme a figura a seguir.

60
UNIDADE 2

Diagrama de Pareto
90 100,00%
80 90,00%
70 80,00%
60 70,00%
60,00%
50
50,00%
40
40,00%
30
30,00%
20 20,00%
10 10,00%
0 0,00%
Causa A Causa B Causa C Causa D Causa E Outros

Frequência absoluta Frequência relativa acumulada

Figura 7 - Diagrama de Pareto finalizado / Fonte: o autor.

Descrição da Imagem: diagrama com seis barras decrescentes, com valores iguais a 84, 52, 33, 21, 13 e 8, representadas pelos títulos:
Causa A, Causa B, Causa C, Causa D, Causa E e Outros, respectivamente, sobrepostas por uma linha crescente, indicando as porcenta-
gens 39,81%, 64,45%, 80,09%, 90,05%, 96,21% e 100%, respectivamente.

REALIDADE
AUMENTADA

Caro(a) aluno(a), agora, verificaremos


algumas das etapas do diagrama de Pareto,
por meio de uma realidade aumentada.
Clique no QR CODE e acompanhe!

Etapas de montagem do
Diagrama de Pareto

61
UNICESUMAR

O Microsoft Excel é excelente para a montagem de gráficos


em geral, e o diagrama de Pareto não é uma exceção. Que tal
aprender, na prática, como um diagrama é montado, desde o
início? É só acessar o vídeo para checar!

No formato do gráfico de Pareto, a visualização dos dados torna-


-se mais simples do que na organização em forma de tabela. Isso
também é interessante para que possamos compreender o impacto
que uma ou duas causas geram no problema analisado. No primeiro
gráfico, percebemos que as causas A e B, juntas, são responsáveis por
dois terços das ocasiões em que o efeito analisado ocorre!
É interessante citar que, em situações nas quais a causa identi-
ficada como a mais impactante não tenha seu motivo conhecido,
pode-se aplicar um diagrama de Ishikawa para encontrar a razão
pela qual a falha ocorre. Isso mostra o quanto essas duas ferramentas
estão diretamente interligadas. Agora que temos o gráfico completo,
sabemos que devemos priorizar a resolução da causa A. Entretanto,
após completarmos o DMAIC e percebermos que houve redução
na ocorrência dessa causa, como proceder?
Pois bem, o recomendado é que seja criado um novo diagra-
ma de Pareto, quando atingirmos a etapa de controle, de forma
que sejam analisadas as novas causas para a ocorrência do efeito
analisado. Isso exigirá uma nova coleta de dados, agora, atualiza-
da, com uma folha de verificação igual à usada anteriormente e
com o desenvolvimento de um novo diagrama de Ishikawa. Este,
provavelmente, terá sua criação facilitada, pois é possível ter como
base o diagrama usado anteriormente e incluir causas e subcausas
que, ainda, não tenham sido resolvidas, além de acrescentar novas
informações. É muito provável que, após a resolução da causa A,
a causa B se torne o novo foco da atenção dos responsáveis, po-
dendo ser iniciado um novo projeto para eliminá-la. O diagrama
de Pareto será usado de forma contínua.

62
UNIDADE 2

As ferramentas abordadas, durante a unidade, podem ser usa-


das separadamente, cada uma com uma finalidade diferenciada
e auxiliar o gestor a ter sucesso no projeto em questão. En-
tretanto, quando usadas em conjunto, o raciocínio segue uma
linha lógica e contínua, em que os resultados obtidos com uma
das ferramentas potencializam o uso da seguinte. Apesar do
diagrama de Pareto ser a última ferramenta no caminho apre-
sentado, ele precede a reutilização da folha de verificação para
que novos dados sejam coletados e para que o resultado obti-
do, após as melhorias, seja verificado. Sendo assim, podemos
afirmar que, de certa forma, a folha de verificação, o diagrama
de Ishikawa e o diagrama de Pareto formam algo próximo de
um ciclo. Este, quando necessário, tem espaço para a inclusão
de mais ferramentas!

Entre as três ferramentas que abordamos durante essa unidade, a folha


de verificação é, definitivamente, a mais flexível, por isso, vimos três
modelos dela, estes podem ser adaptados. Ainda, há mais exemplos que
podem ser encontrados, por meio de uma breve pesquisa! Os diagramas
de Ishikawa e de Pareto, por outro lado, são aplicados exatamente como
discutimos, aqui, e, apesar de serem adaptáveis para diversas situações,
eles praticamente não mudam entre um uso e outro.
Como sugestão para montagem do diagrama de Pareto e da folha
de verificação, sugiro o uso do Microsoft Excel, por ser um software de
fácil acesso e muito utilizado. O diagrama de Ishikawa, também, pode
ser montado nele, mas há softwares gratuitos disponíveis na internet
que tornam sua montagem mais dinâmica, como o Lucid Chart e o
Canva, os quais são opções um pouco mais práticas.
Tenha em mente que nenhuma ferramenta da qualidade resolve
todos os problemas sozinha, mas que a combinação delas, sempre,
trará um norte para que a solução possa ser encontrada da forma mais
rápida possível.

63
UNICESUMAR

A abordagem que tivemos, durante toda a unidade, foi muito voltada


à prática. Desse modo, a aplicação das ferramentas, em uma situação
real, não irá diferir muito do que foi apresentado aqui. Jamais se
esqueça, porém, de que nada do que vimos, aqui, pode ser aplicado
por uma única pessoa! A folha de verificação exige conhecimento e
regularidade por parte do responsável pelo preenchimento e, mesmo
que seu uso pareça simples, sua importância é vital para tudo que
vier futuramente, um dado errado poderá prejudicar toda a análise.
É necessário que aquele colaborador, que preencherá a ficha, passe
por um treinamento e tenha plena noção da importância da sua ação.
O diagrama de Ishikawa jamais poderá ser montado sozinho,
pois deve contar com a colaboração de diversos indivíduos de vários
níveis hierárquicos no brainstorming que o precede. Por último, o
diagrama de Pareto, apesar de ser montado por conta própria, exige
as informações obtidas a partir da aplicação das duas ferramentas
anteriores.
Busque aplicá-las em sequência, quando tiver a oportunidade!
O caminho se tornará muito mais simples. Leve em conta que nem
todos os problemas podem ser resolvidos, usando essas ferramentas,
entretanto elas certamente estarão presentes na maioria das vezes
que você precisar realizar um projeto que envolva o DMAIC. Você,
também, deve considerar o uso das demais ferramentas que discu-
tiremos em nossa próxima unidade.

64
Agora é com você! Que tal preencher o mapa mental, a seguir, com as características de cada
uma das ferramentas que abordamos? Primeiramente, apresente qual é a função principal de
cada uma delas e, em qual ou quais etapas do DMAIC, elas podem ser encaixadas. Quando hou-
ver, exponha os diferentes formatos delas que analisamos e em quais situações os diferentes
formatos são usados. Acrescente também os nomes de ferramentas (não necessariamente da
qualidade) que podem ser usadas como auxílio no preenchimento das ferramentas abordadas.
Por último, descreva de que forma o uso das três ferramentas em questão auxilia a ferramenta
que vem em seguida.

FERRAMENTAS
DA QUALIDADE

Descrição da Imagem: espaços nos quais devem ser descritas as ferramentas de folha de verificação, diagrama de Ishikawa e
diagrama de Pareto.

65
1. A Folha de verificação é a ferramenta da qualidade utilizada para facilitar e organizar o
processo de coleta e registro de dados, de forma a contribuir para otimizar a posterior
análise dos dados obtidos. Uma folha de verificação bem elaborada é o ponto de partida
de todo procedimento de transformação de opiniões em dados e/ou fatos.
WERKEMA, C. Ferramentas estatísticas básicas do lean seis sigma integradas ao
PDCA e DMAIC. Rio de Janeiro: Elsevier, 2014. p.55.
A respeito da ferramenta “folha de verificação”, são feitas as seguintes afirmações:
I) O preenchimento da folha de verificação é muito simplificado, não exigindo treina-
mento para o responsável.
II) Em casos nos quais há mais de um turno, devem haver múltiplos responsáveis pelo
preenchimento da folha de verificação, sendo um em cada turno.
III) A folha de verificação do modelo de distribuição de dados de controle pode auxiliar
na determinação do formato de um histograma, com os dados, nela, registrados.
IV) Um preenchimento de uma folha de verificação já é suficiente para mostrar todas
as falhas presentes no processo.

É correto o que se afirma em:


a) II, apenas.
b) I e III, apenas.
c) II e III, apenas.
d) I, III e IV, apenas.
e) I, II, III e IV.

2. Sabe-se que o diagrama de Ishikawa (ou diagrama de causa e efeito) costuma ser usa-
do para que se possa rastrear a origem do problema. Sua montagem é feita com um
brainstorming, envolvendo vários indivíduos de diversos níveis hierárquicos.
A respeito do diagrama de Ishikawa, são feitas as seguintes afirmações:
I) A interpretação do diagrama é feita na fase de análise do DMAIC.
II) Para a montagem do diagrama, pode-se usar uma ferramenta conhecida como
“cinco porquês”.
III) Em hipótese alguma, deve-se analisar mais de um efeito, em um único diagrama de
Ishikawa.
IV) O diagrama de Ishikawa, apesar de muito útil, tem como limitação o fato de não
mensurar o impacto de cada causa listada.

66
É correto o que se afirma em:
a) I e II, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.

3. A seguir, apresenta-se um gráfico de Pareto que analisou o impacto de 8 causas sobre


um mesmo efeito.

Diagrama de Pareto
160 100,00%
140 90,00%
140
80,00%
120
70,00%
98
100 60,00%
80 50,00%
63 53 40,00%
60
42 30,00%
40
30 20,00%
22
20 10,00%
6
0 0,00%
Causa A Causa B Causa C Causa D Causa E Causa F Causa G Causa H

Frequência absoluta Frequência relativa acumulada


Fonte: o autor.

Descrição da Imagem: diagrama com oito barras de tamanhos decrescentes, com valores iguais a 140, 98, 63, 59, 42,
30, 22 e 6, representadas pelos títulos Causa A, Causa B, Causa C, Causa D, Causa E, Causa F, Causa G e Causa H, respec-
tivamente, sobrepostas por uma linha crescente, indicando as porcentagens 30,43%, 51,74%, 65,43%, 78,26%, 87,39%,
93,91%, 98,70% e 100%, respectivamente.

67
Interprete o diagrama e analise as afirmações a seguir:
I) As causas A e B, juntas, correspondem a mais da metade das falhas ocorridas.
II) A causa E corresponde a menos de 10% das falhas ocorridas.
III) As quatro causas menos impactantes, juntas, ainda são menos impactantes do que
a causa A.
IV) As quatro causas mais impactantes, juntas, correspondem a mais de quatro quintos
dos problemas ocorridos.

É correto o que se afirma em:


a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.

4. A seguir, apresenta-se uma tabela com dados coletados, em uma folha de verificação.
Pretende-se usar as informações coletadas para montar um diagrama de Pareto.

Problema Quantidade de Ocorrências


Problema A 182
Problema B 123
Problema C 102
Problema D 75
Problema E 67
Problema F 31
Problema G 21
Problema H 4
Fonte: o autor.
Com base no que foi anotado na folha, responda aos seguintes itens:
a) Entre os modelos de folha de verificação apresentados na unidade, qual é o modelo
que foi usado na coleta?
b) Deseja-se reduzir a ocorrência de falhas em dois terços do total. Quais são os proble-
mas que devem ser eliminados para que essa meta seja atingida?
c) Esboce o diagrama de Pareto.

Dica: monte a tabela com os dados necessários para o Diagrama de Pareto, antes de
responder aos itens B e C.

68
69
70
3
Ferramentas de
Controle - Parte II
Me. Paulo Otávio Fioroto

Após completarmos a unidade anterior, trataremos, agora, de ou-


tras três ferramentas da qualidade. Primeiramente, discutiremos a
estratificação, em seguida, a montagem do histograma e, por último,
a montagem e interpretação do diagrama de dispersão.
UNICESUMAR

Existe uma ferramenta da qualidade que serve como


base para todas as outras? A resposta para essa pergun-
ta é: sim, existe! Apesar de todas as ferramentas serem
absolutamente importantes, uma delas serve como
ponto de partida para as outras seis ferramentas. E digo
mais: essa ferramenta é tão essencial para o ser humano
que você, quando criança, já a usava inconscientemen-
te. É muito provável que você já a usasse, antes mesmo
de aprender a falar! Além disso, uma outra ferramenta
que discutiremos, durante esta unidade, um pouco
mais complexa, também, é presente em sua vida, mas
em escala menor, desde que você aprendeu a ler.
Na unidade anterior, aprendemos sobre a folha de
verificação, o diagrama de Ishikawa e o gráfico de Pa-
reto. Entretanto, conforme já foi dito, temos sete ferra-
mentas da qualidade, ou seja, ainda nos resta falar sobre
quatro delas. Uma delas, o gráfico de controle, terá
destaque a partir da segunda metade do nosso material,
portanto, ela está fora da discussão, neste momento.
Continuaremos tratando da situação vivenciada
por Maycon na empresa que decidiu iniciar a produção
de cremes dentais. Na unidade anterior, abordamos o
problema referente à falta de creme dental nos tubos,
resolvido com base nas ferramentas já discutidas. A
partir de agora, nossa ação será voltada a um outro
efeito, trata-se do sabor e da consistência inadequados
do produto final.
Maycon sabe que poderia tratar desses efeitos com
as mesmas ferramentas que utilizou para resolver a
situação anterior. Mas ele, também, tem noção de que
os funcionários da empresa mal conhecem as ferra-
mentas da qualidade e, ao invés de fazê-los sempre
pensar da mesma forma, decidiu ensiná-los sobre ou-
tros possíveis caminhos para resolução de problemas,
isso claramente exigiria uma discussão sobre novas
ferramentas, mas sem deixar de seguir o DMAIC.
Dessa forma, como Maycon poderia aplicar outras
ferramentas da qualidade para análise e resolução de
problemas similares?

72
UNIDADE 3

Conforme apresentamos no início do nosso material, o D da sigla


DMAIC significa “definir” e trata da definição do problema que será
analisado. Como apontado, já temos a situação escolhida para essa
parte do estudo de caso, então, podemos considerar a primeira fase
como concluída. A segunda etapa, “medir”, quase sempre se utilizará
da folha de verificação. Entretanto, além dessa ferramenta, há mais
uma que pode ser usada em conjunto, e o esforço exigido para adi-
cionar essa ferramenta é praticamente nulo.
Maycon, em reunião com 12 pessoas de diversos níveis hierárqui-
cos da empresa, em um primeiro momento, pediu para um dos ope-
radores checar a quantidade de problemas que ocorreram na linha de
produção do creme dental, durante os últimos 15 dias de operação,
o que foi feito prontamente. O funcionário retornou, dizendo que
se observou 182 falhas. Foi, então, que Maycon olhou para todos os
presentes e questionou o que poderia ser feito com essa informação.
Marcelo, o proprietário, disse de imediato que “nada pode ser feito
sem mais detalhes”, e essa era a resposta que o consultor esperava
ouvir. A próxima pergunta foi sobre qual atitude deveria ser tomada
em relação aos dados que foram trazidos, e um dos supervisores
disse que precisariam saber quais eram as falhas, pois isso era tão
importante quanto saber quantas falhas ocorriam — ao que Maycon
acenou positivamente.
A solução para isso é o uso de outra ferramenta da qualidade,
que, por ser um conceito simples, é esquecida em alguns momentos.
Trata-se do uso da estratificação. Estratificar nada mais é do que
separar as informações em grupos menores, com base em uma ou
mais características. Os funcionários não entenderam a explicação,
então Maycon exemplificou da forma como pôde, usando como base
os elementos que tinha à sua disposição: os próprios participantes
da reunião.
Maycon pediu para que todos os casados levantassem suas mãos.
Marcelo e mais 4 pessoas o fizeram, incluindo o próprio consultor. Em
seguida, ele perguntou quantos dos presentes namoravam ou estavam
noivos, e mais 4 pessoas levantaram as mãos. Feito isso, ele pediu para
que todos os casados se dirigissem ao lado direito da sala; os solteiros
deveriam ir para o lado esquerdo, e os comprometidos — mas ainda
não casados — permanecessem sentados nas cadeiras do centro.
Após todos estarem em suas devidas posições, Maycon disse que
eles estavam estratificados, pois foram separados em grupos com base

73
UNICESUMAR

em uma característica específica, no caso, o estado civil. Após alguns olhares entre todos os presentes, que
se mostraram esclarecidos, um dos supervisores, um pouco inconformado, perguntou se a ferramenta
se tratava apenas daquilo, ao que Maycon confirmou.
A partir de então, foi dada uma abordagem mais técnica à ferramenta, mas dessa vez com foco no
cotidiano da fábrica. A estratificação estava em todos os lugares, como níveis hierárquicos, ingredientes,
sabores das pastas. As folhas de verificação usadas na empresa dependem da estratificação para serem
consideradas úteis, pois há anotação de dados discriminados, isto é, classificados conforme uma carac-
terística, como quantidades de uma determinada falha específica.
Dando continuidade ao DMAIC, Maycon pediu para que trouxessem dados das análises de aceitação
sobre o sabor e a consistência dos cremes dentais. Os dados foram coletados por meio de análise senso-
rial, em que cada um dos provadores do creme deveria dar uma nota de 1 a 7 para diferentes amostras,
cada uma contendo uma certa quantidade de flavorizante (substância que dá o sabor desejado ao creme
dental). Também apresentaram as notas atribuídas a diferentes níveis de consistência, a qual dependia
de substâncias espessantes presentes no creme.
Maycon decidiu organizar as notas referentes à pasta de dente sabor menta, em forma de histograma.
Novamente, houve questionamentos por parte dos funcionários sobre o que seria isso, algo que já era
esperado pelo consultor. De forma direta, Maycon respondeu que aquilo nada mais era do que algo com
o qual eles já conviviam havia tempo: um gráfico de barras verticais.
Maycon montou, em um primeiro momento, os histogramas referentes às notas dadas ao sabor. Na
análise sensorial, forneceram aos provadores cinco tipos de pastas, todas de mesma consistência e com
sabor menta, mas com quantidades diferentes de saborizante em sua fórmula, cada uma com sabor mais
forte do que a outra. Em seguida, ele fez o mesmo com as notas referentes à consistência. Dessa vez,
forneceram aos provadores cinco amostras que tinham a mesma quantidade de flavorizante, mas uma
delas era pouco espessa, atributo que sofreu aumento entre cada uma das amostras. Importante citar
que elas estavam distribuídas em uma ordem aleatória e que nenhum provador poderia influenciar na
escolha do outro.
Com as notas coletadas, Maycon fez a organização delas e notou que, enquanto o histograma refe-
rente à pasta com mais flavorizante tinha barras maiores no lado que se referia às notas mais altas, a
consistência menos espessa havia sido a mais aceita pelos provadores. Isso talvez fosse suficiente para
concluir que o creme que correspondia a essas duas características seria o ideal. Porém decidiu ir além
e usar dois diagramas de dispersão para fazer um comparativo entre as notas.
O diagrama de dispersão sobre a intensidade do gosto da pasta de dente colocou, no eixo horizontal,
as notas recebidas pelas amostras, enquanto o eixo vertical apresentava a quantidade de saborizante
usada nas amostras. Nele, estavam contidas dezenas de pontinhos, em que cada um indicava uma das
notas atribuídas a cada uma das concentrações. Quando organizados dessa maneira, era visível que os
pontos formavam algo próximo de uma reta crescente na diagonal.
O mesmo foi feito para analisar o atributo da consistência, com o eixo horizontal contendo as no-
tas e o eixo vertical, a quantidade de emulsificante usado para dar um aspecto mais “grosso” ao creme
dental. Quando distribuídos dessa forma, os pontos formavam algo que se assemelhava a uma reta
decrescente na diagonal.

74
UNIDADE 3

Com estes dados, Maycon conseguiu provar, por meio da análise da opinião de diversas pessoas
e do uso das ferramentas da qualidade, quais são os aspectos mais desejados pelo público, em se tra-
tando do creme dental da marca. A partir desse conhecimento, não há garantia de que não ocorrerão
mais problemas, entretanto certamente eles diminuirão, e, diferente do que acontecia antes do início
da consultoria, a partir de agora a empresa sabe exatamente para onde deve olhar, quando se deparar
com situações inesperadas, além de entender aquilo que os clientes querem.
A última instrução de Maycon à equipe da fábrica foi para que mantivessem as práticas que ele
apresentou e que continuassem buscando novas ferramentas, mesmo se elas não forem utilizadas, o
conhecimento a respeito nunca é demais. Ele também orientou para que as boas práticas de fabricação
fossem registradas em um manual, para que tudo que a empresa praticasse estivesse por escrito em
algum lugar. Essa é a forma de garantir que aquilo que é realizado na empresa não será esquecido e
que novos colaboradores terão acesso a informações passadas.
As três ferramentas apresentadas na segunda parte da história de Maycon são tão relevantes quanto
as que vimos na unidade anterior. A estratificação, na verdade, é o conceito mais básico usado para
qualquer ferramenta e para qualquer análise, sem ela, não há como organizar os dados em qualquer
outra situação. O histograma e o diagrama de dispersão, por outro lado, são tão relevantes quanto o
diagrama de Pareto, que já foi discutido. A diferença das duas em relação às demais está no fato de se
utilizarem um pouco mais de conceitos matemáticos e estatísticos em sua montagem.
Durante nossa unidade, é importante que você reflita sobre o estudo de caso e sobre as possíveis
finalidades para as quais se pode usar as ferramentas apresentadas. O relato apresentado mostrou ape-
nas uma abordagem, mas tenha em mente que a situação vivenciada por Maycon foi muito específica
e que o uso de todas elas é mais extenso do que aquilo que vimos, por isso mesmo, abordaremos casos
diferentes no decorrer do conteúdo. Dito isso, que tal refletir sobre possíveis funções, em especial as
relacionadas à Estatística, que a estratificação, o histograma e o diagrama de dispersão podem ter?
Anote tudo que vier à mente em seu diário de bordo!
Novamente, deparamos com ferramentas da qualidade e suas aplicações práticas. Entretanto, dife-
rente do que abordamos na Unidade 2, temos agora algumas ferramentas que são presença comum em
nossa vida, há muito tempo! A estratificação é algo tão básico que, quando somos crianças, aprendemos
a separar objetos por cores ou formatos. Histogramas são muito similares a gráficos de barras, com
algumas particularidades abordadas durante o conteúdo. Visualmente, o diagrama de dispersão não é
a ferramenta mais conhecida, entretanto, dentre todas as ferramentas apresentadas, na unidade anterior
e na atual, essa é a que tem uma das interpretações mais simplificadas.
Conforme dito anteriormente, são pouquíssimas as situações em que uma ferramenta da qualidade
trabalha sozinha. Geralmente, usa-se uma combinação de duas ou mais delas para que seja atingido o
resultado desejado, combinações as quais podem variar. A ordem do DMAIC deve ser seguida, mas, a
partir do momento em que temos pleno conhecimento sobre as finalidades de cada uma das ferramentas,
temos total liberdade para variar a ordem de aplicação delas. Lembre-se que o DMAIC não se limita
apenas às sete ferramentas da qualidade: há um leque de possibilidades muito maior, que cabe a você,
como profissional, pesquisar a respeito e conhecer. Há diversos livros e sites que expõem ideias, e você

75
UNICESUMAR

sempre poderá realizar um benchmarking com outras empresas - talvez, algum dia, você desenvolva sua
própria ferramenta, ou ao menos algo que seja característico do seu local de trabalho. Jamais se limite
às sete ferramentas que vemos aqui, o universo da qualidade é muito maior do que isso.
Agora que temos um conhecimento mais profundo sobre algumas das ferramentas, você acredita que
as ferramentas apresentadas na Unidade 2 poderiam ser usadas para solucionar as situações que vimos
nessa parte do estudo de caso? E, indo além, você acredita que as ferramentas que apresentamos na
segunda metade da história sobre Maycon poderiam ser usadas naquilo que vimos na unidade anterior?

DIÁRIO DE BORDO

Agora, na discussão sobre as ferramentas, falaremos, primeiramente, sobre a estratificação. Por ser um
conceito muito simples, algumas fontes não a consideram como uma ferramenta da qualidade, ou seja,
diferente daquilo que vimos na unidade anterior, temos aqui uma ferramenta que não é considerada
uma unanimidade no meio acadêmico. Apesar de não ser presença absoluta em todas as listagens, é
impossível ir a lugar algum sem que haja a estratificação. Muitas vezes, relacionamos o termo com
a expressão “estratificação social”, o que pode gerar uma conotação negativa para a palavra. Mas, na
verdade, a estratificação está presente em todos os fatores do nosso cotidiano, desde a escolha da roupa
que você veste, no trabalho ou em casa, a separação por dias na sua agenda, a divisão de setores em
empresas, os turnos com que a indústria funciona e, assim, por diante.

76
UNIDADE 3

De forma técnica, a estratificação se trata da divisão de um grupo em subgrupos,


com base em uma ou mais características específicas, as quais podem ser chamadas
de “fatores de estratificação” (WERKEMA, 2014). Quando interpretado corretamen-
te, até o termo “estratificação social” deixa de ser considerado algo necessariamente
negativo, pois a estratificação ocorre em qualquer censo populacional realizado.
Essa é a única forma com a qual podemos conhecer a população de cada Estado, a
quantidade de mulheres e homens em cada lugar, a proporção de jovens, adultos e
idosos, entre outras informações.

A estratificação também pode ser considerada uma ferramenta de muita


importância para pesquisas eleitorais. É com base nela que sabemos qual
público cada um dos candidatos mais atrai, e eles, inclusive, utilizam essa in-
formação a seu favor, pensando a quem devem agradar para obter mais votos.

Considerando o DMAIC, a estratificação costuma ser mais visível nas fases de medi-
ção e análise. Tratando-se da medição, podemos aplicá-la junto à folha de verificação,
isso faz com que os dados se tornem organizados, desde o primeiro momento. Na
Tabela 1, é apresentada uma folha de verificação com divisões em subgrupos. Nela,
são contabilizadas quantas falhas aconteceram.

Quantidade de Falhas
 
Segunda Terça Quarta Quinta Sexta
Operador A   2      
Dia
Máqui- Operador B     1    
na A Operador C         1
Noi-
te Operador D 2        
Operador E     1 1  
Dia
Máqui- Operador F   1     1
na B Operador G 1     1  
Noi-
te Operador H     1    

Tabela 1 - Folha de verificação com subgrupos / Fonte: o autor.

77
UNICESUMAR

Note que, se verificarmos as linhas, temos três níveis de estratificação. O primeiro


nível se dá pela máquina, visto que temos as máquinas A e B, isso torna desnecessário
ter que utilizar uma folha para cada máquina e, de imediato, quando contabilizarmos
uma falha qualquer, será facilmente identificado em qual delas ocorreu.
O segundo nível se dá pelo período. As máquinas operam em dois turnos, dia e
noite, e é importante que seja informado em qual deles a falha ocorreu. Note que, se
quiséssemos, poderíamos inverter a ordem com que o primeiro e o segundo subgru-
pos são apresentados, mantendo o primeiro nível com apenas dois quadrados (“dia”
e “noite”) e a segunda coluna com quatro quadrados, alternados entre “máquina A” e
“máquina B”. A interpretação permaneceria indiferente.
Isso ocorre devido ao fato de termos a mesma quantidade de subgrupos nos dois
primeiros níveis, havendo dois subgrupos em cada uma. Caso houvesse uma terceira
máquina operando, a qual seria a “máquina C”, o recomendável seria iniciar a divisão
de subgrupos, tendo como base o período. Sempre que possível, o ideal é começar
a divisão, tendo como base aquele grupo que tem menos divisões e deixar o grupo
com mais subdivisões por último.
E isso é, exatamente, o que ocorreu na divisão com base no terceiro subgrupo,
que se refere aos operadores. Temos duas pessoas controlando cada máquina em
cada um dos períodos. Apenas com essa divisão, já é possível saber, sem grande
esforço, quantas falhas foram cometidas, quem cometeu a falha, em qual máquina
cometeu e em qual turno.
Note que, no outro eixo, temos ainda a divisão por dias. Isso nos ajuda a deixar
a estratificação ainda mais organizada. A maioria dos detalhes necessários é facil-
mente identificada por meio de uma folha relativamente simples, as únicas infor-
mações que permanecem sem resposta são: qual é a falha e qual foi o motivo para
ela ter ocorrido? Com todas as informações que temos, isso pode ser facilmente
descoberto, apenas, questionando o operador em questão ou algum indivíduo que
estiver nas proximidades.
A estratificação, ainda, pode ser usada para descobrir a origem de uma determi-
nada falha específica. Por exemplo, vamos supor que tenhamos cinco fornecedores
diferentes de uma mesma matéria-prima, e que alguns produtos fabricados pela
nossa fábrica apresentem problemas. Podemos rastrear a origem da falha, usando
a estratificação. Para tanto, basta selecionarmos uma amostra aleatória de matéria-
-prima, a qual envolva, ao menos, uma amostra do material fornecido por cada um
dos fornecedores. A organização pode ser feita conforme apresentado na Figura 2,
em que cada quadrado representa uma amostra. Cada fornecedor é identificado
por uma letra diferente.

78
UNIDADE 3

A E B C D

D C A B E

D A C D A

B B E E C

Figura 2 - Separação de amostras de matéria-prima de cinco fornecedores diferentes / Fonte: o autor.

Descrição da Imagem: um grupo de 20 quadrados, cada um com uma letra, variando entre A, B, C, D e E em seu centro.

Coletadas as amostras, o labo-


ratório de qualidade da empre-
sa, sem saber qual fornecedor A E B C D
enviou cada uma das amostras,
realiza alguns testes e identifica
amostras de matéria-prima que
D C A B E
apresentam problemas. É im-
portante citar que o motivo da
anonimidade se dá justamente
D A C D A
para que os responsáveis pelo
laboratório não fiquem pro-
B B E E C
pensos a pensar que, se uma
amostra do fornecedor A está
contaminada, as demais tam- Figura 3. Destaque das amostras que cuja análise identificou problemas na maté-
ria-prima / Fonte: o autor.
bém estarão. Tudo deve ser feito,
exatamente, da mesma maneira, Descrição da Imagem: um grupo de 20 quadrados, cada um com uma letra, variando
entre A, B, C, D e E em seu centro. Quatro quadrados com a letra E e um quadrado
e esse pensamento pode preju- com a letra D estão destacados em vermelho.

dicar as análises. Na Figura 3,


em vermelho, são identificadas
as amostras cujos resultados in-
dicaram alterações indesejáveis.

79
UNICESUMAR

Com base na análise, é perceptível que o fornecedor E enviou matéria-prima com problemas, enquanto
o fornecedor D também apresentou problema em uma amostra e deve receber certa atenção por parte
do setor de qualidade. Apesar de ser uma ferramenta pouco palpável, visto que se trata mais de uma
teoria, a estratificação é a única ferramenta da qualidade que consegue ser atrelada a todas as outras
diretamente, na verdade, pode-se dizer que todas as outras ferramentas dependem da estratificação.
Já vimos sua forte ligação com a folha de verificação, enquanto podemos ver que, em um diagrama de
Ishikawa, as possíveis causas são estratificadas em cada uma das espinhas referentes aos 6M. O diagrama
de Pareto estratifica as causas que geraram o efeito analisado, mostrando qual delas tem maior impacto.
A forma com a qual o histograma e o diagrama de dispersão se relacionam com a estratificação,
também, será apresentada. Dito isso, focaremos, a partir de agora, na segunda ferramenta da nossa
unidade, que é o histograma. O histograma é uma ferramenta que pode ser lida com certa facilidade,
e, na verdade, isso é completamente justificável! Todos nós já lemos alguma revista, jornal ou matéria
na internet em algum momento. Quando nos deparamos com uma pesquisa que busca comparar dois
ou mais grupos de dados, encontramos as informações apresentadas em forma de um gráfico de barras.
O histograma, apesar de ser um pouco diferente de um gráfico de barras comum, utiliza exatamente
o mesmo raciocínio para ser interpretado.
A principal diferença visual entre um histograma e um gráfico de barras comum está no fato de
que, em histogramas, as barras ficam “coladas” umas às outras, isto é, não há um espaço que as separe;
entretanto, apesar da convenção, essa regra não é considerada como absoluta, e, caso seja desejado, po-
dem ser desenhadas linhas que marquem as divisões. Além disso, há uma série de cálculos necessários
para que ocorra uma montagem adequada dele, e a primeira parte da explicação será, justamente, a
apresentação e discussão do passo a passo, enquanto realizamos um exemplo.
No histograma, cada uma das barras representa uma classe de dados, sendo formalmente conheci-
das como intervalos de classe ou células. A menos que estejamos tratando de situações extremamente
específicas, todas as classes devem ter a mesma amplitude, ou seja, a mesma largura, visto que isso
facilita drasticamente a interpretação visual dos dados (MONTGOMERY, 2017).
O número de classes depende, diretamente, da quantidade de observações e da dispersão dos dados,
quanto mais dados e quanto mais espalhados eles estiverem, maior deve ser a quantidade de classes.
Entretanto um histograma com poucas ou muitas classes não é algo desejável. O ideal é que se trabalhe
com algo entre 5 e 20 classes. Uma forma muito adotada de determinar o número de classes é calcular
a raiz quadrada da quantidade de observações, mas isso, de forma alguma, é considerado como uma
regra (MONTGOMERY, 2017).
Dito isso, deixo para você, estudante, a Tabela 2, que pode servir como base na escolha do número
k de intervalos. Reforço que isso não é algo que deve ser seguido obrigatoriamente; entretanto, con-
siderando a vivência prática, posso afirmar que sempre tive resultados muito bons, tomando-a como
base para a montagem de histogramas. Sinta-se livre para escolher a quantidade de intervalos que
achar mais coerente para o número de observações registradas.

80
UNIDADE 3

Tamanho da amostra (N) Número de intervalos (k)

<50 de 5 a 7

50 - 100 de 6 a 10

100 - 250 de 7 a 12

>250 de 10 a 20

Tabela 2 - Número de intervalos em um histograma para cada quantidade de observações / Fonte: adaptada
de Werkema (2014).

Com base no que vemos na Tabela 2, iniciaremos nosso exemplo. Usaremos o histograma
com uma intenção um pouco diferente daquela que vimos em nosso estudo de caso. Ao
invés de tratar das notas que foram dadas pelos avaliadores do creme dental, avaliaremos
a quantidade de flavorizante que foi usada em diversas amostras das pastas de dente pro-
duzidas pela empresa. Deseja-se usar 300 mg em cada amostra. Para tanto, foram coletadas
100 amostras e, por meio de experimentos laboratoriais, determinado o quanto havia, de
fato, de flavorizante em cada uma das amostras. Os dados estão registrados na Tabela 3.

300 280 313 292 292 324 283 290 278 279

320 313 310 280 301 322 299 323 302 328

319 323 301 282 324 296 293 307 282 315

329 299 307 299 314 327 306 309 306 307

306 316 298 304 305 310 305 326 288 293

301 310 298 310 288 293 313 324 286 328

275 327 274 299 291 293 310 284 273 282

295 309 287 289 290 314 281 289 317 282

272 301 305 323 328 318 308 314 316 302

286 325 299 286 295 317 274 317 290 295

Tabela 3 - Quantidade de flavorizante, em mg, em 100 amostras de creme dental / Fonte: o autor.

Como a Tabela 3 apresenta 100 dados, e, considerando a Tabela 2, usaremos o valor de k


como sendo 7. Para uma faixa de 100 dados, esse é um valor que pode ser considerado
razoável. Após os dados serem coletados, preferencialmente com o uso de uma folha de
verificação, e o número de classes ser escolhido, devemos determinar a amplitude (R)
entre os dados que temos. Para determinar a amplitude, basta identificarmos o maior valor
(MAX) e o menor valor (MIN) entre os dados coletados e subtrair um do outro. Assim:

81
UNICESUMAR

R  MAX  MIN

Ao checarmos a Tabela 3, temos que o valor máximo apresentado é de 329 mg e o menor é de


272 mg. Com o cálculo apresentado, encontramos amplitude igual a 57. Em seguida, calcu-
lamos a amplitude de cada uma das classes (h). Para isso, basta dividirmos o valor de R, que
acabamos de encontrar, pelo valor que escolhemos para k, que já determinamos que será 7.
R 57
h= = = 8, 14
k 7
Perceba que encontramos uma amplitude de classe igual a um número não-inteiro. É
habitual que esse valor seja arredondado para o número inteiro mais próximo. Sendo
assim, vamos considerar que nossa amplitude de classe é igual a 8. A partir de agora,
calcularemos os limites inferiores (LI) e superiores (LS) de cada uma das classes. O LI
da primeira classe é calculado, levando em conta o valor mínimo entre os dados, que
sabemos ser 272, e o valor calculado para h.
h 8
LI1  MIN   272   268
2 2

Para determinar o LS da mesma classe, basta que adicionemos o valor de h ao LI encon-


trado, que foi de 268.

LS1  LI1  H  268  8  276

A partir do momento em que os limites da primeira classe forem determinados, o restante


do processo torna-se praticamente automático. O limite inferior da classe seguinte
será exatamente o mesmo que o limite superior da classe anterior, ou seja, o LI da
segunda classe será igual a 276. Para determinar o LS de qualquer classe, basta so-
marmos o valor de h ao LI, assim como foi feito na primeira classe. Se nosso LI para a
segunda classe foi de 276, nosso LS será igual a 284. O processo se repete até que o valor
referente ao máximo, que, no nosso caso, é igual a 329, seja incluído em uma classe. Os
LI e os LS para cada uma das classes do nosso exemplo estão expostos na Tabela 4.
Classe Limite inferior (LI) Limite superior (LS)
1 268 276
2 276 284
3 284 292
4 292 300
5 300 308
6 308 316
7 316 324
8 324 332
Tabela 4 - Limites inferiores e superiores para o exemplo de montagem do histograma / Fonte: o autor.

82
UNIDADE 3

Note que, apesar de termos determinado que usaríamos sete classes anteriormente, acabamos precisando
de oito. Isso não é um erro, na verdade, é algo absolutamente normal na montagem de histogramas,
e ocorre devido ao fato de que arredondamos a amplitude de classe para um número inteiro. É man-
datório que o último intervalo do histograma inclua o valor equivalente ao dado mais alto registrado,
no caso do nosso exemplo, 329 mg.
Feito isso, agora, basta contabilizarmos quantos dados se encaixam em cada uma das classes. En-
tretanto há algo importante a ser observado! Você notou que o limite superior de uma classe e o limite
inferior da classe seguinte correspondem sempre ao mesmo valor? Então, por exemplo, caso tenhamos
um dado, exatamente, igual a 292 mg, ele se encaixará na terceira ou na quarta classe?
A resposta é: na quarta classe! Por convenção, os histogramas sempre têm o limite superior
aberto e o limite inferior fechado. Isso significa que o valor, exatamente, igual ao limite superior não
está incluso na sua respectiva classe, enquanto o valor do limite inferior, sempre, será contabilizado como
dessa classe. Com isso definido, podemos, enfim, montar nosso histograma. Considerando os dados
apresentados nas tabelas anteriores, o histograma terá exatamente o formato apresentado na Figura 4.

Histograma - Quantidades de Amostras com


Determinada Quantidade de Flavorizante
18
16
14
12
10
8
6
4
2
0
268-276 276-284 284-292 292-300 300-308 308-316 316-324 324-33
Figura 4 - Histograma para o exemplo com dados das Tabelas 2 e 3 / Fonte: o autor.

Descrição da Imagem: um histograma de oito classes, o qual inicia com dados crescentes, atinge o topo em sua metade e então
decresce continuamente.

O histograma obtido é considerado simétrico. Isso não significa, de forma alguma, que os dois lados
dele são perfeitamente espelhados. Esse termo é usado para dizer que o histograma tem em sua região
central, o pico dos dados, e, conforme os dados se afastam do centro, eles tendem a decair cada vez
mais. Isso indica que a média dos dados se encontra muito próxima da região central.

83
UNICESUMAR

Este formato específico é visto como o mais adequado possível para linhas de
produção, pois mostra que a maioria dos dados estão próximos do valor adequado
(300 mg de flavorizante na composição da amostra) e que, quanto mais distantes as
quantidades de flavorizante estiverem do centro, menos vezes ocorrerão.
O histograma simétrico se aproxima da chamada distribuição normal, conforme
visto, em nossa primeira unidade. Isso indica uma maior concentração de dados no
centro de uma distribuição. Nela, apesar de nem todos os dados estarem localizados
na posição ideal, pode-se afirmar que a maioria deles ocorre dentro do esperado
(RAMOS; ALMEIDA; ARAÚJO, 2013).

É seguro afirmar que, se não existissem variações, todos os dados


estariam exatamente dentro da média. Entretanto, elas existem,
e ocorrem por dois tipos de causas: as atribuíveis e as aleatórias.
Enquanto as causas aleatórias são causas naturais, as quais têm
pouco impacto e não podem ser eliminadas, as atribuíveis são
aquelas que geram grandes desvios dos dados, sendo muito mais
perigosas para a qualidade do processo. Para aprender mais sobre
isso, basta acessar o vídeo!

Há outros formatos padronizados de histogramas que podem ocorrer. Na Figura 5,


é apresentado o formato assimétrico.

Histograma assimétrico
18
16
14
12
10
8
6
4
2
0
Figura 5 - Histograma assimétrico / Fonte: o autor.

Descrição da Imagem: um histograma com o ponto mais alto localizado fora de seu centro, para a esquerda.

84
UNIDADE 3

Histogramas assimétricos ocorrem quando a média de dados se encontra em uma


posição fora do centro do diagrama, o que indica um possível desvio do processo.
Pode ocorrer quando o valor de uma variável não puder ser mais alto ou mais baixo
do que um valor específico. Importante citar que o formato desse histograma pode
ser espelhado ao da Figura 5, com o ponto mais alto localizado no lado direito, e que
ele não precisa respeitar exatamente o formato apresentado, podendo haver varia-
ções irregulares entre uma classe e outra. Pode-se citar, também, os histogramas
de formato “ilhas solitárias”, conforme apresentado na Figura 6. Neste caso, os valores
que ficam isolados tendem a representar erros no processo, visto que seus resultados
são diferentes da maioria.

Histograma com ilhas isoladas


16
14
12
10
8
6
4
2
0
Figura 6 - Histograma assimétrico / Fonte: o autor.

Descrição da Imagem: um histograma com um espaço vazio em seu centro, separando-o em duas metades.

Há o formato bimodal, conforme representado na Figura 7, que tem dois picos se-
parados. É algo que pode acontecer caso haja uma mistura de dados de dois turnos
diferentes, por exemplo, em que se encontra um horário de pico de produção, às 10h
e outro às 20h.

85
UNICESUMAR

Histograma bimodal
16
14
12
10
8
6
4
2
0
Figura 7 - Histograma bimodal / Fonte: o autor.

Descrição da Imagem: um histograma com dois pontos altos de mesma altura e separados.

Por último, podemos citar o histograma do tipo platô, em que as barras centrais pos-
suem frequências iguais ou muito similares, com todas elas atingindo o ponto mais
alto representado no gráfico. Quando se diz que o platô foi atingido, significa que o
valor máximo foi alcançado, houve estabilização nele e que, a seguir, a tendência é que
seja iniciada uma queda. Esse formato é muito similar ao da distribuição normal e,
apesar de não indicar uma regularidade tão adequada quanto a normalidade, ainda
pode ser aceito, caso a faixa de variação entre os dados do centro e das proximidades
não seja alta. O platô é apresentado na Figura 8.

Histograma Platô
16
14
12
10
8
6
4
2
0
Figura 8 - Histograma do tipo platô / Fonte: o autor.

Descrição da Imagem: um histograma com várias colunas de mesma altura seguidas, formando uma reta
no seu ponto mais alto.

86
UNIDADE 3

O histograma tem um procedimento de montagem, relativamente, demorado em relação às demais


ferramentas, mas sua interpretação é muito simples e sua importância vai além do que foi abordado
nesta unidade. Revisitaremos a ferramenta na etapa final de nosso livro, quando discutirmos os índices
de capacidade de processos.

O artigo “Análise da variação no peso médio da caixa de manga a


partir do controle estatístico do processo” é uma ótima leitura para
entender a utilidade do histograma e de outras ferramentas já ex-
planadas! O comparativo do histograma com a curva normal é rea-
lizado, inclusive, mostrando que nem todos os processos seguem
uma distribuição normal perfeita, mas, ainda assim, têm resultados
próximos do desejado.
Para acessar, use seu leitor de QR Code.

A partir de agora, discutiremos a última ferramenta da nossa unidade, que é o diagrama de dispersão.
Essa ferramenta tem como objetivo exclusivo determinar o quanto duas variáveis se correlacionam.
Por exemplo, caso tenhamos várias cidades com quantidades diferentes de pessoas adultas vivendo
nelas, é lógico pensar que as cidades com mais adultos terão mais carros rodando pelas suas ruas.
Sendo assim, com um diagrama de dispersão, seria possível comprovar estatisticamente que, quanto
mais adultos existem em uma cidade, mais carros existirão nessa cidade.
Apesar dessa finalidade ser muito específica, ela não deixa de ser de importância vital para com-
preender as causas que podem influenciar um processo e, ainda mais importante, quanto e como
elas podem afetar os resultados. Isso é absolutamente útil para a tomada de decisões em geral, já que
assim podemos entender como melhorar qualquer processo (WERKEMA, 2014).
Um diagrama de dispersão, em sua normalidade, leva em conta duas variáveis. Ambas podem ser
duas causas de um processo, por exemplo, a quantidade de flavorizante e a quantidade de emulsifi-
cante em uma amostra de creme dental, ou uma causa e um efeito desse processo, como a quantidade
de flavorizante e a aceitação do público em relação ao sabor de menta do creme dental. Por último,
podemos tratar, também, de dois efeitos simultâneos, como a aceitação de um produto por parte do
público e a quantidade de unidades que são vendidas por mês.
Na perspectiva da Estatística, torna-se indiferente se tratarmos de causas ou efeitos, pois consi-
deramos uma variável como dependente e outra como independente (RODRIGUES, 2016). Assim
como em qualquer ferramenta, quanto mais dados tivermos, mais fiéis à realidade serão os nossos
resultados. O diagrama é composto por dezenas de pontos, em que cada um deles corresponde a
um dado observado.

87
UNICESUMAR

Você sabia que o diagrama de dispersão pode ser usado como


ferramenta para análises esportivas? A Estatística é uma ciência
de grande importância para a maioria dos esportes e, apesar de
isso ser sabido e reconhecido há algumas poucas décadas, sua
aplicação no futebol só foi se tornar definitiva em épocas mais
recentes, com técnicos como os multicampeões Pep Guardiola
e Jürgen Klopp. Quer saber mais sobre o uso do diagrama de
dispersão e de outras ferramentas no futebol? É só dar o play!

Para exemplificar, supomos Quantidade de km rodados Situação do pneu


uma situação em que já se sabe 237 7
com total certeza que duas va-
548 5
riáveis se relacionam: desgaste
de pneus de carros e quilôme- 171 8

tros rodados. Na situação ex- 64 10


posta, foram coletados dados 965 3
referentes a 22 pneus, os quais
387 7
foram usados em carros que
942 2
viajaram por variadas distân-
cias. Atribuíram-se notas que 685 7
variavam entre 0 e 10 a eles, sen- 721 5
do 0 referente a pneus altamen- 458 6
te desgastados e 10 referente a
218 7
pneus em perfeitas condições.
Sabemos que pneus que viaja- 746 3
ram mais quilômetros tendem 168 9
a ter um desgaste maior e, con- 299 7
sequentemente, uma nota mais
555 5
baixa. Os dados coletados para
o exemplo são apresentados na 236 7

Tabela 5. 799 4
183 8
349 6
365 4
776 2
568 5

Tabela 5 - Quilômetros rodados e notas atribuídas à qualidade dos pneus observados


Fonte: o autor.

88
UNIDADE 3

Quando falamos de variáveis dependentes e independentes, a convenção diz que as variáveis indepen-
dentes devem ficar posicionadas no eixo X horizontal do gráfico, enquanto as variáveis dependentes
são posicionadas no eixo Y vertical. Seguindo essa regra, sabemos que a variável “nota do pneu” de-
pende da variável “quantidade de quilômetros rodados”, o que as classifica, respectivamente, como
dependente e independente. Com base no raciocínio exposto e na Tabela 5, podemos, então, montar
o gráfico apresentado na Figura 9.

Situação do pneu R² = 0,7616


12

10
Situação do pneu

0
0 200 400 600 800 1000 1200
Quantidade de km rodados
Figura 9 - Exemplo de diagrama de dispersão / Fonte: o autor.

Descrição da Imagem: vários pontos espalhados em um gráfico e uma reta diagonal decrescente passando por entre eles.

REALIDADE
AUMENTADA

Estudante verifique, aqui, outra


oportunidade de você compreender
o diagrama de dispersão. Clique no
Qr CODE e acesse o diagrama.

Etapas de Montagem do
Diagrama de Dispersão

89
UNICESUMAR

Cada um dos pontos azuis da Figura 9 representa um dado da Tabela 4. A reta pon-
tilhada na diagonal é a chamada reta média, a qual expõe a tendência do compor-
tamento dos pontos do gráfico. Deve ficar claro que a reta média não indica com
exatidão onde todos os pontos estarão, pois ela é determinada com base na posição
dos dados no diagrama, e não o contrário. No exemplo apresentado, a reta média
tem inclinação na diagonal para baixo. Isso indica uma correlação negativa, isto é,
enquanto uma das variáveis aumenta, a outra diminui. Considerando quais são os
fatores analisados, isso já era algo que poderia ser esperado.
Ainda sobre a Figura 9, no canto superior direito, há a indicação do R². Esse valor
se trata do coeficiente de correlação e indica a intensidade da correlação entre as
duas variáveis. Seu valor pode variar entre 0 e 1, sendo 0 o valor que indica inexistência
de correlação e 1 o valor que indica total correlação. Quanto mais próximos todos os
pontos estiverem da reta média, maior será o valor de R². Caso todos estejam sobre
a reta, o coeficiente será igual a 1. No caso apresentado, temos o coeficiente igual a
0,7616. Este valor é suficiente para assumirmos a existência de uma correlação forte.

A literatura não indica um valor mínimo de R² para que a correlação seja


considerada como forte, isso é algo que depende da interpretação do pes-
quisador. É, porém, de comum acordo que valores abaixo de 0,7 não são
considerados fortes, sendo medianos, e valores acima de 0,85 sempre serão
considerados muito fortes.

Costuma-se trabalhar com o valor R² para que seja mais fácil entender o nível da
correlação, principalmente quando houver a necessidade de comparar dois diagramas
de dispersão. Pode-se, entretanto, calcular o valor de R ao invés do R². A vantagem do
uso do R² sobre o R se dá pelo fato de se trabalhar, apenas, com números positivos,
o que facilita a interpretação para entender a força da correlação.
O uso do R, que pode ter valores positivos e negativos — obrigatoriamente, entre
-1 e 1 —, é mais útil quando precisamos saber se a correlação é positiva, em que os
dois parâmetros analisados crescem em conjunto, ou negativa, em que um parâme-
tro decresce, enquanto o outro cresce. Como pode-se supor, um R positivo indica
correlação positiva, enquanto um R negativo indica correlação negativa. Para todos
os fins, o valor 0 indica ausência de qualquer correlação. Todos os softwares usados
para a montagem de diagramas de dispersão já determinam o valor do R² automa-
ticamente. Entretanto, para conhecimento, o cálculo para determinar o valor de R
se dá da seguinte forma:

90
UNIDADE 3

n.S  x  y   S x  S y
R
2 2
n  S x2   S x   n  S y 2   S y 

Uma outra forma de entender se a correlação é positiva ou negativa é com base no sentido da reta
média. Uma reta crescente indica correlação positiva, enquanto uma reta decrescente indica correlação
negativa. Com essa informação em mente, torna-se mais útil ter acesso ao R² do que ao R, visto que o
seu diferencial era, justamente, indicar o tipo de correlação, algo que pode ser facilmente visualizado
ao identificar a inclinação da reta média. Vale citar que a correlação não precisa ser, necessariamente,
linear. Podem ser utilizadas correlações exponenciais, o que geraria um diagrama não com uma reta,
mas sim com uma linha curva. Quanto mais expoentes tivermos envolvidos, melhor a curva repre-
sentará todos os pontos expostos no sistema.
Visualmente, as correlações lineares estão representadas na Figura 10. Note que os pontos estão mais
acumulados nos casos em que a correlação é forte do que em correlações fracas. Em casos de correlações
fortes, já é possível visualizar a inclinação da reta, antes mesmo de traçá-la. No caso em que a correlação
é inexistente, qualquer software traçará a reta, mas retornará um valor muito baixo para o R².

Elevada correlação positiva Fraca correlação positiva

Elevada correlação negativa Fraca correlação negativa Ausência de correlação


Figura 10 - Tipos de correlação lineares em diagramas de dispersão / Fonte: Pedroza (2018, p.107).

Descrição da Imagem: cinco conjuntos de dados separados. Um deles envolve vários pontos unidos que formam uma reta diagonal
crescente. O segundo envolve vários pontos separados, os quais também formam uma reta crescente. O terceiro mostra vários pontos
próximos, formando uma reta diagonal decrescente. O quarto mostra vários pontos separados que formam uma reta decrescente. O
quinto tem pontos aleatórios que não geram uma reta.

91
UNICESUMAR

Apesar de tudo que foi dito, até Consumo diário


Coeficiente de
o momento, indicar que uma País individual de
natalidade
proteínas (g)
forte correlação entre os dois ei-
xos representará uma relação de A 4,7 45,6
causa e efeito, isso nem sempre B 7,5 39,7
será verdadeiro! Pode ocorrer
C 8,7 33,0
um fenômeno conhecido como
falsa correlação, em que, apesar D 9,7 27,0
de ser indicado um certo nível E 11,2 25,9
de correlação, os fatores nem
F 15,2 23,5
sempre influenciarão direta-
mente uns aos outros. G 15,2 23,4
Muitas vezes, há algum fator H 16,8 22,2
implícito que conecta ambos os
I 37,3 20,0
parâmetros analisados. Em ca-
sos mais raros, podemos ter em J 46,7 19,1
mãos, apenas, uma grande coin- K 56,1 18,3
cidência. Como exemplo, pode-
L 59,9 18,0
mos citar os dados referentes ao
consumo diário individual de M 61,4 17,9
proteínas, em diversos países, N 62,6 15,0
em comparação com o coefi-
ciente de natalidade neles, con- Tabela 6 - Consumo diário individual de proteínas e coeficiente de natali-
dade em 14 países / Fonte: o autor.
forme apresentado na Tabela 6.
É sabido que a quantidade de proteínas consumida em nada afeta a capacidade de gerar filhos.
Entretanto, caso os dados sejam colocados em um diagrama de dispersão, conforme apresentado na
Figura 11, teremos um nível de correlação de 0,6003, algo que, apesar de não indicar uma correlação
muito forte, definitivamente, não é um nível baixo.
Um motivo para ter obtido um nível de correlação relativamente alto se dá por termos poucos
dados. Em diagramas de dispersão, o ideal é trabalhar com, pelo menos, 20 dados. Para análises cien-
tíficas, pode-se exigir que se tenha, no mínimo, um conjunto de 50 observações para que os resultados
possam ser considerados, e, como sempre, quanto mais dados existirem, mais fiéis os resultados serão
à realidade. Caso tivéssemos acesso a informações de outros países, é muito provável que o valor en-
contrado para R² fosse reduzido.

92
UNIDADE 3

Consumo de Proteínas X Índice de Natalidade


50
45
40
R² = 0,6003
35
30
25
20
15
10
5
0
0 10 20 30 40 50 60 70
Figura 11 - Diagrama de dispersão correlacionando o consumo de proteínas com o índice de natalidade em 14 países / Fonte: o autor.

Descrição da Imagem: vários pontos espalhados com uma reta diagonal decrescente passando entre eles.

Mesmo que tratemos, aqui, de poucos dados, ainda, podemos interpretar e encontrar uma possível
motivação para a existência da correlação. Esse caso exige que o raciocínio vá um pouco além do que
podemos ver. Um maior consumo diário de proteínas pode indicar uma alimentação de melhor qua-
lidade, o que pode ser relacionado com uma melhor renda. A população de países com melhor renda
tende a ter menos filhos, pois as pessoas estão mais voltadas para a vida profissional do que ter filhos.
Sendo assim, a correlação não é direta, mas existe um fator oculto que influencia em ambos os eixos.
Antes de finalizarmos, deixo aqui duas curiosidades. A primeira é relacionada à união da estra-
tificação aos diagramas de dispersão. Podemos analisar dados de grupos diferentes em um mesmo
diagrama, fazendo um comparativo direto entre eles, e dar, aos pontos, representantes de cada grupo
cores diversificadas, conforme o diagrama apresentado na Figura 12.

12

10
Variável dependente

4 Figura 12 - Estratificação apli-


cada ao diagrama de dispersão
Fonte: o autor.
2
Descrição da Imagem: vá-
0 rios pontos de cores dife-
rentes, os quais se asseme-
0 10 20 30 40 50 lham a uma reta diagonal
crescente.
Variável independente

93
UNICESUMAR

A segunda curiosidade se re-


fere à adaptação de diagramas
de dispersão para tratar de três
variáveis, simultaneamente, ve- 60
rificando como a ação conjunta
50
de dois parâmetros influencia,
em um terceiro. Seu uso é in- 40

Conversão
comum, quando comparado ao 30
do diagrama de dois eixos, mas
isso não diminui sua relevância, 20
pelo contrário, podemos consi- 10
derá-lo como uma ferramenta
ainda mais poderosa do que o 1.2 0
1. 8
0. 6

1.
diagrama bidimensional. A di-

2
0. 4

1.
0
0. 2

0.
8
0.
ficuldade está em encontrar e 0. 0
Te

6
0.
0. .2
lar
m

4
0.
pe

-0 .4 o

2
0.
manejar softwares que possam om
ra

0
-0 .6

-0
ã
tu

.2
Raz

-0
-0 .8
ra

.4
-0
gerá-lo, pois estes costumam -0 .0

.6
-0
-1 .2

.8
-1
-1

.0
-1
ser programas de baixa acessi-
.2
bilidade. Para montá-lo, são ne- Figura 13 - Diagrama para correlação entre três variáveis
Fonte: Fioroto (2018, p. 56).
cessários softwares específicos,
e o resultado é similar ao que é Descrição da Imagem: uma superfície quadrada tridimensional na diagonal, mudando
gradualmente de cor entre verde escuro até vermelho escuro.
apresentado na Figura 13.

A superfície em questão costuma ser mais usada no meio científico, mas seu uso em indústrias tam-
bém é algo válido; grandes fabricantes de materiais, por exemplo, utilizam-na para mensurar como
a resistência das estruturas se comportam sob temperaturas e pressões diferenciadas. A maioria dos
softwares voltados à Estatística é capaz de produzir o diagrama em sua forma tridimensional.

Nesta unidade, abordamos mais três das ferramentas da qualidade. A estratificação é a base
para o funcionamento de todas as outras, não é necessário grande esforço para notar sua
presença em conjunto a todas as ferramentas. O histograma é uma das ferramentas de mais
fácil interpretação e de uso mais comum, visto que temos contato com diagramas de frequência
em diversas fontes. Por último, tratamos do diagrama de dispersão, a ferramenta que, até o
momento, mais evidenciou os conceitos da Estatística em nossa disciplina.

94
UNIDADE 3

Em nossa próxima unidade, deixaremos os conceitos da Qualidade


de lado e mudaremos nosso foco para a Estatística pura. Revisi-
taremos conceitos básicos e, claro, focaremos nas suas aplicações
práticas. Este conteúdo será relevante para que possamos retornar
à Qualidade na segunda metade de nosso material.
Você entendeu o motivo para Maycon ter adotado as ferramen-
tas da qualidade expostas, nesta unidade, em nosso estudo de caso
inicial? A verdade é a de que ele poderia analisar os dados, seguindo
um raciocínio diferente e, consequentemente, necessitar de outras
ferramentas. Porém a forma com a qual ele decidiu progredir com o
estudo não está, de forma alguma, errada. Todos os passos seguidos
por Maycon tiveram uma boa motivação.
A estratificação se trata de um conceito tão simples que algu-
mas pessoas nem ao menos a consideram como uma ferramenta,
entretanto ela definitivamente faz parte do grupo, sendo usada em
inúmeras situações profissionais, mesmo que não intencionalmente.
A segunda ferramenta, histograma, é útil para mostrar o com-
portamento dos dados de forma gráfica. A visualização de tudo que
foi realizado — das notas que foram obtidas, dos pesos, das medidas
e quaisquer outras variáveis — torna-se muito mais simples com
o uso de um gráfico de barras. Por último, falamos dos diagramas
de dispersão, cuja função é indicar o quanto duas grandezas se re-
lacionam entre si. É muito útil para que possamos entender se um
dos itens analisados é, de fato, a causa da ocorrência do outro item.

95
Que tal preencher seu mapa mental com aquilo que tiver absorvido durante a unidade? Como
nosso conteúdo teve uma estrutura muito semelhante à da nossa unidade anterior, podemos
usar uma ideia parecida. Primeiramente, apresente a função de cada uma delas e em qual etapa
do DMAIC podemos usá-las. Fale um pouco sobre os diversos formatos do histograma. Explique,
também, como podemos compreender a força e o tipo de correlação encontrados em um diagrama
de dispersão. Por último, aborde a forma como a estratificação pode ser usada em parceria com
cada uma das ferramentas desta unidade e, se possível, também com as ferramentas da nossa
unidade anterior! Isso será interessante para que você entenda como todas elas estão interligadas.

FERRAMENTAS
Estratificação DA QUALIDADE Histograma

Diagrama de dispersão

Descrição da Imagem: um quadro com espaços para descrições das ferramentas de estratificação, diagrama de dispersão e
histograma.

96
1. A estratificação pode ser vista como a divisão de amostras semelhantes, baseando-se
em uma característica específica. A seguir, encontra-se uma planilha que expõe as
características de cinco objetos diferentes.

Tamanho Cor Sabor


1º objeto Pequeno Azul Morango
2º objeto Médio Vermelho Abacaxi
3º objeto Pequeno Azul Morango
4º objeto Grande Azul Uva
5º objeto Grande Vermelho Uva
Fonte: o autor.

Baseando-se na planilha, leia as afirmativas a seguir:


I) Em hipótese alguma, seria possível ter o 2º e o 5º objetos em um mesmo grupo
estratificado.
II) Caso a estratificação acontecesse a partir do tamanho, teríamos três grupos dife-
rentes.
III) Seria impossível realizar a estratificação por cor e, em seguida, por tamanho.
IV) Independentemente de como seja feita a estratificação, o 1º e o 3º objetos estarão
sempre no mesmo grupo.

É correto o que se afirma em:


a) I, apenas.
b) II e III, apenas.
c) II e IV, apenas.
d) I, II e III, apenas.
e) I, II e IV, apenas.

97
2. A seguir, estão registrados três gráficos de dispersão.

Gráfico A R²= 0,0004 Gráfico B R²= 0,7542


41 140
39 130
37 120
35
110
33
31 100
29 90
27 80
25 70
0 5 10 15 20 25 30 0 5 10 15 20 25 30 35

Gráfico C R²= 0,2661


155
145
135
125
115
105
95
85
75
0 5 10 15 20 25 30 35

Fonte: o autor.

Descrição da Imagem: Três diagramas de dispersão, indicados pelos nomes gráfico A, gráfico B e gráfico C, todos com
diversos pontos dispersos pelo gráfico e com uma reta média, indicando seus comportamentos. O gráfico A tem uma
reta média levemente crescente, o gráfico B tem uma reta média com crescimento forte e o gráfico C tem uma reta média
com forte decréscimo.

Entre os três gráficos, indique qual é aquele que apresenta maior correlação entre os
pontos, justificando sua escolha. Exponha também qual é o tipo de correlação em cada
um dos gráficos: positivo, negativo ou inexistente.

98
3. O Diagrama de Dispersão, também conhecido como Gráfico de Dispersão, é uma das
ferramentas da qualidade mais conhecidas. Ela se dá por meio de um gráfico de dois
eixos, em que serão descritos dados referentes a causas e efeitos. Com base na corre-
lação apontada pelo gráfico, pode-se identificar se as variáveis analisadas são, de fato,
correlacionadas como causa e efeito (MONTGOMERY, 2017). O diagrama de dispersão
é uma ferramenta amplamente utilizada, mas a compreensão de seus resultados nem
sempre é tão simples. A respeito da ferramenta, analise as asserções a seguir.
I) É possível utilizar a estratificação dentro do próprio diagrama de dispersão, o que
pode tornar a interpretação dos dados ainda mais produtiva.
II) Apesar do formato tradicional do diagrama utilizar apenas duas variáveis, pode-se
usar também um diagrama que relacione três variáveis, incluindo três eixos em um
gráfico tridimensional.
III) Mesmo que o diagrama indique alguma correlação, este resultado pode não ser
verdadeiro, visto que existe a chance de ocorrer a chamada "falsa correlação".
IV) O diagrama de dispersão sempre indica claramente qual é a origem de um efeito, o
que dispensa o uso de demais ferramentas.

É correto o que se afirma em:


a) I, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.

99
4. A seguir, são expostos 40 dados referentes aos pesos de pacotes de salgadinhos produ-
zidos em uma indústria. Cada pacote deveria ter 200 gramas, com variações de até 4%.

207 205 214 220 214 220 178 225

192 191 193 210 183 224 197 189

178 215 224 223 209 200 211 194

214 212 216 206 216 185 211 224

191 192 202 225 196 224 211 180

Fonte: o autor

Deseja-se montar um histograma para organizar os dados de maneira visual. Sendo


assim, monte um histograma e apresente qual o formato que ele mais se encaixa. Por
último, diga se ele corresponde a uma distribuição normal.

100
5. Uma entrevistadora separa um grupo de 20 candidatos para uma vaga de emprego.
Todos têm entre 20 e 30 anos e são divididos em 6 grupos. A divisão acaba conforme
a distribuição de frequências a seguir.

Candidatos à vaga
6

4
Frequência

0
20-21 22-23 24-25 26-27 28-29 29-30
Idades
Fonte: o autor.

Descrição da Imagem: gráfico de barras com título “candidatos à vaga”, correlaciona as faixas de idades dos candidatos
com a frequência com a qual cada uma delas apareceu. As faixas são 20 a 21, 22 a 23, 24 a 25, 26 a 27, 28 a 29 e 29 a 30.
As frequências são, respectivamente, 1, 3, 3, 5, 4 e 4.

Com base no histograma, são feitas as seguintes afirmações:


I) A quantidade de candidatos acima de 25 anos e com até 29 anos é o triplo da quan-
tidade de candidatos com até 23 anos.
II) A quantidade de candidatos acima de 27 anos é o dobro da quantidade de candi-
datos de até 23 anos.
III) Este histograma pode ser considerado como bimodal.
IV) Os candidatos abaixo de 26 anos correspondem a 35% do total.

É correto o que se afirma em:


a) II, apenas.
b) III, apenas.
c) II e IV, apenas.
d) III e IV, apenas.
e) I, II e III, apenas.

101
102
4
Estatística
Descritiva e Noções
de Probabilidade
Me. Paulo Otávio Fioroto

Os principais conceitos de estatística e probabilidade usados nas


indústrias serão apresentados nesta unidade. Neste momento,
também, apresentaremos os diversos cálculos, comumente, usados
na determinação de probabilidades.
UNICESUMAR

Qual é a chance de algo dar errado em um processo? Na verdade, é impossível sabermos exatamente
quantos erros teremos em um processo. É possível ter uma estimativa, com base nos conceitos da
Estatística, mas deve-se ter em mente que a Estatística não é uma ciência perfeitamente exata. Falo
por experiência própria, pois já estive diretamente envolvido em situações nas quais havia 1% de
chance de acontecer uma falha e, mesmo assim, ela ocorreu. Da mesma forma, já presenciei uma
probabilidade de acerto de 0,02% acontecer com sucesso.
Se dissermos que a chance de acontecer uma falha é de 3%, isso significa que, com base em ex-
periências anteriores, houve falhas em 3% das vezes que uma ação foi realizada, exatamente, sob as
mesmas condições. Entretanto isso não significa que, nas próximas 100 vezes, teremos exatamente
3 falhas. Pode acontecer de termos nenhuma falha, ou apenas uma, ou 10 falhas, ou até 100 falhas!
Da mesma forma, há diversos sites e casas de aposta que estudam as estatísticas relacionadas ao
esporte. Caso você seja tão fã de futebol quanto este que lhe escreve, é possível que você já tenha ouvido
ou lido alguma notícia, dizendo que “faltando 4 rodadas para o fim do campeonato, o time X tem 74%
de chances de ser campeão”. Isso significa que, considerando todas as variáveis possíveis, envolvendo
os times que ainda têm chance de serem campeões, em 74% das combinações de resultados, o time
X será campeão. Porém uma partida depois, o time X perde um jogo, e o time Y, que estava em se-
gundo lugar, toma a liderança. Aqueles 74% da rodada anterior podem ter caído para menos 20%, e
isso aconteceu porque uma das combinações que estava fora dos 74% anteriores se tornou realidade.
A Estatística jamais deve ser tomada como realidade. Não é, porém, errado se basear nela para a
tomada de decisões, pois essa é a forma mais próxima que temos de prever o futuro; afinal, ela é em-
basada em fatos passados. E quanto mais dados você adicionar, mais precisas serão as probabilidades
calculadas. Nesse sentido, qual é a forma correta de se determinar uma probabilidade? Existe mais
de uma forma de realizar estes cálculos?
Pois bem, analisemos o estudo de caso, a seguir, para que ele nos ajude a visualizar as aplicações
da Estatística no cotidiano das empresas. Dessa vez, nosso estudo de caso tratará de Eliza, uma
profissional que atua no ramo de produtos eletrônicos. Seu foco é a gestão de inovações, em uma
empresa fabricante de diversos equipamentos, dentre eles, celulares. Uma nova unidade foi aberta, em
uma pequena cidade no interior do Mato Grosso, e Eliza, que fazia parte do quadro de funcionários
há cerca de dois anos, foi transferida para essa cidade com a finalidade de estruturar o controle de
qualidade da nova fábrica. Os funcionários que lá estavam, porém, eram recém-contratados e pouco
experientes, o que tornou o desafio de Eliza maior do que ela esperava.
Após seis meses, Eliza recebeu a missão de calcular o custo de produção unitário dos celulares
fabricados pela empresa. Em um primeiro momento, isso parecia algo simples, era só somar os gastos
com matéria-prima, mão de obra e energia elétrica para a produção e dividir o resultado pela quanti-
dade de aparelhos produzidos. Contudo existe um outro fator a ser considerado: os itens defeituosos.
O custo para produzir um item perfeito e um item defeituoso é exatamente o mesmo, mas há
uma diferença drástica, ao final: itens defeituosos não são vendidos e, consequentemente, não
geram lucro. Sendo assim, assumindo que os gastos com energia elétrica e mão de obra não se
alteram, nosso gasto será exatamente o mesmo, sempre que produzirmos um lote de um deter-
minado produto, mas não o nosso lucro.

104
UNIDADE 4

Apesar dos itens defeituosos, há algo que pode ser


feito para que as perdas sejam menores. Celulares
são compostos por diversas peças e, muitas vezes,
apenas uma delas apresenta defeito. Sendo assim,
podemos retirar essa peça falha e uma peça igual,
mas boa, de um outro item que tenha uma falha
diferente. Isso nos dá um produto final em boas
condições para ser vendido. Isso, porém, gera um
pequeno custo adicional na produção, já que a
mão de obra para a manutenção desse item falho
não é de graça.
Eliza, a partir dessas considerações, refez seus
cálculos, considerando os últimos 30 lotes produ-
zidos e encontrou um custo unitário, cerca de 18%
maior do que aquele que seria o preço de um cená-
rio perfeito. Isso não é bom, afinal, arredondando
alguns valores, pode-se dizer que os gastos para
a produção de seis celulares geram apenas cinco.
Isso é o custo da falta de qualidade. Obviamente,
é impossível ter um processo perfeito e completa-
mente sem falhas, mas um custo 18% maior do que
o adequado é algo inaceitavelmente alto.

105
UNICESUMAR

Foi, então, que Eliza decidiu verificar os dados relativos ao processo, nos últimos seis
meses, período de atividade da unidade, envolvendo muito mais informações do que
o considerado, inicialmente. Após analisar tudo que foi realizado, ela percebeu que os
custos estarem em 18% de acréscimo é algo que pode ser visto como sorte, pois o processo
gerava, em média, 27% de produtos defeituosos, enquanto 10% do que era produzido
demorava mais tempo do que o planejado. Isso foi mascarado pelo fato de que, consi-
derando as várias etapas de produção, havia uma perda de cerca de 5% em uma delas
e atraso de 2%, enquanto a fase seguinte gerava 7% de itens com defeito e atrasava em
mais 4%, e assim por diante. Ao final, o acumulado de itens com problemas era de 27%
do total, enquanto o tempo de produção, que deveria ser de algumas horas, levava uma
hora a mais. Em outras palavras, quando se tentava produzir 1000 celulares, 270 deles
paravam no meio da produção. Estes resultados são péssimos para qualquer empresa.
Com os resultados encontrados, não há outra opção que não seja tratar cada um
dos problemas pontualmente, reduzir ou, até mesmo, eliminar as falhas em cada fase
específica da produção. Para tanto, Eliza aplicou as ferramentas da qualidade, seguindo
o DMAIC, abordadas durante as unidades anteriores, e realizou um projeto com cerca
de 4 meses de duração, um período relativamente curto para a implantação de melhorias
em processos produtivos, mas que pode ser usado como base para verificação, a fim de
saber se, de fato, atingiu alguma melhoria.
Após uma nova análise, Eliza encontrou uma relativa melhora, o primeiro lote pro-
duzido, após a implantação, teve apenas 12% de falhas e uma redução progressiva dos
atrasos que ocorriam anteriormente. A marca de 12%, ainda, é considerada alta, mas isso
definitivamente apresenta uma notória evolução em comparação aos 27% anteriores.
Após algumas semanas, coletaram-se outros dados, considerando mais lotes. Obser-
vou-se que o percentual de falhas não era de 12%, mas sim de 10%, e que o atraso havia
caído drasticamente da marca de 10% para 2%. Isso representa uma grande melhora em
relação ao que Eliza encontrou no início, mas ainda um resultado não muito agradável.
Ainda, assim, a queda de falhas mostra que a equipe está determinada a buscar melhorias,
as quais serão atingidas eventualmente.
Eliza só conseguiu encontrar informações que podem ser consideradas próximas
da realidade, porque levou em conta uma grande quantidade de dados. Vamos consi-
derar a Estatística aplicada a algo bem mais simples: um jogo de cara ou coroa. Caso
tenhamos uma moeda comum, em nossas mãos, teremos dois possíveis cenários:
jogá-la para o alto e encontrar cara, ou jogá-la para o alto e encontrar coroa. Caso
você realize essa ação apenas uma vez, você obterá, apenas, uma das faces, obviamente,
vamos supor que seja cara. Se apenas esse dado for levado em conta, isso significa
que, estatisticamente, 100% das vezes a moeda cairá com a face “cara” para cima, o
que é está absolutamente errado.

106
UNIDADE 4

Que tal você realizar essa ação várias vezes seguidas? A partir disso, saberemos, de fato, qual é a pro-
babilidade real de um determinado resultado acontecer. Faça o lançamento dez vezes e anote quantas
caras e quantas coroas foram obtidas. Após isso, realize a ação mais dez vezes. Em seguida, mais dez
vezes, totalizando trinta lançamentos. É muito provável que, a cada rodada de dez lançamentos, seu
total de caras se aproxime cada vez mais de 50%. Caso realizemos o lançamento infinitas vezes, cer-
tamente teremos cada um dos resultados, ocorrendo em 50% das ocasiões. E se você lançar um dado
de seis faces trinta vezes, quantas vezes espera obter cada um dos resultados? A compreensão prévia
desses resultados é o estudo da chamada Probabilidade.
Esses são, apenas, exemplos simplificados do que a Estatística pode nos oferecer. Durante a unidade,
trataremos de outros casos cuja aplicação, também, é válida para a prática e podem exigir um racio-
cínio mais complexo. É importante que você anote as especificações de cada um dos métodos em seu
diário de bordo, pois, ao entender em quais situações cada um dos raciocínios e cálculos apresentados
se encaixam, a resolução de problemas reais, com base nesta unidade, torna-se algo simples.
Apesar da Estatística e da Probabilidade serem ciências diferentes, ambas são claramente conec-
tadas entre si, isso motiva para que sejam estudadas em conjunto. Enquanto a Estatística se trata da
ação relacionada a coletar, analisar e interpretar dados, a Probabilidade é a quantificação das chances.
Exemplificando, o fato de Eliza coletar os dados de processos anteriores é a Estatística, enquanto os
cálculos usados para prever a chance de um equipamento cometer uma falha referem-se à Probabilidade.
Com base no estudo de caso apresentado no início de nossa unidade, vimos que a quantidade de
erros ocorridos no passado é muito maior do que aqueles que ocorrem após alguns meses. Durante a
unidade, sugiro que você reflita: quais são as variáveis que podem interferir na redução da probabilidade
de problemas ocorrerem durante as fases de produção? E, ainda, quais são as variáveis mais importantes
para que tenhamos certeza de que não ocorrerão mais falhas? Busque relacionar essa resposta com o
que discutimos sobre Qualidade e suas ferramentas em nossas unidades anteriores!

DIÁRIO DE BORDO

107
UNICESUMAR

Inicialmente, tratamos da Probabilidade em seu formato mais simples. Apesar dos


conceitos relacionados a essa ciência existirem há muitos séculos, seu estudo foi, de
fato, iniciado formalmente em meados do século XVII. Hoje, temos a noção de que
a Probabilidade é algo que se aplica a inúmeras formas de estudo e é amplamente
aplicada nas mais diversas áreas, mas, por mais que isso possa soar irônico, o início
de seu estudo se deu com base em algo relativamente inesperado. Pesquisas relacio-
nadas ao tema foram encomendadas e financiadas, primeiramente, por jogadores de
jogos de azar, os quais estavam interessados em conhecer as probabilidades reais de
vencerem em determinados jogos (NAVIDI, 2012).

A ideia de utilizar a Estatística e a Probabilidade


em jogos de azar é antiga, mas continua a ser
aplicada, aprimorada e popularizada até os dias
de hoje! Há diversas obras sobre o tema, mas um
filme que se destaca em relação a esse assunto
é Quebrando a Banca, de 2008, estrelado por Jim
Sturgess e Kevin Spacey. O filme conta a história
de um jovem gênio da Estatística que precisa de
dinheiro para pagar a faculdade e que encontra
em cassinos a oportunidade de tornar-se cada
vez mais rico.
Para acessar, use seu leitor de QR Code.

Há alguns termos que são usados formalmente, aqui, é interessante conhecermos a


nomenclatura científica usada no estudo da Probabilidade. O termo experimento
é aplicado a qualquer ação cujo resultado não possa ser previsto antecipadamente
com certeza, ou seja, sempre que houver dois ou mais resultados possíveis para algo,
tratamos de um experimento. A simples ação de lançar uma moeda, a qual pode nos
dar dois resultados diferentes, já se encaixa nessa definição.
O conjunto de resultados que pode ser obtido é conhecido como espaço amostral.
Sendo assim, os resultados cara e coroa são o espaço amostral para o lançamento
da moeda que citamos no parágrafo anterior, enquanto o lançamento de um dado
tem como espaço amostral os resultados inteiros de 1 a 6. Por último, há o termo
evento, que se refere a um subconjunto de resultados dentro do espaço amostral.

108
UNIDADE 4

Por exemplo, caso nosso desejo seja compreender a probabilidade de obter o resultado
3 no lançamento de um dado, então, o evento é o resultado 3.
No lançamento de um único dado, temos seis eventos possíveis, os quais formam
nosso espaço amostral, que será representado pela letra n. Caso nosso desejo seja obter
um evento específico (que será chamado de m), como o resultado igual a 5, nossa pro-
babilidade será igual à divisão de m por n, ou seja, conforme a Equação 1:

m 1
= (1)
n 6
É importante citar que esses resultados costumam ser expostos em forma de porcentagem.
O resultado da divisão de 1 por 6 é 0,1667. Para calcular a porcentagem, basta multipli-
car o valor encontrado por 100, ou seja, a probabilidade de conseguirmos o resultado
desejado no lançamento de um único dado é de 16,67%.
Esse raciocínio, também, pode ser usado, por exemplo, para determinar a probabili-
dade de se obter um resultado no lançamento de uma moeda comum, que será de 50%,
ou a de se retirar uma determinada carta em um baralho de 52 cartas, em que queremos
determinar a probabilidade de um evento ocorrer em um espaço amostral de 52 resul-
tados possíveis, a qual será de cerca de 1,92%.
Esse raciocínio, entretanto, pode sofrer variações. Podemos falar da probabilidade
condicional, por exemplo, em que são estabelecidas condições diferentes daquelas em
que desejamos, apenas, um único resultado. Por exemplo, podemos ter a condição de
que queremos obter um resultado ímpar no lançamento do dado; nesse caso, temos três
eventos que satisfazem a essa condição, que são os lados 1, 3 e 5. A partir disso, nossa
probabilidade é a de 3 resultados desejáveis em um espaço amostral de 6 resultados
possíveis, o que torna nossa probabilidade igual a 3/6, ou seja, 50%.
Ainda, tratando da probabilidade condicional, podemos também fazer com que ela
interfira no nosso espaço amostral. Por exemplo, jogamos um dado e sabemos que o
resultado obtido foi um número par. Deseja-se saber qual é a probabilidade de que esse
resultado seja igual ao número 4. Assim, nosso espaço amostral tem apenas três resultados
possíveis (2, 4 e 6), e desejamos conhecer a probabilidade de um evento específico ocorrer.
Dessa vez, nossa probabilidade será de 1 em 3 resultados, ou seja, 33,33%.

As chances de ganhar na loteria também são mensuráveis! Na Mega Sena, esco-


lhemos 6 números em um grupo de 60 opções. A probabilidade de acertar todos
os 6 números é baixíssima, algo próximo de 0,000002%. Já a probabilidade de
acertar a quadra, com 4 números, é bem maior, cerca de 0,043%!

109
UNICESUMAR

Até o momento, todos os casos dos quais tratamos envolvem apenas o lançamento de um
único dado ou moeda. Entretanto, também, podemos calcular probabilidades de determi-
nados eventos, envolvendo o lançamento de dois ou mais dados, por meio do conceito de
eventos independentes. Os eventos independentes ocorrem quando temos duas situações
acontecendo, de forma simultânea ou não, e o resultado de uma não tem interferência
sobre o resultado da outra. Colocando em outras palavras, o lançamento de uma moeda
não tem qualquer influência sobre o lançamento de uma segunda moeda ou de um dado
(VIEIRA, 2014).
Exemplificando, imagine que lançamos uma moeda para o alto e, simultaneamente,
lançamos um dado. Como vimos anteriormente, a probabilidade de obtermos um determi-
nado resultado no lançamento de um dado comum é de 1/6, enquanto a probabilidade de
obtermos um determinado resultado, em uma moeda é de 1/2. Então, caso nossa intenção
seja calcular, por exemplo, a probabilidade de encontrar o número 4 no lançamento do
dado e obter cara no lançamento da moeda, basta multiplicarmos a probabilidade de cada
um dos eventos ocorrer individualmente, ou seja:

1 1 1
 
2 6 12
Caso seja adicionado um terceiro evento à situação, por exemplo, a probabilidade da pes-
soa que estiver realizando as ações ser canhota, ser retirada uma determinada carta de um
baralho ou qualquer outro cenário desejado, basta adicionar uma terceira fração à multi-
plicação. Quanto mais eventos estiverem envolvidos, mais termos serão necessários para
que o cálculo possa ser completado.
Um raciocínio muito similar a este é adaptado ao chamado teorema do produto. Esse
caso é especificamente aplicado quando queremos saber a probabilidade de um evento es-
pecífico acontecer mais de uma vez. Por exemplo, qual seria a probabilidade de lançarmos
uma moeda 10 vezes seguidas e obtermos cara, em todos os lançamentos?
Esse tipo de cálculo pode ser realizado a partir da equação (x)n, em que x é a probabilidade
do evento ocorrer uma vez e n é a quantidade de repetições desejada. Sendo assim, sabemos
que a probabilidade do lançamento de uma moeda resultar em cara é de 1/2, e queremos
que o resultado se repita 10 vezes. A chance de isso ocorrer é calculada da seguinte forma:

1 10 110 1
( )= =
10
2 2 1024
Sendo que 1/1024 representa algo próximo de 0,098%, uma probabilidade muito baixa.
Caso queira encontrar algo ainda mais difícil, tente dizer em voz alta o nome de uma carta
qualquer, em um baralho de 52 cartas, embaralhar, retirar a carta, devolvê-la ao baralho,
embaralhar novamente e retirar essa mesma carta. A probabilidade será de 1/2704, o que,
em percentual, aproxima-se de 0,037%, uma probabilidade quase 3 vezes menor do que a

110
UNIDADE 4

de obter um resultado 10 vezes seguidas, lançando uma moeda.


Análogo ao teorema da multiplicação, temos também o teorema da soma. Este é aplicado
quando desejamos a probabilidade de um evento A ou de um evento B ocorrer. Por exemplo,
caso seja lançado um dado, e nosso desejo seja conhecer a probabilidade de o resultado ser
1 ou 2, basta que seja realizada a soma das duas probabilidades individuais, ou seja:

1 1 2
 
6 6 6
Esse teorema, porém, exige uma análise dos eventos que são considerados. No exemplo
apresentado com o dado, sabemos que é impossível que sejam obtidos os dois resultados
simultaneamente. Mas se estivermos tratando de uma situação em que é possível que os
eventos A e B ocorram de maneira simultânea?
Por exemplo, podemos determinar a chance de, em um baralho de 52 cartas, retirarmos
uma carta que seja do naipe de copas ou um ás. Existem 13 cartas para cada naipe, enquanto
existem 4 ases em um baralho comum. Entretanto existe uma carta que cumpre com as
duas condições simultaneamente, que é o ás de copas.
Nesse caso, se apenas realizássemos a soma de ambas as probabilidades, conforme
feito no exemplo anterior, estaríamos contabilizando essa carta duas vezes, isso geraria
um erro em nosso resultado. Por conta disso, é necessário descontar a probabilidade de
ambas as condições serem satisfeitas simultaneamente, calculada por meio do teorema da
multiplicação apresentado anteriormente. A probabilidade das duas situações ocorrerem
simultaneamente é de:

13 4 52 1
  
52 52 2704 52
Sendo assim, a probabilidade de retirarmos, aleatoriamente, uma carta de copas ou um ás
de um baralho de 52 cartas é de:

13 4 1 16
  
52 52 52 52
O que, em porcentagem, é aproximadamente 30,77%. Por último, devemos citar os cha-
mados eventos dependentes, em que um resultado influencia diretamente na probabi-
lidade do seguinte. Novamente, temos, em nossas mãos, um baralho com 52 cartas. Nas
situações em que abordamos até o momento, sempre que retirávamos a carta, devolvíamos
ao baralho; entretanto, neste caso, não a colocamos de volta. Isso afetará diretamente os
resultados seguintes.
Supomos que nossa intenção seja a de retirar uma determinada carta do baralho em
questão, por exemplo, o 5 de espadas. Inicialmente, retiramos uma carta qualquer, e a pro-
babilidade inicial de encontrarmos a carta desejada é de 1/52, aproximadamente 1,92%.

111
UNICESUMAR

Se devolvêssemos a carta ao conjunto e embaralhássemos novamente, a probabilidade de acertar a carta


seguinte seria, novamente, de 1 em 52. Mas se não a devolvermos?
Nesse caso, a probabilidade da carta seguinte ser a que desejamos será de 1/51, pois agora o baralho
perdeu, permanentemente, uma carta de seu conjunto. Assim, a probabilidade aumenta para 1,96%, uma
diferença pequena, mas notável. Quanto menos cartas tivermos no baralho, maiores serão as chances de
acertarmos qual será a próxima carta a sair, pois a quantidade de eventos possíveis será menor. Isso afetará
diretamente todos os cálculos envolvidos, por isso, é de extrema importância que seja dada muita atenção
a informações como esta, antes de proceder com os cálculos.
Agora que discutimos os conceitos básicos do cálculo de probabilidade, podemos dar entrada à se-
gunda parte de nossa unidade, em que discutiremos as distribuições amplamente aplicadas na prática,
tratando de exemplos reais.
Sendo direto, distribuições de probabilidade são formas de descrever o comportamento de um fenô-
meno dependente do acaso. É dessa maneira que podemos determinar a chance de algum evento ocorrer
da maneira com a qual desejamos, por exemplo. Enquanto alguns eventos são completamente aleatórios,
outros podem ter seu comportamento previsto com base em uma distribuição.
O primeiro caso que estudaremos é a distribuição binomial. Essa situação ocorre quando realizamos
uma série de ensaios idênticos e independentes, na qual podem ocorrer apenas dois resultados (VIEIRA,
2014). Quatro condições devem ser seguidas obrigatoriamente para que possamos considerar uma situação
como uma distribuição binomial:
• Todos os itens devem ser fabricados e inspecionados da mesma maneira, sob as mesmas con-
dições.
• A fabricação e o resultado da inspeção de um item independem da fabricação e da inspeção
dos demais itens.
• Só é possível ocorrer dois resultados, por exemplo,“sim” ou “não”,“conforme” ou “não conforme”,
“preto” ou “branco”.
• A probabilidade individual de cada um dos itens ser conforme ou não conforme é idêntica à
dos demais.

Atrelando à prática, podemos falar de uma situação na qual é fabricada uma peça específica em uma
montadora. A probabilidade do processo gerar uma peça não-conforme é de 5%, ou seja, automati-
camente, a probabilidade da peça ser adequada é de 95%, visto que existem apenas dois resultados:
conforme e não-conforme.
Todas as peças são fabricadas exatamente sob as mesmas condições e pela mesma máquina, passando
por processos de inspeção idênticos. A fabricação de cada uma delas não tem qualquer interferência
sobre as demais. Com base nisso, podemos concluir que tratamos de uma situação em que é adequado
usar o cálculo da distribuição binomial. O cálculo em questão se dá por meio da Equação 2:

n!
P( x)   p x  q n x (2)
x ! (n  x)!

112
UNIDADE 4

Em que n é a quantidade total de eventos analisados, p é a probabilidade do resultado analisado ser


obtido, q é a probabilidade do resultado oposto ser obtido e x é a quantidade de vezes que o resultado
analisado deve ocorrer. Sendo assim, deseja-se conhecer a probabilidade de ocorrerem duas falhas,
em quinze peças analisadas, conforme a situação exposta anteriormente. O resultado analisado é a
falha, que tem 5% de chance de ocorrer, ou seja, p = 0,05. Automaticamente, sabe-se que q = 0,95, pois
a soma entre p e q sempre deve ser igual a 1. O valor de x é 2, pois queremos calcular a probabilidade
de ocorrerem duas falhas, enquanto n = 15, uma vez que analisamos 15 peças. Substituindo os dados
na equação, temos:
15!
P(2)   0, 052  0, 95152
2 ! (15  2)!

O resultado dessa conta é de 0,1348, o equivalente a 13,48%. Isso significa que, se coletarmos 15 peças
produzidas igualmente, a probabilidade de exatamente duas delas não atenderem às expectativas dese-
jadas é de 13,48%. O mesmo cálculo pode ser adaptado para qualquer quantidade de peças entre 0 e 15.
Como prática, sugiro que faça os cálculos para os cenários em que buscamos verificar a probabilidade
de haver nenhuma ou uma peça não conforme dentre as 15 analisadas. Para isso, basta substituir o
valor de x para cada um dos cálculos. Os resultados serão, respectivamente, de 46,33% e 36,58%.
Sugiro, também, que você realize o cálculo que considera a probabilidade de termos 13 peças con-
formes, ou seja, o cenário oposto ao do exemplo realizado. Atente-se ao fato de que, para este caso, os
valores de p e q serão invertidos, o exemplo considerou a probabilidade de termos duas peças com
falhas, enquanto este novo cálculo trata da probabilidade de obtermos treze peças adequadas. O re-
sultado deverá coincidir com o obtido no exemplo realizado.
Em tempo, tenha em mente que, em grandes empresas, a probabilidade de haver uma peça inade-
quada é muito menor do que 5%, geralmente, trabalha-se com um percentual menor do que 1%. O caso
exposto trabalhou com uma probabilidade de falha, relativamente, alta unicamente para fins didáticos.

Você sabe o que o sinal de exclamação, após os números,


representa na Equação 2? Aquele é o símbolo usado para
representar um número fatorial! Sua presença é comum no
estudo da Estatística e da Probabilidade, e é importante que
saibamos interpretar seu significado em um cálculo. Que tal
aprender um pouco mais sobre a interpretação desse sinal?
Para isso, é só dar o play!

113
UNICESUMAR

Caso seja necessário calcular a probabilidade de obter até duas peças com falhas dentre
as quinze analisadas, será necessário calcular a probabilidade para cada um dos cenários
que se encaixam nessa situação, ou seja, os cenários com nenhuma falha, uma falha e
duas falhas, um de cada vez. Após isso, os resultados obtidos devem ser somados. Para o
exemplo em questão, seria necessário realizar a soma entre 46,33%, que é a probabilidade
de não haver falhas, 36,58%, que é a probabilidade de haver uma falha, e 13,48%, que é a
probabilidade de haver duas falhas. O resultado será de 96,39%.
Para casos em que a probabilidade de falha é muito baixa, estando abaixo da marca
de 1%, temos uma distribuição que apresenta resultados mais realistas, a chamada dis-
tribuição de Poisson. Neste caso, pode ser necessário usar uma quantidade de amostras
n muito grande para que seja possível encontrar uma falha (VIEIRA, 2014).
Deve-se, sempre, considerar um intervalo fixo para o cálculo. Exemplos possíveis para a
aplicação da distribuição de Poisson são a quantidade de erros cometidos em uma página
de um livro, em que o intervalo é igual a uma página, a quantidade de ligações erradas
realizadas por uma discadora automática em um dia, em que o intervalo é equivalente a
um dia, e situações similares. O cálculo para a probabilidade se dá por meio da Equação 3:

cx
P( x)  ec  (3)
x!
Em que “e” se trata do número irracional 2,71828…, x é a quantidade de itens que aten-
dam à condição desejada e c é igual à multiplicação da quantidade de itens analisados
pela probabilidade de ocorrer uma falha. Apresentando um exemplo, podemos expor
uma situação na qual deseja-se determinar a probabilidade de não ocorrerem falhas na
produção de almofadas por uma grande empresa, a qual fabrica 2000 almofadas por dia.
A probabilidade de um item ser não conforme é de 0,5%.
O primeiro passo é determinar o valor de c, que será igual à multiplicação de 2000
por 0,005, que é igual ao percentual dividido por 100. O resultado é igual a 10. Feito isso,
substituímos os dados na Equação 3:

100
P (0)  e 10   0, 000045  0, 0045%
0!
Este valor tende a aumentar até que X atinja um determinado valor, geralmente, próximo
a c, e depois voltar a diminuir.
Por último, trataremos daquela que é, provavelmente, a distribuição mais usada não
apenas no meio industrial, mas de modo geral, a distribuição normal, já citada em
nosso livro anteriormente. Vale citar que esta também não é a última vez que falaremos
a respeito dela no material, mas é o momento em que daremos maior importância à sua
interpretação matemática.

114
UNIDADE 4

Empresas trabalham com diversas projeções futuras, incluindo


lucros, gastos e quantidades produzidas. As empresas, no entanto,
mais realistas e preparadas também têm a projeção de quantas
unidades com falhas serão produzidas, em um determinado período,
pois essa é uma forma de se prepararem para possíveis perdas.
A distribuição normal, que é um dos nossos objetos de estudo,
nesta unidade, é de grande relevância para esse cálculo. Quer
saber como isso é feito? Para isso, é só dar o play no nosso Podcast!

Na literatura, você pode encontrar a distribuição normal com outros nomes, como curva normal,
curva do sino ou distribuição de Gauss. Todos os termos indicam exatamente o mesmo conceito, que
é a curva apresentada na Figura 1.

Figura 1 - Curva padrão da distribuição normal, também conhecida como curva do sino

Descrição da Imagem: uma curva crescente, que atinge seu ponto mais alto no meio, decrescendo logo em seguida.

A curva normal tem diversas características padronizadas. A primeira delas é a de que a média e a
mediana encontram-se exatamente no centro da distribuição, sendo representadas, na Figura 1, pela
letra grega μ. Além disso, a curva é, perfeitamente, simétrica em torno da média, de forma que metade
dos dados estará abaixo da média e metade acima dela, fazendo com que resultados acima e abaixo da
média tenham a mesma probabilidade de ocorrência (MONTGOMERY, 2017).

115
UNICESUMAR

Também, sabe-se que, em uma curva normal, 68,2% dos dados encontram-se a, no má-
ximo, um desvio padrão de distância da média, seja para mais, seja para menos. O desvio
padrão é representado pela letra grega σ, conforme apresentado na Figura 1. Além disso,
95,4% dos dados estão a até dois desvios padrão de distância da média, enquanto 99,7%
estão a até três desvios. Uma parcela muito pequena ultrapassa essa marca, geralmente,
são referentes a itens defeituosos, os quais deverão ser descartados ou retrabalhados.
É praticamente impossível atingir um formato idêntico ao da distribuição normal, na
prática, em uma linha de produção, mas é perfeitamente possível se aproximar dele, o que,
apesar de também ser um desafio, definitivamente é viável em empresas com alto nível de
organização e qualidade. Ter dados de produção que estejam distribuídos de maneira similar
à curva normal indica que o processo é regular e constante, com variações dentro do previsto.
Matematicamente, pode-se expressar a curva da distribuição normal com base na Equação 4:
 ( x µ )²
1 (4)
f ( x)  *e 2σ ²
2πσ ²
A equação é pouco usada na prática, mas sua apresentação é importante. Note que a
média μ e o desvio padrão σ influenciam diretamente no resultado da função, o que
indica sua relevância para o seu formato. Maiores desvios resultarão em curvas mais
espalhadas, enquanto a média influenciará no posicionamento da curva em relação ao
eixo horizontal de um gráfico, conforme o apresentado na Figura 2.

0,8 N(6,25)

0,6

N(0,1) N(3,1)
f(x)

0,4

0,2 N(6,4)

0,0
0 5 10
x
Figura 2 - Distribuições normais com valores diferentes para média e desvio padrão
Fonte: adaptado de Montgomery (2017, p. 57).

Descrição da Imagem: Quatro curvas simétricas. Duas delas são idênticas, mas localizadas em pontos diferentes.
Uma delas é mais estreita do que as outras duas, porém é bem mais alta. A última curva é mais larga, porém é muito
mais baixa que todas as demais.

116
UNIDADE 4

Para cálculos relacionados à distribuição normal, usa-se a chamada distribuição nor-


mal reduzida, que considera, o valor de μ como sendo 0 e o valor de σ como sendo 1.
Entretanto, é muito raro que um processo siga essas especificações, portanto, é neces-
sário realizar uma redução da variável X. Assim, a variável com distribuição normal
reduzida é indicada pela letra Z (VIEIRA, 2014). A transformação da variável em Z se
dá por meio da Equação 5:

X µ
Z (5)
σ
Essa transformação faz com que a distribuição passe a atender os requisitos expostos
anteriormente, assumindo μ=0 e σ=1. A partir disso, pode-se proceder com o cálculo da
probabilidade, já que houve padronização da curva. Na distribuição normal padronizada,
ou reduzida, usam-se as probabilidades dadas na Figura 3, que correspondem às medidas
das áreas sob a curva normal.

0,021 0,014
0,0013 0,0013 Z
-4 -3 -2 -1 0 1 2 3 4
0,6827
0,9545
0,9973
Figura 3 - Áreas sob a curva normal reduzida / Fonte: Vieira (2014, p.106).

Descrição da Imagem: uma curva crescente, que atinge seu ponto mais alto na região central, e decrescendo conti-
nuamente logo em seguida. O interior da curva é dividido em seis partes. As duas partes mais próximas do centro têm
o número 0,3413 escrito em cada uma delas. As duas regiões seguintes têm o número 0,1359 escrito em cada uma
delas. Por último, as duas regiões mais externas, uma de cada lado, têm o número 0,021 escrito em cada uma delas.

117
UNICESUMAR

A área total abaixo da curva é igual a 1. Os valores descritos no eixo


horizontal da Figura 3 são os valores de Z. Para facilitar a interpreta-
ção do que está representado, lemos os dados expostos nela. Note que,
entre os valores de 0 e 1, temos indicado o valor 0,3413. Isso significa
que 34,13% dos dados estão entre o valor médio e o valor equivalente à
média, mais um desvio padrão. Para o lado esquerdo, temos, novamen-
te, o valor 0,3413 entre as marcas de -1 e 0. Isso significa que 34,13%
dos dados encontram-se entre o valor médio e o equivalente à média,
menos um desvio padrão. O mesmo vale para os demais valores de Z
representados na Figura 3.
A Figura 3, todavia, apresentou apenas valores inteiros para Z. É
possível que sejam usados valores com casas decimais nesse caso? Res-
pondendo, sim, e é o que mais ocorre, na verdade! Deve-se considerar
até duas casas, após a vírgula, para o valor de Z, pois isso nos dá precisão
no momento de determinar a probabilidade.
O valor de Z deve sempre ser calculado e, para isso, usa-se a Equação
5 já apresentada. Porém, a partir do momento que Z é determinado,
podemos recorrer a valores tabelados. Essas probabilidades relaciona-
das a diferentes valores de Z são encontradas em tabelas, conforme a
Tabela 1, cuja interpretação é de grande importância para a realização
de quaisquer ações envolvendo distribuições normais.

118
UNIDADE 4

Último Dígito do valor calculado para Z

Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3370 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4012 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990

Tabela 1 - Distribuição normal reduzida / Fonte: Vieira (2014, p.106).

119
UNICESUMAR

Os valores representados na Tabela 1 são referentes à área abaixo da curva que está entre
o ponto central Z=0, que coincide com a média, e o Z calculado por meio da Equação 5.
Por exemplo, caso seja calculado um valor de Z igual a 1,25, deve-se procurar pela linha
referente ao valor 1,2 e a coluna referente ao valor 0,05, e, então, cruzá-las. Note que os
dois primeiros dígitos do valor de Z (nesse caso, 1,2) sempre serão representados pela
linha, enquanto o terceiro dígito (nesse caso, 5) sempre será representado na coluna. O
valor em que a linha e a coluna se encontrarem será igual à probabilidade de que um
determinado dado esteja entre Z=0 e o Z calculado, para 1,25, como exemplificado, o
resultado será 0,3944, ou seja, 39,44%.
A área escura da Figura 4 representa o espaço entre 0 e 1,25. Toda a parte pintada
representa exatamente 39,44% da área localizada abaixo da curva normal.

Z
-4 -3 -2 -1 0 1 2 3 4
Figura 4 - Área abaixo de curva entre Z=0 e Z=1,25 / Fonte: Vieira (2014, p.108).

Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número zero, sendo todos os números, à esquerda do zero,
negativos, e todos os números, à direita, positivos. A região entre os números 0 e 1 é destacada de forma mais escura.

Para auxiliar na compreensão de como os cálculos são realizados, discutiremos um


exemplo. Suponha que Eliza cronometre o tempo médio necessário para a produção
de uma peça específica do mecanismo de um celular. Após 120 amostras, ela encontra
que o tempo médio para a produção daquela peça é de 7 minutos, havendo um des-
vio padrão de 1 minuto, visto que nem todas as peças são produzidas, exatamente, ao
mesmo tempo. Eliza quer saber qual é a quantidade de peças que são produzidas na
faixa entre 7 e 7,5 minutos. Para ajudar a visualizar o problema, podemos ilustrar com
a curva normal da Figura 5.

120
UNIDADE 4

f(x)

0
 7,5 X
7
Figura 5 - Área entre as marcas de 7 e 7,5 minutos / Fonte: o autor.

Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número sete, e o número 7,5 encontra-se à sua direita. A
região entre os dois números é destacada em um tom mais escuro.

Caro(a) estudante, aconselho você a, pelo menos no início de seus estudos, realizar o
desenho da distribuição normal e pintar a área desejada, conforme feito na Figura 5,
pois isso o(a) ajudará a visualizar o que é pedido e como o cálculo deve ser realizado. Em
todos os exemplos, nesta unidade, essa ilustração está presente. Ao final, temos alguns
exercícios sobre esse assunto, sugiro que inicie sua prática por eles! A intenção do exer-
cício é saber quantas das peças produzidas encontram-se na área destacada da Figura
5. Para isso, precisamos determinar Z, usando a Equação 5 e os dados que a situação
problema nos forneceu.
X  µ 7, 5  7
Z   0, 50
σ 1

Agora que temos Z=0,50, usamos a Tabela 1 para encontrar o percentual. Basta cruzar-
mos a linha de valor 0,5 com a coluna de valor 0,00, e chegaremos ao valor de 0,1915.
Isso significa que, em 19,15% dos casos, as peças são produzidas no período entre 7 e 7,5
minutos. Considerando que falamos de uma amostra de 120 peças, basta multiplicarmos
essa quantidade por 0,1915 e encontraremos que 23 peças da amostra foram produzidas
nesse intervalo.
Em outro caso, poderíamos verificar quantas dessas peças foram produzidas na faixa
entre 5 e 7 minutos, por exemplo. Nesse caso, nosso valor de X é 5, enquanto nossa mé-
dia continua sendo igual a 7 minutos, e nosso desvio padrão continua sendo igual a 1.
Podemos ilustrar a situação com base na curva normal representada na Figura 6.

121
UNICESUMAR

f(x)

0
5  X
7
Figura 6 - Área entre as marcas de 5 e 7 minutos / Fonte: o autor.

Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número sete, estando o número cinco apresentado à sua
esquerda. A região entre os números 5 e 7 é destacada em um tom mais escuro.

Dessa vez, nossa área está no lado esquerdo da curva. Entretanto nosso procedimento
para resolver o exercício, ainda, será o mesmo. Calculando Z, teremos:

57
Z  2, 00
1
Note que, dessa vez, o valor de Z foi negativo, pois X é menor do que a média. Isso, porém,
não afeta nossa resolução, pois o que nos interessa é conhecer a área destacada em preto
e, como a curva normal tem área perfeitamente simétrica, podemos tratar a área entre os
valores de Z iguais a 0 e -2 da mesma maneira com a qual trataríamos a área entre 0 e 2.
Assim, basta pesquisarmos na Tabela 1 pela linha correspondente a 2,0 e pela coluna
correspondente a 0,00 cujo resultado seja 0,4772. Isso significa que 47,72% das peças da
amostra demoraram entre 5 e 7 minutos para serem produzidas. Novamente, podemos
calcular a quantidade de peças que se encaixam nessa faixa, multiplicando o total de
amostras, 120, pelo valor encontrado na tabela, 0,4772. O resultado será de 57,3 peças, e
podemos arredondar para 57 peças.
Há mais variações de situações que podemos pensar. Por exemplo, se quisermos
descobrir a quantidade de peças que levam entre 6 e 9 minutos para serem produzidas?
Nas situações anteriores, fazíamos o comparativo em relação à média central, mas dessa
vez nossa faixa de tempo envolve um valor acima e um valor abaixo da média, conforme
apresentado na Figura 7.

122
UNIDADE 4

f(x)

0
6  9 X
7
Figura 7 - Área entre as marcas de 6 e 9 minutos / Fonte: o autor.

Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo conti-
nuamente em seguida. Seu centro é indicado pelo número sete, estando o número seis à esquerda do número sete
e o número nove à direita do número sete. A região entre os números seis e sete é destacada em preto, enquanto
a região entre os números sete e nove é destacada em azul.

Neste caso, não temos como calcular diretamente a área entre os valores de 6 e 9, mas
temos como dividir a área em duas partes, conforme foi feito na Figura 7, a área entre 6
e 7 minutos e a área entre 7 e 9 minutos. Assim, precisamos calcular dois valores para Z,
sendo um para cada uma das duas áreas. Assim, os cálculos são:

67 97
Z  1, 00 Z   2, 00
1 1
Com os valores calculados, devemos checar a Tabela 1 e encontrar que, para Z=1,00,
temos o valor de 0,3413, enquanto, para Z=2,00, teremos a probabilidade de 0,4772. Con-
vertendo os resultados para porcentagens, teremos, respectivamente, 34,13% e 47,72%.
Feito isso, o que precisamos fazer, agora, é somar ambos os percentuais, isso será equi-
valente a somar as duas áreas sinalizadas abaixo da curva, na Figura 7! Note que a única
diferença entre os dois exemplos anteriores e este caso está no fato de que, por termos
dividido a área abaixo da curva em duas partes, precisamos calcular dois valores para Z,
mas toda a resolução segue exatamente o mesmo caminho.
Somando as duas porcentagens, chegamos ao resultado de 81,85%, que representa
98 peças dentre as 120 que compõem nossa amostra. Por último, também pode ocorrer
de termos situações que não passam pela média. E se Eliza quisesse descobrir qual a
probabilidade de uma peça demorar mais do que 8,67 minutos para ser produzida?
Novamente, podemos montar uma ilustração para nos ajudar a visualizar a área pedida
em nossa análise, a qual é apresentada na Figura 8.

123
UNICESUMAR

f(x)

0
5  X
7
Figura 8 - Área acima da marca de 8,67 minutos / Fonte: o autor.

Descrição da Imagem: uma curva crescente contínua atinge seu ponto mais alto no centro, decrescendo continua-
mente, em seguida. Seu centro é indicado pelo número sete, estando o número oito vírgula sessenta e sete apresen-
tando à sua direita. A região à direita do número oito, vírgula sessenta e sete é destacada em um tom mais escuro.

Dessa vez, a média não está em uma posição dentro da nossa área demarcada, então
não temos como realizar o cálculo para determinar Z. Porém temos uma informação de
grande relevância que nos ajudará a resolver essa situação.
Conforme foi dito, nesta mesma unidade, a média é posicionada exatamente no centro
da curva normal cuja área é perfeitamente simétrica e igual a 1. Sendo assim, já que a
área abaixo da curva é simétrica, sabemos que metade está localizada do lado esquerdo
da média e metade do lado direito, sendo 0,5 para cada lado.
Nós não temos como determinar, diretamente, a área acima de 8,67, mas temos como
determinar a área entre 7 e 8,67. A área entre 7 e 8,67 somada à área acima de 8,67 será
igual a 0,5. Assim, realizamos o cálculo de Z para X =8,67.

8, 67  7
Z  1, 67
1
Checamos a Tabela 1: cruzando a linha do valor 1,6 e a coluna do valor 0,07, encontramos
uma probabilidade igual a 0,4525. Sabemos que esse valor, quando somado à área acima
de 8,67, que é aquela que desejamos encontrar, resultará em 0,5. Assim:

0, 4525  A  0, 5  A  0, 0475

Portanto, encontramos que a probabilidade de uma peça demorar mais do que 8,67 mi-
nutos para ser produzida é igual a 4,75%. Considerando o tamanho da amostra, podemos
dizer que apenas seis peças caíram nessa faixa de tempo.

124
UNIDADE 4

Deve-se ter em mente que uma amostra de 120 peças nem sempre é suficiente para que tenhamos
um cenário realista sobre o processo. Caso sejam produzidas milhares de unidades por dia, as 120
peças provavelmente não nos darão uma estimativa realista sobre a situação. Quanto mais dados
forem coletados, mais realista será a nossa estimativa e, consequentemente, a nossa projeção e nosso
conhecimento a respeito do processo e as melhorias necessárias.

Existe uma forma de sabermos a quantidade de amostras necessárias para determinar se um


processo funciona adequadamente? A resposta para isso é positiva, cada país tem suas pró-
prias legislações a respeito do assunto, indicando o tamanho da amostra a ser coletada com
base no tamanho da produção.

É importante relembrar que estes cálculos servem apenas para situações nas quais nossos dados corres-
pondem a uma distribuição normal, ou que se aproximam desse formato. Antes de podermos aplicar
os conceitos vistos, é necessário que trabalhemos para fazer com que nossa produção funcione com
um funcionamento regular e de baixa variação.

De forma resumida, tratamos nesta unidade, inicialmente, dos conceitos mais básicos da Pro-
babilidade, abordando situações que tinham chances iguais de ocorrência, como lançamento
de moedas e de dados. Apesar disso, não podem ser aplicados, sempre, à prática, trata-se de
senso comum.
Em um segundo momento, expusemos as distribuições binomial e de Poisson, ambas as quais
podem ser aplicadas a processos de forma muito específica. Situações nas quais toda a produção
seja realizada exatamente da mesma forma e passe pela mesma inspeção, por exemplo, são
aquelas nas quais esse tipo de conteúdo pode ser usado, qualquer diferença na produção não
permitiria seu uso e, por isso mesmo, apesar de ainda muito importante, não é sempre que
temos um processo regular o suficiente para que as distribuições em questão sejam utilizáveis.
Por último, tratamos daquele que foi o ponto focal da nossa unidade, a distribuição normal.
Seu uso também não cabe a todos os casos, pois é necessário que os processos de produção
atuem de maneira regular e gerem resultados que se aproximem do formato proposto na
normalidade. Essa é a distribuição mais usada de modo geral, sendo amplamente relacionada
ao controle de qualidade.

125
UNICESUMAR

A partir de agora, nosso foco retornará às ferramentas da qualidade. Entretanto, o conceito da nor-
malidade ainda marcará presença em nosso material. Sugiro que você realize os exercícios propostos,
ao final dessa unidade, como forma de praticar tudo que discutimos durante as últimas páginas, pois
o estudo da Probabilidade e da Estatística torna-se muito mais claro quando o aplicamos na prática.
Busque correlacionar o conteúdo apresentado com algumas das ferramentas que expusemos ante-
riormente. A folha de verificação e o histograma, por exemplo, podem ser usados diretamente como
parte do conteúdo que acabamos de discutir.
A intenção do conteúdo foi, desde o início, mostrar a relação daquilo que estudamos com a prática.
O foco foi amplamente voltado à indústria, mas a utilidade de tudo que abordamos estende-se a todas
as áreas. Por exemplo, caso seja necessário calcular o percentual de funcionários que trabalharam
mais ou menos o tempo médio, a quantidade de carros que se espera passar por uma rodovia em um
final de semana, ou então o lucro previsto para uma loja, em um determinado mês, pode-se buscar a
aplicação da distribuição normal.
Você terá diversas oportunidades em sua carreira para visualizar a aplicação daquilo que estudamos
durante esta unidade, além de poder correlacionar a Probabilidade com diversas situações inusitadas.
Entretanto devo deixar algo claro: no início da nossa unidade, questionei a você qual é a variável que
pode nos fazer reduzir a probabilidade de erros. É claro que existem diversas variáveis envolvidas em
cada processo, sendo que o impacto de cada uma varia entre uma situação e outra, mas há uma variável
que influencia a todos: o ser humano.
Cada pessoa pensa, age e se porta de uma maneira diferente. Existem diversos aspectos que in-
fluenciam essas questões, como a criação, a prática, a experiência, entre dezenas de outros. Você, como
profissional, deve buscar compreender isso e, em seguida, fazer o possível para regularizar as ações das
equipes que você gerenciar. Treinamentos são uma ótima forma de reduzir falhas, pois isso padroniza
as ações, diminuindo o desvio padrão daquilo que obtemos, algo que sempre é desejável, e nos deixa
mais próximos da média de resultados que esperamos encontrar.
Conforme já foi dito anteriormente, neste material, é impossível termos um processo que funcione
com 100% de perfeição. Entretanto é possível trabalhar não apenas com ferramentas e equipamentos,
mas também com o psicológico das equipes, para que melhores resultados possam ser atingidos. A
Probabilidade pode ser aplicada a tudo, inclusive aos resultados individuais de cada um! Busque usá-la
a seu favor em sua vida profissional.

126
Agora, que tal você preencher seu mapa mental com aquilo que discutimos durante nossa unidade?
Ele está dividido, mz'ajoritariamente, em três partes: a estatística e probabilidade básica, os tipos
de eventos e as distribuições. Sinalize no mapa qual é o tipo de situação na qual devemos aplicar
cada uma delas, exponha qual é a diferença entre os dois tipos de eventos citados e anote quais
são os passos para a resolução de problemas que envolvem cada uma das distribuições. Isso o(a)
ajudará no momento da prática e nos exercícios disponíveis ao final da unidade!

Estatística básica ESTATÍSTICA E PROBABILIDADE Distribuições

Teorema Teorema Eventos Binomial Poisson


do produto da soma
Dependentes Independentes
Normal

Descrição da Imagem: um diagrama com a escrita “Estatística e Probabilidade” destacada. Dela, saem quadros menores, sendo
o primeiro com o escrito Estatística Básica, que se divide em dois quadros menores: teorema do produto e teorema da soma. O
segundo quadro apresenta o escrito Eventos, que se divide em quadros menores, com os escritos dependentes e independentes. O
terceiro quadro tem o escrito distribuições, que se divide em três quadros menores, com os escritos “binomial”, “Poisson” e “normal”.

127
1. Assuma uma situação em que você tenha em mãos um baralho de 52 cartas, todas
diferentes entre si. Sua intenção inicial é retirar o ás de copas, aleatoriamente. Deter-
mine a probabilidade dos seguintes eventos ocorrerem:
a) Retirar a carta correta, apenas, na terceira tentativa, sendo que as cartas retiradas nas
duas tentativas anteriores foram devolvidas ao baralho.
b) Retirar a carta correta na terceira tentativa, sendo que as cartas retiradas nas duas
tentativas anteriores não foram devolvidas ao baralho.
c) Retirar a carta correta na primeira tentativa, devolvê-la ao baralho, retirar uma carta
diferente, devolvê-la ao baralho e, em seguida, retirar a carta correta novamente.

2. Em uma fábrica de celulares, sabe-se que a probabilidade de um produto sair defeituoso


da linha de produção é de 3%. Eliza decidiu coletar 20 amostras para verificar quantas
delas eram, de fato, não conformes. Todos os itens analisados foram produzidos e
analisados exatamente da mesma forma, sem que a produção de um influenciasse
na produção do outro. Com base na situação exposta, monte as equações, calcule e
apresente os seguintes dados:
a) A probabilidade de exatamente 3 celulares, entre os 20 coletados, serem defeituosos.
b) A probabilidade de até 3 celulares, entre os 20 coletados, serem defeituosos.
c) A probabilidade de 15 celulares, entre os 20 coletados, funcionarem adequadamente.

3. Uma gráfica é responsável pela montagem e impressão de livros didáticos. Entretanto


pode acontecer de a impressora falhar no momento em que algumas páginas são
impressas, falhas as quais são raras e ocorrem em apenas 0,3% das ocasiões. Sabe-se
que são impressos 800 livros por dia. Com base nessas informações, determine a pro-
babilidade de ocorrer, apenas, uma falha em um dia de impressão.

4. No estudo da Estatística e da Probabilidade, pode-se trabalhar com diversos tipos de


distribuições, e entre elas estão a distribuição binomial, de Poisson e normal. É de ex-
trema importância que se saiba escolher qual é a melhor distribuição para ser usada
em determinadas situações.
A seguir, são listadas algumas afirmações:
I) Em uma situação na qual podemos ter, apenas, dois resultados possíveis, podemos
aplicar a distribuição binomial ou a distribuição normal.
II) A distribuição de Poisson costuma ser aplicada em casos nos quais há uma proba-
bilidade de falha muito baixa.
III) A distribuição normal considera processos que se comportam de uma maneira es-
pecífica, seguindo um formato similar ao de uma determinada curva.
IV) Para as três distribuições, quanto mais dados tivermos em nossa amostra, mais
próximos os resultados obtidos estarão da realidade.

128
É correto o que se afirma em:
a) I, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) II e III, apenas.
e) II, III e IV, apenas.

5. Sabe-se que a renda média da população brasileira é igual a R$ 2100,00, com desvio
padrão de R$ 250,00, e que estes dados podem ser representados em uma distribuição
normal. Com base nessas informações, qual a probabilidade de escolhermos, de forma
aleatória, em uma só tentativa, uma pessoa que tenha renda anual entre R$ 2100,00
e R$ 2400,00?

6. Árbitros brasileiros devem passar por testes de aptidão física de alto nível para mostrar
que conseguem suportar 90 minutos de movimentação contínua. Em um dos testes,
relacionado à velocidade, os candidatos devem realizar uma corrida de longa distância
no menor tempo possível. Suponha que o tempo necessário para completar esse teste
tenha uma distribuição normal com média 30 minutos e desvio-padrão de 6 minutos.
Também suponha que, em uma primeira etapa, esse teste foi aplicado com uma amos-
tra de 40 candidatos. Qual a quantidade de candidatos que realizam a corrida, em um
tempo superior a 35 minutos?

7. Pensando em proteger seus colaboradores de um vírus que se espalhava rapidamente


em uma cidade, uma empresa decidiu medir a temperatura corpórea de todos os seus
1000 funcionários. Sabe-se que a temperatura corpórea de adultos saudáveis segue o
formato de uma distribuição normal com média de 36,8 ºC e desvio padrão de 0,20 ºC.
Considerando que todos os 1000 colaboradores tiveram sua temperatura medida ao
chegarem à empresa, em um determinado dia, e que a temperatura mínima para que
alguém seja considerado febril é de 37,3 ºC, responda:
a) Quantas pessoas se espera encontrar com temperatura entre 36,9 e 37,1 ºC?
b) Quantas pessoas febris espera-se verificar?

129
130
5
Controle Estatístico do
Processo por Atributos
Me. Paulo Otávio Fioroto

Introdução aos gráficos de controle, interpretação de gráficos de


controle e montagem de gráficos de controle para atributos.
UNICESUMAR

O quanto podemos aceitar que nossos resultados variem? Anteriormente, foi afirmado mais de uma
vez que é impossível que um processo seja 100% perfeito, cedo ou tarde, falhas e variações ocorrem.
Entretanto, mesmo que variações ocorram, isso não significa, necessariamente, que uma falha tenha
ocorrido! Pode ser que, em uma garrafa de refrigerante de 2 litros, o volume real seja de 2,01 L. Seria
esse um volume aceitável?
Quem irá dizer isso é o CEP! Alguns cálculos são realizados para que seja determinada uma varia-
ção aceitável em relação ao valor considerado adequado. Se a determinação disser que uma variação
de 20 mL em relação ao padrão está dentro do esperado, então está tudo bem e podemos considerar o
produto como aprovado. Por outro lado, caso não seja aceita uma alteração maior do que 5 mL, somos
obrigados a rejeitar o produto e verificar qual foi a causa de uma variação maior do que a desejada.
Esse raciocínio vale não apenas para variações em relação ao valor nominal de uma embalagem,
mas também para a quantidade de defeitos que pode ser aceita em um processo. Supondo que sejam
produzidas 500 unidades de parafusos, é possível esperar que algumas unidades não saiam com as
propriedades desejadas, já que alguns parafusos serão mais compridos ou mais curtos do que o es-
perado, outros serão levemente tortos, entre outros possíveis problemas. A questão, aqui, é saber até
quantas unidades problemáticas seriam aceitas para que pudéssemos dizer que o lote pode ser aceito.
Essa não é, entretanto, a única pergunta a ser feita. Pode parecer estranho, mas existe uma quan-
tidade mínima de falhas que podemos aceitar para que o lote possa ser considerado adequado? Por
incrível que pareça, existe lógica em realizar essa pergunta, e isso será explicado durante nossa unidade.
Anteriormente, tratamos da Estatística e da Probabilidade. Esses conceitos, apesar de não aparecerem
com tanta intensidade quanto vimos em nossa unidade anterior, têm um peso enorme naquilo que
trataremos a partir de agora. Damos início às tratativas sobre a nossa sétima e última ferramenta da
qualidade a ser apresentada, neste material, o gráfico de controle e suas variações.
O caso que analisaremos, nesta unidade, gira em torno de Fernando, um supervisor de produção
que atua em uma empresa fabricante de tecidos para os mais diversos fins, desde roupas até capas para
sofás. Desde muito pequeno, Fernando sempre se interessou pela arte da pintura, o que o ajudou a
desenvolver suas habilidades, primeiramente como desenhista e, em seguida, como pintor de quadros,
hábito que adotou como hobby. A prática acabou desencadeando uma habilidade muito útil para um
profissional da área de tecidos: a de perceber mudanças mínimas na tonalidade de cores.
Por conta disso, Fernando se tornou absolutamente perfeccionista com as cores dos tecidos pro-
duzidos na empresa em que atua, a Celeme Confecções. Pequenas variações na cor já chamavam sua
atenção e, caso ele não se sinta satisfeito, considera aquele rolo de tecido como falho. Em um primeiro
momento, a principal forma de determinar essas variações era apenas o olhar do profissional. Entre-
tanto, com o crescimento da empresa, foram adquiridos equipamentos para realizar essa função de
maneira mais efetiva e, aparentemente, confiável. Apesar das máquinas serem mais precisas em suas
ações, elas também são propensas a falhas e podem deixar alguns itens problemáticos passarem pela
revisão, enquanto itens adequados podem ser falsamente considerados ruins. Fernando notou que isso
ocorreu, em algumas situações, e decidiu intervir.

132
UNIDADE 5

Com base nas anotações que tinha feito antes do equipamento


ser adquirido pela empresa, Fernando notou que: a cada lote que
envolvia 500 metros de tecido, em média, 5 metros eram descartados
por conta de efeitos na coloração, como manchas mais claras ou
mais escuras do que a cor adequada, buracos, problemas na costura
ou eventuais falhas que ocorrem em menor escala.
Com o uso do equipamento para verificação da qualidade, em
um primeiro momento, descartavam-se 11 metros por lote, o que fez
Fernando pensar que o aparelho era absolutamente preciso e muito
melhor do que sua prática. Porém, com o tempo, as quantidades de
falhas começaram a se mostrar irregulares, alguns lotes tinham 15
metros com falhas, enquanto outros tinham apenas 2 ou 3 metros
considerados como problemáticos.
Isso pareceu estranho para ele, pois o setor de produção sempre
foi muito confiável e regular, e as falhas, mesmo que comuns, sempre
ocorreram em quantidades regulares. Sendo assim, Fernando de-
cidiu investigar a situação mais a fundo, buscando usar o histórico
anterior como base para compreender o que poderia estar errado.
Após algumas pesquisas, ele descobriu a ferramenta da qualidade
conhecida como gráfico de controle, que tinha como principal fina-
lidade indicar a regularidade e estabelecer limites de controle para o
processo. Tomando como base o histórico de falhas anterior ao uso
do equipamento, Fernando notou que a quantidade de falhas por
lote, em nenhum momento esteve abaixo de 3 metros ou acima de 9
metros, algo que, considerando que eram produzidos 500 metros em
cada lote, indicava variações mínimas nos resultados, diferente do
que aconteceu, após o uso do aparelho para quantificar os problemas.
Fernando decidiu checar a origem da variação repentina na
qualidade dos itens produzidos e verificou a máquina. O funcio-
namento dela ocorre com base em pequenas luzes que piscam de
maneira contínua em seu interior e, ao atravessarem o tecido, têm
seu comprimento de onda captado por um sensor, que dispara um
alerta quando capta uma variação incomum nesse parâmetro.
O problema residia no fato de que uma das luzes não estava
funcionando adequadamente, apagando por alguns segundos e
retornando em seguida. Esses instantes de mau funcionamento
causavam confusão no leitor do equipamento, o que o fazia identi-
ficar falhas inexistentes e aceitar partes com falhas.

133
UNICESUMAR

Após trocar essa pequena lâmpada específica, a situação voltou a ser regular. De fato, o equi-
pamento adquirido identificava mudanças mais sensíveis do que os olhos de Fernando, mesmo
treinados, poderiam notar, a média de problemas por lote aumentou para 8 metros, uma margem
um pouco acima daquilo que o supervisor conseguia perceber. Entretanto, apesar da máquina
ter se tornado definitivamente a principal fonte para a identificação de falhas, é impossível subs-
tituir o bom senso e a prática que um ser humano pode fornecer em situações como a descrita.
A situação que Fernando encontrou é algo que pode ocorrer em qualquer empresa, mas que
não é exclusivo para casos como o apresentado. Na verdade, isso é algo que pode ser visto em
situações mais comuns. A altura média de um homem brasileiro é de 1,75 metros, enquanto a
de uma mulher brasileira é de 1,62 metros. É óbvio que nem todos os homens e nem todas as
mulheres terão essa altura, e isso faz com que seja atribuída uma margem de variação.
Vamos supor que essa margem, para homens, seja de 12 centímetros para mais ou para
menos, enquanto a faixa de variação para as mulheres seja de 8 centímetros, também para mais
ou para menos. Isso faria com que qualquer homem com altura entre 1,63 e 1,87 metros fosse
considerado dentro do normal, enquanto mulheres entre 1,54 e 1,70 metros também estariam
em uma faixa de altura considerada comum.
Essa situação se encaixa perfeitamente nos conceitos referentes aos gráficos de controle. A
intenção dessa ferramenta é indicar valores que possam ser considerados dentro do esperado,
ao estabelecer margens de variação. Valores que extrapolem essas margens serão considerados
como incomuns. Em um processo produtivo, tais valores serão considerados como falhas e,
consequentemente, podem gerar a necessidade de análises aprofundadas para compreensão
da origem do problema.
A maioria das pessoas que você conhece certamente se encaixa nessa margem, não é? En-
tretanto, você provavelmente conhece pessoas que estão fora dessas duas faixas de alturas, não
devem ser muitas, claro, mas com certeza deve existir ao menos um indivíduo que seja muito alto
ou muito baixo. Que tal você perguntar a altura de 20 pessoas, sendo 10 homens e 10 mulheres,
com as quais você tenha alguma convivência, e anotá-las? Feito isso, você pode distribuí-las
em um gráfico e compará-las com a altura média para homens e mulheres, além de verificar
se eles se encontram em uma faixa que possa ser considerada como normal. Isso lhe dará uma
noção muito boa da natureza dos gráficos de controle, podendo auxiliá-lo(a) na compreensão
do conteúdo que discutiremos, intensamente, a partir de agora.
Durante esta e as próximas duas unidades, discutiremos diversos formatos de gráficos de
controle. A natureza e a utilidade de cada um deles serão diferentes, mas a finalidade, sempre,
será a de identificar dados que estejam fora do esperado. O foco, em nossas próximas páginas,
será a introdução a essa ferramenta tão relevante e significativa para o CEP. Sendo assim, du-
rante a unidade, o objetivo é que você identifique situações da sua vida pessoal que possam
se utilizar de gráficos de controle. Quais são os casos que poderiam ser controlados com base
nessa ferramenta? A utilidade dela vai além da indústria? Inclusive, é muito provável que você
já faça uso do raciocínio por trás dos gráficos de controle de forma informal e inconsciente.
Use sua criatividade para pensar a respeito, pois voltarei a falar casos comuns de aplicações, ao
final da nossa discussão!

134
UNIDADE 5

DIÁRIO DE BORDO

Anteriormente, abordamos, em nosso material, dois tipos de causas de variação em um processo: as


causas atribuíveis e as causas aleatórias. Ambas são as responsáveis pelo fato de nenhum procedimento
ser completamente perfeito, mas há uma diferença drástica entre elas. As causas aleatórias são causas
naturais, como a umidade do ar, a temperatura, pequenos desvios em medidas e situações similares.
Isso já é algo esperado no momento em que o projeto é desenhado, e as variações geradas são mínimas
e aceitáveis (MONTGOMERY, 2017).
As causas atribuíveis, por outro lado, são aquelas que causam as variações de grande porte. Equipa-
mentos quebrados, falhas de funcionários e problemas na matéria-prima são alguns bons exemplos de
causas atribuíveis. A existência das causas atribuíveis pode ser identificada por diversas ferramentas
da qualidade, como histogramas ou diagramas de dispersão. Entretanto, provavelmente, a forma mais
direta de conseguir identificar a existência delas é com o uso dos gráficos de controle . Isso se dá
devido à fácil interpretação visual da ferramenta, a qual abordaremos, a partir desse momento.
Todo gráfico de controle é composto por, no mínimo, quatro elementos obrigatórios. O primeiro
se trata da linha central, que se representa o valor médio da característica analisada pelo gráfico em
questão. O segundo e o terceiro elementos são as linhas que representam o limite inferior de controle
(LIC) e o limite superior de controle (LSC). Naturalmente, enquanto o primeiro fica localizado abaixo
da linha central, o segundo fica acima dela. Esses limites de controle são determinados de maneira
que, caso todos os pontos estejam localizados na região entre ambos, o processo é considerado sob
controle, algo desejável para qualquer empresa.

135
UNICESUMAR

Por outro lado, caso um ou mais pontos estejam em uma posição abaixo do LIC ou
acima do LSC, pode ser necessário tomar alguma ação corretiva diante da situação, pois
isso é um indício de que pode haver um problema no processo (MONTGOMERY, 2017).
O quarto e último item obrigatório em qualquer gráfico de controle são os dados co-
letados do processo, os quais serão representados por pontos posicionados no decorrer
do gráfico e estarão ligados entre si por meio de segmentos de reta, pois isso facilita a
visualização da evolução do procedimento. Os dados são referentes às amostras anali-
sadas. Deve ficar claro que o termo “amostra” não é sinônimo de “unidade”, ou seja, uma
amostra pode ser composta por mais de uma única unidade (VIEIRA, 2014).
A Figura 1 apresenta um gráfico de controle em seu formato mais simples, contendo
os quatro itens citados anteriormente. Ressalta-se que, para facilitar a visualização no mo-
mento da leitura, serão usados gráficos com 15 pontos neste material, mas essa quantidade
pode variar conforme o processo; geralmente, usam-se gráficos com 20 ou mais pontos.

25
20
Peso (g)

15
10
5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 1 - Exemplo de gráfico de controle / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 5 do eixo vertical, outra indicando a média, próxima ao valor 14 do eixo vertical, e uma
próxima ao valor 23 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.

O exemplo apresentado na Figura 1 indica um processo adequado. Todos os pontos estão


distribuídos aleatoriamente em posições entre o LIC e o LSC, como é sempre desejado.
Nota-se, também, que nenhum ponto se aproxima drasticamente dos limites, isso é algo
muito positivo, pois indica que, além do controle, não houve uma tendência dos dados
a se aproximarem demais das linhas de limite.
Em muitos casos, incluindo o apresentado na Figura 1, a média e os dois limites são
determinados com base nos dados coletados. Para exemplificar as etapas, consideramos
os dados apresentados na Tabela 1, esses se referem ao peso de biscoitos, em gramas, e
foram coletados de uma produção em massa. Eles serão usados para a montagem de um
segundo gráfico de controle.

136
UNIDADE 5

Dados (g)
38 29 40 37 24 40 32 40 36 21 29 31 27 30 29
Tabela 1 - Dados coletados para montagem de gráfico de controle / Fonte: o autor.

Neste caso, temos uma quantidade n de observações que é igual a 15. Para determinar a média x , basta
que todos os dados observados sejam somados e divididos pelo valor de n. Assim:

38  29  40  37  24  40  32  40  36  21  29  31  27  30  29
x  32, 20
15
Além da determinação da média, é necessário determinar o desvio padrão entre os dados. Este cál-
culo se dá com base no desvio padrão entre os dados observados, que é determinado por meio das
Equações 1 ou 2:

S( X  µ)2
σ (desvio padrão populacional) (1)
N

S( X  x)2
s (desvio padrão amostral) (2)
n 1
Ambas as Equações 1 e 2 são utilizadas na prática, mas cada uma em seu respectivo caso. A Equação
1 vale, apenas, quando falamos de situações em que temos toda a população analisada, ou seja, um
caso em que tivéssemos 50 amostras e analisássemos todas as 50. A Equação 2, por outro lado, tem sua
aplicação muito mais comum, pois trata de casos em que são analisadas, apenas, algumas amostras
da população total, e não 100%.
Para nosso exemplo, utiliza-se a Equação 2, já que tratamos apenas de uma parcela de tudo que
foi produzido. O desvio padrão, neste caso, é igual a 6,04. Sua determinação é importante para que
possamos calcular o LIC e o LSC, que são determinados, respectivamente, a partir das Equações 3 e 4:

LIC  x  3  s (3)

LSC  x  3  s (4)

Por que multiplicamos o desvio padrão por 3 para determinar os limites de controle? Pode-
ríamos multiplicar por um valor diferente? Há alguma relação entre essas equações e a ideia
por trás do Six Sigma?

137
UNICESUMAR

Caso o LIC encontrado seja negativo e tratamos de uma variável que não pode ser negativa, como a
quantidade de parafusos contidos em uma caixa, o comprimento de uma peça ou o peso de uma em-
balagem, o mesmo deve ser considerado como 0. Em casos nos quais o parâmetro possa ser negativo,
como no estudo da temperatura de um ambiente frio, então, não há problemas em usar o LIC que foi,
de fato, calculado (VIEIRA, 2014).

REALIDADE
AUMENTADA

Aqui, discutimos um pouco mais sobre os gráficos de


controle, vamos lá? Acesse o QR CODE e entenda!

Interpretação de gráficos de controle

138
UNIDADE 5

No caso do exemplo realizado, teremos o LSC igual a 50,31 g, enquanto o LIC será de
14,09 g. Note que ambos estão igualmente distantes da média, já que a variação foi de 3
desvios padrão para mais ou para menos em relação à média. Com estes valores, podemos,
então, montar o gráfico de controle representado na Figura 2.

60
50
40
Peso (g)

30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 2 - Gráfico de controle para a situação apresentada / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 14 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical, e
uma próxima ao valor 50 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.

Novamente, temos uma situação com todos os pontos sob controle e com um processo
controlado. Tenha em mente, porém, que o fato de todos os pontos estarem entre os
limites não significa, necessariamente, que temos um processo controlado!

Há diversos programas de computador que podem nos


ajudar a estruturar ferramentas do CEP. Uma forma muito
simples para a montagem de gráficos de controle é com o
uso do Microsoft Excel®. A partir do momento em que os
dados são coletados, torna-se uma questão de minutos
para que o gráfico seja montado no software. Quer
conhecer o passo a passo para montar seus gráficos na
plataforma? É só acessar o nosso vídeo!

Nosso desejo é que os pontos sempre estejam distribuídos aleatoriamente ao redor da média e entre
os limites de controle. Caso seja identificado um comportamento não-aleatório, que apresente ten-
dências por parte dos dados, poderemos dizer que o processo não está controlado e que uma ação de
correção deverá ser tomada. O primeiro caso para que seja identificado um processo fora de controle
é aquele em que temos um ou mais pontos que ultrapassem os limites, conforme exposto na Figura 3.

139
UNICESUMAR

70
60
50

Peso (g)
40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 3 - Gráfico de controle com um ponto fora de controle / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o
limite inferior, próximo ao número 9 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical,
e uma próxima ao valor 55 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Um dos pontos está
acima da linha que indica o limite superior, sendo destacado com um círculo vermelho.

Não é raro que, na prática, quando houver apenas um ponto fora de controle, ele seja
descartado e substituído por outro dado coletado aleatoriamente. Caso haja mais de um
ponto nessa situação, o cenário é diferente e deve-se investigar a causa raiz. A segunda
situação que indica um processo fora de controle é a existência de muitos pontos seguidos
acima ou abaixo da média. Isso indica que o comportamento do processo é o de produzir
unidades com alguma tendência, o que foge da aleatoriedade desejada, conforme exposto
no gráfico da Figura 4.

50
45
40
Peso (g)

35
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 4 - Gráfico de controle com uma sequência de pontos acima da média / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 23 do eixo vertical, outra indicando a média, próxima ao valor 34 do eixo vertical, e
uma próxima ao valor 45 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Há uma sequência
de vários pontos localizados acima da média, sendo destacados por um retângulo vermelho.

140
UNIDADE 5

Considera-se que a presença de oito pontos, seguidos do mesmo lado da média, configura
essa tendência (MONTGOMERY, 2017). A terceira possibilidade ocorre, quando temos
vários pontos seguidos crescendo ou decrescendo continuamente. Isso indica uma falha
durante parte do processo, fazendo com que a produção de um item influencie direta-
mente na do outro. Um exemplo disso está representado na Figura 5.

50
45
40
Peso (g)

35
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 5 - Gráfico de controle com tendência de aumento / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 15 do eixo vertical, outra indicando a média, próxima ao valor 30 do eixo vertical, e
uma próxima ao valor 45 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Vários pontos criam
algo que se aproxima de uma reta crescente no meio do gráfico, destacados por um retângulo vermelho.

O efeito contrário, de redução, também indicaria uma falha. Neste caso, seis pontos
seguidos já podem indicar a presença de alguma causa não-aleatória. Por último, caso
haja uma tendência comportamental contínua, pode-se considerar a existência de uma
situação indesejável, influenciando o processo. Observe o gráfico exposto na Figura 6 e
tente encontrar um padrão de comportamento.

141
UNICESUMAR

45
40
35

Peso (g)
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados

Figura 6 - Gráfico de controle com comportamento padronizado / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 20 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical, e uma
próxima ao valor 44 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente acima e abai-
xo da média, criando um padrão de dois pontos acima da média e um abaixo, o que se repete de maneira ininterrupta.

Em um primeiro momento, pode parecer que o gráfico está aleatorizado. Entretanto, com
um pouco mais de atenção, é possível perceber que, a cada dois pontos seguidos acima da
média, temos um ponto abaixo dela. Isso indica, novamente, que as duas primeiras obser-
vações têm influência sobre a terceira observação, padrão que se segue continuamente.
Novamente, um indício forte de que não há aleatoriedade.
Para finalizar nossa introdução aos conceitos básicos dos gráficos de controle, discutimos
os dois tipos gerais que existem para a ferramenta. Estes tipos são relacionados à natureza
da informação coletada e ao que é monitorado.
O primeiro tipo é o gráfico de controle por atributos , que será nosso ponto focal, no
restante desta unidade. Este é o formato usado, quando o que se avalia não é medido em uma
escala contínua ou quantitativa, ou seja, quando apenas desejamos mensurar a quantidade
de itens defeituosos ou não-defeituosos, ou, então, a quantidade de defeitos que estão pre-
sentes em cada unidade analisada, usamos a categoria de atributos (LOUZADA et al., 2013).
O segundo tipo é o gráfico de controle para variáveis, os quais serão estudados a
fundo, nas próximas duas unidades. Neste caso, são analisados os dados expressos em
uma escala contínua de medida, como temperatura, peso, comprimento ou qualquer outra
característica que precise de medições (LOUZADA et al., 2013).
Dentro de cada uma das categorias de gráficos, existem diversos subtipos, sendo cada
um mais adequado para cada tipo de situação. Para os gráficos de controle por atributos,
temos quatro tipos comumente aplicados: os gráficos p, np, c e u. Iniciaremos pelo estudo dos
gráficos usados para o controle da frequência de itens defeituosos, que são os tipos p e
np. A diferença entre ambos mora em apenas um aspecto, o qual será esclarecido em breve.

142
UNIDADE 5

O gráfico de controle do tipo p trata da pro- Amostra (com 30 Total de peças


unidades cada) com defeito
porção de itens defeituosos. Para explicar a sua
montagem, usamos um exemplo do cotidiano de 1 8
Fernando, protagonista do nosso estudo de caso 2 13

inicial. Suponha que Fernando esteja analisando 3 5


4 6
amostras de tecidos produzidos pela empresa,
5 12
sendo que cada amostra é composta por 30 peças
6 4
de tecido. Na Tabela 2, ele indica quantas peças
7 3
com defeito foram encontradas em cada uma das
8 7
amostras, dados que serão essenciais para a estru-
9 9
turação do nosso gráfico.
10 11
11 11
12 13
13 6
14 10
15 8
Tabela 2 - Quantidade de defeitos por amostra / Fonte: o autor.

Interpretando a Tabela 2, temos que a amostra 1, que é composta por 30 peças, tem 8 peças com defeito,
enquanto a amostra 2, também composta por 30 peças, tem 13 peças defeituosas, e assim por diante.
Para a montagem do gráfico p, precisamos, primeiramente, determinar a proporção de itens com falha,
em cada uma das amostras. Isso é feito ao se dividir a quantidade de defeitos (d) pelo tamanho de cada
amostra (n), conforme a Equação 5:
di
pi = (5)
n
8
Assim, tomando como exemplo a primeira amostra, teremos p= 1 = 0, 267 . A Tabela 3 adiciona o
30
valor de p para cada uma das amostras analisadas na Tabela 2.

143
UNICESUMAR

Amostra (com 30 unidades cada) Total de peças com defeito p


1 8 0,267
2 13 0,433
3 5 0,167
4 6 0,200
5 12 0,400
6 4 0,133
7 3 0,100
8 7 0,233
9 9 0,300
10 11 0,367
11 11 0,367
12 13 0,433
13 6 0,200
14 10 0,333
15 8 0,267
Tabela 3 - Quantidade de defeitos por amostra / Fonte: o autor.

O segundo passo é determinar o valor médio das proporções, o qual é representado por p . Para tanto,
basta somarmos todos os valores de p e dividir pela quantidade de amostras, ou seja:

0, 267  0, 433  0, 167  0, 200  0, 400  0, 133  0, 100  0, 233  0, 300  0,3367  0, 367  0, 433  0, 200  0, 333  0, 267
p  0, 280
15

Os valores de p que determinamos na Tabela 3 serão os pontos posicionados no gráfico de controle p,


enquanto o valor de p será a média desse mesmo gráfico. Já temos dois dos itens necessários para a
montagem do nosso gráfico de controle, e, agora, precisamos determinar os limites de controle. Para
isso, precisamos calcular o desvio padrão entre os dados, o que é feito por meio da Equação 6:

p (1  p ) (6)
s
n
Em que n é o tamanho de observações em cada amostra, ou seja, 30. Tenha em mente que a Equação
6 serve, apenas, para o cálculo do desvio padrão, quando usamos o gráfico p; outros gráficos usarão
outras equações, as quais podem, ou não, ter uma estrutura similar. Por último, determinamos os limites
inferior e superior de controle com as Equações 7 e 8, respectivamente:

LIC  p  3  s (7)

LSC  p  3  s (8)

144
UNIDADE 5

Para o nosso exemplo, o desvio padrão é igual a 0,082, fazendo com que nosso LIC e
nosso LSC sejam, respectivamente, 0,034 e 0,526. Assim, nosso gráfico de controle p será
estruturado conforme a Figura 7:
0,6
Proporção de defeitos

0,5
0,4
0,3
0,2
0,1
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC p

Figura 7 - Gráfico p para o exemplo proposto / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 0,04 do eixo vertical, outra indicando a média, próxima ao valor 0,28 do eixo vertical, e
uma próxima ao valor 0,52 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.

Neste caso, tivemos um processo controlado e com dados distribuídos aleatoriamente.


Houve uma tendência de crescimento entre os pontos 7 e 10, mas isso não seria suficiente
para ser considerado como um problema. O gráfico p considera o número de defeitos
em cada amostra independente uns dos outros e, como temos um processo controlado,
pode-se afirmar que a probabilidade de ocorrência de defeitos entre uma amostra e outra
é constante. Isso torna o processo algo previsível, o que é benéfico para o controle e ações
futuras (RAMOS; ALMEIDA; ARAÚJO, 2013).
O gráfico np tem ideia similar à do gráfico p, mas, ao invés de tratar da proporção
de unidades defeituosas por amostra, o foco é a própria quantidade de unidades com
defeito em cada amostra. Para o exemplo de montagem, usaremos os mesmos dados
dispostos na Tabela 2, usada para o gráfico p.
Os dados dispostos no gráfico np são as próprias quantidades de falhas, enquanto a
linha média, representada por np , é a quantidade média de defeitos entre as amostras,
no nosso caso, esse resultado é igual a 8,4. Isso já nos deixa com dois dos elementos
necessários para a montagem do gráfico de controle, novamente, deixando apenas os
limites de controle pendentes, e, como no exemplo anterior, precisamos do desvio padrão
para calculá-los. O desvio padrão para gráficos np é calculado por meio da Equação 9:

s  np (1  p ) (9)

145
UNICESUMAR

Assim, o desvio padrão para este caso será igual a 2,459. O LIC e o LSC serão calculados
conforme as Equações 10 e 11:

LIC  np  3  s (10)

LSC  np  3  s (11)

Isso torna o LIC e o LSC para nosso gráfico np iguais, respectivamente, 1,022 e 15,778. Como
temos todos os dados, podemos finalizar o gráfico de controle, representado na Figura 8.
18
Quantidade de defeitos

16
14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC np
Figura 8 - Gráfico np para o exemplo proposto / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 1 do eixo vertical, outra indicando a média, próxima ao valor 8 do eixo vertical, e uma
próxima ao valor 16 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.

Note que os gráficos das Figuras 7 e 8 têm exatamente a mesma estrutura, havendo mu-
danças apenas nos valores do eixo vertical. Isso mostra que os gráficos p e np são iguais e
podem ser interpretados da mesma forma. A única diferença é que, enquanto o primeiro
usa a proporção, o segundo usa as quantidades absolutas.

Sabemos que os gráficos p e np têm a mesma estrutura. Sendo


assim, é necessário usar ambos ao mesmo tempo? Podemos
optar pelo uso de apenas um deles? Quais são as vantagens um
tem sobre o outro? Esse é o nosso assunto no Podcast dessa
unidade - para ouvir, é só dar o play!

146
UNIDADE 5

Até o momento, nossos gráficos de controle trataram da quantidade de itens defeituosos em cada
amostra. Mas se um item tiver mais do que um defeito? Isso é algo que pode acontecer! Por exemplo,
é possível que seu celular caia no chão, fique com a tela quebrada e com problemas na caixa de som,
isso seria um caso com duas falhas em uma única unidade. Na produção de um item, pode ser usado
o mesmo raciocínio, em que ele é gerado com duas falhas diferentes, ao mesmo tempo. Isso é comum
em produtos que envolvem muitas partes, como eletrônicos ou automóveis.
A última parte da nossa unidade terá início agora, em que focaremos nos dois últimos tipos de grá-
ficos de controle para atributos. Para analisar situações como as citadas no parágrafo anterior, temos os
gráficos de controle c e u . Ambos trabalham com a quantidade de defeitos por amostra, e não apenas
com a quantidade de itens defeituosos.
Vamos iniciar tratando do gráfico de controle c , cujo foco é apresentar a quantidade de defeitos por
item ou por lote. Novamente, podemos ter amostras constituídas por mais de uma unidade, de forma a
ter dados com menores chances de desvio diante da realidade (RAMOS; ALMEIDA; ARAÚJO, 2013).
A quantidade de defeitos estimada é representada pela letra c cujo valor pode ser determinado de
duas maneiras, a partir de uma estimativa feita com base no conhecimento em relação ao processo ou
a partir da quantidade média de falhas entre as amostras coletadas.
Para exemplificar, consideramos os dados da Tabela 4, que apresenta a quantidade de defeitos em
computadores produzidos por uma empresa de tecnologia. Cada amostra contém 10 unidades, visto
que, por ser um item de alto valor agregado, não é plausível ter amostras com muitas unidades.
Neste exemplo, iremos considerar que o valor de c é a média
Amostras
Quantidade entre as quantidades de defeitos encontrados em cada amostra,
(10 unida-
de defeitos
des cada) o que costuma ser representado com a expressão c . O resulta-
1 3 do será igual a 7. Estimar um valor para c só é recomendado,
2 6
quando já se possui certo conhecimento a respeito da natureza
3 7
4 4 do processo de produção analisado, o que não é o nosso caso. O
5 9 desvio padrão é determinado a partir da determinação da raiz
6 1 quadrada de c, ou seja, colocando em termos matemáticos a partir
7 12
8 5 da Equação 12:
9 7
10 9 s= c (12)
11 2
12 10
13 9 Tratando, especificamente, deste caso, temos que o desvio padrão é
14 11 igual a 2,65. A determinação do LIC e do LSC, novamente, consi-
15 12
derara a variação de três desvios padrão para mais ou para menos,
Tabela 4 - Quantidade de defeitos por
amostra / Fonte: o autor. conforme as Equações 13 e 14:

147
UNICESUMAR

LIC  c  3* c (13)

LSC  c  3* c (14)

O que faz com que o LIC do nosso exemplo seja igual a 0, visto que o resultado do cálculo
é negativo e, como é impossível ter uma quantidade negativa de defeitos, assumimos o
valor zerado. Além disso, chegamos ao LSC igual a 14,95. Isso faz com que nosso gráfico
seja estruturado conforme a Figura 9:

16
Quantidade de defeitos

14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC Dados
Figura 9 - Gráfico c para o exemplo proposto / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 7 do eixo vertical, e uma
próxima ao valor 15 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.

Neste caso, temos um processo que pode ser considerado como controlado.

A intenção do material é aproximar o conteúdo teórico o máximo possí-


vel de situações práticas. Entretanto podemos fazer o contrário e apro-
ximar uma situação prática do conteúdo estudado! O artigo científico
“Aplicação integrada do controle estatístico de processo e engenharia
de métodos em uma indústria alimentícia” é um exemplo perfeito de
como podemos aplicar o conteúdo da nossa unidade atual a situações
em que um engenheiro enfrenta, enquanto atuar na indústria.
Para acessar, use seu leitor de QR Code.

148
UNIDADE 5

Dentre os gráficos de controle para atributos, pode-se perceber que o tipo c é o mais
simples de ser estruturado, mas não é o único voltado para a análise da quantidade de
defeitos dentro de um grupo de amostras. O gráfico u também tem essa finalidade,
mas é aplicado em casos diferentes, em que temos amostras e subamostras envolvidas.
Para compreender o conceito de “amostras” e “subamostras”, imagine uma situação
na qual uma empresa produz enlatados e os embala em caixas que contêm 200 latas.
Entretanto, dentro dessa caixa grande, essas 200 latas estão separadas em quatro caixas
menores, cada uma com um total de 50 latas. Nossa amostra maior é a caixa grande, com
200 latas, enquanto nossas subamostras são as caixas menores, cada uma com 50 unidades.
São em situações como essa que devemos usar o gráfico u, quando nossa amostra tiver
divisões internas, pois devemos analisar, antes, as subamostras para que seja possível
tomar uma decisão quanto à amostra em si.
O valor da incógnita u será referente à média de defeitos em cada amostra, e é o
primeiro passo para que possamos estruturar nosso gráfico de controle. Sendo assim,
seguindo com o exemplo das latas, supomos que, na primeira subamostra de 50 unidades,
temos 7 delas com falhas, enquanto temos mais 13 na segunda, 2 na terceira e 4 na quarta
subamostra, respectivamente. A média entre estes dados será equivalente ao valor u da
amostra, o resultado é igual a 6,5, e este será o ponto referente à nossa primeira amostra
em nosso gráfico de controle. Em outras palavras, a média entre os dados das subamostras
é equivalente ao tamanho da nossa amostra.
Feito isso, devemos determinar o u das demais amostras, sempre seguindo o mesmo
procedimento para cada uma delas. É importante citar que cada amostra deve ter o
mesmo número de subamostras. Dito isso, consideramos mais sete amostras junto ao
nosso exemplo, as quais serão representadas na Tabela 5.

149
UNICESUMAR

Nº de u da Nº de u da
Amostra Subamostra Amostra Subamostra
defeitos amostra defeitos amostra

1 7 1 12
2 13 2 3
1 6,5 5 6,75
3 2 3 6
4 4 4 6
1 5 1 5
2 3 2 0
2 6 6 2,5
3 9 3 2
4 7 4 3
1 6 1 0
2 5 2 9
3 5,75 7 4
3 4 3 6
4 8 4 1
1 2 1 7
2 9 2 6
4 7 8 6,75
3 12 3 11
4 5 4 3

Tabela 5 - Quantidade de defeitos por subamostra e quantidade média de defeitos por amostra / Fonte: o autor.

Agora que temos o valor de u para as oito amostras, devemos determinar u , que nada
mais é do que a média entre os valores de u da amostra. O resultado será igual a 5,66,
valor que será a média em nosso gráfico de controle. Como de costume, o segundo dado
que encontraremos é o desvio padrão. O valor depende de u , que já foi calculado, e do
tamanho n da subamostra, que é igual a 50. Seu cálculo se dá por meio da Equação 15:

u
s= (15)
n
Para nosso exemplo, o resultado será igual a 0,336. Enfim, podemos calcular nossos
limites de controle e, assim como fizemos durante toda a nossa unidade, seguiremos o
padrão de considerá-los como valores a uma distância de três desvios padrão da média.
LIC  u  3 * s  5, 66  3 * 0, 336  4, 652
LSC  u  3 * s  5, 66  3 * 0, 336  6, 668
Por fim, podemos realizar a montagem do nosso gráfico u, que pode ser visto no gráfico
da Figura 10:

150
UNIDADE 5

Quantidade de defeitos
7
6
5
4
3
2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC Dados

Figura 10 - Gráfico u para o exemplo proposto / Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 4,8 do eixo vertical, outra indicando a média, próxima ao valor 5,7 do eixo vertical, e
uma próxima ao valor 6,6 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente entre
os limites, acima do limite superior e abaixo do limite inferior.

Podemos notar que temos um processo que foge muito do controle, isso ocorre devido
ao fato de termos um baixo desvio padrão entre nossos dados, o que torna os limites de
controle relativamente próximos à média. Isso faz com que até mesmo variações pequenas
possam extrapolar os limites.

Durante toda a unidade, tratamos de situações que estavam dentro ou fora de controle, de
forma que discutimos também o que faz um processo ser considerado como fora de controle.
Entretanto, deve-se ter em mente que nem sempre precisamos considerar a interpretação
de um gráfico como absoluta, de fato, eles devem ser uma base importante para a tomada
de decisões, mas nada impede que sejam coletados novos dados e montados novos gráficos.
Caso haja um único ponto que extrapole os limites, é possível trocar os dados referentes
a ele, pois pode ter ocorrido uma causa pontual na coleta daqueles dados. Por outro lado,
caso exista mais de um ponto inadequado ou haja algum comportamento que apresente
tendências entre os dados, deve-se ter muito cuidado com a forma como a situação será
tratada. O gráfico de controle é uma ferramenta versátil e útil, mas, assim como todas as
outras, deve-se ter bom senso na hora de utilizá-lo.

151
UNICESUMAR

Os gráficos de controle para atributos são populares e de fácil apli-


cação, mas há algumas limitações em seu uso, pois focam apenas
na quantidade de falhas, e não no tamanho da falha. Para essas
situações, temos outro grupo de gráficos, os quais serão nosso ponto
focal em nossa próxima aula: os gráficos de controle para variáveis.
Guarde bem o conteúdo visto durante esta unidade, principalmente
no que se refere à interpretação dos gráficos, pois parte dele será
necessária nas próximas duas unidades!
Caso a intenção seja controlar a quantidade de defeitos, sem se
preocupar com o tamanho deles, os gráficos de controle para atri-
butos são a melhor opção. Qualquer tipo de processo pode usar isso,
principalmente aqueles em que não há como mensurar o tamanho
da falha. Por exemplo, a quantidade de ligações erradas realizadas,
diariamente, por uma discadora automática no decorrer de algu-
mas semanas, a quantidade de erros gramaticais em cada página
de um livro, quantos chutes uma equipe errou em uma sequência
de partidas de futebol, entre outras possibilidades.
Não é difícil escolher qual será o melhor modelo de gráfico para
atributos, em cada situação. Os gráficos p e np são usados exata-
mente nas mesmas situações — quando desejamos saber quantas
amostras têm defeitos —, cabendo ao usuário escolher aquele for-
mato com o qual tem mais afinidade. O gráfico c será usado em
situações nas quais desejamos considerar a quantidade de defeitos
presentes em cada amostra e, finalmente, o gráfico u deve ser es-
colhido, quando tratamos de amostras que contêm subamostras.
Com o tempo, a aplicação e interpretação dos gráficos de controle
tende a se tornar natural, sendo, assim, pratique sempre que possível!

152
Para relembrar o que discutimos, durante esta unidade, que tal preencher o mapa mental pre-
parado especialmente para os tópicos apresentados? Foque, primeiramente, na interpretação
dos diagramas e nas situações que são consideradas como problemáticas em um gráfico de
controle, respondendo quais são as distribuições que indicam falta de controle sobre o processo.
Lembre-se que desejamos aleatoriedade na distribuição! Em seguida, preencha as características
dos quatro gráficos de controle para atributos, apresentados durante nossa discussão. Apresente
as particularidades de cada um dos modelos e quais são as situações em que devemos aplicar
cada um deles. Caso deseje, anote também como é calculado o desvio padrão para cada um dos
tipos de gráficos que discutimos durante nossa unidade!

GRÁFICOS DE Gráficos de controle para atributos

CONTROLE

Situações que indicam


Gráfico p Gráfico np Gráfico C Gráfico U
falta de controle

Descrição da Imagem: um quadro com o escrito “Gráficos de controle destacado”, com espaços para as definições de “situações
que indicam falta de controle” e para a definição do que são os gráficos p, np, c e u.

153
1. A carta ou gráfico de controle é utilizada para o acompanhamento de um processo. Este
gráfico determina estatisticamente uma faixa denominada limites de controle que é limi-
tada pela linha superior (limite superior de controle) e uma linha inferior (limite inferior
de controle), além de uma linha média. O objetivo é verificar, por meio do gráfico, se o
processo está sob controle, isto é, isento de causas especiais (MONTGOMERY, 2017).
A respeito dos gráficos de controle, são feitas as afirmações a seguir:
I) A presença de um único ponto abaixo do limite inferior ou acima do limite superior
não indica problemas em qualquer hipótese.
II) Se metade dos pontos de um gráfico de controle estiverem acima da linha média e
metade abaixo, então o processo certamente está sob controle.
III) Um gráfico de controle desejável mostra uma distribuição aleatória de resultados
entre as linhas de limite inferior e superior de controle.
IV) Caso a tendência de um gráfico de controle seja ter resultados menores, isso pode
ser encarado como problema, porém uma tendência a resultados maiores mostra
melhoras por parte do processo.

É correto o que se afirma em:


a) III, apenas.
b) I e IV, apenas.
c) II e III, apenas.
d) I, II e IV, apenas.
e) I, III e IV, apenas.

2. No controle estatístico do processo, costuma-se tratar de dois tipos de causas de va-


riações de resultados: as causas comuns e as causas especiais, também conhecidas
como causas aleatórias. Apesar dos dois tipos serem comumente visíveis por meio dos
gráficos de controle, a diferença entre eles é vital para o controle do processo. Explique
sucintamente qual a diferença entre causas comuns e causas especiais de variação.

3. “O atributo é uma característica da qualidade representada pela ausência ou presença


de não conformidade em um processo ou serviço, em que não conformidade significa
falha no atendimento das necessidades e/ou expectativas do cliente; é um defeito do
produto ou serviço”.
RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qua-
lidade. Porto Alegre: AMGH, 2013. p. 88.
Gráficos de controle para atributos podem ser utilizados para analisar a quantidade de
defeitos ocorridos em diversos eventos e se eles se encontram sob controle. A seguir,
são apresentados alguns eventos:

154
I) Quantidade de erros de digitação em cada página de um livro.
II) Variação no volume de latas de refrigerante.
III) Quantidade de aparelhos celulares defeituosos que saem de uma linha de fabricação.
IV) Controle do peso de tijolos usados em uma construção.
São eventos que podem ser analisados por meio de gráficos de controle para atributos:
a) I, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.

4. Considere que temos três linhas de produção, e para cada uma delas foi utilizado um
gráfico de controle diferente. Os resultados para cada um dos gráficos são descritos
abaixo:
• Linha 1: o gráfico de controle indicou que as medidas estavam distribuídas alea-
toriamente em torno da média, com todos os valores dentro dos limites inferior e
superior.
• Linha 2: as medidas estavam todas entre a média e o limite superior, de forma
que elas assumiam um comportamento descendente em direção ao valor médio.
• Linha 3: todas as medidas estavam entre o valor médio e o limite inferior, formando
praticamente uma linha reta.
Com base no que foi explicado, assinale a alternativa correta.
a) As linhas 1 e 2 estão com funcionamento adequado, enquanto a linha 3 deve passar
por manutenção.
b) A linha 3 está com funcionamento adequado, enquanto as linhas 1 e 2 devem passar
por manutenção.
c) A linha 2 está com funcionamento adequado, enquanto as linhas 1 e 3 devem passar
por manutenção.
d) A linha 1 está com funcionamento adequado, enquanto as linhas 2 e 3 devem passar
por manutenção.
e) As linhas 2 e 3 estão com funcionamento adequado, enquanto a linha 1 deve passar
por manutenção.

155
5. Os seguintes dados são refe- Amostra
Quantidade de falhas
(25 unidades cada)
rentes à quantidade de falhas
encontradas em amostras co- 1 10
letadas em uma fábrica de re- 2 5

lógios de pulso: 3 0
4 7
5 9
6 5
7 8
8 8
Com base nos dados coletados:
9 4
a) Estruture o gráfico de con-
10 3
trole c para o processo em
11 3
questão. 12 4
b) Identifique se o processo 13 6
pode ser considerado como 14 9
controlado e justifique sua 15 7
conclusão. Fonte: o autor.

6. Os dados, a seguir, foram co- Amostra (com 40 uni- Total de peças com
dades cada) defeito
letados de forma a verificar
quantas unidades de potes 1 2
plásticos apresentavam falhas 2 5
3 0
em amostras de 40 unidades.
4 2
5 10
6 1
7 2
8 4
a) Com base nos dados apre- 9 0
10 5
sentados, estruture o grá-
11 3
fico p para as amostras em
12 1
questão.
13 6
b) Identifique se o processo 14 7
pode ser controlado, justifi- 15 10
cando sua conclusão. Fonte: o autor.

156
157
158
6
Controle Estatístico
do Processo por
Variáveis
Me. Paulo Otávio Fioroto

Estudo sobre a organização de dados, construção e interpretação


de gráficos de controle para variáveis x-R e x-s, além da interpreta-
ção das tabelas e equações necessárias para a montagem destes
gráficos.
UNICESUMAR

Até o momento, trabalhamos, constantemente, com diversas medidas referentes à


Estatística. Entre elas, a que esteve presente, com mais frequência, em nossa discussão,
foi a média. Afinal, na unidade anterior, tratamos dela como a primeira medida a ser
obtida, na montagem dos gráficos de controle. Sua importância é inquestionável, e
continuaremos usando-a como uma das chaves para nossos gráficos de controle.
Entretanto até que ponto podemos depender, apenas, da média para que possamos
considerar um processo como controlado? Será que podemos usar mais variáveis
para a montagem dos gráficos? Ou, ainda, seria possível usar os dados coletados para
obter mais parâmetros de comparação?
A Estatística nos oferece uma infinidade de valores, como o desvio padrão, a
variância, a amplitude, entre outros. Todos esses dados podem nos dar algo a mais
para que possamos compreender o processo e, de fato, considerá-lo como controlado.
Os gráficos que discutimos anteriormente tratavam da quantidade de defeitos
em um grupo de amostras, mas não do tamanho dos defeitos. Os dados que usa-
mos, durante nossa quinta unidade, certamente, são necessários para que possamos
compreender qualquer processo, mas seriam eles suficientes para entendermos o
quanto os dados variam?
A verdade é que, com apenas um gráfico, nem sempre teremos todas as infor-
mações necessárias para que seja possível compreender o quanto o processo está
controlado. Podem ser necessárias mais ferramentas que nos auxiliem no controle dos
dados ou, então, um segundo gráfico, o qual trate dos mesmos dados que o primeiro,
mas com uma ótica diferente. Durante esta unidade, você perceberá que, apesar da
estrutura e da intepretação dos gráficos de controle serem sempre muito parecidas,
nem todos os gráficos serão iguais! Por conta disso, envolvemos novas variáveis em
nossas discussões, essas tornam nossos processos muito mais completos e confiáveis.
O que discutimos em nossa unidade anterior continuará sendo de grande rele-
vância. O que veremos, agora, é um complemento, este tornará o uso dos gráficos
de controle muito mais amplo!
Para iniciar nossa discussão, apresentamos a situação vivenciada por Vicente, um
químico que concluiu recentemente sua pós-graduação em gestão de projetos. Sua
área de atuação é a indústria de remédios e, recentemente, iniciou um novo emprego,
em uma unidade de uma empresa fundada há poucos meses, na área de controle de
qualidade dos processos.

160
UNIDADE 6

Vicente, sempre, teve certo entusiasmo em relação a softwares, e isso o motivou


a pesquisar as melhores ferramentas computacionais para auxiliá-lo em sua atuação
profissional. Sendo responsável pelo controle estatístico dos processos produtivos,
ele buscou por algum programa simples, mas que tivesse uma interface de fácil com-
preensão, pois quem inseriria os dados seriam operadores, com pouco conhecimento
do ramo. Para o químico, o mais importante seria a agilidade na inserção de dados e a
geração instantânea de gráficos com fácil interpretação, visto que seriam as ferramentas
mais usadas, em seu cotidiano.
Durante a primeira semana, entre as diversas análises realizadas pela empresa, va-
riando desde o controle microbiológico até a coloração do produto, um dos pontos que
Vicente mais deu atenção foi o peso de cada uma das cápsulas de remédio produzidas.
Tratando, especificamente, de um remédio específico para enxaquecas, a embalagem
apresenta a informação de que cada cápsula pesa 3,5 g, e a média atingida entre os
pesos das cem observações coletadas pelo colaborador responsável pelas análises foi
de 3,7 g, um desvio que, apesar do potencial de melhora, foi bastante celebrado pelos
gestores, visto que isso mostrou regularidade na produção.
Isso, porém, não refletiu na aceitação dos clientes, pois os resultados não foram agra-
dáveis. Na semana seguinte, surgiram algumas reclamações por parte de consumidores.
Enquanto alguns diziam que o remédio não surtia qualquer efeito, outros reclamavam
que sentiam muito sono após a ingestão. Em um primeiro momento, todos pensaram
que isso se tratava de algo pontual para cada indivíduo, visto que cada organismo
reage de maneiras diferentes a certas quantidades de remédios, variando de acordo
com idade e peso da pessoa; por isso, decidiram relevar os comentários negativos.
Esta atitude se mostrou um erro. A quantidade de reclamações começou a crescer
exponencialmente, o que deixou os gestores preocupados. A imagem da empresa foi
afetada negativamente, e algo precisava ser feito. Vicente foi um dos indicados para
buscar a identificação e solução do problema. Após refletir por alguns instantes, Vicente
decidiu checar de perto as informações coletadas. Como tinha a responsabilidade
apenas de analisar os gráficos que chegavam até ele, Vicente decidiu analisar os dados
individualmente, e não tratar apenas das médias entre os valores.
Essa análise individual não demorou a trazer uma nova percepção da realidade. As
médias entre os resultados eram, de fato, boas. Cada gráfico de controle era composto
por vinte pontos e, como eram realizadas cem observações, é possível concluir que
cada ponto levava em conta a média entre cinco observações.

161
UNICESUMAR

Apesar da prática de usar mais de uma observação para


compor cada amostra ser algo comum e, inclusive, recomen-
dando, isso acabou por mascarar a realidade. Enquanto cerca
de 25% das cápsulas produzidas eram muito mais leves do
que o esperado, chegando a pesar 2,5 gramas, outros 20% se
aproximavam da marca de 5,0 gramas. Quando era calculada a
média, as cápsulas mais pesadas compensavam as cápsulas mais
leves, fazendo com que tudo parecesse equilibrado. Algumas
das observações, de fato, atingiam o resultado correto, mas é
inaceitável que uma parcela fugisse drasticamente do esperado.
O fato de algumas cápsulas serem mais leves do que ou-
tras ocorreu devido ao volume de um dos componentes do
remédio variar demais em cada uma das observações, algo
que provavelmente ocorreu devido a algum equipamento mal
regulado. Naturalmente, a grande diferença entre as quantida-
des fez com que cada cápsula gerasse efeitos muito variados
em cada indivíduo, isso provou que não dependia apenas da
estrutura física da própria pessoa.
Após compreender a origem do problema, Vicente decidiu
que não bastava apenas considerar a média, pois também
deveria haver uma maneira de verificar a variação entre os
dados. A conclusão foi a de que não seria necessário descartar
a análise feita com base nas médias de cada amostra, mas
adicionar a análise da variação entre as observações.
A partir de então, adicionou-se o parâmetro “amplitude” a
cada uma das amostras, na qual era determinada a diferença
entre o peso da maior e da menor observação de cada uma
das amostras. Caso a diferença entre esses valores fosse muito
alta, isso significava que a variação estava, também, muito
alta, e o processo funcionando de forma irregular; portanto,
deveria haver uma investigação a respeito. Caso a variação
fosse baixa, isso indicava uma produção regular, o que repre-
senta algo positivo.
Com o tempo, as reclamações diminuíram drastica-
mente, visto que Vicente e os demais colaboradores com-
preenderam que é possível usar os mesmos dados para
obter novas informações sobre o processo. A produção se
tornou cada vez mais regular, pois o uso do segundo gráfico
de controle atrelado ao primeiro facilitou a identificação
rápida de irregularidades no processo.

162
UNIDADE 6

A variação que Vicente encontrou entre cada uma das cápsulas é algo que pode ocorrer com qualquer
item produzido em massa. Biscoitos e salgadinhos industrializados são bons exemplos disso. Supondo
que o peso apresentado na embalagem seja de 100 gramas e que há aproximadamente 50 salgadinhos
dentro dela, naturalmente iríamos esperar que cada um deles pesasse dois gramas.
Na prática, entretanto, isso definitivamente não é o que ocorre. Qualquer pessoa que já tenha comido
um pacote de salgadinhos sabe que eles são disformes e que seus tamanhos e formatos variam dentro
de uma mesma embalagem. Enquanto alguns deles são mais compridos, outros são muito pequenos,
algo que ocorre durante o próprio processo de produção. Isso faz com que alguns deles sejam mais
pesados do que outros. Mas, diferente do estudo de caso, em que tratamos de remédios, contanto que
o peso somado dos salgadinhos corresponda ao indicado no pacote, isso não influencia negativamente
na qualidade do produto.
Se possível, realize esse teste, usando uma embalagem qualquer de salgadinhos e uma balança de
precisão. Ao dividir o peso indicado na embalagem pela quantidade de salgadinhos dentro dela, você
obterá um peso médio. O salgadinho mais pesado, porém, com certeza terá um peso relativamente
maior do que o mais leve.
Nossa unidade volta-se, principalmente, à abordagem da importância da variação interna de resul-
tados de processos. Tão importante quanto ter nossos resultados atingindo a média, é fazer com que
ocorra pouca variação entre eles. Em nada adianta termos uma produção que desenvolva itens que
atinjam a média esperada, mas que tenha resultados individuais irregulares.
Tudo que discutimos na unidade anterior continuará sendo usado, mas adicionaremos novos
elementos aos cálculos dos principais componentes de nossos gráficos de controle. Tenha em mente,
porém, que esses não são os últimos gráficos de controle a serem discutidos em nosso material. Du-
rante a unidade, pense: qual é o aspecto que, ainda, falta ser considerado na montagem e na análise
dos gráficos de controle?

DIÁRIO DE BORDO

163
UNICESUMAR

Anteriormente, tratamos dos gráficos de controle para atributos e determinamos se a


quantidade de defeitos está dentro dos limites aceitáveis. Dessa vez, trataremos dos grá-
ficos de controle para variáveis . Quando tratamos do CEP, “variável” se refere a uma
medida única de uma característica da qualidade, esta pode ser a dimensão, o volume, o
peso, o tempo, entre outros (MONTGOMERY, 2017).
Sendo assim, em qualquer caso, no qual a característica de interesse seja expressa por
um número em uma escala contínua de medida, devemos optar pelo uso dos gráficos
de controle para variáveis. Gráficos de controle para atributos e de variáveis podem ser
usados para analisar um mesmo processo, mas se deve analisar a natureza do dado estu-
dado. Em análises industriais, é muito mais comum encontrar um uso para os gráficos
de variáveis, visto que a maioria das informações são referentes às escalas de medida.
Conforme abordamos no estudo de caso, sempre que tratamos de variáveis, devemos
monitorar tanto a média quanto a variação entre os valores. Por mais que a média seja
um valor de extrema relevância, depender apenas dela pode trazer problemas. Na Tabela
1, estão distribuídos dois conjuntos de observações referentes aos pesos, em gramas,
das cápsulas produzidas pela empresa na qual Vicente atua, assim como as respectivas
médias entre os valores:

Conjunto de Conjunto de
Média 1 (g) Média 2 (g)
Observações 1 (g) Observações 2 (g)

3,4 1,0

3,6 1,3

3,65 3,5 3,0 3,5

3,5 6,0

3,35 6,2

Tabela 1 - Conjuntos de observações do peso das cápsulas e suas respectivas médias


Fonte: o autor.

As observações presentes no Conjunto 1 são próximas umas das outras e têm média
3,5 g, isso significa que está tudo de acordo com o desejado pela empresa, pois todas as
cápsulas têm peso próximo ao esperado. A variação entre a maior e a menor é de 0,3 g e,
apesar da possibilidade de ser reduzida, pode ser vista como algo satisfatório.
Por outro lado, as observações do Conjunto 2 variam muito, a menor delas é igual a 1
g e a maior ultrapassa a marca de 6 g. Isso indica grande variação das unidades produzi-
das, o que pode ser visto como uma irregularidade por parte da produção. Entretanto, se
considerássemos apenas o valor da média em nossa análise, teríamos a impressão de que
o processo funciona adequadamente, pois seu valor é exatamente aquilo que esperamos
obter de um processo regularizado.

164
UNIDADE 6

Isso não significa que a média é um valor inutilizável, muito pelo contrário, conti-
nuaremos a utilizá-la em nossos estudos regularmente. É necessário, todavia, ter uma
forma de controlar a variação entre os dados; caso contrário, nosso processo poderá fugir
do controle, sem que tenhamos a menor notícia. Para isso, pode ser usado um segundo
gráfico, este atuará em combinação com o gráfico das médias no momento da análise.
A partir de agora, referimo-nos ao gráfico de controle das médias como gráfico x,
sendo x a incógnita que será atribuída para representar a média em nossos cálculos. Dito
isso, o primeiro valor que utilizaremos em conjunto ao gráfico x para analisar a variação
entre os dados é a amplitude, representada pela letra R (do inglês, range). A combinação
dos dois gráficos é conhecida, no meio do CEP, como gráfico x-R, sendo este conjunto
de gráficos constantemente aplicado na indústria (RAMOS; ALMEIDA; ARAÚJO, 2013).
Para o gráfico x-R, cada amostra deve ser composta por uma certa quantidade
de observações, a qual pode chegar a, no máximo, 10 observações. Uma quantidade
maior do que essa exigirá outra combinação de gráficos, que será apresentada, ainda, nesta
unidade. Deve ficar perfeitamente claro que a quantidade de amostras não é relevante
na escolha do gráfico x-R, e sim a quantidade de observações dentro de cada amostra!
O fato de utilizar poucas observações por amostras torna esse gráfico o mais utilizado
na prática (VIEIRA, 2014).
A amplitude se trata da diferença entre a maior e a menor observação que
compõem uma mesma amostra. Os valores intermediários em nada interferem nesse
cálculo; do mesmo modo, a ordem com que as observações são registradas será irrele-
vante nesse caso. Na Tabela 2, retomamos os conjuntos de dados apresentados na Tabela
1, mas, dessa vez, adicionaremos o dado “amplitude”.

Conjunto de Conjunto de
Média 1 Amplitude Média 2 Amplitude
Observações Observações
(g) 1 (g) 2
1 (g) 2 (g)
3,4 1,0

3,6 1,3

3,65 3,5 0,3 3,0 3,5 5,2

3,5 6,0

3,35 6,2

Tabela 2 - Conjuntos de observações do peso das cápsulas e suas respectivas médias e amplitudes
Fonte: o autor.

A amplitude do primeiro conjunto comparou os valores iguais a 3,65 e 3,35 g, cuja di-
ferença é de 0,3, enquanto a amplitude do segundo conjunto considerou o maior valor,
6,2 g, e o menor, 1,0 g, o que faz com que a amplitude seja de 5,2. Se tivermos acesso a
essa informação junto à média, será muito simples entender que algo de errado ocorre
no segundo conjunto, visto que a variação entre as observações está muito alta.

165
UNICESUMAR

O que torna mais fácil a identificação de variações entre amostras: observações coletadas em
seguida ou observações coletadas de forma espaçada? Pois bem, é importante que as obser-
vações que compõem cada amostra sejam coletadas em momentos próximos da produção,
mas que cada amostra seja coletada em intervalos diferentes! Isso dá ao gráfico uma maior
abrangência, pois expõe a produção em momentos diferenciados.

A partir do que foi exposto até o momento, damos início, agora, à explicação do passo a passo da
montagem do gráfico x-R. Para facilitar a compreensão de cada uma das etapas, procedemos com a
realização de um exemplo, com todos os pontos, cálculos e tabelas envolvidos, devidamente, apresen-
tados e explicados; recomenda-se que você os realize durante a leitura da unidade e que, para facilitar
a montagem dos gráficos, use o Microsoft Excel. Para todos os cálculos realizados, durante a conti-
nuidade da unidade, chamamos a quantidade de amostras de m e a quantidade de observações de n.
Com uma folha de verificação, Vicente coletou 60 observações das cápsulas de remédios produzi-
das pela sua empresa e, para evitar o mesmo problema ocorrido no estudo de caso inicial, optou por
analisar a variação entre os dados. Para simplificar a análise, todas as observações foram organizadas
em dez grupos, cada um contendo 6 observações. A Tabela 3 apresenta o peso, em gramas, de cada
uma das cápsulas observadas, já organizadas em suas devidas amostras.

Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
 
1 2 3 4 5 6 7 8 9 10

Obs. 1 3,82 3,85 4,06 3,40 3,85 3,43 3,06 4,05 3,63 3,48
Obs. 2 3,90 3,22 3,69 3,44 3,20 3,02 3,54 3,95 3,62 3,19
Obs. 3 3,33 3,61 3,12 3,83 3,44 3,19 3,99 3,27 3,13 3,19
Obs. 4 3,86 3,87 3,23 4,05 4,04 3,26 3,36 4,06 3,60 3,36
Obs. 5 3,27 3,18 3,11 4,05 4,05 3,87 3,11 4,02 3,21 3,14
Obs. 6 3,31 3,18 3,61 3,56 3,59 3,25 3,48 3,15 3,99 3,88
Tabela 3 - Pesos das observações coletadas do processo de produção de cápsulas para o gráfico x-R / Fonte: o autor.

Quando já temos os dados coletados e, devidamente, distribuídos em suas respectivas amostras, o


primeiro passo para a montagem da combinação de gráficos x-R é a determinação da média entre as
observações de cada amostra. Para tanto, usa-se a Equação 1:
n1  n2  ...  nn
xm  (1)
n
O cálculo deve ser realizado para cada uma das amostras, ou seja, nosso exemplo precisa que esse
procedimento seja realizado 10 vezes. Para a amostra 1, o cálculo se dá por:

166
UNIDADE 6

3, 07  5, 07  4, 41  3, 54  5, 34  3, 09
x1   4, 09
6
3, 82  3, 90  3, 33  3, 86  3, 27  3, 31
x1   3, 58
6
Com base no que foi apresentado na unidade, até o momento, sabemos que cada cápsula deve pesar 3,5
g. Como nossa média calculada é de 3,58 g, se dependêssemos apenas da primeira amostra, imediata-
mente, pensaríamos que o processo atende às nossas expectativas. É aí que mora a importância de ter
várias amostras: podem ocorrer variações diferentes em outros momentos, e isso implica a ocorrência
de uma análise mais extensa de dados.
Após esse processo ser realizado para todas as amostras, deve-se determinar a amplitude entre os
dados contidos em cada uma delas. Como apresentado anteriormente, a amplitude se trata da diferença
entre o maior valor e o menor valor, dentro de uma mesma amostra. Deve ser dada muita atenção à
identificação dos valores em questão, pois qualquer erro pode gerar um erro em nosso gráfico.
Para nossa primeira amostra, temos como maior valor 3,90 g, enquanto o menor valor é de 3,27
g. Subtraindo o menor valor do maior, encontramos uma amplitude de 0,63 g. Novamente, o mesmo
procedimento deve ser realizado para cada uma das amostras. Tanto os dados pertinentes às médias
quanto às amplitudes devem ser prontamente registrados na tabela, dando a ela a estrutura da Tabela 4:

Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10

Obs. 1 3,82 3,85 4,06 3,40 3,85 3,43 3,06 4,05 3,63 3,48
Obs. 2 3,90 3,22 3,69 3,44 3,20 3,02 3,54 3,95 3,62 3,19
Obs. 3 3,33 3,61 3,12 3,83 3,44 3,19 3,99 3,27 3,13 3,19
Obs. 4 3,86 3,87 3,23 4,05 4,04 3,26 3,36 4,06 3,60 3,36
Obs. 5 3,27 3,18 3,11 4,05 4,05 3,87 3,11 4,02 3,21 3,14
Obs. 6 3,31 3,18 3,61 3,56 3,59 3,25 3,48 3,15 3,99 3,88
Média 3,58 3,49 3,47 3,72 3,69 3,34 3,42 3,75 3,53 3,37
Ampli-
0,63 0,69 0,95 0,65 0,85 0,85 0,93 0,91 0,86 0,74
tude
Tabela 4 - Médias e amplitudes dos pesos de cada amostra / Fonte: o autor.

É de extrema importância que os valores sejam registrados para cada uma das amostras, pois as am-
plitudes e médias serão os dados representados nos gráficos x e R, respectivamente. Após as determi-
nações, deve-se determinar a média global, que, de forma simples, é a “média entre as médias”. Para
tanto, é realizado o cálculo, usando a Equação 2:
x1  x2  ...  xm
x (2)
m

167
UNICESUMAR

Para nosso exemplo, o cálculo será exatamente o exposto, a seguir:

3, 58  3, 49  3, 47  3, 72  3, 69  3, 34  3, 42  3, 75  3, 53  3, 37
x  3, 54
10
O mesmo procedimento deve ser realizado para as amplitudes, de forma que deter-
minaremos a amplitude média. O cálculo se dá por meio da Equação 3:
R1  R2  ...  Rm
R (3)
m
Em nosso exemplo, o cálculo ocorre da seguinte forma:

0, 63  0, 69  0, 95  0, 65  0, 85  0, 85  0, 93  0, 91  0, 86  0, 74
R  0, 81
10
Os valores de x e R serão peças essenciais na montagem de ambos os gráficos; na
verdade, eles já são, respectivamente, os valores das médias dos gráficos x e R. Os dados
são os valores de x e R que registramos na Tabela 4. Dessa forma, o que nos falta é a
determinação do LIC e do LSC para cada um dos gráficos. Para a determinação dos
limites do gráfico x, deve-se usar as Equações 4 e 5:

LIC  x  A2 * R (4)

LSC  x  A2 * R (5)

Já temos parte dos valores, mas n A2


você deve se perguntar o que 2 1,880
é o termo A2 apresentado nas
3 1,023
Equações 4 e 5. Isso se trata de
4 0,729
um valor tabelado, que depende
do valor de n. A Tabela 5 apre- 5 0,577
senta os valores de A2 para di- 6 0,483
ferentes n. 7 0,419
8 0,373
9 0,337
10 0,308

Tabela 5 - Valores de A2 para n, variando de 2 a 10


Fonte: adaptada de Montgomery (2017).

168
UNIDADE 6

Como temos seis observações para cada amostra, o valor atribuído para A2 é de
0,483. A partir disso, temos todas as condições necessárias para o cálculo do LIC e
do LSC do nosso gráfico x, conforme apresentados a seguir:

LIC  3, 54  0, 483 * 0, 81  3, 15

LSC  3, 54  0, 483 * 0, 81  3, 93

A partir disso, há condições de estruturar o gráfico x. O LIC e o LSC, entretanto,


para o gráfico R são diferentes; assim, os calculados usados são outras incógnitas. Os
devidos cálculos são apresentados nas Equações 6 e 7:

LIC = D3 * R (6)

LSC = D4 * R (7)

Novamente, temos a presença n A2 D3 D4


de incógnitas desconhecidas, 2 1,88 0 3,267
e, mais uma vez, elas são va- 3 1,023 0 2,574
lores tabelados que variam de 4 0,729 0 2,282
acordo com a quantidade de 5 0,577 0 2,114
observações em cada amostra. 6 0,483 0 2,004
A Tabela 6 apresenta os respec- 7 0,419 0,076 1,924
8 0,373 0,136 1,864
tivos dados.
9 0,337 0,184 1,816
10 0,308 0,223 1,777
Tabela 6 - Valores de D3 e D4 para n, variando de 2 a 10
Fonte: adaptada de Montgomery (2017).

Com isso, podemos, enfim, calcular os limites para o gráfico de controle R. Substi-
tuindo as incógnitas apresentadas nas Equações 6 e 7:

LIC 0=
= * 0, 81 0

=LSC 2=
, 004 * 0, 81 1, 62

169
UNICESUMAR

Novamente, os softwares são de grande auxílio na montagem


dos nossos gráficos! Entretanto, neste caso, precisamos ter todos
os dados devidamente tabelados, além de determinar o valor
da média global e da amplitude média. O Microsoft Excel é uma
ferramenta que torna o procedimento para montar os gráficos x e
R muito rápido, e seu uso é sempre recomendado. Para aprender o
passo a passo, é só conferir nossa pílula de aprendizagem!

Enfim, com todos os limites calculados, ambos os gráficos podem ser devidamente estruturados. Os
gráficos x e R, para nosso exemplo, são apresentados, respectivamente, nas Figuras 1 e 2.

4
Peso médio das amostras (g)

3,9
3,8
3,7
3,6
3,5
3,4 Figura 1 - Gráfico x para o peso das cáp-
sulas coletadas por Vicente no exemplo
3,3 apresentado / Fonte: o autor.
3,2
3,1 Descrição da Imagem: um gráfico
3 de controle com 10 amostras varia,
verticalmente, entre 3 e 4. O limite
1 2 3 4 5 6 7 8 9 10 inferior é localizado em 3,15, e o limi-
Número da amostra te superior é localizado em 3,93, com
a média em 3,54. Todos os pontos
estão próximos à média.
Dados Média LIC LSC

1,8
Amplitude do peso entre as unidades

1,6
1,4
1,2
de cada amostra (g)

1 Figura 2 - Gráfico R para a amplitude


0,8 entre os pesos das cápsulas coletadas
por Vicente no exemplo apresentado /
0,6 Fonte: o autor.
0,4
0,2 Descrição da Imagem: um gráfico
de controle com 10 amostras varia,
0 verticalmente, entre 0 e 1,8. O limite
1 2 3 4 5 6 7 8 9 10 inferior é localizado em 0, e o limite
Número da amostra superior é localizado em 1,62, com
a média em 0,81. Todos os pontos
estão próximos à média.
Dados Média LIC LSC

170
UNIDADE 6

Como é possível notar, com uma breve visualização dos gráficos, nas Figuras 1 e 2, ne-
nhum dos pontos ultrapassou os limites estabelecidos por nossos cálculos, tampouco
houve alguma tendência de comportamentos entre os pontos. Isso é algo positivo, pois
mostra um comportamento regular e com variações esperadas. Entretanto, mesmo em
processos controlados, alguns cuidados devem ser tomados!
Para a interpretação dos gráficos, deve-se ter certeza de que a coleta de amostras
ocorreu de forma aleatória, sem premeditar que, apenas, as observações adequadas
foram verificadas. Além disso, deve-se, sempre, analisar o gráfico R, antes do gráfico x,
pois compreender a variação entre as observações tende a trazer uma visão mais apro-
fundada do processo do que a média, e, caso seja identificada alguma falha, é possível
que, ao controlar a amplitude entre as amostras, controle automaticamente o gráfico
das médias, enquanto o contrário tende a ser menos comum (VIEIRA, 2014).
Considerando as situações possíveis, caso sejam encontrados gráficos R e x controla-
dos, o processo poderá seguir normalmente, pois tende a apresentar bom desempenho.
Caso R esteja controlado, e x não esteja, é provável que tenha ocorrido uma causa especial
para variação, a qual deve ser identificada. Há uma grande probabilidade dessa causa ser
alguma mudança pontual no sistema, como um novo operador, um novo maquinário ou
uma nova matéria-prima, ou então uma máquina desregulada. Ainda, assim, consideran-
do que a variação entre as observações não é alta, não há motivo para alarde.
Quando o gráfico R estiver fora de controle, a situação pode ser preocupante. Um
gráfico R inadequado e combinado a um gráfico x controlado indica a existência de uma
causa especial contínua e que deve ser verificada, pois isso afeta a produção de forma
que, enquanto algumas observações apresentam resultados acima do limite de controle
superior, outras atingem marcas abaixo do limite inferior — situação apresentada em
nosso estudo de caso, quando o gráfico x mascarou a situação ruim do processo.
Por último, caso R e x estejam fora de controle, o processo deve ser estudado por
completo, pois a falha não é apenas pontual. A tendência é que haja mais de uma causa
ou, então, que haja uma causa contínua, pois tanto as amostras quanto a continuidade
do processo foram influenciadas negativamente (VIEIRA, 2014).
Como dito, durante a explicação do gráfico x-R, usamos esse modelo de gráfico
quando temos, no máximo, 10 observações por amostra. Caso nosso n seja maior do que
10, a combinação de gráficos de controle será outra, no caso, o gráfico x-s , em que s se
trata do desvio padrão entre as observações coletadas para uma mesma amostra.
Diferente do que foi dito em relação ao gráfico x-R, em que todas as amostras de-
vem ter a mesma quantidade de observações, as amostras do gráfico x-s podem variar
de tamanho, visto que, pelo fato das amostras serem grande, uma unidade não gera
diferença significativa. Entretanto se recomenda, fortemente, que essa variação de
observações não ocorra!

171
UNICESUMAR

A preferência pelo uso do gráfico x-s para amostras de maior composição se dá


pelo fato de que, quando se tem muitas observações, a amplitude deixa de ser uma boa
forma de estimar o valor de s , que, no caso, é o termo usado quando nos referimos ao
desvio padrão populacional, em que são considerados todos os itens produzidos. A
letra s é usada para representar o desvio padrão amostral , em que, pensando na
questão financeira, no tempo e recursos envolvidos, apenas algumas observações são
consideradas. Quando falamos de processos industriais, a vasta maioria das ocasiões
usa o desvio padrão amostral no lugar do populacional (LOUZADA et al., 2013).
A vantagem do gráfico x-s é trazer resultados mais fiéis à realidade do que o gráfico
x-R, visto que são envolvidas mais observações em cada amostra. Mas, pelo mesmo
motivo, mais recursos são utilizados. Sendo assim, quando houver a aplicação dos
gráficos de controle, deve haver um estudo prévio sobre quantas amostras podem
ser usadas, sem que haja perdas significativas. Normalmente, quanto mais regular o
processo, menos observações serão necessárias por amostra.

A quantidade de observações, em cada amostra, é de


extrema importância para que possamos selecionar o
melhor tipo de gráfico de controle para a análise. De que
forma, porém, escolhemos o número de observações? Esse
processo, na verdade, tem como base normas de nível
nacional, as quais são de extrema importância para o CEP.
É essencial que qualquer profissional envolvido com a área
conheça esses documentos e pesquise a respeito deles.
Para saber um pouco mais sobre isso, é só dar o play!

O processo de montagem do gráfico x-s segue praticamente os mesmos passos


que a montagem do gráfico x-R, salvo algumas diferenças pontuais apresentadas,
durante a explicação. Novamente, é interessante apresentar todo o procedimento
com o auxílio de um exemplo.
Dessa vez, Vicente, pensando em ter dados mais fiéis à realidade, decidiu usar
amostras compostas por 12 observações cada. A partir disso, ele usou 120 observa-
ções no total, o que resultou em 10 amostras. A Tabela 7 apresenta as informações
coletadas referentes ao peso das cápsulas, as quais, assim como no exemplo anterior,
devem pesar 3,5 g.

172
UNIDADE 6

Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
 
1 2 3 4 5 6 7 8 9 10

Obs. 1 3,20 4,14 3,24 3,01 2,95 3,90 4,48 3,52 4,47 4,04
Obs. 2 3,61 3,54 3,15 3,10 3,93 3,67 2,89 3,11 3,69 4,45
Obs. 3 3,62 3,22 4,07 2,73 3,26 4,38 4,19 3,45 3,94 3,89
Obs. 4 3,21 3,82 3,42 3,81 3,32 4,87 2,87 3,26 3,71 4,26
Obs. 5 4,00 3,85 3,87 3,51 4,31 3,86 3,48 3,03 3,51 4,36
Obs. 6 3,48 3,20 3,97 3,10 3,10 4,53 4,45 3,31 4,34 4,24
Obs. 7 3,66 3,35 3,08 3,21 3,26 4,08 3,41 3,46 4,13 4,70
Obs. 8 3,99 4,00 3,25 3,32 3,84 4,32 4,17 4,08 3,99 4,18
Obs. 9 3,73 3,40 3,26 3,65 3,27 4,86 4,56 3,81 3,55 4,45
Obs. 10 4,07 3,31 3,15 2,85 3,57 3,97 2,59 4,07 3,72 4,26
Obs. 11 3,88 3,15 4,05 2,95 3,78 3,96 3,44 3,69 3,85 4,80
Obs. 12 3,21 3,80 3,78 2,89 3,78 4,34 3,14 3,24 4,12 4,26

Tabela 7 - Pesos das observações coletadas do processo de produção de cápsulas para o gráfico x-s / Fonte: o autor.

Assim como no exemplo para o gráfico x-R, o primeiro passo, após a coleta dos dados, é determinar a
média entre os dados de cada amostra. Para tanto, usa-se a Equação 1, apresentada durante o exemplo
anterior. Para nossa primeira amostra, a média será determinada com o seguinte cálculo:

3, 20  3, 61  3, 62  3, 21  4, 00  3, 48  3, 66  3, 99  3, 73  4, 07  3, 88  3, 21
x1   3, 64
12
3, 20  3, 61  3, 62  3, 21  4, 00  3, 48  3, 66  3, 99  3, 73  4, 07  3, 88  3, 21
x1   3, 64
12
Novamente, o processo deve ser realizado para cada uma das 10 amostras envolvidas, com os resultados
anotados continuamente. O segundo passo é um dos pontos em que a montagem do gráfico x-s se
diferencia do gráfico x-R, pois, dessa vez, determina-se o desvio padrão entre as observações de cada
amostra. Para isso, usa-se a Equação 8.

1 n
si   ( xij  xi )2
n  1 j 1
(8)

Na equação, i varia de 1 a m, este é o número de amostras envolvidas; no caso do nosso exemplo, 10. O
cálculo tende a se tornar muito longo e demorado, quando há muitas observações envolvidas, portanto,
recomenda-se o uso de softwares para a determinação do desvio padrão de cada amostra. Calculadoras
científicas também podem chegar ao resultado, sem tomar muito tempo. Assim, a média e desvio
padrão de cada amostra são apresentados na Tabela 8, considerando os devidos arredondamentos.

173
UNICESUMAR

  Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10

Obs. 1 3,20 4,14 3,24 3,01 2,95 3,90 4,48 3,52 4,47 4,04
Obs. 2 3,61 3,54 3,15 3,10 3,93 3,67 2,89 3,11 3,69 4,45
Obs. 3 3,62 3,22 4,07 2,73 3,26 4,38 4,19 3,45 3,94 3,89
Obs. 4 3,21 3,82 3,42 3,81 3,32 4,87 2,87 3,26 3,71 4,26
Obs. 5 4,00 3,85 3,87 3,51 4,31 3,86 3,48 3,03 3,51 4,36
Obs. 6 3,48 3,20 3,97 3,10 3,10 4,53 4,45 3,31 4,34 4,24
Obs. 7 3,66 3,35 3,08 3,21 3,26 4,08 3,41 3,46 4,13 4,70
Obs. 8 3,99 4,00 3,25 3,32 3,84 4,32 4,17 4,08 3,99 4,18
Obs. 9 3,73 3,40 3,26 3,65 3,27 4,86 4,56 3,81 3,55 4,45
Obs. 10 4,07 3,31 3,15 2,85 3,57 3,97 2,59 4,07 3,72 4,26
Obs. 11 3,88 3,15 4,05 2,95 3,78 3,96 3,44 3,69 3,85 4,80
Obs. 12 3,21 3,80 3,78 2,89 3,78 4,34 3,14 3,24 4,12 4,26
Média 3,64 3,57 3,52 3,18 3,53 4,23 3,64 3,50 3,92 4,32
Desv. P. 0,32 0,34 0,39 0,34 0,40 0,39 0,70 0,35 0,30 0,25
Tabela 8 - Média e desvio padrão dos pesos de cada amostra / Fonte: o autor.

Após a determinação da média e do desvio padrão de cada uma das etapas, o próximo passo segue a
mesma ideia do que foi realizado no gráfico x-R, que é a determinação da média global e do desvio
padrão médio. O cálculo para a média global segue a Equação 2, apresentada anteriormente, de forma
que nosso exemplo atual terá o seguinte resultado:

3, 64  3, 57  3, 52  3, 18  3, 53  4, 23  3, 64  3, 50  3, 92  4, 32
x  3, 70
10
O cálculo do desvio padrão médio seguirá um raciocínio similar, sendo determinado com base na
Equação 9:
s1  s2  ...  sm
s (9)
m
Para o nosso exemplo, usando a Equação 9, o cálculo se dará conforme a seguir:

0, 32  0, 34  0, 39  0, 34  0, 40  0, 39  0, 70  0, 35  0, 30  0, 25
s  0, 38
10
O resultado igual a 0,38 é arredondado e, consequentemente, pode haver desvios em duas casas, após
a vírgula, nos resultados dos cálculos que estão por vir para este exemplo. O uso de duas casas, após a
vírgula, em nossos exemplos, é para fins didáticos, mas, na prática, você pode considerar quantas casas
decimais forem necessária para que o gráfico apresente margens seguras.

174
UNIDADE 6

A partir destes cálculos, temos os valores referentes à média e aos dados de cada um
dos gráficos x-s. Entretanto, assim como discutido, desde a unidade anterior, sabemos que,
ainda, precisamos determinar os limites de controle para cada um dos gráficos. Assim
como ocorreu no gráfico x-R, os limites de controle dependem de valores tabelados. Para
o gráfico x, o LIC e o LSC são, respectivamente, calculados por meio das Equações 10 e 11:

LIC  x  A3 * s (10)

LSC  x  A3 * s (11)

Já para o gráfico s, o LIC e o LSC são dados por meio das Equações 12 e 13:

LIC = B3 * s (12)

LSC = B4 * s (13)

Os valores de A3 , B3 e B4 , as- n A3 B3 B4
sim como ocorre para os valores
6 1,287 0,03 1,97
usados no gráfico x-R, são depen-
7 1,182 0,118 1,882
dentes da quantidade de observa-
8 1,099 0,185 1,815
ções utilizadas em cada amostra,
ou seja, do valor n, de forma que 9 1,032 0,239 1,761
a quantidade de amostras é indi- 10 0,975 0,284 1,716
ferente nesse sentido. Para amos- 11 0,927 0,321 1,679
tras com até 16 observações, tais 12 0,886 0,354 1,646
valores podem ser encontrados
13 0,85 0,382 1,618
na Tabela 9.
14 0,817 0,406 1,594
Como o n de nosso exemplo
é igual a 12, nosso A3 será igual a 15 0,789 0,428 1,572

0,886. Dito isso, podemos calcular 16 0,763 0,448 1,552


o LIC e o LSC do gráfico, usando as Tabela 9 - Valores de A3, B3 e B4 para diferentes valores de n
já apresentadas Equações 10 e 11. Fonte: adaptada de Montgomery (2017).

LIC  3, 70  0, 886 * 0, 38  3, 36

LSC  3, 70  0, 886 * 0, 38  4, 04

175
UNICESUMAR

Tratando-se do gráfico s, identificamos na tabela, também, para n igual a 12, que B3 é


igual a 0,354 e B4 é igual a 1,646, o que nos dá condições para determinar o LIC e o LSC.
Assim, usamos as Equações 12 e 13 para nossos cálculos:

=LIC 0=
, 354 * 0, 38 0, 13

=LSC 1,=
646 * 0, 38 0, 62

Com base nos resultados encontrados, finalmente, temos condições para produzir nossos
gráficos de controle x-s. O gráfico x é apresentado na Figura 3:

4,40
Peso médio das amostras (g)

4,20
4,00
3,80
3,60
3,40
3,20
3,00
1 2 3 4 5 6 7 8 9 10
Número da amostra

Dados Média LIC LSC

Figura 3 - Gráfico x para o peso das amostras coletadas por Vicente no exemplo apresentado / Fonte: o autor.

Descrição da Imagem: um gráfico de controle com 10 amostras varia, verticalmente, entre 3 e 4,4. O limite inferior
é localizado em 3,36 e o limite superior é localizado em 4,04, com a média em 3,70. A maioria dos pontos referen-
tes às amostras está próxima à média, com o ponto 4 abaixo do limite inferior e os pontos 6 e 10 acima do limite.

É perceptível que temos três pontos que fogem de nossos limites, no caso, os pontos 4, 6
e 10. Em uma análise superficial, já sabemos que algum problema acontece no processo,
o qual não parece ser pontual, visto que envolveu três amostras compostas por várias
unidades. Entretanto não devemos nos precipitar.
Assim como é feito com o gráfico x-R, a análise do gráfico s deve vir antes da análise
do gráfico x, pois conhecer o desvio entre os dados nos dá uma maior compreensão sobre
a situação do que checar a média. Dito isso, o gráfico para análise do desvio padrão entre
as observações é apresentado na Figura 4.

176
UNIDADE 6

das unidades de cada amostra (g)


0,80

Desvio padrão entre os pesos


0,70
0,60
0,50
0,40
0,30
0,20
0,10
0,00
1 2 3 4 5 6 7 8 9 10
Número da amostra

Dados Média LIC LSC


Figura 4 - Gráfico s para o desvio padrão entre os pesos das cápsulas coletadas por Vicente no exemplo apre-
sentado / Fonte: o autor.

Descrição da Imagem: um gráfico de controle com 10 amostras varia, verticalmente, entre 0 e 0,8. O limite inferior
é localizado em 0,13 e o limite superior é localizado em 0,62, com a média em 0,38. A maioria dos pontos referentes
às amostras está próximo à média, com o ponto 7 acima do limite superior.

O gráfico s, também, tem um ponto fora de controle, o que definitivamente nos dá


indícios de problemas no processo. Vale citar que a amostra cujo desvio padrão ficou
acima do limite foi a de número 7, a qual, no gráfico x, apresentou média muito próxima
do esperado. Isso é uma preocupação a mais, pois só foi possível perceber a variação a
partir do gráfico do desvio padrão; caso contrário, o problema teria sido mascarado pela
média adequada.
O processo analisado por Vicente, provavelmente, apresenta mais de uma origem
para a falha, pois tivemos ao menos um ponto fora de controle em ambos os gráficos.
Isso exige atenção por parte da equipe, pois a situação definitivamente não é agradável.
Ainda, em relação ao gráfico x-s, há mais um adendo interessante que pode ser útil
em situações práticas! Os dados que temos são uma amostra da população total, o que
significa que nossos resultados são apenas uma estimativa da realidade, ou seja, o valor
de s não representa, necessariamente, o desvio padrão real entre os dados populacionais,
apesar de corresponder a uma parcela grande o suficiente para ser considerado próximo
do correto. Para que soubéssemos o real valor, seria preciso coletar todos os dados, algo
que exigiria muito tempo e recursos.
Há, porém, uma forma de se estimar o desvio padrão populacional, tendo como base
s , e só é necessário realizar um cálculo simples. Para tanto, basta usar a Equação 14:

s
s = (14)
c4

177
UNICESUMAR

Em que s é o desvio padrão estimado, enquanto c4 é um fator de n c4


correção e, novamente, um valor tabelado que depende do valor 6 0,9515
de n. A Tabela 10 apresenta o fator de correção para valores de n,
7 0,9594
variando de 6 a 16:
8 0,9650

Para o exemplo abordado anteriormente, temos c4 igual a 0,9776, já 9 0,9693

que temos 12 observações por amostra. A partir disso, temos nosso 10 0,9727
desvio padrão estimado calculado da seguinte forma: 11 0,9754
12 0,9776
0, 38
=s = 0, 39 13 0,9794
0, 9776
14 0,9810
Dessa forma, pode-se estimar que o desvio padrão populacional,
15 0,9823
sempre, será um pouco maior do que o desvio padrão médio, pois o
16 0,9835
valor de c4 é sempre um pouco abaixo de 1. Esse dado não é obriga-
tório para o cálculo dos limites de controle dos gráficos, entretanto Tabela 10 - Valores de c4 para diferen-
tes valores de n / Fonte: adaptada de
é possível utilizá-lo no lugar de s , nas Equações 10, 11, 12 e 13. Montgomery (2017).

Quer ver mais sobre a aplicação prática de gráficos de controle?


Há diversos artigos disponíveis na internet que tratam de análises
realizadas, usando essa ferramenta! Um ótimo exemplo é o artigo
“Monitoramento estatístico do processo de acondicionamento de
embutidos por meio de gráficos de controle”, que utiliza tanto o re-
cém-apresentado gráfico x-s quanto os gráficos de soma cumulativa
e de média móvel exponencialmente ponderada, discutidos em nossa
próxima unidade!
Para acessar, use seu leitor de QR Code.

Antes de encerrarmos o conteúdo da nossa unidade, é importante reforçar que gráficos de controle
para atributos e para variáveis podem ser usados em um mesmo processo, de forma simultânea. Como
ambos analisam informações de naturezas diferentes, um não tende a interferir de forma negativa
sobre o outro, inclusive, os gráficos podem colaborar mutuamente para uma análise mais completa,
pois podemos compreender quantos defeitos ocorrem e qual a magnitude de cada um deles.

178
UNIDADE 6

Os gráficos x-R e x-s são aqueles mais presentes na prática. Entendemos que a média entre
os dados, por mais que seja algo absolutamente importante, nem sempre é suficiente para
nos mostrar tudo que precisamos ver. A amplitude é muito útil para analisar a variação na
produção, quando temos poucas observações envolvidas, o que faz com que o processo seja a
escolha da maioria das empresas, visto que, por usarmos menos observações, são aproveitadas
mais unidades produzidas para a venda. Por outro lado, o desvio padrão traz resultados mais
próximos da realidade, tornando nossos gráficos mais próximos do que seriam, se tivéssemos
observado todas as unidades produzidas.
A quantidade de observações em cada amostra costuma ser definida pela liderança da empresa,
mas é embasada em normativas, como as NBR 5426, “Planos de amostragem e procedimentos na
inspeção por atributos”, e 5429, “Planos de amostragem e procedimentos na inspeção por variáveis”.

Os gráficos para variáveis apresentam informações muito relevantes, pois nos dão uma forma de saber o
quanto nossas amostras variam em comparação umas às outras. Entretanto será que, ainda, falta analisar
algum aspecto dos processos? Você refletiu sobre isso durante nossa unidade, conforme sugerido no início?
Pois bem, ainda, há algo que não é levado em conta pelos gráficos x-R e x-s, que é o quanto uma
amostra afeta a amostra seguinte. Em um processo ideal, sabemos que cada amostra é produzida de
maneira independente em relação à anterior e à seguinte, todas são idênticas e passam por condições
iguais de produção. Entretanto, também, sabemos que é impossível ter um cenário totalmente ideal,
então, há, sim, influência entre as amostras, por menor que ela possa ser, e isso tem algum efeito sobre
a produção em algum momento.
Há gráficos de controle projetados, exatamente, com essa finalidade, buscando compreender o impacto
que cada unidade tem sobre a seguinte e verificar se o erro é algo que se arrasta durante o processo como
um todo. Eles são assunto, em nossa próxima unidade!
O que vimos, durante esta unidade, chega a ser, ainda, mais frequente do que nosso assunto da uni-
dade anterior! Os gráficos de controle para variáveis são muito presentes na indústria de modo geral,
pois expõem a variação entre as observações e nos entregam informações que o gráfico referente às
médias não nos daria.
Qualquer análise relacionada a dados que seguem uma escala contínua pode ter os gráficos para
variáveis como sua principal fonte de informações. As demais ferramentas da qualidade estudadas, du-
rante o material, podem ser atreladas a esses processos, com as folhas de verificação, tendo uma relação
clara com o gráfico de controle.
O gráfico de controle servirá como uma espécie de gatilho para que as demais ferramentas sejam
utilizadas, afinal, essa é a ferramenta que nos confirmará que algo de errado acontece, fazendo com que
as demais busquem identificar o que, de fato, causa essa falha.

179
Para fixar o conteúdo que vimos, durante a unidade, que tal preencher o mapa mental? Dessa
vez, a relação com a unidade anterior é perfeitamente visível, então é interessante que você che-
que seu mapa mental e o conteúdo visto anteriormente. Desse modo, é necessário definir quais
são as semelhanças e as diferenças entre os gráficos de controle para atributos e para variáveis!
Apresente, portanto, a estrutura de cada um deles e, principalmente, em quais situações cada um
deve ser utilizado. Em seguida, como nosso foco foram dois dos gráficos para variáveis, podemos
tratar dos gráficos x-R e x-s de forma mais específica. Apresente as vantagens de usar esses dois
gráficos, o significado de cada um deles e as principais diferenças entre ambos!

...para atributos
GRÁFICOS DE
...para variáveis CONTROLE

Gráfico x-R Gráfico x-s

Descrição da Imagem: quadro com o escrito “gráficos de controle”, com separações para outros dois quadros, um com o escrito
“para atributos” e outro com o escrito “para variáveis”. O escrito “para variáveis” se divide em outros dois quadros, um com o escrito
“gráficos x-R” e outro com o escrito “gráficos x-s”.

180
1. Geralmente, gráficos de controle envolvem registros cronológicos regulares (dia a dia,
hora a hora etc.) de uma ou mais características calculadas, as quais são obtidas com
base em medições em fases apropriadas do processo. Estes valores são organizados em
grupos e dispostos, pela sua ordem, em um gráfico constituído por uma linha central e
dois limites, denominados “limites de controle”. Entre os tipos de gráficos de controle
mais usados, temos os gráficos x-R e x-s, sendo que cada um pode ser aplicado a uma
situação diferente. A respeito desses gráficos, assinale a alternativa correta:
a) O que diferencia os gráficos x-s e x-R é o fato de que, enquanto o primeiro trata da
amplitude entre os dados, o segundo considera o desvio padrão entre eles.
b) A quantidade de dados coletados não deve interferir na escolha do melhor gráfico
de controle a ser usado, pois o que realmente importa é a frequência com que estes
dados são coletados.
c) O gráfico x-R dá resultados mais próximos da realidade, visto que a amplitude é uma
medida mais adequada que o desvio padrão para determinar a variação entre obser-
vações.
d) Caso tenhamos 20 amostras com 8 observações em cada, o gráfico x-s, definitivamente,
seria a melhor opção para analisar o processo.
e) Em situações, nas quais têm-se 15 dados, compondo cada ponto do gráfico, indica-se
o uso do gráfico x-s, já que o uso do desvio padrão tende a ser mais eficiente do que
o uso da amplitude para amostras maiores.

2. Equipamentos laboratoriais devem ter seu peso conhecido, pois isso evita qualquer
desvio nos resultados obtidos por meio dos experimentos. A seguir, apresentam-se os
dados referentes ao peso, em gramas, de diversas amostras de bisnagas usadas para
injetar água em misturas.

Amostra 1 2 3 4 5 6 7 8
86 81 84 80 82 85 89 80
86 81 83 88 83 89 84 83
80 90 81 80 86 87 87 86
82 84 82 80 80 86 90 87
85 83 87 90 83 86 88 86
Fonte: o autor

Com base nos dados apresentados na tabela, determine o LIC e o LSC para o gráfico x.

181
3. Uma empresa fabrica embalagens de biscoitos recheados, as quais devem ter em tor-
no de 140 gramas. Na tabela, a seguir, são apresentadas as amostras coletadas para
análise por parte da empresa.

Amostra 1 2 3 4 5 6 7 8
  154 141 138 147 154 138 145 150
  135 159 144 156 136 143 141 144
  137 154 145 137 154 144 138 160
  139 149 136 164 137 139 135 149
  140 154 137 138 144 155 145 139
  145 153 158 154 140 141 141 151
  165 137 161 135 162 148 159 142
  159 151 165 152 147 163 135 158
  149 151 149 152 160 151 165 136
  164 142 152 142 149 155 143 162
  149 142 150 141 161 151 150 160
Fonte: o autor

Com base nos dados expostos, monte o gráfico mais adequado para a análise desse
processo.

4. Gráficos de controle para atributos e para variáveis têm estruturas similares, mas
devem ser usados em situações diferentes. O foco dos gráficos para variáveis é traba-
lhar com base em escalas contínuas, enquanto o foco dos gráficos para atributos é a
quantificação de defeitos. A seguir, estão apresentadas quatro situações que podem
ser analisadas com base em gráficos de controle.
I) Tempo gasto para ônibus fazerem uma mesma rota.
II) Verificação de quantos celulares foram produzidos com condições adequadas de uso.
III) Quantidade de açúcar utilizado para a produção de refrigerantes.
IV) O comprimento de diversos pregos produzidos, em um determinado dia.

São situações que exigem o uso de um gráfico de controle para variáveis:


a) III, apenas.
b) I e II, apenas.
c) I, III e IV, apenas.
d) II, III e IV, apenas.
e) e) I, II, III e IV.

182
5. A seguir são apresentados os gráficos de controle x-s referentes a um processo específico.

Gráfico x
155,00
150,00
145,00
Valores médios

140,00
135,00
130,00
125,00
120,00
1 2 3 4 5 6 7 8
Número da amostra

Dados LIC LSC Média

Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se
em uma altura próxima a 126. A segunda linha também é horizontal e encontra-se na altura 139. A terceira, que indica o
limite superior, também, é horizontal e encontra-se na altura próxima a 152. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.

Gráfico s
30,00
Desvio padrão entre os dados

25,00
20,00
das amostras

15,00
10,00
5,00
0,00
1 2 3 4 5 6 7 8
Número da amostra

Dados LIC LSC Média

Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se em uma altura próxima a 4. A segunda linha também é horizontal e encontra-se na altura 13. A terceira, que indica o
limite superior, também é horizontal e encontra-se na altura próxima a 22. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, com um ponto estando acima da linha de limite superior e outro ponto
abaixo da linha de limite inferior.

183
Interprete os gráficos e analise as afirmações feitas a seguir.
I) O gráfico s deve ser interpretado antes do gráfico x, pois é interessante que saiba-
mos a variação entre os dados de uma mesma amostra, antes de conhecermos as
médias do processo.
II) O gráfico x por si só já seria suficiente para compreendermos a situação do processo.
III) O gráfico s apresenta dados fora de controle e o gráfico x indica um processo den-
tro do esperado, portanto, isso indica que o processo não está em uma situação
adequada.
IV) Foram usadas mais de 15 observações em cada uma das amostras.

É correto o que se afirma em:


a) I, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, III e IV, apenas.
e) II, III e IV, apenas.

184
185
186
7
Gráficos de Soma
Cumulativa e Média
Móvel Exponencialmente
Ponderada
Me. Paulo Otávio Fioroto

Continuidade sobre os gráficos de controle para variáveis, tra-


tando sobre a montagem e a interpretação de gráficos de ampli-
tude móvel, soma cumulativa e média móvel exponencialmente
ponderada, além da disponibilização de tabelas necessárias para
a estruturação deles.
UNICESUMAR

Na unidade anterior, falamos sobre os gráficos de controle para variáveis, os quais nos
dão conhecimento mais aprofundado sobre certos aspectos do processo produtivo do
que os gráficos de controle para atributos. Há, entretanto, um aspecto que, ainda, não foi
analisado, que é a influência que uma observação tem sobre a seguinte.
Suponha uma situação na qual abordamos uma linha de produção de biscoitos re-
cheados. Cada um deles deve ter 8 gramas de recheio em sua composição, mas sabemos
que haverá uma margem de variação entre cada unidade. Isso faz com que uma unidade
do biscoito receba um pouco mais de recheio do que deveria. Esse fato será compensado
na unidade seguinte, que receberá uma quantidade menor do que o esperado, isso já é
suficiente para mostrar que uma unidade pode, definitivamente, ter influência sobre a
seguinte. Essa variação, entretanto, pode continuar acontecendo! A discrepância ocorrida
na primeira unidade pode impactar uma eventual terceira unidade produzida, assim como
a quarta unidade e as posteriores, o que pode desorganizar toda a etapa de produção.
No início, um excesso de 0,1 g no recheio de um biscoito pode não parecer muita
coisa. Porém uma pequena variação, no início da produção, pode resultar em mudanças
drásticas nas últimas unidades, criando o chamado efeito “bola de neve”, em que as falhas
se acumulam com o passar do tempo, isso faz o controle sobre a situação ser perdido.
Ao final, pode acontecer de serem produzidos menos biscoitos do que o planejado, pois
o recheio que seria usado na produção das últimas unidades já terá sido aplicado na
produção das primeiras. Vale reforçar que a variação nem sempre é a mesma, ela pode se
consertar sozinha com o tempo ou pode, até mesmo, tomar proporções muito maiores
do que o esperado!
Sendo assim, de que forma podemos mensurar e controlar o impacto que uma uni-
dade tem sobre aquela que será produzida em seguida? Ou, ainda, há como verificar se o
impacto afeta as unidades produzidas posteriormente?
Nesta unidade, nosso estudo de caso tratará de Diogo, um engenheiro químico que
atua em uma grande fábrica de produtos de limpeza, a Jacarandá, focando majoritaria-
mente nas linhas de produção. A Jacarandá trabalha com produtos de diversas catego-
rias, sendo o carro-chefe seus detergentes, que são vendidos em todo o Brasil. Por conta
disso, há diversas fábricas e centros de distribuição ao redor do país, de forma a suprir
sua enorme demanda.
Diogo já tem certa experiência com a linha de produção, pois atua na Jacarandá, desde
quando era um estagiário. Reclamações por parte dos clientes são recorrentes, visto que
uma empresa de grande porte certamente comete algumas falhas pontuais, mas nunca
foram um problema drástico. A demanda sempre foi bem atendida, com as quantidades
produzidas, correspondentes ao necessário.
Recentemente, porém, a empresa tem recebido reclamações por parte de seus clientes
diretos, no caso, redes de supermercados que vendem seus produtos. Uma das redes sinali-
zou que havia adquirido três mil garrafas para serem vendidas, durante o mês, mas recebeu

188
UNIDADE 7

em torno de duas mil e oitocentas unidades. O volume produzido para


suprir essa demanda foi mais do que suficiente, havendo, inclusive, uma
pequena margem produzida em excesso, como segurança. Apesar disso,
ainda, houve menos unidades produzidas.
Como um funcionário experiente, Diogo sabe que deve confiar nos
dados coletados pelos operadores. De fato, as informações registradas
corroboram com a suspeita de que algumas garrafas não estavam sendo
devidamente enchidas, ficando com volume em excesso, quando com-
parado ao esperado.
A margem de erro estabelecida pela empresa é de 1% para mais ou
para menos do volume apresentado na embalagem, ou seja, qualquer
quantidade entre 495 mL e 505 mL seria considerada sob controle.
Algumas unidades acabaram com um volume um pouco acima
do limite superior, mas nenhuma delas ultrapassou a marca de
512 mL. Isso não deveria ser algo tão preocupante.
Em um primeiro momento, Diogo pensou que não haveria
como uma variação tão pequena de volume ter resultado em
um problema tão grande. Afinal, é normal ter algumas
falhas no processo. Sendo assim, ele decidiu verificar
a linha de produção por conta própria, sob a ideia
de que, olhando de perto, poderia ver alguma coisa
diferente. Foi no chão de fábrica, verificando a etapa
de enchimento das garrafas, que Diogo entendeu o que,
de fato, ocorria. Não eram apenas algumas poucas garrafas
que estavam com volume em excesso, mas sim a maioria
delas. A cada dezena de garrafas, seis delas continham
um volume de detergente acima dos 500 mL, enquanto
uma acabava com menos de 480 mL. Além disso, uma
parcela do produto era perdida, pois escorria para fora das
embalagens durante o enchimento. Isso representou uma
perda muito grande, o equivalente a mais de 5% daquilo
que havia sido produzido.
Caso isso ocorresse em apenas algumas unidades, não
representaria um problema grave. O problema, no entan-
to, referia-se ao acúmulo de perdas e excessos. Individual-
mente, a maioria das garrafas estava dentro dos limites
esperados, mas, em uma análise coletiva, identificou-se
que o processo como um todo foi impactado, de forma
a reduzir, até mesmo, a quantidade de itens produzidos.

189
UNICESUMAR

O problema pôde ser solucionado por Diogo, apenas, com o ajuste do maquinário,
mas o dano já havia sido feito, e a produção impactada ao ponto de serem produzidas
menos unidades, o que trouxe prejuízos tanto para a empresa quanto para o mercado,
que finalizou o mês com o produto em falta.
A partir de então, foi decidido que a análise deveria levar em conta não apenas
amostras individuais, mas também o impacto que cada unidade causaria na seguinte,
tornando a consequência das falhas e as variações mais visíveis do que eram anterior-
mente. Depois desse evento, decidiu-se aplicar o gráfico de controle de soma cumulativa,
pois isso agilizaria a identificação da existência de falhas.
Que tal fazer um teste em sua casa para verificar o quanto o cumprimento dos
limites esperados é importante? Os itens necessários, provavelmente, podem ser en-
contrados sem muito esforço em sua casa. Primeiramente, encha uma jarra ou garrafa
plástica com água, pode ser a da torneira. Uma garrafa pet de 2 L é suficiente para essa
experimentação.
Em seguida, pegue cinco copos. Você deve distribuir o volume igualmente entre to-
dos eles, ou seja, 400 mL para cada, mas não deve usar um item para medição, buscando
obter os resultados corretos apenas com seu olhar. Ao terminar de encher um copo,
você não pode retornar até ele. Todos os 2 L de água devem ser despejados nos copos.
Sem um instrumento para determinar o volume de água despejado em cada copo,
é complicado atingir o volume exato. É muito provável que, ao chegar no último copo,
tenha havido excesso ou falta de água. Isso ocorreu porque os desvios ocorridos nos
copos anteriores afetaram os seguintes.
Com o experimento proposto, é possível determinar o impacto que um erro
anterior causa em uma unidade futura. Com cinco copos, já é possível que tenha
ocorrido uma variação entre cada um dos volumes. Imagine, então, em uma linha
de produção, na qual são produzidas centenas de unidades diariamente!
Em uma linha de produção não se pode voltar atrás; então, o sistema de produção
busca compensar as falhas ocorridas, ao despejar mais ou menos detergente nas gar-
rafas seguintes. Para o maquinário, essa compensação faz sentido, enquanto, para os
olhos e o raciocínio humano, isso se torna uma situação, até mesmo, pior do que caso
não houvesse a tentativa de compensação. Afinal, caso isso não acontecesse, haveria
apenas uma unidade com falha ao invés de duas.
Novamente, realize a mesma ação feita anteriormente com a garrafa de 2 L e os
copos, mas, caso seja possível, utilize uma marcação para indicar o volume exato que
está sendo preenchido em cada um dos copos. Você, ainda, não pode voltar atrás caso
cometa algum erro, e todo o volume de água deve ser despejado.

190
UNIDADE 7

É muito provável que o seu último copo, ainda, tenha sofrido uma variação em
relação aos demais, mas ela certamente terá sido menor do que a da situação anterior.
Essa é exatamente a forma com a qual diversos maquinários da indústria enxergam
o processo, eles sabem o quanto é despejado na embalagem, mas, ainda assim, por
conta de erros do próprio sistema, variações ocorrem naturalmente. Conforme dito
diversas vezes neste material, nenhum processo é 100% perfeito.
O desejável é que toda unidade produzida corresponda exatamente ao que se
espera e, caso haja algum erro, espera-se que isso não impacte no que será produzido
em seguida. É com base nesse raciocínio e com a intenção de controlar e mensurar
esse impacto que daremos andamento à nossa unidade.

DIÁRIO DE BORDO

191
UNICESUMAR

Para que esse controle seja possível, usaremos a ferramenta com a qual estivemos traba-
lhando nas duas unidades anteriores, que é o gráfico de controle. Entretanto os cálculos
envolvidos nos gráficos que analisaremos, agora, fogem daquilo que estudamos, envol-
vendo algumas variáveis novas. Essas novas variáveis serão aplicadas, justamente, como
forma de compensar o ponto citado ao final de nossa unidade anterior, que é o desco-
nhecimento do impacto que cada unidade produzida tem sobre as unidades seguintes.
Sendo assim, trataremos de três modalidades de gráficos de controle durante nossa
unidade atual. A primeira, mais similar aos gráficos passados na unidade anterior, é o grá-
fico de amplitude móvel, popularmente conhecido como gráfico x-AM. Ele servirá como
base para os formatos que trataremos posteriormente, que são o gráfico de soma cumu-
lativa (CUSUM) e o gráfico de média móvel, exponencialmente, ponderada (MMEP).
Esses modelos de gráficos são chamados de gráficos ponderados pelo tempo, pois
comparam as unidades anteriores com as unidades futuras. Uma diferença muito grande
entre eles e aqueles gráficos que tratamos anteriormente está no fato de que, enquanto
aqueles já estudados tratam de amostras compostas por mais de uma observação, aqueles
que discutiremos durante essa unidade utilizam apenas uma observação por amostra.
Isso os torna muito mais sensíveis a pequenas variações no processo, fazendo com que
sejam boas opções para identificação de falhas pontuais (MONTGOMERY, 2017).
Vamos, então, iniciar nossa abordagem sobre o gráfico x-AM. Suas principais apli-
cações ocorrem em casos nos quais todas as unidades produzidas são analisadas, o que
ocorre, principalmente, quando a quantidade de unidades produzidas é muito baixa,
ao ponto de não ser interessante reuni-las em amostras com mais de uma observação.
Assim como os gráficos x-R e x-s, são utilizados dois gráficos. O primeiro gráfico, x,
trata da média entre os dados, enquanto o segundo, AM, trata da amplitude móvel entre os
mesmos dados. Quanto ao gráfico x, a diferença em relação àqueles tratados anteriormente
mora no fato de que não é necessário calcular x , já que, como cada amostra corresponde
a uma unidade individualizada, não é preciso calcular a média entre as observações.
A amplitude móvel se trata da variação entre dois dados seguidos, sendo determinada
com base na Equação 1:

AM i  xi  xi 1 (1)

192
UNIDADE 7

Para exemplificar o cálculo, considere um caso em que seja analisado o volume de deter-
gente em amostras sucessivas de garrafas do produto, e sejam coletadas três unidades. A
primeira unidade tem volume igual a 500 mL, a segunda tem volume igual a 497 mL e a
terceira contém 505 mL. A amplitude móvel entre a primeira e a segunda amostra será
igual a 3 mL, pois o cálculo é de 497 menos 500 mL. Como a amplitude móvel sempre é
positiva, então o resultado que seria igual a -3 torna-se 3 mL.
Já a segunda amplitude móvel será igual ao volume da terceira garrafa subtraído do
volume da segunda garrafa, ou seja, 505 menos 497 mL, resultando em 8 mL. O raciocínio
continuará até que haja um comparativo entre a última e a penúltima amostra coletada.
Para apresentar a montagem e a interpretação dos gráficos, apresentamos um exemplo.
Em uma fabricante de móveis, sabe-se que o peso das cadeiras de um modelo específico
deve ser de 8 kg. Os móveis são produzidos manualmente, o que abre margem para al-
gumas falhas, além de tornar a produção mais lenta do que um processo industrializado.
São produzidas, em média, 26 cadeiras por dia. Os pesos das cadeiras finalizadas em um
dia normal de trabalho estão indicados na Tabela 1.

Peso Peso Podemos iniciar a montagem pelo


Amostra Amostra
(kg) (kg)
gráfico x. O primeiro passo após
1 7,70 14 7,60 a coleta de dados é determinar a
2 8,56 15 7,78 média do peso entre as amostras,
3 7,77 16 8,10 o que pode ser feito por meio da
4 8,54 17 7,83 Equação 2:
5 7,80 18 7,83
x1  x2  ...  xm
6 8,02 19 8,00 x (2)
7 7,68 20 8,01
m
8 8,21 21 7,83 No caso do nosso exemplo, a média
9 8,17 22 7,90 é de 7,95 kg. Essa será a média do
10 7,94 23 8,19 nosso gráfico x. O segundo passo se
11 8,03 24 7,75 baseia em determinar a amplitude
12 7,74 25 8,08 móvel (AM) entre cada par conse-
13 8,04 26 7,61 cutivo de amostras. As AM estão
Tabela 1 - Pesos de cadeiras produzidas em um dia registradas na Tabela 2.
Fonte: o autor.

193
UNICESUMAR

Amostra Peso (kg) AM Com as AM calculadas, deve-se determinar a


média entre elas. Isso pode ser feito com base na
1 7,70  
Equação 3.
2 8,56 0,86
AM 1  AM 2  ...  AM m
3 7,77 0,79 AM  (3)
m 1
4 8,54 0,77
Note que não há um valor de AM estabelecido
5 7,80 0,74
para a primeira amostra. Isso ocorre devido à
6 8,02 0,22
ausência de uma amostra para que seja feito o
7 7,68 0,34 comparativo. Por conta disso, no momento do
8 8,21 0,53 cálculo da AM , deve ser dividido por m-1, já
9 8,17 0,04
que temos apenas 25 valores, e não 26, para a AM.
Para nosso exemplo, o resultado será igual a 0,33.
10 7,94 0,23
Esse valor será importante para que possamos
11 8,03 0,09 calcular o LIC e o LSC dos dois gráficos, que é
12 7,74 0,29 justamente o nosso próximo passo. Para o LIC e
13 8,04 0,30 o LSC do gráfico x, são utilizadas as Equações 4
e 5, respectivamente.
14 7,60 0,44
AM
15 7,78 0,18 LIC  x  3 *
d2 (4)
16 8,10 0,32
AM (5)
17 7,83 0,27 LSC  x  3 *
d2
18 7,83 0,00
19 8,00 0,17
Entre os termos necessários, só nos resta encon-
20 8,01 0,01 trar o valor de d2 , o qual é tabelado. Entretanto,
21 7,83 0,18 quando se trata do gráfico x-AM, esse valor tem
22 7,90 0,07 uma particularidade. Tratamos de uma situação
na qual cada amostra é composta por uma única
23 8,19 0,29
observação, mas, como não existe um valor tabela-
24 7,75 0,44 do de d2 para n=1, usaremos sempre o valor para
25 8,08 0,33 n=2; sendo assim, quando estivermos falando
26 7,61 0,47 do gráfico x-AM, nosso d2 sempre será igual a
1,128. Os valores de d2 para diferentes tamanhos
Tabela 2 - Amplitudes móveis entre os pesos das cadeiras
produzidas / Fonte: o autor. de amostra são apresentados na Tabela 3.

194
UNIDADE 7

n d2 D3 D4
2 1,128 0 3,267
3 1,693 0 2,574
4 2,059 0 2,282
5 2,326 0 2,114
6 2,534 0 2,004
7 2,704 0,076 1,924
8 2,847 0,136 1,864
9 2,970 0,184 1,816
10 3,078 0,223 1,777
Tabela 3 - Valores de d2, D3 e D4 para diferentes tamanhos de amostras / Fonte: o autor.

A partir disso, os resultados para os limites do gráfico x serão:

0, 33
LIC  7, 95  3 *  7, 06
1, 128

0, 33
LSC  7, 95  3 *  8, 84
1, 128

Com isso, temos todos os elementos necessários para a montagem do gráfico x. Mas,
antes, podemos calcular os limites para o gráfico AM, os quais podem ser encontrados
por meio das Equações 6 e 7.

LIC = D3 * AM (6)

LSC = D4 * AM (7)

Novamente, temos valores tabelados, para os quais consideraremos n=2. Quando tra-
tarmos de gráficos x-AM, o valor de D3 será igual a 0, enquanto D4 será igual a 2,574.
Com base nisso, nosso LIC e nosso LSC serão, respectivamente:

LIC 0=
= * 0, 33 0

=LSC 2=
, 574 * 0, 33 0, 85

195
UNICESUMAR

Agora que temos todos os limites, podemos montar os gráficos x e AM. Os dados que constarão no
gráfico x são as observações individuais, enquanto os pontos do gráfico AM são as amplitudes móveis
entre cada par consecutivo de dados. Eles podem ser vistos nas Figuras 1 e 2.

9,30
Peso médio das amostras (kg)

8,80

8,30

7,80

7,30

6,80
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Número da amostra

Dados Média LIC LSC


Figura 1 - Gráfico x para o exemplo apresentado / Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se em uma
altura próxima a 7,06. A segunda linha também é horizontal e encontra-se na altura 7,95. A terceira, que indica o limite superior, também
é horizontal e encontra-se na altura próxima a 8,84. A quarta e última linha não é perfeitamente horizontal, alternando entre descidas
e subidas, sempre próxima à reta que indica a média.

1,00
Amplitude móvel entre as amostras

0,90
0,80
0,70
0,60
0,50
0,40
0,30
0,20
0,10
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Número da amostra

Dados Média LIC LSC


Figura 2 - Gráfico AM para o exemplo apresentado / Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se na altura
0. A segunda linha também é horizontal e encontra-se na altura 0,33. A terceira, que indica o limite superior, também é horizontal e
encontra-se na altura próxima a 0,85. A quarta e última linha não é perfeitamente horizontal, alternando entre descidas e subidas, com
o primeiro ponto estando acima do limite superior e os pontos 17 e 19 muito próximos do limite inferior.

196
UNIDADE 7

O gráfico x indica um processo controlado, com todos os pontos dentro dos limites. Entretanto o se-
gundo gráfico expõe que a variação entre a primeira e a segunda amostras é muito alta, estando acima
do limite superior de controle. A variação se mostrou menor em momentos seguintes, chegando a
apresentar 9 pontos seguidos abaixo da média entre os pontos 14 e 22.

O fato de termos vários pontos seguidos abaixo da média no gráfico AM não é, necessaria-
mente, algo preocupante. Isso pode simplesmente indicar que os dados estão relativamente
próximos uns dos outros. Contanto que os dados do gráfico x estejam dentro dos limites, isso
torna-se algo positivo.

Assim como vimos na unidade anterior, os gráficos devem ser interpretados em conjunto para que
possamos compreender o cenário real do processo. O ponto fora de controle do gráfico AM seria algo
preocupante por si só, mas as amostras encontram-se todas dentro dos limites esperados e o processo
se mostra estável, no final das contas, isso não é um sinal para alarde.
A apresentação do gráfico x-AM teve como intenção a introdução a dois gráficos um pouco mais
complexos, mas de importância e sensibilidade maiores. O primeiro deles é o gráfico de soma cumu-
lativa (CUSUM), que tem algumas características que coincidem com aquilo que acabamos de discutir.
O gráfico CUSUM se baseia no valor acumulado dos desvios da variável analisada em relação a
um valor estabelecido anteriormente, que, geralmente, se trata do valor especificado na embalagem do
produto. Em alguns casos, tal valor pode ser estimado com base na média entre um grande número
de amostras previamente coletado. De modo geral, referimos ao valor em questão com a expressão
“valor alvo” (LOUZADA et al., 2013).
Exemplificando o parágrafo anterior, suponha que uma lata de refrigerante deva ter 350 mL. Em
um primeiro momento, é coletada uma amostra cujo volume é de 353 mL, o que nos dá um desvio de
3 mL. A segunda amostra tem volume igual a 358 mL, 8 mL acima do volume indicado. Nosso desvio
acumulado é de 11 mL, que se refere aos 3 mL da primeira amostra somados aos 8 mL da segunda.
Em seguida, pode ser coletada uma terceira amostra, cujo volume seja de 345 mL, o que significa
que ela tem 5 mL a menos do que o valor esperado. Como esse desvio é negativo, então devemos sub-
trair o valor do nosso desvio acumulado, ou seja, se antes tínhamos um desvio de 11 mL, agora nosso
desvio cai para 6 mL, já que subtraímos 5 desse valor. Expressando esse conceito de forma matemática,
o desvio acumulado, representado pela letra C, é indicado pela Equação 8:

Ci  ( xi  o )  Ci 1 (8)

197
UNICESUMAR

Em que Ci é o desvio acumulado da amostra analisada naquele Valor


Amostra i
instante, Ci−1 é o desvio acumulado até a amostra anterior, xi é o coletado (xi)

valor da amostra, o que, no nosso exemplo, seria o volume da lata 1 253,21


de refrigerante analisada, e µo é o valor alvo.
2 259,95
O raciocínio é feito com várias observações, as quais, novamen-
te, são amostras compostas por uma única observação cada. Caso 3 257,13

tenhamos muitas amostras com volume superior ao valor alvo, a 4 242,56


linha do gráfico apresentará um crescimento contínuo; e o oposto 5 248,21
ocorrerá, caso tenhamos muitas amostras abaixo do valor alvo.
6 255,05
Deve ficar claro que essa breve introdução não apresenta os da-
dos que devem ser posicionados no gráfico CUSUM, mas sim a ideia 7 271,03
por trás dele! Caso registrássemos quaisquer desvios em relação 8 249,25
ao valor alvo, nosso gráfico certamente ultrapassaria os limites de 9 268,63
controle rapidamente. A montagem do gráfico leva em conta uma
10 268,22
margem de aceitação para que o valor possa ser registrado, a qual
exige um breve cálculo para ser determinada. 11 265,44
O processo para a montagem é relativamente trabalhoso, mas 12 259,85
uma das vantagens do CUSUM sobre o gráfico x-AM é o fato de ser
13 246,59
necessário montar apenas um gráfico, o que o torna muito popular
14 252,57
para processos que envolvem produção em massa. Entretanto há
uma desvantagem, que é a falta de uma regra clara para estabelecer 15 265,93
os limites superior e inferior de controle. Algo que deve ser apontado 16 247,10
é que o gráfico CUSUM usa duas linhas ao invés de apenas uma, o
17 240,50
que, para iniciantes na área do CEP, pode parecer uma complicação,
mas não é tão drástico quanto soa (LOUZADA et al., 2013). 18 250,96

Para apresentar o processo de montagem do gráfico CUSUM, 19 250,16


seguiremos com um exemplo no qual se apresentam todos os cál- 20 243,04
culos necessários, com o passo a passo. Nesse exemplo, também,
21 250,21
abordaremos a ação necessária para determinar o limite para o
gráfico. Você notará que a estrutura do gráfico CUSUM é bem 22 264,58
diferente daqueles gráficos que vimos até o momento. 23 259,87
Vamos supor que Diogo analisa dados referentes a barras de 24 265,68
sabão produzidas pela Jacarandá, as quais têm como valor alvo
25 271,56
o peso de 250 g. O processo em questão aceita uma variação de
até 10 g em relação ao valor nominal, informação a qual deve ser Tabela 4 - Dados coletados por Diogo
para análise das barras de sabão
registrada, pois será vital para a montagem do gráfico! Os dados Fonte: o autor.
coletados são apresentados na Tabela 4.

198
UNIDADE 7

A primeira ação que devemos tomar após a coleta de dados é determinar o valor da
constante K. Essa constante é igual à metade do desvio aceitável, que é representado
pela letra d . Matematicamente, expressamos esse cálculo por meio da Equação 9:

d
K= (9)
2
Como nosso d é igual a 10, nosso K é igual a 5. É importante citar que, caso não
tenhamos esse desvio aceitável conhecido — o que acontece com maior frequência
com empresas iniciantes —, devemos usar o desvio padrão entre os dados no lugar
de d . O valor de K dita quais valores devem ser, de fato, registrados no nosso gráfico
CUSUM. Nosso valor alvo é igual a 250 g, então, quaisquer dados que estejam a uma
distância menor de 5 g desse valor não geram alterações no gráfico, ou seja, valores
entre 245 g e 255 g não são significativos para nosso gráfico CUSUM.
+ −
Em seguida, determinamos os valores de Ci e Ci . Estes são os valores que, de
fato, são significativos em nosso gráfico CUSUM. A letra i nada mais é do que o
número da amostra analisada naquele instante. As Equações 10 e 11 apresentam o
cálculo necessário para determinar esses valores, os quais serão explicados em seguida.

Ci+ =max[0;xi -( µo +K)+Ci-1


+
] (10)

Ci- =max[0;( µo -K)-xi +Ci-1


-
] (11)

Ambas as equações devem ser aplicadas para todos os dados, mas, para agilizar o
processo, uma informação deve ficar registrada. Caso o dado seja maior do que o

valor alvo, o resultado atribuído para Ci será automaticamente igual a 0. O contrário
+
é válido para dados menores do que o valor alvo, pois, nessas ocasiões, Ci será nulo.
Vamos considerar o primeiro dado da Tabela 4, que é 253,21 g, que será nosso x1 .
Utilizando a Equação 10, teremos o seguinte procedimento:

C1  max[0; 253, 21  (250  5)  0]

C1  max[0; 1, 79]

A função “max” significa que deve ser escolhido o maior valor entre todos aqueles
que estiverem dentro dos colchetes. Como nossas opções são 0 e -1,79, escolhemos
o 0, isso significa que o primeiro valor representado em nosso gráfico será igual a 0.
Conforme exposto anteriormente, como o dado tem um valor acima do valor alvo,
Ci− automaticamente também será igual a 0. O segundo valor em nosso gráfico é
igual a 259,95 g. Com isso, teremos os cálculos conforme a seguir:

199
UNICESUMAR

C2  max[0; 259, 95  (250  5)  0]

C2  max[0; 4, 95]

Dessa vez, temos que nosso maior valor é igual a 4,95. Isso significa que nossa segun-
da amostra está 4,95 g acima daquele que estabelecemos como um limite aceitável
para nossas amostras. Nosso terceiro valor é igual a 257,13 g, o que faz com que
+
nosso cálculo para C3 seja:

C3  max[0; 257, 13  (250  5)  4, 95]

Note que, dessa vez, o último termo dentro dos colchetes é diferente de 0. Isso ocorre
+
porque o último termo da equação para determinar Ci sempre deve ser igual ao
+  − −
resultado do Ci anterior, ou seja, Ci1 . O mesmo vale para Ci em relação a Ci−1 .
O resultado será:

C3  max[0; 7, 08]

+ −
O que nos retorna um valor de C3 igual a 7,08, enquanto C3 é, automaticamente,
+ −
igual a 0. Os resultados para todos os valores de Ci e Ci são apresentados na Tabela 5.

200
UNIDADE 7

Amostra i Dado ( xi ) Ci+ N+ Ci− N−


1 253,21 0,00 0 0,00 0
2 259,95 4,95 1 0,00 0
3 257,13 7,08 2 0,00 0
4 242,56 0,00 0 2,44 1
5 248,21 0,00 0 0,00 0
6 255,05 0,05 1 0,00 0
7 271,03 16,08 2 0,00 0
8 249,25 0,00 0 0,00 0
9 268,63 13,63 1 0,00 0
10 268,22 26,85 2 0,00 0
11 265,44 37,29 3 0,00 0
12 259,85 42,14 4 0,00 0
13 246,59 0,00 0 0,00 0
14 252,57 0,00 0 0,00 0
15 265,93 10,93 1 0,00 0
16 247,10 0,00 0 0,00 0
17 240,50 0,00 0 4,50 1
18 250,96 0,00 0 0,00 0
19 250,16 0,00 0 0,00 0
20 243,04 0,00 0 1,96 1
21 250,21 0,00 0 0,00 0
22 264,58 9,58 1 0,00 0
23 259,87 14,45 2 0,00 0
24 265,68 25,13 3 0,00 0
25 271,56 41,69 4 0,00 0
Tabela 5 - Valores de C+ e C- para o gráfico CUSUM / Fonte: o autor.

+ −
Note que temos também as colunas N e N na Tabela 5. Isso nada mais é do que
um contador de vezes seguidas em que tivemos dados acima de 0 para um dos valores
de C. Quando o contador é interrompido, ele é zerado automaticamente.
+ −
Os valores de C e C serão as informações apresentadas no gráfico CUSUM,
sendo cada um deles representado por uma linha diferente. Com isso, temos prati-
camente todos os dados necessários para a montagem, restando apenas determinar
os limites de controle.
Diferente do que vimos até o momento, o gráfico CUSUM terá apenas um único
limite de controle. Para compensar o cálculo, relativamente, longo dos dados, esse
cálculo é realmente muito simples: basta multiplicar uma constante, a qual chamamos
de H, pelo desvio padrão entre os dados coletados. Geralmente, H é igual a 4 ou 5,
conforme estabelecido por quem projetar o gráfico. Para nosso exemplo, considera-

201
UNICESUMAR

mos H como sendo igual a 4 (HINES et al., 2011). O desvio padrão entre os nossos dados é igual a 9,47,
o que torna nosso limite igual a 37,88. Com essa determinação, podemos, enfim, concluir a montagem
do gráfico CUSUM, representado na Figura 3.
45,00
volume em relação ao valor alvo (mL)
Soma cumulativa da diferença do

40,00
35,00
30,00
25,00
20,00
15,00
10,00
5,00
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Número da amostra

Ci+ Ci- Limite


Figura 3 - Gráfico CUSUM para o exemplo apresentado / Fonte: o autor.

Descrição da Imagem: gráfico com 3 linhas. A linha superior é perfeitamente horizontal e tem altura igual a 38. A linha ci+ alterna
entre descidas e subidas, ultrapassando a linha superior em dois pontos. A linha ci- se mantém sempre muito abaixo da linha de limite
superior, nunca ultrapassando a altura igual a 5.

Em tempo, é possível que, ao consultar a literatura sobre o tema, você encontre gráficos CUSUM com
um limite inferior, o qual sempre será negativo e terá o mesmo módulo que o limite superior. Isso ocorre

em casos nos quais o valor de C são considerados negativos ao invés de positivos, como fizemos.
Entretanto a interpretação dos dados ocorre exatamente da mesma maneira, mas com a linha referente

aos dados C sendo posicionada abaixo da média.
Voltando à interpretação do gráfico CUSUM da Figura 3, nele, encontramos dois picos que ultra-
+
passam o limite de controle, ambos referentes à linha C . Isso indica que está havendo um acúmulo
de produtos com peso maior do que o valor alvo, o que torna necessária uma análise a respeito da
produção para identificação da causa raiz.

202
UNIDADE 7

O gráfico CUSUM tem vários cálculos envolvidos em sua


montagem, mas uma ferramenta para gráficos, como
softwares, torna o procedimento muito simples. O Microsoft
Excel, que é um programa de fácil alcance para a maioria dos
estudantes, é muito útil para estruturá-lo. Que tal aprender
sobre as etapas do gráfico CUSUM com o uso do Microsoft
Excel? Para isso, é só checar a nossa pílula!

Por conter duas linhas para representação dos dados, o gráfico CUSUM tem a flexibilidade de nos
fornecer detalhes sobre mudanças apenas em um sentido, ou seja, para cima da média ou para baixo
dela. Dentre os gráficos que estudamos até o momento, nenhum outro consegue atuar dessa forma, o
que mostra mais uma vantagem do CUSUM diante dos demais formatos.
Nosso último gráfico de controle é o gráfico de média móvel exponencialmente ponderada
(MMEP), o qual, assim como o gráfico CUSUM, é muito sensível a pequenas mudanças e atua re-
lacionando as observações. Novamente, tratamos de um gráfico focado em amostras compostas por
apenas uma observação, apesar desse gráfico permitir adaptações para analisar amostras com mais
unidades (HINES et al., 2011). Sua aplicação ocorre nos mesmos casos que o gráfico CUSUM, sendo
ambas boas alternativas cuja escolha depende, apenas, da afinidade do usuário por um dos formatos.
No caso do gráfico MMEP, todas as observações têm impactos sobre as seguintes, mas aquelas que
forem mais antigas serão menos impactantes sobre as futuras. Esse raciocínio é interessante, pois, na
prática, quando realizamos um processo produtivo, há mais chances da trigésima amostra ser afetada
pela vigésima nona amostra do que pela primeira.
O peso em questão é representado pela letra l , que pode variar entre 0 e 1. O valor é estabelecido
pelo usuário, sendo valores na faixa entre 0,10 e 0,20 os mais utilizados na prática. Quanto menor o
valor atribuído a l , menores serão as mudanças detectadas (MONTGOMERY, 2017). Para explicar
o raciocínio e as etapas de montagem do gráfico MMEP, novamente realizamos um exemplo com
o passo a passo dos procedimentos. Dessa vez, tratamos do volume de detergente em cada uma das
embalagens, as quais têm valor alvo igual a 500 mL. Diogo decidiu atribuir peso 0,2 para a amostra
imediatamente anterior a cada uma das observações. Foram feitas 25 observações ao todo, as quais
estão registradas na Tabela 6.

203
UNICESUMAR

Amostra Volume (mL) O primeiro passo para a montagem do gráfico


MMEP já foi dado, que é a determinação do valor
1 512,84
alvo, no caso, 500 mL. A esse valor damos o nome
2 507,85 de zo , que é o nosso ponto de partida para a de-
3 511,27 terminação do primeiro ponto do gráfico. Assim
como no gráfico CUSUM, os pontos do gráfico
4 499,55
MMEP não são representados pelos próprios va-
5 497,78 lores coletados. Em seu lugar, é determinado o
6 504,40 valor de zi , que considera, além do próprio dado,
o peso já apresentado e os dados anteriores. A
7 510,90
equação para determinar zi é a de número 12,
8 508,67 apresentada a seguir:
9 512,79
zi  l.xi  (1  l ).zi 1 (12)
10 511,25

11 501,78
Exemplificando, vamos calcular z1 . Já temos to-
12 506,98 dos os dados necessários, visto que zo é igual a
13 512,91 500 mL e x1 é o próprio dado coletado, no caso,
512,84 mL. O valor de 0,2 para l já foi definido
14 505,48
no início do processo. Sendo assim, o cálculo é:
15 506,69

16 512,39 z1  0, 2.512, 84  (1  0, 2).500

17 499,62
z1 = 502, 57
18 496,08

19 504,15 O valor de z2 é calculado em seguida, com base no


20 501,62
valor obtido para z1 , conforme exposto a seguir:

21 495,48 z2  0, 2.507, 85  (1  0, 2).502, 57


22 505,13

23 509,36 Note que o último termo foi substituído pelo va-


lor obtido para o z anterior. Essa é a forma de
24 495,06
atribuir o impacto da observação anterior para a
25 512,13 amostra, analisada atualmente. O peso de 0,2 per-
Tabela 6 - Dados coletados por Diogo para análise das garrafas maneceu inalterado, e assim será até a última
de detergente / Fonte: o autor.
amostra. O valor de z2 é, então, igual a 503,62.

204
UNIDADE 7

O processo é repetido para todas as amostras, Amostra Volume (mL) Zi


resultando nos dados que vemos na Tabela 7. 1 512,84 502,57
É interessante citar que, na Tabela 7, até mesmo 2 507,85 503,62
os dados que estavam abaixo da média original- 3 511,27 505,15
mente se transformaram em valores acima da 4 499,55 504,03
faixa de 500, quando convertidos para zi . Essa 5 497,78 502,78
é a prova concreta de que o gráfico MMEP con- 6 504,40 503,10
sidera o impacto das amostras anteriores sobre a 7 510,90 504,66
analisada, naquele momento. 8 508,67 505,46
Agora que temos todos os pontos para a mon- 9 512,79 506,93
tagem do gráfico, podemos calcular os limites de 10 511,25 507,79
controle. Há, entretanto, uma particularidade do 11 501,78 506,59
gráfico MMEP em relação a todos os demais, os 12 506,98 506,67

limites de controle não são fixos! Anteriormente, 13 512,91 507,92

tínhamos linhas retas para representar o LIC e 14 505,48 507,43


15 506,69 507,28
o LSC. Agora, teremos um valor específico para
16 512,39 508,30
cada amostra. Os primeiros dados terão uma va-
17 499,62 506,57
riação de limites mais visível, mas tendem a se
18 496,08 504,47
estabilizar após uma certa quantidade de amos-
19 504,15 504,40
tras. O LIC e o LSC são calculados a partir das
20 501,62 503,85
Equações 13 e 14.
21 495,48 502,17
λ 22 505,13 502,76
LIC  zo  L.σ. [1  (1  λ )2i ] (13)
2 λ 23 509,36 504,08
24 495,06 502,28
λ (14)
LSC  zo  L.σ. [1  (1  λ )2i ] 25 512,13 504,25
2 λ
Tabela 7 - Dados coletados por Diogo convertidos para Zi
Fonte: o autor.

Diversos artigos científicos utilizam os gráficos CUSUM e MMEP como


forma de análise de situações problema. O excelente artigo “Gráfico
de controle da média móvel exponencialmente ponderada: aplicação
na operação e monitoramento de uma estação de tratamento de es-
goto” apresenta as etapas de montagem do gráfico e o processo de
coleta de dados de um processo real, algo que definitivamente será
de grande ajuda para qualquer profissional na compreensão da estruturação do gráfico!
Para acessar, use seu leitor de QR Code.

205
UNICESUMAR

A maioria dos termos das Equações 13 e 14 já foi apresentada anteriormente. Os


únicos dados novos são s , que sabemos que se trata do desvio padrão entre as
amostras coletadas, e L, que se trata da distância em quantidade de desvio padrão
entre os limites de controle e o valor alvo. Caso seja adotado L igual a 3, trabalhamos
com as distâncias de 3 desvios padrões em relação ao valor alvo, aquilo que temos
feito desde a nossa quinta unidade. Na prática, costuma-se adotar valores entre 2,6 e
2,8, e é o que fazemos em nosso exemplo, estabelecendo que nosso L será igual a 2,7.
Para z1 , os limites de controle serão:

0, 2
LIC  500  2, 7.5, 92. [1  (1  0, 2)2.1 ]  496, 80
2  0, 2

0, 2
LSC  500  2, 7.5, 92. [1  (1  0, 2)2.1 ]  503, 20
2  0, 2

Os valores referentes ao LIC tendem a diminuir, pois o valor de i sempre aumenta


de uma amostra para outra. Isso faz com que o resultado obtido na raiz quadrada
aumente constantemente. O valor de LSC aumenta, justamente, pelo mesmo motivo.
Conforme i aumenta, esse resultado tende a assumir um valor praticamente constante,
reduzindo a variação de cada um dos limites.

Você sabe qual é o melhor momento para aplicar cada um dos


tipos de gráficos de controle que estudamos nas últimas unidades?
Isso é vital para que possamos tirar o máximo de informações
possível de nossos processos! Em nosso Podcast, a discussão é
sobre as melhores opções para cada um dos casos. Que tal dar o
play e aprender um pouco mais a respeito do tema?

206
UNIDADE 7

A Tabela 8 apresenta o LIC e o LSC para cada um dos pontos que teremos em nosso gráfico.

Amostra Volume (mL) Zi LIC LSC


1 512,84 502,57 496,80 503,20
2 507,85 503,62 495,90 504,10
3 511,27 505,15 495,42 504,58
4 499,55 504,03 495,14 504,86
5 497,78 502,78 494,96 505,04
6 504,40 503,10 494,86 505,14
7 510,90 504,66 494,79 505,21
8 508,67 505,46 494,75 505,25
9 512,79 506,93 494,72 505,28
10 511,25 507,79 494,70 505,30
11 501,78 506,59 494,69 505,31
12 506,98 506,67 494,68 505,32
13 512,91 507,92 494,68 505,32
14 505,48 507,43 494,68 505,32
15 506,69 507,28 494,67 505,33
16 512,39 508,30 494,67 505,33
17 499,62 506,57 494,67 505,33
18 496,08 504,47 494,67 505,33
19 504,15 504,40 494,67 505,33
20 501,62 503,85 494,67 505,33
21 495,48 502,17 494,67 505,33
22 505,13 502,76 494,67 505,33
23 509,36 504,08 494,67 505,33
24 495,06 502,28 494,67 505,33
25 512,13 504,25 494,67 505,33
Tabela 8 - Limites de controle para os dados coletados por Diogo / Fonte: o autor.

207
UNICESUMAR

Enfim, temos todos os dados necessários para nosso gráfico. Vale citar que os limites de
controle não são, de fato, constantes, pois a variação continua a ocorrer muitas casas após
a vírgula. Com base nisso, chegamos ao gráfico MMEP, que é apresentado na Figura 4.

510,00
508,00
506,00
504,00
502,00
500,00
498,00
496,00
494,00
492,00
490,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Zi LIC LSC Valor Alvo


Figura 4 - Gráfico MMEP para o exemplo apresentado / Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. A linha média tem altura igual a 500 e é perfeitamente reta. A linha de
limite inferior é curva e tem altura variando entre 497 e 494. A linha de limite superior também é curva, com altura
indo de 503 a 506. A linha correspondente ao Zi varia entre subidas e descidas, permanecendo sempre acima da
média e com alguns pontos ultrapassando o limite superior.

Tivemos diversos pontos que ultrapassaram o LSC. Por si só, isso já seria algo a prender
nossa atenção. Há, porém, de se considerar que todos os pontos do gráfico ficaram acima
da média, o que é outro fator que deve ser analisado. A possibilidade do equipamento
estar escoando mais detergente do que o valor alvo para cada uma das embalagens é real
e deve ser estudada uma maneira de reduzir esse problema.
Apesar das estruturas diferenciadas, os critérios para análise dos gráficos CUSUM e
MMEP partem dos mesmos princípios que os gráficos estudados anteriormente, em que
pontos que ultrapassem os limites de controle indicam falhas em processos. No gráfico
MMEP, o acúmulo de pontos em uma determinada região também pode ser indicativo
de uma situação inadequada.

208
UNIDADE 7

Os gráficos x-AM, CUSUM e MMEP são usados em menor escala, mas isso não
diminui sua importância, visto que sua aplicação ocorre em casos nos quais
os gráficos analisados anteriormente não conseguiriam nos fornecer um olhar
adequado sobre a situação.
A ideia de registrar pontos que não sejam os próprios dados nos gráficos é um
tanto abstrata, mas, matematicamente, é algo que faz sentido, visto que é a forma
de mensurarmos o impacto das observações anteriores sobre aquelas analisadas
atualmente. Caso essas considerações não fossem feitas, teríamos os mesmos
gráficos com os quais trabalhamos nas unidades anteriores.

Enfim, após três unidades, concluímos nossa abordagem sobre gráficos de controle. É
possível aprofundar os estudos sobre o tema, buscando outros conteúdos na literatura;
há diversos materiais de qualidade disponíveis on-line e que podem o(a) ajudar em
aplicações práticas de tudo que vimos até agora, além da apresentação de adaptações a
diferentes situações. Os livros usados como referência, nesta unidade, e nas anteriores
podem ser úteis nesse sentido, pois abordam não apenas o conteúdo estatístico, mas
também a parte computacional de tudo que foi abordado.
Durante a nossa unidade, tratamos daqueles gráficos que consideram o impacto das
amostras anteriores sobre as amostras produzidas posteriormente. Os gráficos x-AM,
CUSUM e MMEP são os mais sensíveis a pequenas variações e, consequentemente, são
indicados para encontrar falhas pontuais em processos.
Sua aplicação é mais comum em casos nos quais temos acesso a poucas observações,
visto que cada amostra é composta por um único dado, ou seja, quando tratamos de
produtos de alto custo de produção ou personalizados, eles são nossas melhores opções.
Apesar da sua montagem ser mais complexa do que a dos demais gráficos, o esforço tende
a ser compensado, a partir do momento em que falhas, antes imperceptíveis, passarem
a ter uma visualização mais clara.
Diversas adaptações podem ser feitas para todos os gráficos que estudamos durante
essa unidade, cabe a você buscar aprender um pouco mais sobre o tema e suas devidas
aplicações! Em nossa próxima unidade, trabalhamos com a ideia de análises coletivas
de amostras, mas não usaremos mais os gráficos de controle para isso, esse conteúdo
está finalizado! Entretanto revisitaremos uma das ferramentas da qualidade com a qual
lidamos algumas unidades atrás, mas com um formato um pouco diferenciado. Nosso
foco, agora, será a capacidade dos processos!

209
Para encerrarmos definitivamente nossa aula, que tal preencher o mapa mental? É interessante
realizar um comparativo com os gráficos que vimos na unidade anterior. Então, complete o quadro
sobre os gráficos x-R e x-s com as características que os diferenciam daqueles que trabalhamos
durante esta unidade. Foque em discutir o tamanho das amostras, a quantidade de gráficos
usados e demais aspectos que os tornem diferentes daqueles gráficos que estudamos, durante
esta unidade.
Em seguida, em cada um dos quadros, apresente características específicas para os gráficos x-AM,
CUSUM e MMEP, a ideia por trás da montagem de cada um deles e as particularidades de cada
gráfico. Explique, também, a interpretação de cada um deles bem como o que pode significar o
acúmulo de pontos, em uma mesma região, ou quando se extrapola os limites. Isso é feito da
mesma forma que nos demais gráficos?
Por último, no quadro “semelhanças entre os gráficos”, apresente as características em comum
entre os gráficos MMEP e CUSUM; as situações em que ambos devem ser utilizados e o que os
diferencia dos gráficos analisados anteriormente; por exemplo, as linhas referentes aos seus
limites de controle e a ausência de dados tabelados.

GRÁFICOS DE CONTROLE

Semelhanças
Gráficos x-R e X-S Gráfico CUSUM Gráfico MMEP Gráfico x-AM
entre os gráficos

Descrição da Imagem: quadro com o título “gráficos de controle” separa-se em quatro quadros menores: “gráficos x-R e x-s”,
“gráfico x-AM”, “gráfico CUSUM” e “gráfico MMEP”. Os dois últimos quadros se unem em um novo quadro, com título “semelhanças
entre os gráficos”.

210
1. Cada gráfico de controle é aplicado a uma situação diferenciada, a qual varia conforme
o tamanho das amostras e a quantidade de observações disponíveis para análise. Cabe
ao responsável pelo CEP a escolha do melhor formato para compreender o processo.
A respeito dos gráficos de controle, são feitas as seguintes afirmações:
I) O gráfico x-s é usado quando as amostras têm um tamanho menor do que 10 ob-
servações.
II) As amostras do gráfico CUSUM costumam conter mais observações do que as do
gráfico x-R.
III) O gráfico MMEP é uma boa opção para casos nos quais há poucas unidades dispo-
níveis para análise.
IV) Em todos os tipos de gráficos, os limites de controle encontram-se a uma distância
de três desvios padrões do valor alvo.

É correto o que se afirma em:


a) III, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.

2. O gráfico CUSUM utiliza a soma cumulativa dos desvios como base para sua estrutura-
ção. A ideia é de que, quanto maiores forem os desvios em relação ao valor alvo, maior
será a possibilidade de termos um processo fora de controle.
A respeito do gráfico CUSUM, são feitas as seguintes afirmações:
I) Todos os dados coletados são registrados de forma inalterada no gráfico CUSUM.
II) Quanto maior o valor de K, menores são as chances de os dados fugirem do controle.
III) Quanto menor o H, mais rígida tende a ser o limite de controle do gráfico.
IV) O desvio padrão entre os dados tem papel importante no estabelecimento do limite
de controle.

É correto o que se afirma em:


a) I e II, apenas,
b) II e III, apenas.
c) I, III e IV, apenas.
d) II, III e IV, apenas.
e) I, II, III e IV.

211
3. A seguir, apresentam os gráficos x-AM, usado como forma de determinar se o peso de
sofás está dentro dos conformes. Considere que o valor alvo seja de 150 kg.

170,00
165,00
160,00
155,00
Peso (kg)

150,00
145,00
140,00
135,00
130,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26

Número da amostra

Dados Média LIC LSC

Fonte: o autor.

Descrição da Imagem: gráfico com quatro linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e
encontra-se em uma altura próxima a 140. A segunda linha, também, é horizontal e encontra-se na altura 152. A terceira,
que indica o limite superior, também, é horizontal e encontra-se na altura próxima a 164. A quarta e última linha não é
perfeitamente horizontal, alternando entre descidas e subidas, sempre, próxima à reta que indica a média.

16,00
Amplitude móvel entre as amostras

14,00
12,00
10,00
8,00
6,0
4,00
2,00
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Número da amostra

Dados Média LIC LSC

Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se na altura 0. A segunda linha também é horizontal e encontra-se na altura 4,5. A terceira, que indica o limite superior,
também é horizontal e encontra-se na altura próxima a 11,8. A quarta e última linha não é perfeitamente horizontal,
alternando entre descidas e subidas, com dois pontos ultrapassando a linha de limite superior.

212
A respeito dos conceitos sobre os gráficos x-AM e dos gráficos apresentados, são feitas
as afirmações a seguir:
I) Cada amostra é composta por cinco observações.
II) Não houve variações significativas entre uma amostra e outra.
III) O gráfico AM apresenta informações que o gráfico x deixou passar, complementando
a análise de forma coerente.
IV) Por não haver uma maneira de comparar a primeira amostra com a amostra anterior,
o gráfico AM, sempre, terá um ponto a menos que o gráfico x.

É correto o que se afirma em:


a) I, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e IV, apenas.
e) II, III e IV, apenas.

4. A seguir, apresenta-se uma ta- Amostra Volume (mL)


bela com dados coletados para 1 203,65
a montagem de gráficos. Nes- 2 199,76
te caso, a análise é referente a 3 202,68
uma embalagem de sabão líqui- 4 200,82

do cujo valor alvo é de 200 mL. 5 190,68


6 194,10
7 207,78
Com base nos dados expostos,
8 207,84
estruture os gráficos, a seguir,
9 195,13
utilizando o software de sua
10 193,38
preferência:
11 203,87
a) Gráfico CUSUM, consideran- 12 198,06
do K igual a 5 e H igual a 4. 13 196,93

b) Gráfico MMEP, considerando 14 208,56

l igual a 0,15 e L igual 2,7. 15 209,31


16 192,46
17 207,83
18 195,11
19 191,44
20 200,95
21 205,92
22 207,68
23 197,60
24 194,10
25 210,43
Fonte: o autor.

213
5. O gráfico MMEP tem algumas particularidades em relação aos demais gráficos de con-
trole, apesar de apresentar os mesmos elementos que a maioria deles. A respeito do
gráfico MMEP, são feitas as seguintes afirmações:
I) O gráfico MMEP costuma utilizar amostras com apenas uma observação, mas pode
ser adaptado e considerar uma quantidade maior de observações.
II) Em um gráfico MMEP, quanto maior o valor atribuído a L, mais próximos os limites
de controle estarão do valor alvo.
III) Quanto menor o valor de l , mais sensível o gráfico será a pequenas mudanças.
IV) Os limites de controle assumirão valores perfeitamente fixos, após algumas amostras
analisadas.

É correto o que se afirma em:


a) II, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, III e IV, apenas.
e) I, II, III e IV.

214
215
216
8
Capacidade de
Processos
Me. Paulo Otávio Fioroto

Apresentações dos conceitos de capacidade de processos, suas


aplicações e importância para o controle de processos, bem como
dos índices de capacidade Cp, Cpk, Cpm e P, além das vantagens e
desvantagens que cada um dos índices apresenta sobre os demais.
UNICESUMAR

Até o momento, tratamos de diversas ferramentas da qualidade que nos ajudam a


compreender se tudo ocorre conforme o esperado. Apresentamos o gráfico de Pareto,
o diagrama de Ishikawa, o histograma e, mais recentemente e com maior intensidade,
o gráfico de controle. Cada uma dessas ferramentas nos alertar quando algo de errado
começa a acontecer, e é nesse momento que daremos início à pesquisa para descobrir
qual é e onde está a falha. Se, porém, não ocorrer falha alguma e o processo funcionar
tão bem quanto pode funcionar? E se o problema não for algo pontual, mas o processo
como um todo? Muitas empresas lidam com equipamentos antiquados e que possuem
limitações. Da mesma forma, muitas delas tentam retirar o máximo do processo,
causando uma espécie de sobrecarga nos aparatos envolvidos, ou, então, projetando
algo que não possa ser cumprido com a configuração atual do que a empresa possui.
Sabe-se que o bom senso é uma característica muito importante em um profissional,
que chega a ser tão relevante quanto qualquer ferramenta da qualidade. Assim como
dito diversas vezes durante o material, é impossível ter um processo que funcione com
100% de perfeição, então qualquer profissional sabe que falhas ocorrem, cedo ou tarde.
Mas até mesmo o mais sensato dos indivíduos pode não captar de imediato quando
a limitação responsável pelo problema é o próprio processo. Pode levar dias, ou até
semanas, para que seja compreendido que não existe falha alguma além da própria
limitação do que se tem à disposição.
Por conta disso, para sabermos quando um processo funciona dentro daquilo que
foi planejado, faz-se necessário que tenhamos uma forma de saber o percentual da
produção esperado para a finalização adequada. Caso sejam esperados 95% de resul-
tados adequados, então qualquer quantidade que atinja ou ultrapasse essa marca será
bem recebida, enquanto resultados inferiores indicam que há algum problema, em
alguma etapa do procedimento. Com base no que foi apresentado, deixo a pergunta:
é possível estimar o quanto se espera obter de itens adequados? E, ainda, é possível
determinar se um processo tem condições de atender ao esperado de maneira cons-
tante e sustentável?
Para abordar as perguntas feitas, falamos sobre o caso de Camile, uma engenheira
de produção que atua na empresa Manuela’s, voltada à produção de alimentos enla-
tados, em geral, como milho, ervilhas, molho de tomate e sopas prontas. Apesar de
fundada há poucos anos, a marca ganhou certa notoriedade pelos seus produtos de
boa qualidade, fazendo com que entrassem em uma vertente de crescimento.
Camile tem um conhecimento razoável sobre as ferramentas da qualidade e
softwares, aplicando com frequência as folhas de verificação e gráficos de controle
nos processos pelos quais é responsável. Isso tem colaborado com o crescimento da
empresa em diversos aspectos, incluindo no relacionamento com o cliente, afinal,
produtos com qualidade e que atendem às expectativas dos clientes geram um baixo
índice de reclamações.

218
UNIDADE 8

Por conta da alta popularidade e do crescimento significativo nos últimos meses, os


gestores decidiram adquirir novos equipamentos para a linha de produção, de forma a
suprir a demanda crescente. Além disso, após algumas pesquisas com o público consu-
midor, decidiram-se que seriam criadas variações dos produtos com embalagens de porte
maior, feitas especificamente para o uso em restaurantes. As latas de ervilhas no formato
tradicional eram de 200 g, enquanto o novo formato das latas seria
dez vezes maior, com 2 kg de produto.
A princípio, Camile achou a ideia excelente, pois isso sig-
nificaria uma linha de produção de tecnologia mais rápida
e mais avançada e, como a demanda aumentaria, haveria
uma possibilidade de aumento salarial ou, eventualmente,
até mesmo uma progressão de cargo.
Com a grande produção e a nova linha, porém,
podem surgir novas decisões por parte da gestão, e
foi exatamente o que aconteceu. Antes, a produção
considerava uma margem de erro de 2% em relação
ao valor alvo de 200 g como aceitável, o que era cum-
prido em praticamente 100% das unidades produzidas.
Com o novo aparato e com as novas embalagens de
porte maior, a exigência agora era de que o erro não
fosse maior do que 1% do valor alvo em quaisquer
embalagens produzidas, ou seja, uma lata de 200 g não
poderia variar mais do que 2 g em relação ao valor alvo,
enquanto as latas de 2 kg não poderiam ter um desvio
maior do que 20 g, quando comparadas ao esperado.
Camile entendeu que isso exigiria uma regulagem
muito mais rígida dos equipamentos, afinal, conside-
rando que as latas vazias têm todas o mesmo peso, o
que ditaria o peso final e a variação em relação ao valor
alvo seriam as ervilhas despejadas na lata, além da água,
cuja principal finalidade é a de conservar os produtos.
Algumas semanas após a mudança, chegaram as
primeiras reclamações, estas se referiam, principalmen-
te, às latas de ervilha de 2 kg. Alguns clientes se sentiam
lesados, pois adquiriam um produto cuja embalagem
indicava um determinado peso, mas que, na verdade,
entregava cerca de 50 g a menos do que o indicado, o
que correspondia a uma margem de erro de 2,5% a menos
do que o valor alvo.

219
UNICESUMAR

Camile, por meio das ferramentas de controle, previamente aplicadas, notou que realmente ocorriam
falhas pontuais na produção: algumas latas apresentavam conteúdo reduzido, e outras um peso maior do
que o planejado. Houve diversas pesquisas internas no setor em busca da origem da falha, inclusive com
algumas paradas breves de produção que resultaram em processos estagnados, mas todo o maquinário
funcionava conforme o esperado.
Um dado coletado, porém, por Camile, mostrou que havia algo de errado: o desvio padrão entre os
itens produzidos. Ela havia guardado todas as folhas de verificação utilizadas, durante as semanas an-
teriores, e notou que a variação entre os valores, apesar de não ser alta, estava em um nível indesejável e
que poderia ser melhorado. O problema não era a qualidade do maquinário, mas sim a constância com
a qual ele conseguia produzir itens idênticos de maneira contínua. Camile, sempre, ouvira dizer, durante
sua graduação, que nenhum processo é isento de falhas ou variações, e que a importância do CEP estava
justamente em auxiliar na previsão e controle delas. Tanto o equipamento quanto as ferramentas da
qualidade cumpriam a sua parte e, mesmo assim, o planejado não era cumprido.
Após algumas pesquisas a respeito do tema, Camile encontrou um conceito conhecido como “capa-
cidade de processos”. De forma direta, isso tratava exatamente daquilo que acontecia no seu setor, um
processo que não conseguia cumprir com o esperado de forma contínua, tornando as condições esta-
belecidas pela direção quase inatingíveis. Os limites estabelecidos para o processo eram muito rígidos,
gerando uma faixa de resultados aceitáveis muito pequena, enquanto o desvio padrão entre os itens
produzidos era mais alto do que o desejável.
Após apresentar este argumento aos diretores da empresa, eles compreenderam que, como se tratava de
um dado determinado com base em uma ferramenta, uma ação realmente deveria ser tomada. Entretanto,
sob o ponto de vista deles, seria inaceitável permitir um “relaxamento” das margens de erro aceitáveis, pois
isso indicaria que eles seriam incapazes de melhorar sua qualidade. Por conta disso, a decisão precisou
envolver os cofres da empresa, investindo em melhorias nos equipamentos que a empresa já possuía.
A partir disso, o funcionamento dos equipamentos começou a se tornar mais regular. Antes, os
resultados formavam uma curva normal, um pouco achatada e larga, indicando que havia uma certa
variação entre o que era produzido. Com as melhorias, a curva tornou-se mais alta e estreita, indicando
uma produção com praticamente 100% das unidades idênticas. Essa é a meta de qualquer empresa que
queira ser reconhecida pela sua qualidade.
A situação vivenciada por Camile, na empresa Manuela’s, é algo que pode acontecer em qualquer
companhia que atue com produções contínuas. O conceito da capacidade de processo, encontrado por
ela em suas pesquisas, é muito relevante para a indústria de modo geral, pois é uma maneira de unir, de
forma direta e clara, os conceitos da estatística e os da qualidade.
Você, também, pode realizar algo similar, em sua casa! Certamente, isso não será feito em uma escala
tão grande quanto a realizada por Camile, em nosso estudo de caso, mas servirá para você entender, de
maneira prática, como funciona o estudo da capacidade de processo. Para tanto, você pode optar por
qualquer item alimentício que exista em sua casa e que contenha várias unidades iguais de um mesmo
item. Uma opção é que você asse ou compre um bolo e busque cortá-lo em vários pedaços iguais, quanto

220
UNIDADE 8

mais pedaços você conseguir, melhor. Você, também, pode fazer isso com pães de queijo ou qualquer
outro item que possa ser preparado por você mesmo e dividido em várias unidades. O importante, nesse
processo, é que tenhamos várias unidades iguais — ou, ao menos, muito parecidas — de um mesmo item.
Também, será necessário utilizar uma balança.
Uma informação, entretanto, deve ficar clara: você deve estabelecer um limite mínimo e um limite
máximo que cada unidade do item pode pesar. Você pode tomar os primeiros resultados da balança
como padrão para estabelecer esses limites. Não é necessário realizar cálculos quando for determiná-los,
os valores serão decididos por você, que é o gestor do processo. O importante é que você tenha definido
um valor alvo, que é o valor desejado para cada unidade, e que ambos os limites estejam, igualmente,
distantes dele.
Após ter os limites escolhidos e todas as unidades devidamente pesadas, a próxima etapa é determinar
o desvio padrão entre os pesos mensurados. Sinta-se livre para realizar os cálculos com uma calculadora
ou um software qualquer. No momento do cálculo, não se esqueça de que falamos do desvio padrão
amostral, e não populacional!
Feito isso, você deve subtrair o limite inferior do limite superior que você estabeleceu previamente.
Divida o valor pelo desvio padrão que você encontrou entre as unidades produzidas. Marque o resultado.
Agora, deixemos o processo, ainda, mais rígido. Diminua o seu limite superior e aumente o seu limite
inferior, deixando-os, ainda, mais próximos do valor alvo. Não é necessário recalcular o desvio padrão,
apenas deixar os limites mais próximos. Repita, exatamente, o mesmo processo anterior, com a deter-
minação da diferença entre os dois limites e a divisão do resultado pelo desvio padrão. Seu resultado,
certamente, será menor do que o anterior, mesmo que em casas decimais.
O que você acabou de realizar é, exatamente, aquilo que discutiremos, de maneira teórica, durante
a nossa unidade atual: a determinação da capacidade do processo. Nesse caso, o processo sob análise
foi justamente a sua produção de unidades! Os resultados mostram o quão regular você conseguiu ser
durante seu próprio processo, quanto maior o número obtido após a divisão da diferença entre os limites
pelo desvio padrão, mais regular você terá sido.
Você pode realizar essa mesma análise de diversas outras maneiras. Por exemplo, estabeleça um volume
qualquer, como 100 mL, definindo um limite máximo e um limite mínimo para erros, por exemplo, 5
mL para mais e para menos do valor alvo. Em seguida, pegue o máximo de copos possível em sua casa e
tente enchê-los com exatos 100 mL de água. Por último, determine o desvio padrão entre todos os copos
que foram enchidos.
Após ter todos esses dados, divida a diferença entre os limites propostos pelo desvio padrão obtido.
Será que você consegue ser mais regular do que foi no experimento anterior? A essa altura, é possível que
você já tenha compreendido a importância dessa análise para a indústria, antes mesmo de iniciarmos a
abordagem dos conteúdos teóricos por trás do estudo da capacidade de processos, afinal, temos discutido
a importância de processos regulares, praticamente, desde o início do material. O que expomos, a partir
de agora, é todo o processo necessário para que possamos, de fato, utilizar a capacidade de processos a
nosso favor, revisitando discussões que tivemos em momentos anteriores.

221
UNICESUMAR

DIÁRIO DE BORDO

A capacidade do processo pode ser definida como a capacidade dele de produzir itens idênticos sob
um conjunto específico de condições e por um longo período de tempo, buscando analisar se ele é, de
fato, sustentável no ambiente em questão (MONTGOMERY, 2017).

222
UNIDADE 8

Por exemplo, uma empresa fabricante de alimentos decide operar sob um determinado
conjunto de parâmetros, como a temperatura local, a pressurização de equipamentos e a
velocidade com a qual a esteira roda. São necessárias diversas análises para saber quais são,
de fato, as condições ideais para esses três parâmetros para que tudo funcione da forma mais
adequada possível. Caso a temperatura esteja muito alta, os equipamentos aquecem mais
rápido do que deveriam, o que pode gerar problemas futuros. Uma pressurização muito
baixa pode causar entupimentos, enquanto uma pressurização muito alta pode deixar o
rendimento do transporte de um fluido muito baixo. Uma alta velocidade da esteira pode
fazer com que algumas unidades produzidas sofram quebras no meio do caminho, enquanto
velocidades baixas tornarão o processo muito moroso, gerando limitações.
A busca pelas condições ideais, muitas vezes, pode depender de diversos testes, funcio-
nando com base em tentativas e erros. Em algum momento, será encontrado o parâmetro
ideal, mesmo que sejam necessárias semanas para isso. Entretanto como sabemos que, de
fato, foi encontrado o conjunto ideal de condições de operação? Existe uma forma de ga-
rantir que tudo ocorre, adequadamente, e que não há uma forma de ocorrer uma melhoria?
Pois bem, melhorias sempre podem acontecer. Com a tecnologia que temos, hoje,
equipamentos cada vez melhores são lançados em uma frequência quase impossível de
acompanhar. Entretanto, considerando os resultados que se tem, é possível tornar a aná-
lise da capacidade de processo algo mensurável, por meio de alguns cálculos, os quais são
relativamente simples.
Para abordar esses cálculos, precisamos, antes, apresentar alguns conceitos, amplamente,
abordados durante nossa unidade atual. O primeiro deles se trata dos limites de especi-
ficação. Você pode pensar que já conhece esse termo, visto que tratamos dos gráficos de
controle de forma aprofundada nas três unidades anteriores. Aquilo que tratamos, porém,
durante as últimas unidades eram os limites de controle, e não de especificação. Ambos os
conceitos, apesar de similares, não têm quaisquer relações matemáticas.

223
UNICESUMAR

Os limites de controle se baseiam no estabelecimento de um valor médio, calculado


utilizando um conjunto de amostras coletadas, para que, então, seja determinado o desvio
padrão entre os dados. Feito isso, o desvio padrão é multiplicado por 3, e o resultado é
subtraído e somado à média. A partir disso, temos os limites de controle inferior e superior.
Note que esse processo depende fortemente da matemática.
Os limites de especificação são baseados no valor nominal (VN), também conhecido
como valor alvo, o qual nada mais é do que aquele valor registrado na embalagem do
produto para um determinado parâmetro. Por exemplo, uma lata de refrigerante comum
costuma ter volume igual a 350 mL, e esse é justamente o VN dela.
A partir do VN, a própria gestão define o quanto aceitará de variação em relação ao
valor nominal. Caso seja dito que será aceita uma variação de 3 mL em relação ao VN
de cada lata, então, teremos 347 mL como o limite inferior de especificação (LIE) para
a lata de refrigerante, enquanto o limite superior de especificação (LSE) será de 353 mL.

Algumas embalagens de produtos costumam apresentar os limites de especifica-


ção! Quando tratamos de itens, como resistores elétricos, parafusos, pregos ou
similares, é possível que seja exposta uma informação referente ao percentual
de variação em relação ao VN.

Os limites de especificação podem ser definidos pelos próprios gestores ou, dependendo
do produto, pelo cliente, caso estejamos tratando de um produto sob encomenda. Os
parâmetros para a escolha dos limites de especificação podem variar desde os próprios
limites de controle, que podem servir como estimativa, até o simples palpite dos respon-
sáveis pela decisão, como se eles apenas dissessem que querem aquele limite.
Quando tratamos da capacidade do processo, usamos exclusivamente os limites de
especificação, deixando os limites de controle de lado. Entretanto, apesar de não tratar-
mos diretamente desse conceito, continuaremos a usar um velho conhecido nosso para
entendermos a capacidade do processo: o desvio padrão.
A determinação do desvio padrão segue, exatamente, a mesma ideia daquilo que
foi abordado em unidades anteriores, em que coletamos uma quantidade específica de
amostras, mensuramos a característica desejada e, com os resultados, determinamos o
desvio padrão amostral. Essa prática é essencial para o CEP, em quase todos os cálculos.
Com isso definido, podemos voltar à discussão específica sobre a capacidade do processo
e apresentar os chamados índices de capacidade.

224
UNIDADE 8

Os índices de capacidade são a forma matemática que temos para determinar o quanto
um processo é capaz, sendo que a análise é concluída no momento em que encontramos
esse número. É importante citar que os índices de capacidade só podem ser determinados,
quando os resultados do processo se encontram sob uma distribuição normal, isso é uma
maneira de mostrar que temos apenas causas aleatórias ocorrendo, as quais já são previs-
tas. Caso haja uma causa atribuível influenciando o processo, é possível que a distribuição
deixe de seguir a normalização, o que torna o cálculo dos índices de capacidade inútil.
O primeiro índice a ser abordado, nesta unidade, é o índice Cp. Seu cálculo depende
apenas dos elementos que já apresentamos anteriormente, que são o LIE, o LSE e o desvio
padrão, sendo determinado por meio da Equação 1:

LSE  LIE
Cp  (1)
6s
A diferença entre o LSE e o LIE é chamada de tolerância do projeto. Apesar da Equação
1 ser a forma mais comum com a qual o cálculo do índice Cp é exposto na literatura, há
obras que podem substituir o numerador pela letra T. O denominador é igual a 6 vezes
o valor do desvio padrão. O número 6 não é utilizado em vão. Lembra-se que os limites
de controle consideravam a variação de 3 limites padrões para mais e para menos da
média? Esse valor se trata da soma entre os três desvios superiores e três desvios inferiores.
Quanto maior for o resultado do cálculo, mais ajustado o processo estará. Costuma-
-se considerar como um processo realmente bom aquele cujo índice Cp esteja acima de
1,33, enquanto processos com índices abaixo de 1,0 são considerados como incapazes e
precisam passar por uma remodelagem. Valores baixos indicam um alto desvio padrão,
isso expõe que as unidades não estão devidamente concentradas na mesma região da
distribuição normal.
Como falamos de distribuições normais, revisitaremos o histograma, ferramenta da
qualidade com a qual trabalhamos no início do material. As Figuras 1, 2 e 3 expõem a
estrutura dos histogramas e das distribuições normais para diferentes níveis do índice Cp.
Figura 1 - Distribuição de um
processo cujo índice Cp é superior
a 1,33 / Fonte: o autor.

Descrição da Imagem: gráfico


LIE LSE com 7 barras verticais, sendo a
mais alta a central, sobrepos-
tos por uma curva que sobe e
desce continuamente e sime-
tricamente. Em cada um dos
lados do gráfico, há uma linha
perfeitamente vertical, sendo a
primeira, no lado esquerdo, re-
presentada pelo escrito LIE e a
segunda, no lado direito, repre-
sentada pelo escrito LSE. Todas
as barras estão entre os limites
e há um bom espaço entre elas
e as linhas de limite.

225
UNICESUMAR

Figura 2 - Distribuição de um
processo cujo índice Cp está entre
1,0 e 1,33 / Fonte: o autor.

LIE LSE Descrição da Imagem: gráfico


com 9 barras verticais, sendo a
mais alta a central, sobrepos-
tos por uma curva que sobe e
desce continuamente e sime-
tricamente. Em cada um dos
lados do gráfico há uma linha
perfeitamente vertical, sendo
a primeira, no lado esquerdo,
representada pelo escrito LIE,
e a segunda, no lado direito,
representada pelo escrito LSE.
Todas as barras estão entre os
limites, mas há pouco espaço
entre elas e as linhas de limite.

Figura 3 - Distribuição de um
processo cujo índice Cp é inferior
a 1,0 / Fonte: o autor.

Descrição da Imagem: gráfico


LIE LSE com 11 barras verticais, sendo
a mais alta a central, sobrepos-
tos por uma curva que sobe e
desce continuamente e sime-
tricamente. Em cada um dos
lados do gráfico, há uma linha
perfeitamente vertical, sendo
a primeira, no lado esquerdo,
representada pelo escrito LIE e
a segunda, no lado direito, re-
presentada pelo escrito LSE. A
maioria das barras encontra-se
entre os limites, mas algumas
ultrapassam os mesmos.

Como é possível notar, em um comparativo entre as Figuras 1, 2 e 3, quanto mais pró-


ximos os dados estiverem dos limites de especificação, menor será o Cp. Vale citar que,
mesmo com todos os dados dentro dos limites de especificação, pode ocorrer do índice
ficar abaixo de 1,0 e termos um processo incapaz. Quanto mais os dados estiverem con-
centrados no centro, melhor tende a ser o Cp.
Caso haja um excesso de dados que ultrapassem os limites, não é necessário que seja
uma parcela alta, o processo será considerado como incapaz. Isso é um problema muito
grave para qualquer companhia, pois mostra que aquilo que ela tem em mãos é incapaz
de produzir resultados constantes e satisfatórios. Em alguns casos, reajustes podem ser
suficientes para conseguir uma produção mais regular, mas isso nem sempre será sufi-
ciente. Há situações em que uma reestruturação total do procedimento pode ser a única
solução. Com base no índice Cp, pode ser construído o índice P, que é calculado com
a Equação 2:
1
P = 100 *( ) (2)
Cp

226
UNIDADE 8

Nesse caso, menores valores para o índice P são algo positivo. Caso o índice seja igual
a, por exemplo, 70, isso significa que a variabilidade do processo corresponde a 70% do
que é tolerável. Um valor próximo de 100 indica que a variação está dentro dos limites,
mas que qualquer aumento poderá comprometer os resultados (LOUZADA et al., 2013).
Para todos os fins, tanto o índice Cp quanto o índice P têm exatamente a mesma
finalidade e, apesar das escalas funcionarem de maneira contrária, ambos são facil-
mente interpretáveis. Por conta disso, a aplicação na indústria costuma variar, havendo
vários casos em que os dois índices são considerados. Entretanto o índice Cp tem uma
limitação, a qual também atinge o índice P, visto que este é influenciado diretamente
pelo primeiro. Como forma de auxiliar a compreensão dessa limitação, é apresentado o
gráfico da Figura 4.

Figura 4 - Processo fora dos limites


LIE LSE Fonte: o autor.

Descrição da Imagem: gráfico


com 7 barras verticais, sendo a
mais alta a central, sobrepos-
tos por uma curva que sobe e
desce continuamente e sime-
tricamente. Em cada um dos
lados do gráfico, há uma linha
perfeitamente vertical, sendo
a primeira, no lado esquerdo,
representada pelo escrito LIE,
e a segunda, no lado direito,
representada pelo escrito LSE.
Duas barras estão localizadas à
esquerda do limite inferior, e as
demais estão localizadas entre
os dois limites.

Para a criação da Figura 4, usamos o mesmo gráfico da Figura 1, mas com valores des-
locados para os limites. Entretanto a diferença entre o LIE e o LSE continua sendo
exatamente a mesma. Da mesma forma, o desvio padrão entre os dados do histograma,
também, é a mesma. Retornando à Equação 1 apresentada anteriormente, você nota que,
para o cálculo do índice Cp, dependemos apenas da diferença entre os dois limites e do
desvio padrão entre os dados.
Desse modo, se nos gráficos das Figuras 1 e 4 nós temos exatamente a mesma diferença
entre os limites e exatamente o mesmo desvio padrão, o índice Cp das duas será idêntico,
mesmo sendo visível que o processo da Figura 1 tem resultados muito mais desejáveis do
que aqueles apresentados na Figura 4. Isso ocorre porque o índice Cp parte da suposição
de que o centro do histograma se localiza exatamente no ponto central entre os dois li-
mites. Por conta disso, é possível que processos descentralizados apresentem índices Cp
altos quando, na verdade, fogem completamente do padrão esperado.
Por conta disso, algumas empresas optaram por abandonar o cálculo do índice Cp,
visto que ele só podia ser aplicado de maneira coerente a partir do momento em que se
tinha certeza dos valores centralizados entre os limites. Porém, na década de 80, foi criado

227
UNICESUMAR

um novo índice de controle, o qual elimina esse problema de forma definitiva e torna os resultados
mais fiéis à realidade (RAMOS; ALMEIDA, ARAÚJO, 2013). A partir de agora, trataremos do nosso
terceiro índice: o índice Cpk. Seu cálculo é realizado com base na Equação 3:

LSE  µ µ  LIE
C pk  MIN [ , ] (3)
3σ 3σ
Os valores de LSE, LIE e s são os mesmos que usaríamos durante o cálculo do índice Cp. O diferen-
cial entre os cálculos está em dois fatos. O primeiro se trata do valor de µ, que é a média dos dados
obtidos, durante as observações. Envolver essa informação no cálculo nos garante que há um compa-
rativo entre os dados e os limites propostos para o processo. A segunda diferença está no fato de que é
considerado o valor mínimo obtido com o cálculo. Na Equação 3, há dois cálculos a serem realizados,
sendo um envolvendo o LSE e outro envolvendo o LIE. Os dois resultados devem ser obtidos, mas
apenas o menor deles será considerado como sendo o índice Cpk. Isso ocorre para que tenhamos uma
noção real sobre o processo, em nada adianta ter um bom resultado em um dos cálculos e um valor
abaixo de 1,0 no outro. A Figura 5 apresenta um bom comparativo entre o índice Cp e o índice Cpk.

LIE LSE
σ=2
C p = 2,0
(a) C pk = 2,0
38 44 50 56 62

σ=2 C p = 2,0
C pk = 1,5
(b)
38 44 50 56 62

σ=2 C p = 2,0
C pk = 1,0
(c) Figura 5 - Comparativo entre o
índice Cp e o índice Cpk
38 44 50 56 62 Fonte: Montgomery (2017).

Descrição da Imagem: com-

σ=2 C p = 2,0 parativo de cinco gráficos que


indicam curvas normais. O
C pk = 0 primeiro gráfico tem a distri-
(d) buição perfeitamente centra-
lizada entre os dois limites de
38 44 50 56 62 especificação e, a cada gráfico,
a curva é deslocada um pouco
mais para a direita. Os índices
Cp de cada um dos gráficos
σ=2 C p = 2,0 permanecem idênticos, sendo
sempre iguais a 2, enquanto o
C pk = 0,5 índice Cpk diminui a cada vez
(e) que a curva é deslocada para
a direita, variando de 2 a -0,5.
38 44 50 56 62 65

228
UNIDADE 8

É importante notar que, enquanto o índice Cp terá valores positivos, visto que em qualquer
hipótese os valores do numerador e do denominador da fração serão positivos, o Cpk
poderá assumir valores negativos em casos extremamente críticos, como no exemplo
(e) da Figura 5. Isso ocorrerá quando o centro da distribuição dos dados estiver fora dos
limites de controle, o que é, sem sombra de dúvidas, uma situação muito grave. Caso
todo o processo esteja fora de controle, o Cpk adotará um resultado igual a -1 ou menor.
Situações em que o centro coincidir com um dos limites resultarão em um Cpk igual a 0.

Os índices Cp e Cpk são muito usados em conjunto, pois o


comparativo entre seus valores pode nos mostrar o nível de
perfeição que nossos processos atingem. Uma outra forma
interessante de enxergarmos os índices se baseia na definição de
que tratamos da capacidade potencial e da capacidade efetiva do
processo. Quer saber mais sobre esse comparativo? A explicação
está na nossa pílula de aprendizagem!

Apesar de algumas empresas terem abandonado o uso do índice Cp devido às limitações


já apresentadas, o índice Cpk foi amplamente adotado, o que acabou por resgatar o uso do
índice Cp. Tal resgate tem um motivo justificável! Para que você possa compreender de ma-
neira mais efetiva esse motivo, primeiramente, verifique o gráfico apresentado na Figura 6.

µ B = 57,5
σB = 2,5

LIE µ A = 50 LSE
σA = 5 B
A

38 40 T = 50 60 70
Figura 6 - Gráficos A e B, ambos com o mesmo índice Cpk / Fonte: Montgomery (2017).

Descrição da Imagem: duas curvas normais, A e B, sendo que A tem seu centro em 50 e desvio padrão igual a 5,
enquanto B tem seu centro em 57,5 e desvio padrão igual a 2,5. Os limites de especificação inferior e superior são,
respectivamente, 35 e 65.

229
UNICESUMAR

No caso representado na Figura 6, temos dois processos cujos Cpk são 1,0. É perceptí-
vel, porém, que ambos são completamente diferentes. Enquanto o centro do processo
A coincide com o centro entre os limites de especificação, o centro do processo B está
deslocado para uma posição mais próxima do LSE. Por outro lado, as observações de A
estão espalhadas, enquanto as observações de B estão mais concentradas em uma única
região. Isso mostra que, mesmo funcionando de uma maneira mais precisa do que o
índice Cp, o índice Cpk, também, tem uma limitação.
E, de uma forma quase irônica, a forma de corrigir esse erro se baseia no uso do
índice Cp, que antes havia sido preterido em função do Cpk. Ao usar os dois índices
simultaneamente, teremos uma forma de garantir que o processo esteja funcionando
adequadamente e com resultados perfeitamente centralizados, quando tivermos re-
sultados iguais para ambos. Diferenças pequenas, também, são plenamente aceitáveis
(MONTGOMERY, 2017).
É seguro dizer que, caso o índice Cpk seja bom, o índice Cp também terá um valor
aceitável. Entretanto, o uso simultâneo dos dois é o que, de fato, dá uma utilidade defi-
nitiva ao cálculo dos índices. Também, pode-se contornar a situação com o uso de um
único índice, que é o índice Cpm. A vantagem dele sobre o uso dos índices Cp e Cpk
está no fato de que é realizado um comparativo direto entre o valor central, os limites
estabelecidos para o processo e a média obtida entre as observações. Esse índice é cal-
culado a partir da Equação 4:

LSE  LIE
C pm  (4)
6t
Os valores de LSE e LIE são os mesmos sobre os quais discutimos anteriormente. A única
diferença nesse índice em relação aos demais é o valor de t , que é calculado com base
na Equação 5:

τ 2  σ 2  (µ  T )2 (5)

Atente-se ao fato de que a Equação 5 determina o valor de t ao quadrado. Deve-se


determinar a raiz do resultado, antes de aplicá-lo à Equação 4. Ainda, sobre a Equação 5,
sabemos de momentos anteriores que s se refere ao desvio padrão entre as observações,
enquanto µ é a média entre os valores delas. A variável T nada mais é do que a média
entre os valores de LSE e LIE, ou seja, conforme a Equação 6:

LSE  LIE
T (6)
2

230
UNIDADE 8

Pode-se calcular o índice Cpm de uma forma alternativa, tendo como base o índice Cp.
Para tanto, usa-se a Equação 7:
C´ p
C pm  (7)
2
1 x

A variável (lê-se “csi”) é determinada com base na diferen x ça entre a média das obser-
vações e o centro entre os limites, a qual será dividida pelo desvio padrão. Expressando,
matematicamente, temos a Equação 8:

µ T
ξ (8)
σ
Independentemente da opção pela Equação 4 ou 7, o resultado para o índice Cpm será
o mesmo, salvo casos em que haja algum arredondamento. A interpretação do resulta-
do é a mesma que a dos demais índices apresentados, com valores acima de 1,33 sendo
plenamente capazes; valores entre 1,00 e 1,33 sendo considerado aceitáveis, e valores
abaixo de 1,00 ocorrendo para processos considerados incapazes.
Conforme o valor de μ se afasta do valor de T, o valor do índice é reduzido. Isso condiz
com a realidade, pois indica que o centro da distribuição de dados se afasta da posição
central entre os limites estabelecidos, além de ser algo que também ocorre com o índice
Cpk (MONTGOMERY, 2017).

Há diversos artigos científicos que apresentam a aplicação prática dos


índices de capacidade! Uma ótima sugestão de estudo envolvendo
os índices Cp, Cpk e Cpm é “Estudo da estabilidade e da capacidade
do processo de envase de iogurte em uma indústria de laticínios”,
publicado em 2020, por Smaniotto et al., o qual apresenta não ape-
nas os cálculos já discutidos durante o conteúdo dessa unidade, mas
também o uso de forma efetiva dos três índices e sua relação com as
ferramentas da qualidade.
Para acessar, use seu leitor de QR Code.

231
UNICESUMAR

A relação dos índices de capacidade de processos com o histograma ficou evidente


durante o que foi discutido até o momento, e é válido reforçar que, caso a distribuição
representada no histograma não siga a normalidade, não há propósito algum em de-
terminar os índices, visto que não será necessário calculá-los para saber que o processo
não segue um bom caminho. Entretanto, apesar do histograma ser a ferramenta mais
relacionável à capacidade do processo, é possível buscar uma combinação com outras
ferramentas da qualidade abordadas em nosso material.
Um exemplo está na folha de verificação, a qual, dependendo da sua estrutura, poderá
construir um histograma de forma automática. Isso permite que os índices Cp e Cpk
possam ser registrados já na própria folha, o que gera um ótimo complemento para a
análise dos dados. Entretanto, é possível estabelecer uma relação também com os gráficos
de controle para variáveis, mais especificamente com os gráficos x-R e x-s. Para que essa
combinação seja realizada, basta pensar nos elementos envolvidos nos gráficos de forma
análoga às variáveis usadas para a determinação dos índices de capacidade.
Como vimos em unidades anteriores, para a montagem dos gráficos é usada a média
global entre os dados, representada por x . Para que possamos continuar com essa re-
lação, devemos considerar a estimativa para o desvio padrão, a qual pode ser calculada
por meio da igualdade apresentada na Equação 9:

R s
s
= = (9)
d2 c4
Os valores de R e de s são, respectivamente, a amplitude média e o desvio padrão médio
entre as observações. Devemos usar apenas um deles, o que depende diretamente do tipo
de gráfico que estivermos usando. Os valores de d2 e de c4 são tabelados e dependem
diretamente da quantidade de observações envolvidas em cada amostra. Eles são apre-
sentados na Tabela 1.

232
UNIDADE 8

n d2 c4 O resultado obtido a partir do cálculo da Equação


2 1,128 0,7979 9 será usado como o desvio padrão no cálculo
3 1,693 0,8862 dos índices Cp, Cpk ou Cpm. Com base em tudo
4 2,059 0,9213 que foi abordado até o momento, nesta unidade,
5 2,326 0,9400 realizaremos um exemplo para que possamos
6 2,534 0,9515 proceder com o cálculo de cada um dos índices
7 2,704 0,9594 discutidos. Para facilitar a execução, sugiro que
8 2,847 0,9650 você anote em uma folha de papel — ou na pró-
9 2,970 0,9693 pria página do livro — as principais equações
10 3,078 0,9727 apresentadas no decorrer da unidade, pois elas se-
11 3,173 0,9754 rão consultadas durante a realização do exercício.
12 3,258 0,9776 Em nosso estudo de caso inicial, discutimos
13 3,336 0,9794 o caso que Camile enfrentou em uma empresa
14 3,407 0,9810 de enlatados. Tratamos, agora, de uma situação
15 3,472 0,9823 ocorrida no mesmo lugar, em que foram pesadas
16 3,532 0,9835 latas de milho cujo valor alvo é de 1 kg. Foram
Tabela 1 - Valores de d2 e c4 para diferentes quantidades de ob- coletadas 154 amostras, as quais estão distribuí-
servações por amostra / Fonte: adaptada de Montgomery (2017).
das na Tabela 2.

233
UNICESUMAR

1,017 1,054 0,975 1,110 1,031 0,959 0,986


0,967 1,032 1,006 0,930 1,035 1,009 0,971
1,084 1,014 0,961 1,069 1,022 0,960 1,002
1,002 0,946 1,053 1,110 0,990 1,067 0,946
1,081 1,018 1,023 1,014 1,038 0,934 0,952
0,913 1,076 0,953 1,073 1,094 0,963 1,002
0,983 1,088 1,049 1,071 0,970 0,911 1,000
1,106 0,992 0,945 0,993 0,963 0,985 1,018
0,995 1,105 0,910 1,018 0,958 1,048 1,044
1,090 1,076 1,065 0,977 1,057 0,967 0,961
0,976 1,003 1,003 0,975 1,031 0,941 1,036
1,004 1,106 1,105 0,926 1,092 0,952 1,012
1,098 1,044 1,066 1,032 0,966 0,912 0,983
1,013 1,074 1,067 1,027 0,999 1,042 1,007
1,039 1,020 1,109 0,923 1,026 1,028 1,083
1,095 1,069 0,991 1,053 1,021 1,112 0,936
0,985 0,993 0,937 1,088 1,042 0,913 1,027
1,057 1,061 0,992 0,991 0,986 0,941 1,042
1,102 1,002 1,009 0,931 0,912 1,025 1,043
0,920 1,100 1,074 1,005 1,023 1,006 1,051
0,993 0,964 1,033 1,017 1,021 1,018 1,042
0,988 1,098 0,923 0,992 0,967 0,957 0,930
Tabela 2 - Dados coletados por Camile na análise de latas de milho de 1 kg / Fonte: o autor.

Para analisar o índice de capacidade do processo, primeiramente é necessário verificar se os dados


compõem uma distribuição normal. Para tanto, eles foram devidamente organizados em um histo-
grama, o qual está representado na Figura 7.

30

25

20

15

10

0
0,90 a 0,92 a 0,94 a 0,96 a 0,98 a 1,00 a 1,02 a 1,04 a 0,90 a 1,08 a maior
0,92 0,94 0,96 0,98 1,00 1,02 1,04 1,06 0,92 1,10 que 1,10

Figura 7 - Distribuição em forma de histograma dos dados coletados por Camile / Fonte: o autor.

Descrição da Imagem: um histograma em forma de distribuição normal, com o ponto mais alto sendo a coluna central.

234
UNIDADE 8

Após a verificação na Figura 7, podemos dizer que, de fato, a distribuição segue um


formato dentro da normalidade, o que nos permite proceder com o exemplo. O limite
estabelecido pela empresa tem uma variação de até 10% em relação ao valor alvo. Como
nosso alvo é de 1 kg, a variação pode ser de 100 g para mais ou para menos, o que nos
dá uma faixa de valores entre 0,90 kg e 1,10 kg — respectivamente, nossos LIE e LSE.
O segundo passo é a determinação do desvio padrão entre as observações, o qual é de
0,054. Com isso, podemos determinar nosso índice Cp com a Equação 1.

1, 10  0, 90
Cp   0, 62
6 * 0, 054
O valor de 0,62 obtido para o índice Cp não nos dá um bom sinal, pois indica que os
dados estão muito espalhados em relação ao centro da distribuição. Note que, mesmo
com a maioria das colunas do histograma correspondendo a valores localizados entre os
limites, o índice teve um valor baixo, isso ocorre por conta do desvio padrão ser muito
alto. Tratando-se do índice P, temos o seguinte cálculo por meio da Equação 2:

1
=P 100
= * 161, 29
0, 62
Sabemos que valores acima de 100 são ruins, quando falamos do índice P. O resultado
condiz com a conclusão que tivemos em relação ao índice Cp. Para o índice Cpk, deve-
mos calcular a média entre todos os dados coletados, que é de 1,013 kg. A partir disso,
obtemos os seguintes resultados:

1, 10  1, 013 1, 013  0, 90 0, 62
C pk  MIN [ ; ]  MIN [0, 54; 0, 70]] C pm   0, 60
3 * 0, 054 3 * 0, 054 1  0, 242

Como devemos escolher o valor mínimo encontrado entre os dois cálculos envolvidos
no índice Cpk, temos que o resultado é de 0,54. Novamente, temos um valor que indica
problemas no processo. Por último, podemos realizar o cálculo para o índice Cpm. Por
meio da Equação 6, encontramos o valor de T:

1, 10  0, 90
T  1, 00
2
Em seguida, calculamos o valor de x com a Equação 8:

1, 013  1, 00
x  0, 24
0, 054
Para, enfim, encontrarmos o índice Cpm com a Equação 7:

235
UNICESUMAR

Com base no que vimos no exemplo, os resultados do processo são todos ruins, o que nos faz concluir
que há algum problema no que é realizado. Sendo assim, quais serão as possíveis soluções? Pois bem,
a primeira delas seria realizar um comparativo com o LIC e o LSC. Sabemos que, para um processo
comum, costuma-se considerar os limites a 3 desvios padrões de distância da média entre os dados.
Com o que temos registrado no exemplo, nossos LIC e LSC seriam, respectivamente, próximos de
0,84 e 1,16 — uma faixa mais ampla do que dos limites estabelecidos e que contém todos os dados
coletados. Com base nisso, cabe o questionamento: os limites de especificação estão muito rígidos?

Qual o raciocínio que se deve ter por trás do desenvolvimento dos


limites de especificação? Há uma forma de compreendermos que
exigimos demais do processo? Muitas vezes, a falha pode não ser o
processo em si, mas os limites que escolhemos! No nosso Podcast,
a discussão é relacionada às formas que podemos usar para
escolher os limites de especificação!

Outra possibilidade é a de que tenhamos um desvio padrão muito alto. Na maioria das vezes, esse será,
de fato, o problema por trás de índices ruins, e caberá aos responsáveis pelo gerenciamento de pro-
cessos encontrar uma maneira de tornar os resultados mais concentrados ao redor do valor nominal.
Em alguns casos, o próprio equipamento não terá condições de atender ao que foi especificado pela
empresa, o que resultará em um estudo de verificação a respeito do tema. Seria necessário aumentarmos
a faixa de valores aceitáveis ou trocar os equipamentos? No fim das contas, os índices de capacidade
nos ajudam a entender nossas limitações e a buscar pelas perguntas certas a serem feitas.

Os índices de capacidade, apesar de diferentes, têm todos uma mesma finalidade: nos ajudar
a compreender se, no cenário atual, temos condições de atender às especificações estabe-
lecidas pela gestão e pelos clientes. Os índices Cp e Cpk, juntos, nos ajudarão a verificar se o
processo se encontra, de fato, com dados centralizados ao redor do nosso valor alvo e se eles
poderiam ser mais concentrados em uma mesma região, enquanto o índice Cpm realiza as
duas análises por contra própria.
Diferente do que discutimos em unidades anteriores, nas quais caberia uma discussão sobre
qual é a melhor opção a ser aplicada — como a melhor ferramenta da qualidade ou o melhor
tipo de gráfico de controle —, nesse caso, cabe a aplicação de todos simultaneamente, pois
os índices se complementam.

236
UNIDADE 8

Com a discussão a respeito dos índices, praticamente encerramos o conteúdo a ser abordado em
nosso material. Partiremos para a última unidade, mas, antes, não se esqueça de realizar os exercícios
preparados para você!
Os índices que discutimos são aplicados na prática tanto pela sua utilidade quanto pela sua facilidade.
As equações envolvidas são relativamente simples, principalmente quando comparadas às discussões
que tivemos em unidades anteriores.
A partir do momento que se conhecer o desvio padrão e a média da característica estudada entre
as amostras coletadas, a aplicação dos índices se tornará extremamente simples, partindo, é claro, do
princípio de que já temos os limites estabelecidos e o valor alvo conhecido. Teremos noção se, de fato,
é possível cumprir com o que foi proposto ou se é necessário realizar uma remodelagem do processo.
Vale dizer novamente que, caso os resultados não correspondam a uma distribuição normal, não será
necessário determinar o índice de capacidade para saber que ele não corresponde às expectativas!
A possibilidade de atrelar os índices de capacidade às ferramentas da qualidade os torna ainda mais
convenientes, pois, como os dados para a definição deles já foram extraídos no momento
da montagem do histograma ou do gráfico de controle, o único trabalho
restante acaba por ser a realização do cálculo, o qual pode ser
realizado sem maiores dificuldades por meio de
softwares, como o Microsoft Excel.

237
Para finalizarmos a unidade, que tal preenchermos o mapa mental? O conteúdo dessa unida-
de, apesar de ser relacionado ao que vimos anteriormente, é um tanto diferente de tudo que
abordamos até agora; por conta disso, nosso mapa mental terá poucas ligações com aquilo que
discutimos nos capítulos anteriores.
No quadro, temos os quatro índices apresentados durante a unidade listados. Todos eles se in-
terligam em um único quadro maior. Sua tarefa é descrever, para cada um dos índices, quais são
os parâmetros necessários para seus cálculos e quais são as suas respectivas limitações, além
de suas vantagens perante os demais. Em seguida, no último quadro, apresente a finalidade
conjunta de todos os índices.

CAPACIDADE DE PROCESSO

Índice Cp Índice P Índice Cpk Índice Cpm

Descrição da Imagem: um quadro com o escrito “capacidade de processo” e que se divide em quatro quadros menores: índice
Cp, índice P, índice Cpk e índice Cpm. Os quatro quadros se unem em um único quadro maior.

238
1. Sabe-se que os índices Cp e Cpk são utilizados para determinar a capacidade de um
processo, quanto maior for o seu valor, melhor tende a ser o processo. Um processo
de produção de cremes dentais tem como limites inferior e superior de especificação,
respectivamente, os valores de 95 g e 105 g. A média dos resultados obtidos em um
processo foi de 98,3 g, com desvio padrão de 1,2. Com base nas informações expostas,
analise as alternativas, a seguir.
I) O índice Cp é de 1,39.
II) O índice P é de aproximadamente 72.
III) O índice Cpk é de 1,86.
IV) Com base nos índices Cp e Cpk, o processo pode ser considerado como plenamente
capaz.

É correto o que se afirma em:


a) I, apenas.
b) I e II, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.

2. A seguir, estão dispostos 100 observações realizadas em uma empresa fabricante de


travesseiros. O modelo analisado tem como valor nominal 600 g, e os dados coletados
estão apresentados na tabela seguinte.

592,26 592,71 599,67 594,23 596,27 606,47 595,71 596,92 597,03 605,82
600,04 600,42 606,00 603,88 607,58 605,67 603,46 594,62 600,50 600,92
602,75 599,99 599,88 602,41 599,82 592,10 591,81 597,48 604,45 600,70
607,26 606,83 600,30 601,98 598,08 595,22 600,12 595,48 603,97 600,72
593,54 591,95 595,12 604,43 601,04 599,95 598,49 599,79 601,70 603,31
598,34 605,67 598,70 605,22 600,86 594,21 603,93 600,00 591,23 593,75
602,87 594,07 595,27 596,32 596,52 601,57 601,15 598,87 595,32 603,81
598,51 593,85 597,42 605,03 591,42 595,83 595,99 600,32 603,24 596,76
605,55 599,10 591,27 600,03 601,59 603,62 592,28 597,93 597,23 606,93
605,68 607,72 599,16 597,63 600,98 601,05 600,31 600,58 597,86 600,01

Fonte: o autor.

239
Com base nos dados expostos, realize os itens a seguir:
a) Monte um histograma de 7 classes, sendo a primeira com valores de menores que
592 g, a segunda com valores entre 592 g e 595 g e, assim, por diante, com as classes
variando de 3 em 3 gramas.
b) Com o formato do histograma obtido, é possível determinar os índices de capacidade
do processo? Justifique sua resposta.
c) Considere que o LIE é de 580 g e que o LSE é de 620 g. Determine os índices Cp e Cpk.
d) O processo pode ser considerado como adequado? Justifique sua resposta.

3. A seguir, estão registrados os gráficos de quatro processos, nos quais as barras verticais
indicam o limite inferior de especificação (LIE) ou o limite superior de especificação (LSE),
conforme indicações. Os valores dos limites são iguais para todos os casos.

A B

LIE LSE LIE LSE

C D

LIE LSE LIE LSE


Fonte: o autor.

Descrição da Imagem: quatro gráficos com distribuições normais, indicados pelas letras A, B, C e D. O gráfico A tem uma
distribuição estreita e próxima ao LSE. O gráfico B tem uma distribuição espalhada, com uma parte dela ultrapassando
o LIE. O gráfico C tem uma distribuição estreita e perfeitamente centralizada entre LIE e LSE. O gráfico D tem uma distri-
buição perfeitamente centralizada e espalhada entre LIE e LSE.

240
A respeito das distribuições expostas, são feitas as seguintes afirmações:
I) Os índices Cp dos gráficos B e D têm valores próximos.
II) Os índices Cpk dos gráficos C e D têm valores próximos.
III) O processo C é, visivelmente, aquele com os resultados mais adequados.
IV) O índice Cp de A é maior que o índice Cp de D, mas, sem os devidos valores, não é
possível dizer qual das duas distribuições tem o maior Cpk.

É correto o que se afirma em:


a) III, apenas.
b) I e II, apenas.
c) III e IV, apenas.
d) I, III e IV, apenas.
e) I, II, III e IV.

4. Suponha que uma fábrica de bebidas tenha como um de seus produtos refrigerantes,
os quais vêm em garrafas de 1 litro. O limite inferior de especificação é de 990 mL, en-
quanto o limite superior de especificação é de 1,01 L. Considere que o desvio padrão
obtido a partir de uma coleta e análise de 30 amostras seja de 3 mL.
Com base na situação exposta, analise as asserções a seguir.
I) O índice Cp do processo em questão é de 1,22.
II) O índice Cp do processo pode ser considerado como aceitável.
III) Pode-se afirmar que, caso fossem coletadas mais observações, o processo com
certeza teria um índice Cp menor.
IV) Caso a média dos dados do processo seja de 1,004 L, então o índice Cpk estará
abaixo de 1, fazendo o processo ser considerado incapaz.

É correto o que se afirma em:


a) III, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, II e IV, apenas.
e) II, III e IV, apenas.

241
5. Um gráfico de controle x-s é usado para analisar dados coletados em um processo de
produção de peças de tecido, as quais devem ter comprimento igual a 20 m. Sabe-se que
o LIE e o LSE são, respectivamente, 16 m e 24 m. A média global entre as observações
é de 20,6 m, enquanto o desvio padrão médio entre as amostras é igual a 0,53, sendo
usadas 15 observações para a composição de cada amostra.
Com base nas informações passadas, analise as afirmações a seguir:
I) O índice Cp é de 2,47.
II) O índice Cpk é de 2,10.
III) O índice P é menor que 40.
IV) O processo pode ser considerado plenamente capaz sob todos os pontos de vista.

É correto o que se afirma em:


a) I, apenas.
b) II, apenas.
c) I e III, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.

242
243
244
9
Amostragem
de Aceitação
Me. Paulo Otávio Fioroto

Apresentação dos tipos de planos de amostragem, desenvolvimento


e estruturação de planos de amostragem, interpretação das plani-
lhas das normas brasileiras para amostragem por variáveis e por
atributos e dos diferentes níveis de inspeção.
UNICESUMAR

Durante todo o material, discutimos as ferramentas da qualidade; fala-


mos sobre gráficos de controle e abordamos limites para identificar o
quanto as amostras daquilo que coletamos está, de fato, dentro do que
gostaríamos que estivesse. Tudo isso é parte importante e constante do
CEP — na verdade, essa é a grande essência dessa área. E, justamente,
por isso, deveria existir alguma norma ou lei que atuasse como regi-
mento a respeito do assunto, algo que padronizasse de que forma todas
as empresas devem pensar e agir diante das análises. Não faz sentido
cada empresa ter suas próprias normas, pois os padrões de qualidade
para cada uma são diferentes, enquanto algumas se contentam com
95% das unidades de um lote dentro do esperado, outras exigem que,
no mínimo, 98% esteja de acordo com o padrão para que seja aprovado.
Sendo assim, fica o questionamento: existe alguma norma que esta-
beleça um padrão a respeito do CEP? Essas normas valem igualmente
para todo tipo de empresa? E, ainda, as normas garantem que o lote
inteiro estará de acordo com o que se espera? Além desses questiona-
mentos, há algo mais a ser considerado. Anteriormente, nas Unidades
5 e 6, tratamos dos gráficos de controle para atributos e para variáveis.
Sabemos que há diferenças importantes entre esses dois aspectos. En-
quanto atributos se referem às quantidades de itens defeituosos ou à
quantidade de defeitos em cada unidade, as variáveis tratam de dados
que são expressos em uma escala contínua, como o peso e a altura. Por
serem dados de naturezas diferentes, é de se esperar que suas análises
ocorram de formas diferenciadas.
Caso haja uma legislação a respeito do assunto, ela será a mesma
para os atributos e para as variáveis? Afinal, se tratamos de dados de
naturezas diferentes, é de se esperar que tenhamos comportamentos
diferentes e, consequentemente, que realizemos interpretações dife-
rentes. Durante nossa última unidade, discutimos esses tópicos com
a intenção de que você possa compreender e interpretar as questões
legislativas relacionadas ao CEP. Entre todas as unidades deste material,
esta é aquela cuja aplicação prática no ramo industrial será a mais visível.
Antes de iniciarmos nosso conteúdo, tratamos de um caso vivencia-
do por Caroline — a mesma personagem que vimos em nossa primeira
unidade — que, após alguns anos de experiência no ramo de bebidas,
recebeu uma proposta de uma empresa que estava procurando iniciar
na área de bebidas alcoólicas e que precisava de alguém com certo
conhecimento para auxiliar na estruturação das normas internas. Por
ter recebido uma oferta interessante, Caroline decidiu que era hora de
mudar de ares e agarrar a oportunidade.

246
UNIDADE 9

Como a empresa, ainda, estava em estágio incipiente, não havia quaisquer normas internas sobre
a qualidade, assim como não existia algum conhecedor das legislações a respeito do CEP. A verdade é
que Caroline havia sido contratada para ser essa pessoa e, apesar de ter um conhecimento razoável a
respeito do assunto e ter auxiliado na concepção de vários processos em seu emprego anterior, nunca
havia recebido a árdua missão de estruturar um setor por completo, desde a estaca zero.
Ela sabia muito bem as normas envolvidas no CEP e como interpretá-las, mas só pode haver apli-
cação das normas referentes à amostragem, quando se sabe o tamanho dos lotes que serão produzidos.
Sendo assim, todo um processo de organização com os demais setores deve ser realizado. Durante a
unidade, discutimos os pontos necessários para que Caroline possa estruturar o processo da melhor
maneira possível, de forma a serem apresentadas alternativas e justificadas às escolhas adotadas.
Antes de iniciarmos a discussão, que tal realizar um experimento em
sua própria casa? Nosso teste poderá ser realizado com qual-
quer item que contenha várias unidades dentro de uma
mesma embalagem, como uma caixa de cotonetes, um
pacote de parafusos ou, até mesmo, um pacote de
biscoitos, que será utilizado em nossa explicação.
Ao retirar o produto da embalagem, você
acredita que a qualidade dele tenha sido testa-
da? A verdade é que, se algum dos itens listados
anteriormente estiver em suas mãos, ele certa-
mente não terá sido avaliado. O lote ao qual a
embalagem pertence com certeza terá passado
por diversas análises, mas não essa unidade
específica que você tem em mãos.
Você consegue entender o motivo para
isso? Pois bem, para ajudar na compreensão,
abra o pacote e retire o primeiro biscoito. Quais
parâmetros você acredita que possam ser avaliados
durante a análise de qualidade? Questões como o
peso, as dimensões de largura, comprimento e espes-
sura, além da textura e da análise sensorial, são muito
importantes para produtos alimentícios. Se tratarmos de
biscoitos recheados, o recheio também deve passar por testes
referentes à textura e à doçura. Se falarmos dos parafusos, estes
devem ter sua resistência testada, o que pode ser feito com algum
equipamento que aplique testes de pressão, além de, novamente,
ser necessária a avaliação das suas dimensões. Cada item tem
suas características de maior relevância.

247
UNICESUMAR

Você consegue realizar todas essas análises sem manusear os itens em questão? Mesmo
com o uso de luvas, é quase impossível que não haja ao menos alguma contaminação
no item; isso já tornaria os cotonetes inutilizáveis, pois a intenção deles é justamente
que sejam perfeitamente limpos. Além disso, tanto tempo de exposição ao ar tornará
o biscoito menos crocante. Após tantos testes, torna-se impossível que o item possa
ser consumido. Muitas vezes, uma amostra pode nem ao menos passar por todas as
análises, pois será destruída durante algum outro procedimento. Você não conseguirá,
de maneira alguma, fazer com que o item volte a ter as características que tinha antes.
O que foi apresentado indica que nunca manusearemos um item que tenha
passado por uma inspeção de qualidade? Não, nem um pouco! Cada item tem
uma natureza diferente. Enquanto algumas variedades passam por processos que
os tornam inutilizáveis, outros passam por avaliações que em nada os afeta, por
exemplo, equipamentos eletrônicos, automóveis e produtos desenvolvidos sob
encomenda. Entretanto isso traz um novo questionamento: quantos itens devem
ser testados para que tenhamos certeza de que o lote pode ser aprovado? Como
saberemos que nossos testes foram suficientes para supor que não haverá
maiores problemas futuramente?
Para que seja possível responder a essa pergunta, você precisa, primeiro,
saber quantos itens são produzidos. Vamos supor que a embalagem de bis-
coitos que você tem em mãos seja um lote completo. Contabilize quantas
unidades há nela. São quinze, vinte? Independentemente de quantas forem,
considere o seguinte: as unidades que forem testadas não poderão ser
ingeridas. Você deve realizar ao menos um teste para poder dizer que o
restante da embalagem será consumido.
Por um lado, quanto menos amostras você analisar, maior será a chance
de ocorrer uma falha entre as demais, o que poderá trazer problemas
no futuro; entretanto você poderá comer mais. Por outro, quanto mais
amostras você testar, menores serão as chances de ocorrer algum proble-
ma, mas você tirará menos proveito do seu pacote. Esses aspectos são,
na verdade, definidos por normas e legislações, caso contrário, cada
um testaria conforme bem entendesse. A partir de agora, trataremos
dessas situações de maneira específica.

248
UNIDADE 9

DIÁRIO DE BORDO

Primeiramente, é importante que o conceito de “lote” fique claro, visto que falaremos bastante sobre
eles no decorrer da unidade. Lotes são um conjunto de unidades que foram produzidas em uma mes-
ma remessa e, consequentemente, possuem um mesmo código, quando registrados pela empresa. Há
alguns pontos que devem ser sempre lembrados a respeito deles.
Um lote deve ser sempre homogêneo no que se refere à produção. As unidades devem ser produzidas
pela mesma máquina, pelo mesmo operador, utilizando a mesma matéria-prima e na mesma faixa de
horário. Isso facilita o rastreamento de eventuais falhas e a aplicação de ações corretivas. Além disso,
em termos econômicos, lotes maiores são preferíveis a lotes menores; proporcionalmente, a inspeção
de amostras de lotes grandes é mais fácil e barata de ser realizada (DIAS, 2011).
A ação de utilizar algumas amostras dentro de um lote completo para serem analisadas chama-se
amostragem, e trata-se de um procedimento bastante comum na indústria na atualidade. Antigamente,
até o início do século XX, a inspeção era realizada com 100% das unidades produzidas, o que gerava
muitos gastos e tomava muito tempo. Como as normas da qualidade não eram bem definidas, produ-
tos alimentícios não passavam por avaliações, o que tinha grande potencial para causar problemas de
saúde aos consumidores (MONTGOMERY, 2017).

249
UNICESUMAR

Anteriormente, os testes eram regidos por normas internas das companhias, que
escolhiam quantas unidades de cada lote deveriam ser testadas. Porém algumas delas
analisavam parcelas muito pequenas, as quais, estatisticamente, geravam resultados in-
conclusivos. A partir de então, foram estabelecidas normas gerais para reger as análises
e decisões referentes à amostragem.
Deve ficar claro que a intenção da análise por amostragem é avaliar a aceitação ou
rejeição do lote, e não estimar a qualidade do produto. Você provavelmente já encontrou
latas com bebidas ruins, biscoitos um pouco mais queimados do que o normal ou algo
similar. A qualidade do produto final pode não ser a mais adequada, mas, dentro dos
parâmetros estabelecidos pela empresa no que se refere às amostras, o lote, ainda, foi
considerado como aceitável (MONTGOMERY, 2017).
Quando tratamos da inspeção por amostragem, os resultados possíveis são apenas a
aceitação total ou a rejeição total, sem um meio termo. Não há sentido em aceitar um lote
parcialmente, quando tratamos da análise por amostras. Na inspeção 100%, é possível
recusar apenas aquelas unidades nas quais forem identificadas as falhas.
A amostragem de aceitação é adotada na maioria dos casos, enquanto a inspeção 100%,
que analisa todas as unidades produzidas, é comum em casos nos quais os produtos são
feitos sob encomenda ou quando há poucas unidades produzidas, além de casos nos
quais o custo de uma única falha poderá ser extremamente alto. Vale citar que, além das
unidades produzidas, também, é um hábito comum inspecionar as unidades adquiridas
de um produtor inicial, pois é uma forma de termos certeza de que foi adquirido material
de qualidade aceitável.
Tratando-se da amostragem de aceitação, temos sua presença mais comumente quando
tratamos de testes destrutivos; quando a inspeção 100% for muito custosa em termos de
tempo ou financeiros, em situações nas quais a taxa de erro da inspeção for muito alta,
pois, em situações como essa, a quantidade de falhas encontradas em uma inspeção 100%
e em uma inspeção por amostras será muito próxima; quando o histórico do fornecedor
original do produto for impecável e quando houver obrigatoriedade de inspeções para
que o processo possa ser continuado.

Testes destrutivos são aqueles nos quais as amostras analisadas são destruídas
durante a verificação. O exemplo dado no início desta unidade, tratando de
biscoitos, cotonetes e parafusos, envolve testes destrutivos, pois as amostras
analisadas não voltam ao estado original, após serem analisadas.

250
UNIDADE 9

A inspeção por amostras é, definitivamente, a mais utilizada na atualidade, primeiramente


pelo fato da maioria das produções ocorrerem em massa. Além disso, há diversas vanta-
gens na sua aplicação em comparação à inspeção 100%. Primeiramente, como já citado,
os custos são menores. Como há menos manipulação, temos uma quantidade menor de
pessoas interagindo com os itens e há uma menor probabilidade de ocorrerem avarias.
Há, também, uma questão psicológica envolvida. Conforme apontado anteriormente,
quando realizamos a inspeção 100% de um lote adquirido de um fornecedor e encontra-
mos falhas, devolvemos apenas as unidades defeituosas que foram encontradas. Quando
realizamos a inspeção por amostragem, caso encontremos uma quantidade de falhas maior
do que a aceitável, devolveremos o lote inteiro. Por conta disso, o impacto no fornecedor
é maior, o que o pressiona a aplicar medidas de qualidade mais rígidas em seus processos.
Da mesma forma, há algumas desvantagens na amostragem. A maior delas está no
fato de que apesar de uma probabilidade ser muito pequena, é possível recusar lotes que
na verdade seriam aceitáveis e aceitar lotes que seriam recusados, caso fosse utilizada a
inspeção total; por exemplo, caso haja apenas cinco unidades falhas dentre mil fabricadas,
ainda existirá a chance de justamente essas amostras problemáticas serem escolhidas
aleatoriamente para a avaliação, o que geraria a recusa das 995 unidades boas. Além disso,
deve-se considerar o fato de que a análise por amostragem, apesar de menos trabalhosa
em termos práticos, exige mais planejamento e documentação, visto que são necessários
estudos das normas para que seja definido o tamanho da amostra em relação ao tamanho
do lote e do tipo de produto.
Em nosso país, há duas normas técnicas brasileiras (NBR) principais que regem os
planos de amostragem. Tratam-se da NBR 5426, que é focada na inspeção por atributos,
e da NBR 5429, que é voltada à inspeção por variáveis. Ambas explicam detalhadamente
como deve ser estruturado o plano de amostragem para cada situação, considerando o
tamanho dos lotes e, caso ainda haja dúvidas no que se refere a ambas, as NBR 5427 e
5430 são, literalmente, guias para a utilização das normas supracitadas.
Elas não foram estruturadas aleatoriamente, houve diversos estudos e cálculos, além
de embasamento em normas internacionais para a sua estruturação, e sua aplicação pode
ser realizada tanto em produtos finalizados quanto em componentes, matérias-primas e
produtos que estejam em meio ao processamento. Sua função é justamente a de facilitar
e normalizar os planos de amostragem no Brasil, como uma forma de proteger tanto as
empresas quanto os consumidores.
Por “proteger”, referimo-nos ao fato de que, enquanto existirem essas normas, teremos
a certeza de que os clientes não serão lesados ao receberem itens vindos de um lote que
não passou por inspeções e que, caso ocorra algo, as empresas estarão protegidas de
impactos maiores ao comprovarem que houve a realização dos testes exigidos por lei no
momento da liberação do lote, mostrando que a chegada de unidades problemáticas foi
algo completamente acidental.

251
UNICESUMAR

Caroline, em sua pesquisa na busca pela estruturação dos processos de análise, teve
certeza imediata de que deveria usar os planos de amostragem ao invés da inspeção 100%.
Entretanto, em um primeiro momento, teve dúvidas sobre as normas que deveria utiliza r,
pois tanto as análises para atributos quanto para variáveis estariam envolvidas. Porém não
demorou muito para que entendesse que ambas deveriam ser utilizadas. Como há análises
das duas naturezas na indústria de bebidas, os resultados de cada teste serão regidos pelas
suas normas específicas.
Cada um dos planos tem sua própria natureza, e esse será nosso foco a partir de agora.
Primeiramente, trataremos dos planos de amostragem para atributos. Conforme previs-
to por lei, há diversas formas de estruturar o plano de amostragem para atributos. A primeira
delas, e a de mais fácil interpretação, é o plano de amostragem única. Nesse formato, é
selecionada uma amostra com uma quantidade n de unidades no lote, e é determinado
um valor c máximo de itens defeituosos. Se a quantidade d de falhas for maior do que c,
então o lote será rejeitado. Caso o valor de d seja menor ou igual a c, então o lote será aceito.
O segundo formato é o plano de amostragem dupla. Nesse caso, retira-se duas amos-
tras, cada uma com a mesma quantidade de unidades, do lote em análise. Entretanto ao
invés de testarmos ambas as amostras simultaneamente, em um primeiro momento, tes-
taremos apenas uma delas.
Para facilitar a compreensão, supomos que cada uma das amostras do plano de amos-
tragem dupla tenha 50 unidades. Analisaremos uma amostra nesse momento e deixaremos
a segunda de lado por alguns instantes. Estabeleceremos que, caso tenhamos apenas uma
única falha entre as 50 primeiras unidades, o lote será aceito. Entretanto, caso tenhamos
mais de três falhas, o lote será automaticamente recusado. Mas se tivermos duas ou três
falhas? Essas quantidades não são baixas o suficiente para serem aceitas, mas também não
são altas o suficiente para serem recusadas.
Pois bem, isso faz com que seja necessário utilizarmos a nossa segunda amostra de 50
unidades, a qual havíamos deixado de lado! Serão realizados novos testes com essa segunda
amostra. Estabelecemos anteriormente que aceitaríamos até três falhas em nossas amostras.
Caso o somatório de falhas entre a primeira e a segunda amostra seja igual ou menor do
que três, então poderemos aceitar o lote.
Se nosso lote for aprovado já no primeiro teste, poderemos devolver as unidades da
segunda amostra à nossa cadeia produtiva. Isso tornaria nossos gastos menores, o que
geraria uma vantagem em relação ao plano de amostragem única. Por outro lado, deve-se
ter em mente que, somando os dois lotes do plano de amostragem dupla, a quantidade
de itens retirados será sempre maior do que a amostra do plano de amostragem única.
De maneira análoga, podemos dizer que é realizada uma aposta, caso seja necessário usar
apenas a primeira amostra do plano de amostragem dupla, economizaremos, mas, caso
seja preciso analisar a segunda amostra, então gastaremos mais do que gastaríamos com
a amostragem única. A Figura 1 apresenta, graficamente, o fluxo explicado anteriormente.

252
UNIDADE 9

Analisar primeira
amostra de
50 unidades

Caso haja Caso haja mais


Aceitar apenas uma falha de três falhas Rejeitar
o lote o lote
Caso haja duas
ou três falhas

Analisar segunda
amostra de
50 unidades

Aceitar Rejeitar
o lote Caso as duas Caso as duas o lote
amostras, juntas, amostras, juntas,
apresentem no apresentem mais
máximo três falhas de três falhas
Figura 1 - Fluxo de um plano de amostragem dupla / Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um quadro com o escrito “analisar a primeira amostra de 50 unidades”, que leva a três
caminhos diferentes. O primeiro caminho, apontando para a esquerda, diz que “caso haja apenas uma falha,
aceitar o lote”. O segundo caminho, apontando para a direita, diz que “caso haja mais de três falhas, recusar
o lote”. O terceiro caminho, apontando para baixo, aponta para um quadro que diz “caso haja duas ou três
falhas, analisar a segunda amostra de 50 unidades”. Desse caminho saem dois novos caminhos. O primeiro
caminho, apontando para a esquerda, diz “caso as duas amostras, juntas, apresentem mais de três falhas,
aceitar o lote”. O segundo caminho, apontando para a direita, diz “caso as duas amostras, juntas, apresentem
mais de três falhas, rejeitar o lote”.

O terceiro formato é o plano de amostragem múltipla, que segue um raciocínio


similar ao plano de amostragem dupla, mas com mais amostras. A legislação prevê
o uso de até sete amostras, sendo que, caso haja a aprovação em qualquer momento
entre duas amostras diferentes, todas aquelas que seriam usadas posteriormente
poderão ser devolvidas ao fluxo de produção. Em uma apresentação gráfica, seria
utilizada um fluxo similar ao da Figura 1, mas com mais etapas posteriores.
A quantidade de itens defeituosos que faz o lote ser aceito ou recusado é prevista
na própria NBR 5426, e depende do tamanho do lote. Para que possamos prosseguir
com a análise, devemos conhecer a codificação padronizada para os lotes de diferentes
tamanhos, a qual é apresentada na Tabela 1.

253
UNICESUMAR

Níveis especiais de inspeção Níveis gerais de inspeção


Tamanho do lote
(unidades)
S1 S2 S3 S4 I II III

2a8 A A A A A A B

9 a 15 A A A A A B C

16 a 25 A A B B B C D

26 a 50 A B B C C D E

51 a 90 B B C C C E F

91 a 150 B B C D D F G

151 a 280 B C D E E G H

281 a 500 B C D E F H J

501 a 1200 C C E F G J K

1201 a 3200 C D E G H K L

3201 a 10000 C D F G J L M

10001 a 35000 C D F H K M N

35001 a 150000 D E G J L N P

150001 a 500000 D E G J M P Q

Acima de 500001 D E H K N Q R

Tabela 1 - Código alfabético do tamanho amostral / Fonte: Montgomery (2017, p. 488).

Na absoluta maioria dos casos, utiliza-se como base a codificação referente ao nível geral de inspeção
II, visto que a preferência por ela é uma orientação da própria NBR 5426. O nível I é usado quando a
exigência é menos rígida, o que depende do histórico do fornecedor, enquanto o nível III é utilizado em
situações nas quais as exigências são maiores. Os níveis especiais são usados, apenas, em casos muito
específicos, como em situações nas quais não se pode usar muitas unidades em cada amostra, devido a,
por exemplo, testes destrutivos muito caros, em que a quantidade de testes realizados é extremamente
limitada, ou devem ser tolerados riscos muito grandes na amostragem.

254
UNIDADE 9

Além da dependência da Tabela 1, devemos também ter como base


o nível de qualidade aceitável (NQA), o qual é estabelecido por quem
avaliará a aceitação do lote. O NQA indica o nível de qualidade mais
baixo que o fornecedor do lote pode aceitar para aprová-lo, qualquer
lote cuja quantidade de defeitos estiver abaixo do NQA poderá ser aceito.
Isso não se trata de uma especificação do produto, tampouco é tomado
como um valor alvo para o processo de produção, é, para todos os fins,
um padrão que se tem como base no momento da avaliação de um lote.
Na prática, o valor alvo dos processos tende a ser melhor do que o NQA
(MONTGOMERY, 2017).
No CEP, também, trabalha-se com o NQL (nível de qualidade limi-
te), que funciona de forma contrária, qualquer lote cuja quantidade de
defeitos esteja acima desse valor será rejeitado. Percentuais que estejam
entre o NQA e o NQL exigem uma segunda análise. Trataremos de uma
aplicação prática do NQL em breve.
A forma com a qual o valor atribuído ao NQA na NBR 5426 pode
ser interpretado varia entre “percentual defeituoso” e “defeitos a cada
100 unidades”. Mais detalhes serão apresentados a seguir. Por último,
deve ser levada em conta a condição de inspeção. Há três condições
possíveis. A primeira delas, e mais comum, é a condição normal, usada
para fornecedores comuns. A segunda condição é a severa, aplicada
quando os resultados recentes apresentados pelo fornecedor em questão
são ruins ou, em alguns casos, quando não se tem conhecimento sobre
o histórico do fornecedor. Por último, temos a condição atenuada, a
qual se aplica quando o fornecedor tem histórico recente de qualidade
extremamente bom.

O que configura um histórico recente bom ou ruim? Quando


saberemos que deve ser aplicada a inspeção atenuada ao invés de
uma inspeção normal? Ou, ainda, qual é o ponto que nos indica que
é o momento de tornar a inspeção mais severa? Essas informações,
também, constam nas NBR 5426 e 5429. Dessa vez, elas são o
assunto do nosso Podcast!

255
UNICESUMAR

Tendo os três aspectos definidos,


além do tipo de amostragem que
será utilizada, pode-se finalmente
consultar a norma em questão para
que seja possível conhecer quais se-
rão os limites para aceitação e recusa

Tabela 2 - Tabela da NBR 5426 para planos de amostragem únicos com condições normais de inspeção / Fonte: adaptada de Montgomery (2017).
de um lote. A Tabela 2 apresenta os
limites de aceitação e recusa para
lotes, sendo analisados com base
em um plano de amostragem úni-
ca e condições de inspeção normais.
Além da Tabela 2, a NBR 5426 con-
tém outras oito tabelas similares,
mostrando as diferentes combina-
ções de planos de amostragem (úni-
co, duplo e múltiplo) e condições
(normal, severa ou atenuada).

256
UNIDADE 9

Na Tabela 2, a sigla “Ac” significa que o lote deve ser aceito, enquanto a
sigla “Re” indica que o lote deverá ser recusado. As setas que apontam
para baixo indicam que deve ser usado o primeiro plano amostral abaixo
da seta, mesma orientação das setas apontando para cima, que indicam
que deve ser usado o primeiro plano amostral acima da seta. Em casos
nos quais o tamanho da amostra exceder ou igualar o tamanho do lote,
deve ser realizada inspeção 100%.
O NQA, dependendo do tamanho do lote, pode ser dado em porcen-
tagem de itens defeituosos ou em defeitos a cada 100 unidades. Caso o
NQA seja maior do que 10, será considerada que ele é dado em “defeitos
a cada 100 unidades”, enquanto um NQA igual ou menor do que 10 terá
seu valor dado em “porcentagem de itens defeituosos”.
Em um primeiro momento, você pode pensar que ambos os termos
têm o mesmo significado. Entretanto se lembre: um item pode ter mais
do que um defeito. Sendo assim, quando dizemos “defeitos a cada 100
unidades”, estaremos contabilizando cada defeito individualmente, ou
seja, um item com dois defeitos vale por dois, enquanto o termo “por-
centagem de itens defeituosos” indica que, mesmo que um item tenha
mais do que um defeito, ainda assim será contabilizada apenas uma falha.

A NBR 5426 apresenta tabelas para os planos de amostragem


duplos e múltiplos. A interpretação deles ocorre de maneira similar,
mas há algumas diferenças notáveis. A principal delas está no fato
de compreendermos em que momento poderemos parar a análise
e considerar o lote como aceito ou reprovado. Para aprender como
essa interpretação é feita, usando as tabelas da própria NBR 5426,
basta assistir à nossa pílula de aprendizagem!

Para explicar a aplicação das Tabelas 1 e 2, supomos que a empresa


de Caroline produza lotes que contenham 4800 unidades. Seguindo a
recomendação geral, usamos o nível geral de inspeção II. Com base na
Tabela 1, combinando a linha que indica a quantidade de unidades no
lote com a coluna para o nível de inspeção escolhido, encontramos que,
na representação do código alfabético, devemos usar a letra L. Com isso
determinado, podemos iniciar a checagem na Tabela 2. De imediato,
verificamos a coluna “tamanho amostral”, pois assim sabemos quantas
unidades produzidas devem ser analisadas para lotes representados
pela letra L, que, no caso, serão 200 unidades. Até esse momento, não
há nenhuma complicação ou fator externo envolvido.

257
UNICESUMAR

Nossa última etapa na montagem do plano de amostragem se dá por meio da defini-


ção do NQA. Conforme dito anteriormente, cada empresa determina seu próprio NQA
para cada processo. Vamos supor que Caroline tenha optado pelo valor de 1,0%, ou seja,
NQA igual a 1,0. Realizando o cruzamento entre a coluna que indica NQA 1,0 e a linha
que indica a letra L, encontraremos que o valor para Ac é igual a 5, enquanto o valor para
Re é igual a 6. Isso significa que, entre as 200 unidades do lote que foram coletadas para
análise, serão aceitas até cinco falhas. Caso ocorram seis ou mais unidades defeituosas,
o lote deverá, por lei, ser rejeitado.

A situação da empresa de Caroline levanta um questionamento. Caso cada um


dos lotes tivesse 9600 unidades, ao invés de 4800, ele ainda cairia na classificação
representada pela letra L, ou seja, ainda, assim, seriam utilizadas 200 unidades, o
que faria com que uma porcentagem menor fosse direcionada aos testes de acei-
tação. Valeria a pena, então, aumentar o tamanho de cada lote por este motivo?

Com esse exemplo, finalizamos nossa discussão a respeito de planos focados em atributos.
A partir de agora, focaremos nossa discussão na NBR 5429, que apresenta os planos de
amostragem para variáveis. A avaliação por atributos, assim como ocorria, quando
tratamos dos gráficos de controle, limita-se a dizer se um item está conforme ou não,
quando comparado a um conjunto pré-determinado de requisitos. Já a inspeção por variá-
veis ocorre, baseando-se em uma escala contínua, como metros, segundos, quilogramas,
com cada medição anotada. Sendo assim, a análise de variáveis nos dá informações mais
completas do que os atributos, pois saberemos não apenas se há erros, mas também o
seu tamanho, o que é uma vantagem enorme.
Os planos de amostragem baseados em variáveis costumam exigir menos amostras
do que aqueles relacionados a atributos. Isso é algo comum em termos estatísticos, já que
não tratamos mais de dados binários que se resumiriam a “bom” ou “ruim”, mas sim a
dados mais completos, que nos dão noção da variação em relação ao esperado. Os custos
envolvidos, entretanto, para a coleta e análise de variáveis são maiores, então, ao menos
na questão financeira, os valores podem não ser tão diferentes.
Apesar dos resultados mais completos, há certas desvantagens quando tratamos
dos planos de amostragem para variáveis. A primeira delas é a de que os planos sempre
preveem uma gama de resultados que sigam o formato da distribuição normal. Se a
normalidade não for respeitada, então, as informações previstas na NBR 5429 não serão
válidas, comprometendo todo o procedimento.

258
UNIDADE 9

Ainda apontando desvantagens, haverá a necessidade de um plano de amostragem


para cada característica. Por exemplo, caso analisemos o comprimento e o peso de um
determinado produto, deverá ser elaborado um plano para cada uma das variáveis, ou
seja, isso representará o dobro de trabalho. Mesmo tratando-se da amostragem, os resul-
tados, definitivamente, serão mais fiéis à realidade do que a realização dos planos para
atributos, mas o trabalho exercido será um tanto maior (MOREIRA, 2012).
O plano de amostragem para variáveis tem elaboração mais complexa, a qual pode
ser realizada de duas maneiras, que segue os chamados métodos k e M. A escolha do
método dependerá das variáveis sobre as quais tivermos conhecimento. Primeiramente,
trataremos do método k, usado quando tivermos apenas o LIE ou o LSE do nosso pro-
cesso definido. Esse método dependerá de quatro valores, os quais serão apresentados em
pares. Mas, antes, deve ser feita uma breve explicação sobre alguns conceitos envolvidos
na amostragem.
Quando tratamos da análise de lotes, podemos tanto aceitar quanto reprovar os
lotes com base em uma parcela relativamente pequena de unidades pertencentes a ele.
A amostragem funciona bem, na maioria das vezes, mas existe uma pequena chance de
termos o azar de coletar apenas amostras ruins em um lote que seria majoritariamente
bom ou de coletar apenas amostras boas em um lote que seria majoritariamente ruim.
Isso significa que há um risco do nosso teste indicar um resultado errado. A chance de
reprovar um lote bom é chamada de “risco do fornecedor”, enquanto a chance de aprovar
um lote ruim é chamada de “risco do consumidor”.
Com base nessa explicação, podemos apresentar os valores necessários para o método
k. O primeiro par envolve as variáveis e p1 , sendo a o risco do fornecedor e p1
o percentual de itens defeituosos nesse lote, que é o NQA. O segundo par de variáveis
consiste em b e p2 , que são, respectivamente, o risco do consumidor e o percentual de
itens defeituosos nesse lote, que é o NQL.
Chegaremos ao estágio em que os valores apresentados serão utilizados muito em
breve. Agora, dando início aos procedimentos do método k, primeiro deve-se realizar o
cálculo apresentado na Equação 1:

x  LIE
Z LIE  (1)
s
O valor de Z se trata da distância entre a média de valores das amostras coletadas, que
é x , e do limite inferior estabelecido, que é dado por LIE. O desvio padrão s se trata
do desvio entre as unidades do lote inteiro, e não apenas da amostra, o qual pode ser
conhecido ou não. Vale citar que a Equação 1, também, pode ser aplicada para o LSE, de
modo que, ao invés de subtrairmos o LIE da média, a média é que será subtraída do LSE.

259
UNICESUMAR

Deseja-se um maior valor para Z, pois isso indica que a média entre os dados está
mais longe do LIE, o que, em uma distribuição normal, indicará uma menor proporção
de itens não-conformes. Estabeleceremos um valor crítico para essa proporção de itens
não-conformes, o qual chamaremos de k. Enquanto o valor de Z for maior do que o
valor de k, o lote poderá ser aceito. Nossa ideia, agora, é determinar o valor de k. Para
tanto, usaremos os dois pares de valores apresentados anteriormente e os aplicaremos
ao nomograma apresentado na Figura 2.
Ta
man
0,0002 ho 0,001
am
os

1000
0,0004 tra
3,5 ln

500
0,0006 0,005
pa

300
0,0008 ra

200
op 0,01

150
0,001

100
lan
oc 0,02

70
0,002 3,0 om

50
od

30
esc 0,05
on

20
15
0,005 he
cid 0,10

Probabilidade de aceitação 1 – a e β
10
2,5 o

7
0,01 0,15

5
Fração de defeituosos p1 e p2

3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar)  1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar)  b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5

Figura 2 - Nomograma para elaboração de planos de amostragem para variáveis


Fonte: Montgomery (2017, p. 500).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um


lote com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k.

260
UNIDADE 9

Para auxiliar a compreensão, realizamos um exemplo. Supomos um caso no qual te-


nhamos o risco do fornecedor ( a ) igual a 5% e o risco do consumidor ( b ) igual a 10%,
usando NQA de 1% e NQL de 5%. Devemos realizar o cruzamento entre os dados no
nomograma da Figura 2. Vale reforçar que, para o risco do fornecedor, representa-se o
valor de 1- a , que será, portanto, de 95%. O risco do fornecedor deverá ser ligado ao NQA,
enquanto o risco do consumidor deverá ser ligado ao NQL. Após encontrarmos o ponto
de cruzamento, devemos traçar uma linha para uma das duas laterais, de forma a seguir
as linhas já traçadas no interior do nomograma. Esse processo pode ser visto na Figura 3.
Ta
man
0,0002 ho 0,001
am
os
1000

0,0004 tra
3,5 ln
500

0,0006 0,005
pa
300

0,0008 ra
200

op 0,01
150

0,001
100

lan
oc 0,02
70

0,002 3,0 om
50

od
30

esc 0,05
on
20
15

0,005 he
cid 0,10

Probabilidade de aceitação 1 – a e β
10

2,5 o
7

0,01
5
0,15
Fração de defeituosos p1 e p2

3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar)  1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar)  b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5

Figura 3 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1% e
NQL igual a 5%, indicando valor de k igual a 1,95 / Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um


lote com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k. Há uma reta ligando
a fração de itens defeituosos de 0,01 à probabilidade de aceitação de 0,95, enquanto há outra reta ligando a fração
de defeituosos de 0,05 à probabilidade de aceitação de 0,10. O cruzamento entre as duas retas faz com que seja
atingido um ponto, do qual parte uma nova reta que indica k igual a 1,95.

A partir da Figura 3, encontramos k igual a 1,95. Sendo assim, qualquer situação na


qual tenhamos um valor de Z maior do que 1,95 nos dará segurança para aceitar o lote.
Entretanto, conforme dito anteriormente, é possível que não saibamos o desvio padrão
do lote, o que nos impediria de calcular Z. Como resolver essa situação?

261
UNICESUMAR

Para tanto, usamos exatamente o mesmo nomograma e exatamente os mesmos valores.


Basta cruzarmos as linhas e ligarmos o cruzamento à parte de cima da forma, conforme
o exemplo da Figura 4.
Ta
man
0,0002 ho 0,001
am
os

1000
0,0004 tra
3,5 ln

500
0,0006 0,005
pa

300
0,0008 ra

200
op 0,01

150
0,001

100
lan
oc 0,02

70
0,002 3,0 om

50
od

30
esc 0,05
on

20
15
0,005 he
cid 0,10

Probabilidade de aceitação 1 – a e β
10
2,5 o

7
0,01 0,15

5
Fração de defeituosos p1 e p2

3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar)  1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar)  b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5

Figura 4 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1%
e NQL igual a 5%, indicando n igual a 52 / Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um


lote com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k. Há uma reta ligando
a fração de itens defeituosos de 0,01 à probabilidade de aceitação de 0,95, enquanto há outra reta ligando a fração
de defeituosos de 0,05 à probabilidade de aceitação de 0,10. O cruzamento entre as duas retas faz com que seja
atingido um ponto, do qual parte uma nova reta para a parte superior, que indica n igual a 52.

O exemplo da Figura 4 apresenta o tamanho da amostra que deve ser coletada para que
possamos estimar o desvio padrão do lote como um todo. Com as condições propostas,
deveríamos utilizar, aproximadamente, 52 unidades para calcular o desvio e, então, pro-
ceder com o cálculo de Z. As mesmas 52 unidades podem ser usadas para o cálculo da
média x , inclusive. Entretanto, caso o desvio padrão do lote seja conhecido, x precisará
de menos unidades para ser determinado. Para tanto, ao invés de fazermos a ligação com
a parte superior do nomograma, o processo utilizará a linha de baixo. Importante notar
que, ao invés da nova linha traçada seguir as linhas internas do nomograma, teremos agora
uma linha que seguirá uma vertical perfeita para baixo, conforme representado na Figura 5.

262
UNIDADE 9

Ta
man
0,0002 ho 0,001
am
os

1000
0,0004 tra
3,5 ln

500
0,0006 0,005
pa

300
0,0008 ra

200
op 0,01

150
0,001

100
lan
oc 0,02

70
0,002 3,0 om

50
od

30
esc 0,05
on

20
15
0,005 he
cid 0,10

Probabilidade de aceitação 1 – a e β
10
2,5 o

7
0,01 0,15

5
Fração de defeituosos p1 e p2

3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar)  1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar)  b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5

Figura 5 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1%
e NQL igual a 5%, indicando n igual a 18 / Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um


lote com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k. Há uma reta ligando
a fração de itens defeituosos de 0,01 à probabilidade de aceitação de 0,95, enquanto há outra reta ligando a fração
de defeituosos de 0,05 à probabilidade de aceitação de 0,10. O cruzamento entre as duas retas faz com que seja
atingido um ponto, do qual parte uma nova reta para a parte inferior, que indica n igual a 18.

Com o desvio padrão conhecido, precisaremos apenas de 18 unidades na amostra para


que seja determinada a média, cerca de um terço do que precisaríamos com um desvio
padrão desconhecido. Conforme dito anteriormente, o método k é usado em casos no
quais temos limites unilaterais, ou seja, apenas o LIE ou apenas o LSE. Mas se tivermos
os dois limites definidos? Pois bem, nessa situação, aplicaremos o método M. A primeira
metade desse método segue exatamente o mesmo procedimento que o método k e, por
conta disso, usaremos as mesmas condições que encontramos para a situação em que
não temos o desvio padrão conhecido, em que k é 1,95 e o tamanho n da amostra é 52.
Dessa vez, será utilizado o nomograma apresentado na Figura 6.

263
UNICESUMAR

0 0,10 0,20 0,30 0,40 0,50

0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
0,040
4
M

0,030
5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100

0,001
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50

Para planos de desvio-padrão, tome a abscissa = 1– k n/(n – 1)


2
Figura 6 - Nomograma para o método M / Fonte: Montgomery (2017, p. 501).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M.

Para que possamos determinar M, precisamos, primeiramente, calcular o valor da abscissa


do eixo horizontal. Para tanto, usa-se a Equação 2:
k n
1 (2)
(n  1)
abs 
2

Para nosso exemplo, com k igual a 1,95 e n igual a 52, encontraremos o valor da abscissa
como sendo de 0,362. Isso significa que, entre os valores expostos no eixo horizontal,
devemos encontrar o ponto estimado para esse valor, que ficará entre as marcações de
0,35 e 0,40. Além disso, devemos escolher a linha traçada no nomograma que apresente
o valor mais próximo do nosso n. Por termos esse valor igual a 52, escolheremos a linha
representada por 50. Com isso, devemos traçar uma linha perfeitamente vertical que
parta do ponto 0,362 e que suba até atingir a linha equivalente a 50. Quando ambas as
linhas se cruzarem, traçaremos uma reta perfeitamente horizontal até o eixo M, isso nos
dará o valor para nosso M. Essas etapas estão apresentadas na Figura 7.

264
UNIDADE 9

0 0,10 0,20 0,30 0,40 0,50

0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
Passo 3
0,040 Passo 2
0,030 4
M

5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100

0,001 Passo 1
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50

Para planos de desvio-padrão, tome a abscissa = 1– k n/(n – 1)


2
Figura 7 - Nomograma para o método M, com k igual a 1,95 e n igual a 52 / Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M. O valor da abscissa é de 0,362, do qual parte uma linha perfeitamente vertical até que seja atin-
gida a linha que representa o valor de n igual a 50. Desse ponto de encontro, é traçada uma linha horizontal para a
esquerda, que atinge o eixo M no ponto igual a 0,038.

No nosso exemplo, temos M igual a 0,038. Isso significa que nosso percentual máximo
de itens não-conformes que será admissível é de 3,8%. O valor obtido para M será com-
parado com outro valor, que é igual a p , que nada mais é do que o percentual estimado
de itens não conformes para o lote analisado. Caso M seja maior do que p , o lote poderá
ser aceito. Para determinar p , será necessário determinar o valor de Z. Exemplificando,
supomos que tenhamos encontrado, para nosso exemplo, uma média igual a 355 ml,
com nosso LIE sendo de 345 ml em cada lata. Consideremos o desvio padrão igual a
5. Pela Equação 1, encontraremos Z equivalente a 2. Esse valor deverá ser aplicado ao
nomograma da Figura 8.

265
UNICESUMAR

0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0

100p
1,8

Z
5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
0,0
50
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Figura 8 - Nomograma que correlaciona n, Z e a fração estimada de itens não-conformes / Fonte: adaptada
de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de n, indicado no eixo horizon-
tal inferior, Z, indicado no eixo vertical direito, e da fração de itens não-conformes, indicado no eixo vertical esquerdo.

Sabemos que nosso n é igual a 52 e que nosso Z é igual a 2. Com isso, basta encontrar-
mos, no eixo n da Figura 8, o ponto aproximado onde teremos nosso n representado.
Após isso, deve ser traçar uma reta perfeitamente vertical até que seja atingida a linha
que corresponde ao valor de Z. A partir do ponto em que ambas se cruzarem, deve ser
traçada uma reta perfeitamente horizontal para a esquerda, de modo a atingir o eixo 100
p . Em casos nos quais n seja maior do que 100, pode-se tomar n igual a 100 como base
para identificar a reta. A Figura 9 indica as etapas a serem seguidas.

0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0
Passo 3 Passo 2
100p

1,8
Z

5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
50
Passo 1 0,0
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Figura 9 - Nomograma que correlaciona n igual a 52, Z igual a 2 e o valor da fração de itens não-conformes
Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual indica o valor de n igual a 52, do qual parte uma
reta vertical que encontra a linha Z igual a 2 e, a partir desse encontro, parte uma linha perfeitamente vertical em
direção ao eixo esquerdo, em que é encontrado o valor igual a 2.

266
UNIDADE 9

Com base na Figura 9, encon-


tramos que o valor atribuído a
100 p é igual a 2, ou seja, o valor
de p é de 0,02. Como encon-
tramos M igual a 0,038, valor
superior ao encontrado para
p , podemos aceitar o lote ana-

Tabela 3 - Tabela da NBR 5429 para planos de amostragem únicos com condições normais de inspeção / Fonte: adaptada de Montgomery (2017).
lisado. O método M pode ser
aplicado, também, a casos nos
quais temos limites unilaterais.
Dessa forma, apesar de ter mais
etapas do que o método k, sua
aplicação é mais completa e seus
resultados mais confiáveis, sen-
do o mesmo recomendado pela
própria NBR 5429. Assim como
a NBR 5426, a NBR 5429 expõe
também os valores que podem
ser aceitos para cada tamanho
de amostra. Dessa vez, os va-
lores a serem consultados são
aqueles obtidos para a variável
k, conforme pode ser visto na
Tabela 3.

267
UNICESUMAR

Considerando que obtemos k igual a 1,95 para uma amostra de tamanho 52, utilizando
NQA igual a 1,0, podemos dizer que nossas estimativas estão bem próximas do que a
NBR 5429 indica. Cruzando a coluna NQA 1,00 com a linha para tamanho de amostra
igual a 50, encontraremos um valor de k igual a 1,93, resultado muito similar ao que
encontramos em nosso cálculo. É importante acrescentar que o código alfabético do
tamanho da amostra para variáveis é diferente daquele utilizado para atributos, apesar de
seguir conceitos similares. Como foi possível perceber, os procedimentos para os planos
de amostragem para variáveis são mais complexos. Em longo prazo, eles tendem a ser
mais recompensadores, visto que exigem amostras menores.

Os planos de amostragem para atributos e variáveis podem ser aplicados simul-


taneamente ou individualmente, isso é algo que depende da escolha de quem
estiver realizando. Entretanto há normas envolvendo os dois formatos, o que
os torna processos indispensáveis para o CEP de qualquer empresa. Cabe ao
usuário planejar qual deles trará mais vantagens e, portanto, selecionar o mais
adequado. Conforme abordado durante a unidade, ambos apresentam seus
pontos fortes e fracos em relação ao outro.

Com isso, encerramos nosso conteúdo relacionado aos planos de amostragem. É impor-
tante citar que todos os procedimentos, aqui, explicados estão registrados nas NBR 5426
e 5429, de forma que o conteúdo exposto pode ser considerado como um passo a passo
para a elaboração de conceitos já normatizados.
Obviamente, não é obrigatório que o responsável pelo CEP tenha os planos memori-
zados, visto que há diversos valores envolvidos, o que torna o processo quase impossível.
Entretanto é dever do profissional saber interpretar as tabelas apresentadas nas normas,
assim como entender todo o pensamento por trás da elaboração delas. A compreensão
das NBR é tão importante quanto a aplicação de qualquer ferramenta da qualidade. Toda
a explicação, aqui, apresentada será útil para sua vivência como profissional, mas não
deixe de se aprimorar e atualizar! Nunca se sabe quando pode ocorrer uma atualização
de uma norma técnica.

268
UNIDADE 9

Com base no que foi tratado durante esta unidade, Caroline conse-
guiu estruturar o plano de amostragem para sua nova empresa. Para
um primeiro momento, ela optou pelo uso do plano para atributos,
mas pretende realizar a mudança para o plano para variáveis futura-
mente, quando os processos internos estiverem melhor estruturados.
Após o conteúdo da nossa unidade final, você também tem condi-
ções de colaborar ativamente no projeto de um plano de amostragem.
Qualquer empresa com produção em massa, independentemente do
ramo, precisa de um plano bem estruturado para que possa proteger
a si mesma e aos clientes. Esse é o tipo de informação essencial para
a obtenção de certificações de qualidade e, portanto, deve ser muito
bem discutida e analisada entre todos os setores.

269
Estamos encerrando nosso material! Mas, antes disso, não podemos deixar de preencher o mapa
mental de nossa última unidade; além, é claro, de realizar os exercícios de fixação que prepara-
mos especialmente para você praticar, os quais poderão ser encontrados nas próximas páginas.
Dessa vez, o mapa mental trata dos planos de amostragem para variáveis e para atributos. Sua
tarefa é, primeiramente, descrever as vantagens e desvantagens que cada um dos métodos tem
sobre o outro. Em seguida, fale os diferentes aspectos dos planos de amostragem normal, duplo
e múltiplos para atributos e, por último, discuta os métodos k e M utilizados para os planos de
amostragem para variáveis. Não esqueça de expor quais são as informações necessárias e o
significado dos conceitos de NQA, NQL, risco do fornecedor e risco do consumidor.

Vantagens Vantagens
PLANO DE AMOSTRAGEM

... para atributos ... para variáveis

Amostragem única, Riscos do fornecedor


NQA e NQL Métodos
dupla e múltipla e do consumidor

Figura 10 - Mapa mental / Fonte: o autor.

Descrição da Imagem: quadro com o escrito “plano de amostragem”, que se divide em quadros menores. Em uma das direções,
há a classificação “para atributos”, para a qual são pedidas as vantagens e as definições para amostragem única, dupla e múltipla.
Na outra direção, há a classificação “para variáveis”, para a qual são pedidas as vantagens e a definição dos métodos utilizados.
Por último, pede-se, também, a definição dos termos NQA, NQL, risco do fornecedor e risco do consumidor.

270
1. Planos de amostragem são essenciais em qualquer empresa que realize produção em
massa. Suas regras são definidas com base nas NBR 5426 e 5429, podendo ser divididos
nas categorias relacionadas a atributos ou a variáveis. Com base no que foi estudado
durante a unidade apresentada, analise as afirmações a seguir:
I) Os planos de amostragem são necessários, quando não há condições para se realizar
a inspeção 100%.
II) Planos de amostragem para atributos, além de exigirem um maior número de amos-
tras, exigem também maior necessidade de planejamento e documentação do que
o plano para variáveis.
III) Para processos em que, normalmente, ocorrem poucas falhas, planos de amostragem
dupla tendem a ser vantajosos em comparação aos planos de amostragem única.
IV) Tratando do plano de amostragem para variáveis, é necessário usar um plano de
amostragem diferente para cada variável analisada.

É correto o que se afirma em:


a) I, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, III e IV, apenas.
e) I, II, III e IV, apenas.

2. Considere que uma empresa produtora de alimentos congelados produza lotes de


75.000 unidades. Entretanto, a partir de certo momento, houve a instalação de uma
nova linha de produção, a qual permitiria a produção de lotes com o triplo do tamanho.
Sabendo que a empresa utiliza o plano de amostragem única para atributos, analise
as afirmações a seguir.
I) Caso seja usado o nível geral de inspeção II e NQA de 1%, deverá ser usado o plano
de amostragem com 800 unidades, a partir do momento da mudança.
II) Independentemente do nível de inspeção, o tamanho da amostra deverá aumentar,
após a mudança na produção.
III) Caso seja usado o nível geral de inspeção II e NQA 2,5%, a quantidade máxima acei-
tável de itens não-conformes continuará a mesma, após a mudança.
IV) Caso a produção apenas duplicasse ao invés de triplicar, ainda, assim, seria neces-
sária a mudança do plano.

271
É correto o que se afirma em:
a) I e II, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, III e IV, apenas.
e) II, III e IV, apenas.

3. Considere que uma empresa produtora de alimentos congelados produza lotes de


75.000 unidades. A marca opta por utilizar o plano de amostragem para variáveis para
avaliar seus lotes, de forma que seu NQA é de 2% e seu NQL é de 5%. Além disso, a
probabilidade de aceitação de um lote bom é de 98%, enquanto a probabilidade de
um lote ruim chegar ao cliente é de 5%. O desvio padrão é desconhecido. Com base
nas informações, analise as afirmações a seguir:
I) O valor de k será de, aproximadamente, 1,8.
II) O tamanho da amostra para casos nos quais o desvio padrão seja desconhecido
será de 200 unidades.
III) Caso o desvio padrão seja conhecido, o tamanho da amostra necessária será redu-
zido para 150 unidades.
IV) Caso a média entre as amostras seja de 200 gramas, o LIE seja de 192 gramas e o
desvio padrão seja de 1,6 gramas, o lote poderá ser aceito segundo o método k.

É correto o que se afirma em:


a) I e II, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.

272
4. Considere que uma empresa produtora de alimentos congelados produza lotes de
75.000 unidades. A marca opta por utilizar o plano de amostragem para variáveis para
avaliar seus lotes, de forma que seu NQA é de 2% e seu NQL é de 5%. Além disso, a
probabilidade de aceitação de um lote bom é de 98%, enquanto a probabilidade de
um lote ruim chegar ao cliente é de 5%. O desvio padrão do lote é conhecido, sendo n
igual a 80. Por recomendações da NBR 5429, a empresa utiliza o método M para avaliar
seus lotes. Com base nas informações, analise as afirmações a seguir:
I) Quando for utilizado o nomograma para determinar M, valor da abscissa inferior
será de 0,398.
II) O valor de M será de, aproximadamente, 0,370.
III) Caso seja encontrada uma média entre os dados igual a 236 g, o LIE seja de 230 g e
o desvio padrão seja igual a 5 g, o valor de Z será igual a 1,2.
IV) O valor estimado para a fração de itens não conformes será de, aproximadamente,
0,12, o que faz com que o lote analisado possa ser aceito.

É correto o que se afirma em:


a) I e II, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) I, II e III, apenas.
e) I, II, III e IV.

273
Unidade 1

LOBO, R. N. Gestão da qualidade. 2. ed. São Paulo: Érica, 2020.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

OLIVEIRA, O. J. Curso básico de gestão da qualidade. São Paulo: Cengage Learning, 2014.

RODRIGUES, M. V. Entendendo, aprendendo e desenvolvendo sistema de produção Lean


Manufacturing. 2. ed. Rio de Janeiro: Elsevier, 2016.

WERKEMA, C. Métodos PDCA e DMAIC e suas ferramentas analíticas. Rio de Janeiro: Elsevier, 2013.

WERKEMA, C. Ferramentas estatísticas básicas do lean seis sigma integradas ao PDCA e


DMAIC. Rio de Janeiro: Elsevier, 2014.

Unidade 2

LOBO, R. N.; LIMEIRA, E. T. N. P.; MARQUES, R. N. Controle da qualidade: princípios, inspeção


e ferramentas de apoio na produção de vestuário. 1. ed. São Paulo: Érica, 2015.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

TOLEDO, J. C. et al. Qualidade: gestão e métodos. Rio de Janeiro: LTC, 2017.

WERKEMA, C. Ferramentas estatísticas básicas do lean seis sigma integradas ao PDCA e


DMAIC. Rio de Janeiro: Elsevier, 2014.

Unidade 3

FIOROTO, P. O. Produção de ésteres metílicos de ácidos graxos do óleo de polpa de macaúba


em reator contínuo. 2018. 71 f. Dissertação (Mestrado em Engenharia de Alimentos) - Universidade
Estadual de Maringá, Maringá, 2018.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

PEDROZA, S. S. Controle estatístico do processo. Maringá: Unicesumar, 2018.

RAMOS, E. M. L. S.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: Bookman, 2013.

RODRIGUES, M. V. Entendendo, aprendendo e desenvolvendo sistemas de qualidade seis


sigma. 3. ed. Rio de Janeiro: Elsevier, 2016.

WERKEMA, C. Ferramentas estatísticas básicas do lean seis sigma integradas ao PDCA e


DMAIC. Rio de Janeiro: Elsevier, 2014.

274
Unidade 4

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

NAVIDI, W. Probabilidade e estatística para ciências exatas. Porto Alegre: AMGH, 2012.

VIEIRA, S. Estatística para a qualidade. 3. ed. Rio de Janeiro: Elsevier, 2014.

Unidade 5

LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.

VIEIRA, S. Estatística para a qualidade. 3. ed. Rio de Janeiro: Elsevier, 2014.

Unidade 6

LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.

VIEIRA, S. Estatística para a qualidade. 3. ed. Rio de Janeiro: Elsevier, 2014.

Unidade 7

HINES, W. W. et al. Probabilidade e estatística na engenharia. 4. ed. Rio de Janeiro: LTC, 2011.

LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

275
Unidade 8

LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.

Unidade 9

DIAS, M. A. P. Administração de materiais: princípios, conceitos e gestão. 6. ed. São Paulo: Atlas, 2011.

MONTGOMERY, D. C. Introdução ao controle estatístico da qualidade. 7. ed. Rio de Janeiro:


LTC, 2017.

MOREIRA, D. A. Administração da produção e operações. 2. ed. São Paulo: Cengage Learning,


2012.

276
Unidade 1
1. Para essa questão, basta calcular o NPR de cada uma das causas. Isso pode ser feito por meio
da multiplicação das informações apresentadas em cada linha. O NPR da causa A é de 70, o da
causa B é de 192 e o da causa C é de 200. Sendo assim, a causa C deve ser priorizada, pois tem
o maior NPR.

2. D. A afirmativa I está errada por apontar que a coleta de dados ocorre na fase de definição. Na
verdade, esse processo ocorre na fase de medição.

3. D. É a única alternativa, entre as apresentadas, que permite visualizar mais de uma causa de
um problema, simultaneamente.

4. E. A estatística e o controle de variabilidade, apesar de poderem ser usadas como apoio ao Lean,
são marcas clássicas do Seis Sigma. A redução de desperdícios, inclusive o de tempo — focada
na aceleração do processo —, é o principal objetivo do Lean Manufacturing.

5. A. A primeira ação é entender qual é o problema para, em seguida, coletar os dados e interpretar
as informações que forem obtidas com eles. Feito isso, deve-se discutir a solução mais viável,
implantá-la e acompanhar de perto os resultados obtidos ao final.

6. O brainstorming se trata de uma roda de discussões com um propósito bem definido. Todos
devem expor suas ideias para resolver uma determinada situação. A discussão ser estruturada, e
cada um tem seu momento de falar; ou não estruturada, cada um fala no momento que puder.
Funcionários de todos os níveis hierárquicos que estiverem envolvidos no problema devem par-
ticipar, pois cada nível tem um conhecimento e uma visão diferente sobre o processo, podendo
gerar novos pontos de vista e ideias diferenciadas.

Unidade 2
1. C.

I - (Falsa) O preenchimento é simplificado, mas o responsável deve receber um treinamento


para o preenchimento e a aferição das informações.

IV - (Falsa) O uso de apenas uma folha não fornece informações suficiente, a análise de dados
deve considerar vários dias.

2. E. Todas são verdadeiras.

3. D. IV - FALSA. As quatro causas mais impactantes, juntas, correspondem a 78% das falhas. Isso
é menor do que a proporção de quatro quintos (80%).

277
4. a) O modelo em questão é a folha de classificação.

b)

Frequência
Frequência Frequência Frequência
Problema rel
abs abs ac rel
acumulada
Problema A 182 182 30,08% 30,08%
Problema B 123 305 20,33% 50,41%
Problema C 102 407 16,86% 67,27%
Problema D 75 482 12,40% 79,67%
Problema E 67 549 11,07% 90,74%
Problema F 31 580 5,12% 95,87%
Problema G 21 601 3,47% 99,34%
Problema H 4 605 0,66% 100%
Fonte: o autor.

Com base nos dados obtidos, deve-se focar nos problemas A, B e C.

c)

Diagrama de Pareto
200 100,00%
182
180 90,00%
160 80,00%
140 70,00%
123
120 60,00%
102
100 50,00%
80 75 40,00%
67
60 30,00%
40 31 20,00%
21
20 10,00%
4
0 0,00%
Problema Problema Problema Problema Problema Problema Problema Problema
A B C D E F G H

Frequência absoluta Frequência relativa acumulada


Fonte: o autor.

Descrição da Imagem: diagrama com oito barras de tamanhos decrescentes, com valores iguais a 180, 123, 102, 75, 67,
31, 21 e 4, representadas pelos títulos Causa A, Causa B, Causa C, Causa D, Causa E, Causa F, Causa G e Causa H, respec-
tivamente, sobrepostas por uma linha crescente, indicando as porcentagens 30,08%, 50,41%, 67,27%, 79,67%, 90,74%,
95,87%, 99,34% e 100%, respectivamente.

278
Unidade 3
1. C.

I - FALSA, visto que os objetos 2 e 5 têm a mesma cor, portanto, podem estar em um mesmo
grupo, numa estratificação.

III - FALSA, seria totalmente possível realizar a estratificação com base em dois atributos dife-
rentes, contanto que não seja feita simultaneamente.

2. O gráfico que apresenta maior correlação entre os pontos é B, visto que apresenta o maior valor
de R2. A correlação no gráfico A é praticamente inexistente (podendo ser considerada levemente
positiva), no gráfico B é positiva e no gráfico C é negativa.

3. D. IV - FALSA, pois o diagrama pode indicar falta de relação e, em hipótese alguma, deve-se
dispensar o uso de outras ferramentas.

4. O histograma tem formato assimétrico e não segue uma distribuição normal. Caso ele tenha sido
montado, considerando k=6, teremos 7 classes, as quais serão distribuídas conforme a figura.

Histograma
9
8
7
6
5
4
3
2
1
0
174-182 182-190 190-198 198-206 206-214 214-222 222-230
Fonte: o autor.

Descrição da Imagem: histograma indica a frequência com que cada faixa de valores ocorreu. As faixas são 174 a 182,
182 a 190, 190 a 198, 198 a 206, 206 a 214, 214 a 222 e 222 a 230, com frequências, respectivamente, de 3, 3, 8, 3, 8, 8 e 7.

5. C.

I - FALSA, visto que temos 9 candidatos entre 25 e 29 anos, enquanto temos 4 com até 23 anos.

III - FALSA, visto que o histograma tem apenas uma moda.

279
Unidade 4
1. a) Nas duas primeiras tentativas, retiramos uma carta que não era a desejada. A probabilidade
de isso ocorrer é de 51/52 em cada tentativa. Na terceira tentativa, retiramos a carta correta, e
a probabilidade de isso ocorrer é de 1/52. Basta multiplicar as probabilidades.

51 51 1 2601
    1, 85%
52 52 52 140608
Na primeira tentativa, a probabilidade de retirar a carta errada é de 51/52. Como não houve
devolução, na segunda tentativa, a probabilidade será de 50/51. Na terceira tentativa, a proba-
bilidade de retirar a carta desejada é de 1/50. Multiplicando:

51 50 1 2550
    1, 92%
52 51 50 132600
Na primeira tentativa, a probabilidade de encontrar a carta correta é de 1/52. Na segunda tenta-
tiva, a probabilidade de encontrar outra carta é de 51/52. Na terceira tentativa, a probabilidade
de encontrar a carta correta é de 1/52. Multiplicando:

1 51 1 51
    0, 036%
52 52 52 140608
2. Para a resolução dos três itens deve ser usada a distribuição binomial.

a) No item a, o objeto de interesse são os celulares com defeito, então, tem-se que p=0,03. Auto-
maticamente, sabe-se que q=0,97. Temos 20 amostras, então, n=20, enquanto x=3. Substituindo
na Equação 2 da unidade:

20 !
P(3)   0, 033  0, 97203  0, 0183  1, 83%
3! (20  3)!
b) No item b, os valores de p e q permanecem os mesmos. Entretanto se deseja calcular a
probabilidade de haver até 3 falhas. Isso deve considerar os cenários em que x=0, 1, 2 e 3. O
cenário com x=3 já foi calculado no item a, então, deve-se calcular os cenários restantes para,
em seguida, somar todos os resultados.

20 !
P(0)   0, 030  0, 97200  0, 5438  54, 38%
0 ! (20  0)!
20 !
P(1)   0, 031  0, 97201  0, 3364  33, 64%
1! (20  1)!

20 !
P(2)   0, 032  0, 97202  0, 0988  9, 88%
2 ! (20  2)!
Somando os 4 resultados, tem-se a resposta final para o item b:

P(0, 1, 2, 3)  54, 38  33, 64  9, 88  1, 83  99, 73%

280
c) Neste caso, nosso evento de interesse é o oposto, pois queremos saber a probabilidade de
ter exatamente 15 aparelhos funcionando corretamente. Sendo assim, p e q são invertidos.

20 !
P(15)   0, 9715  0, 032015  0, 00024  0, 024%
15! (20  15)!
3. Como a chance de ocorrer uma falha é muito baixa, pode-se usar a distribuição de Poisson para
essa resolução. X é igual à quantidade de falhas analisada, ou seja, 1. O valor de c é calculado
multiplicando a quantidade de livros pelo percentual de erros, ou seja, c=800*0,003=2.4. Usando
os valores na equação, temos:

2, 41
P (1)  e 2,4   0, 2177  21, 77%
1!
4. E. I - FALSA. As distribuições que são usadas, quando há apenas dois resultados possíveis, são
a binomial e a de Poisson.

5. O primeiro passo é determinar Z. Sabe-se que a média é de 2100, X é igual a 2400 e que o desvio
padrão é 250. Assim:

2400  2100
Z  1, 20
250
A partir disso, é necessário checar a Tabela 1, buscando pela linha 1,2 e pela coluna 0,00. O valor
no cruzamento é de 0,3849, então, a probabilidade de selecionar uma pessoa que ganhe entre
R$ 2100,00 e R$ 2400,00 é de 38,49%.

6. Primeiramente, deve-se calcular Z. Sabe-se que o desvio padrão é 6, que a média é 30 e que X
é igual a 35. Dessa forma:

35  30
Z  0, 83
6
Verificando a Tabela 1 da unidade, encontra-se o valor 0,2967, o que indica que 29,67% dos va-
lores encontra-se entre a média e Z=0,83. Porém o que interessa é saber quantos dados estão
acima de 35 minutos. Dessa forma, deve-se subtrair o valor obtido da marca de 50%, restando
20,33%. Como são 40 candidatos, deve-se multiplicar 40 pelo valor encontrado de 0,2033, e o
resultado será igual a 8 candidatos.

7. Para a realização deste exercício, é necessário consultar a Tabela 1 apresentada na unidade.

a) O primeiro passo é calcular a área entre os valores de 36,9 e 37,1 abaixo da curva. Para isso, é
necessário determinar o valor de Z para ambos os casos, encontrar as probabilidades na tabela
1 da unidade e, em seguida, como ambos os dados estão do mesmo lado da curva (lado direito
da média), subtrair o menor valor do maior valor.

36, 9  36, 8 37, 1  36, 8


Z  0, 50 Z   1, 50
0, 20 0, 20
Para Z = 0,50, usamos a tabela na linha 0,5 e na coluna 0,00, e encontramos probabilidade igual
a 0,1915.

281
Para Z = 1,50, usamos a tabela na linha 1,5 e na coluna 0,00, e encontramos probabilidade igual
a 0,4332. P  0, 4332  0, 1915  0, 2417  24, 17%

Subtraindo os dois valores, encontraremos a área entre ambos.

Espera-se que 24,17% dos 1000 colaboradores estejam nessa faixa de temperatura, o que cor-
responde a aproximadamente 242 indivíduos.

a) Para este caso, devemos calcular a área entre a média e o valor de 37,3 ºC. Feito isso, subtraí-
mos a área calculada da área total do lado direito da média, que é 0,5.

37, 3  36, 8
Z  2, 50
0, 20
Checando a tabela, encontramos que a probabilidade é de 0,4938. Agora, subtraímos esse valor
de 0,5.

P  0, 5  0, 4938  0, 0062
Assim, espera-se que 0,62% dos colaboradores estejam com febre. Como são 1000 indivíduos,
isso é o equivalente a 6 pessoas.

Unidade 5
1. A.

Afirmativa I: falsa, pois um único ponto fora de controle pode ser indicativo de falhas.

Afirmativa II: falsa, pois os pontos podem estar distribuídos de forma padronizada (dois acima,
dois abaixo, dois acima, dois abaixo...), o que indica que os resultados não seguem aleatoriedade.

Afirmativa III: verdadeira.

Afirmativa IV: falsa, não devem ser apresentadas tendências por parte dos resultados nos gráficos.

2. As causas comuns são previsíveis e esperadas — como um erro em uma anotação de mil dados
ou um desvio de dados de um equipamento — e não afetam o andamento do processo. Os
resultados continuam dentro do limite de controle, quando causas comuns ocorrem. As causas
especiais são imprevisíveis — como uma falha em um equipamento ou, então, cinquenta ano-
tações erradas em um grupo de quinhentos dados — e afetam drasticamente o andamento do
processo. Os resultados tendem a ficar fora dos limites de controle, quando ocorrem causas
especiais.

3. B.

Afirmativa I: verdadeira.

282
Afirmativa II: falsa, pois variações em volumes não podem ser controladas em gráficos de atri-
butos, apenas em gráficos para variáveis.

Afirmativa III: verdadeira.

Afirmativa IV: falsa, peso é uma variável que só pode ser controlada em gráficos de controle
para variáveis.

4. D. A linha 1 está sob controle, visto que os dados estão dentro dos limites e distribuídos alea-
toriamente. As linhas 2 e 3 devem passar por manutenção, visto que ambas demonstram ten-
dências em seus resultados.

5. a) A média c entre os dados é igual a 5,87 falhas por amostra. Para o gráfico c, o desvio padrão é
equivalente à raiz quadrada da média c, ou seja, 2,42.Feito isso, LIC e LSC devem ser calculados
considerando uma variação de três desvios em relação à média:

LIC  5, 87  3 * 2, 42  1, 39
LSC  5, 87  3 * 2, 42  13,13

A partir disso, o gráfico fica estruturado da seguinte maneira:

14
Quantidade de falhas

12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LSC LIC Média Dados

Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite infe-
rior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 6 do eixo vertical, e uma próxima
ao valor 13 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleatoriamente acima
e abaixo da média, gerando uma linha que sobe e desce continuamente.

b) O processo pode ser considerado como controlado, pois os dados estão distribuídos aleato-
riamente entre os limites de controle, sem apresentação de tendências ou de padrões.

1. a) Para um gráfico p, primeiramente, deve-se determinar o p de cada amostra. A tabela a seguir


apresenta o p de cada uma.

283
Amostra (com 40 unidades cada) Total de peças com defeito p

1 2 0,05
2 5 0,125
3 0 0
4 2 0,05
5 10 0,25
6 1 0,025
7 2 0,05
8 4 0,1
9 0 0
10 5 0,125
11 3 0,075
12 1 0,025
13 6 0,15
14 7 0,175
15 10 0,25

Fonte: o autor.

O p médio é a média entre todos os valores de p, que é igual a 0,097, considerando os devidos
arredondamentos. O desvio padrão se dá por do cálculo a seguir, em que n é igual ao tamanho
de cada amostra:

p *(1  p ) 0, 097 *(1  0, 097)


s   0, 047
n 40
Com isso, pode-se determinar o LIC e o LSC:

LIC  0, 097  3 * 0, 047  0, 044


LSC  0, 097  3 * 0, 047  0, 237

Assim, o gráfico de controle fica com a seguinte aparência:

284
0,3

Proporção de defeitos
0,25
0,2
0,15
0,1
0,05
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC p
Fonte: o autor.

Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite infe-
rior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 0,1 do eixo vertical, e uma próxima
ao valor 0,24 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleatoriamente acima e
abaixo da média, com alguns pontos ficando acima do limite superior, gerando uma linha que sobe e desce continuamente.

a) O processo não pode ser considerado como controlado, visto que pelo menos dois pontos,
no caso 5 e 15, ultrapassam a linha de limite superior.

Unidade 6
1. E.

a) Errada, pois ocorre exatamente o contrário. O gráfico x-R trata da amplitude, e o x-s, do
desvio padrão.

b) A quantidade de dados coletados não interfere na escolha, tampouco a frequência. O que


importa é a quantidade de observações em cada amostra.

c) Errada, pois nem sempre a amplitude é mais adequada do que o desvio padrão para aproxi-
mar o desvio padrão da realidade.

d) Errada, pois o uso de 8 observações em cada amostra cai na faixa de aplicação do gráfico x-R.
A quantidade de amostras não interfere na escolha do gráfico.

285
2. Há 5 observações para cada amostra, o que faz com que a combinação de gráficos seja x-R. Por
conta disso, deve-se determinar a média e a amplitude de cada uma das amostras.

Amostra 1 2 3 4 5 6 7 8
86 81 84 80 82 85 89 80
86 81 83 88 83 89 84 83
80 90 81 80 86 87 87 86
82 84 82 80 80 86 90 87
85 83 87 90 83 86 88 86
Média 83,8 83,8 83,4 83,6 82,8 86,6 87,6 84,4
Amplitude 6 9 6 10 6 4 6 7
Fonte: o autor.

A média global é igual a 84,5, enquanto a amplitude média é igual a 6,75. As equações usadas
para o LIC e o LSC do gráfico x são as de número 4 e 5, apresentadas no decorrer da unidade. O
valor de A2 será igual a 0,577, com base na Tabela 6. Assim, o LIC e o LSC são calculados por:

LIC  84, 5  0, 577 * 6, 75  80, 61


LSC  84, 5  0, 577 * 6, 75  88, 39

Para o gráfico R, temos as equações 6 e 7. Os valores para D3 e D4 são, respectivamente, 0


e 2,114.

LIC 0=
= * 6, 75 0
=LSC 2=
, 114 * 6, 75 14, 27

3. Como temos 11 observações por amostra, deve ser usada a combinação de gráficos x-s. Os
dados para cada amostra estão expostos, a seguir.

Amostra 1 2 3 4 5 6 7 8
  154 141 138 147 154 138 145 150
  135 159 144 156 136 143 141 144
  137 154 145 137 154 144 138 160
  139 149 136 164 137 139 135 149
  140 154 137 138 144 155 145 139
  145 153 158 154 140 141 141 151
  165 137 161 135 162 148 159 142
  159 151 165 152 147 163 135 158
  149 151 149 152 160 151 165 136
  164 142 152 142 149 155 143 162
  149 142 150 141 161 151 150 160
Média 148,73 148,45 148,64 147,09 149,45 148,00 145,18 150,09
Desvio P. 10,69 6,90 9,82 9,25 9,51 7,82 9,52 9,09
Fonte: o autor.

A média global é igual a 148,20, enquanto o desvio padrão médio é igual a 9,08. Os limites para
o gráfico x usam as Equações 10 e 11, enquanto os limites para o gráfico s usam as Equações
12 e 13. O valor de A3 é 0,927, enquanto B3 e B4 são, respectivamente, 0,321 e 1,679. Os
cálculos para os limites dos gráficos x e s são:

286
LIC  148, 20  0, 927 * 9, 08  139, 79
LSC  148, 20  0, 927 * 9, 08  156, 62
=LIC 0= , 321 * 9, 08 2, 91
=LSC 1,= 679 * 9, 08 15, 25
Os gráficos x e s são, respectivamente, os apresentados a seguir:

160
Peso médio das amostras (g)

155

150

145

140

135
1 2 3 4 5 6 7 8
Número da amostra

Dados LIC LSC Média


Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se
em uma altura próxima a 140. A segunda linha também é horizontal e encontra-se na altura 148. A terceira, que indica o
limite superior, também, é horizontal e encontra-se na altura próxima a 156. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.

18
16
Desvio padrão entre os
dados das amostras

14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8
Número da amostra

Dados LIC LSC Média

Fonte: o autor.

Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se em uma altura próxima a 3. A segunda linha também é horizontal e encontra-se na altura 9. A terceira, que indica o
limite superior, também é horizontal e encontra-se na altura próxima a 15. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.

4. C. I, III e IV se referem à análise de escalas contínuas, portanto, devem ser, obrigatoriamente,


usados gráficos para variáveis. II se refere à quantidade de itens que podem ou não ser usados,
o que pode ser feito com um gráfico para atributos.

287
5. B.

II – Errada, pois o gráfico x passa a impressão de que o processo está funcionando perfeitamente.

IV – Errada, pois não é possível afirmar. Qualquer quantidade acima de 10 observações pode
ocorrer.

Unidade 7
1. A.

I - Falsa, pois o gráfico x-s utiliza amostras com tamanho a partir de 10 observações.

II - Falsa, pois as amostras do gráfico CUSUM costumam conter apenas uma observação, en-
quanto as do gráfico x-R contêm a partir de cinco observações.

IV - Falsa, pois, no gráfico MMEP, os limites de controle podem ter uma distância variável de
acordo com o L escolhido.

2. D. I - Falsa, pois os dados passam por uma análise em relação ao valor de K. Caso o desvio em
relação ao valor alvo não seja maior do que K, o dado é registrado como 0 no gráfico CUSUM.

3. C.

I - Falsa, pois o gráfico x-AM se utiliza de amostras com uma única observação.

II - Falsa, pois o gráfico AM apresentou pontos acima do controle superior.

4. Os gráficos de cada item terão as estruturas a seguir:

a) Gráfico CUSUM
volume em relação ao valor alvo (mL)

30,00
Soma cumulativa da diferença do

25,00

20,00

15,00

10,00

5,00

0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Número da amostra
Ci+ Ci- Limite
Fonte: o autor.

Descrição da Imagem: gráfico com três linhas. A linha superior é perfeitamente horizontal e tem altura igual a 25. A linha
ci+ alterna entre descidas e subidas, sempre permanecendo abaixo da altura igual a 10. A linha ci- se mantem sempre
muito abaixo da linha de limite superior, nunca ultrapassando a altura igual a 6.

288
b) Gráfico MMEP
210,00
208,00
206,00
204,00
Valor de Zi

202,00
200,00
198,00
196,00
194,00
192,00
190,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

Número da amostra
Zi LIC LSC Valor Alvo

Fonte: o autor.

Descrição da Imagem: gráfico com quatro linhas. A linha média tem altura igual a 200 e é perfeitamente reta. A linha de
limite inferior é curva e tem altura variando entre 198 e 194. A linha de limite superior também é curva, com altura indo
de 202 a 206. A linha correspondente ao Zi varia entre subidas e descidas, permanecendo sempre próxima à reta média.

5. B.

II - Falsa, pois, quanto maior o valor de L, mais afastados os limites estarão do valor alvo.

IV - Falsa, pois os limites nunca terão um valor perfeitamente fixo, independente de quanto tempo
se passe. A variação diminui, mas ela continua acontecendo muitas casas após a vírgula, chegando
a ser mínima, mas nunca inexistente.

Unidade 8
1. B. Cálculos necessários:

105  95
Cp   1, 39
6 *1, 2
1
=P 100= * 0, 72
1, 39
105  98, 3 98, 3  95
C pk  MIN [ ; ]  MIN [1, 86; 0, 92]  0, 92
3 *1, 2 3 *1, 2
Com base nos cálculos apresentados, Cp e P estão condizentes com as afirmações I e II, enquanto
Cpk está incondizente com III. Consequentemente, IV também está incorreta, pois o processo
não pode ser considerado capaz.

289
2. a) O histograma adquire o seguinte formato:

35

30

25

20

15

10

0
Menor que 592 a 595 595 a 598 598 a 601 601 a 604 604 a 607 Maior que
592 607
Fonte: o autor.

Descrição da Imagem: histograma com sete colunas, sendo a mais alta delas a central, de forma que, quanto mais
distante do centro, menor a coluna.

b) O formato indica que os índices podem ser calculados, pois a distribuição segue a normalidade.

c) O desvio padrão entre as amostras é de 4,32 e a média é de 599,53 g. Conhecendo o LIE de


580 g e o LSE de 620 g, ambos os índices podem ser calculados.

620  580
Cp   1, 54
6 * 4, 32
620  599, 53 599, 53  580
C pk  MIN [ ; ]  MIN [1, 58;1, 51]  1, 51
3 * 4, 32 3 * 4, 32
d) Os dois índices indicam processos, perfeitamente, capazes de atenderem às especificações
propostas, pois ambos os índices são maiores do que 1,33.

3. D.

I - Verdadeira. Ambas as distribuições têm formatos similares e, como o índice Cp não considera
a centralização dos dados e leva em conta apenas o desvio padrão e os valores dos limites esta-
belecidos (que são iguais para os dois gráficos), pode-se afirmar que os índices Cp são similares.

II - Falsa. Apesar de ambos serem centralizados, o desvio padrão de D é visivelmente maior que
o de C, o que faz com que o índice Cpk de C seja maior.

III - Verdadeira. A distribuição encontra-se perfeitamente centralizada e tem baixo desvio padrão,
o que faz com que seja aquela com os resultados mais próximos do desejável.

IV - Verdadeira. O índice Cp de A é maior que o de D, pois, já que LIE e LSE são iguais para ambos
os casos, basta verificar qual das duas tem o menor desvio padrão (no caso, é A) para saber qual
será o índice maior. Não se pode afirmar sobre o Cpk, pois é necessário conhecer o valor central
das duas distribuições e o desvio padrão para que se possa calcular os índices dos gráficos.

290
4. C. Os cálculos necessários são:

1010  990
Cp   1, 11
6*3
1010  1004 1004  990
C pk  MIN [ ; ]  MIN [0, 67;1, 56]  0, 67
3*3 3*3
Por meio do primeiro cálculo, sabe-se que I é falsa e II é verdadeira. O segundo cálculo mostra
que IV é verdadeira. III é falsa porque, por mais que sejam usadas mais amostras, não se sabe
de que maneira elas influenciarão no desvio padrão. Caso elas estejam mais próximas dos va-
lores centrais, a tendência é que o desvio padrão diminua, e, caso elas estejam mais afastadas,
o desvio aumenta.

5. D. Como está sendo usado um gráfico de controle, é necessário substituir o desvio padrão pelo
desvio padrão estimado s  , usando como base o valor de c4 da Tabela 1, apresentada nesta
unidade. O cálculo se dá por:

0, 53
=s = 0, 54
0, 9823
Com base nesse dado, pode-se realizar os cálculos necessários:

24  16
Cp   2, 47
6 * 0, 54
 1 
P  100 *    40, 5
 2, 47 
 24  20, 6 20, 6  16 
C pk  MIN  ;   MIN [2, 10; 2, 84]  2,110
 3 * 0, 54 3 * 0, 54 
Com os resultados encontrados, pode-se afirmar que I, II e IV são verdadeiras. O índice P tem
um valor um pouco maior do que 40, o que torna a afirmação III errada.

Unidade 9
1. D. II - Falsa, pois uma das vantagens do plano de amostragem para atributos é a menor exigência
de documentação, quando comparado ao plano de variáveis.

2. B.

II - Falsa, pois ocorreriam mudanças nos níveis gerais de inspeção com o aumento do tamanho
dos lotes.

IV - Falsa, pois o tamanho das amostras seria o mesmo para lotes de 75.000 unidades e 150.000
unidades.

291
3. D. A análise das três primeiras alternativas pode ser feita com base na figura a seguir:

Ta
man
0,0002 ho 0,001
am
os

1000
0,0004 tra
3,5 ln

500
0,0006 0,005
pa

300
0,0008 ra

200
op 0,01

150
0,001

100
lan
oc 0,02

70
0,002 3,0 om

50
od

30
esc 0,05
on

20
15
0,005 he
cid 0,10

Probabilidade de aceitação 1 – a e β
10
2,5 o

7
0,01 0,15

5
Fração de defeituosos p1 e p2

3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar)  1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar)  b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5

Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um lote
com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k. Há uma reta ligando a fração
de itens defeituosos de 0,02 à probabilidade de aceitação de 0,98, enquanto há outra reta ligando a fração de defeituosos
de 0,05 à probabilidade de aceitação de 0,05. O cruzamento entre as duas retas faz com que seja atingido um ponto, do
qual partem três retas. Uma delas atinge a lateral do nomograma, indicando um valor próximo de 1,8. Outra atinge a parte
superior, indicando valor igual a 200. A terceira atinge a parte inferior, indicando um valor próximo de 80.

Com base na figura, encontra-se um k muito próximo de 1,8 e um n igual a 200 para desvio pa-
drão desconhecido. Para casos com desvio padrão conhecido, o valor n é de, aproximadamente,
80 unidades, tornando as afirmações I e II verdadeiras, enquanto III é falsa. Sobre a afirmação
IV, o cálculo é feito por:

200  192
Z LIE  5
1, 6
Como Z é maior do que k, o lote pode ser aceito pelo método k, o que torna a afirmação IV
verdadeira.

292
1. E. Os dados são os mesmos obtidos no exercício 3. Assim, para o cálculo da abscissa inferior,
tem-se:

1, 8 * 80
1
abs  80  1  0, 398
2
O que torna I verdadeira. A afirmação II pode ser confirmada com base na figura seguinte:

0 0,10 0,20 0,30 0,40 0,50

0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
0,040
4
M

0,030
5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100

0,001
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50

Para planos de desvio-padrão, tome a abscissa = 1– k n/(n – 1)


2
Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M. O valor da abscissa é de 0,398, do qual parte uma linha perfeitamente vertical até que seja atingida a
linha que representa o valor de n igual a 80. Desse ponto de encontro, é traçada uma linha horizontal para a esquerda,
que atinge o eixo M no ponto igual a 0,037.

Para a afirmação III, deve ser calculado Z:

236  230
Z LIE   1, 2
5
Para a determinação da fração estimada, deve-se utilizar a figura:

293
0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0
100p
1,8

Z
5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
0,0
50
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Fonte: adaptada de Montgomery (2017).

Descrição da Imagem: um diagrama de formato irregular, o qual indica o valor de n igual a 80, do qual parte uma reta
vertical que encontra a linha Z igual a 1,2 e, a partir desse encontro, parte uma linha perfeitamente vertical em direção
ao eixo esquerdo, em que é encontrado o valor de aproximadamente 12.

Como o valor encontrado no eixo esquerdo é de aproximadamente 12, pode-se assumir que o
 
valor de p é de 0,12. Como M é maior do que p , então, o lote poderá ser aprovado.

294
295
296

Você também pode gostar