Escolar Documentos
Profissional Documentos
Cultura Documentos
Estatístico
do Processo
PROFESSOR
Me. Paulo Otávio Fioroto
PRODUÇÃO DE MATERIAIS
Coordenador de Conteúdo Crislaine Rodrigues Galan Designer Educacional Aguinaldo Jose Lorca Ventura Revisão
Textual Nagela Neves da Costa Editoração André Morais de Freitas Ilustração Welington Oliveira Realidade Aumentada
Maicon Douglas Curriel; Matheus Alexander de Oliveira Guandalini; César Henrique Seidel Fotos Shutterstock.
FICHA CATALOGRÁFICA
296 p.
ISBN 978-65-5615-655-2
“Graduação - EaD”.
Impresso por:
Bibliotecário: João Vivaldo de Souza CRB- 9-1679 Pró Reitoria de Ensino EAD Unicesumar
Diretoria de Design Educacional
Reitor
Wilson de Matos Silva
Antes de tudo, nada mais justo do que eu me apresentar!
Meu nome é Paulo Otávio Fioroto, sou mestre e bacharel
em Engenharia de Alimentos, com ambas as formações
pela Universidade Estadual de Maringá. Durante minha
graduação, tive a oportunidade de atuar em uma em-
presa de consultoria, que proporcionou meu primeiro
contato com a maioria do conteúdo que discutiremos
neste material. Sempre, gostei muito de ler, os mais
diversos assuntos — histórias fictícias, biografias, livros
técnicos e o que mais você puder pensar —, e, desde o
momento em que conheci as ferramentas da Qualidade
e do Controle Estatístico, tive minha curiosidade desper-
tada e iniciei uma busca por mais conteúdo a respeito.
Ainda, tive a oportunidade de realizar dois cursos in-
dependentes, voltados para Six Sigma e Lean Manufac-
turing, isso adicionou certo peso à minha formação e me
abriu os olhos para certos raciocínios que, por mais que
pareçam óbvios, não recebem a devida importância. O
conhecimento adquirido, durante todas essas pesquisas,
Aqui você pode abriu-me várias portas, incluindo uma oportunidade de
conhecer um estágio no exterior, além de ampliar a minha visão para
pouco mais sobre
o fato de que toda informação pode ser um indicador
mim, além das
informações do que nos ajudará, em nosso cotidiano na empresa.
meu currículo.
REALIDADE AUMENTADA
Sempre que encontrar esse ícone, esteja conectado à internet e inicie o aplicativo
Unicesumar Experience. Aproxime seu dispositivo móvel da página indicada e veja os
recursos em Realidade Aumentada. Explore as ferramentas do App para saber das
possibilidades de interação de cada objeto.
RODA DE CONVERSA
PÍLULA DE APRENDIZAGEM
Uma dose extra de conhecimento é sempre bem-vinda. Posicionando seu leitor de QRCode
sobre o código, você terá acesso aos vídeos que complementam o assunto discutido
PENSANDO JUNTOS
EXPLORANDO IDEIAS
EU INDICO
Enquanto estuda, você pode acessar conteúdos online que ampliaram a discussão sobre
os assuntos de maneira interativa usando a tecnologia a seu favor.
Toda empresa quer que suas ações ocorram com 100% de eficiência, sem erros, com
produtos padronizados e com o mínimo de gastos possível. Isso, entretanto, é algo
improvável. Até mesmo a empresa mais bem preparada terá produtos defeituosos ou
suspenderá sua produção, seja para manutenção, seja por falhas humanas. Devemos
aceitar que problemas acontecerão. Mas como determinaremos a quantidade de falhas
aceitável em um processo? E, ainda, como saberemos o quão graves elas são?
O foco do Controle Estatístico do Processo (CEP) é, justamente, este. Cada proces-
so dependerá de diversos parâmetros, como: a quantidade de itens em cada lote e a
margem de erro estabelecida como aceitável. Além disso, precisamos compreender se
o processo analisado tem um histórico regular de falhas ou se elas são pontuais. Isso
será vital para que possamos determinar se tudo está dentro daquilo que a empresa
quer ou se precisamos intervir, de alguma forma, para que o processo gere resultados
satisfatórios.
Para tornar a visualização mais simples, sugiro que você, em sua casa, realize uma
breve experiência cujo foco é gerar um contato inicial com os princípios daquilo que
veremos durante a disciplina. Tenha em mente que, apesar de parecer algo simples, é
uma situação que pode ser encontrada no cotidiano de alguém que trabalha com Pro-
cessos ou Qualidade. Você pode abrir um pacote de biscoitos qualquer e pesá-los em
uma balança. Além disso, você pode usar uma régua para medi-los. A intenção dessa
ação é perceber que, por menor que seja, é comum que ocorram diferenças entre os
resultados, tanto para os pesos quanto para as medidas.
Além disso, sabemos, também, o peso que cada biscoito deveria ter, visto que essa
informação é contida na embalagem; e é notável que as amostras pesadas não atingem,
perfeitamente, o que foi determinado. Será que devemos considerar essas variações
como falhas?
A resposta, provavelmente, será: não; não precisamos dizer que ocorreram erros.
Por mais que desvios sejam indesejáveis, eles também são inevitáveis. Por isso, cada
empresa estabelece uma variação máxima que será permitida para cada produto.
Por exemplo, caso falemos de um item cujo peso esperado seja de 15 kg, é natural que
ocorra uma variação de 10 gramas, visto que isso representa menos de 1% daquilo que
se esperava obter; isso é algo que provavelmente já é previsto no processo, inclusive.
Por outro lado, caso o peso desejado seja de 50 gramas e a variação seja dos mesmos
10 gramas, é evidente que tivemos uma falha grave no processo produtivo, pois nos
referimos a uma variação que corresponde a 20% do valor esperado, algo absoluta-
mente indesejável. Isso mostra que uma variação ser aceitável ou não é algo relativo.
Esses desvios podem causar problemas graves para uma empresa. É comum que
produtos tenham seu peso registrado em suas embalagens. Caso a informação des-
crita seja a de que estão contidos, por exemplo, 2 litros em uma garrafa, e na verdade
haja 50 ml a menos, o cliente será lesado, o que pode (e irá) resultar em reclamações.
Por outro lado, caso haja 50 ml a mais do que o registrado na embalagem, a empresa
será prejudicada, pois forneceu produto em excesso e não recebeu por isso. Indepen-
dentemente do cenário, ao menos um dos lados será prejudicado. Uma variação em
um produto pode resultar em danos não apenas aos cofres, mas também à imagem
da companhia.
O que descrevemos até o momento é, de forma bem simplificada, o cotidiano de
alguém que atua com o CEP, em uma indústria. O profissional, entretanto, conta com
diversas ferramentas, como gráficos, tabelas, históricos e equipamentos de alta preci-
são, para realizar as ações em questão e identificar se, de fato, ocorreram falhas. Cada
situação, porém, exigirá uma ferramenta diferente, as quais serão o assunto central
de, praticamente, todo o nosso material.
É possível perceber que o Controle Estatístico do Processo tem grande relevância
não apenas para a empresa, mas também para o cliente! Controlar o que é produzido é
uma forma de impedir que falhas ocorram e, como consequência, manter a qualidade,
agradar ao cliente e proteger a imagem da empresa. Trabalharemos de forma direta
com a Estatística e com a Qualidade, unindo as duas áreas em ferramentas voltadas
para um único fim. Diante do exposto, o que você espera da disciplina de CEP?
CAMINHOS DE
APRENDIZAGEM
1
11 2
41
O PROCESSO FERRAMENTAS DE
DMAIC (DEFINIR, CONTROLE - PARTE I
MEDIR, ANALISAR,
IMPLEMENTAR E
CONTROLAR)
3
71 4
103
FERRAMENTAS DE ESTATÍSTICA
CONTROLE - PARTE II DESCRITIVA
E NOÇÕES DE
PROBABILIDADE
5 131 6
159
CONTROLE CONTROLE
ESTATÍSTICO DO ESTATÍSTICO DO
PROCESSO POR PROCESSO POR
ATRIBUTOS VARIÁVEIS
7
187
8
217
GRÁFICOS DE CAPACIDADE DE
SOMA CUMULATIVA PROCESSOS
E MÉDIA MÓVEL
EXPONENCIALMENTE
PONDERADA
9
245
AMOSTRAGEM DE
ACEITAÇÃO
1
O Processo DMAIC
(Definir, Medir,
Analisar, Implementar
e Controlar)
Me. Paulo Otávio Fioroto
Qual é o primeiro passo para entender o que deve ser feito, na resolução
de um problema? A resolução de um problema é algo cotidiano na vida
de um profissional de qualquer área. Por “problemas”, devemos entender
que não falamos apenas de defeitos, mas sim de casos nos quais preci-
samos cumprir com algo que nos foi pedido, por exemplo, aumentar
o rendimento de uma linha de produção em 10%, ou entender o mo-
tivo pelo qual a empresa recebe reclamações sobre um determinado
produto. Claro, cada problema tem suas particularidades e exige suas
próprias análises. Será, entretanto, que existe uma forma generalizada
de abordar a resolução de todas as situações? Para encontrarmos uma
resposta para esse questionamento, podemos trabalhar usando uma
situação que envolva a prática, vamos lá?
Caroline é uma engenheira de produção recém-formada e que atua
no setor de Qualidade de uma empresa de porte médio do ramo de be-
bidas, com foco principal, mas não exclusivo, em cervejas. Ela adquiriu
certa experiência ao estagiar em empresas maiores, durante a graduação,
e iniciou sua carreira efetivamente em uma companhia que, apesar de
não ser tão grande quanto aquelas nas quais obteve experiência, tem
uma boa fama entre os clientes da região.
12
UNIDADE 1
Essa boa fama é consequência do fato de que a empresa, sempre, busca atender às reclamações dos
clientes de forma rápida, as quais são captadas tanto com base no site da empresa quanto em suas redes
sociais, além de pesquisas de opinião realizadas em supermercados, com certa frequência. Tanto em
redes sociais quanto em outras ferramentas de comunicação, o produto sempre foi elogiado, e nunca
houve queixas graves sobre a qualidade. Entretanto uma das reclamações acabou tornando-se muito
frequente nos últimos tempos, mais especificamente, nas últimas três semanas. A cerveja produzida pela
fábrica tem apresentado gosto e aparência estranhos ao público. Caroline, então, tornou-se a responsável
por analisar as reclamações, compreender o ocorrido, além de se comprometer em resolver o problema.
Caroline, em um primeiro momento, não sabia sequer como começar. Afinal, ela havia se tornado
responsável por resolver dois problemas simultaneamente, uma vez que a aparência e o gosto da cer-
veja estavam fora do padrão desejado. Se temos dois problemas separados, como podemos agir para
obter o que se quer do produto?
A resposta para essa pergunta é mais simples do que se pode imaginar. Na verdade, você não
precisa resolver as duas situações simultaneamente. Cada problema exige procedimentos, análises
e, consequentemente, soluções diferentes. O que deve ser feito é resolver um de cada vez, buscando
soluções pontuais para cada caso. Geralmente, o fato da solução de um problema ser pesquisada em
nada impede que os outros casos também possam ser estudados, apenas que cada um deve receber
atenção em momentos específicos. Foi, então, que Caroline entendeu o primeiro passo para resolver
as situações: definir qual problema seria tratado.
13
UNICESUMAR
Sabemos que os problemas são relacionados ao gosto e à aparência da cerveja. Sendo assim, Caroline
decidiu, primeiramente, focar na questão da aparência do produto. Agora que sabia em qual problema iria
trabalhar, faltava Caroline entender o que, de fato, estava errado com a aparência do produto. Por meio
das reclamações, ela notou que a maioria falava sobre a turbidez da cerveja. Geralmente, espera-se uma
coloração mais clara e límpida, mas a aparência do produto era opaca. Uma possível causa para a turbidez
é a falta de limpeza do filtro que separa a levedura, usada na fase de fermentação do produto final. Por
mais que a levedura não faça parte do produto final, é comum que uma parte dela seja transferida junto
da cerveja até a fase seguinte, que é a maturação. Nessa etapa, ocorre uma espécie de “limpeza” do produto,
de forma que os resquícios de levedura são separados do produto através de decantação e/ou de um filtro.
No controle interno da empresa, a coloração da cerveja é medida com base em notas atribuídas pelos
próprios operadores, elas variam de 1 a 5, sendo 1 a nota que indica muita turbidez e 5 a nota desejável,
essa sinaliza que o produto está com coloração límpida. Tendo isso como base, Caroline realizou, então, a
segunda fase para a solução do problema: a medição dos atributos. Para a medição, coletaram-se diversas
amostras de cerveja produzida. Posteriormente, os operadores as examinaram e atribuíram uma nota, na
escala de 1 a 5. As notas foram usadas para medir a turbidez do produto, o que deu fim à segunda etapa
da nossa resolução de problemas.
A terceira fase se refere à análise dos dados obtidos e medidos durante o momento anterior. Durante
essa fase, Caroline se utilizou de ferramentas da qualidade, como o histograma e o gráfico de Pareto
(ambas serão tratadas a fundo posteriormente em nosso material) para verificar que, de fato, as notas
médias para as amostras coletadas eram baixas, na faixa entre 1 e 2, o que indica grande turbidez.
Isso levou a engenheira a crer que excesso de levedura estava misturado ao produto final, o que mostrou
que seria necessário checar o filtro usado na fase de maturação. Após parar a produção por um período
e checar o equipamento usado nessa fase, Caroline notou que, em um primeiro momento, tudo parecia
funcionar adequadamente. Porém, ao analisar mais de perto, notou uma falha: a malha da peneira usada
como filtro tinha espaços maiores do que o ideal. O padrão da fábrica era usar malhas com brechas de
5 mm, enquanto a peneira encontrada, usava espaços de 15 mm, o triplo do adequado. Isso permitia a
passagem da levedura pelo processo e, como não há mais etapas de separação posteriores na produção,
a levedura permanecia misturada à cerveja; isso, portanto, deixava a sua aparência túrbida.
Caroline verificou que a peneira que chegou à empresa estava na embalagem daquela que seria a
correta, evidenciando que o erro foi da própria empresa que produz o equipamento. Com base nisso,
Caroline encontrou a solução, simples, de trocar a peneira. Essa etapa se refere à quarta fase da resolução
de problemas, que é a implementação da solução.
Tão importante, porém, quanto solucionar o problema, é impedir que a falha ocorra novamente.
Para isso, então, é usada a quinta fase da resolução de situações: o controle. A partir desse dia, a empresa
passou a inspecionar as peneiras adquiridas como forma de garantir que o mesmo erro não acontecesse
novamente. Do mesmo modo, os dados referentes à turbidez da cerveja também começaram a ser men-
surados e analisados com uma frequência maior, como forma de segurança.
A técnica de resolução de problemas usada por Caroline, em nosso estudo de caso, é o chamado
DMAIC; na literatura, também, pode ser encontrado com o nome de DMAMC. O nome nada mais
14
UNIDADE 1
é do que a sigla para a ordem das ações: define (definir), measure (medir), analyse (analisar), improve
(melhorar, ou, como adaptado para o português, implementar) e control (controlar).
Após analisar a situação apresentada, seria possível usar o mesmo raciocínio e as mesmas ferramentas
para resolver qualquer problema? Que tal pensar em uma situação que você tenha vivenciado em algum
projeto realizado — na época de escola, durante a graduação ou em seu ambiente de trabalho — e tentar
aplicar um pensamento semelhante? Utilize do seu “Diário de bordo” para anotar possíveis formas de
responder este questionamento, ok? Conto com a sua participação!
Apesar das ferramentas variarem, o DMAIC serve como caminho para resolução de qualquer proble-
ma. Qualquer ação pode ser realizada com base no DMAIC, na verdade! Do mesmo modo, um problema
pode ser resolvido de formas diferentes. A situação que Caroline vivenciou, em nosso estudo de caso,
seguiu um caminho lógico muito coerente com a realidade de alguém responsável por uma indústria de
alimentos, mas outras ações poderiam ser tomadas em alguns momentos.
Em conversa com profissionais que atuam no ramo cervejeiro, contei-lhes a situação que vimos no
estudo de caso e lhes perguntei como resolveriam esse problema. Alguns disseram que, na etapa de
medição, teriam realizado testes de cromatografia para identificar a composição da cerveja e identificar
que tipo de microrganismo poderia causar a turbidez. Outros relataram que, na etapa de análise, ao invés
de usar o histórico dos resultados da turbidez, teriam coletado amostras mais recentes. Houve, inclusi-
ve, um profissional que comentou que, na fase de definição, teria priorizado a correção do sabor, pois
acredita que este fator é mais relevante para o cliente do que a aparência, algo que, na verdade, caberia
ser discutido. Enfim, diversos podem ser os caminhos a serem tomados por alguém que atue no ramo.
Tudo dependerá da experiência e das ferramentas que ele tiver em mãos.
As particularidades para cada etapa do DMAIC, além de ferramentas comumente usadas em cada
uma de suas fases, serão nosso assunto durante toda a primeira unidade do nosso material.
DIÁRIO DE BORDO
15
UNICESUMAR
Podemos definir o Controle Estatístico do Processo (CEP) como um método de prevenção e detecção
de problemas. Há quem diga que se trata de uma ferramenta, mas essa ideia não é correta, a verdade é
que o CEP se trata de um conjunto de ferramentas, de maneira que se pode escolher a mais adequada
para resolver uma determinada situação. Quando dizemos que o CEP se trata da detecção de proble-
mas, tenha em mente que falamos de qualquer situação que precise de uma análise aprofundada para
que possa ser solucionada. E, é claro, deve-se entender qual é essa situação, o que pode ser feito por
meio do DMAIC.
Apesar da forte relação do DMAIC com o Lean Manufacturing — sendo esta a filosofia que busca
a redução de desperdícios — e, principalmente, com o Seis Sigma, as etapas não são, obrigatoriamente,
exclusividade deles. É, porém, impossível falar de ambos sem falar do DMAIC, da mesma forma que
é impossível tratar de DMAIC sem tratar, mesmo que de forma breve, sobre o Seis Sigma. É perfeita-
mente possível que uma empresa use o DMAIC como algo individualizado em numa única tarefa ou,
então, ligado à gestão de projetos (MONTGOMERY, 2017).
É natural que haja certa confusão entre o DMAIC e o ciclo PDCA, que envolve as etapas plan (pla-
nejar), do (fazer), check (checar) e act (agir). E não é para menos, afinal, ambos são ciclos que buscam
guiar as etapas que devem ser seguidas para a resolução de um problema. A semelhança não se resu-
me a isso, principalmente pelo fato de que o PDCA, que surgiu primeiro, foi a base para a criação do
DMAIC. Além disso, ambos são usados visando à solução de um problema específico e/ou à geração de
melhoria contínua. A fase inicial do ciclo DMAIC, no entanto, em especial a fase de definição daquilo
que será tratado e realizado, é mais elaborada do que a etapa de planejamento do ciclo PDCA. Para
mais, o DMAIC se utiliza não apenas das ferramentas do ciclo PDCA, mas também de ferramentas
consideradas mais avançadas, trabalhando diretamente com a estatística e, comumente, aplicando
softwares para tanto. Em alguns momentos, algumas etapas do DMAIC podem ser tão complexas
que se torna necessário criar um ciclo PDCA apenas para realizá-la, fato mais comum em projetos de
longa duração. Um comparativo entre as etapas pode ser visto no Quadro 1.
Coletar os dados M
P
Analisar os dados A
16
UNIDADE 1
Antes de darmos início às nossas explicações sobre cada etapa, discutiremos o Seis
Sigma e o Lean Manufacturing, visto que, para entendermos a finalidade do DMAIC,
precisamos compreender a mentalidade daqueles que o aplicam. O foco do Seis
Sigma é a redução drástica de problemas, tendo como principal base a estatística e
suas ferramentas. Nesta ciência, o desvio padrão é representado pela letra grega σ, a
qual é lida como sigma.
Podemos ter duas certezas para qualquer processo. A primeira delas é a de que,
apesar de ser possível chegar perto dessa marca, nunca existirá um processo com
100% de perfeição. A segunda é a de que um processo não ocorrerá sempre da mesma
forma, pois a sua média variará entre um lote e outro. É importante, todavia, que a
variação dessa média seja mínima, afinal, queremos que os lotes sejam iguais uns aos
outros, mas, como isso não é sempre possível, o mínimo de variação já é suficiente.
Sendo assim, a intenção principal do programa Seis Sigma é permitir que a média das
amostras de um lote se desloque, no máximo, 1,5 desvios padrões para cima ou para
baixo, sendo que os outros 4,5 desvios padrões serão a distância máxima permitida
entre a média do processo e o limite de especificação mais próximo (LOBO, 2020).
Por “limite de especificação”, entendemos o maior erro que consideraremos aceitá-
vel. Por exemplo, se uma empresa produz latas de 350 mL, pode ser que ela considere
uma variação de 2 mL para mais ou para menos como esperado, ou seja, seus limites
de especificação são 348 mL e 352 mL. Cada produto tem suas próprias especificações,
as quais são determinadas pela própria companhia, sendo muitas vezes determinadas
por meio de percentuais ao invés de valores absolutos.
O somatório de desvios padrões envolvidos é igual a 6, e consideramos sempre 3
desvios padrões abaixo da média e 3 acima. E por qual motivo usamos seis desvios
padrões? Pois bem, isso ocorre devido ao modelo matemático da distribuição normal.
Se tivermos um modelo que atua, considerando dois sigmas, um para cada lado da
média, teremos 68% dos dados dentro daquilo que é desejado. Caso tenhamos qua-
tro sigmas, com dois para cada lado da média, teremos 95% das observações dentro
daquilo que consideramos adequado. Quando trabalhamos com o Seis Sigma, com
três sigmas para cada lado da média, temos um índice de aproximadamente 99,7%
dentro daquilo que foi estabelecido (LOBO, 2020). A distribuição normal com os
percentuais apresentados pode ser vista na Figura 1.
O processo ideal terá uma curva de formato similar ao apresentado na figura, mas
ela será menos larga. Isso apresenta que o desvio padrão entre as amostras analisadas
é mínimo, o que indica concentração de valores mais próximos à média.
17
UNICESUMAR
Descrição da Imagem: um gráfico em forma de curva, uma linha sobe continuamente, atingindo um ponto mais alto, e, em seguida,
desce. A região central contém 68,2% dos dados, os quais estão a uma distância de um desvio padrão, para mais ou para menos, do
centro do gráfico. Uma segunda região, que inclui a central e mais uma certa área, contém 95,4% dos dados, os quais estão todos a
uma distância de dois desvios padrão, para mais ou para menos, do centro do gráfico. Uma terceira região, que inclui a região citada
anteriormente e mais uma pequena área, representa 99,7% dos dados, os quais se encontram a uma distância de três desvios padrão
para mais ou para menos em relação à média.
Teoricamente, um processo que siga à risca o Seis Sigma atingirá um nível de perfeição no qual ocor-
ram apenas 3,4 falhas para cada um milhão de ações, o que equivale a um nível de perfeição igual a
99,99966% de ações realizadas adequadamente. Na maioria dos casos, contentar com 99% já seria algo
para se orgulhar — e, de fato, é um excelente resultado —, mas, se considerarmos certos dados, veremos
que isso está muito aquém do ideal. Por exemplo, tomando como base a aviação, são realizados, apro-
ximadamente, 15,6 milhões de voos comerciais por ano. Se dissermos que 99% dos voos ocorreram
adequadamente, teremos a informação de que 15,44 milhões de voos não tiveram uma única falha,
isso indica 156 mil voos com problemas. Entretanto, se usarmos o percentual proposto pelo Seis Sigma,
encontraremos 15,5999 milhões de voos que ocorrem perfeitamente, indicando problemas em apenas
52 deles, um número invejável.
Tenha em mente, porém, que nem mesmo as empresas que são as pioneiras da aplicação — no caso,
a Motorola, criadora da metodologia, e a General Electric, comandada por muito tempo pelo brilhante
Jack Welch, considerado o empresário do século e principal responsável pela sua popularização —
conseguiram atingir esse nível de perfeição. Definitivamente, os resultados delas são excelentes, mas
isso mostra que o Seis Sigma é uma busca contínua por melhorias (OLIVEIRA, 2014). Se empresas
do porte destas, que aplicam o Seis Sigma há décadas, ainda não atingiram esse nível de perfeição na
prática, não se pode esperar que alguma outra companhia, independentemente do porte, atinja resul-
tados 100% adequados do dia para a noite.
18
UNIDADE 1
Ainda, sobre o tema e, novamente, abordando os resultados referentes à aviação, por um lado, de-
finitivamente não ocorrem mais de 50 quedas de avião por ano, se seguirmos as informações dadas
pela mídia, provavelmente encontraremos, quando muito, 10 quedas de voos comerciais por ano. Por
outro lado, com certeza há mais de 50 falhas nesse período, visto que, entre elas, podemos contabilizar
atrasos, cancelamentos, problemas mecânicos, pousos de emergência e quaisquer outras possibilidades
— eu mesmo tive problemas nas últimas 3 vezes em que estive num voo! O nível de perfeição atingi-
do definitivamente não corresponde ao Seis Sigma, mas é visível que as empresas seguem buscando
a melhoria e que a quantidade de falhas é muito menor do que seria se o controle não fosse usado. A
proposta é a busca contínua pela melhoria, algo que um profissional deve ter como alvo em todos os
momentos de sua carreira.
É possível realizar cursos para se especializar em Seis Sigma e suas ferramentas, e isso é algo ab-
solutamente relevante para qualquer profissional que atue como gestor ou como um engenheiro que
lide com processos industriais de larga escala. Há diversos níveis de classificação para profissionais,
baseados em seu conhecimento e sua experiência, conforme apresentado no Quadro 2.
Nível Descrição
Green Belt Atua na coleta e análise de dados, pode liderar projetos de menor escala.
19
UNICESUMAR
A relação entre o Seis Sigma e o Controle Estatístico do Processo é plenamente visível, já que ambos
se utilizam de ferramentas da Qualidade e da estatística para o gerenciamento de processos. Sendo
assim, caso você já tenha realizado algum curso relacionado ao Seis Sigma, independentemente do nível
de classificação, provavelmente reconhecerá uma grande parcela do conteúdo que trataremos aqui.
Da mesma forma, caso você se sinta inspirado a iniciar um curso Seis Sigma, após finalizarmos essa
disciplina, algo que eu recomendo fortemente, principalmente se você já estiver atuando no mercado
de trabalho, certamente terá uma maior facilidade na absorção do conteúdo quando for realizá-lo.
Enquanto o DMAIC tem sua aplicação muito mais visível, quando falamos do Seis Sigma, podemos
atrelar esse pensamento, também, ao Lean Manufacturing. Mas, antes, precisamos entender o que é,
de fato, o Lean. Isso nos remete ao Japão Pós-Segunda Guerra Mundial, em que a população estava em
situação crítica com a falta de alimentos e matérias-primas em geral. Como as indústrias não tinham
condições de importar produtos de outros países, decidiram tirar o máximo de proveito de tudo que
tinham à disposição, evitando todos os desperdícios possíveis.
A partir dessa mentalidade, as indústrias japonesas, lideradas pela automobilística Toyota, conse-
guiram produzir itens de melhor qualidade, com o menor gasto possível e em uma velocidade de dar
inveja a qualquer companhia do exterior, chegando ao ponto de exportar produtos para países em
condições muito melhores. Em alguns anos, o Japão estava totalmente recuperado e sua economia estava
entre as melhores do mundo. Este modelo foi a origem da mentalidade Lean, a qual só seria reconhe-
cida mundialmente em meados da década de 80, após estudos sobre modelos de gestão de empresas
automobilísticas, em diversos continentes (RODRIGUES, 2016). Entretanto, apesar das décadas de
atraso para perceberem que a forma de gestão da Toyota era uma mina de ouro, a sua popularização
foi praticamente imediata, em 1990, a partir da publicação dos estudos realizados, a mentalidade Lean,
finalmente, recebeu a atenção que merece.
20
UNIDADE 1
O termo “Lean Manufacturing” significa manufatura enxuta, ou seja, fazer o máximo possível
com o mínimo necessário. Isso é uma forma de evitar desperdícios e aproveitar cada pequena peça,
cada instante, cada possibilidade que, caso caísse em outras mãos, poderia ser desperdiçada. Quando
pensamos em “desperdício”, pensamos em algo jogado fora, ou então alguém procrastinando e des-
perdiçando tempo. Talvez, até mesmo, alguém gastando dinheiro com algo supérfluo. Enquanto todos
esses pensamentos são corretos, eles também são limitados. Segundo a mentalidade enxuta, temos 7
tipos de desperdícios (RODRIGUES, 2016):
• Tempo: possivelmente, o desperdício mais fácil de ser identificado, visto que qualquer ação
desnecessária dentro de uma empresa torna-se desperdício de tempo que poderia ser aprovei-
tado em ações úteis.
• Movimento: trata-se do excesso de movimentação do funcionário envolvido no processo, tanto
na realização de movimentos desnecessários, parado em um mesmo lugar, quanto na má dis-
tribuição de equipamentos e máquinas ao seu redor, o que gera caminhadas longas entre um
ponto e outro que poderiam ser evitadas.
• Processamento: concerne processos que podem ser considerados inúteis e que apenas geram
gastos, sem que agreguem valor ao produto.
• Defeitos: produtos defeituosos geram retrabalho, o que é desperdício de tempo, esforço e dinheiro.
• Estoque: excesso de estoque causará uso de espaço que poderia ser melhor aproveitado, além
de imobilizar capital e gerar riscos desnecessários.
• Transporte: referente a layouts mal projetados, os quais dificultam a movimentação interna de
peças e equipamentos, algo que toma tempo.
• Superprodução: produção em excesso, o que gera estoques desnecessários e, principalmente
para casos em que se trabalha com produtos perecíveis, pode resultar em grandes perdas.
De modo resumido, podemos dizer que todos os desperdícios consomem direta ou indiretamente, ao
menos, um dos três fatores: tempo, espaço e dinheiro. E todos eles têm uma coisa em comum: o fato
de não agregarem valor ao produto final.
Por “valor”, devemos considerar apenas os aspectos pelos quais o cliente aceita pagar, em outras
palavras, aquilo que atende às suas necessidades e/ou expectativas. O excesso de tempo necessário
para produzir um bem não agrega valor ao item de forma alguma, na verdade, ocorre exatamente o
contrário, pois muitas pessoas estão dispostas a pagar um pouco mais para que seu produto chegue
até elas mais depressa.
O excesso de movimentos, a estrutura usada para produzir o item, nada disso irá agregar valor
ao consumidor final. A intenção da mentalidade enxuta é, justamente, reduzir ao máximo as ações
desnecessárias e limitar o processo apenas àqueles aspectos que são estritamente necessários. Isso
gera economia de tempo e de finanças, mas as vendas permanecem inalteradas, ou seja, o saldo final
torna-se positivo, já que gastamos menos e recebemos a mesma quantia.
21
UNICESUMAR
Determinar o preço de venda de um produto antes dele começar a ser produzido fará com
que os responsáveis pelo seu desenvolvimento inovem o processo de produção, esse é um
princípio do Lean Manufacturing.
Após essa explicação, você deve se perguntar: de que forma o DMAIC se aplica ao Lean Manufacturing?
A resposta, na verdade, é muito simples. Suponha que tenhamos uma situação em que nosso produto
leva tempo demais para ser produzido. Se considerarmos um caminho análogo ao que foi apresentado
em nosso estudo de caso inicial, teremos como definição do problema a “demora para produção”. Na
etapa seguinte, em que ocorre a tomada de dados, ocorre a cronometragem de cada uma das fases de
produção daquele bem. Com isso, podemos dizer qual das etapas é aquela que consome mais tempo
e definir quais são nossos gargalos de produção.
Em seguida, ainda seguindo o raciocínio usado por Caroline, ocorre a análise dos dados obtidos
e a identificação daquele que é, de fato, o problema. Por consequência, ocorre a definição e a imple-
mentação da melhoria proposta pelos envolvidos e, por último, o controle para verificar se tudo segue
conforme o planejado, após a aplicação do DMAIC.
O Seis Sigma e o Lean Manufacturing podem atuar juntos sem maiores problemas, inclusive, muitos
projetos voltados ao Seis Sigma são desenvolvidos, justamente, pensando na manufatura enxuta. Não
à toa, há diversos cursos no mercado cujo nome é “Lean Seis Sigma”, pois focam no desenvolvimento
dos dois pensamentos. Além disso, as ferramentas usadas para ambos os casos são praticamente as
mesmas, então, torna-se prático estudar os dois formatos simultaneamente.
22
UNIDADE 1
23
UNICESUMAR
A terceira coluna indica os procedimentos realizados dentro do processo em questão. Seu preen-
chimento pode se dar, tendo como base um fluxograma, visto que apenas as etapas, na ordem em que
são realizadas, são necessárias para completar essa coluna.
Um fluxograma se trata de uma sequência cronológica dos passos do processo, fornecendo uma
visualização rápida e simplificada de tudo que é realizado (WERKEMA, 2013). Essa ferramenta pode
ser útil não apenas no momento da aplicação do SIPOC, mas também no processo como um todo,
pois um olhar simplificado sobre o processo pode ser necessário a qualquer momento. Um exemplo
de fluxograma, tendo como base o processo estudado por Caroline em nosso estudo de caso, pode ser
visto na Figura 2.
Moagem do malte
Envase
Água Mosturação
Descrição da Imagem: um fluxograma indica a produção de cerveja. O processo é iniciado com a moagem do malte, passando para a
mosturação, etapa na qual há adição de água, indo para a clarificação, onde há a saída de bagaço, e em seguida chega às etapas de fervu-
ra e resfriamento, quando há adição de lúpulo. Em seguida, passa para as fases de fermentação, maturação e envase, respectivamente.
A coluna seguinte se refere às saídas do processo. Nela, podem (e devem) ser incluídos tanto o(s)
produto(s) final(is) do processo quanto eventuais sobras, refugos, produtos quebrados e similares. Por
último, temos a coluna dos clientes, os quais receberão o(s) item(ns) resultante(s) da coluna anterior.
Como exemplo de diagrama SIPOC, apresentamos o Quadro 3, que expõe o diagrama que poderia
ser elaborado pela engenheira Caroline, personagem do nosso estudo de caso, apresentado no início
de nossa unidade, para a produção de cerveja.
24
UNIDADE 1
S I P O C
Fornecedor D
Latas Resfriamento
(latas)
Maturação
Envase
O diagrama SIPOC pode ser usado também para falar de uma única etapa de um processo. Por exem-
plo, caso falássemos, apenas, da etapa de fermentação da cerveja, teríamos listados como fornecedores
apenas as empresas das quais adquirimos a matéria-prima usada nessa etapa (no caso, a empresa que
fornecer a levedura). Já as nossas entradas seriam a levedura e o produto gerado pela etapa, imedia-
tamente, anterior à fermentação.
Há diversas outras ferramentas que podem ser usadas durante a fase de definição, mas o diagrama
SIPOC tende a ser a mais completa. Entretanto, não é raro que este seja aliado a um fluxograma para
a definição dos processos envolvidos, visto que, por melhor que o diagrama seja para visualizar aquilo
que ocorre antes e após o procedimento, ele não fornece dados tão detalhados sobre as etapas quanto
um fluxograma pode oferecer.
Tendo essa fase definida, partimos para o segundo ponto do DMAIC — as medições. A etapa
“medir” tem como principal objetivo avaliar e compreender o estado atual do processo analisado
(MONTGOMERY, 2017). É impossível que saibamos se algo funciona dentro do esperado sem que
tenhamos dados, isto é, medições; então, precisamos ter conhecimento de todas as variáveis envolvidas
naquilo que é estudado e qual seu efeito sobre os resultados.
Se não conhecermos os dados anteriores à aplicação do projeto, não teremos uma forma de saber o
impacto que causamos nos resultados. Tão importante quanto termos os registros posteriores ao pro-
jeto, é termos aqueles anteriores. Um resultado em nada vale, se não houver algo com que se comparar.
Em tempo, é comum que vejamos o termo “medir” e pensemos que precisamos usar uma régua,
uma balança ou qualquer instrumento de medição físico para termos os dados em mãos. Mas, se es-
tivermos falando de uma empresa relativamente bem preparada, os dados já terão sido coletados em
ocasiões anteriores, o que torna desnecessário o esforço de ir até o chão de fábrica para realizar todo o
procedimento de anotações. Em casos ainda melhores, os dados já estão todos coletados e computados,
economizando horas, talvez até dias e semanas, de trabalho.
25
UNICESUMAR
Quantos dados são necessários para que possamos dizer que temos o suficiente para pros-
seguir com nosso projeto?
A partir do momento em que se tem os dados, o ideal é que eles sejam distribuídos em ferramentas
de análise (WERKEMA, 2014). O fato do profissional alocar as informações em gráficos, tabelas e/ou
similares pode ser também atribuído à fase de análise, conforme algumas obras da literatura o fazem.
Isso, porém, é plausível de discussão, visto que essa é a ação que encerra a etapa de medição e/ou ini-
cia a etapa de análise do ciclo DMAIC. Mas, no final, contanto que o passo a passo seja devidamente
seguido, torna-se indiferente em qual das etapas essa ação é encaixada.
Geralmente, para dados históricos, utiliza-se como base o histograma, que se trata de um gráfico
de barras focado em resumir um conjunto de dados, permitindo a visualização imediata da variação
entre os dados. Um exemplo de histograma está representado na Figura 3. Esta identifica a quantidade
de funcionários em determinadas faixas etárias que atuam na cervejaria em que Caroline trabalha.
Distribuição
12
10
0
21-24 25-28 29-32 33-36 37-40
Figura 3 - Exemplo de um histograma padrão / Fonte: o autor.
Descrição da Imagem: um gráfico de barras verticais indica, em seu eixo horizontal, 5 faixas de valores: 21 a 24, 25 a 28, 29 a 32, 33
a 36 e 37 a 40, com as barras indicando as respectivas quantidades no eixo vertical para cada uma das faixas de valores: 9, 11, 6, 9 e
5, respectivamente.
26
UNIDADE 1
Gráfico de controle
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Descrição da Imagem: um gráfico com 3 linhas perfeitamente horizontais nos valores iguais a 0, 3,5 e 8,7,
respectivamente, e uma quarta linha que está ligada a 25 pontos diferentes no decorrer do gráfico, indicando
a quantidade de defeitos em cada um dos 25 lotes analisados. Como exceção do ponto 19, o qual está acima
da linha indicando o valor de 8,7, todos os pontos encontram-se na faixa de valores entre 0 e 8,7.
Pode, também, ser usado o diagrama de Pareto (ou gráfico de Pareto) como forma
de medir o impacto que cada uma das possíveis causas tem sobre um determinado
efeito. Um exemplo visual do diagrama é apresentado na Figura 5, que apresenta as
quantidades de reclamações recebidas pela cervejaria do nosso estudo de caso inicial.
27
UNICESUMAR
Diagrama de Pareto
90 100,00%
80 90,00%
70 80,00%
60 70,00%
50 60,00%
50,00%
40
40,00%
30
30,00%
20 20,00%
10 10,00%
0 0,00%
Coloração Sabor Volume Lacre Prazo de Canto Outros
estranha desagradável errado enferrujado validade da lata
apagado amassado
Descrição da Imagem: um gráfico com 7 barras verticais, que se inicia com a maior e vai até a menor, e com uma linha amarela cres-
cente, a qual parte de uma posição inferior da segunda barra até atingir o ponto mais alto, bem acima da última barra.
As três ferramentas citadas, além de outras, serão trabalhadas de maneira aprofundada no decorrer de
nossas próximas unidades. Guarde bem os seus nomes, pois elas serão de grande importância para a
disciplina e para a sua carreira! A partir de agora, falaremos da etapa “analisar”. Como já apontado,
pode ser que você encontre, em outras literaturas, o uso das ferramentas citadas na etapa de medições
atreladas à etapa de análise. Ainda assim, não precisa se preocupar, pois, contanto que você siga a ordem
das ações adequadamente, a etapa em que elas serão encaixadas não terá interferência nos resultados.
Agora que temos todos os dados organizados da forma como queremos, chega o momento de
entendermos o que de fato está acontecendo no nosso processo! Nossa intenção é a de correlacio-
nar causas e efeitos. Por “efeito”, podemos estar falando de resultados bons, resultados ruins, melhorias,
falhas, crescimentos, decréscimos, estagnações e qualquer outra situação que possa ter ocorrido com
nossos resultados.
Por “causas”, devemos entender que todo resultado (ou efeito) tem mais de um motivo, e as causas
são esses motivos. Se mencionarmos a cervejaria em que Caroline atua, podemos verificar, desde o
início, que o efeito “reclamações” acontece majoritariamente por causa da coloração estranha e do
sabor desagradável, e, se checarmos a Figura 3 apresentada anteriormente, veremos outras causas que
podem ter gerado esse efeito. Estendendo o exemplo para outras situações, podemos falar sobre o
efeito “acidentes de trânsito”, em que temos diversas potenciais causas, como falta de atenção, excesso
de velocidade, não manter distância segura em relação ao carro da frente, alcoolismo, defeito no carro,
entre outros. São raros os problemas que têm uma única origem.
28
UNIDADE 1
29
UNICESUMAR
Após o estabelecimento das notas, é determinado o NPR (número de prioridade de risco), o qual se
dá multiplicando os três valores. Quanto mais alto for o valor determinado para o NPR, maior deve
ser o foco dado àquela situação específica (MONTGOMERY, 2017).
O formato de um FMEA costuma seguir o que se mostra no Quadro 4, tendo como base o estudo
de caso apresentado no início de nossa unidade. Entretanto tenha em mente que a ferramenta pode ser
adaptada de empresa para empresa, não são raros os casos nos quais encontramos colunas adicionais,
por exemplo, uma que exponha possíveis soluções a serem tomadas. Use sua criatividade quando for
aplicar algo do tipo no seu local de trabalho - afinal, quanto mais informações conseguirmos colocar
em um único quadro, melhor!
Gosto Clientes
Entrada
ruim do desgosto-
de oxi- 3 10 9 270
produto sos com o
gênio
final produto
Leve- Clientes
Turbidez
dura no preocupa-
7 do produ- 8 8 448
produto dos com a
Fabricação to final
final aparência
de cerveja
Redução
de volume Reclama-
Latas do produ- ções de
5 6 5 150
furadas to ainda clientes
dentro da lesados
lata
Um aspecto relevante para o FMEA é o de que, geralmente, deve-se optar por trabalhar com ele para
prevenção, e não para solução (RODRIGUES, 2016). Entretanto, em casos pontuais, nos quais a si-
tuação não havia sido prevista, ou, ainda, quando se deve criar uma espécie de classificação para as
causas que geraram o problema, é válido o seu uso em situações nas quais a intenção é consertar algo
que já tenha ocorrido.
É importante observar que, apesar de podermos trabalhar com mais de uma causa por vez, nunca de-
vemos analisar mais de um efeito em cada situação. Discutir mais de um problema simultaneamente pode
gerar desentendimentos e desinformação entre os participantes da reunião, o que só deixará tudo pior. Um
problema tem várias soluções, mas nem sempre uma única solução servirá para mais de um problema.
Assim como em todas as etapas do DMAIC, é importante que a análise seja realizada por mais de
um indivíduo. Quando consideramos uma empresa comum, pensamos que os diretores e os gestores
possuem todas as informações, mas isso é um grave engano. Muito do conhecimento, em especial o
prático, é pertencente aos operadores do chão de fábrica, e eles têm informações e pontos de vista dife-
30
UNIDADE 1
rentes daqueles que atuam em cargos considerados mais altos. Ao menos um funcionário de cada nível
hierárquico deve estar presente na hora de discutir as análises.
A partir do momento em que se chega a uma definição sobre aquilo que deve receber a atenção da
empresa, é iniciada a próxima fase do DMAIC, que se trata da implementação da melhoria. No inglês,
a quarta etapa é conhecida como “improve”, que significa “melhorar”. O nome em português,
apesar de ter um efeito próximo, não expõe a natureza completa dessa fase, pois, antes de implementar,
é preciso definir qual será a melhoria.
Isso pode ser feito imediatamente após ocorrerem as discussões da etapa de análise. Vale citar que,
apesar de sempre ser necessário que as melhorias foquem na principal causa determinada, também
podem ser pensadas e pesquisadas melhorias para resolver os demais problemas.
Em nosso estudo de caso apresentado, no início da unidade, focamos no fato de que Caroline deveria
priorizar a troca do filtro utilizado no processo. Entretanto, caso essa não fosse a única causa do efeito
analisado (coloração inadequada), ela poderia ter buscado mais uma solução para outra potencial causa.
Ao final da etapa anterior, discutimos sobre o quão importante é contar com o ponto de vista de
profissionais de todos os níveis hierárquicos na análise. Pois bem, na hora de pensar em uma solução
isso se torna não apenas importante, mas obrigatório! Você pode até conseguir pensar em uma melho-
ria por conta própria, mas é impossível implementá-la sem que haja aprovação prévia dos principais
envolvidos — é uma questão burocrática e até mesmo ética. Todo o procedimento DMAIC deve ser
realizado em conjunto, mas, especificamente, na etapa de implementações e melhorias, ele é mais im-
portante do que nunca.
Sendo assim, é relevante conversar com todos os envolvidos, quando se pensa em uma potencial
melhoria para o processo. Essa discussão se trata do chamado brainstorming, que, em português, foi
traduzido como “tempestade de ideias”. Como o próprio nome já sugere, trata-se da geração coletiva de
novas ideias. Falando sobre a metodologia de um brainstorming, podemos realizá-lo de duas formas: a
estruturada, em que todos expõem as suas ideias em turnos, como se fosse realizada uma grande roda
de conversas, na qual cada um espera seu momento de falar, e a não-estruturada, em que cada um fala
na hora que a ideia surgir, o que torna o processo mais dinâmico e descontraído. Isso, no entanto, deixa
as pessoas mais inibidas com menos oportunidades de fala.
Caso você, estudante, deseje realizar um brainstorming, sugiro que reflita bem sobre as pessoas
envolvidas. As duas maneiras apresentadas são ótimas, mas o rendimento dependerá do grupo com o
qual você está trabalhando. Caso você sinta que o grupo inteiro sente liberdade de falar, então o formato
não-estruturado pode render mais frutos. Caso seja um grupo de desconhecidos, relativamente mais
tímido, usar o brainstorming estruturado pode ser mais efetivo. A presença de um mediador durante o
processo é facultativa, sendo mais recomendada no formato estruturado, visto que a função do indivíduo
é a de fazer todos exporem seus pontos.
A literatura recomenda que o grupo para o brainstorming seja de, no máximo, 15 pessoas, o que, para
um processo estruturado, realmente é algo viável. Porém, por experiência própria, sugiro que evite ultra-
passar a quantidade de oito pessoas em uma discussão — principalmente em uma não-estruturada —,
pois o excesso de pessoas pode desorganizar o processo e gerar um efeito contrário ao que gostaríamos.
31
UNICESUMAR
Em qualquer hipótese, jamais durante o brainstorming teça ou permita que sejam feitas críticas a uma
ideia exposta. O momento é de dar ideias, não de criticá-las, visto que isso é algo que pode desmotivar
o indivíduo que deu a sugestão e, tão ruim quanto, quebrar o fluxo de funcionamento da atividade
(LOBO, 2020). Após todas as ideias serem listadas, será o momento de selecionar as melhores, essa é
a hora de opinar sobre tudo que foi exposto.
Após o processo de discussão e a melhor solução — ou as melhores — ter sido escolhida, chega o
momento de realizar a sua implementação. Entretanto, antes de fazê-lo, é necessário organizar todos
os aspectos. Quem irá aplicar? Quando será aplicado? Como será aplicado? Para isso, há uma outra
ferramenta da Qualidade muito popular e que merece nossa atenção nesse momento: o diagrama
5W2H. O diagrama nada mais é do que um quadro que indica as informações necessárias sobre a
ação, ou as ações, a ser realizada.
5W2H é a sigla para indicar as 7 perguntas a serem respondidas no diagrama. Estas são “what?” (o
que?), “who?” (quem?), “where?” (onde?), “when?” (quando?), “why?” (por que?), “how?” (como?) e “how
much?” (quanto custa?). Como são 7 itens a serem respondidos, pode ser feito um diagrama com 7 co-
lunas, uma com cada resposta. É sempre recomendável que a primeira coluna seja referente ao “what?”
e que a segunda seja relacionada ao “who?”, pois isso deixará claro logo de início o que será feito e por
quem será feito. A ordem das demais colunas não tem tanta interferência na interpretação do diagrama.
Essas informações devem ficar claras a todos aqueles que tenham algum envolvimento com o pro-
cedimento a ser realizado. Formas bem simples de fazer com que isso chegue a todos são por meio de
um e-mail corporativo ou uma folha impressa posicionada em um local de fácil acesso e visibilidade
a todos. Tomando como exemplo a ação realizada por Caroline no estudo de caso inicial, teríamos o
diagrama 5W2H exposto no Quadro 5.
How much?
What? Who? Where? When? Why? How?
(Quanto
(O que?) (Quem?) (Onde?) (Quando?) (Por quê?) (Como?)
custa?)
Desmontar
Corrigir pro- o encana- R$ 150,00
Troca do Operador Setor de 13 de janei-
blemas de mento e (preço do
filtro José maturação ro
turbidez colocar o novo filtro)
novo filtro
Quadro 5 - Diagrama 5W2H para correção do problema de turbidez da cerveja / Fonte: o autor.
32
UNIDADE 1
Que tal termos uma discussão mais aplicada à prática sobre o 5W2H?
Apesar de ser uma ferramenta voltada à gestão, também é algo que
pode ser aplicado à nossa vida pessoal, de uma maneira mais sim-
ples do que parece! No vídeo a seguir, comento a respeito da aplica-
ção da ferramenta no dia a dia e o quanto ela ajudará a organizar o
seu cotidiano e o de sua família.
Podemos dizer que tudo que discutimos até o momento tem como foco duas palavras: melho-
ria contínua. A aplicação do DMAIC, seja por meio do Seis Sigma, seja do Lean Manufacturing,
seja até mesmo de ambos, é vital para que possamos fazer o melhor com aquilo que temos
em nossa empresa. Apesar do forte vínculo do conteúdo abordado com a Qualidade, o que
foi falado aqui pode ser aplicado em qualquer setor da empresa, por qualquer nível da escala
hierárquica. De fato, muito é exigido para que as soluções aplicadas, usando o DMAIC, sejam
eficientes, e é necessária a colaboração de todos para que o efeito desejado seja atingido.
Entretanto o início da aplicação, ou, então, o surgimento das ideias, começará com um único
indivíduo, e este pode ser você. Sempre tenha em mente que, por melhor que algo esteja, sem-
pre será possível melhorar, basta um pouco de criatividade para encontrar o que pode ser feito.
33
UNICESUMAR
Ainda, sobre o controle dos dados, em nada adiantaria implementarmos uma solução perfeita e, de-
pois de algumas semanas, os colaboradores pararem de agir conforme a nova proposta. Seria a mesma
coisa que realizar uma dieta, perder 20 kg e, em seguida, voltar a comer da mesma forma de antes. A
mudança de hábitos é algo necessário para que o novo processo funcione adequadamente, e ela deve
ser espalhada e implementada na cultura da empresa, de forma a ser mantida.
A melhor forma de fazer isso é com treinamentos aos indivíduos que precisam se adequar à mu-
dança, treinamentos os quais devem ser registrados e documentados. Além disso, o controle dos dados
deve ser constante e receber atenção especial no período inicial, pois é a forma com a qual saberemos
o quão efetivas foram nossas ações (MONTGOMERY, 2017). O desenvolvimento de manuais com as
novas instruções de trabalho é, também, uma ótima forma de impedir que as falhas voltem a ocorrer.
Informações por escrito sempre são a forma mais confiável de garantir que tudo está registrado em
algum lugar e que, portanto, devem ser seguidas obrigatoriamente.
Nesse momento, devemos responder se nossos resultados esperados foram, de fato, atingidos. Caso
a resposta seja negativa, será necessária a aplicação de um novo DMAIC, com novas informações.
Conforme dito no início da nossa unidade, nem mesmo as empresas que aplicam o Seis Sigma (e, con-
sequentemente, o DMAIC) atingiram os resultados perfeitos até hoje, e elas estão tentando há décadas.
Quando houver melhora nos resultados por conta da aplicação do DMAIC, você deve se contentar,
mas nunca se mostrar completamente satisfeito! A intenção é justamente a melhoria contínua. Pode
ser que os resultados perfeitos, abordados pelo Seis Sigma, nunca sejam alcançados, mas isso nunca
impediu alguém de tentar!
O que vimos, nesta unidade, tem sua função e aplicação no cotidiano do profissional muito objetiva.
A intenção do DMAIC é apresentar um caminho seguro para a resolução de problemas. Reforçamos,
no entanto, que as ferramentas e métodos usados variam de um caso para outro! Cabe a você, como
profissional, conhecer as ferramentas adequadas e selecioná-las no momento da prática. Nossas pró-
ximas unidades, inclusive, terão foco em várias delas e o(a) ajudarão a compreender quais situações
exigem o uso de cada uma.
O Seis Sigma e o Lean Manufacturing podem ser, diretamente, relacionados com o DMAIC, ób-
vio, mas podemos preferir ver os dois como formas de pensar e organizar as nossas ideias. O Lean
Manufacturing nos ajudará a pensar em como reduzir nosso trabalho e nossos gastos a um mínimo
possível, mas manter a qualidade daquilo que é produzido intacta, ou, até mesmo, melhorando-a. Já o
Seis Sigma terá um foco mais voltado à Estatística, o que nos ajudará a manter o controle, tendo como
base a variação de nossos dados.
Desse modo, podemos aplicar ambos ao mesmo tempo, a tendência é que um ajude o outro, na ver-
dade, visto que a redução de desperdícios é benéfica para os resultados obtidos no Seis Sigma, enquanto
a estatística é uma boa forma de mensurar o quanto o Lean Manufacturing é efetivo. As ferramentas
do DMAIC, apesar de serem o ponto central, não são as únicas que podem ser adotadas, visto que o
uso de softwares estatísticos é sempre recomendável e pode auxiliar na obtenção de dados de forma
rápida. Você pode, inclusive, escolher o software com o qual acredita ter maior afinidade, cada pessoa
se adapta a um programa diferente, e há dezenas de opções no mercado para cada função desejada.
34
UNIDADE 1
E aí, caro(a) estudante, você lembra da atividade que propus no início dessa unidade? Vamos relem-
brá-la? Afinal, é possível resolver qualquer problema, usar o mesmo raciocínio de Caroline, em nosso
estudo de caso, e as mesmas ferramentas? A resposta é: não, não é possível! O DMAIC pode, sim, ser
usado em qualquer situação, mas as ferramentas podem variar! O raciocínio dela foi coerente com o
problema apresentado, mas outros casos exigirão outros pensamentos, com caminhos, ferramentas e
análises diferentes. A função do DMAIC será a de nos ajudar a organizar esses pensamentos, o restante
vai depender do nosso conhecimento!
35
Pois bem, agora é com você! Que tal preenchermos o mapa mental com base no que vimos durante
nossa unidade? O objetivo, aqui, é que você preencha as principais características dos programas
Seis Sigma e Lean Manufacturing, além das etapas do DMAIC. Como sugestão, você pode colocar
não apenas as características, mas também as ferramentas que podem ser usadas em cada uma
das etapas. Recomendo, também, que você realize os exercícios propostos ao final da unidade,
pois eles colaborarão com a fixação de tudo que discutimos!
Etapa
definir
Etapa
Características
medir
do Seis Sigma
DMAIC
Etapa
analisar
Características do
Etapa
Lean Manufacturing
implementar/melhorar
Etapa
controlar
Descrição da Imagem: um quadro em o escrito “DMAIC”, no centro, se interliga a diversos outros. À direita, há a divisão em 5
quadros menores, com os escritos “etapa definir”, “etapa medir”, “etapa analisar”, “etapa implementar/melhorar” e “etapa contro-
lar”. À esquerda, há mais dois quadros, com os escritos “características do seis sigma” e “características do lean manufacturing”.
36
1. Análise de Modos de Falhas e Efeito (Failure Mode and Effect Analysis – FMEA) é um mé-
todo estruturado e formalmente documentado; ele permite prevenir falhas e analisar
os riscos e a criticidade de um processo ou de seus eventos, por meio da identificação
de causas, efeitos e da consequente utilização de mecanismos ou ações para inibir as
falhas potenciais (RODRIGUES, 2016). O método FMEA leva em consideração notas de
1 a 10 para os aspectos referentes à chance do problema ocorrer, à probabilidade dele
ser detectado e ao impacto causado por ele. Considere uma situação na qual temos três
causas para um único problema cujos parâmetros estão expostos no quadro, a seguir.
Efeito
Chance de Chance de Impacto Força do
Ação Falha da
ocorrência detecção da falha impacto
falha
Impacto
Causa A 5 Efeito A 7 2
A
Impacto
Produção Causa B 8 Efeito B 4 6
B
Impacto
Causa C 5 Efeito C 5 8
C
Fonte: o autor.
Analise os dados e indique qual das causas deve ter sua solução priorizada. Justifique
a resposta, expondo o motivo da sua escolha.
37
É correto o que se afirma em:
a) I e II, apenas.
b) II e IV, apenas.
c) III e IV, apenas.
d) II, III e IV, apenas.
e) I, II, III e IV.
4. O Seis Sigma e o Lean Manufacturing são duas filosofias usadas em empresas, pensando
em fatores, como a melhoria contínua. Entretanto, apesar de suas semelhanças e de
ambas poderem atuar em conjunto, há características que são muito mais presentes
em um dos programas do que no outro.
A seguir, são apresentadas 4 características:
I) Redução de desperdícios.
II) Controle estatístico dos dados.
III) Redução na variabilidade entre itens iguais.
IV) Aumento da velocidade de produção.
Considere L para Lean Manufacturing e S para Seis Sigma. Assinale a alternativa que
apresenta com qual programa as afirmativas I, II, III e IV, respectivamente, podem ser
vinculadas com maior clareza.
a) S, L, L, S.
b) L, S, S, S.
c) S, L, S, L.
d) L, S, L, S.
e) L, S, S, L.
38
5. O DMAIC pode ser considerado como um caminho básico para a resolução de problemas
em geral. Todas as ações devem ser executadas na ordem proposta, pois ela segue um
raciocínio que ajudará a encontrar a solução para todo tipo de situação.
A respeito da ordem das ações, a seguir, são indicadas 5 ações para a resolução de um
problema específico.
I) Interpretar as informações que foram obtidas.
II) Acompanhar de perto os resultados obtidos ao final.
III) Coletar os dados.
IV) Entender qual é o problema a ser corrigido.
V) Discutir soluções viáveis para a situação.
Assinale a alternativa que indica corretamente a ordem com que as ações devem ser
realizadas, segundo o DMAIC.
a) IV, III, I, V, II.
b) IV, I, V, III, II.
c) III, I, IV, V, II.
d) IV, V, III, II, I.
e) IV, III, V, I, II.
39
40
2
Ferramentas de
Controle - Parte I
Me. Paulo Otávio Fioroto
Existe uma ferramenta da qualidade que seja superior às demais? Você deve conhecer diversas ferra-
mentas da qualidade, seja por experiência profissional, seja por meio de outras disciplinas, seja, ainda,
por pura curiosidade. Ter que usar gráficos, diagramas, tabelas e quadros em relatórios empresariais e
em análises no cotidiano são parte comum do dia a dia de um bom gestor. Mas, tão importante quanto
saber interpretá-los, é saber montá-los!
É natural que alguns profissionais tenham preferência por uma ferramenta ou um software específi-
co — este que vos fala não é exceção, inclusive, sinto maior afinidade por alguns programas específicos,
quando se trata da análise de dados. Entretanto não é por preferirmos uma ferramenta que deixaremos
de conhecer as outras, concorda? Por isso mesmo, tanto a nossa unidade atual quanto a próxima tratarão,
especificamente, das principais ferramentas da qualidade.
Segundo a maior parte da literatura, temos sete ferramentas da qualidade. Porém, apesar de algumas
das ferramentas serem presença absoluta em todas as listas, outras não são unanimidade entre todos
os autores, por isso, é muito comum que encontremos um ou dois itens diferenciados em cada lista, na
verdade. O brainstorming, por exemplo, o qual foi um dos assuntos tratados em nossa unidade anterior,
é uma das presenças esporádicas nas listas, isto é, nem sempre é considerado no grupo das ferramentas.
Por outro lado, apresentamos o diagrama de Pareto, o histograma e o gráfico de controle, que são
incontestáveis na listagem. Enquanto os dois primeiros itens serão abordados entre esta e a próxima
unidade, o terceiro, por ser a ferramenta mais aplicável e mais versátil dentre todas, terá lugar de destaque
em outro momento do material. Sendo assim, por enquanto, deixaremos os gráficos de controle de lado.
Apesar de termos formalmente sete ferramentas, se unirmos todas as listas, esse número certamente
irá aumentar. Aqui, iremos nos manter fiéis a essa quantidade, e não consideraremos o brainstorming
dentro da seleção. Para conhecer as ferramentas, que tal apresentarmos o uso delas na prática e abor-
darmos um novo estudo de caso?
Trataremos, agora, de Maycon, um profissional certificado em Seis Sigma e Lean Manufacturing que
atua em uma empresa de consultoria, localizada em uma pequena cidade do interior paulista. A região
conta com poucos concorrentes e, por conta disso, a companhia é altamente requisitada, sendo contra-
tada, principalmente, por dois grupos específicos de empresários: os iniciantes, com pouca ou nenhuma
experiência no mercado, e os mais idosos, aqueles que gerenciam sua própria empresa há algumas dé-
cadas, mas que começaram a sentir os efeitos da concorrência e não sabem como se manter atualizados.
Maycon foi enviado para auxiliar uma companhia que estava iniciando a produção de pastas de den-
te. Apesar de serem novos no ramo, a companhia já trabalhava com outros produtos da área de saúde
bucal anteriormente, como fios dentais e produção de materiais para protetores bucais. O proprietário
da empresa, Marcelo, é um senhor que atua no mercado há vários anos e que, apesar de bem-sucedido
e com um bom olhar para investimentos, nunca realizou qualquer curso voltado à gestão, o que deixou
a empresa estagnada por algum tempo. Entretanto, por estar cada vez mais próximo da aposentadoria
e por querer deixar a empresa nas mãos de seus filhos, os quais ainda estão no Ensino Médio, decidiu
começar a expandir a marca, de forma a torná-la rentável para quando seus herdeiros assumirem o
comando, definitivamente.
42
UNIDADE 2
Voltando a tratar de Maycon, por ele ser um profissional com experiência, já sabe que deve seguir
os passos do DMAIC para conseguir auxiliar a empresa em questão. Os funcionários da companhia,
porém, em especial aqueles que atuam na linha de produção das pastas de dente, apesar de muito
empenhados e empolgados com a oportunidade, são majoritariamente iniciantes e com pouco tem-
po de vivência em outros empregos. Por conta disso, não fazem ideia do que se trata a sigla DMAIC,
tampouco conhecem as ferramentas envolvidas. Vários nem sequer conhecem os conceitos voltados
à qualidade, na verdade. Sendo assim, mesmo com todos os colaboradores se mostrando dispostos
a colaborar e compartilhar informações, Maycon cogitou, em um primeiro momento, que precisaria
agir praticamente sozinho. Entretanto, após pensar um pouco mais sobre o assunto, concluiu que faria
melhor: não apenas realizaria seu trabalho, como ajudaria os funcionários a aprenderem as ferramentas
e os faria executar o raciocínio necessário, atuando como uma espécie de mentor.
Após conversar com alguns dos indivíduos da fábrica, entre operadores, supervisores e gerentes, o
consultor percebeu que havia mais de um problema a ser tratado. Notou-se que o gosto do produto é
irregular para um mesmo sabor (algumas unidades aparentam fornecer um frescor maior a quem a
usa), algumas embalagens, mesmo sem furos, têm uma quantidade de pasta menor do que a desejada
e, por último, mas não menos importante, a consistência da pasta costuma variar entre um lote e outro.
Sabemos que não se pode analisar mais de um problema por vez, mas isso não impede que eles sejam
resolvidos simultaneamente, com uma equipe focada em cada situação específica. Maycon decidiu tratar
de todos os problemas de uma só vez, dividindo os funcionários da empresa em equipes, cada uma
voltada a uma das situações, e concentrando o gerenciamento dos projetos de melhoria nele mesmo.
Vendo as situações apresentadas e sabendo que temos os nossos problemas definidos, qual seria a
melhor ferramenta para realizar a medição e a análise dos dados referentes aos problemas?
43
UNICESUMAR
Pois bem, cada um dos problemas poderá ter seus dados medidos de uma maneira diferenciada. En-
quanto alguns dos atributos analisados — como a quantidade de pasta dentro de cada tubo — podem
ser determinados, utilizando-se de uma balança de precisão, outros dados, como a consistência e o
frescor, deverão ser analisados tendo como base a opinião de pessoas que, preferencialmente, não
estejam diretamente envolvidas com o processo. Isso é algo natural, pois são dados de naturezas dife-
renciadas. Desse modo, enquanto a quantidade de pasta é um parâmetro absoluto, os outros dados são
uma questão de opinião.
Tenha em mente, porém, que o fato dos dados terem naturezas diferentes não nos impede de orga-
nizá-los de maneira similar! Para tanto, podemos usar uma das ferramentas da qualidade mais simples
e, justamente pela facilidade de aplicação, a mais popular: a folha de controle.
A grosso modo, uma folha de verificação é apenas uma folha utilizada para coleta de dados; seu
preenchimento e sua importância, entretanto, são muito maiores do que essa descrição faz parecer,
pois o registro dos dados é melhor organizado do que se fosse usada uma folha qualquer. Além disso,
é sempre importante termos um lugar para anotar aquilo que coletamos, concorda?
Feita a coleta de dados, Maycon decidiu focar nos dados relacionados à quantidade de pasta que
havia dentro de cada um dos tubos, visto que, apesar de todos os problemas serem relevantes, esse é
aquele que mais poderia trazer problemas à empresa. Analisando os dados, Maycon notou que mui-
tas unidades continham uma quantidade de pasta 25 gramas menor do que indicado na embalagem,
variando para mais ou para menos. Considerando que o tubo deveria conter 250 gramas, concluiu-se
que era um desvio de 10% em relação ao valor nominal da embalagem, isto é, o valor que é indicado
no momento da venda ao cliente.
Após tomar nota desse problema, Maycon pediu para um dos supervisores do chão de fábrica mos-
trar todo o processo produtivo, pois não tinha conhecimento do funcionamento da linha de produção
de cremes dentais. Após uma explicação completa sobre todo o procedimento, ele notou uma situação
que considerou inesperada: o fato de que os processos, apesar de mecanizados, ainda dependiam muito
de ajustes e de operadores manuais. Ao conversar com o dono, decidiu chamar alguns dos indivíduos
envolvidos no processo, entre vários níveis hierárquicos, para listar possíveis problemas que possam
causar a falta de creme dental no interior dos tubos.
Para tanto, foi realizado um brainstorming, no qual Maycon atuou como mediador e permitiu que
todos expusessem seus pontos de vista e sugerissem eventuais causas que pudessem resultar no efeito
“tubos com pouco creme dental”. Com base nas informações que foram passadas, o consultor apre-
sentou as anotações feitas, durante a roda de conversa, em um formato diferenciado — um diagrama
desenhado em forma de espinha de peixe, conhecido formalmente como diagrama de Ishikawa ou
diagrama de causa e efeito.
Esse diagrama não apenas ajuda a entender quais são as possíveis causas que geram um determinado
efeito, como também pode auxiliar na divisão delas em causas secundárias, isto é, causas que geram as
causas, proporcionando um entendimento mais aprofundado da causa raiz. Além disso, nele, ocorre
a classificação das causas por categorias, pois, enquanto algumas das causas podem ser classificadas
como problemas referentes à matéria-prima, outras são ocorrências devido a falhas mecânicas, ou
então à mão de obra.
44
UNIDADE 2
O diagrama de Ishikawa, porém, apresenta uma limitação: o fato de não trabalhar com dados
numéricos. Sua função é voltada à organização de informações, trabalhando como uma listagem, em
um formato mais elaborado e analítico. Quando falamos de processos, são raros os casos nos quais
não temos que trabalhar com quantidades absolutas ou relativas, então, apesar da sua utilidade como
ferramenta organizacional, sempre devemos ter alguma ferramenta atrelada ao diagrama. Mas, con-
siderando a gama de ferramentas que a qualidade nos oferece, obviamente teremos ao menos uma
possibilidade de uso. E Maycon, com sua experiência, já tinha a ferramenta em mente, antes mesmo
do início da montagem do diagrama de Ishikawa. Chegou, então, a hora de posicionar todos os dados
em um diagrama que conhecemos na unidade anterior: o diagrama de Pareto.
Se o diagrama de Ishikawa organizou eventuais causas, o diagrama de Pareto foi usado para elen-
cá-las em nível de impacto, quase como um rankeamento. Dentre todas as possíveis causas citadas,
aquelas que se mostraram mais coerentes foram analisadas. Primeiramente, uma hipótese levantada
foi o fato de haver pequenos furos nos tubos, o que poderia ocasionar o vazamento do produto, essa foi
chamada de hipótese A. Também, foi cogitado que equipamentos desregulados injetavam uma quan-
tidade menor de pasta do que o desejado, isso foi classificado como hipótese B. Uma terceira possível
causa foi o fato dos processos, que necessitavam de atuação manual dos operadores, ocorriam sem um
treinamento específico e, consequentemente, o processo assíncrono irregular, tornando os produtos
diferentes entre si, o que foi chamado de hipótese C. Por último, uma causa levantada é a de que o creme
dental produzido era insuficiente, o que forçava os equipamentos a injetarem uma quantidade menor
em cada tubo. Seguindo a lógica, essa possibilidade foi chamada de hipótese D. Também, cogitaram-se
outras hipóteses, estas foram vistas como de menor relevância e, portanto, uma menor chance de ser a
causa principal do problema. Desse modo, elas foram encaixadas uma categoria, com o nome “Outros”.
Após serem definidas as possíveis causas que podem resultar no problema analisado, foram coletados
dados referentes a esses processos; no caso, houve novas coletas, dessa vez, focadas especificamente em
verificar a quantidade de falhas encontradas em cada uma das hipóteses. Em seguida, os dados foram
organizados em forma decrescente no diagrama de Pareto, como sempre deve ser realizado. Unindo
todas as observações, somaram-se 350 erros em pouco mais de 1000 observações realizadas. Dentre
as 350 falhas, 129 ocorreram por conta da hipótese B (equipamentos desregulados), o que correspon-
de a 36,86% do total de falhas. Em seguida, a hipótese A (furos nos tubos) se mostrou real, e foram
encontrados 92 casos em que essa foi a falha, indicando 26,29% das ocorrências em termos relativos.
A hipótese D (pouco produto para ser injetado) correspondeu a 69 ocasiões, referentes a 19,71% dos
erros, e a hipótese C (atividade manual irregular) apareceu em 42 situações, atingindo exatos 12% das
ocasiões. O grupo “Outros”, que corresponde a outras possíveis causas, teve uma parcela de 5,14% das
falhas, equivalente a 18 casos.
Com base nessa análise, é possível notar que os equipamentos desregulados são, com alguma sobra,
a principal causa do problema, seguidos pelos tubos com furos. A intenção do diagrama de Pareto é,
justamente, indicar qual ou quais são as causas principais a serem tratadas. Se Maycon ajudar a empresa
a resolver os problemas referentes às hipóteses A e B, 63,15% das causas cessarão, o que significa que
o problema, apesar de continuar existindo, se tornará muito menos frequente.
45
UNICESUMAR
O que vimos no estudo de caso, até o momento, foi a aplicação das três primeiras etapas do DMAIC.
O diagrama de Pareto, junto ao diagrama de Ishikawa previamente desenvolvido, foi usado justamente
como forma de analisar onde se encontrava a causa raiz para o efeito. As etapas seguintes, com imple-
mentação da melhoria e controle, são feitas de forma voltada especificamente às causas encontradas,
portanto, não serão relevantes para nosso estudo nesse momento. O que nos interessa, a partir de agora,
são as três ferramentas abordadas: a folha de verificação, o diagrama de Ishikawa e o diagrama de Pareto.
As ferramentas que abordamos, nesta unidade, nesse momento, são consideradas essenciais em
qualquer empresa, principalmente quando tratamos da indústria. Elas podem ser abordadas em diversas
situações, até mesmo no seu cotidiano. Entretanto, apesar da grande aplicabilidade das ferramentas, é
muito importante que saibamos qual é o caso ideal para aplicação de cada uma delas. Sendo assim, em
quais situações devemos aplicar a folha de verificação, o diagrama de Ishikawa e o diagrama de Pareto?
Toda ferramenta tem seus devidos momentos e situações para aplicação. Não se pode simplesmente
usar um diagrama de Pareto sem que se conheça, pelo menos, três ou quatro potenciais causas para
um determinado problema. Da mesma forma, não há motivo para usá-lo, se a causa for apenas uma,
por exemplo, se você estiver dirigindo um carro e ele parar repentinamente, você determinará qual é
a causa-raiz da parada. Caso seja verificado que se trata da falta de combustível, não há motivo para
você se preocupar em trocar os pneus ou consertar o motor. Por mais útil que o diagrama seja, seu uso
nem sempre é necessário ou relevante, e cabe ao responsável definir qual é a forma ideal de lidar com
a situação. Você acredita que o caminho definido por Maycon para analisar o problema exposto foi o
correto? Poderia ser usada alguma outra ferramenta como substituinte, ou, então, atrelada àquilo que
foi realizado no estudo de caso?
DIÁRIO DE BORDO
46
UNIDADE 2
Para respondermos a esse questionamento, precisamos conhecer cada uma das ferramentas que foram
abordadas e sua finalidade. Vamos lá? Nossa primeira discussão será a ferramenta considerada mais
simples cuja importância, porém, é vital para qualquer processo: a folha de verificação. No estudo
de caso, sua descrição foi um pouco enxuta, mas, apesar da sua simplicidade, ela conta com detalhes
essenciais e instruções de preenchimento que devem ser seguidas à risca.
A primeira informação que deve constar na folha de verificação é o processo ou objeto analisado.
Isso pode constar logo acima do cabeçalho a ser preenchido com os demais dados necessários. A seguir,
devem vir outras informações, como: o nome de quem realizou o preenchimento, a data, o horário e,
dependendo da situação, o tipo de peça mensurado (MONTGOMERY, 2017).
O nome de quem realizou o preenchimento é importante para que, caso seja necessário tirar alguma
dúvida sobre o que estiver descrito, seja possível identificar exatamente quem foi o responsável. Data
e horário são igualmente significativos, pois nos permitirão dizer com exatidão em qual lote foram
percebidos os dados coletados, isso facilitará muito o trabalho, caso ocorra algum problema, pois já
se saberá onde procurar a causa-raiz.
Além disso, é de grande importância que a folha seja sempre preenchida pela mesma pessoa. Caso
a empresa trabalhe em turnos, então, deve haver um indivíduo responsável em cada turno. Isso ocorre
pela necessidade de padronização nas medições e preenchimentos. É natural que pessoas diferentes,
mesmo recebendo o mesmo treinamento, executem tarefas de maneiras diferenciadas. Folhas de
verificação não têm espaço para esse tipo de liberdade, pois todos os dados devem ser mensurados
e anotados de maneira idêntica, um dado anotado, erroneamente, pode gerar diversos problemas. É,
sempre, interessante que o responsável pelo preenchimento passe por um treinamento prévio, por mais
que a execução pareça simples. Em tempo, o indivíduo deve ter plena noção da importância da coleta
de dados e do preenchimento adequado, pois ele deve entender o peso da responsabilidade.
Os dados citados são exigidos para qualquer modelo de folha de verificação. Entretanto o preen-
chimento pode variar, visto que cada empresa e cada processo utilizam informações diferenciadas. Há
várias categorias para as folhas de verificação e, dentre elas, as mais comuns são (WERKEMA, 2014):
47
UNICESUMAR
A folha para distribuição de dados de controle é preenchida, levando em conta o desvio dos resultados
em relação ao que se espera obter. Ela possui diversas linhas compostas por pequenos quadrados, e
um X é marcado em cada quadrado, quando se encontra um item que corresponde àquele desvio.
Um exemplo dessa folha é apresentado na Figura 1, que é similar ao modelo aplicado por Maycon,
em nosso estudo de caso.
Marcas
Desvio 5 10 15 20 Frequência
-10
-9 x 1
-8 x 1
-7 x x x 3
LIE -6 x x x x 4
x x x x x
Quantidade de pasta no tubo (g)
-5 5
-4 x x x x x 5
-3 x x x x x x 6
-2 x x x x x x x 7
-1 x x x x x x x x x x x x x 13
180 0 x x x x x x x x x x x x x x x x 16
1 x x x x x x x x x 9
2 x x x x x x x x 8
3 x x x x x x 6
4 x x x x x x 6
5 x x x x 4
LSE 6 x x x 3
7 x x 2
8 x 1
9
10
TOTAL 100
Figura 1 - Modelo de folha de distribuição de dados de controle / Fonte: o autor.
Descrição da Imagem: uma tabela dividida em várias colunas e linhas, formando vários pequenos quadrados na parte central. As
linhas indicam o quanto o valor pesado para cada embalagem se desvia dos 180 gramas desejados. As colunas indicam a quantidade
de amostras em que houve desvios. Para cada amostra que tiver sido contabilizada, é marcado um X em um quadrado.
Na Figura 1, nota-se que o valor 180, no lado esquerdo, está ao lado do desvio igual a 0. Isso significa
que o valor nominal indicado (isso é, a quantidade de pasta indicada na embalagem) é de 180 g, e que
várias unidades observadas tiveram exatamente essa quantidade de creme dental. A quantidade pode
ser observada pela quantidade de X marcados em cada linha, no caso da linha com desvio 0, temos 16
unidades, conforme registrado na última coluna da Figura 1.
Importante observar que temos também as indicações “LIE” e “LSE”. Ambas as siglas se referem,
respectivamente, ao limite inferior de especificação e ao limite superior de especificação. Estes são os
limites determinados pela própria empresa para variações nos produtos que possam ser consideradas
aceitáveis. No caso apresentado na Figura 1, a variação aceita é de 6 gramas para mais ou para menos,
em outras palavras, qualquer embalagem que contenha menos que 174 g ou mais que 186 g estará
totalmente fora do que a empresa aceita.
Os limites de especificação não são determinados com base matemática, são apenas valores deter-
minados pelos gestores responsáveis para o processo. Há, também, os chamados limites de controle,
os quais são diferentes dos limites de especificação e são determinados estatisticamente. Discutiremos
isso a fundo, em unidades posteriores.
48
UNIDADE 2
No canto inferior direito, está descrita a quantidade total de itens analisados. Essa infor-
mação é relevante para que, com apenas uma consulta breve, seja possível conhecer o
percentual de itens que se encontra dentro dos padrões. No caso desse modelo de ficha, o
preenchimento é a parte mais simples, visto que basta preencher cada quadrado com um
X, quando encontrar uma amostra com aquela massa ou qualquer que seja o parâmetro
em análise. As complicações geralmente se encontram no procedimento de medição, visto
que ele deve ocorrer de forma idêntica para todas as aferições. Enquanto quem executa
deve sempre cuidar para que suas ações sejam iguais, essa pessoa também precisa estar
atenta à calibração do instrumento de medição. Uma falha no equipamento pode fazer
com que todos os dados coletados se tornem inúteis.
Uma vantagem desse modelo de folha de verificação se dá pela montagem automática
de um histograma. Se considerarmos os espaços preenchidos em cada linha, teremos
um gráfico de barras montado na horizontal, bastando colocá-las na vertical para que
tenhamos o histograma pronto. Caso o histograma tenha um formato similar ao de
uma distribuição normal, conforme visto na nossa unidade anterior, haverá uma maior
probabilidade do processo estar funcionando adequadamente. O segundo formato de
folha de verificação que abordaremos é a folha de classificação. Visualmente, a estrutura
dessa folha é mais simples do que o nosso primeiro exemplo, mas sua importância não
pode ser avaliada, apenas, por esse fator.
Essa folha é usada para subdividir características de interesse em categorias mais
aprofundadas. Por exemplo, pode ser criada uma folha em que sejam registradas as
quantidades de produtos defeituosos, o que é plenamente viável. Entretanto, você con-
corda que é relevante saber qual é o defeito encontrado? Pois bem, aí está a função da
folha de verificação para classificação, ela estratificará a característica de maneira mais
detalhada (WERKEMA, 2014).
Um exemplo está apresentado na Figura 2, em que podemos encontrar a quantidade de
cada tipo de falha que foi anotada pelo responsável de um determinado turno, enquanto
Maycon realizava a consultoria apresentada no estudo de caso. Importante citar que
mais de uma folha de verificação deve ser preenchida e analisada, pois pode acontecer
de o momento, em que foram coletados estes dados, ser atípico em relação aos demais,
mascarando as informações.
49
UNICESUMAR
Tubos furados 19
Textura inadequada 7
Tampa amassada 11
Gosto desagradável 4
Faltando pasta 25
Caixa arranhada 8
Total
Total rejeitado 74
Descrição da Imagem: uma ficha dividida em três colunas, sendo a primeira incluindo defeitos encontrados
nos produtos, a segunda usada para contabilizar a quantidade de vezes que cada um dos defeitos aconteceu
usando marcações em forma de riscos e a terceira incluindo o total numérico de erros. Na parte superior
também estão inclusos nome de quem fez a anotação, a data da coleta de dados e o horário.
50
UNIDADE 2
Por último, nosso terceiro modelo de folha de verificação é a folha de localização de defeitos. Den-
tre aqueles que apresentamos, este é aquele menos comum, pois é usado apenas em situações muito
específicas. Entretanto, tratando-se desses casos específicos, a ideia é absolutamente útil e torna a
identificação do problema pelo leitor muito rápida e fácil. Vale citar que seu uso é mais propício a itens
que são compostos por mais de uma peça e, geralmente, mas não exclusivamente de grande porte.
Pense nessa folha como uma espécie de mapa. Esse modelo de folha de verificação terá o desenho
de uma peça ou item específico — por exemplo, uma geladeira —, que representará em 3 vistas: frontal,
lateral e superior. Em pelo menos uma das três vistas, haverá uma representação gráfica do defeito
daquele item específico, como um arranhão, uma mancha ou uma parte amassada (WERKEMA, 2014).
A identificação do defeito pode ser feita com base em cores ou formatos. Por exemplo, a região
amassada pode ser identificada por meio do desenho de um círculo na parte específica, enquanto um
arranhão pode ter como símbolo padrão um risco. Por outro lado, o amassado pode ser registrado
apenas com um traço vermelho, enquanto o arranhão pode ser representado com um traço azul. É
muito importante que os símbolos sejam padronizados, e é sempre recomendado que seja colocada
uma legenda para os símbolos ou cores na parte de baixo da folha, isso impede que qualquer falha de
comunicação possa ocorrer. A legenda, também, pode ser colocada, em um quadro à parte, contanto
que este esteja de fácil alcance a todos que precisarem interpretar a folha. Um exemplo para uma folha
de verificação para localização de defeitos é apresentado na Figura 3, mostrando uma geladeira com
um defeito externo.
Topo
Frente/Atrás Lateral
Descrição da Imagem: uma folha com campos em branco para nome, data e horário. Há três retângulos logo abaixo dos campos, cada
um indicando uma posição diferente de uma geladeira. A primeira mostra a parte dianteira do objeto, que apresenta dois riscos que
indicam arranhões, a segunda mostra a lateral, que contém um círculo que indica um amassado, e a última apresenta a vista superior,
sem indicações de defeitos.
51
UNICESUMAR
O exemplo apresentado na Figura 3 tem a indicação de dois defeitos, um na parte frontal e outro na
lateral do item. Os traços na parte frontal costumam indicar arranhões na superfície, enquanto círculos
ou formas similares, conforme a lateral, podem representar manchas ou bolhas. A importância desse
tipo de folha, além de facilitar a identificação do defeito, está em expor sua origem. Caso haja excesso
de situações em que um mesmo erro aconteça em várias unidades, é perfeitamente possível encontrar o
momento em que o problema acontece, com uma simples análise das possibilidades (WERKEMA, 2014).
Há outras modalidades de folhas, as quais podem fornecer mais informações, conforme adaptadas.
Ao invés do uso diário de folhas, pode ser usada apenas uma folha com indicação para a semana toda,
em que ocorre a estratificação de turnos e de dias da semana. Da mesma forma, pode haver uma divisão
na folha embasada nas máquinas que estavam em operação e, caso haja concentração de falhas apenas
em um dos maquinários, apenas a produção daquele equipamento deverá ser pausada, sem influenciar
as demais e, assim, gerar menos preocupações e impactos nos resultados.
Ainda, tratando de ferramentas que podem nos ajudar a encontrar causas para efeitos em geral,
temos o diagrama de Ishikawa. Caso você já tenha alguma experiência com a área da Qualidade, é
possível que conheça o diagrama por meio de outros nomes: diagrama de causa e efeito ou diagrama
espinha de peixe, sendo este último um nome informal, mas muito popular, baseado na estrutura com
que o diagrama é desenhado. Os três nomes se referem exatamente à mesma ferramenta, então você
pode optar por chamá-la como preferir.
O nome do diagrama vem com base em seu criador, o engenheiro japonês Kaoru Ishikawa, que
o desenvolveu na década de 40. Sua intenção era apresentar uma ferramenta que pudesse ser usada
como base para que até mesmo leigos em relação à Qualidade organizem seu pensamento em relação
a determinados efeitos e encontrem uma solução (LOBO; LIMEIRA; MARQUES, 2015).
52
UNIDADE 2
A finalidade do diagrama é relacionar um efeito com diversas causas e tornar essa relação visível. Em
um primeiro momento, pode parecer algo muito simplório e apenas burocrático, mas as suas conse-
quências são visíveis e gratificantes, muitas vezes, causas que poderiam passar despercebidas são notadas
por meio de uma análise mais aprofundada, motivada, justamente, pela montagem do diagrama de
Ishikawa. A interpretação do diagrama é uma ação muito frequente na etapa de análise do DMAIC.
A estrutura básica do diagrama leva em conta seis aspectos, conhecidos como os 6M: mão de obra,
materiais (ou matéria-prima), maquinário, método, medição e meio ambiente. Por “meio ambiente”,
entenda que falamos, majoritariamente, do ambiente em que uma ação é realizada, envolvendo também
o psicológico dos envolvidos (questões relacionadas à motivação, que ocorrem devido a um ambiente
ruim de trabalho) e, claro, o ambiente da empresa em si, como a temperatura do local de trabalho, a
umidade, o excesso de barulho, a falta de espaço e questões similares — o termo foi adaptado dessa
forma para possibilitar a sigla 6M, visto que isso facilita a lembrança dos seis termos.
Cada um dos aspectos citados é posicionado na ponta de uma linha do diagrama, ligando-se a uma
linha central que segue em direção ao efeito analisado. Dessa forma, fica visualmente indicado que a
união de todos os seis aspectos é o que gera o efeito estudado. Vale citar que alguns diagramas não usam
todos os seis pontos, não é raro encontrar diagramas que consideram, apenas, quatro ou cinco deles.
Assim sendo, é gerada a estrutura básica de um diagrama de Ishikawa, a qual pode ser vista na Figura 4.
Efeito
Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “efeito”. Do meio dessa linha saem
seis outras linhas que apontam na vertical, cada uma chegando a um retângulo com os escritos “mão de obra”, “maquinário”, “materiais”,
“método”, “medição” e “meio ambiente”.
53
UNICESUMAR
Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “Tubos com quantidades de creme
variando”. Do meio dessa linha saem seis outras linhas que apontam na vertical, cada uma chegando a um retângulo com os escritos
“mão de obra”, “maquinário”, “materiais”, “método”, “medição” e “meio ambiente”. Das linhas verticais saem outras linhas horizontais,
com escritos menores.
54
UNIDADE 2
É possível ter mais de uma causa primária em um mesmo grupo, isso é comum, na verdade.
No exemplo apresentado na Figura 5, temos pelo menos uma causa em cada aspecto, mas
não há um limite de causas a serem posicionadas em cada espinha. É importante, todavia,
levar em conta que todas as causas apresentadas possam ter sua origem devidamente
rastreada. Por exemplo, sabemos que o descaso dos operadores no ambiente de trabalho
é uma possível causa para o problema, assim como sabemos que as balanças desreguladas
são outra possível causa. Entretanto, por que os operadores estão desmotivados? Por que
as balanças estão desreguladas? É importante que possamos entender os motivos disso,
pois só assim chegaremos à chamada causa-raiz.
55
UNICESUMAR
A partir do momento que encontrarmos um ou mais motivos para a causa primária, podemos adicioná-lo
ao diagrama em forma de causa secundária. Essa ação é relevante, pois, se resolvermos a causa secundá-
ria, automaticamente a causa primária terá sido total ou parcialmente resolvida e, consequentemente, o
efeito principal do diagrama também será solucionado.
É possível que surjam casos nos quais uma causa encaixada em uma espinha tenha uma subcausa
relacionada a outra. Por exemplo, caso a causa primária seja um maquinário que não esteja calibrado
adequadamente, isso se encaixa na espinha “máquina”; e se a causa secundária for que o indivíduo res-
ponsável pela calibração não recebeu um treinamento adequado, isso se encaixa na espinha “mão de obra”.
Caso isso ocorra, não é necessário realizar qualquer mudança no diagrama, pois, apenas, complicaria a
ação e talvez dificultasse a interpretação.
É possível, também, que uma mesma causa secundária seja responsável por duas ou mais causas pri-
márias. Nesse caso, nada impede que ela seja descrita mais de uma vez no diagrama. Após acrescentarmos
uma causa secundária às espinhas, o diagrama fica com aparência similar ao que se pode ver na Figura 6.
Figura 6 - Diagrama de Ishikawa com causas primárias e secundárias indicadas / Fonte: o autor.
Descrição da Imagem: uma linha reta na horizontal vai em direção a um retângulo com o escrito “Tubos com quantidades de creme
variando”. Do meio dessa linha saem seis outras linhas que apontam na vertical, cada uma chega a um retângulo com os escritos “mão
de obra”, “maquinário”, “materiais”, “método”, “medição” e “meio ambiente”. Das linhas verticais saem novas linhas horizontais menores,
e dessas linhas saem novas linhas verticais ainda menores, que indicam causas secundárias.
O processo de divisão das causas principais em subcausas pode continuar indefinidamente, chegando a
causas terciárias, quaternárias e, assim, por diante. O importante é que seja possível interpretar o que foi
descrito no diagrama e que seja encontrada uma causa raiz para um determinado problema. Inclusive,
caso seja necessário aprofundar a análise de uma das causas, pode ser criado um novo diagrama de
Ishikawa, em que essa causa, agora, será posicionada como efeito e terá suas causas rastreadas.
Uma ideia a ser levada em conta é a de que o diagrama de Ishikawa não precisa ser usado apenas
para análise de problemas, ele pode ser usado para oportunidades, também. O efeito posicionado na
“cabeça” do diagrama, nesse caso, seria a melhoria desejada.
56
UNIDADE 2
Como você pode notar, o diagrama de Ishikawa é uma ferramenta de fácil entendimento e que
foca na organização de ideias, auxiliando no entendimento da origem de um problema. Entretanto,
apesar de ser uma excelente base para raciocínios, ele tem uma limitação: o diagrama de Ishikawa é
incapaz de mensurar o impacto e a importância de cada uma das causas, pois atua apenas como uma
forma de listá-las. Para suprir essa limitação, usamos outra ferramenta, a qual também é um diagrama
e costuma ser usada em conjunto com o Ishikawa — o diagrama de Pareto, também conhecido como
gráfico de Pareto.
Antes de tudo, deve-se esclarecer que o diagrama de Pareto não depende do diagrama de Ishikawa
para ser realizado, e tampouco o contrário, pois ambos são ferramentas independentes e muito úteis,
sendo presenças unânimes nas listas de ferramentas da qualidade. Entretanto, quando usadas em
conjunto, o efeito é potencializado.
Erroneamente, é indicado que o criador do diagrama foi o economista italiano Wilfried Pareto.
De fato, ele foi o responsável pelo desenvolvimento do princípio de Pareto, este diz que a maior parte
da riqueza fica nas mãos de poucos indivíduos, enquanto os muitos restantes possuem apenas uma
pequena parte da riqueza, mas o diagrama não é da sua autoria.
O inventor da ferramenta é, de fato, Joseph Juran, um dos gurus da Qualidade, que a criou na dé-
cada de 50 e baseou o raciocínio no princípio de Pareto, mas analisando efeitos e causas. De acordo
com Juran, 20% das causas são responsáveis por 80% dos defeitos, isto é, poucas causas geram grande
impacto (TOLEDO et al., 2017).
Apesar dos números 20 e 80 serem apenas figurativos, eles ilustram muito bem a ideia referente
ao diagrama, ao ponto de que, em algumas fontes, pode-se encontrar o termo “diagrama de Pareto”
com o nome “Gráfico 80/20”. A partir do momento em que se descobre a causa — ou as causas —
responsável pela maior parte das falhas, sempre devemos dirigir nossa atenção a resolvê-la. É sempre
mais interessante priorizar a causa mais impactante, pois, a partir do momento em que ela deixa de
existir, a quantidade de vezes que o problema estudado ocorre diminui drasticamente. As causas mais
impactantes são chamadas de “vitais”, enquanto as causas que correspondem a uma parcela menor são
conhecidas como “triviais” (TOLEDO et al., 2017).
57
UNICESUMAR
A última linha tem a nomenclatura “outros”. Nela, são consideradas as causas menos fre-
quentes, uma vez que ocorreram tão poucas vezes que não se torna necessário criar uma
nova linha para cada uma delas. É importante que todas as causas nomeadas ocorram com
uma frequência maior do que as causas indicadas na categoria “outros”, a qual deve represen-
tar sempre menos do que 10% dos dados, o mais adequado seria um valor próximo de 5%.
Após tabelar a frequência absoluta de cada causa, criaremos uma nova coluna na
tabela; nela, conterá os dados referentes às somas dos dados apresentados na frequência
absoluta. O nome que se dá a esses dados é “frequência absoluta acumulada”, e sua re-
presentação será feita na Tabela 2.
58
UNIDADE 2
Os valores, em negrito, na Tabela 2 são os únicos que precisam ser escritos, com os somatórios, pois
são apresentados apenas para fins didáticos. A intenção é saber a quantidade de ocorrências de todas
as causas somadas, e esse valor se dá na última linha da tabela, em que encontramos a informação de
211 observações no total. Essa informação será de extrema importância para montarmos a próxima
coluna de dados.
Trataremos, agora, da frequência relativa de observações, em outras palavras, nossos resultados serão
dados em percentuais. Para tanto, basta descobrirmos qual a porcentagem que cada causa representa
no total de observações, e, para esse cálculo, precisamos da frequência absoluta de cada uma das causas
e do total de observações, que é de 211.
Para o cálculo do percentual, dividimos o valor da frequência absoluta de uma determinada causa
pelo valor total de observações e, em seguida, multiplicamos o resultado por 100, isso nos retornará
o resultado já em porcentagem. Como exemplo, será apresentado o cálculo da frequência relativa da
causa A, na Equação 1.
Para resultados mais exatos, recomenda-se que sejam consideradas duas casas, após a vírgula, para os
percentuais. Por conta disso, podem ocorrer desvios no arredondamento, e o resultado do somatório
não será de exatamente 100%, mas será muito próximo disso.
A informação que a frequência relativa nos traz é o tamanho do impacto de cada uma das causas.
Por mais que tenhamos, pelo menos, seis causas diferentes, a causa A, sozinha, é responsável por quase
40% das ocorrências do problema, ou seja, já se sabe que ela deverá ser nossa prioridade para resolução.
É importante observar que, caso uma das causas de menor frequência possa ser resolvida com muita
facilidade e agilidade, ela pode ser priorizada. Não há motivos para deixar uma causa seguir ocorren-
do, se o esforço para a eliminar é quase nulo. A prioridade, no entanto, ainda, deverá ser a redução de
ocorrências da causa principal, pois é o que gera maior retorno, em curto prazo. A montagem do dia-
grama, porém, ainda, não foi concluída, pois a tabela precisa de mais uma coluna, a frequência relativa
59
UNICESUMAR
acumulada. Para tanto, realizaremos um novo somatório, mas considerando os valores apresentados
obtidos para a frequência relativa. A nova coluna está incluída na Tabela 4.
Novamente, apenas os valores, em negrito, precisam ser descritos na tabela, com o somatório dos
percentuais apresentados apenas para fins didáticos. A tabela fica completa quando temos a frequência
relativa acumulada registrada. Entretanto o diagrama de Pareto, ainda, não foi completamente mon-
tado, pois precisamos transformar os dados obtidos em um gráfico. Para a montagem do diagrama
de Pareto, leva-se em conta duas colunas da Tabela 4: a frequência absoluta, que é a primeira coluna
com dados, e a frequência relativa acumulada, que acabamos de preencher.
Quando os dados estão organizados em forma de gráfico, a frequência absoluta é representada
por barras, as quais seguirão sempre de forma decrescente, da esquerda para a direita, enquanto
a frequência relativa acumulada será representada por uma única linha de ascendência contínua
no mesmo sentido. Por convenção, o eixo vertical esquerdo do gráfico sempre será usado para a
interpretação das quantidades absolutas, ou seja, será relacionado às barras. Já o eixo vertical direito
contará com os percentuais, servindo como guia para a linha que contém as informações referentes
à frequência relativa acumulada. O diagrama de Pareto para o nosso exemplo, então, será estruturado
conforme a figura a seguir.
60
UNIDADE 2
Diagrama de Pareto
90 100,00%
80 90,00%
70 80,00%
60 70,00%
60,00%
50
50,00%
40
40,00%
30
30,00%
20 20,00%
10 10,00%
0 0,00%
Causa A Causa B Causa C Causa D Causa E Outros
Descrição da Imagem: diagrama com seis barras decrescentes, com valores iguais a 84, 52, 33, 21, 13 e 8, representadas pelos títulos:
Causa A, Causa B, Causa C, Causa D, Causa E e Outros, respectivamente, sobrepostas por uma linha crescente, indicando as porcenta-
gens 39,81%, 64,45%, 80,09%, 90,05%, 96,21% e 100%, respectivamente.
REALIDADE
AUMENTADA
Etapas de montagem do
Diagrama de Pareto
61
UNICESUMAR
62
UNIDADE 2
63
UNICESUMAR
64
Agora é com você! Que tal preencher o mapa mental, a seguir, com as características de cada
uma das ferramentas que abordamos? Primeiramente, apresente qual é a função principal de
cada uma delas e, em qual ou quais etapas do DMAIC, elas podem ser encaixadas. Quando hou-
ver, exponha os diferentes formatos delas que analisamos e em quais situações os diferentes
formatos são usados. Acrescente também os nomes de ferramentas (não necessariamente da
qualidade) que podem ser usadas como auxílio no preenchimento das ferramentas abordadas.
Por último, descreva de que forma o uso das três ferramentas em questão auxilia a ferramenta
que vem em seguida.
FERRAMENTAS
DA QUALIDADE
Descrição da Imagem: espaços nos quais devem ser descritas as ferramentas de folha de verificação, diagrama de Ishikawa e
diagrama de Pareto.
65
1. A Folha de verificação é a ferramenta da qualidade utilizada para facilitar e organizar o
processo de coleta e registro de dados, de forma a contribuir para otimizar a posterior
análise dos dados obtidos. Uma folha de verificação bem elaborada é o ponto de partida
de todo procedimento de transformação de opiniões em dados e/ou fatos.
WERKEMA, C. Ferramentas estatísticas básicas do lean seis sigma integradas ao
PDCA e DMAIC. Rio de Janeiro: Elsevier, 2014. p.55.
A respeito da ferramenta “folha de verificação”, são feitas as seguintes afirmações:
I) O preenchimento da folha de verificação é muito simplificado, não exigindo treina-
mento para o responsável.
II) Em casos nos quais há mais de um turno, devem haver múltiplos responsáveis pelo
preenchimento da folha de verificação, sendo um em cada turno.
III) A folha de verificação do modelo de distribuição de dados de controle pode auxiliar
na determinação do formato de um histograma, com os dados, nela, registrados.
IV) Um preenchimento de uma folha de verificação já é suficiente para mostrar todas
as falhas presentes no processo.
2. Sabe-se que o diagrama de Ishikawa (ou diagrama de causa e efeito) costuma ser usa-
do para que se possa rastrear a origem do problema. Sua montagem é feita com um
brainstorming, envolvendo vários indivíduos de diversos níveis hierárquicos.
A respeito do diagrama de Ishikawa, são feitas as seguintes afirmações:
I) A interpretação do diagrama é feita na fase de análise do DMAIC.
II) Para a montagem do diagrama, pode-se usar uma ferramenta conhecida como
“cinco porquês”.
III) Em hipótese alguma, deve-se analisar mais de um efeito, em um único diagrama de
Ishikawa.
IV) O diagrama de Ishikawa, apesar de muito útil, tem como limitação o fato de não
mensurar o impacto de cada causa listada.
66
É correto o que se afirma em:
a) I e II, apenas.
b) II e III, apenas.
c) III e IV, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.
Diagrama de Pareto
160 100,00%
140 90,00%
140
80,00%
120
70,00%
98
100 60,00%
80 50,00%
63 53 40,00%
60
42 30,00%
40
30 20,00%
22
20 10,00%
6
0 0,00%
Causa A Causa B Causa C Causa D Causa E Causa F Causa G Causa H
Descrição da Imagem: diagrama com oito barras de tamanhos decrescentes, com valores iguais a 140, 98, 63, 59, 42,
30, 22 e 6, representadas pelos títulos Causa A, Causa B, Causa C, Causa D, Causa E, Causa F, Causa G e Causa H, respec-
tivamente, sobrepostas por uma linha crescente, indicando as porcentagens 30,43%, 51,74%, 65,43%, 78,26%, 87,39%,
93,91%, 98,70% e 100%, respectivamente.
67
Interprete o diagrama e analise as afirmações a seguir:
I) As causas A e B, juntas, correspondem a mais da metade das falhas ocorridas.
II) A causa E corresponde a menos de 10% das falhas ocorridas.
III) As quatro causas menos impactantes, juntas, ainda são menos impactantes do que
a causa A.
IV) As quatro causas mais impactantes, juntas, correspondem a mais de quatro quintos
dos problemas ocorridos.
4. A seguir, apresenta-se uma tabela com dados coletados, em uma folha de verificação.
Pretende-se usar as informações coletadas para montar um diagrama de Pareto.
Dica: monte a tabela com os dados necessários para o Diagrama de Pareto, antes de
responder aos itens B e C.
68
69
70
3
Ferramentas de
Controle - Parte II
Me. Paulo Otávio Fioroto
72
UNIDADE 3
73
UNICESUMAR
em uma característica específica, no caso, o estado civil. Após alguns olhares entre todos os presentes, que
se mostraram esclarecidos, um dos supervisores, um pouco inconformado, perguntou se a ferramenta
se tratava apenas daquilo, ao que Maycon confirmou.
A partir de então, foi dada uma abordagem mais técnica à ferramenta, mas dessa vez com foco no
cotidiano da fábrica. A estratificação estava em todos os lugares, como níveis hierárquicos, ingredientes,
sabores das pastas. As folhas de verificação usadas na empresa dependem da estratificação para serem
consideradas úteis, pois há anotação de dados discriminados, isto é, classificados conforme uma carac-
terística, como quantidades de uma determinada falha específica.
Dando continuidade ao DMAIC, Maycon pediu para que trouxessem dados das análises de aceitação
sobre o sabor e a consistência dos cremes dentais. Os dados foram coletados por meio de análise senso-
rial, em que cada um dos provadores do creme deveria dar uma nota de 1 a 7 para diferentes amostras,
cada uma contendo uma certa quantidade de flavorizante (substância que dá o sabor desejado ao creme
dental). Também apresentaram as notas atribuídas a diferentes níveis de consistência, a qual dependia
de substâncias espessantes presentes no creme.
Maycon decidiu organizar as notas referentes à pasta de dente sabor menta, em forma de histograma.
Novamente, houve questionamentos por parte dos funcionários sobre o que seria isso, algo que já era
esperado pelo consultor. De forma direta, Maycon respondeu que aquilo nada mais era do que algo com
o qual eles já conviviam havia tempo: um gráfico de barras verticais.
Maycon montou, em um primeiro momento, os histogramas referentes às notas dadas ao sabor. Na
análise sensorial, forneceram aos provadores cinco tipos de pastas, todas de mesma consistência e com
sabor menta, mas com quantidades diferentes de saborizante em sua fórmula, cada uma com sabor mais
forte do que a outra. Em seguida, ele fez o mesmo com as notas referentes à consistência. Dessa vez,
forneceram aos provadores cinco amostras que tinham a mesma quantidade de flavorizante, mas uma
delas era pouco espessa, atributo que sofreu aumento entre cada uma das amostras. Importante citar
que elas estavam distribuídas em uma ordem aleatória e que nenhum provador poderia influenciar na
escolha do outro.
Com as notas coletadas, Maycon fez a organização delas e notou que, enquanto o histograma refe-
rente à pasta com mais flavorizante tinha barras maiores no lado que se referia às notas mais altas, a
consistência menos espessa havia sido a mais aceita pelos provadores. Isso talvez fosse suficiente para
concluir que o creme que correspondia a essas duas características seria o ideal. Porém decidiu ir além
e usar dois diagramas de dispersão para fazer um comparativo entre as notas.
O diagrama de dispersão sobre a intensidade do gosto da pasta de dente colocou, no eixo horizontal,
as notas recebidas pelas amostras, enquanto o eixo vertical apresentava a quantidade de saborizante
usada nas amostras. Nele, estavam contidas dezenas de pontinhos, em que cada um indicava uma das
notas atribuídas a cada uma das concentrações. Quando organizados dessa maneira, era visível que os
pontos formavam algo próximo de uma reta crescente na diagonal.
O mesmo foi feito para analisar o atributo da consistência, com o eixo horizontal contendo as no-
tas e o eixo vertical, a quantidade de emulsificante usado para dar um aspecto mais “grosso” ao creme
dental. Quando distribuídos dessa forma, os pontos formavam algo que se assemelhava a uma reta
decrescente na diagonal.
74
UNIDADE 3
Com estes dados, Maycon conseguiu provar, por meio da análise da opinião de diversas pessoas
e do uso das ferramentas da qualidade, quais são os aspectos mais desejados pelo público, em se tra-
tando do creme dental da marca. A partir desse conhecimento, não há garantia de que não ocorrerão
mais problemas, entretanto certamente eles diminuirão, e, diferente do que acontecia antes do início
da consultoria, a partir de agora a empresa sabe exatamente para onde deve olhar, quando se deparar
com situações inesperadas, além de entender aquilo que os clientes querem.
A última instrução de Maycon à equipe da fábrica foi para que mantivessem as práticas que ele
apresentou e que continuassem buscando novas ferramentas, mesmo se elas não forem utilizadas, o
conhecimento a respeito nunca é demais. Ele também orientou para que as boas práticas de fabricação
fossem registradas em um manual, para que tudo que a empresa praticasse estivesse por escrito em
algum lugar. Essa é a forma de garantir que aquilo que é realizado na empresa não será esquecido e
que novos colaboradores terão acesso a informações passadas.
As três ferramentas apresentadas na segunda parte da história de Maycon são tão relevantes quanto
as que vimos na unidade anterior. A estratificação, na verdade, é o conceito mais básico usado para
qualquer ferramenta e para qualquer análise, sem ela, não há como organizar os dados em qualquer
outra situação. O histograma e o diagrama de dispersão, por outro lado, são tão relevantes quanto o
diagrama de Pareto, que já foi discutido. A diferença das duas em relação às demais está no fato de se
utilizarem um pouco mais de conceitos matemáticos e estatísticos em sua montagem.
Durante nossa unidade, é importante que você reflita sobre o estudo de caso e sobre as possíveis
finalidades para as quais se pode usar as ferramentas apresentadas. O relato apresentado mostrou ape-
nas uma abordagem, mas tenha em mente que a situação vivenciada por Maycon foi muito específica
e que o uso de todas elas é mais extenso do que aquilo que vimos, por isso mesmo, abordaremos casos
diferentes no decorrer do conteúdo. Dito isso, que tal refletir sobre possíveis funções, em especial as
relacionadas à Estatística, que a estratificação, o histograma e o diagrama de dispersão podem ter?
Anote tudo que vier à mente em seu diário de bordo!
Novamente, deparamos com ferramentas da qualidade e suas aplicações práticas. Entretanto, dife-
rente do que abordamos na Unidade 2, temos agora algumas ferramentas que são presença comum em
nossa vida, há muito tempo! A estratificação é algo tão básico que, quando somos crianças, aprendemos
a separar objetos por cores ou formatos. Histogramas são muito similares a gráficos de barras, com
algumas particularidades abordadas durante o conteúdo. Visualmente, o diagrama de dispersão não é
a ferramenta mais conhecida, entretanto, dentre todas as ferramentas apresentadas, na unidade anterior
e na atual, essa é a que tem uma das interpretações mais simplificadas.
Conforme dito anteriormente, são pouquíssimas as situações em que uma ferramenta da qualidade
trabalha sozinha. Geralmente, usa-se uma combinação de duas ou mais delas para que seja atingido o
resultado desejado, combinações as quais podem variar. A ordem do DMAIC deve ser seguida, mas, a
partir do momento em que temos pleno conhecimento sobre as finalidades de cada uma das ferramentas,
temos total liberdade para variar a ordem de aplicação delas. Lembre-se que o DMAIC não se limita
apenas às sete ferramentas da qualidade: há um leque de possibilidades muito maior, que cabe a você,
como profissional, pesquisar a respeito e conhecer. Há diversos livros e sites que expõem ideias, e você
75
UNICESUMAR
sempre poderá realizar um benchmarking com outras empresas - talvez, algum dia, você desenvolva sua
própria ferramenta, ou ao menos algo que seja característico do seu local de trabalho. Jamais se limite
às sete ferramentas que vemos aqui, o universo da qualidade é muito maior do que isso.
Agora que temos um conhecimento mais profundo sobre algumas das ferramentas, você acredita que
as ferramentas apresentadas na Unidade 2 poderiam ser usadas para solucionar as situações que vimos
nessa parte do estudo de caso? E, indo além, você acredita que as ferramentas que apresentamos na
segunda metade da história sobre Maycon poderiam ser usadas naquilo que vimos na unidade anterior?
DIÁRIO DE BORDO
Agora, na discussão sobre as ferramentas, falaremos, primeiramente, sobre a estratificação. Por ser um
conceito muito simples, algumas fontes não a consideram como uma ferramenta da qualidade, ou seja,
diferente daquilo que vimos na unidade anterior, temos aqui uma ferramenta que não é considerada
uma unanimidade no meio acadêmico. Apesar de não ser presença absoluta em todas as listagens, é
impossível ir a lugar algum sem que haja a estratificação. Muitas vezes, relacionamos o termo com
a expressão “estratificação social”, o que pode gerar uma conotação negativa para a palavra. Mas, na
verdade, a estratificação está presente em todos os fatores do nosso cotidiano, desde a escolha da roupa
que você veste, no trabalho ou em casa, a separação por dias na sua agenda, a divisão de setores em
empresas, os turnos com que a indústria funciona e, assim, por diante.
76
UNIDADE 3
Considerando o DMAIC, a estratificação costuma ser mais visível nas fases de medi-
ção e análise. Tratando-se da medição, podemos aplicá-la junto à folha de verificação,
isso faz com que os dados se tornem organizados, desde o primeiro momento. Na
Tabela 1, é apresentada uma folha de verificação com divisões em subgrupos. Nela,
são contabilizadas quantas falhas aconteceram.
Quantidade de Falhas
Segunda Terça Quarta Quinta Sexta
Operador A 2
Dia
Máqui- Operador B 1
na A Operador C 1
Noi-
te Operador D 2
Operador E 1 1
Dia
Máqui- Operador F 1 1
na B Operador G 1 1
Noi-
te Operador H 1
77
UNICESUMAR
78
UNIDADE 3
A E B C D
D C A B E
D A C D A
B B E E C
Descrição da Imagem: um grupo de 20 quadrados, cada um com uma letra, variando entre A, B, C, D e E em seu centro.
79
UNICESUMAR
Com base na análise, é perceptível que o fornecedor E enviou matéria-prima com problemas, enquanto
o fornecedor D também apresentou problema em uma amostra e deve receber certa atenção por parte
do setor de qualidade. Apesar de ser uma ferramenta pouco palpável, visto que se trata mais de uma
teoria, a estratificação é a única ferramenta da qualidade que consegue ser atrelada a todas as outras
diretamente, na verdade, pode-se dizer que todas as outras ferramentas dependem da estratificação.
Já vimos sua forte ligação com a folha de verificação, enquanto podemos ver que, em um diagrama de
Ishikawa, as possíveis causas são estratificadas em cada uma das espinhas referentes aos 6M. O diagrama
de Pareto estratifica as causas que geraram o efeito analisado, mostrando qual delas tem maior impacto.
A forma com a qual o histograma e o diagrama de dispersão se relacionam com a estratificação,
também, será apresentada. Dito isso, focaremos, a partir de agora, na segunda ferramenta da nossa
unidade, que é o histograma. O histograma é uma ferramenta que pode ser lida com certa facilidade,
e, na verdade, isso é completamente justificável! Todos nós já lemos alguma revista, jornal ou matéria
na internet em algum momento. Quando nos deparamos com uma pesquisa que busca comparar dois
ou mais grupos de dados, encontramos as informações apresentadas em forma de um gráfico de barras.
O histograma, apesar de ser um pouco diferente de um gráfico de barras comum, utiliza exatamente
o mesmo raciocínio para ser interpretado.
A principal diferença visual entre um histograma e um gráfico de barras comum está no fato de
que, em histogramas, as barras ficam “coladas” umas às outras, isto é, não há um espaço que as separe;
entretanto, apesar da convenção, essa regra não é considerada como absoluta, e, caso seja desejado, po-
dem ser desenhadas linhas que marquem as divisões. Além disso, há uma série de cálculos necessários
para que ocorra uma montagem adequada dele, e a primeira parte da explicação será, justamente, a
apresentação e discussão do passo a passo, enquanto realizamos um exemplo.
No histograma, cada uma das barras representa uma classe de dados, sendo formalmente conheci-
das como intervalos de classe ou células. A menos que estejamos tratando de situações extremamente
específicas, todas as classes devem ter a mesma amplitude, ou seja, a mesma largura, visto que isso
facilita drasticamente a interpretação visual dos dados (MONTGOMERY, 2017).
O número de classes depende, diretamente, da quantidade de observações e da dispersão dos dados,
quanto mais dados e quanto mais espalhados eles estiverem, maior deve ser a quantidade de classes.
Entretanto um histograma com poucas ou muitas classes não é algo desejável. O ideal é que se trabalhe
com algo entre 5 e 20 classes. Uma forma muito adotada de determinar o número de classes é calcular
a raiz quadrada da quantidade de observações, mas isso, de forma alguma, é considerado como uma
regra (MONTGOMERY, 2017).
Dito isso, deixo para você, estudante, a Tabela 2, que pode servir como base na escolha do número
k de intervalos. Reforço que isso não é algo que deve ser seguido obrigatoriamente; entretanto, con-
siderando a vivência prática, posso afirmar que sempre tive resultados muito bons, tomando-a como
base para a montagem de histogramas. Sinta-se livre para escolher a quantidade de intervalos que
achar mais coerente para o número de observações registradas.
80
UNIDADE 3
<50 de 5 a 7
50 - 100 de 6 a 10
100 - 250 de 7 a 12
>250 de 10 a 20
Tabela 2 - Número de intervalos em um histograma para cada quantidade de observações / Fonte: adaptada
de Werkema (2014).
Com base no que vemos na Tabela 2, iniciaremos nosso exemplo. Usaremos o histograma
com uma intenção um pouco diferente daquela que vimos em nosso estudo de caso. Ao
invés de tratar das notas que foram dadas pelos avaliadores do creme dental, avaliaremos
a quantidade de flavorizante que foi usada em diversas amostras das pastas de dente pro-
duzidas pela empresa. Deseja-se usar 300 mg em cada amostra. Para tanto, foram coletadas
100 amostras e, por meio de experimentos laboratoriais, determinado o quanto havia, de
fato, de flavorizante em cada uma das amostras. Os dados estão registrados na Tabela 3.
300 280 313 292 292 324 283 290 278 279
320 313 310 280 301 322 299 323 302 328
319 323 301 282 324 296 293 307 282 315
329 299 307 299 314 327 306 309 306 307
306 316 298 304 305 310 305 326 288 293
301 310 298 310 288 293 313 324 286 328
275 327 274 299 291 293 310 284 273 282
295 309 287 289 290 314 281 289 317 282
272 301 305 323 328 318 308 314 316 302
286 325 299 286 295 317 274 317 290 295
Tabela 3 - Quantidade de flavorizante, em mg, em 100 amostras de creme dental / Fonte: o autor.
81
UNICESUMAR
R MAX MIN
82
UNIDADE 3
Note que, apesar de termos determinado que usaríamos sete classes anteriormente, acabamos precisando
de oito. Isso não é um erro, na verdade, é algo absolutamente normal na montagem de histogramas,
e ocorre devido ao fato de que arredondamos a amplitude de classe para um número inteiro. É man-
datório que o último intervalo do histograma inclua o valor equivalente ao dado mais alto registrado,
no caso do nosso exemplo, 329 mg.
Feito isso, agora, basta contabilizarmos quantos dados se encaixam em cada uma das classes. En-
tretanto há algo importante a ser observado! Você notou que o limite superior de uma classe e o limite
inferior da classe seguinte correspondem sempre ao mesmo valor? Então, por exemplo, caso tenhamos
um dado, exatamente, igual a 292 mg, ele se encaixará na terceira ou na quarta classe?
A resposta é: na quarta classe! Por convenção, os histogramas sempre têm o limite superior
aberto e o limite inferior fechado. Isso significa que o valor, exatamente, igual ao limite superior não
está incluso na sua respectiva classe, enquanto o valor do limite inferior, sempre, será contabilizado como
dessa classe. Com isso definido, podemos, enfim, montar nosso histograma. Considerando os dados
apresentados nas tabelas anteriores, o histograma terá exatamente o formato apresentado na Figura 4.
Descrição da Imagem: um histograma de oito classes, o qual inicia com dados crescentes, atinge o topo em sua metade e então
decresce continuamente.
O histograma obtido é considerado simétrico. Isso não significa, de forma alguma, que os dois lados
dele são perfeitamente espelhados. Esse termo é usado para dizer que o histograma tem em sua região
central, o pico dos dados, e, conforme os dados se afastam do centro, eles tendem a decair cada vez
mais. Isso indica que a média dos dados se encontra muito próxima da região central.
83
UNICESUMAR
Este formato específico é visto como o mais adequado possível para linhas de
produção, pois mostra que a maioria dos dados estão próximos do valor adequado
(300 mg de flavorizante na composição da amostra) e que, quanto mais distantes as
quantidades de flavorizante estiverem do centro, menos vezes ocorrerão.
O histograma simétrico se aproxima da chamada distribuição normal, conforme
visto, em nossa primeira unidade. Isso indica uma maior concentração de dados no
centro de uma distribuição. Nela, apesar de nem todos os dados estarem localizados
na posição ideal, pode-se afirmar que a maioria deles ocorre dentro do esperado
(RAMOS; ALMEIDA; ARAÚJO, 2013).
Histograma assimétrico
18
16
14
12
10
8
6
4
2
0
Figura 5 - Histograma assimétrico / Fonte: o autor.
Descrição da Imagem: um histograma com o ponto mais alto localizado fora de seu centro, para a esquerda.
84
UNIDADE 3
Descrição da Imagem: um histograma com um espaço vazio em seu centro, separando-o em duas metades.
Há o formato bimodal, conforme representado na Figura 7, que tem dois picos se-
parados. É algo que pode acontecer caso haja uma mistura de dados de dois turnos
diferentes, por exemplo, em que se encontra um horário de pico de produção, às 10h
e outro às 20h.
85
UNICESUMAR
Histograma bimodal
16
14
12
10
8
6
4
2
0
Figura 7 - Histograma bimodal / Fonte: o autor.
Descrição da Imagem: um histograma com dois pontos altos de mesma altura e separados.
Por último, podemos citar o histograma do tipo platô, em que as barras centrais pos-
suem frequências iguais ou muito similares, com todas elas atingindo o ponto mais
alto representado no gráfico. Quando se diz que o platô foi atingido, significa que o
valor máximo foi alcançado, houve estabilização nele e que, a seguir, a tendência é que
seja iniciada uma queda. Esse formato é muito similar ao da distribuição normal e,
apesar de não indicar uma regularidade tão adequada quanto a normalidade, ainda
pode ser aceito, caso a faixa de variação entre os dados do centro e das proximidades
não seja alta. O platô é apresentado na Figura 8.
Histograma Platô
16
14
12
10
8
6
4
2
0
Figura 8 - Histograma do tipo platô / Fonte: o autor.
Descrição da Imagem: um histograma com várias colunas de mesma altura seguidas, formando uma reta
no seu ponto mais alto.
86
UNIDADE 3
A partir de agora, discutiremos a última ferramenta da nossa unidade, que é o diagrama de dispersão.
Essa ferramenta tem como objetivo exclusivo determinar o quanto duas variáveis se correlacionam.
Por exemplo, caso tenhamos várias cidades com quantidades diferentes de pessoas adultas vivendo
nelas, é lógico pensar que as cidades com mais adultos terão mais carros rodando pelas suas ruas.
Sendo assim, com um diagrama de dispersão, seria possível comprovar estatisticamente que, quanto
mais adultos existem em uma cidade, mais carros existirão nessa cidade.
Apesar dessa finalidade ser muito específica, ela não deixa de ser de importância vital para com-
preender as causas que podem influenciar um processo e, ainda mais importante, quanto e como
elas podem afetar os resultados. Isso é absolutamente útil para a tomada de decisões em geral, já que
assim podemos entender como melhorar qualquer processo (WERKEMA, 2014).
Um diagrama de dispersão, em sua normalidade, leva em conta duas variáveis. Ambas podem ser
duas causas de um processo, por exemplo, a quantidade de flavorizante e a quantidade de emulsifi-
cante em uma amostra de creme dental, ou uma causa e um efeito desse processo, como a quantidade
de flavorizante e a aceitação do público em relação ao sabor de menta do creme dental. Por último,
podemos tratar, também, de dois efeitos simultâneos, como a aceitação de um produto por parte do
público e a quantidade de unidades que são vendidas por mês.
Na perspectiva da Estatística, torna-se indiferente se tratarmos de causas ou efeitos, pois consi-
deramos uma variável como dependente e outra como independente (RODRIGUES, 2016). Assim
como em qualquer ferramenta, quanto mais dados tivermos, mais fiéis à realidade serão os nossos
resultados. O diagrama é composto por dezenas de pontos, em que cada um deles corresponde a
um dado observado.
87
UNICESUMAR
Tabela 5. 799 4
183 8
349 6
365 4
776 2
568 5
88
UNIDADE 3
Quando falamos de variáveis dependentes e independentes, a convenção diz que as variáveis indepen-
dentes devem ficar posicionadas no eixo X horizontal do gráfico, enquanto as variáveis dependentes
são posicionadas no eixo Y vertical. Seguindo essa regra, sabemos que a variável “nota do pneu” de-
pende da variável “quantidade de quilômetros rodados”, o que as classifica, respectivamente, como
dependente e independente. Com base no raciocínio exposto e na Tabela 5, podemos, então, montar
o gráfico apresentado na Figura 9.
10
Situação do pneu
0
0 200 400 600 800 1000 1200
Quantidade de km rodados
Figura 9 - Exemplo de diagrama de dispersão / Fonte: o autor.
Descrição da Imagem: vários pontos espalhados em um gráfico e uma reta diagonal decrescente passando por entre eles.
REALIDADE
AUMENTADA
Etapas de Montagem do
Diagrama de Dispersão
89
UNICESUMAR
Cada um dos pontos azuis da Figura 9 representa um dado da Tabela 4. A reta pon-
tilhada na diagonal é a chamada reta média, a qual expõe a tendência do compor-
tamento dos pontos do gráfico. Deve ficar claro que a reta média não indica com
exatidão onde todos os pontos estarão, pois ela é determinada com base na posição
dos dados no diagrama, e não o contrário. No exemplo apresentado, a reta média
tem inclinação na diagonal para baixo. Isso indica uma correlação negativa, isto é,
enquanto uma das variáveis aumenta, a outra diminui. Considerando quais são os
fatores analisados, isso já era algo que poderia ser esperado.
Ainda sobre a Figura 9, no canto superior direito, há a indicação do R². Esse valor
se trata do coeficiente de correlação e indica a intensidade da correlação entre as
duas variáveis. Seu valor pode variar entre 0 e 1, sendo 0 o valor que indica inexistência
de correlação e 1 o valor que indica total correlação. Quanto mais próximos todos os
pontos estiverem da reta média, maior será o valor de R². Caso todos estejam sobre
a reta, o coeficiente será igual a 1. No caso apresentado, temos o coeficiente igual a
0,7616. Este valor é suficiente para assumirmos a existência de uma correlação forte.
Costuma-se trabalhar com o valor R² para que seja mais fácil entender o nível da
correlação, principalmente quando houver a necessidade de comparar dois diagramas
de dispersão. Pode-se, entretanto, calcular o valor de R ao invés do R². A vantagem do
uso do R² sobre o R se dá pelo fato de se trabalhar, apenas, com números positivos,
o que facilita a interpretação para entender a força da correlação.
O uso do R, que pode ter valores positivos e negativos — obrigatoriamente, entre
-1 e 1 —, é mais útil quando precisamos saber se a correlação é positiva, em que os
dois parâmetros analisados crescem em conjunto, ou negativa, em que um parâme-
tro decresce, enquanto o outro cresce. Como pode-se supor, um R positivo indica
correlação positiva, enquanto um R negativo indica correlação negativa. Para todos
os fins, o valor 0 indica ausência de qualquer correlação. Todos os softwares usados
para a montagem de diagramas de dispersão já determinam o valor do R² automa-
ticamente. Entretanto, para conhecimento, o cálculo para determinar o valor de R
se dá da seguinte forma:
90
UNIDADE 3
n.S x y S x S y
R
2 2
n S x2 S x n S y 2 S y
Uma outra forma de entender se a correlação é positiva ou negativa é com base no sentido da reta
média. Uma reta crescente indica correlação positiva, enquanto uma reta decrescente indica correlação
negativa. Com essa informação em mente, torna-se mais útil ter acesso ao R² do que ao R, visto que o
seu diferencial era, justamente, indicar o tipo de correlação, algo que pode ser facilmente visualizado
ao identificar a inclinação da reta média. Vale citar que a correlação não precisa ser, necessariamente,
linear. Podem ser utilizadas correlações exponenciais, o que geraria um diagrama não com uma reta,
mas sim com uma linha curva. Quanto mais expoentes tivermos envolvidos, melhor a curva repre-
sentará todos os pontos expostos no sistema.
Visualmente, as correlações lineares estão representadas na Figura 10. Note que os pontos estão mais
acumulados nos casos em que a correlação é forte do que em correlações fracas. Em casos de correlações
fortes, já é possível visualizar a inclinação da reta, antes mesmo de traçá-la. No caso em que a correlação
é inexistente, qualquer software traçará a reta, mas retornará um valor muito baixo para o R².
Descrição da Imagem: cinco conjuntos de dados separados. Um deles envolve vários pontos unidos que formam uma reta diagonal
crescente. O segundo envolve vários pontos separados, os quais também formam uma reta crescente. O terceiro mostra vários pontos
próximos, formando uma reta diagonal decrescente. O quarto mostra vários pontos separados que formam uma reta decrescente. O
quinto tem pontos aleatórios que não geram uma reta.
91
UNICESUMAR
92
UNIDADE 3
Descrição da Imagem: vários pontos espalhados com uma reta diagonal decrescente passando entre eles.
Mesmo que tratemos, aqui, de poucos dados, ainda, podemos interpretar e encontrar uma possível
motivação para a existência da correlação. Esse caso exige que o raciocínio vá um pouco além do que
podemos ver. Um maior consumo diário de proteínas pode indicar uma alimentação de melhor qua-
lidade, o que pode ser relacionado com uma melhor renda. A população de países com melhor renda
tende a ter menos filhos, pois as pessoas estão mais voltadas para a vida profissional do que ter filhos.
Sendo assim, a correlação não é direta, mas existe um fator oculto que influencia em ambos os eixos.
Antes de finalizarmos, deixo aqui duas curiosidades. A primeira é relacionada à união da estra-
tificação aos diagramas de dispersão. Podemos analisar dados de grupos diferentes em um mesmo
diagrama, fazendo um comparativo direto entre eles, e dar, aos pontos, representantes de cada grupo
cores diversificadas, conforme o diagrama apresentado na Figura 12.
12
10
Variável dependente
93
UNICESUMAR
Conversão
comum, quando comparado ao 30
do diagrama de dois eixos, mas
isso não diminui sua relevância, 20
pelo contrário, podemos consi- 10
derá-lo como uma ferramenta
ainda mais poderosa do que o 1.2 0
1. 8
0. 6
1.
diagrama bidimensional. A di-
2
0. 4
1.
0
0. 2
0.
8
0.
ficuldade está em encontrar e 0. 0
Te
6
0.
0. .2
lar
m
4
0.
pe
-0 .4 o
2
0.
manejar softwares que possam om
ra
0
-0 .6
-0
ã
tu
.2
Raz
-0
-0 .8
ra
.4
-0
gerá-lo, pois estes costumam -0 .0
.6
-0
-1 .2
.8
-1
-1
.0
-1
ser programas de baixa acessi-
.2
bilidade. Para montá-lo, são ne- Figura 13 - Diagrama para correlação entre três variáveis
Fonte: Fioroto (2018, p. 56).
cessários softwares específicos,
e o resultado é similar ao que é Descrição da Imagem: uma superfície quadrada tridimensional na diagonal, mudando
gradualmente de cor entre verde escuro até vermelho escuro.
apresentado na Figura 13.
A superfície em questão costuma ser mais usada no meio científico, mas seu uso em indústrias tam-
bém é algo válido; grandes fabricantes de materiais, por exemplo, utilizam-na para mensurar como
a resistência das estruturas se comportam sob temperaturas e pressões diferenciadas. A maioria dos
softwares voltados à Estatística é capaz de produzir o diagrama em sua forma tridimensional.
Nesta unidade, abordamos mais três das ferramentas da qualidade. A estratificação é a base
para o funcionamento de todas as outras, não é necessário grande esforço para notar sua
presença em conjunto a todas as ferramentas. O histograma é uma das ferramentas de mais
fácil interpretação e de uso mais comum, visto que temos contato com diagramas de frequência
em diversas fontes. Por último, tratamos do diagrama de dispersão, a ferramenta que, até o
momento, mais evidenciou os conceitos da Estatística em nossa disciplina.
94
UNIDADE 3
95
Que tal preencher seu mapa mental com aquilo que tiver absorvido durante a unidade? Como
nosso conteúdo teve uma estrutura muito semelhante à da nossa unidade anterior, podemos
usar uma ideia parecida. Primeiramente, apresente a função de cada uma delas e em qual etapa
do DMAIC podemos usá-las. Fale um pouco sobre os diversos formatos do histograma. Explique,
também, como podemos compreender a força e o tipo de correlação encontrados em um diagrama
de dispersão. Por último, aborde a forma como a estratificação pode ser usada em parceria com
cada uma das ferramentas desta unidade e, se possível, também com as ferramentas da nossa
unidade anterior! Isso será interessante para que você entenda como todas elas estão interligadas.
FERRAMENTAS
Estratificação DA QUALIDADE Histograma
Diagrama de dispersão
Descrição da Imagem: um quadro com espaços para descrições das ferramentas de estratificação, diagrama de dispersão e
histograma.
96
1. A estratificação pode ser vista como a divisão de amostras semelhantes, baseando-se
em uma característica específica. A seguir, encontra-se uma planilha que expõe as
características de cinco objetos diferentes.
97
2. A seguir, estão registrados três gráficos de dispersão.
Fonte: o autor.
Descrição da Imagem: Três diagramas de dispersão, indicados pelos nomes gráfico A, gráfico B e gráfico C, todos com
diversos pontos dispersos pelo gráfico e com uma reta média, indicando seus comportamentos. O gráfico A tem uma
reta média levemente crescente, o gráfico B tem uma reta média com crescimento forte e o gráfico C tem uma reta média
com forte decréscimo.
Entre os três gráficos, indique qual é aquele que apresenta maior correlação entre os
pontos, justificando sua escolha. Exponha também qual é o tipo de correlação em cada
um dos gráficos: positivo, negativo ou inexistente.
98
3. O Diagrama de Dispersão, também conhecido como Gráfico de Dispersão, é uma das
ferramentas da qualidade mais conhecidas. Ela se dá por meio de um gráfico de dois
eixos, em que serão descritos dados referentes a causas e efeitos. Com base na corre-
lação apontada pelo gráfico, pode-se identificar se as variáveis analisadas são, de fato,
correlacionadas como causa e efeito (MONTGOMERY, 2017). O diagrama de dispersão
é uma ferramenta amplamente utilizada, mas a compreensão de seus resultados nem
sempre é tão simples. A respeito da ferramenta, analise as asserções a seguir.
I) É possível utilizar a estratificação dentro do próprio diagrama de dispersão, o que
pode tornar a interpretação dos dados ainda mais produtiva.
II) Apesar do formato tradicional do diagrama utilizar apenas duas variáveis, pode-se
usar também um diagrama que relacione três variáveis, incluindo três eixos em um
gráfico tridimensional.
III) Mesmo que o diagrama indique alguma correlação, este resultado pode não ser
verdadeiro, visto que existe a chance de ocorrer a chamada "falsa correlação".
IV) O diagrama de dispersão sempre indica claramente qual é a origem de um efeito, o
que dispensa o uso de demais ferramentas.
99
4. A seguir, são expostos 40 dados referentes aos pesos de pacotes de salgadinhos produ-
zidos em uma indústria. Cada pacote deveria ter 200 gramas, com variações de até 4%.
Fonte: o autor
100
5. Uma entrevistadora separa um grupo de 20 candidatos para uma vaga de emprego.
Todos têm entre 20 e 30 anos e são divididos em 6 grupos. A divisão acaba conforme
a distribuição de frequências a seguir.
Candidatos à vaga
6
4
Frequência
0
20-21 22-23 24-25 26-27 28-29 29-30
Idades
Fonte: o autor.
Descrição da Imagem: gráfico de barras com título “candidatos à vaga”, correlaciona as faixas de idades dos candidatos
com a frequência com a qual cada uma delas apareceu. As faixas são 20 a 21, 22 a 23, 24 a 25, 26 a 27, 28 a 29 e 29 a 30.
As frequências são, respectivamente, 1, 3, 3, 5, 4 e 4.
101
102
4
Estatística
Descritiva e Noções
de Probabilidade
Me. Paulo Otávio Fioroto
Qual é a chance de algo dar errado em um processo? Na verdade, é impossível sabermos exatamente
quantos erros teremos em um processo. É possível ter uma estimativa, com base nos conceitos da
Estatística, mas deve-se ter em mente que a Estatística não é uma ciência perfeitamente exata. Falo
por experiência própria, pois já estive diretamente envolvido em situações nas quais havia 1% de
chance de acontecer uma falha e, mesmo assim, ela ocorreu. Da mesma forma, já presenciei uma
probabilidade de acerto de 0,02% acontecer com sucesso.
Se dissermos que a chance de acontecer uma falha é de 3%, isso significa que, com base em ex-
periências anteriores, houve falhas em 3% das vezes que uma ação foi realizada, exatamente, sob as
mesmas condições. Entretanto isso não significa que, nas próximas 100 vezes, teremos exatamente
3 falhas. Pode acontecer de termos nenhuma falha, ou apenas uma, ou 10 falhas, ou até 100 falhas!
Da mesma forma, há diversos sites e casas de aposta que estudam as estatísticas relacionadas ao
esporte. Caso você seja tão fã de futebol quanto este que lhe escreve, é possível que você já tenha ouvido
ou lido alguma notícia, dizendo que “faltando 4 rodadas para o fim do campeonato, o time X tem 74%
de chances de ser campeão”. Isso significa que, considerando todas as variáveis possíveis, envolvendo
os times que ainda têm chance de serem campeões, em 74% das combinações de resultados, o time
X será campeão. Porém uma partida depois, o time X perde um jogo, e o time Y, que estava em se-
gundo lugar, toma a liderança. Aqueles 74% da rodada anterior podem ter caído para menos 20%, e
isso aconteceu porque uma das combinações que estava fora dos 74% anteriores se tornou realidade.
A Estatística jamais deve ser tomada como realidade. Não é, porém, errado se basear nela para a
tomada de decisões, pois essa é a forma mais próxima que temos de prever o futuro; afinal, ela é em-
basada em fatos passados. E quanto mais dados você adicionar, mais precisas serão as probabilidades
calculadas. Nesse sentido, qual é a forma correta de se determinar uma probabilidade? Existe mais
de uma forma de realizar estes cálculos?
Pois bem, analisemos o estudo de caso, a seguir, para que ele nos ajude a visualizar as aplicações
da Estatística no cotidiano das empresas. Dessa vez, nosso estudo de caso tratará de Eliza, uma
profissional que atua no ramo de produtos eletrônicos. Seu foco é a gestão de inovações, em uma
empresa fabricante de diversos equipamentos, dentre eles, celulares. Uma nova unidade foi aberta, em
uma pequena cidade no interior do Mato Grosso, e Eliza, que fazia parte do quadro de funcionários
há cerca de dois anos, foi transferida para essa cidade com a finalidade de estruturar o controle de
qualidade da nova fábrica. Os funcionários que lá estavam, porém, eram recém-contratados e pouco
experientes, o que tornou o desafio de Eliza maior do que ela esperava.
Após seis meses, Eliza recebeu a missão de calcular o custo de produção unitário dos celulares
fabricados pela empresa. Em um primeiro momento, isso parecia algo simples, era só somar os gastos
com matéria-prima, mão de obra e energia elétrica para a produção e dividir o resultado pela quanti-
dade de aparelhos produzidos. Contudo existe um outro fator a ser considerado: os itens defeituosos.
O custo para produzir um item perfeito e um item defeituoso é exatamente o mesmo, mas há
uma diferença drástica, ao final: itens defeituosos não são vendidos e, consequentemente, não
geram lucro. Sendo assim, assumindo que os gastos com energia elétrica e mão de obra não se
alteram, nosso gasto será exatamente o mesmo, sempre que produzirmos um lote de um deter-
minado produto, mas não o nosso lucro.
104
UNIDADE 4
105
UNICESUMAR
Foi, então, que Eliza decidiu verificar os dados relativos ao processo, nos últimos seis
meses, período de atividade da unidade, envolvendo muito mais informações do que
o considerado, inicialmente. Após analisar tudo que foi realizado, ela percebeu que os
custos estarem em 18% de acréscimo é algo que pode ser visto como sorte, pois o processo
gerava, em média, 27% de produtos defeituosos, enquanto 10% do que era produzido
demorava mais tempo do que o planejado. Isso foi mascarado pelo fato de que, consi-
derando as várias etapas de produção, havia uma perda de cerca de 5% em uma delas
e atraso de 2%, enquanto a fase seguinte gerava 7% de itens com defeito e atrasava em
mais 4%, e assim por diante. Ao final, o acumulado de itens com problemas era de 27%
do total, enquanto o tempo de produção, que deveria ser de algumas horas, levava uma
hora a mais. Em outras palavras, quando se tentava produzir 1000 celulares, 270 deles
paravam no meio da produção. Estes resultados são péssimos para qualquer empresa.
Com os resultados encontrados, não há outra opção que não seja tratar cada um
dos problemas pontualmente, reduzir ou, até mesmo, eliminar as falhas em cada fase
específica da produção. Para tanto, Eliza aplicou as ferramentas da qualidade, seguindo
o DMAIC, abordadas durante as unidades anteriores, e realizou um projeto com cerca
de 4 meses de duração, um período relativamente curto para a implantação de melhorias
em processos produtivos, mas que pode ser usado como base para verificação, a fim de
saber se, de fato, atingiu alguma melhoria.
Após uma nova análise, Eliza encontrou uma relativa melhora, o primeiro lote pro-
duzido, após a implantação, teve apenas 12% de falhas e uma redução progressiva dos
atrasos que ocorriam anteriormente. A marca de 12%, ainda, é considerada alta, mas isso
definitivamente apresenta uma notória evolução em comparação aos 27% anteriores.
Após algumas semanas, coletaram-se outros dados, considerando mais lotes. Obser-
vou-se que o percentual de falhas não era de 12%, mas sim de 10%, e que o atraso havia
caído drasticamente da marca de 10% para 2%. Isso representa uma grande melhora em
relação ao que Eliza encontrou no início, mas ainda um resultado não muito agradável.
Ainda, assim, a queda de falhas mostra que a equipe está determinada a buscar melhorias,
as quais serão atingidas eventualmente.
Eliza só conseguiu encontrar informações que podem ser consideradas próximas
da realidade, porque levou em conta uma grande quantidade de dados. Vamos consi-
derar a Estatística aplicada a algo bem mais simples: um jogo de cara ou coroa. Caso
tenhamos uma moeda comum, em nossas mãos, teremos dois possíveis cenários:
jogá-la para o alto e encontrar cara, ou jogá-la para o alto e encontrar coroa. Caso
você realize essa ação apenas uma vez, você obterá, apenas, uma das faces, obviamente,
vamos supor que seja cara. Se apenas esse dado for levado em conta, isso significa
que, estatisticamente, 100% das vezes a moeda cairá com a face “cara” para cima, o
que é está absolutamente errado.
106
UNIDADE 4
Que tal você realizar essa ação várias vezes seguidas? A partir disso, saberemos, de fato, qual é a pro-
babilidade real de um determinado resultado acontecer. Faça o lançamento dez vezes e anote quantas
caras e quantas coroas foram obtidas. Após isso, realize a ação mais dez vezes. Em seguida, mais dez
vezes, totalizando trinta lançamentos. É muito provável que, a cada rodada de dez lançamentos, seu
total de caras se aproxime cada vez mais de 50%. Caso realizemos o lançamento infinitas vezes, cer-
tamente teremos cada um dos resultados, ocorrendo em 50% das ocasiões. E se você lançar um dado
de seis faces trinta vezes, quantas vezes espera obter cada um dos resultados? A compreensão prévia
desses resultados é o estudo da chamada Probabilidade.
Esses são, apenas, exemplos simplificados do que a Estatística pode nos oferecer. Durante a unidade,
trataremos de outros casos cuja aplicação, também, é válida para a prática e podem exigir um racio-
cínio mais complexo. É importante que você anote as especificações de cada um dos métodos em seu
diário de bordo, pois, ao entender em quais situações cada um dos raciocínios e cálculos apresentados
se encaixam, a resolução de problemas reais, com base nesta unidade, torna-se algo simples.
Apesar da Estatística e da Probabilidade serem ciências diferentes, ambas são claramente conec-
tadas entre si, isso motiva para que sejam estudadas em conjunto. Enquanto a Estatística se trata da
ação relacionada a coletar, analisar e interpretar dados, a Probabilidade é a quantificação das chances.
Exemplificando, o fato de Eliza coletar os dados de processos anteriores é a Estatística, enquanto os
cálculos usados para prever a chance de um equipamento cometer uma falha referem-se à Probabilidade.
Com base no estudo de caso apresentado no início de nossa unidade, vimos que a quantidade de
erros ocorridos no passado é muito maior do que aqueles que ocorrem após alguns meses. Durante a
unidade, sugiro que você reflita: quais são as variáveis que podem interferir na redução da probabilidade
de problemas ocorrerem durante as fases de produção? E, ainda, quais são as variáveis mais importantes
para que tenhamos certeza de que não ocorrerão mais falhas? Busque relacionar essa resposta com o
que discutimos sobre Qualidade e suas ferramentas em nossas unidades anteriores!
DIÁRIO DE BORDO
107
UNICESUMAR
108
UNIDADE 4
Por exemplo, caso nosso desejo seja compreender a probabilidade de obter o resultado
3 no lançamento de um dado, então, o evento é o resultado 3.
No lançamento de um único dado, temos seis eventos possíveis, os quais formam
nosso espaço amostral, que será representado pela letra n. Caso nosso desejo seja obter
um evento específico (que será chamado de m), como o resultado igual a 5, nossa pro-
babilidade será igual à divisão de m por n, ou seja, conforme a Equação 1:
m 1
= (1)
n 6
É importante citar que esses resultados costumam ser expostos em forma de porcentagem.
O resultado da divisão de 1 por 6 é 0,1667. Para calcular a porcentagem, basta multipli-
car o valor encontrado por 100, ou seja, a probabilidade de conseguirmos o resultado
desejado no lançamento de um único dado é de 16,67%.
Esse raciocínio, também, pode ser usado, por exemplo, para determinar a probabili-
dade de se obter um resultado no lançamento de uma moeda comum, que será de 50%,
ou a de se retirar uma determinada carta em um baralho de 52 cartas, em que queremos
determinar a probabilidade de um evento ocorrer em um espaço amostral de 52 resul-
tados possíveis, a qual será de cerca de 1,92%.
Esse raciocínio, entretanto, pode sofrer variações. Podemos falar da probabilidade
condicional, por exemplo, em que são estabelecidas condições diferentes daquelas em
que desejamos, apenas, um único resultado. Por exemplo, podemos ter a condição de
que queremos obter um resultado ímpar no lançamento do dado; nesse caso, temos três
eventos que satisfazem a essa condição, que são os lados 1, 3 e 5. A partir disso, nossa
probabilidade é a de 3 resultados desejáveis em um espaço amostral de 6 resultados
possíveis, o que torna nossa probabilidade igual a 3/6, ou seja, 50%.
Ainda, tratando da probabilidade condicional, podemos também fazer com que ela
interfira no nosso espaço amostral. Por exemplo, jogamos um dado e sabemos que o
resultado obtido foi um número par. Deseja-se saber qual é a probabilidade de que esse
resultado seja igual ao número 4. Assim, nosso espaço amostral tem apenas três resultados
possíveis (2, 4 e 6), e desejamos conhecer a probabilidade de um evento específico ocorrer.
Dessa vez, nossa probabilidade será de 1 em 3 resultados, ou seja, 33,33%.
109
UNICESUMAR
Até o momento, todos os casos dos quais tratamos envolvem apenas o lançamento de um
único dado ou moeda. Entretanto, também, podemos calcular probabilidades de determi-
nados eventos, envolvendo o lançamento de dois ou mais dados, por meio do conceito de
eventos independentes. Os eventos independentes ocorrem quando temos duas situações
acontecendo, de forma simultânea ou não, e o resultado de uma não tem interferência
sobre o resultado da outra. Colocando em outras palavras, o lançamento de uma moeda
não tem qualquer influência sobre o lançamento de uma segunda moeda ou de um dado
(VIEIRA, 2014).
Exemplificando, imagine que lançamos uma moeda para o alto e, simultaneamente,
lançamos um dado. Como vimos anteriormente, a probabilidade de obtermos um determi-
nado resultado no lançamento de um dado comum é de 1/6, enquanto a probabilidade de
obtermos um determinado resultado, em uma moeda é de 1/2. Então, caso nossa intenção
seja calcular, por exemplo, a probabilidade de encontrar o número 4 no lançamento do
dado e obter cara no lançamento da moeda, basta multiplicarmos a probabilidade de cada
um dos eventos ocorrer individualmente, ou seja:
1 1 1
2 6 12
Caso seja adicionado um terceiro evento à situação, por exemplo, a probabilidade da pes-
soa que estiver realizando as ações ser canhota, ser retirada uma determinada carta de um
baralho ou qualquer outro cenário desejado, basta adicionar uma terceira fração à multi-
plicação. Quanto mais eventos estiverem envolvidos, mais termos serão necessários para
que o cálculo possa ser completado.
Um raciocínio muito similar a este é adaptado ao chamado teorema do produto. Esse
caso é especificamente aplicado quando queremos saber a probabilidade de um evento es-
pecífico acontecer mais de uma vez. Por exemplo, qual seria a probabilidade de lançarmos
uma moeda 10 vezes seguidas e obtermos cara, em todos os lançamentos?
Esse tipo de cálculo pode ser realizado a partir da equação (x)n, em que x é a probabilidade
do evento ocorrer uma vez e n é a quantidade de repetições desejada. Sendo assim, sabemos
que a probabilidade do lançamento de uma moeda resultar em cara é de 1/2, e queremos
que o resultado se repita 10 vezes. A chance de isso ocorrer é calculada da seguinte forma:
1 10 110 1
( )= =
10
2 2 1024
Sendo que 1/1024 representa algo próximo de 0,098%, uma probabilidade muito baixa.
Caso queira encontrar algo ainda mais difícil, tente dizer em voz alta o nome de uma carta
qualquer, em um baralho de 52 cartas, embaralhar, retirar a carta, devolvê-la ao baralho,
embaralhar novamente e retirar essa mesma carta. A probabilidade será de 1/2704, o que,
em percentual, aproxima-se de 0,037%, uma probabilidade quase 3 vezes menor do que a
110
UNIDADE 4
1 1 2
6 6 6
Esse teorema, porém, exige uma análise dos eventos que são considerados. No exemplo
apresentado com o dado, sabemos que é impossível que sejam obtidos os dois resultados
simultaneamente. Mas se estivermos tratando de uma situação em que é possível que os
eventos A e B ocorram de maneira simultânea?
Por exemplo, podemos determinar a chance de, em um baralho de 52 cartas, retirarmos
uma carta que seja do naipe de copas ou um ás. Existem 13 cartas para cada naipe, enquanto
existem 4 ases em um baralho comum. Entretanto existe uma carta que cumpre com as
duas condições simultaneamente, que é o ás de copas.
Nesse caso, se apenas realizássemos a soma de ambas as probabilidades, conforme
feito no exemplo anterior, estaríamos contabilizando essa carta duas vezes, isso geraria
um erro em nosso resultado. Por conta disso, é necessário descontar a probabilidade de
ambas as condições serem satisfeitas simultaneamente, calculada por meio do teorema da
multiplicação apresentado anteriormente. A probabilidade das duas situações ocorrerem
simultaneamente é de:
13 4 52 1
52 52 2704 52
Sendo assim, a probabilidade de retirarmos, aleatoriamente, uma carta de copas ou um ás
de um baralho de 52 cartas é de:
13 4 1 16
52 52 52 52
O que, em porcentagem, é aproximadamente 30,77%. Por último, devemos citar os cha-
mados eventos dependentes, em que um resultado influencia diretamente na probabi-
lidade do seguinte. Novamente, temos, em nossas mãos, um baralho com 52 cartas. Nas
situações em que abordamos até o momento, sempre que retirávamos a carta, devolvíamos
ao baralho; entretanto, neste caso, não a colocamos de volta. Isso afetará diretamente os
resultados seguintes.
Supomos que nossa intenção seja a de retirar uma determinada carta do baralho em
questão, por exemplo, o 5 de espadas. Inicialmente, retiramos uma carta qualquer, e a pro-
babilidade inicial de encontrarmos a carta desejada é de 1/52, aproximadamente 1,92%.
111
UNICESUMAR
Atrelando à prática, podemos falar de uma situação na qual é fabricada uma peça específica em uma
montadora. A probabilidade do processo gerar uma peça não-conforme é de 5%, ou seja, automati-
camente, a probabilidade da peça ser adequada é de 95%, visto que existem apenas dois resultados:
conforme e não-conforme.
Todas as peças são fabricadas exatamente sob as mesmas condições e pela mesma máquina, passando
por processos de inspeção idênticos. A fabricação de cada uma delas não tem qualquer interferência
sobre as demais. Com base nisso, podemos concluir que tratamos de uma situação em que é adequado
usar o cálculo da distribuição binomial. O cálculo em questão se dá por meio da Equação 2:
n!
P( x) p x q n x (2)
x ! (n x)!
112
UNIDADE 4
O resultado dessa conta é de 0,1348, o equivalente a 13,48%. Isso significa que, se coletarmos 15 peças
produzidas igualmente, a probabilidade de exatamente duas delas não atenderem às expectativas dese-
jadas é de 13,48%. O mesmo cálculo pode ser adaptado para qualquer quantidade de peças entre 0 e 15.
Como prática, sugiro que faça os cálculos para os cenários em que buscamos verificar a probabilidade
de haver nenhuma ou uma peça não conforme dentre as 15 analisadas. Para isso, basta substituir o
valor de x para cada um dos cálculos. Os resultados serão, respectivamente, de 46,33% e 36,58%.
Sugiro, também, que você realize o cálculo que considera a probabilidade de termos 13 peças con-
formes, ou seja, o cenário oposto ao do exemplo realizado. Atente-se ao fato de que, para este caso, os
valores de p e q serão invertidos, o exemplo considerou a probabilidade de termos duas peças com
falhas, enquanto este novo cálculo trata da probabilidade de obtermos treze peças adequadas. O re-
sultado deverá coincidir com o obtido no exemplo realizado.
Em tempo, tenha em mente que, em grandes empresas, a probabilidade de haver uma peça inade-
quada é muito menor do que 5%, geralmente, trabalha-se com um percentual menor do que 1%. O caso
exposto trabalhou com uma probabilidade de falha, relativamente, alta unicamente para fins didáticos.
113
UNICESUMAR
Caso seja necessário calcular a probabilidade de obter até duas peças com falhas dentre
as quinze analisadas, será necessário calcular a probabilidade para cada um dos cenários
que se encaixam nessa situação, ou seja, os cenários com nenhuma falha, uma falha e
duas falhas, um de cada vez. Após isso, os resultados obtidos devem ser somados. Para o
exemplo em questão, seria necessário realizar a soma entre 46,33%, que é a probabilidade
de não haver falhas, 36,58%, que é a probabilidade de haver uma falha, e 13,48%, que é a
probabilidade de haver duas falhas. O resultado será de 96,39%.
Para casos em que a probabilidade de falha é muito baixa, estando abaixo da marca
de 1%, temos uma distribuição que apresenta resultados mais realistas, a chamada dis-
tribuição de Poisson. Neste caso, pode ser necessário usar uma quantidade de amostras
n muito grande para que seja possível encontrar uma falha (VIEIRA, 2014).
Deve-se, sempre, considerar um intervalo fixo para o cálculo. Exemplos possíveis para a
aplicação da distribuição de Poisson são a quantidade de erros cometidos em uma página
de um livro, em que o intervalo é igual a uma página, a quantidade de ligações erradas
realizadas por uma discadora automática em um dia, em que o intervalo é equivalente a
um dia, e situações similares. O cálculo para a probabilidade se dá por meio da Equação 3:
cx
P( x) ec (3)
x!
Em que “e” se trata do número irracional 2,71828…, x é a quantidade de itens que aten-
dam à condição desejada e c é igual à multiplicação da quantidade de itens analisados
pela probabilidade de ocorrer uma falha. Apresentando um exemplo, podemos expor
uma situação na qual deseja-se determinar a probabilidade de não ocorrerem falhas na
produção de almofadas por uma grande empresa, a qual fabrica 2000 almofadas por dia.
A probabilidade de um item ser não conforme é de 0,5%.
O primeiro passo é determinar o valor de c, que será igual à multiplicação de 2000
por 0,005, que é igual ao percentual dividido por 100. O resultado é igual a 10. Feito isso,
substituímos os dados na Equação 3:
100
P (0) e 10 0, 000045 0, 0045%
0!
Este valor tende a aumentar até que X atinja um determinado valor, geralmente, próximo
a c, e depois voltar a diminuir.
Por último, trataremos daquela que é, provavelmente, a distribuição mais usada não
apenas no meio industrial, mas de modo geral, a distribuição normal, já citada em
nosso livro anteriormente. Vale citar que esta também não é a última vez que falaremos
a respeito dela no material, mas é o momento em que daremos maior importância à sua
interpretação matemática.
114
UNIDADE 4
Na literatura, você pode encontrar a distribuição normal com outros nomes, como curva normal,
curva do sino ou distribuição de Gauss. Todos os termos indicam exatamente o mesmo conceito, que
é a curva apresentada na Figura 1.
Figura 1 - Curva padrão da distribuição normal, também conhecida como curva do sino
Descrição da Imagem: uma curva crescente, que atinge seu ponto mais alto no meio, decrescendo logo em seguida.
A curva normal tem diversas características padronizadas. A primeira delas é a de que a média e a
mediana encontram-se exatamente no centro da distribuição, sendo representadas, na Figura 1, pela
letra grega μ. Além disso, a curva é, perfeitamente, simétrica em torno da média, de forma que metade
dos dados estará abaixo da média e metade acima dela, fazendo com que resultados acima e abaixo da
média tenham a mesma probabilidade de ocorrência (MONTGOMERY, 2017).
115
UNICESUMAR
Também, sabe-se que, em uma curva normal, 68,2% dos dados encontram-se a, no má-
ximo, um desvio padrão de distância da média, seja para mais, seja para menos. O desvio
padrão é representado pela letra grega σ, conforme apresentado na Figura 1. Além disso,
95,4% dos dados estão a até dois desvios padrão de distância da média, enquanto 99,7%
estão a até três desvios. Uma parcela muito pequena ultrapassa essa marca, geralmente,
são referentes a itens defeituosos, os quais deverão ser descartados ou retrabalhados.
É praticamente impossível atingir um formato idêntico ao da distribuição normal, na
prática, em uma linha de produção, mas é perfeitamente possível se aproximar dele, o que,
apesar de também ser um desafio, definitivamente é viável em empresas com alto nível de
organização e qualidade. Ter dados de produção que estejam distribuídos de maneira similar
à curva normal indica que o processo é regular e constante, com variações dentro do previsto.
Matematicamente, pode-se expressar a curva da distribuição normal com base na Equação 4:
( x µ )²
1 (4)
f ( x) *e 2σ ²
2πσ ²
A equação é pouco usada na prática, mas sua apresentação é importante. Note que a
média μ e o desvio padrão σ influenciam diretamente no resultado da função, o que
indica sua relevância para o seu formato. Maiores desvios resultarão em curvas mais
espalhadas, enquanto a média influenciará no posicionamento da curva em relação ao
eixo horizontal de um gráfico, conforme o apresentado na Figura 2.
0,8 N(6,25)
0,6
N(0,1) N(3,1)
f(x)
0,4
0,2 N(6,4)
0,0
0 5 10
x
Figura 2 - Distribuições normais com valores diferentes para média e desvio padrão
Fonte: adaptado de Montgomery (2017, p. 57).
Descrição da Imagem: Quatro curvas simétricas. Duas delas são idênticas, mas localizadas em pontos diferentes.
Uma delas é mais estreita do que as outras duas, porém é bem mais alta. A última curva é mais larga, porém é muito
mais baixa que todas as demais.
116
UNIDADE 4
X µ
Z (5)
σ
Essa transformação faz com que a distribuição passe a atender os requisitos expostos
anteriormente, assumindo μ=0 e σ=1. A partir disso, pode-se proceder com o cálculo da
probabilidade, já que houve padronização da curva. Na distribuição normal padronizada,
ou reduzida, usam-se as probabilidades dadas na Figura 3, que correspondem às medidas
das áreas sob a curva normal.
0,021 0,014
0,0013 0,0013 Z
-4 -3 -2 -1 0 1 2 3 4
0,6827
0,9545
0,9973
Figura 3 - Áreas sob a curva normal reduzida / Fonte: Vieira (2014, p.106).
Descrição da Imagem: uma curva crescente, que atinge seu ponto mais alto na região central, e decrescendo conti-
nuamente logo em seguida. O interior da curva é dividido em seis partes. As duas partes mais próximas do centro têm
o número 0,3413 escrito em cada uma delas. As duas regiões seguintes têm o número 0,1359 escrito em cada uma
delas. Por último, as duas regiões mais externas, uma de cada lado, têm o número 0,021 escrito em cada uma delas.
117
UNICESUMAR
118
UNIDADE 4
Z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3370 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4012 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990
119
UNICESUMAR
Os valores representados na Tabela 1 são referentes à área abaixo da curva que está entre
o ponto central Z=0, que coincide com a média, e o Z calculado por meio da Equação 5.
Por exemplo, caso seja calculado um valor de Z igual a 1,25, deve-se procurar pela linha
referente ao valor 1,2 e a coluna referente ao valor 0,05, e, então, cruzá-las. Note que os
dois primeiros dígitos do valor de Z (nesse caso, 1,2) sempre serão representados pela
linha, enquanto o terceiro dígito (nesse caso, 5) sempre será representado na coluna. O
valor em que a linha e a coluna se encontrarem será igual à probabilidade de que um
determinado dado esteja entre Z=0 e o Z calculado, para 1,25, como exemplificado, o
resultado será 0,3944, ou seja, 39,44%.
A área escura da Figura 4 representa o espaço entre 0 e 1,25. Toda a parte pintada
representa exatamente 39,44% da área localizada abaixo da curva normal.
Z
-4 -3 -2 -1 0 1 2 3 4
Figura 4 - Área abaixo de curva entre Z=0 e Z=1,25 / Fonte: Vieira (2014, p.108).
Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número zero, sendo todos os números, à esquerda do zero,
negativos, e todos os números, à direita, positivos. A região entre os números 0 e 1 é destacada de forma mais escura.
120
UNIDADE 4
f(x)
0
7,5 X
7
Figura 5 - Área entre as marcas de 7 e 7,5 minutos / Fonte: o autor.
Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número sete, e o número 7,5 encontra-se à sua direita. A
região entre os dois números é destacada em um tom mais escuro.
Caro(a) estudante, aconselho você a, pelo menos no início de seus estudos, realizar o
desenho da distribuição normal e pintar a área desejada, conforme feito na Figura 5,
pois isso o(a) ajudará a visualizar o que é pedido e como o cálculo deve ser realizado. Em
todos os exemplos, nesta unidade, essa ilustração está presente. Ao final, temos alguns
exercícios sobre esse assunto, sugiro que inicie sua prática por eles! A intenção do exer-
cício é saber quantas das peças produzidas encontram-se na área destacada da Figura
5. Para isso, precisamos determinar Z, usando a Equação 5 e os dados que a situação
problema nos forneceu.
X µ 7, 5 7
Z 0, 50
σ 1
Agora que temos Z=0,50, usamos a Tabela 1 para encontrar o percentual. Basta cruzar-
mos a linha de valor 0,5 com a coluna de valor 0,00, e chegaremos ao valor de 0,1915.
Isso significa que, em 19,15% dos casos, as peças são produzidas no período entre 7 e 7,5
minutos. Considerando que falamos de uma amostra de 120 peças, basta multiplicarmos
essa quantidade por 0,1915 e encontraremos que 23 peças da amostra foram produzidas
nesse intervalo.
Em outro caso, poderíamos verificar quantas dessas peças foram produzidas na faixa
entre 5 e 7 minutos, por exemplo. Nesse caso, nosso valor de X é 5, enquanto nossa mé-
dia continua sendo igual a 7 minutos, e nosso desvio padrão continua sendo igual a 1.
Podemos ilustrar a situação com base na curva normal representada na Figura 6.
121
UNICESUMAR
f(x)
0
5 X
7
Figura 6 - Área entre as marcas de 5 e 7 minutos / Fonte: o autor.
Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo
continuamente em seguida. Seu centro é indicado pelo número sete, estando o número cinco apresentado à sua
esquerda. A região entre os números 5 e 7 é destacada em um tom mais escuro.
Dessa vez, nossa área está no lado esquerdo da curva. Entretanto nosso procedimento
para resolver o exercício, ainda, será o mesmo. Calculando Z, teremos:
57
Z 2, 00
1
Note que, dessa vez, o valor de Z foi negativo, pois X é menor do que a média. Isso, porém,
não afeta nossa resolução, pois o que nos interessa é conhecer a área destacada em preto
e, como a curva normal tem área perfeitamente simétrica, podemos tratar a área entre os
valores de Z iguais a 0 e -2 da mesma maneira com a qual trataríamos a área entre 0 e 2.
Assim, basta pesquisarmos na Tabela 1 pela linha correspondente a 2,0 e pela coluna
correspondente a 0,00 cujo resultado seja 0,4772. Isso significa que 47,72% das peças da
amostra demoraram entre 5 e 7 minutos para serem produzidas. Novamente, podemos
calcular a quantidade de peças que se encaixam nessa faixa, multiplicando o total de
amostras, 120, pelo valor encontrado na tabela, 0,4772. O resultado será de 57,3 peças, e
podemos arredondar para 57 peças.
Há mais variações de situações que podemos pensar. Por exemplo, se quisermos
descobrir a quantidade de peças que levam entre 6 e 9 minutos para serem produzidas?
Nas situações anteriores, fazíamos o comparativo em relação à média central, mas dessa
vez nossa faixa de tempo envolve um valor acima e um valor abaixo da média, conforme
apresentado na Figura 7.
122
UNIDADE 4
f(x)
0
6 9 X
7
Figura 7 - Área entre as marcas de 6 e 9 minutos / Fonte: o autor.
Descrição da Imagem: uma curva crescente contínua, atingindo seu ponto mais alto no centro e decrescendo conti-
nuamente em seguida. Seu centro é indicado pelo número sete, estando o número seis à esquerda do número sete
e o número nove à direita do número sete. A região entre os números seis e sete é destacada em preto, enquanto
a região entre os números sete e nove é destacada em azul.
Neste caso, não temos como calcular diretamente a área entre os valores de 6 e 9, mas
temos como dividir a área em duas partes, conforme foi feito na Figura 7, a área entre 6
e 7 minutos e a área entre 7 e 9 minutos. Assim, precisamos calcular dois valores para Z,
sendo um para cada uma das duas áreas. Assim, os cálculos são:
67 97
Z 1, 00 Z 2, 00
1 1
Com os valores calculados, devemos checar a Tabela 1 e encontrar que, para Z=1,00,
temos o valor de 0,3413, enquanto, para Z=2,00, teremos a probabilidade de 0,4772. Con-
vertendo os resultados para porcentagens, teremos, respectivamente, 34,13% e 47,72%.
Feito isso, o que precisamos fazer, agora, é somar ambos os percentuais, isso será equi-
valente a somar as duas áreas sinalizadas abaixo da curva, na Figura 7! Note que a única
diferença entre os dois exemplos anteriores e este caso está no fato de que, por termos
dividido a área abaixo da curva em duas partes, precisamos calcular dois valores para Z,
mas toda a resolução segue exatamente o mesmo caminho.
Somando as duas porcentagens, chegamos ao resultado de 81,85%, que representa
98 peças dentre as 120 que compõem nossa amostra. Por último, também pode ocorrer
de termos situações que não passam pela média. E se Eliza quisesse descobrir qual a
probabilidade de uma peça demorar mais do que 8,67 minutos para ser produzida?
Novamente, podemos montar uma ilustração para nos ajudar a visualizar a área pedida
em nossa análise, a qual é apresentada na Figura 8.
123
UNICESUMAR
f(x)
0
5 X
7
Figura 8 - Área acima da marca de 8,67 minutos / Fonte: o autor.
Descrição da Imagem: uma curva crescente contínua atinge seu ponto mais alto no centro, decrescendo continua-
mente, em seguida. Seu centro é indicado pelo número sete, estando o número oito vírgula sessenta e sete apresen-
tando à sua direita. A região à direita do número oito, vírgula sessenta e sete é destacada em um tom mais escuro.
Dessa vez, a média não está em uma posição dentro da nossa área demarcada, então
não temos como realizar o cálculo para determinar Z. Porém temos uma informação de
grande relevância que nos ajudará a resolver essa situação.
Conforme foi dito, nesta mesma unidade, a média é posicionada exatamente no centro
da curva normal cuja área é perfeitamente simétrica e igual a 1. Sendo assim, já que a
área abaixo da curva é simétrica, sabemos que metade está localizada do lado esquerdo
da média e metade do lado direito, sendo 0,5 para cada lado.
Nós não temos como determinar, diretamente, a área acima de 8,67, mas temos como
determinar a área entre 7 e 8,67. A área entre 7 e 8,67 somada à área acima de 8,67 será
igual a 0,5. Assim, realizamos o cálculo de Z para X =8,67.
8, 67 7
Z 1, 67
1
Checamos a Tabela 1: cruzando a linha do valor 1,6 e a coluna do valor 0,07, encontramos
uma probabilidade igual a 0,4525. Sabemos que esse valor, quando somado à área acima
de 8,67, que é aquela que desejamos encontrar, resultará em 0,5. Assim:
0, 4525 A 0, 5 A 0, 0475
Portanto, encontramos que a probabilidade de uma peça demorar mais do que 8,67 mi-
nutos para ser produzida é igual a 4,75%. Considerando o tamanho da amostra, podemos
dizer que apenas seis peças caíram nessa faixa de tempo.
124
UNIDADE 4
Deve-se ter em mente que uma amostra de 120 peças nem sempre é suficiente para que tenhamos
um cenário realista sobre o processo. Caso sejam produzidas milhares de unidades por dia, as 120
peças provavelmente não nos darão uma estimativa realista sobre a situação. Quanto mais dados
forem coletados, mais realista será a nossa estimativa e, consequentemente, a nossa projeção e nosso
conhecimento a respeito do processo e as melhorias necessárias.
É importante relembrar que estes cálculos servem apenas para situações nas quais nossos dados corres-
pondem a uma distribuição normal, ou que se aproximam desse formato. Antes de podermos aplicar
os conceitos vistos, é necessário que trabalhemos para fazer com que nossa produção funcione com
um funcionamento regular e de baixa variação.
De forma resumida, tratamos nesta unidade, inicialmente, dos conceitos mais básicos da Pro-
babilidade, abordando situações que tinham chances iguais de ocorrência, como lançamento
de moedas e de dados. Apesar disso, não podem ser aplicados, sempre, à prática, trata-se de
senso comum.
Em um segundo momento, expusemos as distribuições binomial e de Poisson, ambas as quais
podem ser aplicadas a processos de forma muito específica. Situações nas quais toda a produção
seja realizada exatamente da mesma forma e passe pela mesma inspeção, por exemplo, são
aquelas nas quais esse tipo de conteúdo pode ser usado, qualquer diferença na produção não
permitiria seu uso e, por isso mesmo, apesar de ainda muito importante, não é sempre que
temos um processo regular o suficiente para que as distribuições em questão sejam utilizáveis.
Por último, tratamos daquele que foi o ponto focal da nossa unidade, a distribuição normal.
Seu uso também não cabe a todos os casos, pois é necessário que os processos de produção
atuem de maneira regular e gerem resultados que se aproximem do formato proposto na
normalidade. Essa é a distribuição mais usada de modo geral, sendo amplamente relacionada
ao controle de qualidade.
125
UNICESUMAR
A partir de agora, nosso foco retornará às ferramentas da qualidade. Entretanto, o conceito da nor-
malidade ainda marcará presença em nosso material. Sugiro que você realize os exercícios propostos,
ao final dessa unidade, como forma de praticar tudo que discutimos durante as últimas páginas, pois
o estudo da Probabilidade e da Estatística torna-se muito mais claro quando o aplicamos na prática.
Busque correlacionar o conteúdo apresentado com algumas das ferramentas que expusemos ante-
riormente. A folha de verificação e o histograma, por exemplo, podem ser usados diretamente como
parte do conteúdo que acabamos de discutir.
A intenção do conteúdo foi, desde o início, mostrar a relação daquilo que estudamos com a prática.
O foco foi amplamente voltado à indústria, mas a utilidade de tudo que abordamos estende-se a todas
as áreas. Por exemplo, caso seja necessário calcular o percentual de funcionários que trabalharam
mais ou menos o tempo médio, a quantidade de carros que se espera passar por uma rodovia em um
final de semana, ou então o lucro previsto para uma loja, em um determinado mês, pode-se buscar a
aplicação da distribuição normal.
Você terá diversas oportunidades em sua carreira para visualizar a aplicação daquilo que estudamos
durante esta unidade, além de poder correlacionar a Probabilidade com diversas situações inusitadas.
Entretanto devo deixar algo claro: no início da nossa unidade, questionei a você qual é a variável que
pode nos fazer reduzir a probabilidade de erros. É claro que existem diversas variáveis envolvidas em
cada processo, sendo que o impacto de cada uma varia entre uma situação e outra, mas há uma variável
que influencia a todos: o ser humano.
Cada pessoa pensa, age e se porta de uma maneira diferente. Existem diversos aspectos que in-
fluenciam essas questões, como a criação, a prática, a experiência, entre dezenas de outros. Você, como
profissional, deve buscar compreender isso e, em seguida, fazer o possível para regularizar as ações das
equipes que você gerenciar. Treinamentos são uma ótima forma de reduzir falhas, pois isso padroniza
as ações, diminuindo o desvio padrão daquilo que obtemos, algo que sempre é desejável, e nos deixa
mais próximos da média de resultados que esperamos encontrar.
Conforme já foi dito anteriormente, neste material, é impossível termos um processo que funcione
com 100% de perfeição. Entretanto é possível trabalhar não apenas com ferramentas e equipamentos,
mas também com o psicológico das equipes, para que melhores resultados possam ser atingidos. A
Probabilidade pode ser aplicada a tudo, inclusive aos resultados individuais de cada um! Busque usá-la
a seu favor em sua vida profissional.
126
Agora, que tal você preencher seu mapa mental com aquilo que discutimos durante nossa unidade?
Ele está dividido, mz'ajoritariamente, em três partes: a estatística e probabilidade básica, os tipos
de eventos e as distribuições. Sinalize no mapa qual é o tipo de situação na qual devemos aplicar
cada uma delas, exponha qual é a diferença entre os dois tipos de eventos citados e anote quais
são os passos para a resolução de problemas que envolvem cada uma das distribuições. Isso o(a)
ajudará no momento da prática e nos exercícios disponíveis ao final da unidade!
Descrição da Imagem: um diagrama com a escrita “Estatística e Probabilidade” destacada. Dela, saem quadros menores, sendo
o primeiro com o escrito Estatística Básica, que se divide em dois quadros menores: teorema do produto e teorema da soma. O
segundo quadro apresenta o escrito Eventos, que se divide em quadros menores, com os escritos dependentes e independentes. O
terceiro quadro tem o escrito distribuições, que se divide em três quadros menores, com os escritos “binomial”, “Poisson” e “normal”.
127
1. Assuma uma situação em que você tenha em mãos um baralho de 52 cartas, todas
diferentes entre si. Sua intenção inicial é retirar o ás de copas, aleatoriamente. Deter-
mine a probabilidade dos seguintes eventos ocorrerem:
a) Retirar a carta correta, apenas, na terceira tentativa, sendo que as cartas retiradas nas
duas tentativas anteriores foram devolvidas ao baralho.
b) Retirar a carta correta na terceira tentativa, sendo que as cartas retiradas nas duas
tentativas anteriores não foram devolvidas ao baralho.
c) Retirar a carta correta na primeira tentativa, devolvê-la ao baralho, retirar uma carta
diferente, devolvê-la ao baralho e, em seguida, retirar a carta correta novamente.
128
É correto o que se afirma em:
a) I, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) II e III, apenas.
e) II, III e IV, apenas.
5. Sabe-se que a renda média da população brasileira é igual a R$ 2100,00, com desvio
padrão de R$ 250,00, e que estes dados podem ser representados em uma distribuição
normal. Com base nessas informações, qual a probabilidade de escolhermos, de forma
aleatória, em uma só tentativa, uma pessoa que tenha renda anual entre R$ 2100,00
e R$ 2400,00?
6. Árbitros brasileiros devem passar por testes de aptidão física de alto nível para mostrar
que conseguem suportar 90 minutos de movimentação contínua. Em um dos testes,
relacionado à velocidade, os candidatos devem realizar uma corrida de longa distância
no menor tempo possível. Suponha que o tempo necessário para completar esse teste
tenha uma distribuição normal com média 30 minutos e desvio-padrão de 6 minutos.
Também suponha que, em uma primeira etapa, esse teste foi aplicado com uma amos-
tra de 40 candidatos. Qual a quantidade de candidatos que realizam a corrida, em um
tempo superior a 35 minutos?
129
130
5
Controle Estatístico do
Processo por Atributos
Me. Paulo Otávio Fioroto
O quanto podemos aceitar que nossos resultados variem? Anteriormente, foi afirmado mais de uma
vez que é impossível que um processo seja 100% perfeito, cedo ou tarde, falhas e variações ocorrem.
Entretanto, mesmo que variações ocorram, isso não significa, necessariamente, que uma falha tenha
ocorrido! Pode ser que, em uma garrafa de refrigerante de 2 litros, o volume real seja de 2,01 L. Seria
esse um volume aceitável?
Quem irá dizer isso é o CEP! Alguns cálculos são realizados para que seja determinada uma varia-
ção aceitável em relação ao valor considerado adequado. Se a determinação disser que uma variação
de 20 mL em relação ao padrão está dentro do esperado, então está tudo bem e podemos considerar o
produto como aprovado. Por outro lado, caso não seja aceita uma alteração maior do que 5 mL, somos
obrigados a rejeitar o produto e verificar qual foi a causa de uma variação maior do que a desejada.
Esse raciocínio vale não apenas para variações em relação ao valor nominal de uma embalagem,
mas também para a quantidade de defeitos que pode ser aceita em um processo. Supondo que sejam
produzidas 500 unidades de parafusos, é possível esperar que algumas unidades não saiam com as
propriedades desejadas, já que alguns parafusos serão mais compridos ou mais curtos do que o es-
perado, outros serão levemente tortos, entre outros possíveis problemas. A questão, aqui, é saber até
quantas unidades problemáticas seriam aceitas para que pudéssemos dizer que o lote pode ser aceito.
Essa não é, entretanto, a única pergunta a ser feita. Pode parecer estranho, mas existe uma quan-
tidade mínima de falhas que podemos aceitar para que o lote possa ser considerado adequado? Por
incrível que pareça, existe lógica em realizar essa pergunta, e isso será explicado durante nossa unidade.
Anteriormente, tratamos da Estatística e da Probabilidade. Esses conceitos, apesar de não aparecerem
com tanta intensidade quanto vimos em nossa unidade anterior, têm um peso enorme naquilo que
trataremos a partir de agora. Damos início às tratativas sobre a nossa sétima e última ferramenta da
qualidade a ser apresentada, neste material, o gráfico de controle e suas variações.
O caso que analisaremos, nesta unidade, gira em torno de Fernando, um supervisor de produção
que atua em uma empresa fabricante de tecidos para os mais diversos fins, desde roupas até capas para
sofás. Desde muito pequeno, Fernando sempre se interessou pela arte da pintura, o que o ajudou a
desenvolver suas habilidades, primeiramente como desenhista e, em seguida, como pintor de quadros,
hábito que adotou como hobby. A prática acabou desencadeando uma habilidade muito útil para um
profissional da área de tecidos: a de perceber mudanças mínimas na tonalidade de cores.
Por conta disso, Fernando se tornou absolutamente perfeccionista com as cores dos tecidos pro-
duzidos na empresa em que atua, a Celeme Confecções. Pequenas variações na cor já chamavam sua
atenção e, caso ele não se sinta satisfeito, considera aquele rolo de tecido como falho. Em um primeiro
momento, a principal forma de determinar essas variações era apenas o olhar do profissional. Entre-
tanto, com o crescimento da empresa, foram adquiridos equipamentos para realizar essa função de
maneira mais efetiva e, aparentemente, confiável. Apesar das máquinas serem mais precisas em suas
ações, elas também são propensas a falhas e podem deixar alguns itens problemáticos passarem pela
revisão, enquanto itens adequados podem ser falsamente considerados ruins. Fernando notou que isso
ocorreu, em algumas situações, e decidiu intervir.
132
UNIDADE 5
133
UNICESUMAR
Após trocar essa pequena lâmpada específica, a situação voltou a ser regular. De fato, o equi-
pamento adquirido identificava mudanças mais sensíveis do que os olhos de Fernando, mesmo
treinados, poderiam notar, a média de problemas por lote aumentou para 8 metros, uma margem
um pouco acima daquilo que o supervisor conseguia perceber. Entretanto, apesar da máquina
ter se tornado definitivamente a principal fonte para a identificação de falhas, é impossível subs-
tituir o bom senso e a prática que um ser humano pode fornecer em situações como a descrita.
A situação que Fernando encontrou é algo que pode ocorrer em qualquer empresa, mas que
não é exclusivo para casos como o apresentado. Na verdade, isso é algo que pode ser visto em
situações mais comuns. A altura média de um homem brasileiro é de 1,75 metros, enquanto a
de uma mulher brasileira é de 1,62 metros. É óbvio que nem todos os homens e nem todas as
mulheres terão essa altura, e isso faz com que seja atribuída uma margem de variação.
Vamos supor que essa margem, para homens, seja de 12 centímetros para mais ou para
menos, enquanto a faixa de variação para as mulheres seja de 8 centímetros, também para mais
ou para menos. Isso faria com que qualquer homem com altura entre 1,63 e 1,87 metros fosse
considerado dentro do normal, enquanto mulheres entre 1,54 e 1,70 metros também estariam
em uma faixa de altura considerada comum.
Essa situação se encaixa perfeitamente nos conceitos referentes aos gráficos de controle. A
intenção dessa ferramenta é indicar valores que possam ser considerados dentro do esperado,
ao estabelecer margens de variação. Valores que extrapolem essas margens serão considerados
como incomuns. Em um processo produtivo, tais valores serão considerados como falhas e,
consequentemente, podem gerar a necessidade de análises aprofundadas para compreensão
da origem do problema.
A maioria das pessoas que você conhece certamente se encaixa nessa margem, não é? En-
tretanto, você provavelmente conhece pessoas que estão fora dessas duas faixas de alturas, não
devem ser muitas, claro, mas com certeza deve existir ao menos um indivíduo que seja muito alto
ou muito baixo. Que tal você perguntar a altura de 20 pessoas, sendo 10 homens e 10 mulheres,
com as quais você tenha alguma convivência, e anotá-las? Feito isso, você pode distribuí-las
em um gráfico e compará-las com a altura média para homens e mulheres, além de verificar
se eles se encontram em uma faixa que possa ser considerada como normal. Isso lhe dará uma
noção muito boa da natureza dos gráficos de controle, podendo auxiliá-lo(a) na compreensão
do conteúdo que discutiremos, intensamente, a partir de agora.
Durante esta e as próximas duas unidades, discutiremos diversos formatos de gráficos de
controle. A natureza e a utilidade de cada um deles serão diferentes, mas a finalidade, sempre,
será a de identificar dados que estejam fora do esperado. O foco, em nossas próximas páginas,
será a introdução a essa ferramenta tão relevante e significativa para o CEP. Sendo assim, du-
rante a unidade, o objetivo é que você identifique situações da sua vida pessoal que possam
se utilizar de gráficos de controle. Quais são os casos que poderiam ser controlados com base
nessa ferramenta? A utilidade dela vai além da indústria? Inclusive, é muito provável que você
já faça uso do raciocínio por trás dos gráficos de controle de forma informal e inconsciente.
Use sua criatividade para pensar a respeito, pois voltarei a falar casos comuns de aplicações, ao
final da nossa discussão!
134
UNIDADE 5
DIÁRIO DE BORDO
135
UNICESUMAR
Por outro lado, caso um ou mais pontos estejam em uma posição abaixo do LIC ou
acima do LSC, pode ser necessário tomar alguma ação corretiva diante da situação, pois
isso é um indício de que pode haver um problema no processo (MONTGOMERY, 2017).
O quarto e último item obrigatório em qualquer gráfico de controle são os dados co-
letados do processo, os quais serão representados por pontos posicionados no decorrer
do gráfico e estarão ligados entre si por meio de segmentos de reta, pois isso facilita a
visualização da evolução do procedimento. Os dados são referentes às amostras anali-
sadas. Deve ficar claro que o termo “amostra” não é sinônimo de “unidade”, ou seja, uma
amostra pode ser composta por mais de uma única unidade (VIEIRA, 2014).
A Figura 1 apresenta um gráfico de controle em seu formato mais simples, contendo
os quatro itens citados anteriormente. Ressalta-se que, para facilitar a visualização no mo-
mento da leitura, serão usados gráficos com 15 pontos neste material, mas essa quantidade
pode variar conforme o processo; geralmente, usam-se gráficos com 20 ou mais pontos.
25
20
Peso (g)
15
10
5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 1 - Exemplo de gráfico de controle / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 5 do eixo vertical, outra indicando a média, próxima ao valor 14 do eixo vertical, e uma
próxima ao valor 23 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.
136
UNIDADE 5
Dados (g)
38 29 40 37 24 40 32 40 36 21 29 31 27 30 29
Tabela 1 - Dados coletados para montagem de gráfico de controle / Fonte: o autor.
Neste caso, temos uma quantidade n de observações que é igual a 15. Para determinar a média x , basta
que todos os dados observados sejam somados e divididos pelo valor de n. Assim:
38 29 40 37 24 40 32 40 36 21 29 31 27 30 29
x 32, 20
15
Além da determinação da média, é necessário determinar o desvio padrão entre os dados. Este cál-
culo se dá com base no desvio padrão entre os dados observados, que é determinado por meio das
Equações 1 ou 2:
S( X µ)2
σ (desvio padrão populacional) (1)
N
S( X x)2
s (desvio padrão amostral) (2)
n 1
Ambas as Equações 1 e 2 são utilizadas na prática, mas cada uma em seu respectivo caso. A Equação
1 vale, apenas, quando falamos de situações em que temos toda a população analisada, ou seja, um
caso em que tivéssemos 50 amostras e analisássemos todas as 50. A Equação 2, por outro lado, tem sua
aplicação muito mais comum, pois trata de casos em que são analisadas, apenas, algumas amostras
da população total, e não 100%.
Para nosso exemplo, utiliza-se a Equação 2, já que tratamos apenas de uma parcela de tudo que
foi produzido. O desvio padrão, neste caso, é igual a 6,04. Sua determinação é importante para que
possamos calcular o LIC e o LSC, que são determinados, respectivamente, a partir das Equações 3 e 4:
LIC x 3 s (3)
LSC x 3 s (4)
Por que multiplicamos o desvio padrão por 3 para determinar os limites de controle? Pode-
ríamos multiplicar por um valor diferente? Há alguma relação entre essas equações e a ideia
por trás do Six Sigma?
137
UNICESUMAR
Caso o LIC encontrado seja negativo e tratamos de uma variável que não pode ser negativa, como a
quantidade de parafusos contidos em uma caixa, o comprimento de uma peça ou o peso de uma em-
balagem, o mesmo deve ser considerado como 0. Em casos nos quais o parâmetro possa ser negativo,
como no estudo da temperatura de um ambiente frio, então, não há problemas em usar o LIC que foi,
de fato, calculado (VIEIRA, 2014).
REALIDADE
AUMENTADA
138
UNIDADE 5
No caso do exemplo realizado, teremos o LSC igual a 50,31 g, enquanto o LIC será de
14,09 g. Note que ambos estão igualmente distantes da média, já que a variação foi de 3
desvios padrão para mais ou para menos em relação à média. Com estes valores, podemos,
então, montar o gráfico de controle representado na Figura 2.
60
50
40
Peso (g)
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 2 - Gráfico de controle para a situação apresentada / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 14 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical, e
uma próxima ao valor 50 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.
Novamente, temos uma situação com todos os pontos sob controle e com um processo
controlado. Tenha em mente, porém, que o fato de todos os pontos estarem entre os
limites não significa, necessariamente, que temos um processo controlado!
Nosso desejo é que os pontos sempre estejam distribuídos aleatoriamente ao redor da média e entre
os limites de controle. Caso seja identificado um comportamento não-aleatório, que apresente ten-
dências por parte dos dados, poderemos dizer que o processo não está controlado e que uma ação de
correção deverá ser tomada. O primeiro caso para que seja identificado um processo fora de controle
é aquele em que temos um ou mais pontos que ultrapassem os limites, conforme exposto na Figura 3.
139
UNICESUMAR
70
60
50
Peso (g)
40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 3 - Gráfico de controle com um ponto fora de controle / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o
limite inferior, próximo ao número 9 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical,
e uma próxima ao valor 55 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Um dos pontos está
acima da linha que indica o limite superior, sendo destacado com um círculo vermelho.
Não é raro que, na prática, quando houver apenas um ponto fora de controle, ele seja
descartado e substituído por outro dado coletado aleatoriamente. Caso haja mais de um
ponto nessa situação, o cenário é diferente e deve-se investigar a causa raiz. A segunda
situação que indica um processo fora de controle é a existência de muitos pontos seguidos
acima ou abaixo da média. Isso indica que o comportamento do processo é o de produzir
unidades com alguma tendência, o que foge da aleatoriedade desejada, conforme exposto
no gráfico da Figura 4.
50
45
40
Peso (g)
35
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 4 - Gráfico de controle com uma sequência de pontos acima da média / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 23 do eixo vertical, outra indicando a média, próxima ao valor 34 do eixo vertical, e
uma próxima ao valor 45 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Há uma sequência
de vários pontos localizados acima da média, sendo destacados por um retângulo vermelho.
140
UNIDADE 5
Considera-se que a presença de oito pontos, seguidos do mesmo lado da média, configura
essa tendência (MONTGOMERY, 2017). A terceira possibilidade ocorre, quando temos
vários pontos seguidos crescendo ou decrescendo continuamente. Isso indica uma falha
durante parte do processo, fazendo com que a produção de um item influencie direta-
mente na do outro. Um exemplo disso está representado na Figura 5.
50
45
40
Peso (g)
35
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Figura 5 - Gráfico de controle com tendência de aumento / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 15 do eixo vertical, outra indicando a média, próxima ao valor 30 do eixo vertical, e
uma próxima ao valor 45 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente. Vários pontos criam
algo que se aproxima de uma reta crescente no meio do gráfico, destacados por um retângulo vermelho.
O efeito contrário, de redução, também indicaria uma falha. Neste caso, seis pontos
seguidos já podem indicar a presença de alguma causa não-aleatória. Por último, caso
haja uma tendência comportamental contínua, pode-se considerar a existência de uma
situação indesejável, influenciando o processo. Observe o gráfico exposto na Figura 6 e
tente encontrar um padrão de comportamento.
141
UNICESUMAR
45
40
35
Peso (g)
30
25
20
15
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LIC LSC Média Dados
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 20 do eixo vertical, outra indicando a média, próxima ao valor 32 do eixo vertical, e uma
próxima ao valor 44 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente acima e abai-
xo da média, criando um padrão de dois pontos acima da média e um abaixo, o que se repete de maneira ininterrupta.
Em um primeiro momento, pode parecer que o gráfico está aleatorizado. Entretanto, com
um pouco mais de atenção, é possível perceber que, a cada dois pontos seguidos acima da
média, temos um ponto abaixo dela. Isso indica, novamente, que as duas primeiras obser-
vações têm influência sobre a terceira observação, padrão que se segue continuamente.
Novamente, um indício forte de que não há aleatoriedade.
Para finalizar nossa introdução aos conceitos básicos dos gráficos de controle, discutimos
os dois tipos gerais que existem para a ferramenta. Estes tipos são relacionados à natureza
da informação coletada e ao que é monitorado.
O primeiro tipo é o gráfico de controle por atributos , que será nosso ponto focal, no
restante desta unidade. Este é o formato usado, quando o que se avalia não é medido em uma
escala contínua ou quantitativa, ou seja, quando apenas desejamos mensurar a quantidade
de itens defeituosos ou não-defeituosos, ou, então, a quantidade de defeitos que estão pre-
sentes em cada unidade analisada, usamos a categoria de atributos (LOUZADA et al., 2013).
O segundo tipo é o gráfico de controle para variáveis, os quais serão estudados a
fundo, nas próximas duas unidades. Neste caso, são analisados os dados expressos em
uma escala contínua de medida, como temperatura, peso, comprimento ou qualquer outra
característica que precise de medições (LOUZADA et al., 2013).
Dentro de cada uma das categorias de gráficos, existem diversos subtipos, sendo cada
um mais adequado para cada tipo de situação. Para os gráficos de controle por atributos,
temos quatro tipos comumente aplicados: os gráficos p, np, c e u. Iniciaremos pelo estudo dos
gráficos usados para o controle da frequência de itens defeituosos, que são os tipos p e
np. A diferença entre ambos mora em apenas um aspecto, o qual será esclarecido em breve.
142
UNIDADE 5
Interpretando a Tabela 2, temos que a amostra 1, que é composta por 30 peças, tem 8 peças com defeito,
enquanto a amostra 2, também composta por 30 peças, tem 13 peças defeituosas, e assim por diante.
Para a montagem do gráfico p, precisamos, primeiramente, determinar a proporção de itens com falha,
em cada uma das amostras. Isso é feito ao se dividir a quantidade de defeitos (d) pelo tamanho de cada
amostra (n), conforme a Equação 5:
di
pi = (5)
n
8
Assim, tomando como exemplo a primeira amostra, teremos p= 1 = 0, 267 . A Tabela 3 adiciona o
30
valor de p para cada uma das amostras analisadas na Tabela 2.
143
UNICESUMAR
O segundo passo é determinar o valor médio das proporções, o qual é representado por p . Para tanto,
basta somarmos todos os valores de p e dividir pela quantidade de amostras, ou seja:
0, 267 0, 433 0, 167 0, 200 0, 400 0, 133 0, 100 0, 233 0, 300 0,3367 0, 367 0, 433 0, 200 0, 333 0, 267
p 0, 280
15
p (1 p ) (6)
s
n
Em que n é o tamanho de observações em cada amostra, ou seja, 30. Tenha em mente que a Equação
6 serve, apenas, para o cálculo do desvio padrão, quando usamos o gráfico p; outros gráficos usarão
outras equações, as quais podem, ou não, ter uma estrutura similar. Por último, determinamos os limites
inferior e superior de controle com as Equações 7 e 8, respectivamente:
LIC p 3 s (7)
LSC p 3 s (8)
144
UNIDADE 5
Para o nosso exemplo, o desvio padrão é igual a 0,082, fazendo com que nosso LIC e
nosso LSC sejam, respectivamente, 0,034 e 0,526. Assim, nosso gráfico de controle p será
estruturado conforme a Figura 7:
0,6
Proporção de defeitos
0,5
0,4
0,3
0,2
0,1
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC p
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 0,04 do eixo vertical, outra indicando a média, próxima ao valor 0,28 do eixo vertical, e
uma próxima ao valor 0,52 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e
aleatoriamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.
s np (1 p ) (9)
145
UNICESUMAR
Assim, o desvio padrão para este caso será igual a 2,459. O LIC e o LSC serão calculados
conforme as Equações 10 e 11:
LIC np 3 s (10)
LSC np 3 s (11)
Isso torna o LIC e o LSC para nosso gráfico np iguais, respectivamente, 1,022 e 15,778. Como
temos todos os dados, podemos finalizar o gráfico de controle, representado na Figura 8.
18
Quantidade de defeitos
16
14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC np
Figura 8 - Gráfico np para o exemplo proposto / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 1 do eixo vertical, outra indicando a média, próxima ao valor 8 do eixo vertical, e uma
próxima ao valor 16 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.
Note que os gráficos das Figuras 7 e 8 têm exatamente a mesma estrutura, havendo mu-
danças apenas nos valores do eixo vertical. Isso mostra que os gráficos p e np são iguais e
podem ser interpretados da mesma forma. A única diferença é que, enquanto o primeiro
usa a proporção, o segundo usa as quantidades absolutas.
146
UNIDADE 5
Até o momento, nossos gráficos de controle trataram da quantidade de itens defeituosos em cada
amostra. Mas se um item tiver mais do que um defeito? Isso é algo que pode acontecer! Por exemplo,
é possível que seu celular caia no chão, fique com a tela quebrada e com problemas na caixa de som,
isso seria um caso com duas falhas em uma única unidade. Na produção de um item, pode ser usado
o mesmo raciocínio, em que ele é gerado com duas falhas diferentes, ao mesmo tempo. Isso é comum
em produtos que envolvem muitas partes, como eletrônicos ou automóveis.
A última parte da nossa unidade terá início agora, em que focaremos nos dois últimos tipos de grá-
ficos de controle para atributos. Para analisar situações como as citadas no parágrafo anterior, temos os
gráficos de controle c e u . Ambos trabalham com a quantidade de defeitos por amostra, e não apenas
com a quantidade de itens defeituosos.
Vamos iniciar tratando do gráfico de controle c , cujo foco é apresentar a quantidade de defeitos por
item ou por lote. Novamente, podemos ter amostras constituídas por mais de uma unidade, de forma a
ter dados com menores chances de desvio diante da realidade (RAMOS; ALMEIDA; ARAÚJO, 2013).
A quantidade de defeitos estimada é representada pela letra c cujo valor pode ser determinado de
duas maneiras, a partir de uma estimativa feita com base no conhecimento em relação ao processo ou
a partir da quantidade média de falhas entre as amostras coletadas.
Para exemplificar, consideramos os dados da Tabela 4, que apresenta a quantidade de defeitos em
computadores produzidos por uma empresa de tecnologia. Cada amostra contém 10 unidades, visto
que, por ser um item de alto valor agregado, não é plausível ter amostras com muitas unidades.
Neste exemplo, iremos considerar que o valor de c é a média
Amostras
Quantidade entre as quantidades de defeitos encontrados em cada amostra,
(10 unida-
de defeitos
des cada) o que costuma ser representado com a expressão c . O resulta-
1 3 do será igual a 7. Estimar um valor para c só é recomendado,
2 6
quando já se possui certo conhecimento a respeito da natureza
3 7
4 4 do processo de produção analisado, o que não é o nosso caso. O
5 9 desvio padrão é determinado a partir da determinação da raiz
6 1 quadrada de c, ou seja, colocando em termos matemáticos a partir
7 12
8 5 da Equação 12:
9 7
10 9 s= c (12)
11 2
12 10
13 9 Tratando, especificamente, deste caso, temos que o desvio padrão é
14 11 igual a 2,65. A determinação do LIC e do LSC, novamente, consi-
15 12
derara a variação de três desvios padrão para mais ou para menos,
Tabela 4 - Quantidade de defeitos por
amostra / Fonte: o autor. conforme as Equações 13 e 14:
147
UNICESUMAR
LIC c 3* c (13)
LSC c 3* c (14)
O que faz com que o LIC do nosso exemplo seja igual a 0, visto que o resultado do cálculo
é negativo e, como é impossível ter uma quantidade negativa de defeitos, assumimos o
valor zerado. Além disso, chegamos ao LSC igual a 14,95. Isso faz com que nosso gráfico
seja estruturado conforme a Figura 9:
16
Quantidade de defeitos
14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC Dados
Figura 9 - Gráfico c para o exemplo proposto / Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 7 do eixo vertical, e uma
próxima ao valor 15 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleato-
riamente acima e abaixo da média, gerando uma linha que sobe e desce continuamente.
Neste caso, temos um processo que pode ser considerado como controlado.
148
UNIDADE 5
Dentre os gráficos de controle para atributos, pode-se perceber que o tipo c é o mais
simples de ser estruturado, mas não é o único voltado para a análise da quantidade de
defeitos dentro de um grupo de amostras. O gráfico u também tem essa finalidade,
mas é aplicado em casos diferentes, em que temos amostras e subamostras envolvidas.
Para compreender o conceito de “amostras” e “subamostras”, imagine uma situação
na qual uma empresa produz enlatados e os embala em caixas que contêm 200 latas.
Entretanto, dentro dessa caixa grande, essas 200 latas estão separadas em quatro caixas
menores, cada uma com um total de 50 latas. Nossa amostra maior é a caixa grande, com
200 latas, enquanto nossas subamostras são as caixas menores, cada uma com 50 unidades.
São em situações como essa que devemos usar o gráfico u, quando nossa amostra tiver
divisões internas, pois devemos analisar, antes, as subamostras para que seja possível
tomar uma decisão quanto à amostra em si.
O valor da incógnita u será referente à média de defeitos em cada amostra, e é o
primeiro passo para que possamos estruturar nosso gráfico de controle. Sendo assim,
seguindo com o exemplo das latas, supomos que, na primeira subamostra de 50 unidades,
temos 7 delas com falhas, enquanto temos mais 13 na segunda, 2 na terceira e 4 na quarta
subamostra, respectivamente. A média entre estes dados será equivalente ao valor u da
amostra, o resultado é igual a 6,5, e este será o ponto referente à nossa primeira amostra
em nosso gráfico de controle. Em outras palavras, a média entre os dados das subamostras
é equivalente ao tamanho da nossa amostra.
Feito isso, devemos determinar o u das demais amostras, sempre seguindo o mesmo
procedimento para cada uma delas. É importante citar que cada amostra deve ter o
mesmo número de subamostras. Dito isso, consideramos mais sete amostras junto ao
nosso exemplo, as quais serão representadas na Tabela 5.
149
UNICESUMAR
Nº de u da Nº de u da
Amostra Subamostra Amostra Subamostra
defeitos amostra defeitos amostra
1 7 1 12
2 13 2 3
1 6,5 5 6,75
3 2 3 6
4 4 4 6
1 5 1 5
2 3 2 0
2 6 6 2,5
3 9 3 2
4 7 4 3
1 6 1 0
2 5 2 9
3 5,75 7 4
3 4 3 6
4 8 4 1
1 2 1 7
2 9 2 6
4 7 8 6,75
3 12 3 11
4 5 4 3
Tabela 5 - Quantidade de defeitos por subamostra e quantidade média de defeitos por amostra / Fonte: o autor.
Agora que temos o valor de u para as oito amostras, devemos determinar u , que nada
mais é do que a média entre os valores de u da amostra. O resultado será igual a 5,66,
valor que será a média em nosso gráfico de controle. Como de costume, o segundo dado
que encontraremos é o desvio padrão. O valor depende de u , que já foi calculado, e do
tamanho n da subamostra, que é igual a 50. Seu cálculo se dá por meio da Equação 15:
u
s= (15)
n
Para nosso exemplo, o resultado será igual a 0,336. Enfim, podemos calcular nossos
limites de controle e, assim como fizemos durante toda a nossa unidade, seguiremos o
padrão de considerá-los como valores a uma distância de três desvios padrão da média.
LIC u 3 * s 5, 66 3 * 0, 336 4, 652
LSC u 3 * s 5, 66 3 * 0, 336 6, 668
Por fim, podemos realizar a montagem do nosso gráfico u, que pode ser visto no gráfico
da Figura 10:
150
UNIDADE 5
Quantidade de defeitos
7
6
5
4
3
2
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC Dados
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite
inferior, próximo ao número 4,8 do eixo vertical, outra indicando a média, próxima ao valor 5,7 do eixo vertical, e
uma próxima ao valor 6,6 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente entre
os limites, acima do limite superior e abaixo do limite inferior.
Podemos notar que temos um processo que foge muito do controle, isso ocorre devido
ao fato de termos um baixo desvio padrão entre nossos dados, o que torna os limites de
controle relativamente próximos à média. Isso faz com que até mesmo variações pequenas
possam extrapolar os limites.
Durante toda a unidade, tratamos de situações que estavam dentro ou fora de controle, de
forma que discutimos também o que faz um processo ser considerado como fora de controle.
Entretanto, deve-se ter em mente que nem sempre precisamos considerar a interpretação
de um gráfico como absoluta, de fato, eles devem ser uma base importante para a tomada
de decisões, mas nada impede que sejam coletados novos dados e montados novos gráficos.
Caso haja um único ponto que extrapole os limites, é possível trocar os dados referentes
a ele, pois pode ter ocorrido uma causa pontual na coleta daqueles dados. Por outro lado,
caso exista mais de um ponto inadequado ou haja algum comportamento que apresente
tendências entre os dados, deve-se ter muito cuidado com a forma como a situação será
tratada. O gráfico de controle é uma ferramenta versátil e útil, mas, assim como todas as
outras, deve-se ter bom senso na hora de utilizá-lo.
151
UNICESUMAR
152
Para relembrar o que discutimos, durante esta unidade, que tal preencher o mapa mental pre-
parado especialmente para os tópicos apresentados? Foque, primeiramente, na interpretação
dos diagramas e nas situações que são consideradas como problemáticas em um gráfico de
controle, respondendo quais são as distribuições que indicam falta de controle sobre o processo.
Lembre-se que desejamos aleatoriedade na distribuição! Em seguida, preencha as características
dos quatro gráficos de controle para atributos, apresentados durante nossa discussão. Apresente
as particularidades de cada um dos modelos e quais são as situações em que devemos aplicar
cada um deles. Caso deseje, anote também como é calculado o desvio padrão para cada um dos
tipos de gráficos que discutimos durante nossa unidade!
CONTROLE
Descrição da Imagem: um quadro com o escrito “Gráficos de controle destacado”, com espaços para as definições de “situações
que indicam falta de controle” e para a definição do que são os gráficos p, np, c e u.
153
1. A carta ou gráfico de controle é utilizada para o acompanhamento de um processo. Este
gráfico determina estatisticamente uma faixa denominada limites de controle que é limi-
tada pela linha superior (limite superior de controle) e uma linha inferior (limite inferior
de controle), além de uma linha média. O objetivo é verificar, por meio do gráfico, se o
processo está sob controle, isto é, isento de causas especiais (MONTGOMERY, 2017).
A respeito dos gráficos de controle, são feitas as afirmações a seguir:
I) A presença de um único ponto abaixo do limite inferior ou acima do limite superior
não indica problemas em qualquer hipótese.
II) Se metade dos pontos de um gráfico de controle estiverem acima da linha média e
metade abaixo, então o processo certamente está sob controle.
III) Um gráfico de controle desejável mostra uma distribuição aleatória de resultados
entre as linhas de limite inferior e superior de controle.
IV) Caso a tendência de um gráfico de controle seja ter resultados menores, isso pode
ser encarado como problema, porém uma tendência a resultados maiores mostra
melhoras por parte do processo.
154
I) Quantidade de erros de digitação em cada página de um livro.
II) Variação no volume de latas de refrigerante.
III) Quantidade de aparelhos celulares defeituosos que saem de uma linha de fabricação.
IV) Controle do peso de tijolos usados em uma construção.
São eventos que podem ser analisados por meio de gráficos de controle para atributos:
a) I, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, II e IV, apenas.
e) I, II, III e IV.
4. Considere que temos três linhas de produção, e para cada uma delas foi utilizado um
gráfico de controle diferente. Os resultados para cada um dos gráficos são descritos
abaixo:
• Linha 1: o gráfico de controle indicou que as medidas estavam distribuídas alea-
toriamente em torno da média, com todos os valores dentro dos limites inferior e
superior.
• Linha 2: as medidas estavam todas entre a média e o limite superior, de forma
que elas assumiam um comportamento descendente em direção ao valor médio.
• Linha 3: todas as medidas estavam entre o valor médio e o limite inferior, formando
praticamente uma linha reta.
Com base no que foi explicado, assinale a alternativa correta.
a) As linhas 1 e 2 estão com funcionamento adequado, enquanto a linha 3 deve passar
por manutenção.
b) A linha 3 está com funcionamento adequado, enquanto as linhas 1 e 2 devem passar
por manutenção.
c) A linha 2 está com funcionamento adequado, enquanto as linhas 1 e 3 devem passar
por manutenção.
d) A linha 1 está com funcionamento adequado, enquanto as linhas 2 e 3 devem passar
por manutenção.
e) As linhas 2 e 3 estão com funcionamento adequado, enquanto a linha 1 deve passar
por manutenção.
155
5. Os seguintes dados são refe- Amostra
Quantidade de falhas
(25 unidades cada)
rentes à quantidade de falhas
encontradas em amostras co- 1 10
letadas em uma fábrica de re- 2 5
lógios de pulso: 3 0
4 7
5 9
6 5
7 8
8 8
Com base nos dados coletados:
9 4
a) Estruture o gráfico de con-
10 3
trole c para o processo em
11 3
questão. 12 4
b) Identifique se o processo 13 6
pode ser considerado como 14 9
controlado e justifique sua 15 7
conclusão. Fonte: o autor.
6. Os dados, a seguir, foram co- Amostra (com 40 uni- Total de peças com
dades cada) defeito
letados de forma a verificar
quantas unidades de potes 1 2
plásticos apresentavam falhas 2 5
3 0
em amostras de 40 unidades.
4 2
5 10
6 1
7 2
8 4
a) Com base nos dados apre- 9 0
10 5
sentados, estruture o grá-
11 3
fico p para as amostras em
12 1
questão.
13 6
b) Identifique se o processo 14 7
pode ser controlado, justifi- 15 10
cando sua conclusão. Fonte: o autor.
156
157
158
6
Controle Estatístico
do Processo por
Variáveis
Me. Paulo Otávio Fioroto
160
UNIDADE 6
161
UNICESUMAR
162
UNIDADE 6
A variação que Vicente encontrou entre cada uma das cápsulas é algo que pode ocorrer com qualquer
item produzido em massa. Biscoitos e salgadinhos industrializados são bons exemplos disso. Supondo
que o peso apresentado na embalagem seja de 100 gramas e que há aproximadamente 50 salgadinhos
dentro dela, naturalmente iríamos esperar que cada um deles pesasse dois gramas.
Na prática, entretanto, isso definitivamente não é o que ocorre. Qualquer pessoa que já tenha comido
um pacote de salgadinhos sabe que eles são disformes e que seus tamanhos e formatos variam dentro
de uma mesma embalagem. Enquanto alguns deles são mais compridos, outros são muito pequenos,
algo que ocorre durante o próprio processo de produção. Isso faz com que alguns deles sejam mais
pesados do que outros. Mas, diferente do estudo de caso, em que tratamos de remédios, contanto que
o peso somado dos salgadinhos corresponda ao indicado no pacote, isso não influencia negativamente
na qualidade do produto.
Se possível, realize esse teste, usando uma embalagem qualquer de salgadinhos e uma balança de
precisão. Ao dividir o peso indicado na embalagem pela quantidade de salgadinhos dentro dela, você
obterá um peso médio. O salgadinho mais pesado, porém, com certeza terá um peso relativamente
maior do que o mais leve.
Nossa unidade volta-se, principalmente, à abordagem da importância da variação interna de resul-
tados de processos. Tão importante quanto ter nossos resultados atingindo a média, é fazer com que
ocorra pouca variação entre eles. Em nada adianta termos uma produção que desenvolva itens que
atinjam a média esperada, mas que tenha resultados individuais irregulares.
Tudo que discutimos na unidade anterior continuará sendo usado, mas adicionaremos novos
elementos aos cálculos dos principais componentes de nossos gráficos de controle. Tenha em mente,
porém, que esses não são os últimos gráficos de controle a serem discutidos em nosso material. Du-
rante a unidade, pense: qual é o aspecto que, ainda, falta ser considerado na montagem e na análise
dos gráficos de controle?
DIÁRIO DE BORDO
163
UNICESUMAR
Conjunto de Conjunto de
Média 1 (g) Média 2 (g)
Observações 1 (g) Observações 2 (g)
3,4 1,0
3,6 1,3
3,5 6,0
3,35 6,2
As observações presentes no Conjunto 1 são próximas umas das outras e têm média
3,5 g, isso significa que está tudo de acordo com o desejado pela empresa, pois todas as
cápsulas têm peso próximo ao esperado. A variação entre a maior e a menor é de 0,3 g e,
apesar da possibilidade de ser reduzida, pode ser vista como algo satisfatório.
Por outro lado, as observações do Conjunto 2 variam muito, a menor delas é igual a 1
g e a maior ultrapassa a marca de 6 g. Isso indica grande variação das unidades produzi-
das, o que pode ser visto como uma irregularidade por parte da produção. Entretanto, se
considerássemos apenas o valor da média em nossa análise, teríamos a impressão de que
o processo funciona adequadamente, pois seu valor é exatamente aquilo que esperamos
obter de um processo regularizado.
164
UNIDADE 6
Isso não significa que a média é um valor inutilizável, muito pelo contrário, conti-
nuaremos a utilizá-la em nossos estudos regularmente. É necessário, todavia, ter uma
forma de controlar a variação entre os dados; caso contrário, nosso processo poderá fugir
do controle, sem que tenhamos a menor notícia. Para isso, pode ser usado um segundo
gráfico, este atuará em combinação com o gráfico das médias no momento da análise.
A partir de agora, referimo-nos ao gráfico de controle das médias como gráfico x,
sendo x a incógnita que será atribuída para representar a média em nossos cálculos. Dito
isso, o primeiro valor que utilizaremos em conjunto ao gráfico x para analisar a variação
entre os dados é a amplitude, representada pela letra R (do inglês, range). A combinação
dos dois gráficos é conhecida, no meio do CEP, como gráfico x-R, sendo este conjunto
de gráficos constantemente aplicado na indústria (RAMOS; ALMEIDA; ARAÚJO, 2013).
Para o gráfico x-R, cada amostra deve ser composta por uma certa quantidade
de observações, a qual pode chegar a, no máximo, 10 observações. Uma quantidade
maior do que essa exigirá outra combinação de gráficos, que será apresentada, ainda, nesta
unidade. Deve ficar perfeitamente claro que a quantidade de amostras não é relevante
na escolha do gráfico x-R, e sim a quantidade de observações dentro de cada amostra!
O fato de utilizar poucas observações por amostras torna esse gráfico o mais utilizado
na prática (VIEIRA, 2014).
A amplitude se trata da diferença entre a maior e a menor observação que
compõem uma mesma amostra. Os valores intermediários em nada interferem nesse
cálculo; do mesmo modo, a ordem com que as observações são registradas será irrele-
vante nesse caso. Na Tabela 2, retomamos os conjuntos de dados apresentados na Tabela
1, mas, dessa vez, adicionaremos o dado “amplitude”.
Conjunto de Conjunto de
Média 1 Amplitude Média 2 Amplitude
Observações Observações
(g) 1 (g) 2
1 (g) 2 (g)
3,4 1,0
3,6 1,3
3,5 6,0
3,35 6,2
Tabela 2 - Conjuntos de observações do peso das cápsulas e suas respectivas médias e amplitudes
Fonte: o autor.
A amplitude do primeiro conjunto comparou os valores iguais a 3,65 e 3,35 g, cuja di-
ferença é de 0,3, enquanto a amplitude do segundo conjunto considerou o maior valor,
6,2 g, e o menor, 1,0 g, o que faz com que a amplitude seja de 5,2. Se tivermos acesso a
essa informação junto à média, será muito simples entender que algo de errado ocorre
no segundo conjunto, visto que a variação entre as observações está muito alta.
165
UNICESUMAR
O que torna mais fácil a identificação de variações entre amostras: observações coletadas em
seguida ou observações coletadas de forma espaçada? Pois bem, é importante que as obser-
vações que compõem cada amostra sejam coletadas em momentos próximos da produção,
mas que cada amostra seja coletada em intervalos diferentes! Isso dá ao gráfico uma maior
abrangência, pois expõe a produção em momentos diferenciados.
A partir do que foi exposto até o momento, damos início, agora, à explicação do passo a passo da
montagem do gráfico x-R. Para facilitar a compreensão de cada uma das etapas, procedemos com a
realização de um exemplo, com todos os pontos, cálculos e tabelas envolvidos, devidamente, apresen-
tados e explicados; recomenda-se que você os realize durante a leitura da unidade e que, para facilitar
a montagem dos gráficos, use o Microsoft Excel. Para todos os cálculos realizados, durante a conti-
nuidade da unidade, chamamos a quantidade de amostras de m e a quantidade de observações de n.
Com uma folha de verificação, Vicente coletou 60 observações das cápsulas de remédios produzi-
das pela sua empresa e, para evitar o mesmo problema ocorrido no estudo de caso inicial, optou por
analisar a variação entre os dados. Para simplificar a análise, todas as observações foram organizadas
em dez grupos, cada um contendo 6 observações. A Tabela 3 apresenta o peso, em gramas, de cada
uma das cápsulas observadas, já organizadas em suas devidas amostras.
Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10
Obs. 1 3,82 3,85 4,06 3,40 3,85 3,43 3,06 4,05 3,63 3,48
Obs. 2 3,90 3,22 3,69 3,44 3,20 3,02 3,54 3,95 3,62 3,19
Obs. 3 3,33 3,61 3,12 3,83 3,44 3,19 3,99 3,27 3,13 3,19
Obs. 4 3,86 3,87 3,23 4,05 4,04 3,26 3,36 4,06 3,60 3,36
Obs. 5 3,27 3,18 3,11 4,05 4,05 3,87 3,11 4,02 3,21 3,14
Obs. 6 3,31 3,18 3,61 3,56 3,59 3,25 3,48 3,15 3,99 3,88
Tabela 3 - Pesos das observações coletadas do processo de produção de cápsulas para o gráfico x-R / Fonte: o autor.
166
UNIDADE 6
3, 07 5, 07 4, 41 3, 54 5, 34 3, 09
x1 4, 09
6
3, 82 3, 90 3, 33 3, 86 3, 27 3, 31
x1 3, 58
6
Com base no que foi apresentado na unidade, até o momento, sabemos que cada cápsula deve pesar 3,5
g. Como nossa média calculada é de 3,58 g, se dependêssemos apenas da primeira amostra, imediata-
mente, pensaríamos que o processo atende às nossas expectativas. É aí que mora a importância de ter
várias amostras: podem ocorrer variações diferentes em outros momentos, e isso implica a ocorrência
de uma análise mais extensa de dados.
Após esse processo ser realizado para todas as amostras, deve-se determinar a amplitude entre os
dados contidos em cada uma delas. Como apresentado anteriormente, a amplitude se trata da diferença
entre o maior valor e o menor valor, dentro de uma mesma amostra. Deve ser dada muita atenção à
identificação dos valores em questão, pois qualquer erro pode gerar um erro em nosso gráfico.
Para nossa primeira amostra, temos como maior valor 3,90 g, enquanto o menor valor é de 3,27
g. Subtraindo o menor valor do maior, encontramos uma amplitude de 0,63 g. Novamente, o mesmo
procedimento deve ser realizado para cada uma das amostras. Tanto os dados pertinentes às médias
quanto às amplitudes devem ser prontamente registrados na tabela, dando a ela a estrutura da Tabela 4:
Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10
Obs. 1 3,82 3,85 4,06 3,40 3,85 3,43 3,06 4,05 3,63 3,48
Obs. 2 3,90 3,22 3,69 3,44 3,20 3,02 3,54 3,95 3,62 3,19
Obs. 3 3,33 3,61 3,12 3,83 3,44 3,19 3,99 3,27 3,13 3,19
Obs. 4 3,86 3,87 3,23 4,05 4,04 3,26 3,36 4,06 3,60 3,36
Obs. 5 3,27 3,18 3,11 4,05 4,05 3,87 3,11 4,02 3,21 3,14
Obs. 6 3,31 3,18 3,61 3,56 3,59 3,25 3,48 3,15 3,99 3,88
Média 3,58 3,49 3,47 3,72 3,69 3,34 3,42 3,75 3,53 3,37
Ampli-
0,63 0,69 0,95 0,65 0,85 0,85 0,93 0,91 0,86 0,74
tude
Tabela 4 - Médias e amplitudes dos pesos de cada amostra / Fonte: o autor.
É de extrema importância que os valores sejam registrados para cada uma das amostras, pois as am-
plitudes e médias serão os dados representados nos gráficos x e R, respectivamente. Após as determi-
nações, deve-se determinar a média global, que, de forma simples, é a “média entre as médias”. Para
tanto, é realizado o cálculo, usando a Equação 2:
x1 x2 ... xm
x (2)
m
167
UNICESUMAR
3, 58 3, 49 3, 47 3, 72 3, 69 3, 34 3, 42 3, 75 3, 53 3, 37
x 3, 54
10
O mesmo procedimento deve ser realizado para as amplitudes, de forma que deter-
minaremos a amplitude média. O cálculo se dá por meio da Equação 3:
R1 R2 ... Rm
R (3)
m
Em nosso exemplo, o cálculo ocorre da seguinte forma:
0, 63 0, 69 0, 95 0, 65 0, 85 0, 85 0, 93 0, 91 0, 86 0, 74
R 0, 81
10
Os valores de x e R serão peças essenciais na montagem de ambos os gráficos; na
verdade, eles já são, respectivamente, os valores das médias dos gráficos x e R. Os dados
são os valores de x e R que registramos na Tabela 4. Dessa forma, o que nos falta é a
determinação do LIC e do LSC para cada um dos gráficos. Para a determinação dos
limites do gráfico x, deve-se usar as Equações 4 e 5:
LIC x A2 * R (4)
LSC x A2 * R (5)
168
UNIDADE 6
Como temos seis observações para cada amostra, o valor atribuído para A2 é de
0,483. A partir disso, temos todas as condições necessárias para o cálculo do LIC e
do LSC do nosso gráfico x, conforme apresentados a seguir:
LIC 3, 54 0, 483 * 0, 81 3, 15
LSC 3, 54 0, 483 * 0, 81 3, 93
LIC = D3 * R (6)
LSC = D4 * R (7)
Com isso, podemos, enfim, calcular os limites para o gráfico de controle R. Substi-
tuindo as incógnitas apresentadas nas Equações 6 e 7:
LIC 0=
= * 0, 81 0
=LSC 2=
, 004 * 0, 81 1, 62
169
UNICESUMAR
Enfim, com todos os limites calculados, ambos os gráficos podem ser devidamente estruturados. Os
gráficos x e R, para nosso exemplo, são apresentados, respectivamente, nas Figuras 1 e 2.
4
Peso médio das amostras (g)
3,9
3,8
3,7
3,6
3,5
3,4 Figura 1 - Gráfico x para o peso das cáp-
sulas coletadas por Vicente no exemplo
3,3 apresentado / Fonte: o autor.
3,2
3,1 Descrição da Imagem: um gráfico
3 de controle com 10 amostras varia,
verticalmente, entre 3 e 4. O limite
1 2 3 4 5 6 7 8 9 10 inferior é localizado em 3,15, e o limi-
Número da amostra te superior é localizado em 3,93, com
a média em 3,54. Todos os pontos
estão próximos à média.
Dados Média LIC LSC
1,8
Amplitude do peso entre as unidades
1,6
1,4
1,2
de cada amostra (g)
170
UNIDADE 6
Como é possível notar, com uma breve visualização dos gráficos, nas Figuras 1 e 2, ne-
nhum dos pontos ultrapassou os limites estabelecidos por nossos cálculos, tampouco
houve alguma tendência de comportamentos entre os pontos. Isso é algo positivo, pois
mostra um comportamento regular e com variações esperadas. Entretanto, mesmo em
processos controlados, alguns cuidados devem ser tomados!
Para a interpretação dos gráficos, deve-se ter certeza de que a coleta de amostras
ocorreu de forma aleatória, sem premeditar que, apenas, as observações adequadas
foram verificadas. Além disso, deve-se, sempre, analisar o gráfico R, antes do gráfico x,
pois compreender a variação entre as observações tende a trazer uma visão mais apro-
fundada do processo do que a média, e, caso seja identificada alguma falha, é possível
que, ao controlar a amplitude entre as amostras, controle automaticamente o gráfico
das médias, enquanto o contrário tende a ser menos comum (VIEIRA, 2014).
Considerando as situações possíveis, caso sejam encontrados gráficos R e x controla-
dos, o processo poderá seguir normalmente, pois tende a apresentar bom desempenho.
Caso R esteja controlado, e x não esteja, é provável que tenha ocorrido uma causa especial
para variação, a qual deve ser identificada. Há uma grande probabilidade dessa causa ser
alguma mudança pontual no sistema, como um novo operador, um novo maquinário ou
uma nova matéria-prima, ou então uma máquina desregulada. Ainda, assim, consideran-
do que a variação entre as observações não é alta, não há motivo para alarde.
Quando o gráfico R estiver fora de controle, a situação pode ser preocupante. Um
gráfico R inadequado e combinado a um gráfico x controlado indica a existência de uma
causa especial contínua e que deve ser verificada, pois isso afeta a produção de forma
que, enquanto algumas observações apresentam resultados acima do limite de controle
superior, outras atingem marcas abaixo do limite inferior — situação apresentada em
nosso estudo de caso, quando o gráfico x mascarou a situação ruim do processo.
Por último, caso R e x estejam fora de controle, o processo deve ser estudado por
completo, pois a falha não é apenas pontual. A tendência é que haja mais de uma causa
ou, então, que haja uma causa contínua, pois tanto as amostras quanto a continuidade
do processo foram influenciadas negativamente (VIEIRA, 2014).
Como dito, durante a explicação do gráfico x-R, usamos esse modelo de gráfico
quando temos, no máximo, 10 observações por amostra. Caso nosso n seja maior do que
10, a combinação de gráficos de controle será outra, no caso, o gráfico x-s , em que s se
trata do desvio padrão entre as observações coletadas para uma mesma amostra.
Diferente do que foi dito em relação ao gráfico x-R, em que todas as amostras de-
vem ter a mesma quantidade de observações, as amostras do gráfico x-s podem variar
de tamanho, visto que, pelo fato das amostras serem grande, uma unidade não gera
diferença significativa. Entretanto se recomenda, fortemente, que essa variação de
observações não ocorra!
171
UNICESUMAR
172
UNIDADE 6
Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10
Obs. 1 3,20 4,14 3,24 3,01 2,95 3,90 4,48 3,52 4,47 4,04
Obs. 2 3,61 3,54 3,15 3,10 3,93 3,67 2,89 3,11 3,69 4,45
Obs. 3 3,62 3,22 4,07 2,73 3,26 4,38 4,19 3,45 3,94 3,89
Obs. 4 3,21 3,82 3,42 3,81 3,32 4,87 2,87 3,26 3,71 4,26
Obs. 5 4,00 3,85 3,87 3,51 4,31 3,86 3,48 3,03 3,51 4,36
Obs. 6 3,48 3,20 3,97 3,10 3,10 4,53 4,45 3,31 4,34 4,24
Obs. 7 3,66 3,35 3,08 3,21 3,26 4,08 3,41 3,46 4,13 4,70
Obs. 8 3,99 4,00 3,25 3,32 3,84 4,32 4,17 4,08 3,99 4,18
Obs. 9 3,73 3,40 3,26 3,65 3,27 4,86 4,56 3,81 3,55 4,45
Obs. 10 4,07 3,31 3,15 2,85 3,57 3,97 2,59 4,07 3,72 4,26
Obs. 11 3,88 3,15 4,05 2,95 3,78 3,96 3,44 3,69 3,85 4,80
Obs. 12 3,21 3,80 3,78 2,89 3,78 4,34 3,14 3,24 4,12 4,26
Tabela 7 - Pesos das observações coletadas do processo de produção de cápsulas para o gráfico x-s / Fonte: o autor.
Assim como no exemplo para o gráfico x-R, o primeiro passo, após a coleta dos dados, é determinar a
média entre os dados de cada amostra. Para tanto, usa-se a Equação 1, apresentada durante o exemplo
anterior. Para nossa primeira amostra, a média será determinada com o seguinte cálculo:
3, 20 3, 61 3, 62 3, 21 4, 00 3, 48 3, 66 3, 99 3, 73 4, 07 3, 88 3, 21
x1 3, 64
12
3, 20 3, 61 3, 62 3, 21 4, 00 3, 48 3, 66 3, 99 3, 73 4, 07 3, 88 3, 21
x1 3, 64
12
Novamente, o processo deve ser realizado para cada uma das 10 amostras envolvidas, com os resultados
anotados continuamente. O segundo passo é um dos pontos em que a montagem do gráfico x-s se
diferencia do gráfico x-R, pois, dessa vez, determina-se o desvio padrão entre as observações de cada
amostra. Para isso, usa-se a Equação 8.
1 n
si ( xij xi )2
n 1 j 1
(8)
Na equação, i varia de 1 a m, este é o número de amostras envolvidas; no caso do nosso exemplo, 10. O
cálculo tende a se tornar muito longo e demorado, quando há muitas observações envolvidas, portanto,
recomenda-se o uso de softwares para a determinação do desvio padrão de cada amostra. Calculadoras
científicas também podem chegar ao resultado, sem tomar muito tempo. Assim, a média e desvio
padrão de cada amostra são apresentados na Tabela 8, considerando os devidos arredondamentos.
173
UNICESUMAR
Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra Amostra
1 2 3 4 5 6 7 8 9 10
Obs. 1 3,20 4,14 3,24 3,01 2,95 3,90 4,48 3,52 4,47 4,04
Obs. 2 3,61 3,54 3,15 3,10 3,93 3,67 2,89 3,11 3,69 4,45
Obs. 3 3,62 3,22 4,07 2,73 3,26 4,38 4,19 3,45 3,94 3,89
Obs. 4 3,21 3,82 3,42 3,81 3,32 4,87 2,87 3,26 3,71 4,26
Obs. 5 4,00 3,85 3,87 3,51 4,31 3,86 3,48 3,03 3,51 4,36
Obs. 6 3,48 3,20 3,97 3,10 3,10 4,53 4,45 3,31 4,34 4,24
Obs. 7 3,66 3,35 3,08 3,21 3,26 4,08 3,41 3,46 4,13 4,70
Obs. 8 3,99 4,00 3,25 3,32 3,84 4,32 4,17 4,08 3,99 4,18
Obs. 9 3,73 3,40 3,26 3,65 3,27 4,86 4,56 3,81 3,55 4,45
Obs. 10 4,07 3,31 3,15 2,85 3,57 3,97 2,59 4,07 3,72 4,26
Obs. 11 3,88 3,15 4,05 2,95 3,78 3,96 3,44 3,69 3,85 4,80
Obs. 12 3,21 3,80 3,78 2,89 3,78 4,34 3,14 3,24 4,12 4,26
Média 3,64 3,57 3,52 3,18 3,53 4,23 3,64 3,50 3,92 4,32
Desv. P. 0,32 0,34 0,39 0,34 0,40 0,39 0,70 0,35 0,30 0,25
Tabela 8 - Média e desvio padrão dos pesos de cada amostra / Fonte: o autor.
Após a determinação da média e do desvio padrão de cada uma das etapas, o próximo passo segue a
mesma ideia do que foi realizado no gráfico x-R, que é a determinação da média global e do desvio
padrão médio. O cálculo para a média global segue a Equação 2, apresentada anteriormente, de forma
que nosso exemplo atual terá o seguinte resultado:
3, 64 3, 57 3, 52 3, 18 3, 53 4, 23 3, 64 3, 50 3, 92 4, 32
x 3, 70
10
O cálculo do desvio padrão médio seguirá um raciocínio similar, sendo determinado com base na
Equação 9:
s1 s2 ... sm
s (9)
m
Para o nosso exemplo, usando a Equação 9, o cálculo se dará conforme a seguir:
0, 32 0, 34 0, 39 0, 34 0, 40 0, 39 0, 70 0, 35 0, 30 0, 25
s 0, 38
10
O resultado igual a 0,38 é arredondado e, consequentemente, pode haver desvios em duas casas, após
a vírgula, nos resultados dos cálculos que estão por vir para este exemplo. O uso de duas casas, após a
vírgula, em nossos exemplos, é para fins didáticos, mas, na prática, você pode considerar quantas casas
decimais forem necessária para que o gráfico apresente margens seguras.
174
UNIDADE 6
A partir destes cálculos, temos os valores referentes à média e aos dados de cada um
dos gráficos x-s. Entretanto, assim como discutido, desde a unidade anterior, sabemos que,
ainda, precisamos determinar os limites de controle para cada um dos gráficos. Assim
como ocorreu no gráfico x-R, os limites de controle dependem de valores tabelados. Para
o gráfico x, o LIC e o LSC são, respectivamente, calculados por meio das Equações 10 e 11:
LIC x A3 * s (10)
LSC x A3 * s (11)
Já para o gráfico s, o LIC e o LSC são dados por meio das Equações 12 e 13:
LIC = B3 * s (12)
LSC = B4 * s (13)
Os valores de A3 , B3 e B4 , as- n A3 B3 B4
sim como ocorre para os valores
6 1,287 0,03 1,97
usados no gráfico x-R, são depen-
7 1,182 0,118 1,882
dentes da quantidade de observa-
8 1,099 0,185 1,815
ções utilizadas em cada amostra,
ou seja, do valor n, de forma que 9 1,032 0,239 1,761
a quantidade de amostras é indi- 10 0,975 0,284 1,716
ferente nesse sentido. Para amos- 11 0,927 0,321 1,679
tras com até 16 observações, tais 12 0,886 0,354 1,646
valores podem ser encontrados
13 0,85 0,382 1,618
na Tabela 9.
14 0,817 0,406 1,594
Como o n de nosso exemplo
é igual a 12, nosso A3 será igual a 15 0,789 0,428 1,572
LIC 3, 70 0, 886 * 0, 38 3, 36
LSC 3, 70 0, 886 * 0, 38 4, 04
175
UNICESUMAR
=LIC 0=
, 354 * 0, 38 0, 13
=LSC 1,=
646 * 0, 38 0, 62
Com base nos resultados encontrados, finalmente, temos condições para produzir nossos
gráficos de controle x-s. O gráfico x é apresentado na Figura 3:
4,40
Peso médio das amostras (g)
4,20
4,00
3,80
3,60
3,40
3,20
3,00
1 2 3 4 5 6 7 8 9 10
Número da amostra
Figura 3 - Gráfico x para o peso das amostras coletadas por Vicente no exemplo apresentado / Fonte: o autor.
Descrição da Imagem: um gráfico de controle com 10 amostras varia, verticalmente, entre 3 e 4,4. O limite inferior
é localizado em 3,36 e o limite superior é localizado em 4,04, com a média em 3,70. A maioria dos pontos referen-
tes às amostras está próxima à média, com o ponto 4 abaixo do limite inferior e os pontos 6 e 10 acima do limite.
É perceptível que temos três pontos que fogem de nossos limites, no caso, os pontos 4, 6
e 10. Em uma análise superficial, já sabemos que algum problema acontece no processo,
o qual não parece ser pontual, visto que envolveu três amostras compostas por várias
unidades. Entretanto não devemos nos precipitar.
Assim como é feito com o gráfico x-R, a análise do gráfico s deve vir antes da análise
do gráfico x, pois conhecer o desvio entre os dados nos dá uma maior compreensão sobre
a situação do que checar a média. Dito isso, o gráfico para análise do desvio padrão entre
as observações é apresentado na Figura 4.
176
UNIDADE 6
Descrição da Imagem: um gráfico de controle com 10 amostras varia, verticalmente, entre 0 e 0,8. O limite inferior
é localizado em 0,13 e o limite superior é localizado em 0,62, com a média em 0,38. A maioria dos pontos referentes
às amostras está próximo à média, com o ponto 7 acima do limite superior.
s
s = (14)
c4
177
UNICESUMAR
que temos 12 observações por amostra. A partir disso, temos nosso 10 0,9727
desvio padrão estimado calculado da seguinte forma: 11 0,9754
12 0,9776
0, 38
=s = 0, 39 13 0,9794
0, 9776
14 0,9810
Dessa forma, pode-se estimar que o desvio padrão populacional,
15 0,9823
sempre, será um pouco maior do que o desvio padrão médio, pois o
16 0,9835
valor de c4 é sempre um pouco abaixo de 1. Esse dado não é obriga-
tório para o cálculo dos limites de controle dos gráficos, entretanto Tabela 10 - Valores de c4 para diferen-
tes valores de n / Fonte: adaptada de
é possível utilizá-lo no lugar de s , nas Equações 10, 11, 12 e 13. Montgomery (2017).
Antes de encerrarmos o conteúdo da nossa unidade, é importante reforçar que gráficos de controle
para atributos e para variáveis podem ser usados em um mesmo processo, de forma simultânea. Como
ambos analisam informações de naturezas diferentes, um não tende a interferir de forma negativa
sobre o outro, inclusive, os gráficos podem colaborar mutuamente para uma análise mais completa,
pois podemos compreender quantos defeitos ocorrem e qual a magnitude de cada um deles.
178
UNIDADE 6
Os gráficos x-R e x-s são aqueles mais presentes na prática. Entendemos que a média entre
os dados, por mais que seja algo absolutamente importante, nem sempre é suficiente para
nos mostrar tudo que precisamos ver. A amplitude é muito útil para analisar a variação na
produção, quando temos poucas observações envolvidas, o que faz com que o processo seja a
escolha da maioria das empresas, visto que, por usarmos menos observações, são aproveitadas
mais unidades produzidas para a venda. Por outro lado, o desvio padrão traz resultados mais
próximos da realidade, tornando nossos gráficos mais próximos do que seriam, se tivéssemos
observado todas as unidades produzidas.
A quantidade de observações em cada amostra costuma ser definida pela liderança da empresa,
mas é embasada em normativas, como as NBR 5426, “Planos de amostragem e procedimentos na
inspeção por atributos”, e 5429, “Planos de amostragem e procedimentos na inspeção por variáveis”.
Os gráficos para variáveis apresentam informações muito relevantes, pois nos dão uma forma de saber o
quanto nossas amostras variam em comparação umas às outras. Entretanto será que, ainda, falta analisar
algum aspecto dos processos? Você refletiu sobre isso durante nossa unidade, conforme sugerido no início?
Pois bem, ainda, há algo que não é levado em conta pelos gráficos x-R e x-s, que é o quanto uma
amostra afeta a amostra seguinte. Em um processo ideal, sabemos que cada amostra é produzida de
maneira independente em relação à anterior e à seguinte, todas são idênticas e passam por condições
iguais de produção. Entretanto, também, sabemos que é impossível ter um cenário totalmente ideal,
então, há, sim, influência entre as amostras, por menor que ela possa ser, e isso tem algum efeito sobre
a produção em algum momento.
Há gráficos de controle projetados, exatamente, com essa finalidade, buscando compreender o impacto
que cada unidade tem sobre a seguinte e verificar se o erro é algo que se arrasta durante o processo como
um todo. Eles são assunto, em nossa próxima unidade!
O que vimos, durante esta unidade, chega a ser, ainda, mais frequente do que nosso assunto da uni-
dade anterior! Os gráficos de controle para variáveis são muito presentes na indústria de modo geral,
pois expõem a variação entre as observações e nos entregam informações que o gráfico referente às
médias não nos daria.
Qualquer análise relacionada a dados que seguem uma escala contínua pode ter os gráficos para
variáveis como sua principal fonte de informações. As demais ferramentas da qualidade estudadas, du-
rante o material, podem ser atreladas a esses processos, com as folhas de verificação, tendo uma relação
clara com o gráfico de controle.
O gráfico de controle servirá como uma espécie de gatilho para que as demais ferramentas sejam
utilizadas, afinal, essa é a ferramenta que nos confirmará que algo de errado acontece, fazendo com que
as demais busquem identificar o que, de fato, causa essa falha.
179
Para fixar o conteúdo que vimos, durante a unidade, que tal preencher o mapa mental? Dessa
vez, a relação com a unidade anterior é perfeitamente visível, então é interessante que você che-
que seu mapa mental e o conteúdo visto anteriormente. Desse modo, é necessário definir quais
são as semelhanças e as diferenças entre os gráficos de controle para atributos e para variáveis!
Apresente, portanto, a estrutura de cada um deles e, principalmente, em quais situações cada um
deve ser utilizado. Em seguida, como nosso foco foram dois dos gráficos para variáveis, podemos
tratar dos gráficos x-R e x-s de forma mais específica. Apresente as vantagens de usar esses dois
gráficos, o significado de cada um deles e as principais diferenças entre ambos!
...para atributos
GRÁFICOS DE
...para variáveis CONTROLE
Descrição da Imagem: quadro com o escrito “gráficos de controle”, com separações para outros dois quadros, um com o escrito
“para atributos” e outro com o escrito “para variáveis”. O escrito “para variáveis” se divide em outros dois quadros, um com o escrito
“gráficos x-R” e outro com o escrito “gráficos x-s”.
180
1. Geralmente, gráficos de controle envolvem registros cronológicos regulares (dia a dia,
hora a hora etc.) de uma ou mais características calculadas, as quais são obtidas com
base em medições em fases apropriadas do processo. Estes valores são organizados em
grupos e dispostos, pela sua ordem, em um gráfico constituído por uma linha central e
dois limites, denominados “limites de controle”. Entre os tipos de gráficos de controle
mais usados, temos os gráficos x-R e x-s, sendo que cada um pode ser aplicado a uma
situação diferente. A respeito desses gráficos, assinale a alternativa correta:
a) O que diferencia os gráficos x-s e x-R é o fato de que, enquanto o primeiro trata da
amplitude entre os dados, o segundo considera o desvio padrão entre eles.
b) A quantidade de dados coletados não deve interferir na escolha do melhor gráfico
de controle a ser usado, pois o que realmente importa é a frequência com que estes
dados são coletados.
c) O gráfico x-R dá resultados mais próximos da realidade, visto que a amplitude é uma
medida mais adequada que o desvio padrão para determinar a variação entre obser-
vações.
d) Caso tenhamos 20 amostras com 8 observações em cada, o gráfico x-s, definitivamente,
seria a melhor opção para analisar o processo.
e) Em situações, nas quais têm-se 15 dados, compondo cada ponto do gráfico, indica-se
o uso do gráfico x-s, já que o uso do desvio padrão tende a ser mais eficiente do que
o uso da amplitude para amostras maiores.
2. Equipamentos laboratoriais devem ter seu peso conhecido, pois isso evita qualquer
desvio nos resultados obtidos por meio dos experimentos. A seguir, apresentam-se os
dados referentes ao peso, em gramas, de diversas amostras de bisnagas usadas para
injetar água em misturas.
Amostra 1 2 3 4 5 6 7 8
86 81 84 80 82 85 89 80
86 81 83 88 83 89 84 83
80 90 81 80 86 87 87 86
82 84 82 80 80 86 90 87
85 83 87 90 83 86 88 86
Fonte: o autor
Com base nos dados apresentados na tabela, determine o LIC e o LSC para o gráfico x.
181
3. Uma empresa fabrica embalagens de biscoitos recheados, as quais devem ter em tor-
no de 140 gramas. Na tabela, a seguir, são apresentadas as amostras coletadas para
análise por parte da empresa.
Amostra 1 2 3 4 5 6 7 8
154 141 138 147 154 138 145 150
135 159 144 156 136 143 141 144
137 154 145 137 154 144 138 160
139 149 136 164 137 139 135 149
140 154 137 138 144 155 145 139
145 153 158 154 140 141 141 151
165 137 161 135 162 148 159 142
159 151 165 152 147 163 135 158
149 151 149 152 160 151 165 136
164 142 152 142 149 155 143 162
149 142 150 141 161 151 150 160
Fonte: o autor
Com base nos dados expostos, monte o gráfico mais adequado para a análise desse
processo.
4. Gráficos de controle para atributos e para variáveis têm estruturas similares, mas
devem ser usados em situações diferentes. O foco dos gráficos para variáveis é traba-
lhar com base em escalas contínuas, enquanto o foco dos gráficos para atributos é a
quantificação de defeitos. A seguir, estão apresentadas quatro situações que podem
ser analisadas com base em gráficos de controle.
I) Tempo gasto para ônibus fazerem uma mesma rota.
II) Verificação de quantos celulares foram produzidos com condições adequadas de uso.
III) Quantidade de açúcar utilizado para a produção de refrigerantes.
IV) O comprimento de diversos pregos produzidos, em um determinado dia.
182
5. A seguir são apresentados os gráficos de controle x-s referentes a um processo específico.
Gráfico x
155,00
150,00
145,00
Valores médios
140,00
135,00
130,00
125,00
120,00
1 2 3 4 5 6 7 8
Número da amostra
Fonte: o autor.
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se
em uma altura próxima a 126. A segunda linha também é horizontal e encontra-se na altura 139. A terceira, que indica o
limite superior, também, é horizontal e encontra-se na altura próxima a 152. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.
Gráfico s
30,00
Desvio padrão entre os dados
25,00
20,00
das amostras
15,00
10,00
5,00
0,00
1 2 3 4 5 6 7 8
Número da amostra
Fonte: o autor.
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se em uma altura próxima a 4. A segunda linha também é horizontal e encontra-se na altura 13. A terceira, que indica o
limite superior, também é horizontal e encontra-se na altura próxima a 22. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, com um ponto estando acima da linha de limite superior e outro ponto
abaixo da linha de limite inferior.
183
Interprete os gráficos e analise as afirmações feitas a seguir.
I) O gráfico s deve ser interpretado antes do gráfico x, pois é interessante que saiba-
mos a variação entre os dados de uma mesma amostra, antes de conhecermos as
médias do processo.
II) O gráfico x por si só já seria suficiente para compreendermos a situação do processo.
III) O gráfico s apresenta dados fora de controle e o gráfico x indica um processo den-
tro do esperado, portanto, isso indica que o processo não está em uma situação
adequada.
IV) Foram usadas mais de 15 observações em cada uma das amostras.
184
185
186
7
Gráficos de Soma
Cumulativa e Média
Móvel Exponencialmente
Ponderada
Me. Paulo Otávio Fioroto
Na unidade anterior, falamos sobre os gráficos de controle para variáveis, os quais nos
dão conhecimento mais aprofundado sobre certos aspectos do processo produtivo do
que os gráficos de controle para atributos. Há, entretanto, um aspecto que, ainda, não foi
analisado, que é a influência que uma observação tem sobre a seguinte.
Suponha uma situação na qual abordamos uma linha de produção de biscoitos re-
cheados. Cada um deles deve ter 8 gramas de recheio em sua composição, mas sabemos
que haverá uma margem de variação entre cada unidade. Isso faz com que uma unidade
do biscoito receba um pouco mais de recheio do que deveria. Esse fato será compensado
na unidade seguinte, que receberá uma quantidade menor do que o esperado, isso já é
suficiente para mostrar que uma unidade pode, definitivamente, ter influência sobre a
seguinte. Essa variação, entretanto, pode continuar acontecendo! A discrepância ocorrida
na primeira unidade pode impactar uma eventual terceira unidade produzida, assim como
a quarta unidade e as posteriores, o que pode desorganizar toda a etapa de produção.
No início, um excesso de 0,1 g no recheio de um biscoito pode não parecer muita
coisa. Porém uma pequena variação, no início da produção, pode resultar em mudanças
drásticas nas últimas unidades, criando o chamado efeito “bola de neve”, em que as falhas
se acumulam com o passar do tempo, isso faz o controle sobre a situação ser perdido.
Ao final, pode acontecer de serem produzidos menos biscoitos do que o planejado, pois
o recheio que seria usado na produção das últimas unidades já terá sido aplicado na
produção das primeiras. Vale reforçar que a variação nem sempre é a mesma, ela pode se
consertar sozinha com o tempo ou pode, até mesmo, tomar proporções muito maiores
do que o esperado!
Sendo assim, de que forma podemos mensurar e controlar o impacto que uma uni-
dade tem sobre aquela que será produzida em seguida? Ou, ainda, há como verificar se o
impacto afeta as unidades produzidas posteriormente?
Nesta unidade, nosso estudo de caso tratará de Diogo, um engenheiro químico que
atua em uma grande fábrica de produtos de limpeza, a Jacarandá, focando majoritaria-
mente nas linhas de produção. A Jacarandá trabalha com produtos de diversas catego-
rias, sendo o carro-chefe seus detergentes, que são vendidos em todo o Brasil. Por conta
disso, há diversas fábricas e centros de distribuição ao redor do país, de forma a suprir
sua enorme demanda.
Diogo já tem certa experiência com a linha de produção, pois atua na Jacarandá, desde
quando era um estagiário. Reclamações por parte dos clientes são recorrentes, visto que
uma empresa de grande porte certamente comete algumas falhas pontuais, mas nunca
foram um problema drástico. A demanda sempre foi bem atendida, com as quantidades
produzidas, correspondentes ao necessário.
Recentemente, porém, a empresa tem recebido reclamações por parte de seus clientes
diretos, no caso, redes de supermercados que vendem seus produtos. Uma das redes sinali-
zou que havia adquirido três mil garrafas para serem vendidas, durante o mês, mas recebeu
188
UNIDADE 7
189
UNICESUMAR
O problema pôde ser solucionado por Diogo, apenas, com o ajuste do maquinário,
mas o dano já havia sido feito, e a produção impactada ao ponto de serem produzidas
menos unidades, o que trouxe prejuízos tanto para a empresa quanto para o mercado,
que finalizou o mês com o produto em falta.
A partir de então, foi decidido que a análise deveria levar em conta não apenas
amostras individuais, mas também o impacto que cada unidade causaria na seguinte,
tornando a consequência das falhas e as variações mais visíveis do que eram anterior-
mente. Depois desse evento, decidiu-se aplicar o gráfico de controle de soma cumulativa,
pois isso agilizaria a identificação da existência de falhas.
Que tal fazer um teste em sua casa para verificar o quanto o cumprimento dos
limites esperados é importante? Os itens necessários, provavelmente, podem ser en-
contrados sem muito esforço em sua casa. Primeiramente, encha uma jarra ou garrafa
plástica com água, pode ser a da torneira. Uma garrafa pet de 2 L é suficiente para essa
experimentação.
Em seguida, pegue cinco copos. Você deve distribuir o volume igualmente entre to-
dos eles, ou seja, 400 mL para cada, mas não deve usar um item para medição, buscando
obter os resultados corretos apenas com seu olhar. Ao terminar de encher um copo,
você não pode retornar até ele. Todos os 2 L de água devem ser despejados nos copos.
Sem um instrumento para determinar o volume de água despejado em cada copo,
é complicado atingir o volume exato. É muito provável que, ao chegar no último copo,
tenha havido excesso ou falta de água. Isso ocorreu porque os desvios ocorridos nos
copos anteriores afetaram os seguintes.
Com o experimento proposto, é possível determinar o impacto que um erro
anterior causa em uma unidade futura. Com cinco copos, já é possível que tenha
ocorrido uma variação entre cada um dos volumes. Imagine, então, em uma linha
de produção, na qual são produzidas centenas de unidades diariamente!
Em uma linha de produção não se pode voltar atrás; então, o sistema de produção
busca compensar as falhas ocorridas, ao despejar mais ou menos detergente nas gar-
rafas seguintes. Para o maquinário, essa compensação faz sentido, enquanto, para os
olhos e o raciocínio humano, isso se torna uma situação, até mesmo, pior do que caso
não houvesse a tentativa de compensação. Afinal, caso isso não acontecesse, haveria
apenas uma unidade com falha ao invés de duas.
Novamente, realize a mesma ação feita anteriormente com a garrafa de 2 L e os
copos, mas, caso seja possível, utilize uma marcação para indicar o volume exato que
está sendo preenchido em cada um dos copos. Você, ainda, não pode voltar atrás caso
cometa algum erro, e todo o volume de água deve ser despejado.
190
UNIDADE 7
É muito provável que o seu último copo, ainda, tenha sofrido uma variação em
relação aos demais, mas ela certamente terá sido menor do que a da situação anterior.
Essa é exatamente a forma com a qual diversos maquinários da indústria enxergam
o processo, eles sabem o quanto é despejado na embalagem, mas, ainda assim, por
conta de erros do próprio sistema, variações ocorrem naturalmente. Conforme dito
diversas vezes neste material, nenhum processo é 100% perfeito.
O desejável é que toda unidade produzida corresponda exatamente ao que se
espera e, caso haja algum erro, espera-se que isso não impacte no que será produzido
em seguida. É com base nesse raciocínio e com a intenção de controlar e mensurar
esse impacto que daremos andamento à nossa unidade.
DIÁRIO DE BORDO
191
UNICESUMAR
Para que esse controle seja possível, usaremos a ferramenta com a qual estivemos traba-
lhando nas duas unidades anteriores, que é o gráfico de controle. Entretanto os cálculos
envolvidos nos gráficos que analisaremos, agora, fogem daquilo que estudamos, envol-
vendo algumas variáveis novas. Essas novas variáveis serão aplicadas, justamente, como
forma de compensar o ponto citado ao final de nossa unidade anterior, que é o desco-
nhecimento do impacto que cada unidade produzida tem sobre as unidades seguintes.
Sendo assim, trataremos de três modalidades de gráficos de controle durante nossa
unidade atual. A primeira, mais similar aos gráficos passados na unidade anterior, é o grá-
fico de amplitude móvel, popularmente conhecido como gráfico x-AM. Ele servirá como
base para os formatos que trataremos posteriormente, que são o gráfico de soma cumu-
lativa (CUSUM) e o gráfico de média móvel, exponencialmente, ponderada (MMEP).
Esses modelos de gráficos são chamados de gráficos ponderados pelo tempo, pois
comparam as unidades anteriores com as unidades futuras. Uma diferença muito grande
entre eles e aqueles gráficos que tratamos anteriormente está no fato de que, enquanto
aqueles já estudados tratam de amostras compostas por mais de uma observação, aqueles
que discutiremos durante essa unidade utilizam apenas uma observação por amostra.
Isso os torna muito mais sensíveis a pequenas variações no processo, fazendo com que
sejam boas opções para identificação de falhas pontuais (MONTGOMERY, 2017).
Vamos, então, iniciar nossa abordagem sobre o gráfico x-AM. Suas principais apli-
cações ocorrem em casos nos quais todas as unidades produzidas são analisadas, o que
ocorre, principalmente, quando a quantidade de unidades produzidas é muito baixa,
ao ponto de não ser interessante reuni-las em amostras com mais de uma observação.
Assim como os gráficos x-R e x-s, são utilizados dois gráficos. O primeiro gráfico, x,
trata da média entre os dados, enquanto o segundo, AM, trata da amplitude móvel entre os
mesmos dados. Quanto ao gráfico x, a diferença em relação àqueles tratados anteriormente
mora no fato de que não é necessário calcular x , já que, como cada amostra corresponde
a uma unidade individualizada, não é preciso calcular a média entre as observações.
A amplitude móvel se trata da variação entre dois dados seguidos, sendo determinada
com base na Equação 1:
AM i xi xi 1 (1)
192
UNIDADE 7
Para exemplificar o cálculo, considere um caso em que seja analisado o volume de deter-
gente em amostras sucessivas de garrafas do produto, e sejam coletadas três unidades. A
primeira unidade tem volume igual a 500 mL, a segunda tem volume igual a 497 mL e a
terceira contém 505 mL. A amplitude móvel entre a primeira e a segunda amostra será
igual a 3 mL, pois o cálculo é de 497 menos 500 mL. Como a amplitude móvel sempre é
positiva, então o resultado que seria igual a -3 torna-se 3 mL.
Já a segunda amplitude móvel será igual ao volume da terceira garrafa subtraído do
volume da segunda garrafa, ou seja, 505 menos 497 mL, resultando em 8 mL. O raciocínio
continuará até que haja um comparativo entre a última e a penúltima amostra coletada.
Para apresentar a montagem e a interpretação dos gráficos, apresentamos um exemplo.
Em uma fabricante de móveis, sabe-se que o peso das cadeiras de um modelo específico
deve ser de 8 kg. Os móveis são produzidos manualmente, o que abre margem para al-
gumas falhas, além de tornar a produção mais lenta do que um processo industrializado.
São produzidas, em média, 26 cadeiras por dia. Os pesos das cadeiras finalizadas em um
dia normal de trabalho estão indicados na Tabela 1.
193
UNICESUMAR
194
UNIDADE 7
n d2 D3 D4
2 1,128 0 3,267
3 1,693 0 2,574
4 2,059 0 2,282
5 2,326 0 2,114
6 2,534 0 2,004
7 2,704 0,076 1,924
8 2,847 0,136 1,864
9 2,970 0,184 1,816
10 3,078 0,223 1,777
Tabela 3 - Valores de d2, D3 e D4 para diferentes tamanhos de amostras / Fonte: o autor.
0, 33
LIC 7, 95 3 * 7, 06
1, 128
0, 33
LSC 7, 95 3 * 8, 84
1, 128
Com isso, temos todos os elementos necessários para a montagem do gráfico x. Mas,
antes, podemos calcular os limites para o gráfico AM, os quais podem ser encontrados
por meio das Equações 6 e 7.
LIC = D3 * AM (6)
LSC = D4 * AM (7)
Novamente, temos valores tabelados, para os quais consideraremos n=2. Quando tra-
tarmos de gráficos x-AM, o valor de D3 será igual a 0, enquanto D4 será igual a 2,574.
Com base nisso, nosso LIC e nosso LSC serão, respectivamente:
LIC 0=
= * 0, 33 0
=LSC 2=
, 574 * 0, 33 0, 85
195
UNICESUMAR
Agora que temos todos os limites, podemos montar os gráficos x e AM. Os dados que constarão no
gráfico x são as observações individuais, enquanto os pontos do gráfico AM são as amplitudes móveis
entre cada par consecutivo de dados. Eles podem ser vistos nas Figuras 1 e 2.
9,30
Peso médio das amostras (kg)
8,80
8,30
7,80
7,30
6,80
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Número da amostra
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se em uma
altura próxima a 7,06. A segunda linha também é horizontal e encontra-se na altura 7,95. A terceira, que indica o limite superior, também
é horizontal e encontra-se na altura próxima a 8,84. A quarta e última linha não é perfeitamente horizontal, alternando entre descidas
e subidas, sempre próxima à reta que indica a média.
1,00
Amplitude móvel entre as amostras
0,90
0,80
0,70
0,60
0,50
0,40
0,30
0,20
0,10
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Número da amostra
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se na altura
0. A segunda linha também é horizontal e encontra-se na altura 0,33. A terceira, que indica o limite superior, também é horizontal e
encontra-se na altura próxima a 0,85. A quarta e última linha não é perfeitamente horizontal, alternando entre descidas e subidas, com
o primeiro ponto estando acima do limite superior e os pontos 17 e 19 muito próximos do limite inferior.
196
UNIDADE 7
O gráfico x indica um processo controlado, com todos os pontos dentro dos limites. Entretanto o se-
gundo gráfico expõe que a variação entre a primeira e a segunda amostras é muito alta, estando acima
do limite superior de controle. A variação se mostrou menor em momentos seguintes, chegando a
apresentar 9 pontos seguidos abaixo da média entre os pontos 14 e 22.
O fato de termos vários pontos seguidos abaixo da média no gráfico AM não é, necessaria-
mente, algo preocupante. Isso pode simplesmente indicar que os dados estão relativamente
próximos uns dos outros. Contanto que os dados do gráfico x estejam dentro dos limites, isso
torna-se algo positivo.
Assim como vimos na unidade anterior, os gráficos devem ser interpretados em conjunto para que
possamos compreender o cenário real do processo. O ponto fora de controle do gráfico AM seria algo
preocupante por si só, mas as amostras encontram-se todas dentro dos limites esperados e o processo
se mostra estável, no final das contas, isso não é um sinal para alarde.
A apresentação do gráfico x-AM teve como intenção a introdução a dois gráficos um pouco mais
complexos, mas de importância e sensibilidade maiores. O primeiro deles é o gráfico de soma cumu-
lativa (CUSUM), que tem algumas características que coincidem com aquilo que acabamos de discutir.
O gráfico CUSUM se baseia no valor acumulado dos desvios da variável analisada em relação a
um valor estabelecido anteriormente, que, geralmente, se trata do valor especificado na embalagem do
produto. Em alguns casos, tal valor pode ser estimado com base na média entre um grande número
de amostras previamente coletado. De modo geral, referimos ao valor em questão com a expressão
“valor alvo” (LOUZADA et al., 2013).
Exemplificando o parágrafo anterior, suponha que uma lata de refrigerante deva ter 350 mL. Em
um primeiro momento, é coletada uma amostra cujo volume é de 353 mL, o que nos dá um desvio de
3 mL. A segunda amostra tem volume igual a 358 mL, 8 mL acima do volume indicado. Nosso desvio
acumulado é de 11 mL, que se refere aos 3 mL da primeira amostra somados aos 8 mL da segunda.
Em seguida, pode ser coletada uma terceira amostra, cujo volume seja de 345 mL, o que significa
que ela tem 5 mL a menos do que o valor esperado. Como esse desvio é negativo, então devemos sub-
trair o valor do nosso desvio acumulado, ou seja, se antes tínhamos um desvio de 11 mL, agora nosso
desvio cai para 6 mL, já que subtraímos 5 desse valor. Expressando esse conceito de forma matemática,
o desvio acumulado, representado pela letra C, é indicado pela Equação 8:
Ci ( xi o ) Ci 1 (8)
197
UNICESUMAR
198
UNIDADE 7
A primeira ação que devemos tomar após a coleta de dados é determinar o valor da
constante K. Essa constante é igual à metade do desvio aceitável, que é representado
pela letra d . Matematicamente, expressamos esse cálculo por meio da Equação 9:
d
K= (9)
2
Como nosso d é igual a 10, nosso K é igual a 5. É importante citar que, caso não
tenhamos esse desvio aceitável conhecido — o que acontece com maior frequência
com empresas iniciantes —, devemos usar o desvio padrão entre os dados no lugar
de d . O valor de K dita quais valores devem ser, de fato, registrados no nosso gráfico
CUSUM. Nosso valor alvo é igual a 250 g, então, quaisquer dados que estejam a uma
distância menor de 5 g desse valor não geram alterações no gráfico, ou seja, valores
entre 245 g e 255 g não são significativos para nosso gráfico CUSUM.
+ −
Em seguida, determinamos os valores de Ci e Ci . Estes são os valores que, de
fato, são significativos em nosso gráfico CUSUM. A letra i nada mais é do que o
número da amostra analisada naquele instante. As Equações 10 e 11 apresentam o
cálculo necessário para determinar esses valores, os quais serão explicados em seguida.
Ambas as equações devem ser aplicadas para todos os dados, mas, para agilizar o
processo, uma informação deve ficar registrada. Caso o dado seja maior do que o
−
valor alvo, o resultado atribuído para Ci será automaticamente igual a 0. O contrário
+
é válido para dados menores do que o valor alvo, pois, nessas ocasiões, Ci será nulo.
Vamos considerar o primeiro dado da Tabela 4, que é 253,21 g, que será nosso x1 .
Utilizando a Equação 10, teremos o seguinte procedimento:
A função “max” significa que deve ser escolhido o maior valor entre todos aqueles
que estiverem dentro dos colchetes. Como nossas opções são 0 e -1,79, escolhemos
o 0, isso significa que o primeiro valor representado em nosso gráfico será igual a 0.
Conforme exposto anteriormente, como o dado tem um valor acima do valor alvo,
Ci− automaticamente também será igual a 0. O segundo valor em nosso gráfico é
igual a 259,95 g. Com isso, teremos os cálculos conforme a seguir:
199
UNICESUMAR
Dessa vez, temos que nosso maior valor é igual a 4,95. Isso significa que nossa segun-
da amostra está 4,95 g acima daquele que estabelecemos como um limite aceitável
para nossas amostras. Nosso terceiro valor é igual a 257,13 g, o que faz com que
+
nosso cálculo para C3 seja:
Note que, dessa vez, o último termo dentro dos colchetes é diferente de 0. Isso ocorre
+
porque o último termo da equação para determinar Ci sempre deve ser igual ao
+ − −
resultado do Ci anterior, ou seja, Ci1 . O mesmo vale para Ci em relação a Ci−1 .
O resultado será:
+ −
O que nos retorna um valor de C3 igual a 7,08, enquanto C3 é, automaticamente,
+ −
igual a 0. Os resultados para todos os valores de Ci e Ci são apresentados na Tabela 5.
200
UNIDADE 7
+ −
Note que temos também as colunas N e N na Tabela 5. Isso nada mais é do que
um contador de vezes seguidas em que tivemos dados acima de 0 para um dos valores
de C. Quando o contador é interrompido, ele é zerado automaticamente.
+ −
Os valores de C e C serão as informações apresentadas no gráfico CUSUM,
sendo cada um deles representado por uma linha diferente. Com isso, temos prati-
camente todos os dados necessários para a montagem, restando apenas determinar
os limites de controle.
Diferente do que vimos até o momento, o gráfico CUSUM terá apenas um único
limite de controle. Para compensar o cálculo, relativamente, longo dos dados, esse
cálculo é realmente muito simples: basta multiplicar uma constante, a qual chamamos
de H, pelo desvio padrão entre os dados coletados. Geralmente, H é igual a 4 ou 5,
conforme estabelecido por quem projetar o gráfico. Para nosso exemplo, considera-
201
UNICESUMAR
mos H como sendo igual a 4 (HINES et al., 2011). O desvio padrão entre os nossos dados é igual a 9,47,
o que torna nosso limite igual a 37,88. Com essa determinação, podemos, enfim, concluir a montagem
do gráfico CUSUM, representado na Figura 3.
45,00
volume em relação ao valor alvo (mL)
Soma cumulativa da diferença do
40,00
35,00
30,00
25,00
20,00
15,00
10,00
5,00
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Número da amostra
Descrição da Imagem: gráfico com 3 linhas. A linha superior é perfeitamente horizontal e tem altura igual a 38. A linha ci+ alterna
entre descidas e subidas, ultrapassando a linha superior em dois pontos. A linha ci- se mantém sempre muito abaixo da linha de limite
superior, nunca ultrapassando a altura igual a 5.
Em tempo, é possível que, ao consultar a literatura sobre o tema, você encontre gráficos CUSUM com
um limite inferior, o qual sempre será negativo e terá o mesmo módulo que o limite superior. Isso ocorre
−
em casos nos quais o valor de C são considerados negativos ao invés de positivos, como fizemos.
Entretanto a interpretação dos dados ocorre exatamente da mesma maneira, mas com a linha referente
−
aos dados C sendo posicionada abaixo da média.
Voltando à interpretação do gráfico CUSUM da Figura 3, nele, encontramos dois picos que ultra-
+
passam o limite de controle, ambos referentes à linha C . Isso indica que está havendo um acúmulo
de produtos com peso maior do que o valor alvo, o que torna necessária uma análise a respeito da
produção para identificação da causa raiz.
202
UNIDADE 7
Por conter duas linhas para representação dos dados, o gráfico CUSUM tem a flexibilidade de nos
fornecer detalhes sobre mudanças apenas em um sentido, ou seja, para cima da média ou para baixo
dela. Dentre os gráficos que estudamos até o momento, nenhum outro consegue atuar dessa forma, o
que mostra mais uma vantagem do CUSUM diante dos demais formatos.
Nosso último gráfico de controle é o gráfico de média móvel exponencialmente ponderada
(MMEP), o qual, assim como o gráfico CUSUM, é muito sensível a pequenas mudanças e atua re-
lacionando as observações. Novamente, tratamos de um gráfico focado em amostras compostas por
apenas uma observação, apesar desse gráfico permitir adaptações para analisar amostras com mais
unidades (HINES et al., 2011). Sua aplicação ocorre nos mesmos casos que o gráfico CUSUM, sendo
ambas boas alternativas cuja escolha depende, apenas, da afinidade do usuário por um dos formatos.
No caso do gráfico MMEP, todas as observações têm impactos sobre as seguintes, mas aquelas que
forem mais antigas serão menos impactantes sobre as futuras. Esse raciocínio é interessante, pois, na
prática, quando realizamos um processo produtivo, há mais chances da trigésima amostra ser afetada
pela vigésima nona amostra do que pela primeira.
O peso em questão é representado pela letra l , que pode variar entre 0 e 1. O valor é estabelecido
pelo usuário, sendo valores na faixa entre 0,10 e 0,20 os mais utilizados na prática. Quanto menor o
valor atribuído a l , menores serão as mudanças detectadas (MONTGOMERY, 2017). Para explicar
o raciocínio e as etapas de montagem do gráfico MMEP, novamente realizamos um exemplo com
o passo a passo dos procedimentos. Dessa vez, tratamos do volume de detergente em cada uma das
embalagens, as quais têm valor alvo igual a 500 mL. Diogo decidiu atribuir peso 0,2 para a amostra
imediatamente anterior a cada uma das observações. Foram feitas 25 observações ao todo, as quais
estão registradas na Tabela 6.
203
UNICESUMAR
11 501,78
Exemplificando, vamos calcular z1 . Já temos to-
12 506,98 dos os dados necessários, visto que zo é igual a
13 512,91 500 mL e x1 é o próprio dado coletado, no caso,
512,84 mL. O valor de 0,2 para l já foi definido
14 505,48
no início do processo. Sendo assim, o cálculo é:
15 506,69
17 499,62
z1 = 502, 57
18 496,08
204
UNIDADE 7
205
UNICESUMAR
0, 2
LIC 500 2, 7.5, 92. [1 (1 0, 2)2.1 ] 496, 80
2 0, 2
0, 2
LSC 500 2, 7.5, 92. [1 (1 0, 2)2.1 ] 503, 20
2 0, 2
206
UNIDADE 7
A Tabela 8 apresenta o LIC e o LSC para cada um dos pontos que teremos em nosso gráfico.
207
UNICESUMAR
Enfim, temos todos os dados necessários para nosso gráfico. Vale citar que os limites de
controle não são, de fato, constantes, pois a variação continua a ocorrer muitas casas após
a vírgula. Com base nisso, chegamos ao gráfico MMEP, que é apresentado na Figura 4.
510,00
508,00
506,00
504,00
502,00
500,00
498,00
496,00
494,00
492,00
490,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Descrição da Imagem: gráfico com 4 linhas. A linha média tem altura igual a 500 e é perfeitamente reta. A linha de
limite inferior é curva e tem altura variando entre 497 e 494. A linha de limite superior também é curva, com altura
indo de 503 a 506. A linha correspondente ao Zi varia entre subidas e descidas, permanecendo sempre acima da
média e com alguns pontos ultrapassando o limite superior.
Tivemos diversos pontos que ultrapassaram o LSC. Por si só, isso já seria algo a prender
nossa atenção. Há, porém, de se considerar que todos os pontos do gráfico ficaram acima
da média, o que é outro fator que deve ser analisado. A possibilidade do equipamento
estar escoando mais detergente do que o valor alvo para cada uma das embalagens é real
e deve ser estudada uma maneira de reduzir esse problema.
Apesar das estruturas diferenciadas, os critérios para análise dos gráficos CUSUM e
MMEP partem dos mesmos princípios que os gráficos estudados anteriormente, em que
pontos que ultrapassem os limites de controle indicam falhas em processos. No gráfico
MMEP, o acúmulo de pontos em uma determinada região também pode ser indicativo
de uma situação inadequada.
208
UNIDADE 7
Os gráficos x-AM, CUSUM e MMEP são usados em menor escala, mas isso não
diminui sua importância, visto que sua aplicação ocorre em casos nos quais
os gráficos analisados anteriormente não conseguiriam nos fornecer um olhar
adequado sobre a situação.
A ideia de registrar pontos que não sejam os próprios dados nos gráficos é um
tanto abstrata, mas, matematicamente, é algo que faz sentido, visto que é a forma
de mensurarmos o impacto das observações anteriores sobre aquelas analisadas
atualmente. Caso essas considerações não fossem feitas, teríamos os mesmos
gráficos com os quais trabalhamos nas unidades anteriores.
Enfim, após três unidades, concluímos nossa abordagem sobre gráficos de controle. É
possível aprofundar os estudos sobre o tema, buscando outros conteúdos na literatura;
há diversos materiais de qualidade disponíveis on-line e que podem o(a) ajudar em
aplicações práticas de tudo que vimos até agora, além da apresentação de adaptações a
diferentes situações. Os livros usados como referência, nesta unidade, e nas anteriores
podem ser úteis nesse sentido, pois abordam não apenas o conteúdo estatístico, mas
também a parte computacional de tudo que foi abordado.
Durante a nossa unidade, tratamos daqueles gráficos que consideram o impacto das
amostras anteriores sobre as amostras produzidas posteriormente. Os gráficos x-AM,
CUSUM e MMEP são os mais sensíveis a pequenas variações e, consequentemente, são
indicados para encontrar falhas pontuais em processos.
Sua aplicação é mais comum em casos nos quais temos acesso a poucas observações,
visto que cada amostra é composta por um único dado, ou seja, quando tratamos de
produtos de alto custo de produção ou personalizados, eles são nossas melhores opções.
Apesar da sua montagem ser mais complexa do que a dos demais gráficos, o esforço tende
a ser compensado, a partir do momento em que falhas, antes imperceptíveis, passarem
a ter uma visualização mais clara.
Diversas adaptações podem ser feitas para todos os gráficos que estudamos durante
essa unidade, cabe a você buscar aprender um pouco mais sobre o tema e suas devidas
aplicações! Em nossa próxima unidade, trabalhamos com a ideia de análises coletivas
de amostras, mas não usaremos mais os gráficos de controle para isso, esse conteúdo
está finalizado! Entretanto revisitaremos uma das ferramentas da qualidade com a qual
lidamos algumas unidades atrás, mas com um formato um pouco diferenciado. Nosso
foco, agora, será a capacidade dos processos!
209
Para encerrarmos definitivamente nossa aula, que tal preencher o mapa mental? É interessante
realizar um comparativo com os gráficos que vimos na unidade anterior. Então, complete o quadro
sobre os gráficos x-R e x-s com as características que os diferenciam daqueles que trabalhamos
durante esta unidade. Foque em discutir o tamanho das amostras, a quantidade de gráficos
usados e demais aspectos que os tornem diferentes daqueles gráficos que estudamos, durante
esta unidade.
Em seguida, em cada um dos quadros, apresente características específicas para os gráficos x-AM,
CUSUM e MMEP, a ideia por trás da montagem de cada um deles e as particularidades de cada
gráfico. Explique, também, a interpretação de cada um deles bem como o que pode significar o
acúmulo de pontos, em uma mesma região, ou quando se extrapola os limites. Isso é feito da
mesma forma que nos demais gráficos?
Por último, no quadro “semelhanças entre os gráficos”, apresente as características em comum
entre os gráficos MMEP e CUSUM; as situações em que ambos devem ser utilizados e o que os
diferencia dos gráficos analisados anteriormente; por exemplo, as linhas referentes aos seus
limites de controle e a ausência de dados tabelados.
GRÁFICOS DE CONTROLE
Semelhanças
Gráficos x-R e X-S Gráfico CUSUM Gráfico MMEP Gráfico x-AM
entre os gráficos
Descrição da Imagem: quadro com o título “gráficos de controle” separa-se em quatro quadros menores: “gráficos x-R e x-s”,
“gráfico x-AM”, “gráfico CUSUM” e “gráfico MMEP”. Os dois últimos quadros se unem em um novo quadro, com título “semelhanças
entre os gráficos”.
210
1. Cada gráfico de controle é aplicado a uma situação diferenciada, a qual varia conforme
o tamanho das amostras e a quantidade de observações disponíveis para análise. Cabe
ao responsável pelo CEP a escolha do melhor formato para compreender o processo.
A respeito dos gráficos de controle, são feitas as seguintes afirmações:
I) O gráfico x-s é usado quando as amostras têm um tamanho menor do que 10 ob-
servações.
II) As amostras do gráfico CUSUM costumam conter mais observações do que as do
gráfico x-R.
III) O gráfico MMEP é uma boa opção para casos nos quais há poucas unidades dispo-
níveis para análise.
IV) Em todos os tipos de gráficos, os limites de controle encontram-se a uma distância
de três desvios padrões do valor alvo.
2. O gráfico CUSUM utiliza a soma cumulativa dos desvios como base para sua estrutura-
ção. A ideia é de que, quanto maiores forem os desvios em relação ao valor alvo, maior
será a possibilidade de termos um processo fora de controle.
A respeito do gráfico CUSUM, são feitas as seguintes afirmações:
I) Todos os dados coletados são registrados de forma inalterada no gráfico CUSUM.
II) Quanto maior o valor de K, menores são as chances de os dados fugirem do controle.
III) Quanto menor o H, mais rígida tende a ser o limite de controle do gráfico.
IV) O desvio padrão entre os dados tem papel importante no estabelecimento do limite
de controle.
211
3. A seguir, apresentam os gráficos x-AM, usado como forma de determinar se o peso de
sofás está dentro dos conformes. Considere que o valor alvo seja de 150 kg.
170,00
165,00
160,00
155,00
Peso (kg)
150,00
145,00
140,00
135,00
130,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
Número da amostra
Fonte: o autor.
Descrição da Imagem: gráfico com quatro linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e
encontra-se em uma altura próxima a 140. A segunda linha, também, é horizontal e encontra-se na altura 152. A terceira,
que indica o limite superior, também, é horizontal e encontra-se na altura próxima a 164. A quarta e última linha não é
perfeitamente horizontal, alternando entre descidas e subidas, sempre, próxima à reta que indica a média.
16,00
Amplitude móvel entre as amostras
14,00
12,00
10,00
8,00
6,0
4,00
2,00
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Número da amostra
Fonte: o autor.
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se na altura 0. A segunda linha também é horizontal e encontra-se na altura 4,5. A terceira, que indica o limite superior,
também é horizontal e encontra-se na altura próxima a 11,8. A quarta e última linha não é perfeitamente horizontal,
alternando entre descidas e subidas, com dois pontos ultrapassando a linha de limite superior.
212
A respeito dos conceitos sobre os gráficos x-AM e dos gráficos apresentados, são feitas
as afirmações a seguir:
I) Cada amostra é composta por cinco observações.
II) Não houve variações significativas entre uma amostra e outra.
III) O gráfico AM apresenta informações que o gráfico x deixou passar, complementando
a análise de forma coerente.
IV) Por não haver uma maneira de comparar a primeira amostra com a amostra anterior,
o gráfico AM, sempre, terá um ponto a menos que o gráfico x.
213
5. O gráfico MMEP tem algumas particularidades em relação aos demais gráficos de con-
trole, apesar de apresentar os mesmos elementos que a maioria deles. A respeito do
gráfico MMEP, são feitas as seguintes afirmações:
I) O gráfico MMEP costuma utilizar amostras com apenas uma observação, mas pode
ser adaptado e considerar uma quantidade maior de observações.
II) Em um gráfico MMEP, quanto maior o valor atribuído a L, mais próximos os limites
de controle estarão do valor alvo.
III) Quanto menor o valor de l , mais sensível o gráfico será a pequenas mudanças.
IV) Os limites de controle assumirão valores perfeitamente fixos, após algumas amostras
analisadas.
214
215
216
8
Capacidade de
Processos
Me. Paulo Otávio Fioroto
218
UNIDADE 8
219
UNICESUMAR
Camile, por meio das ferramentas de controle, previamente aplicadas, notou que realmente ocorriam
falhas pontuais na produção: algumas latas apresentavam conteúdo reduzido, e outras um peso maior do
que o planejado. Houve diversas pesquisas internas no setor em busca da origem da falha, inclusive com
algumas paradas breves de produção que resultaram em processos estagnados, mas todo o maquinário
funcionava conforme o esperado.
Um dado coletado, porém, por Camile, mostrou que havia algo de errado: o desvio padrão entre os
itens produzidos. Ela havia guardado todas as folhas de verificação utilizadas, durante as semanas an-
teriores, e notou que a variação entre os valores, apesar de não ser alta, estava em um nível indesejável e
que poderia ser melhorado. O problema não era a qualidade do maquinário, mas sim a constância com
a qual ele conseguia produzir itens idênticos de maneira contínua. Camile, sempre, ouvira dizer, durante
sua graduação, que nenhum processo é isento de falhas ou variações, e que a importância do CEP estava
justamente em auxiliar na previsão e controle delas. Tanto o equipamento quanto as ferramentas da
qualidade cumpriam a sua parte e, mesmo assim, o planejado não era cumprido.
Após algumas pesquisas a respeito do tema, Camile encontrou um conceito conhecido como “capa-
cidade de processos”. De forma direta, isso tratava exatamente daquilo que acontecia no seu setor, um
processo que não conseguia cumprir com o esperado de forma contínua, tornando as condições esta-
belecidas pela direção quase inatingíveis. Os limites estabelecidos para o processo eram muito rígidos,
gerando uma faixa de resultados aceitáveis muito pequena, enquanto o desvio padrão entre os itens
produzidos era mais alto do que o desejável.
Após apresentar este argumento aos diretores da empresa, eles compreenderam que, como se tratava de
um dado determinado com base em uma ferramenta, uma ação realmente deveria ser tomada. Entretanto,
sob o ponto de vista deles, seria inaceitável permitir um “relaxamento” das margens de erro aceitáveis, pois
isso indicaria que eles seriam incapazes de melhorar sua qualidade. Por conta disso, a decisão precisou
envolver os cofres da empresa, investindo em melhorias nos equipamentos que a empresa já possuía.
A partir disso, o funcionamento dos equipamentos começou a se tornar mais regular. Antes, os
resultados formavam uma curva normal, um pouco achatada e larga, indicando que havia uma certa
variação entre o que era produzido. Com as melhorias, a curva tornou-se mais alta e estreita, indicando
uma produção com praticamente 100% das unidades idênticas. Essa é a meta de qualquer empresa que
queira ser reconhecida pela sua qualidade.
A situação vivenciada por Camile, na empresa Manuela’s, é algo que pode acontecer em qualquer
companhia que atue com produções contínuas. O conceito da capacidade de processo, encontrado por
ela em suas pesquisas, é muito relevante para a indústria de modo geral, pois é uma maneira de unir, de
forma direta e clara, os conceitos da estatística e os da qualidade.
Você, também, pode realizar algo similar, em sua casa! Certamente, isso não será feito em uma escala
tão grande quanto a realizada por Camile, em nosso estudo de caso, mas servirá para você entender, de
maneira prática, como funciona o estudo da capacidade de processo. Para tanto, você pode optar por
qualquer item alimentício que exista em sua casa e que contenha várias unidades iguais de um mesmo
item. Uma opção é que você asse ou compre um bolo e busque cortá-lo em vários pedaços iguais, quanto
220
UNIDADE 8
mais pedaços você conseguir, melhor. Você, também, pode fazer isso com pães de queijo ou qualquer
outro item que possa ser preparado por você mesmo e dividido em várias unidades. O importante, nesse
processo, é que tenhamos várias unidades iguais — ou, ao menos, muito parecidas — de um mesmo item.
Também, será necessário utilizar uma balança.
Uma informação, entretanto, deve ficar clara: você deve estabelecer um limite mínimo e um limite
máximo que cada unidade do item pode pesar. Você pode tomar os primeiros resultados da balança
como padrão para estabelecer esses limites. Não é necessário realizar cálculos quando for determiná-los,
os valores serão decididos por você, que é o gestor do processo. O importante é que você tenha definido
um valor alvo, que é o valor desejado para cada unidade, e que ambos os limites estejam, igualmente,
distantes dele.
Após ter os limites escolhidos e todas as unidades devidamente pesadas, a próxima etapa é determinar
o desvio padrão entre os pesos mensurados. Sinta-se livre para realizar os cálculos com uma calculadora
ou um software qualquer. No momento do cálculo, não se esqueça de que falamos do desvio padrão
amostral, e não populacional!
Feito isso, você deve subtrair o limite inferior do limite superior que você estabeleceu previamente.
Divida o valor pelo desvio padrão que você encontrou entre as unidades produzidas. Marque o resultado.
Agora, deixemos o processo, ainda, mais rígido. Diminua o seu limite superior e aumente o seu limite
inferior, deixando-os, ainda, mais próximos do valor alvo. Não é necessário recalcular o desvio padrão,
apenas deixar os limites mais próximos. Repita, exatamente, o mesmo processo anterior, com a deter-
minação da diferença entre os dois limites e a divisão do resultado pelo desvio padrão. Seu resultado,
certamente, será menor do que o anterior, mesmo que em casas decimais.
O que você acabou de realizar é, exatamente, aquilo que discutiremos, de maneira teórica, durante
a nossa unidade atual: a determinação da capacidade do processo. Nesse caso, o processo sob análise
foi justamente a sua produção de unidades! Os resultados mostram o quão regular você conseguiu ser
durante seu próprio processo, quanto maior o número obtido após a divisão da diferença entre os limites
pelo desvio padrão, mais regular você terá sido.
Você pode realizar essa mesma análise de diversas outras maneiras. Por exemplo, estabeleça um volume
qualquer, como 100 mL, definindo um limite máximo e um limite mínimo para erros, por exemplo, 5
mL para mais e para menos do valor alvo. Em seguida, pegue o máximo de copos possível em sua casa e
tente enchê-los com exatos 100 mL de água. Por último, determine o desvio padrão entre todos os copos
que foram enchidos.
Após ter todos esses dados, divida a diferença entre os limites propostos pelo desvio padrão obtido.
Será que você consegue ser mais regular do que foi no experimento anterior? A essa altura, é possível que
você já tenha compreendido a importância dessa análise para a indústria, antes mesmo de iniciarmos a
abordagem dos conteúdos teóricos por trás do estudo da capacidade de processos, afinal, temos discutido
a importância de processos regulares, praticamente, desde o início do material. O que expomos, a partir
de agora, é todo o processo necessário para que possamos, de fato, utilizar a capacidade de processos a
nosso favor, revisitando discussões que tivemos em momentos anteriores.
221
UNICESUMAR
DIÁRIO DE BORDO
A capacidade do processo pode ser definida como a capacidade dele de produzir itens idênticos sob
um conjunto específico de condições e por um longo período de tempo, buscando analisar se ele é, de
fato, sustentável no ambiente em questão (MONTGOMERY, 2017).
222
UNIDADE 8
Por exemplo, uma empresa fabricante de alimentos decide operar sob um determinado
conjunto de parâmetros, como a temperatura local, a pressurização de equipamentos e a
velocidade com a qual a esteira roda. São necessárias diversas análises para saber quais são,
de fato, as condições ideais para esses três parâmetros para que tudo funcione da forma mais
adequada possível. Caso a temperatura esteja muito alta, os equipamentos aquecem mais
rápido do que deveriam, o que pode gerar problemas futuros. Uma pressurização muito
baixa pode causar entupimentos, enquanto uma pressurização muito alta pode deixar o
rendimento do transporte de um fluido muito baixo. Uma alta velocidade da esteira pode
fazer com que algumas unidades produzidas sofram quebras no meio do caminho, enquanto
velocidades baixas tornarão o processo muito moroso, gerando limitações.
A busca pelas condições ideais, muitas vezes, pode depender de diversos testes, funcio-
nando com base em tentativas e erros. Em algum momento, será encontrado o parâmetro
ideal, mesmo que sejam necessárias semanas para isso. Entretanto como sabemos que, de
fato, foi encontrado o conjunto ideal de condições de operação? Existe uma forma de ga-
rantir que tudo ocorre, adequadamente, e que não há uma forma de ocorrer uma melhoria?
Pois bem, melhorias sempre podem acontecer. Com a tecnologia que temos, hoje,
equipamentos cada vez melhores são lançados em uma frequência quase impossível de
acompanhar. Entretanto, considerando os resultados que se tem, é possível tornar a aná-
lise da capacidade de processo algo mensurável, por meio de alguns cálculos, os quais são
relativamente simples.
Para abordar esses cálculos, precisamos, antes, apresentar alguns conceitos, amplamente,
abordados durante nossa unidade atual. O primeiro deles se trata dos limites de especi-
ficação. Você pode pensar que já conhece esse termo, visto que tratamos dos gráficos de
controle de forma aprofundada nas três unidades anteriores. Aquilo que tratamos, porém,
durante as últimas unidades eram os limites de controle, e não de especificação. Ambos os
conceitos, apesar de similares, não têm quaisquer relações matemáticas.
223
UNICESUMAR
Os limites de especificação podem ser definidos pelos próprios gestores ou, dependendo
do produto, pelo cliente, caso estejamos tratando de um produto sob encomenda. Os
parâmetros para a escolha dos limites de especificação podem variar desde os próprios
limites de controle, que podem servir como estimativa, até o simples palpite dos respon-
sáveis pela decisão, como se eles apenas dissessem que querem aquele limite.
Quando tratamos da capacidade do processo, usamos exclusivamente os limites de
especificação, deixando os limites de controle de lado. Entretanto, apesar de não tratar-
mos diretamente desse conceito, continuaremos a usar um velho conhecido nosso para
entendermos a capacidade do processo: o desvio padrão.
A determinação do desvio padrão segue, exatamente, a mesma ideia daquilo que
foi abordado em unidades anteriores, em que coletamos uma quantidade específica de
amostras, mensuramos a característica desejada e, com os resultados, determinamos o
desvio padrão amostral. Essa prática é essencial para o CEP, em quase todos os cálculos.
Com isso definido, podemos voltar à discussão específica sobre a capacidade do processo
e apresentar os chamados índices de capacidade.
224
UNIDADE 8
Os índices de capacidade são a forma matemática que temos para determinar o quanto
um processo é capaz, sendo que a análise é concluída no momento em que encontramos
esse número. É importante citar que os índices de capacidade só podem ser determinados,
quando os resultados do processo se encontram sob uma distribuição normal, isso é uma
maneira de mostrar que temos apenas causas aleatórias ocorrendo, as quais já são previs-
tas. Caso haja uma causa atribuível influenciando o processo, é possível que a distribuição
deixe de seguir a normalização, o que torna o cálculo dos índices de capacidade inútil.
O primeiro índice a ser abordado, nesta unidade, é o índice Cp. Seu cálculo depende
apenas dos elementos que já apresentamos anteriormente, que são o LIE, o LSE e o desvio
padrão, sendo determinado por meio da Equação 1:
LSE LIE
Cp (1)
6s
A diferença entre o LSE e o LIE é chamada de tolerância do projeto. Apesar da Equação
1 ser a forma mais comum com a qual o cálculo do índice Cp é exposto na literatura, há
obras que podem substituir o numerador pela letra T. O denominador é igual a 6 vezes
o valor do desvio padrão. O número 6 não é utilizado em vão. Lembra-se que os limites
de controle consideravam a variação de 3 limites padrões para mais e para menos da
média? Esse valor se trata da soma entre os três desvios superiores e três desvios inferiores.
Quanto maior for o resultado do cálculo, mais ajustado o processo estará. Costuma-
-se considerar como um processo realmente bom aquele cujo índice Cp esteja acima de
1,33, enquanto processos com índices abaixo de 1,0 são considerados como incapazes e
precisam passar por uma remodelagem. Valores baixos indicam um alto desvio padrão,
isso expõe que as unidades não estão devidamente concentradas na mesma região da
distribuição normal.
Como falamos de distribuições normais, revisitaremos o histograma, ferramenta da
qualidade com a qual trabalhamos no início do material. As Figuras 1, 2 e 3 expõem a
estrutura dos histogramas e das distribuições normais para diferentes níveis do índice Cp.
Figura 1 - Distribuição de um
processo cujo índice Cp é superior
a 1,33 / Fonte: o autor.
225
UNICESUMAR
Figura 2 - Distribuição de um
processo cujo índice Cp está entre
1,0 e 1,33 / Fonte: o autor.
Figura 3 - Distribuição de um
processo cujo índice Cp é inferior
a 1,0 / Fonte: o autor.
226
UNIDADE 8
Nesse caso, menores valores para o índice P são algo positivo. Caso o índice seja igual
a, por exemplo, 70, isso significa que a variabilidade do processo corresponde a 70% do
que é tolerável. Um valor próximo de 100 indica que a variação está dentro dos limites,
mas que qualquer aumento poderá comprometer os resultados (LOUZADA et al., 2013).
Para todos os fins, tanto o índice Cp quanto o índice P têm exatamente a mesma
finalidade e, apesar das escalas funcionarem de maneira contrária, ambos são facil-
mente interpretáveis. Por conta disso, a aplicação na indústria costuma variar, havendo
vários casos em que os dois índices são considerados. Entretanto o índice Cp tem uma
limitação, a qual também atinge o índice P, visto que este é influenciado diretamente
pelo primeiro. Como forma de auxiliar a compreensão dessa limitação, é apresentado o
gráfico da Figura 4.
Para a criação da Figura 4, usamos o mesmo gráfico da Figura 1, mas com valores des-
locados para os limites. Entretanto a diferença entre o LIE e o LSE continua sendo
exatamente a mesma. Da mesma forma, o desvio padrão entre os dados do histograma,
também, é a mesma. Retornando à Equação 1 apresentada anteriormente, você nota que,
para o cálculo do índice Cp, dependemos apenas da diferença entre os dois limites e do
desvio padrão entre os dados.
Desse modo, se nos gráficos das Figuras 1 e 4 nós temos exatamente a mesma diferença
entre os limites e exatamente o mesmo desvio padrão, o índice Cp das duas será idêntico,
mesmo sendo visível que o processo da Figura 1 tem resultados muito mais desejáveis do
que aqueles apresentados na Figura 4. Isso ocorre porque o índice Cp parte da suposição
de que o centro do histograma se localiza exatamente no ponto central entre os dois li-
mites. Por conta disso, é possível que processos descentralizados apresentem índices Cp
altos quando, na verdade, fogem completamente do padrão esperado.
Por conta disso, algumas empresas optaram por abandonar o cálculo do índice Cp,
visto que ele só podia ser aplicado de maneira coerente a partir do momento em que se
tinha certeza dos valores centralizados entre os limites. Porém, na década de 80, foi criado
227
UNICESUMAR
um novo índice de controle, o qual elimina esse problema de forma definitiva e torna os resultados
mais fiéis à realidade (RAMOS; ALMEIDA, ARAÚJO, 2013). A partir de agora, trataremos do nosso
terceiro índice: o índice Cpk. Seu cálculo é realizado com base na Equação 3:
LSE µ µ LIE
C pk MIN [ , ] (3)
3σ 3σ
Os valores de LSE, LIE e s são os mesmos que usaríamos durante o cálculo do índice Cp. O diferen-
cial entre os cálculos está em dois fatos. O primeiro se trata do valor de µ, que é a média dos dados
obtidos, durante as observações. Envolver essa informação no cálculo nos garante que há um compa-
rativo entre os dados e os limites propostos para o processo. A segunda diferença está no fato de que é
considerado o valor mínimo obtido com o cálculo. Na Equação 3, há dois cálculos a serem realizados,
sendo um envolvendo o LSE e outro envolvendo o LIE. Os dois resultados devem ser obtidos, mas
apenas o menor deles será considerado como sendo o índice Cpk. Isso ocorre para que tenhamos uma
noção real sobre o processo, em nada adianta ter um bom resultado em um dos cálculos e um valor
abaixo de 1,0 no outro. A Figura 5 apresenta um bom comparativo entre o índice Cp e o índice Cpk.
LIE LSE
σ=2
C p = 2,0
(a) C pk = 2,0
38 44 50 56 62
σ=2 C p = 2,0
C pk = 1,5
(b)
38 44 50 56 62
σ=2 C p = 2,0
C pk = 1,0
(c) Figura 5 - Comparativo entre o
índice Cp e o índice Cpk
38 44 50 56 62 Fonte: Montgomery (2017).
228
UNIDADE 8
É importante notar que, enquanto o índice Cp terá valores positivos, visto que em qualquer
hipótese os valores do numerador e do denominador da fração serão positivos, o Cpk
poderá assumir valores negativos em casos extremamente críticos, como no exemplo
(e) da Figura 5. Isso ocorrerá quando o centro da distribuição dos dados estiver fora dos
limites de controle, o que é, sem sombra de dúvidas, uma situação muito grave. Caso
todo o processo esteja fora de controle, o Cpk adotará um resultado igual a -1 ou menor.
Situações em que o centro coincidir com um dos limites resultarão em um Cpk igual a 0.
µ B = 57,5
σB = 2,5
LIE µ A = 50 LSE
σA = 5 B
A
38 40 T = 50 60 70
Figura 6 - Gráficos A e B, ambos com o mesmo índice Cpk / Fonte: Montgomery (2017).
Descrição da Imagem: duas curvas normais, A e B, sendo que A tem seu centro em 50 e desvio padrão igual a 5,
enquanto B tem seu centro em 57,5 e desvio padrão igual a 2,5. Os limites de especificação inferior e superior são,
respectivamente, 35 e 65.
229
UNICESUMAR
No caso representado na Figura 6, temos dois processos cujos Cpk são 1,0. É perceptí-
vel, porém, que ambos são completamente diferentes. Enquanto o centro do processo
A coincide com o centro entre os limites de especificação, o centro do processo B está
deslocado para uma posição mais próxima do LSE. Por outro lado, as observações de A
estão espalhadas, enquanto as observações de B estão mais concentradas em uma única
região. Isso mostra que, mesmo funcionando de uma maneira mais precisa do que o
índice Cp, o índice Cpk, também, tem uma limitação.
E, de uma forma quase irônica, a forma de corrigir esse erro se baseia no uso do
índice Cp, que antes havia sido preterido em função do Cpk. Ao usar os dois índices
simultaneamente, teremos uma forma de garantir que o processo esteja funcionando
adequadamente e com resultados perfeitamente centralizados, quando tivermos re-
sultados iguais para ambos. Diferenças pequenas, também, são plenamente aceitáveis
(MONTGOMERY, 2017).
É seguro dizer que, caso o índice Cpk seja bom, o índice Cp também terá um valor
aceitável. Entretanto, o uso simultâneo dos dois é o que, de fato, dá uma utilidade defi-
nitiva ao cálculo dos índices. Também, pode-se contornar a situação com o uso de um
único índice, que é o índice Cpm. A vantagem dele sobre o uso dos índices Cp e Cpk
está no fato de que é realizado um comparativo direto entre o valor central, os limites
estabelecidos para o processo e a média obtida entre as observações. Esse índice é cal-
culado a partir da Equação 4:
LSE LIE
C pm (4)
6t
Os valores de LSE e LIE são os mesmos sobre os quais discutimos anteriormente. A única
diferença nesse índice em relação aos demais é o valor de t , que é calculado com base
na Equação 5:
τ 2 σ 2 (µ T )2 (5)
LSE LIE
T (6)
2
230
UNIDADE 8
Pode-se calcular o índice Cpm de uma forma alternativa, tendo como base o índice Cp.
Para tanto, usa-se a Equação 7:
C´ p
C pm (7)
2
1 x
A variável (lê-se “csi”) é determinada com base na diferen x ça entre a média das obser-
vações e o centro entre os limites, a qual será dividida pelo desvio padrão. Expressando,
matematicamente, temos a Equação 8:
µ T
ξ (8)
σ
Independentemente da opção pela Equação 4 ou 7, o resultado para o índice Cpm será
o mesmo, salvo casos em que haja algum arredondamento. A interpretação do resulta-
do é a mesma que a dos demais índices apresentados, com valores acima de 1,33 sendo
plenamente capazes; valores entre 1,00 e 1,33 sendo considerado aceitáveis, e valores
abaixo de 1,00 ocorrendo para processos considerados incapazes.
Conforme o valor de μ se afasta do valor de T, o valor do índice é reduzido. Isso condiz
com a realidade, pois indica que o centro da distribuição de dados se afasta da posição
central entre os limites estabelecidos, além de ser algo que também ocorre com o índice
Cpk (MONTGOMERY, 2017).
231
UNICESUMAR
R s
s
= = (9)
d2 c4
Os valores de R e de s são, respectivamente, a amplitude média e o desvio padrão médio
entre as observações. Devemos usar apenas um deles, o que depende diretamente do tipo
de gráfico que estivermos usando. Os valores de d2 e de c4 são tabelados e dependem
diretamente da quantidade de observações envolvidas em cada amostra. Eles são apre-
sentados na Tabela 1.
232
UNIDADE 8
233
UNICESUMAR
30
25
20
15
10
0
0,90 a 0,92 a 0,94 a 0,96 a 0,98 a 1,00 a 1,02 a 1,04 a 0,90 a 1,08 a maior
0,92 0,94 0,96 0,98 1,00 1,02 1,04 1,06 0,92 1,10 que 1,10
Figura 7 - Distribuição em forma de histograma dos dados coletados por Camile / Fonte: o autor.
Descrição da Imagem: um histograma em forma de distribuição normal, com o ponto mais alto sendo a coluna central.
234
UNIDADE 8
1, 10 0, 90
Cp 0, 62
6 * 0, 054
O valor de 0,62 obtido para o índice Cp não nos dá um bom sinal, pois indica que os
dados estão muito espalhados em relação ao centro da distribuição. Note que, mesmo
com a maioria das colunas do histograma correspondendo a valores localizados entre os
limites, o índice teve um valor baixo, isso ocorre por conta do desvio padrão ser muito
alto. Tratando-se do índice P, temos o seguinte cálculo por meio da Equação 2:
1
=P 100
= * 161, 29
0, 62
Sabemos que valores acima de 100 são ruins, quando falamos do índice P. O resultado
condiz com a conclusão que tivemos em relação ao índice Cp. Para o índice Cpk, deve-
mos calcular a média entre todos os dados coletados, que é de 1,013 kg. A partir disso,
obtemos os seguintes resultados:
1, 10 1, 013 1, 013 0, 90 0, 62
C pk MIN [ ; ] MIN [0, 54; 0, 70]] C pm 0, 60
3 * 0, 054 3 * 0, 054 1 0, 242
Como devemos escolher o valor mínimo encontrado entre os dois cálculos envolvidos
no índice Cpk, temos que o resultado é de 0,54. Novamente, temos um valor que indica
problemas no processo. Por último, podemos realizar o cálculo para o índice Cpm. Por
meio da Equação 6, encontramos o valor de T:
1, 10 0, 90
T 1, 00
2
Em seguida, calculamos o valor de x com a Equação 8:
1, 013 1, 00
x 0, 24
0, 054
Para, enfim, encontrarmos o índice Cpm com a Equação 7:
235
UNICESUMAR
Com base no que vimos no exemplo, os resultados do processo são todos ruins, o que nos faz concluir
que há algum problema no que é realizado. Sendo assim, quais serão as possíveis soluções? Pois bem,
a primeira delas seria realizar um comparativo com o LIC e o LSC. Sabemos que, para um processo
comum, costuma-se considerar os limites a 3 desvios padrões de distância da média entre os dados.
Com o que temos registrado no exemplo, nossos LIC e LSC seriam, respectivamente, próximos de
0,84 e 1,16 — uma faixa mais ampla do que dos limites estabelecidos e que contém todos os dados
coletados. Com base nisso, cabe o questionamento: os limites de especificação estão muito rígidos?
Outra possibilidade é a de que tenhamos um desvio padrão muito alto. Na maioria das vezes, esse será,
de fato, o problema por trás de índices ruins, e caberá aos responsáveis pelo gerenciamento de pro-
cessos encontrar uma maneira de tornar os resultados mais concentrados ao redor do valor nominal.
Em alguns casos, o próprio equipamento não terá condições de atender ao que foi especificado pela
empresa, o que resultará em um estudo de verificação a respeito do tema. Seria necessário aumentarmos
a faixa de valores aceitáveis ou trocar os equipamentos? No fim das contas, os índices de capacidade
nos ajudam a entender nossas limitações e a buscar pelas perguntas certas a serem feitas.
Os índices de capacidade, apesar de diferentes, têm todos uma mesma finalidade: nos ajudar
a compreender se, no cenário atual, temos condições de atender às especificações estabe-
lecidas pela gestão e pelos clientes. Os índices Cp e Cpk, juntos, nos ajudarão a verificar se o
processo se encontra, de fato, com dados centralizados ao redor do nosso valor alvo e se eles
poderiam ser mais concentrados em uma mesma região, enquanto o índice Cpm realiza as
duas análises por contra própria.
Diferente do que discutimos em unidades anteriores, nas quais caberia uma discussão sobre
qual é a melhor opção a ser aplicada — como a melhor ferramenta da qualidade ou o melhor
tipo de gráfico de controle —, nesse caso, cabe a aplicação de todos simultaneamente, pois
os índices se complementam.
236
UNIDADE 8
Com a discussão a respeito dos índices, praticamente encerramos o conteúdo a ser abordado em
nosso material. Partiremos para a última unidade, mas, antes, não se esqueça de realizar os exercícios
preparados para você!
Os índices que discutimos são aplicados na prática tanto pela sua utilidade quanto pela sua facilidade.
As equações envolvidas são relativamente simples, principalmente quando comparadas às discussões
que tivemos em unidades anteriores.
A partir do momento que se conhecer o desvio padrão e a média da característica estudada entre
as amostras coletadas, a aplicação dos índices se tornará extremamente simples, partindo, é claro, do
princípio de que já temos os limites estabelecidos e o valor alvo conhecido. Teremos noção se, de fato,
é possível cumprir com o que foi proposto ou se é necessário realizar uma remodelagem do processo.
Vale dizer novamente que, caso os resultados não correspondam a uma distribuição normal, não será
necessário determinar o índice de capacidade para saber que ele não corresponde às expectativas!
A possibilidade de atrelar os índices de capacidade às ferramentas da qualidade os torna ainda mais
convenientes, pois, como os dados para a definição deles já foram extraídos no momento
da montagem do histograma ou do gráfico de controle, o único trabalho
restante acaba por ser a realização do cálculo, o qual pode ser
realizado sem maiores dificuldades por meio de
softwares, como o Microsoft Excel.
237
Para finalizarmos a unidade, que tal preenchermos o mapa mental? O conteúdo dessa unida-
de, apesar de ser relacionado ao que vimos anteriormente, é um tanto diferente de tudo que
abordamos até agora; por conta disso, nosso mapa mental terá poucas ligações com aquilo que
discutimos nos capítulos anteriores.
No quadro, temos os quatro índices apresentados durante a unidade listados. Todos eles se in-
terligam em um único quadro maior. Sua tarefa é descrever, para cada um dos índices, quais são
os parâmetros necessários para seus cálculos e quais são as suas respectivas limitações, além
de suas vantagens perante os demais. Em seguida, no último quadro, apresente a finalidade
conjunta de todos os índices.
CAPACIDADE DE PROCESSO
Descrição da Imagem: um quadro com o escrito “capacidade de processo” e que se divide em quatro quadros menores: índice
Cp, índice P, índice Cpk e índice Cpm. Os quatro quadros se unem em um único quadro maior.
238
1. Sabe-se que os índices Cp e Cpk são utilizados para determinar a capacidade de um
processo, quanto maior for o seu valor, melhor tende a ser o processo. Um processo
de produção de cremes dentais tem como limites inferior e superior de especificação,
respectivamente, os valores de 95 g e 105 g. A média dos resultados obtidos em um
processo foi de 98,3 g, com desvio padrão de 1,2. Com base nas informações expostas,
analise as alternativas, a seguir.
I) O índice Cp é de 1,39.
II) O índice P é de aproximadamente 72.
III) O índice Cpk é de 1,86.
IV) Com base nos índices Cp e Cpk, o processo pode ser considerado como plenamente
capaz.
592,26 592,71 599,67 594,23 596,27 606,47 595,71 596,92 597,03 605,82
600,04 600,42 606,00 603,88 607,58 605,67 603,46 594,62 600,50 600,92
602,75 599,99 599,88 602,41 599,82 592,10 591,81 597,48 604,45 600,70
607,26 606,83 600,30 601,98 598,08 595,22 600,12 595,48 603,97 600,72
593,54 591,95 595,12 604,43 601,04 599,95 598,49 599,79 601,70 603,31
598,34 605,67 598,70 605,22 600,86 594,21 603,93 600,00 591,23 593,75
602,87 594,07 595,27 596,32 596,52 601,57 601,15 598,87 595,32 603,81
598,51 593,85 597,42 605,03 591,42 595,83 595,99 600,32 603,24 596,76
605,55 599,10 591,27 600,03 601,59 603,62 592,28 597,93 597,23 606,93
605,68 607,72 599,16 597,63 600,98 601,05 600,31 600,58 597,86 600,01
Fonte: o autor.
239
Com base nos dados expostos, realize os itens a seguir:
a) Monte um histograma de 7 classes, sendo a primeira com valores de menores que
592 g, a segunda com valores entre 592 g e 595 g e, assim, por diante, com as classes
variando de 3 em 3 gramas.
b) Com o formato do histograma obtido, é possível determinar os índices de capacidade
do processo? Justifique sua resposta.
c) Considere que o LIE é de 580 g e que o LSE é de 620 g. Determine os índices Cp e Cpk.
d) O processo pode ser considerado como adequado? Justifique sua resposta.
3. A seguir, estão registrados os gráficos de quatro processos, nos quais as barras verticais
indicam o limite inferior de especificação (LIE) ou o limite superior de especificação (LSE),
conforme indicações. Os valores dos limites são iguais para todos os casos.
A B
C D
Descrição da Imagem: quatro gráficos com distribuições normais, indicados pelas letras A, B, C e D. O gráfico A tem uma
distribuição estreita e próxima ao LSE. O gráfico B tem uma distribuição espalhada, com uma parte dela ultrapassando
o LIE. O gráfico C tem uma distribuição estreita e perfeitamente centralizada entre LIE e LSE. O gráfico D tem uma distri-
buição perfeitamente centralizada e espalhada entre LIE e LSE.
240
A respeito das distribuições expostas, são feitas as seguintes afirmações:
I) Os índices Cp dos gráficos B e D têm valores próximos.
II) Os índices Cpk dos gráficos C e D têm valores próximos.
III) O processo C é, visivelmente, aquele com os resultados mais adequados.
IV) O índice Cp de A é maior que o índice Cp de D, mas, sem os devidos valores, não é
possível dizer qual das duas distribuições tem o maior Cpk.
4. Suponha que uma fábrica de bebidas tenha como um de seus produtos refrigerantes,
os quais vêm em garrafas de 1 litro. O limite inferior de especificação é de 990 mL, en-
quanto o limite superior de especificação é de 1,01 L. Considere que o desvio padrão
obtido a partir de uma coleta e análise de 30 amostras seja de 3 mL.
Com base na situação exposta, analise as asserções a seguir.
I) O índice Cp do processo em questão é de 1,22.
II) O índice Cp do processo pode ser considerado como aceitável.
III) Pode-se afirmar que, caso fossem coletadas mais observações, o processo com
certeza teria um índice Cp menor.
IV) Caso a média dos dados do processo seja de 1,004 L, então o índice Cpk estará
abaixo de 1, fazendo o processo ser considerado incapaz.
241
5. Um gráfico de controle x-s é usado para analisar dados coletados em um processo de
produção de peças de tecido, as quais devem ter comprimento igual a 20 m. Sabe-se que
o LIE e o LSE são, respectivamente, 16 m e 24 m. A média global entre as observações
é de 20,6 m, enquanto o desvio padrão médio entre as amostras é igual a 0,53, sendo
usadas 15 observações para a composição de cada amostra.
Com base nas informações passadas, analise as afirmações a seguir:
I) O índice Cp é de 2,47.
II) O índice Cpk é de 2,10.
III) O índice P é menor que 40.
IV) O processo pode ser considerado plenamente capaz sob todos os pontos de vista.
242
243
244
9
Amostragem
de Aceitação
Me. Paulo Otávio Fioroto
246
UNIDADE 9
Como a empresa, ainda, estava em estágio incipiente, não havia quaisquer normas internas sobre
a qualidade, assim como não existia algum conhecedor das legislações a respeito do CEP. A verdade é
que Caroline havia sido contratada para ser essa pessoa e, apesar de ter um conhecimento razoável a
respeito do assunto e ter auxiliado na concepção de vários processos em seu emprego anterior, nunca
havia recebido a árdua missão de estruturar um setor por completo, desde a estaca zero.
Ela sabia muito bem as normas envolvidas no CEP e como interpretá-las, mas só pode haver apli-
cação das normas referentes à amostragem, quando se sabe o tamanho dos lotes que serão produzidos.
Sendo assim, todo um processo de organização com os demais setores deve ser realizado. Durante a
unidade, discutimos os pontos necessários para que Caroline possa estruturar o processo da melhor
maneira possível, de forma a serem apresentadas alternativas e justificadas às escolhas adotadas.
Antes de iniciarmos a discussão, que tal realizar um experimento em
sua própria casa? Nosso teste poderá ser realizado com qual-
quer item que contenha várias unidades dentro de uma
mesma embalagem, como uma caixa de cotonetes, um
pacote de parafusos ou, até mesmo, um pacote de
biscoitos, que será utilizado em nossa explicação.
Ao retirar o produto da embalagem, você
acredita que a qualidade dele tenha sido testa-
da? A verdade é que, se algum dos itens listados
anteriormente estiver em suas mãos, ele certa-
mente não terá sido avaliado. O lote ao qual a
embalagem pertence com certeza terá passado
por diversas análises, mas não essa unidade
específica que você tem em mãos.
Você consegue entender o motivo para
isso? Pois bem, para ajudar na compreensão,
abra o pacote e retire o primeiro biscoito. Quais
parâmetros você acredita que possam ser avaliados
durante a análise de qualidade? Questões como o
peso, as dimensões de largura, comprimento e espes-
sura, além da textura e da análise sensorial, são muito
importantes para produtos alimentícios. Se tratarmos de
biscoitos recheados, o recheio também deve passar por testes
referentes à textura e à doçura. Se falarmos dos parafusos, estes
devem ter sua resistência testada, o que pode ser feito com algum
equipamento que aplique testes de pressão, além de, novamente,
ser necessária a avaliação das suas dimensões. Cada item tem
suas características de maior relevância.
247
UNICESUMAR
Você consegue realizar todas essas análises sem manusear os itens em questão? Mesmo
com o uso de luvas, é quase impossível que não haja ao menos alguma contaminação
no item; isso já tornaria os cotonetes inutilizáveis, pois a intenção deles é justamente
que sejam perfeitamente limpos. Além disso, tanto tempo de exposição ao ar tornará
o biscoito menos crocante. Após tantos testes, torna-se impossível que o item possa
ser consumido. Muitas vezes, uma amostra pode nem ao menos passar por todas as
análises, pois será destruída durante algum outro procedimento. Você não conseguirá,
de maneira alguma, fazer com que o item volte a ter as características que tinha antes.
O que foi apresentado indica que nunca manusearemos um item que tenha
passado por uma inspeção de qualidade? Não, nem um pouco! Cada item tem
uma natureza diferente. Enquanto algumas variedades passam por processos que
os tornam inutilizáveis, outros passam por avaliações que em nada os afeta, por
exemplo, equipamentos eletrônicos, automóveis e produtos desenvolvidos sob
encomenda. Entretanto isso traz um novo questionamento: quantos itens devem
ser testados para que tenhamos certeza de que o lote pode ser aprovado? Como
saberemos que nossos testes foram suficientes para supor que não haverá
maiores problemas futuramente?
Para que seja possível responder a essa pergunta, você precisa, primeiro,
saber quantos itens são produzidos. Vamos supor que a embalagem de bis-
coitos que você tem em mãos seja um lote completo. Contabilize quantas
unidades há nela. São quinze, vinte? Independentemente de quantas forem,
considere o seguinte: as unidades que forem testadas não poderão ser
ingeridas. Você deve realizar ao menos um teste para poder dizer que o
restante da embalagem será consumido.
Por um lado, quanto menos amostras você analisar, maior será a chance
de ocorrer uma falha entre as demais, o que poderá trazer problemas
no futuro; entretanto você poderá comer mais. Por outro, quanto mais
amostras você testar, menores serão as chances de ocorrer algum proble-
ma, mas você tirará menos proveito do seu pacote. Esses aspectos são,
na verdade, definidos por normas e legislações, caso contrário, cada
um testaria conforme bem entendesse. A partir de agora, trataremos
dessas situações de maneira específica.
248
UNIDADE 9
DIÁRIO DE BORDO
Primeiramente, é importante que o conceito de “lote” fique claro, visto que falaremos bastante sobre
eles no decorrer da unidade. Lotes são um conjunto de unidades que foram produzidas em uma mes-
ma remessa e, consequentemente, possuem um mesmo código, quando registrados pela empresa. Há
alguns pontos que devem ser sempre lembrados a respeito deles.
Um lote deve ser sempre homogêneo no que se refere à produção. As unidades devem ser produzidas
pela mesma máquina, pelo mesmo operador, utilizando a mesma matéria-prima e na mesma faixa de
horário. Isso facilita o rastreamento de eventuais falhas e a aplicação de ações corretivas. Além disso,
em termos econômicos, lotes maiores são preferíveis a lotes menores; proporcionalmente, a inspeção
de amostras de lotes grandes é mais fácil e barata de ser realizada (DIAS, 2011).
A ação de utilizar algumas amostras dentro de um lote completo para serem analisadas chama-se
amostragem, e trata-se de um procedimento bastante comum na indústria na atualidade. Antigamente,
até o início do século XX, a inspeção era realizada com 100% das unidades produzidas, o que gerava
muitos gastos e tomava muito tempo. Como as normas da qualidade não eram bem definidas, produ-
tos alimentícios não passavam por avaliações, o que tinha grande potencial para causar problemas de
saúde aos consumidores (MONTGOMERY, 2017).
249
UNICESUMAR
Anteriormente, os testes eram regidos por normas internas das companhias, que
escolhiam quantas unidades de cada lote deveriam ser testadas. Porém algumas delas
analisavam parcelas muito pequenas, as quais, estatisticamente, geravam resultados in-
conclusivos. A partir de então, foram estabelecidas normas gerais para reger as análises
e decisões referentes à amostragem.
Deve ficar claro que a intenção da análise por amostragem é avaliar a aceitação ou
rejeição do lote, e não estimar a qualidade do produto. Você provavelmente já encontrou
latas com bebidas ruins, biscoitos um pouco mais queimados do que o normal ou algo
similar. A qualidade do produto final pode não ser a mais adequada, mas, dentro dos
parâmetros estabelecidos pela empresa no que se refere às amostras, o lote, ainda, foi
considerado como aceitável (MONTGOMERY, 2017).
Quando tratamos da inspeção por amostragem, os resultados possíveis são apenas a
aceitação total ou a rejeição total, sem um meio termo. Não há sentido em aceitar um lote
parcialmente, quando tratamos da análise por amostras. Na inspeção 100%, é possível
recusar apenas aquelas unidades nas quais forem identificadas as falhas.
A amostragem de aceitação é adotada na maioria dos casos, enquanto a inspeção 100%,
que analisa todas as unidades produzidas, é comum em casos nos quais os produtos são
feitos sob encomenda ou quando há poucas unidades produzidas, além de casos nos
quais o custo de uma única falha poderá ser extremamente alto. Vale citar que, além das
unidades produzidas, também, é um hábito comum inspecionar as unidades adquiridas
de um produtor inicial, pois é uma forma de termos certeza de que foi adquirido material
de qualidade aceitável.
Tratando-se da amostragem de aceitação, temos sua presença mais comumente quando
tratamos de testes destrutivos; quando a inspeção 100% for muito custosa em termos de
tempo ou financeiros, em situações nas quais a taxa de erro da inspeção for muito alta,
pois, em situações como essa, a quantidade de falhas encontradas em uma inspeção 100%
e em uma inspeção por amostras será muito próxima; quando o histórico do fornecedor
original do produto for impecável e quando houver obrigatoriedade de inspeções para
que o processo possa ser continuado.
Testes destrutivos são aqueles nos quais as amostras analisadas são destruídas
durante a verificação. O exemplo dado no início desta unidade, tratando de
biscoitos, cotonetes e parafusos, envolve testes destrutivos, pois as amostras
analisadas não voltam ao estado original, após serem analisadas.
250
UNIDADE 9
251
UNICESUMAR
Caroline, em sua pesquisa na busca pela estruturação dos processos de análise, teve
certeza imediata de que deveria usar os planos de amostragem ao invés da inspeção 100%.
Entretanto, em um primeiro momento, teve dúvidas sobre as normas que deveria utiliza r,
pois tanto as análises para atributos quanto para variáveis estariam envolvidas. Porém não
demorou muito para que entendesse que ambas deveriam ser utilizadas. Como há análises
das duas naturezas na indústria de bebidas, os resultados de cada teste serão regidos pelas
suas normas específicas.
Cada um dos planos tem sua própria natureza, e esse será nosso foco a partir de agora.
Primeiramente, trataremos dos planos de amostragem para atributos. Conforme previs-
to por lei, há diversas formas de estruturar o plano de amostragem para atributos. A primeira
delas, e a de mais fácil interpretação, é o plano de amostragem única. Nesse formato, é
selecionada uma amostra com uma quantidade n de unidades no lote, e é determinado
um valor c máximo de itens defeituosos. Se a quantidade d de falhas for maior do que c,
então o lote será rejeitado. Caso o valor de d seja menor ou igual a c, então o lote será aceito.
O segundo formato é o plano de amostragem dupla. Nesse caso, retira-se duas amos-
tras, cada uma com a mesma quantidade de unidades, do lote em análise. Entretanto ao
invés de testarmos ambas as amostras simultaneamente, em um primeiro momento, tes-
taremos apenas uma delas.
Para facilitar a compreensão, supomos que cada uma das amostras do plano de amos-
tragem dupla tenha 50 unidades. Analisaremos uma amostra nesse momento e deixaremos
a segunda de lado por alguns instantes. Estabeleceremos que, caso tenhamos apenas uma
única falha entre as 50 primeiras unidades, o lote será aceito. Entretanto, caso tenhamos
mais de três falhas, o lote será automaticamente recusado. Mas se tivermos duas ou três
falhas? Essas quantidades não são baixas o suficiente para serem aceitas, mas também não
são altas o suficiente para serem recusadas.
Pois bem, isso faz com que seja necessário utilizarmos a nossa segunda amostra de 50
unidades, a qual havíamos deixado de lado! Serão realizados novos testes com essa segunda
amostra. Estabelecemos anteriormente que aceitaríamos até três falhas em nossas amostras.
Caso o somatório de falhas entre a primeira e a segunda amostra seja igual ou menor do
que três, então poderemos aceitar o lote.
Se nosso lote for aprovado já no primeiro teste, poderemos devolver as unidades da
segunda amostra à nossa cadeia produtiva. Isso tornaria nossos gastos menores, o que
geraria uma vantagem em relação ao plano de amostragem única. Por outro lado, deve-se
ter em mente que, somando os dois lotes do plano de amostragem dupla, a quantidade
de itens retirados será sempre maior do que a amostra do plano de amostragem única.
De maneira análoga, podemos dizer que é realizada uma aposta, caso seja necessário usar
apenas a primeira amostra do plano de amostragem dupla, economizaremos, mas, caso
seja preciso analisar a segunda amostra, então gastaremos mais do que gastaríamos com
a amostragem única. A Figura 1 apresenta, graficamente, o fluxo explicado anteriormente.
252
UNIDADE 9
Analisar primeira
amostra de
50 unidades
Analisar segunda
amostra de
50 unidades
Aceitar Rejeitar
o lote Caso as duas Caso as duas o lote
amostras, juntas, amostras, juntas,
apresentem no apresentem mais
máximo três falhas de três falhas
Figura 1 - Fluxo de um plano de amostragem dupla / Fonte: adaptada de Montgomery (2017).
Descrição da Imagem: um quadro com o escrito “analisar a primeira amostra de 50 unidades”, que leva a três
caminhos diferentes. O primeiro caminho, apontando para a esquerda, diz que “caso haja apenas uma falha,
aceitar o lote”. O segundo caminho, apontando para a direita, diz que “caso haja mais de três falhas, recusar
o lote”. O terceiro caminho, apontando para baixo, aponta para um quadro que diz “caso haja duas ou três
falhas, analisar a segunda amostra de 50 unidades”. Desse caminho saem dois novos caminhos. O primeiro
caminho, apontando para a esquerda, diz “caso as duas amostras, juntas, apresentem mais de três falhas,
aceitar o lote”. O segundo caminho, apontando para a direita, diz “caso as duas amostras, juntas, apresentem
mais de três falhas, rejeitar o lote”.
253
UNICESUMAR
2a8 A A A A A A B
9 a 15 A A A A A B C
16 a 25 A A B B B C D
26 a 50 A B B C C D E
51 a 90 B B C C C E F
91 a 150 B B C D D F G
151 a 280 B C D E E G H
281 a 500 B C D E F H J
501 a 1200 C C E F G J K
1201 a 3200 C D E G H K L
3201 a 10000 C D F G J L M
10001 a 35000 C D F H K M N
35001 a 150000 D E G J L N P
150001 a 500000 D E G J M P Q
Acima de 500001 D E H K N Q R
Na absoluta maioria dos casos, utiliza-se como base a codificação referente ao nível geral de inspeção
II, visto que a preferência por ela é uma orientação da própria NBR 5426. O nível I é usado quando a
exigência é menos rígida, o que depende do histórico do fornecedor, enquanto o nível III é utilizado em
situações nas quais as exigências são maiores. Os níveis especiais são usados, apenas, em casos muito
específicos, como em situações nas quais não se pode usar muitas unidades em cada amostra, devido a,
por exemplo, testes destrutivos muito caros, em que a quantidade de testes realizados é extremamente
limitada, ou devem ser tolerados riscos muito grandes na amostragem.
254
UNIDADE 9
255
UNICESUMAR
Tabela 2 - Tabela da NBR 5426 para planos de amostragem únicos com condições normais de inspeção / Fonte: adaptada de Montgomery (2017).
de um lote. A Tabela 2 apresenta os
limites de aceitação e recusa para
lotes, sendo analisados com base
em um plano de amostragem úni-
ca e condições de inspeção normais.
Além da Tabela 2, a NBR 5426 con-
tém outras oito tabelas similares,
mostrando as diferentes combina-
ções de planos de amostragem (úni-
co, duplo e múltiplo) e condições
(normal, severa ou atenuada).
256
UNIDADE 9
Na Tabela 2, a sigla “Ac” significa que o lote deve ser aceito, enquanto a
sigla “Re” indica que o lote deverá ser recusado. As setas que apontam
para baixo indicam que deve ser usado o primeiro plano amostral abaixo
da seta, mesma orientação das setas apontando para cima, que indicam
que deve ser usado o primeiro plano amostral acima da seta. Em casos
nos quais o tamanho da amostra exceder ou igualar o tamanho do lote,
deve ser realizada inspeção 100%.
O NQA, dependendo do tamanho do lote, pode ser dado em porcen-
tagem de itens defeituosos ou em defeitos a cada 100 unidades. Caso o
NQA seja maior do que 10, será considerada que ele é dado em “defeitos
a cada 100 unidades”, enquanto um NQA igual ou menor do que 10 terá
seu valor dado em “porcentagem de itens defeituosos”.
Em um primeiro momento, você pode pensar que ambos os termos
têm o mesmo significado. Entretanto se lembre: um item pode ter mais
do que um defeito. Sendo assim, quando dizemos “defeitos a cada 100
unidades”, estaremos contabilizando cada defeito individualmente, ou
seja, um item com dois defeitos vale por dois, enquanto o termo “por-
centagem de itens defeituosos” indica que, mesmo que um item tenha
mais do que um defeito, ainda assim será contabilizada apenas uma falha.
257
UNICESUMAR
Com esse exemplo, finalizamos nossa discussão a respeito de planos focados em atributos.
A partir de agora, focaremos nossa discussão na NBR 5429, que apresenta os planos de
amostragem para variáveis. A avaliação por atributos, assim como ocorria, quando
tratamos dos gráficos de controle, limita-se a dizer se um item está conforme ou não,
quando comparado a um conjunto pré-determinado de requisitos. Já a inspeção por variá-
veis ocorre, baseando-se em uma escala contínua, como metros, segundos, quilogramas,
com cada medição anotada. Sendo assim, a análise de variáveis nos dá informações mais
completas do que os atributos, pois saberemos não apenas se há erros, mas também o
seu tamanho, o que é uma vantagem enorme.
Os planos de amostragem baseados em variáveis costumam exigir menos amostras
do que aqueles relacionados a atributos. Isso é algo comum em termos estatísticos, já que
não tratamos mais de dados binários que se resumiriam a “bom” ou “ruim”, mas sim a
dados mais completos, que nos dão noção da variação em relação ao esperado. Os custos
envolvidos, entretanto, para a coleta e análise de variáveis são maiores, então, ao menos
na questão financeira, os valores podem não ser tão diferentes.
Apesar dos resultados mais completos, há certas desvantagens quando tratamos
dos planos de amostragem para variáveis. A primeira delas é a de que os planos sempre
preveem uma gama de resultados que sigam o formato da distribuição normal. Se a
normalidade não for respeitada, então, as informações previstas na NBR 5429 não serão
válidas, comprometendo todo o procedimento.
258
UNIDADE 9
x LIE
Z LIE (1)
s
O valor de Z se trata da distância entre a média de valores das amostras coletadas, que
é x , e do limite inferior estabelecido, que é dado por LIE. O desvio padrão s se trata
do desvio entre as unidades do lote inteiro, e não apenas da amostra, o qual pode ser
conhecido ou não. Vale citar que a Equação 1, também, pode ser aplicada para o LSE, de
modo que, ao invés de subtrairmos o LIE da média, a média é que será subtraída do LSE.
259
UNICESUMAR
Deseja-se um maior valor para Z, pois isso indica que a média entre os dados está
mais longe do LIE, o que, em uma distribuição normal, indicará uma menor proporção
de itens não-conformes. Estabeleceremos um valor crítico para essa proporção de itens
não-conformes, o qual chamaremos de k. Enquanto o valor de Z for maior do que o
valor de k, o lote poderá ser aceito. Nossa ideia, agora, é determinar o valor de k. Para
tanto, usaremos os dois pares de valores apresentados anteriormente e os aplicaremos
ao nomograma apresentado na Figura 2.
Ta
man
0,0002 ho 0,001
am
os
1000
0,0004 tra
3,5 ln
500
0,0006 0,005
pa
300
0,0008 ra
200
op 0,01
150
0,001
100
lan
oc 0,02
70
0,002 3,0 om
50
od
30
esc 0,05
on
20
15
0,005 he
cid 0,10
Probabilidade de aceitação 1 – a e β
10
2,5 o
7
0,01 0,15
5
Fração de defeituosos p1 e p2
3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar) 1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar) b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5
260
UNIDADE 9
0,0004 tra
3,5 ln
500
0,0006 0,005
pa
300
0,0008 ra
200
op 0,01
150
0,001
100
lan
oc 0,02
70
0,002 3,0 om
50
od
30
esc 0,05
on
20
15
0,005 he
cid 0,10
Probabilidade de aceitação 1 – a e β
10
2,5 o
7
0,01
5
0,15
Fração de defeituosos p1 e p2
3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar) 1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar) b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5
Figura 3 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1% e
NQL igual a 5%, indicando valor de k igual a 1,95 / Fonte: adaptada de Montgomery (2017).
261
UNICESUMAR
1000
0,0004 tra
3,5 ln
500
0,0006 0,005
pa
300
0,0008 ra
200
op 0,01
150
0,001
100
lan
oc 0,02
70
0,002 3,0 om
50
od
30
esc 0,05
on
20
15
0,005 he
cid 0,10
Probabilidade de aceitação 1 – a e β
10
2,5 o
7
0,01 0,15
5
Fração de defeituosos p1 e p2
3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar) 1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar) b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5
Figura 4 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1%
e NQL igual a 5%, indicando n igual a 52 / Fonte: adaptada de Montgomery (2017).
O exemplo da Figura 4 apresenta o tamanho da amostra que deve ser coletada para que
possamos estimar o desvio padrão do lote como um todo. Com as condições propostas,
deveríamos utilizar, aproximadamente, 52 unidades para calcular o desvio e, então, pro-
ceder com o cálculo de Z. As mesmas 52 unidades podem ser usadas para o cálculo da
média x , inclusive. Entretanto, caso o desvio padrão do lote seja conhecido, x precisará
de menos unidades para ser determinado. Para tanto, ao invés de fazermos a ligação com
a parte superior do nomograma, o processo utilizará a linha de baixo. Importante notar
que, ao invés da nova linha traçada seguir as linhas internas do nomograma, teremos agora
uma linha que seguirá uma vertical perfeita para baixo, conforme representado na Figura 5.
262
UNIDADE 9
Ta
man
0,0002 ho 0,001
am
os
1000
0,0004 tra
3,5 ln
500
0,0006 0,005
pa
300
0,0008 ra
200
op 0,01
150
0,001
100
lan
oc 0,02
70
0,002 3,0 om
50
od
30
esc 0,05
on
20
15
0,005 he
cid 0,10
Probabilidade de aceitação 1 – a e β
10
2,5 o
7
0,01 0,15
5
Fração de defeituosos p1 e p2
3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar) 1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar) b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5
Figura 5 - Nomograma para risco do fornecedor igual a 5%, risco do consumidor igual a 10%, NQA igual a 1%
e NQL igual a 5%, indicando n igual a 18 / Fonte: adaptada de Montgomery (2017).
263
UNICESUMAR
0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
0,040
4
M
0,030
5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100
0,001
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M.
Para nosso exemplo, com k igual a 1,95 e n igual a 52, encontraremos o valor da abscissa
como sendo de 0,362. Isso significa que, entre os valores expostos no eixo horizontal,
devemos encontrar o ponto estimado para esse valor, que ficará entre as marcações de
0,35 e 0,40. Além disso, devemos escolher a linha traçada no nomograma que apresente
o valor mais próximo do nosso n. Por termos esse valor igual a 52, escolheremos a linha
representada por 50. Com isso, devemos traçar uma linha perfeitamente vertical que
parta do ponto 0,362 e que suba até atingir a linha equivalente a 50. Quando ambas as
linhas se cruzarem, traçaremos uma reta perfeitamente horizontal até o eixo M, isso nos
dará o valor para nosso M. Essas etapas estão apresentadas na Figura 7.
264
UNIDADE 9
0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
Passo 3
0,040 Passo 2
0,030 4
M
5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100
0,001 Passo 1
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M. O valor da abscissa é de 0,362, do qual parte uma linha perfeitamente vertical até que seja atin-
gida a linha que representa o valor de n igual a 50. Desse ponto de encontro, é traçada uma linha horizontal para a
esquerda, que atinge o eixo M no ponto igual a 0,038.
No nosso exemplo, temos M igual a 0,038. Isso significa que nosso percentual máximo
de itens não-conformes que será admissível é de 3,8%. O valor obtido para M será com-
parado com outro valor, que é igual a p , que nada mais é do que o percentual estimado
de itens não conformes para o lote analisado. Caso M seja maior do que p , o lote poderá
ser aceito. Para determinar p , será necessário determinar o valor de Z. Exemplificando,
supomos que tenhamos encontrado, para nosso exemplo, uma média igual a 355 ml,
com nosso LIE sendo de 345 ml em cada lata. Consideremos o desvio padrão igual a
5. Pela Equação 1, encontraremos Z equivalente a 2. Esse valor deverá ser aplicado ao
nomograma da Figura 8.
265
UNICESUMAR
0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0
100p
1,8
Z
5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
0,0
50
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Figura 8 - Nomograma que correlaciona n, Z e a fração estimada de itens não-conformes / Fonte: adaptada
de Montgomery (2017).
Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de n, indicado no eixo horizon-
tal inferior, Z, indicado no eixo vertical direito, e da fração de itens não-conformes, indicado no eixo vertical esquerdo.
Sabemos que nosso n é igual a 52 e que nosso Z é igual a 2. Com isso, basta encontrar-
mos, no eixo n da Figura 8, o ponto aproximado onde teremos nosso n representado.
Após isso, deve ser traçar uma reta perfeitamente vertical até que seja atingida a linha
que corresponde ao valor de Z. A partir do ponto em que ambas se cruzarem, deve ser
traçada uma reta perfeitamente horizontal para a esquerda, de modo a atingir o eixo 100
p . Em casos nos quais n seja maior do que 100, pode-se tomar n igual a 100 como base
para identificar a reta. A Figura 9 indica as etapas a serem seguidas.
0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0
Passo 3 Passo 2
100p
1,8
Z
5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
50
Passo 1 0,0
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Figura 9 - Nomograma que correlaciona n igual a 52, Z igual a 2 e o valor da fração de itens não-conformes
Fonte: adaptada de Montgomery (2017).
Descrição da Imagem: um diagrama de formato irregular, o qual indica o valor de n igual a 52, do qual parte uma
reta vertical que encontra a linha Z igual a 2 e, a partir desse encontro, parte uma linha perfeitamente vertical em
direção ao eixo esquerdo, em que é encontrado o valor igual a 2.
266
UNIDADE 9
Tabela 3 - Tabela da NBR 5429 para planos de amostragem únicos com condições normais de inspeção / Fonte: adaptada de Montgomery (2017).
lisado. O método M pode ser
aplicado, também, a casos nos
quais temos limites unilaterais.
Dessa forma, apesar de ter mais
etapas do que o método k, sua
aplicação é mais completa e seus
resultados mais confiáveis, sen-
do o mesmo recomendado pela
própria NBR 5429. Assim como
a NBR 5426, a NBR 5429 expõe
também os valores que podem
ser aceitos para cada tamanho
de amostra. Dessa vez, os va-
lores a serem consultados são
aqueles obtidos para a variável
k, conforme pode ser visto na
Tabela 3.
267
UNICESUMAR
Considerando que obtemos k igual a 1,95 para uma amostra de tamanho 52, utilizando
NQA igual a 1,0, podemos dizer que nossas estimativas estão bem próximas do que a
NBR 5429 indica. Cruzando a coluna NQA 1,00 com a linha para tamanho de amostra
igual a 50, encontraremos um valor de k igual a 1,93, resultado muito similar ao que
encontramos em nosso cálculo. É importante acrescentar que o código alfabético do
tamanho da amostra para variáveis é diferente daquele utilizado para atributos, apesar de
seguir conceitos similares. Como foi possível perceber, os procedimentos para os planos
de amostragem para variáveis são mais complexos. Em longo prazo, eles tendem a ser
mais recompensadores, visto que exigem amostras menores.
Com isso, encerramos nosso conteúdo relacionado aos planos de amostragem. É impor-
tante citar que todos os procedimentos, aqui, explicados estão registrados nas NBR 5426
e 5429, de forma que o conteúdo exposto pode ser considerado como um passo a passo
para a elaboração de conceitos já normatizados.
Obviamente, não é obrigatório que o responsável pelo CEP tenha os planos memori-
zados, visto que há diversos valores envolvidos, o que torna o processo quase impossível.
Entretanto é dever do profissional saber interpretar as tabelas apresentadas nas normas,
assim como entender todo o pensamento por trás da elaboração delas. A compreensão
das NBR é tão importante quanto a aplicação de qualquer ferramenta da qualidade. Toda
a explicação, aqui, apresentada será útil para sua vivência como profissional, mas não
deixe de se aprimorar e atualizar! Nunca se sabe quando pode ocorrer uma atualização
de uma norma técnica.
268
UNIDADE 9
Com base no que foi tratado durante esta unidade, Caroline conse-
guiu estruturar o plano de amostragem para sua nova empresa. Para
um primeiro momento, ela optou pelo uso do plano para atributos,
mas pretende realizar a mudança para o plano para variáveis futura-
mente, quando os processos internos estiverem melhor estruturados.
Após o conteúdo da nossa unidade final, você também tem condi-
ções de colaborar ativamente no projeto de um plano de amostragem.
Qualquer empresa com produção em massa, independentemente do
ramo, precisa de um plano bem estruturado para que possa proteger
a si mesma e aos clientes. Esse é o tipo de informação essencial para
a obtenção de certificações de qualidade e, portanto, deve ser muito
bem discutida e analisada entre todos os setores.
269
Estamos encerrando nosso material! Mas, antes disso, não podemos deixar de preencher o mapa
mental de nossa última unidade; além, é claro, de realizar os exercícios de fixação que prepara-
mos especialmente para você praticar, os quais poderão ser encontrados nas próximas páginas.
Dessa vez, o mapa mental trata dos planos de amostragem para variáveis e para atributos. Sua
tarefa é, primeiramente, descrever as vantagens e desvantagens que cada um dos métodos tem
sobre o outro. Em seguida, fale os diferentes aspectos dos planos de amostragem normal, duplo
e múltiplos para atributos e, por último, discuta os métodos k e M utilizados para os planos de
amostragem para variáveis. Não esqueça de expor quais são as informações necessárias e o
significado dos conceitos de NQA, NQL, risco do fornecedor e risco do consumidor.
Vantagens Vantagens
PLANO DE AMOSTRAGEM
Descrição da Imagem: quadro com o escrito “plano de amostragem”, que se divide em quadros menores. Em uma das direções,
há a classificação “para atributos”, para a qual são pedidas as vantagens e as definições para amostragem única, dupla e múltipla.
Na outra direção, há a classificação “para variáveis”, para a qual são pedidas as vantagens e a definição dos métodos utilizados.
Por último, pede-se, também, a definição dos termos NQA, NQL, risco do fornecedor e risco do consumidor.
270
1. Planos de amostragem são essenciais em qualquer empresa que realize produção em
massa. Suas regras são definidas com base nas NBR 5426 e 5429, podendo ser divididos
nas categorias relacionadas a atributos ou a variáveis. Com base no que foi estudado
durante a unidade apresentada, analise as afirmações a seguir:
I) Os planos de amostragem são necessários, quando não há condições para se realizar
a inspeção 100%.
II) Planos de amostragem para atributos, além de exigirem um maior número de amos-
tras, exigem também maior necessidade de planejamento e documentação do que
o plano para variáveis.
III) Para processos em que, normalmente, ocorrem poucas falhas, planos de amostragem
dupla tendem a ser vantajosos em comparação aos planos de amostragem única.
IV) Tratando do plano de amostragem para variáveis, é necessário usar um plano de
amostragem diferente para cada variável analisada.
271
É correto o que se afirma em:
a) I e II, apenas.
b) I e III, apenas.
c) II e IV, apenas.
d) I, III e IV, apenas.
e) II, III e IV, apenas.
272
4. Considere que uma empresa produtora de alimentos congelados produza lotes de
75.000 unidades. A marca opta por utilizar o plano de amostragem para variáveis para
avaliar seus lotes, de forma que seu NQA é de 2% e seu NQL é de 5%. Além disso, a
probabilidade de aceitação de um lote bom é de 98%, enquanto a probabilidade de
um lote ruim chegar ao cliente é de 5%. O desvio padrão do lote é conhecido, sendo n
igual a 80. Por recomendações da NBR 5429, a empresa utiliza o método M para avaliar
seus lotes. Com base nas informações, analise as afirmações a seguir:
I) Quando for utilizado o nomograma para determinar M, valor da abscissa inferior
será de 0,398.
II) O valor de M será de, aproximadamente, 0,370.
III) Caso seja encontrada uma média entre os dados igual a 236 g, o LIE seja de 230 g e
o desvio padrão seja igual a 5 g, o valor de Z será igual a 1,2.
IV) O valor estimado para a fração de itens não conformes será de, aproximadamente,
0,12, o que faz com que o lote analisado possa ser aceito.
273
Unidade 1
OLIVEIRA, O. J. Curso básico de gestão da qualidade. São Paulo: Cengage Learning, 2014.
WERKEMA, C. Métodos PDCA e DMAIC e suas ferramentas analíticas. Rio de Janeiro: Elsevier, 2013.
Unidade 2
Unidade 3
RAMOS, E. M. L. S.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: Bookman, 2013.
274
Unidade 4
NAVIDI, W. Probabilidade e estatística para ciências exatas. Porto Alegre: AMGH, 2012.
Unidade 5
LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.
RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.
Unidade 6
LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.
RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.
Unidade 7
HINES, W. W. et al. Probabilidade e estatística na engenharia. 4. ed. Rio de Janeiro: LTC, 2011.
LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.
275
Unidade 8
LOUZADA, F. et al. Controle estatístico de processos: uma abordagem prática para cursos de
engenharia e administração. Rio de Janeiro: LTC, 2013.
RAMOS, E. M. L.; ALMEIDA, S. dos S. de; ARAÚJO, A. dos R. Controle estatístico da qualidade.
Porto Alegre: AMGH, 2013.
Unidade 9
DIAS, M. A. P. Administração de materiais: princípios, conceitos e gestão. 6. ed. São Paulo: Atlas, 2011.
276
Unidade 1
1. Para essa questão, basta calcular o NPR de cada uma das causas. Isso pode ser feito por meio
da multiplicação das informações apresentadas em cada linha. O NPR da causa A é de 70, o da
causa B é de 192 e o da causa C é de 200. Sendo assim, a causa C deve ser priorizada, pois tem
o maior NPR.
2. D. A afirmativa I está errada por apontar que a coleta de dados ocorre na fase de definição. Na
verdade, esse processo ocorre na fase de medição.
3. D. É a única alternativa, entre as apresentadas, que permite visualizar mais de uma causa de
um problema, simultaneamente.
4. E. A estatística e o controle de variabilidade, apesar de poderem ser usadas como apoio ao Lean,
são marcas clássicas do Seis Sigma. A redução de desperdícios, inclusive o de tempo — focada
na aceleração do processo —, é o principal objetivo do Lean Manufacturing.
5. A. A primeira ação é entender qual é o problema para, em seguida, coletar os dados e interpretar
as informações que forem obtidas com eles. Feito isso, deve-se discutir a solução mais viável,
implantá-la e acompanhar de perto os resultados obtidos ao final.
6. O brainstorming se trata de uma roda de discussões com um propósito bem definido. Todos
devem expor suas ideias para resolver uma determinada situação. A discussão ser estruturada, e
cada um tem seu momento de falar; ou não estruturada, cada um fala no momento que puder.
Funcionários de todos os níveis hierárquicos que estiverem envolvidos no problema devem par-
ticipar, pois cada nível tem um conhecimento e uma visão diferente sobre o processo, podendo
gerar novos pontos de vista e ideias diferenciadas.
Unidade 2
1. C.
IV - (Falsa) O uso de apenas uma folha não fornece informações suficiente, a análise de dados
deve considerar vários dias.
3. D. IV - FALSA. As quatro causas mais impactantes, juntas, correspondem a 78% das falhas. Isso
é menor do que a proporção de quatro quintos (80%).
277
4. a) O modelo em questão é a folha de classificação.
b)
Frequência
Frequência Frequência Frequência
Problema rel
abs abs ac rel
acumulada
Problema A 182 182 30,08% 30,08%
Problema B 123 305 20,33% 50,41%
Problema C 102 407 16,86% 67,27%
Problema D 75 482 12,40% 79,67%
Problema E 67 549 11,07% 90,74%
Problema F 31 580 5,12% 95,87%
Problema G 21 601 3,47% 99,34%
Problema H 4 605 0,66% 100%
Fonte: o autor.
c)
Diagrama de Pareto
200 100,00%
182
180 90,00%
160 80,00%
140 70,00%
123
120 60,00%
102
100 50,00%
80 75 40,00%
67
60 30,00%
40 31 20,00%
21
20 10,00%
4
0 0,00%
Problema Problema Problema Problema Problema Problema Problema Problema
A B C D E F G H
Descrição da Imagem: diagrama com oito barras de tamanhos decrescentes, com valores iguais a 180, 123, 102, 75, 67,
31, 21 e 4, representadas pelos títulos Causa A, Causa B, Causa C, Causa D, Causa E, Causa F, Causa G e Causa H, respec-
tivamente, sobrepostas por uma linha crescente, indicando as porcentagens 30,08%, 50,41%, 67,27%, 79,67%, 90,74%,
95,87%, 99,34% e 100%, respectivamente.
278
Unidade 3
1. C.
I - FALSA, visto que os objetos 2 e 5 têm a mesma cor, portanto, podem estar em um mesmo
grupo, numa estratificação.
III - FALSA, seria totalmente possível realizar a estratificação com base em dois atributos dife-
rentes, contanto que não seja feita simultaneamente.
2. O gráfico que apresenta maior correlação entre os pontos é B, visto que apresenta o maior valor
de R2. A correlação no gráfico A é praticamente inexistente (podendo ser considerada levemente
positiva), no gráfico B é positiva e no gráfico C é negativa.
3. D. IV - FALSA, pois o diagrama pode indicar falta de relação e, em hipótese alguma, deve-se
dispensar o uso de outras ferramentas.
4. O histograma tem formato assimétrico e não segue uma distribuição normal. Caso ele tenha sido
montado, considerando k=6, teremos 7 classes, as quais serão distribuídas conforme a figura.
Histograma
9
8
7
6
5
4
3
2
1
0
174-182 182-190 190-198 198-206 206-214 214-222 222-230
Fonte: o autor.
Descrição da Imagem: histograma indica a frequência com que cada faixa de valores ocorreu. As faixas são 174 a 182,
182 a 190, 190 a 198, 198 a 206, 206 a 214, 214 a 222 e 222 a 230, com frequências, respectivamente, de 3, 3, 8, 3, 8, 8 e 7.
5. C.
I - FALSA, visto que temos 9 candidatos entre 25 e 29 anos, enquanto temos 4 com até 23 anos.
279
Unidade 4
1. a) Nas duas primeiras tentativas, retiramos uma carta que não era a desejada. A probabilidade
de isso ocorrer é de 51/52 em cada tentativa. Na terceira tentativa, retiramos a carta correta, e
a probabilidade de isso ocorrer é de 1/52. Basta multiplicar as probabilidades.
51 51 1 2601
1, 85%
52 52 52 140608
Na primeira tentativa, a probabilidade de retirar a carta errada é de 51/52. Como não houve
devolução, na segunda tentativa, a probabilidade será de 50/51. Na terceira tentativa, a proba-
bilidade de retirar a carta desejada é de 1/50. Multiplicando:
51 50 1 2550
1, 92%
52 51 50 132600
Na primeira tentativa, a probabilidade de encontrar a carta correta é de 1/52. Na segunda tenta-
tiva, a probabilidade de encontrar outra carta é de 51/52. Na terceira tentativa, a probabilidade
de encontrar a carta correta é de 1/52. Multiplicando:
1 51 1 51
0, 036%
52 52 52 140608
2. Para a resolução dos três itens deve ser usada a distribuição binomial.
a) No item a, o objeto de interesse são os celulares com defeito, então, tem-se que p=0,03. Auto-
maticamente, sabe-se que q=0,97. Temos 20 amostras, então, n=20, enquanto x=3. Substituindo
na Equação 2 da unidade:
20 !
P(3) 0, 033 0, 97203 0, 0183 1, 83%
3! (20 3)!
b) No item b, os valores de p e q permanecem os mesmos. Entretanto se deseja calcular a
probabilidade de haver até 3 falhas. Isso deve considerar os cenários em que x=0, 1, 2 e 3. O
cenário com x=3 já foi calculado no item a, então, deve-se calcular os cenários restantes para,
em seguida, somar todos os resultados.
20 !
P(0) 0, 030 0, 97200 0, 5438 54, 38%
0 ! (20 0)!
20 !
P(1) 0, 031 0, 97201 0, 3364 33, 64%
1! (20 1)!
20 !
P(2) 0, 032 0, 97202 0, 0988 9, 88%
2 ! (20 2)!
Somando os 4 resultados, tem-se a resposta final para o item b:
280
c) Neste caso, nosso evento de interesse é o oposto, pois queremos saber a probabilidade de
ter exatamente 15 aparelhos funcionando corretamente. Sendo assim, p e q são invertidos.
20 !
P(15) 0, 9715 0, 032015 0, 00024 0, 024%
15! (20 15)!
3. Como a chance de ocorrer uma falha é muito baixa, pode-se usar a distribuição de Poisson para
essa resolução. X é igual à quantidade de falhas analisada, ou seja, 1. O valor de c é calculado
multiplicando a quantidade de livros pelo percentual de erros, ou seja, c=800*0,003=2.4. Usando
os valores na equação, temos:
2, 41
P (1) e 2,4 0, 2177 21, 77%
1!
4. E. I - FALSA. As distribuições que são usadas, quando há apenas dois resultados possíveis, são
a binomial e a de Poisson.
5. O primeiro passo é determinar Z. Sabe-se que a média é de 2100, X é igual a 2400 e que o desvio
padrão é 250. Assim:
2400 2100
Z 1, 20
250
A partir disso, é necessário checar a Tabela 1, buscando pela linha 1,2 e pela coluna 0,00. O valor
no cruzamento é de 0,3849, então, a probabilidade de selecionar uma pessoa que ganhe entre
R$ 2100,00 e R$ 2400,00 é de 38,49%.
6. Primeiramente, deve-se calcular Z. Sabe-se que o desvio padrão é 6, que a média é 30 e que X
é igual a 35. Dessa forma:
35 30
Z 0, 83
6
Verificando a Tabela 1 da unidade, encontra-se o valor 0,2967, o que indica que 29,67% dos va-
lores encontra-se entre a média e Z=0,83. Porém o que interessa é saber quantos dados estão
acima de 35 minutos. Dessa forma, deve-se subtrair o valor obtido da marca de 50%, restando
20,33%. Como são 40 candidatos, deve-se multiplicar 40 pelo valor encontrado de 0,2033, e o
resultado será igual a 8 candidatos.
a) O primeiro passo é calcular a área entre os valores de 36,9 e 37,1 abaixo da curva. Para isso, é
necessário determinar o valor de Z para ambos os casos, encontrar as probabilidades na tabela
1 da unidade e, em seguida, como ambos os dados estão do mesmo lado da curva (lado direito
da média), subtrair o menor valor do maior valor.
281
Para Z = 1,50, usamos a tabela na linha 1,5 e na coluna 0,00, e encontramos probabilidade igual
a 0,4332. P 0, 4332 0, 1915 0, 2417 24, 17%
Espera-se que 24,17% dos 1000 colaboradores estejam nessa faixa de temperatura, o que cor-
responde a aproximadamente 242 indivíduos.
a) Para este caso, devemos calcular a área entre a média e o valor de 37,3 ºC. Feito isso, subtraí-
mos a área calculada da área total do lado direito da média, que é 0,5.
37, 3 36, 8
Z 2, 50
0, 20
Checando a tabela, encontramos que a probabilidade é de 0,4938. Agora, subtraímos esse valor
de 0,5.
P 0, 5 0, 4938 0, 0062
Assim, espera-se que 0,62% dos colaboradores estejam com febre. Como são 1000 indivíduos,
isso é o equivalente a 6 pessoas.
Unidade 5
1. A.
Afirmativa I: falsa, pois um único ponto fora de controle pode ser indicativo de falhas.
Afirmativa II: falsa, pois os pontos podem estar distribuídos de forma padronizada (dois acima,
dois abaixo, dois acima, dois abaixo...), o que indica que os resultados não seguem aleatoriedade.
Afirmativa IV: falsa, não devem ser apresentadas tendências por parte dos resultados nos gráficos.
2. As causas comuns são previsíveis e esperadas — como um erro em uma anotação de mil dados
ou um desvio de dados de um equipamento — e não afetam o andamento do processo. Os
resultados continuam dentro do limite de controle, quando causas comuns ocorrem. As causas
especiais são imprevisíveis — como uma falha em um equipamento ou, então, cinquenta ano-
tações erradas em um grupo de quinhentos dados — e afetam drasticamente o andamento do
processo. Os resultados tendem a ficar fora dos limites de controle, quando ocorrem causas
especiais.
3. B.
Afirmativa I: verdadeira.
282
Afirmativa II: falsa, pois variações em volumes não podem ser controladas em gráficos de atri-
butos, apenas em gráficos para variáveis.
Afirmativa IV: falsa, peso é uma variável que só pode ser controlada em gráficos de controle
para variáveis.
4. D. A linha 1 está sob controle, visto que os dados estão dentro dos limites e distribuídos alea-
toriamente. As linhas 2 e 3 devem passar por manutenção, visto que ambas demonstram ten-
dências em seus resultados.
5. a) A média c entre os dados é igual a 5,87 falhas por amostra. Para o gráfico c, o desvio padrão é
equivalente à raiz quadrada da média c, ou seja, 2,42.Feito isso, LIC e LSC devem ser calculados
considerando uma variação de três desvios em relação à média:
LIC 5, 87 3 * 2, 42 1, 39
LSC 5, 87 3 * 2, 42 13,13
14
Quantidade de falhas
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
LSC LIC Média Dados
Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite infe-
rior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 6 do eixo vertical, e uma próxima
ao valor 13 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleatoriamente acima
e abaixo da média, gerando uma linha que sobe e desce continuamente.
b) O processo pode ser considerado como controlado, pois os dados estão distribuídos aleato-
riamente entre os limites de controle, sem apresentação de tendências ou de padrões.
283
Amostra (com 40 unidades cada) Total de peças com defeito p
1 2 0,05
2 5 0,125
3 0 0
4 2 0,05
5 10 0,25
6 1 0,025
7 2 0,05
8 4 0,1
9 0 0
10 5 0,125
11 3 0,075
12 1 0,025
13 6 0,15
14 7 0,175
15 10 0,25
Fonte: o autor.
O p médio é a média entre todos os valores de p, que é igual a 0,097, considerando os devidos
arredondamentos. O desvio padrão se dá por do cálculo a seguir, em que n é igual ao tamanho
de cada amostra:
284
0,3
Proporção de defeitos
0,25
0,2
0,15
0,1
0,05
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Número da amostra
Média LIC LSC p
Fonte: o autor.
Descrição da Imagem: um gráfico com eixo vertical e horizontal apresenta três linhas retas, uma indicando o limite infe-
rior, próximo ao número 0 do eixo vertical, outra indicando a média, próxima ao valor 0,1 do eixo vertical, e uma próxima
ao valor 0,24 do eixo vertical, indicando o limite superior. Dados estão espalhados continuamente e aleatoriamente acima e
abaixo da média, com alguns pontos ficando acima do limite superior, gerando uma linha que sobe e desce continuamente.
a) O processo não pode ser considerado como controlado, visto que pelo menos dois pontos,
no caso 5 e 15, ultrapassam a linha de limite superior.
Unidade 6
1. E.
a) Errada, pois ocorre exatamente o contrário. O gráfico x-R trata da amplitude, e o x-s, do
desvio padrão.
c) Errada, pois nem sempre a amplitude é mais adequada do que o desvio padrão para aproxi-
mar o desvio padrão da realidade.
d) Errada, pois o uso de 8 observações em cada amostra cai na faixa de aplicação do gráfico x-R.
A quantidade de amostras não interfere na escolha do gráfico.
285
2. Há 5 observações para cada amostra, o que faz com que a combinação de gráficos seja x-R. Por
conta disso, deve-se determinar a média e a amplitude de cada uma das amostras.
Amostra 1 2 3 4 5 6 7 8
86 81 84 80 82 85 89 80
86 81 83 88 83 89 84 83
80 90 81 80 86 87 87 86
82 84 82 80 80 86 90 87
85 83 87 90 83 86 88 86
Média 83,8 83,8 83,4 83,6 82,8 86,6 87,6 84,4
Amplitude 6 9 6 10 6 4 6 7
Fonte: o autor.
A média global é igual a 84,5, enquanto a amplitude média é igual a 6,75. As equações usadas
para o LIC e o LSC do gráfico x são as de número 4 e 5, apresentadas no decorrer da unidade. O
valor de A2 será igual a 0,577, com base na Tabela 6. Assim, o LIC e o LSC são calculados por:
LIC 0=
= * 6, 75 0
=LSC 2=
, 114 * 6, 75 14, 27
3. Como temos 11 observações por amostra, deve ser usada a combinação de gráficos x-s. Os
dados para cada amostra estão expostos, a seguir.
Amostra 1 2 3 4 5 6 7 8
154 141 138 147 154 138 145 150
135 159 144 156 136 143 141 144
137 154 145 137 154 144 138 160
139 149 136 164 137 139 135 149
140 154 137 138 144 155 145 139
145 153 158 154 140 141 141 151
165 137 161 135 162 148 159 142
159 151 165 152 147 163 135 158
149 151 149 152 160 151 165 136
164 142 152 142 149 155 143 162
149 142 150 141 161 151 150 160
Média 148,73 148,45 148,64 147,09 149,45 148,00 145,18 150,09
Desvio P. 10,69 6,90 9,82 9,25 9,51 7,82 9,52 9,09
Fonte: o autor.
A média global é igual a 148,20, enquanto o desvio padrão médio é igual a 9,08. Os limites para
o gráfico x usam as Equações 10 e 11, enquanto os limites para o gráfico s usam as Equações
12 e 13. O valor de A3 é 0,927, enquanto B3 e B4 são, respectivamente, 0,321 e 1,679. Os
cálculos para os limites dos gráficos x e s são:
286
LIC 148, 20 0, 927 * 9, 08 139, 79
LSC 148, 20 0, 927 * 9, 08 156, 62
=LIC 0= , 321 * 9, 08 2, 91
=LSC 1,= 679 * 9, 08 15, 25
Os gráficos x e s são, respectivamente, os apresentados a seguir:
160
Peso médio das amostras (g)
155
150
145
140
135
1 2 3 4 5 6 7 8
Número da amostra
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-se
em uma altura próxima a 140. A segunda linha também é horizontal e encontra-se na altura 148. A terceira, que indica o
limite superior, também, é horizontal e encontra-se na altura próxima a 156. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.
18
16
Desvio padrão entre os
dados das amostras
14
12
10
8
6
4
2
0
1 2 3 4 5 6 7 8
Número da amostra
Fonte: o autor.
Descrição da Imagem: gráfico com 4 linhas. Uma delas, a linha de limite inferior, é perfeitamente horizontal e encontra-
-se em uma altura próxima a 3. A segunda linha também é horizontal e encontra-se na altura 9. A terceira, que indica o
limite superior, também é horizontal e encontra-se na altura próxima a 15. A quarta e última linha não é perfeitamente
horizontal, alternando entre descidas e subidas, sempre próxima à reta que indica a média.
287
5. B.
II – Errada, pois o gráfico x passa a impressão de que o processo está funcionando perfeitamente.
IV – Errada, pois não é possível afirmar. Qualquer quantidade acima de 10 observações pode
ocorrer.
Unidade 7
1. A.
I - Falsa, pois o gráfico x-s utiliza amostras com tamanho a partir de 10 observações.
II - Falsa, pois as amostras do gráfico CUSUM costumam conter apenas uma observação, en-
quanto as do gráfico x-R contêm a partir de cinco observações.
IV - Falsa, pois, no gráfico MMEP, os limites de controle podem ter uma distância variável de
acordo com o L escolhido.
2. D. I - Falsa, pois os dados passam por uma análise em relação ao valor de K. Caso o desvio em
relação ao valor alvo não seja maior do que K, o dado é registrado como 0 no gráfico CUSUM.
3. C.
I - Falsa, pois o gráfico x-AM se utiliza de amostras com uma única observação.
a) Gráfico CUSUM
volume em relação ao valor alvo (mL)
30,00
Soma cumulativa da diferença do
25,00
20,00
15,00
10,00
5,00
0,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Número da amostra
Ci+ Ci- Limite
Fonte: o autor.
Descrição da Imagem: gráfico com três linhas. A linha superior é perfeitamente horizontal e tem altura igual a 25. A linha
ci+ alterna entre descidas e subidas, sempre permanecendo abaixo da altura igual a 10. A linha ci- se mantem sempre
muito abaixo da linha de limite superior, nunca ultrapassando a altura igual a 6.
288
b) Gráfico MMEP
210,00
208,00
206,00
204,00
Valor de Zi
202,00
200,00
198,00
196,00
194,00
192,00
190,00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
Número da amostra
Zi LIC LSC Valor Alvo
Fonte: o autor.
Descrição da Imagem: gráfico com quatro linhas. A linha média tem altura igual a 200 e é perfeitamente reta. A linha de
limite inferior é curva e tem altura variando entre 198 e 194. A linha de limite superior também é curva, com altura indo
de 202 a 206. A linha correspondente ao Zi varia entre subidas e descidas, permanecendo sempre próxima à reta média.
5. B.
II - Falsa, pois, quanto maior o valor de L, mais afastados os limites estarão do valor alvo.
IV - Falsa, pois os limites nunca terão um valor perfeitamente fixo, independente de quanto tempo
se passe. A variação diminui, mas ela continua acontecendo muitas casas após a vírgula, chegando
a ser mínima, mas nunca inexistente.
Unidade 8
1. B. Cálculos necessários:
105 95
Cp 1, 39
6 *1, 2
1
=P 100= * 0, 72
1, 39
105 98, 3 98, 3 95
C pk MIN [ ; ] MIN [1, 86; 0, 92] 0, 92
3 *1, 2 3 *1, 2
Com base nos cálculos apresentados, Cp e P estão condizentes com as afirmações I e II, enquanto
Cpk está incondizente com III. Consequentemente, IV também está incorreta, pois o processo
não pode ser considerado capaz.
289
2. a) O histograma adquire o seguinte formato:
35
30
25
20
15
10
0
Menor que 592 a 595 595 a 598 598 a 601 601 a 604 604 a 607 Maior que
592 607
Fonte: o autor.
Descrição da Imagem: histograma com sete colunas, sendo a mais alta delas a central, de forma que, quanto mais
distante do centro, menor a coluna.
b) O formato indica que os índices podem ser calculados, pois a distribuição segue a normalidade.
620 580
Cp 1, 54
6 * 4, 32
620 599, 53 599, 53 580
C pk MIN [ ; ] MIN [1, 58;1, 51] 1, 51
3 * 4, 32 3 * 4, 32
d) Os dois índices indicam processos, perfeitamente, capazes de atenderem às especificações
propostas, pois ambos os índices são maiores do que 1,33.
3. D.
I - Verdadeira. Ambas as distribuições têm formatos similares e, como o índice Cp não considera
a centralização dos dados e leva em conta apenas o desvio padrão e os valores dos limites esta-
belecidos (que são iguais para os dois gráficos), pode-se afirmar que os índices Cp são similares.
II - Falsa. Apesar de ambos serem centralizados, o desvio padrão de D é visivelmente maior que
o de C, o que faz com que o índice Cpk de C seja maior.
III - Verdadeira. A distribuição encontra-se perfeitamente centralizada e tem baixo desvio padrão,
o que faz com que seja aquela com os resultados mais próximos do desejável.
IV - Verdadeira. O índice Cp de A é maior que o de D, pois, já que LIE e LSE são iguais para ambos
os casos, basta verificar qual das duas tem o menor desvio padrão (no caso, é A) para saber qual
será o índice maior. Não se pode afirmar sobre o Cpk, pois é necessário conhecer o valor central
das duas distribuições e o desvio padrão para que se possa calcular os índices dos gráficos.
290
4. C. Os cálculos necessários são:
1010 990
Cp 1, 11
6*3
1010 1004 1004 990
C pk MIN [ ; ] MIN [0, 67;1, 56] 0, 67
3*3 3*3
Por meio do primeiro cálculo, sabe-se que I é falsa e II é verdadeira. O segundo cálculo mostra
que IV é verdadeira. III é falsa porque, por mais que sejam usadas mais amostras, não se sabe
de que maneira elas influenciarão no desvio padrão. Caso elas estejam mais próximas dos va-
lores centrais, a tendência é que o desvio padrão diminua, e, caso elas estejam mais afastadas,
o desvio aumenta.
5. D. Como está sendo usado um gráfico de controle, é necessário substituir o desvio padrão pelo
desvio padrão estimado s , usando como base o valor de c4 da Tabela 1, apresentada nesta
unidade. O cálculo se dá por:
0, 53
=s = 0, 54
0, 9823
Com base nesse dado, pode-se realizar os cálculos necessários:
24 16
Cp 2, 47
6 * 0, 54
1
P 100 * 40, 5
2, 47
24 20, 6 20, 6 16
C pk MIN ; MIN [2, 10; 2, 84] 2,110
3 * 0, 54 3 * 0, 54
Com os resultados encontrados, pode-se afirmar que I, II e IV são verdadeiras. O índice P tem
um valor um pouco maior do que 40, o que torna a afirmação III errada.
Unidade 9
1. D. II - Falsa, pois uma das vantagens do plano de amostragem para atributos é a menor exigência
de documentação, quando comparado ao plano de variáveis.
2. B.
II - Falsa, pois ocorreriam mudanças nos níveis gerais de inspeção com o aumento do tamanho
dos lotes.
IV - Falsa, pois o tamanho das amostras seria o mesmo para lotes de 75.000 unidades e 150.000
unidades.
291
3. D. A análise das três primeiras alternativas pode ser feita com base na figura a seguir:
Ta
man
0,0002 ho 0,001
am
os
1000
0,0004 tra
3,5 ln
500
0,0006 0,005
pa
300
0,0008 ra
200
op 0,01
150
0,001
100
lan
oc 0,02
70
0,002 3,0 om
50
od
30
esc 0,05
on
20
15
0,005 he
cid 0,10
Probabilidade de aceitação 1 – a e β
10
2,5 o
7
0,01 0,15
5
Fração de defeituosos p1 e p2
3,5 0,20
3,0
0,02 2,5 0,30
2,0
0,03 2,0 0,40
0,04 0,50
0,05 1,5
0,60
1,5
k 0,70
1,0
0,10 Solução para n e k 0,80
P1 = fração de defeituosos 0,85
0,15 1,0 0,5 no lote para o qual prob 0,90
(aceitar) 1 – a
0,20 0,95
0 P2 = fração de defeituosos
no lote para o qual prob
0,30 0,5 (aceitar) b 0,98
nek 0,99
0,40 P1 β 0,995
0
0,50 P2 1–a 0,999
1000
300
150
70
50
30
20
15
10
7
5
Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona a probabilidade de aceitação de um lote
com a fração de itens defeituosos, além do tamanho amostral para o plano e o valor de k. Há uma reta ligando a fração
de itens defeituosos de 0,02 à probabilidade de aceitação de 0,98, enquanto há outra reta ligando a fração de defeituosos
de 0,05 à probabilidade de aceitação de 0,05. O cruzamento entre as duas retas faz com que seja atingido um ponto, do
qual partem três retas. Uma delas atinge a lateral do nomograma, indicando um valor próximo de 1,8. Outra atinge a parte
superior, indicando valor igual a 200. A terceira atinge a parte inferior, indicando um valor próximo de 80.
Com base na figura, encontra-se um k muito próximo de 1,8 e um n igual a 200 para desvio pa-
drão desconhecido. Para casos com desvio padrão conhecido, o valor n é de, aproximadamente,
80 unidades, tornando as afirmações I e II verdadeiras, enquanto III é falsa. Sobre a afirmação
IV, o cálculo é feito por:
200 192
Z LIE 5
1, 6
Como Z é maior do que k, o lote pode ser aceito pelo método k, o que torna a afirmação IV
verdadeira.
292
1. E. Os dados são os mesmos obtidos no exercício 3. Assim, para o cálculo da abscissa inferior,
tem-se:
1, 8 * 80
1
abs 80 1 0, 398
2
O que torna I verdadeira. A afirmação II pode ser confirmada com base na figura seguinte:
0,500
0,400
0,300
0,200
n=3
0,100
0,080
0,060
0,040
4
M
0,030
5
0,020 6
7
8
0,010 9
0,008 1012
0,006 14
0,004 16
20
0,003 24 50 80
0,002 30 40 60 100
0,001
0 0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,45 0,50
Descrição da Imagem: um diagrama de formato irregular, o qual correlaciona valores de uma abscissa com valores
possíveis para M. O valor da abscissa é de 0,398, do qual parte uma linha perfeitamente vertical até que seja atingida a
linha que representa o valor de n igual a 80. Desse ponto de encontro, é traçada uma linha horizontal para a esquerda,
que atinge o eixo M no ponto igual a 0,037.
236 230
Z LIE 1, 2
5
Para a determinação da fração estimada, deve-se utilizar a figura:
293
0,01
3,4
0,05 3,2
0,1 3,0
0,2 2,8
2,6
0,5 2,4
1 2,2
2 2,0
100p
1,8
Z
5 1,6
1,4
10 1,2
15 1,0
20 0,8
30 0,6
0,4
40 0,2
0,0
50
1 2 3 4 5 6 7 8 10 15 20 30 40 60 80 100
n
Fonte: adaptada de Montgomery (2017).
Descrição da Imagem: um diagrama de formato irregular, o qual indica o valor de n igual a 80, do qual parte uma reta
vertical que encontra a linha Z igual a 1,2 e, a partir desse encontro, parte uma linha perfeitamente vertical em direção
ao eixo esquerdo, em que é encontrado o valor de aproximadamente 12.
Como o valor encontrado no eixo esquerdo é de aproximadamente 12, pode-se assumir que o
valor de p é de 0,12. Como M é maior do que p , então, o lote poderá ser aprovado.
294
295
296