Você está na página 1de 130

1

TÍTULO DA DISCIPLINA: ENGENHARIA DE


CONFIABILIDADE
EDIÇÃO Nº 1 – 2017

ENGO. MBA ADRIANO A.L.C.GAMA FILHO


APRESENTAÇÃO

Prezado Aluno (a),

Você está prestes a iniciar a disciplina de Engenharia de Confiabilidade


do curso de Pós-graduação “Lato Sensu” em Gestão da Qualidade. Seja bem-
vindo e espero que possa apreciar e agregar mais conhecimentos para sua
vida profissional.

O conceito da qualidade deve ser completado pela confiabilidade dos


processos existentes. Fatores como repetibilidade e determinação de vida de
produtos tornan-se preponderantes no ciclo de vida dos produtos e processos.

A disciplina estará dividida em quatro unidades sendo elas


referenciadas da seguinte maneira:

Unidade I: Introdução à confiabilidade.

Unidade II: Vida do produto.

Unidade III: Estudo de FMEA

Unidade IV: Análise de problemas.


UNIDADE 01

Introdução à Confiabilidade

Caro(a) Aluno(a)

Seja bem-vindo(a)!

Nesta primeira unidade, iremos estudar aa confiabilidade


dentro do contexto da qualidade.

Bons estudos!!!

Conteúdo da Unidade

Nesta unidade abordaremos os seguintes conteúdos:

Introdução à confiabilidade

Distribuições estatísticas de vida

Weibull
INTRODUÇÃO À CONFIABILIDADE

Confiabilidade dentro do contexto da qualidade

Uma questão vital dentro de muitos domínios produtivos, é a operação


contínua e prolongada de um sistema produtivo, seja este, de bens ou serviços.
Em sistemas de produção, ou transporte, distribuição de energia, água, falhas
súbitas são causadas por fenômenos aleatórios, que devem ser analisados, e
quando possível evitados de forma a evitar prejuízo comercial e social.

As indústrias atualmente se caracterizam por uma grande unidade de


volume de produção, em geral relacionadas a sistemas em cadeia complexos,
com grande grau de informatização e automação. Nesse contexto a necessidade
de controlar possíveis falhas é inerente, garantindo que a variabilidade de um
sistema não ultrapasse certo limite, evitando assim grandes prejuízos
econômicos.

Com base nessa necessidade, foi impulsionado o desenvolvimento e


refinamento da teoria da confiabilidade, disciplina que tem como principal
objetivo desenvolvimento e aplicação de métodos que são inseridos em todo o
processo produtivo com a intenção de previsão de falhas.

Por exemplo, imaginamos uma estrutura de computadores em rede que


tem confiabilidade de 99. 9995%, isso significa que um computador trabalhando
um ano nesse sistema terá 0,005% de chance de falha, ou seja, a probabilidade
deste computador trabalhar sem apresentar defeito durante um ano é de 99,995.

A Teoria da Confiabilidade, visa que o processo funcione durante o maior


tempo possível, a plena carga e sem paradas não previstas. Tendo como
objetivos:
• Estabelecer Estatísticas de falhas em sistemas.
• Estabelecer métodos que permitam melhorar um sistema produtivo,
alterando índices quantitativos e qualitativos relativos às falhas.

As ferramentas principais da Teoria da Confiabilidades, são a estatística,


a teoria das probabilidades, métodos de estimação, distribuições de vida,
ferramentas gráficas, entre outros que serão abordados neste módulo.

Três conceitos básicos que precisamos compreender a fim do


desenvolvimento do curso é o tempo médio entre falhas, e a duração de vida. O
primeiro um parâmetro de estimação de média utilizado na modelagem de
algumas distribuições de probabilidade, se refere ao tempo entre falhas
reparáveis em sequência. O segundo é o tempo até uma falha não reparável que
leve ao não funcionamento ou perda de capacidade de determinado item. O
terceiro é o tempo médio para a falha, ou seja, o valor médio para o tempo de
funcionamento de um item, sem contar o tempo de manutenção.

TIPOS DE FALHAS

Uma falha ocorre quando há diminuição total ou parcial da eficácia de


um componente, este em geral, parte de um sistema. Por exemplo, um rolamento
é capaz de trabalhar ainda que sobre desgaste com menos eficácia, isso
acontece por ele poder falhas parciais, um fusível, não funciona após a falha,
isso por sofrer uma descarga que leva a sua queima.

Um item que sofra de um tipo de falha específico, pode evoluir até uma
falha catastrófica ou gradual, no caso, quando há uma falha elétrica em uma
linha de trem, falamos de uma falha catastrófica, diferente de um problema no
monitor do computador que pode evolui de forma gradual.

Quanto a duração da falha, podemos ter em uma indústria:

1. Falhas temporárias. (curto circuito, que pode ser reparado)


2. Falhas intermitentes. (mau contato em relé)
3. Falhas permanentes. (fusível queimado ou lâmpada fundida)

Há ferramentas específicas dentro da Estatística para modelar a variável


aleatória tempo, no que se refere a falha, estas ferramentas serão estudadas no
próximo tópico.

Distribuições Estatísticas de Vida

Na análise de dados, todas as considerações são baseadas em


estimativas, ou seja estimamos a confiabilidade de um sistema, justamente por
não conhecermos a confiabilidade real deste sistema. A confiabilidade real só
seria conhecida se todas as falhas possíveis ocorressem, caso em que teríamos
o parâmetro populacional para comparação.

Como não é possível chegar a esse número utilizamos algumas


distribuições de probabilidade que são adequadas ao estudo de falhas, como a
distribuição exponencial, utilizada na função de confiabilidade e a distribuição
Weibull.

FUNÇÃO DE CONFIABILIDADE

Determina a probabilidade de funcionamento sem falhas durante um


tempo t, cuja função é.

P(t ) = R(t ) = e − λt

Obtida a partir da distribuição exponencial:

+∞ +∞
P(T > t ) = ∫ λe −λt dt = − e −λt = e − λt
t t
Que tem como representação gráfica:

Na qual, λ representa a taxa média de falhas, essa função pode ser


adaptada para a determinação do número de componentes falhados em um
tempo t (N(t)), dado uma população inicial (N0).

N (t ) = N 0 e − λt

Note que e − λt nos dá a probabilidade para uma falha após um tempo t,


essa probabilidade multiplicada pelo número de componentes nos dá uma
estimativa do número de componentes que podem falhar em um determinado
sistema.

DISTRIBUIÇÃO WEIBULL

A família de distribuições Weibull, foi apresentada pelo físico Suco


Waloddi Weibull, em 1939. Suas aplicações foram discutidas em um artigo de
1951, chamado “A statical distribution of wide aplicability”

Seu modelo é descrito como:

 αβ x β −1e −αx , x>0


f ( x; α ; β ) = 
0, caso contrário
Quando esse modelo matemático se aplica ele é útil para determinarmos
a taxa de falha, também chamada de taxa de risco. E perceber desta forma o
desgaste a deterioração de um componente.

As constantes α e β são chamada respectivamente de parâmetro de forma


e escala, a seguir seguem alguns exemplos gráficos da distribuição Weibull,
quando se altera estes parâmetros:
A taxa de falha da distribuição Weibull, é dada por:

Z (t ) = αβ t β −1 , t > 0,

sendo essa quantidade Z(t) a taxa de falha, quantificando a taxa de mudança, já


que considera a probabilidade que o componente dure um tempo adicional,
sendo que na na´lise os pontos cruciais são:

• Se β = 1, a taxa de falha é igual a α, ou seja, constante. No caso esse


é um caso especial em que a distribuição Weibull se transforma na
distribuição exponencial, que tem como principal característica a falta de
memória, ou seja, da do que se passe um tempo t adicional a
probabilidade de falha de um equipamento modelado por esta função,
não se altera.
• Se β > 1, Z(t) é uma função crescente, isso indica que o componente
se desgasta com o tempo.
• Se β < 1, Z(t) é uma função decrescente, e nesse caso o componente
se fortalece com o tempo.

A DISTRIBUIÇÃO LOGNORMAL
A distribuição lognormal, também pode ser utilizada para modelar o
tempo de vida de um equipamento, assim como a distribuição Weibull, mas om
uma diferença fundamental, pois produz taxas médias menores nos tempos
iniciais.

Seu modelo é dado por:

 1
e −[ln( x ) − µ ] /( 2σ ) x≥0
2 2

f ( x; µ , σ ) =  2π σx
 0 x<0
Sendo que neste caso, os parâmetros µ e σ não são a média e o desvio
padrão da variável X, e sim de ln(x).

APLICANDO DISTRIBUIÇÕES DE VIDA

Exemplo 1: a DISTRIBUIÇÃO Weibull, pode ser utilizada para modelar


emissões de poluentes de vário modelos de motores. Assumindo X como o valor
de emissão de NO (g/gal) a partir de certo tipo de motor de quatro tempos
selecionado aleatoriamente e supondo que X possua uma distribuição Weibul
com α = 2 e β = 10, que possua a seguinte curva de densidade:

Com valores concentrados entre 0 e 30, já que P(0 ≤ X ≤ 30) = 0,9999 ,


com quatro casas decimais.

Uma observação, sobre modelos de distribuição, é que é comum


utilizarmos a distribuição acumulada para cálculos quando um software de
estatística não é acessível, se fizermos a integração de

∫ f ( x;α , β )dx
0

obtemos:
1 − e − ( x / β )
α
x≥0
F ( x; α , β ) = 
 0 x<0

Exemplo 2: A distribuição lognormal já foi indicada como a melhor opçõ


para descrever dados da distribuição da profundidade máxima do ponto de
corrosão das tubulações de ferro fundido no solo. É sugerido que uma
distribuição lognormal com µ=0,353 e σ = 0,754 é apropriada para a
profundidade máxima do ponto de corrosão (mm) dos canos enterrados. Qual
seria a probabilidade de a profundidade máxima do ponto de corrosão estar entre
1 e 2 mm?

A probabilidade solicitada é 0,3542, que pode ser obtida por meio da


calculadora de probabilidades do GeoGebra, software gratuito:

Métodos para estimação de parâmetros

A inferência estatística tem como objetivo obter informações sobre um


ou mais parâmetros, de forma descrever uma população, com base em dados
obtidos por uma amostragem, podemos entender que uma média amostral é um
estimador do parâmetro média populacional, assim como a variância amostral é
um estimados de uma variância populacional.

A confiabilidade destes estimadores é foco da inferência, ou seja, temos


interesse em saber qual a margem de erro para uma determinada afirmação,
lembrando que as observações para isso são variáveis aleatórias, e, portanto ela
terá uma distribuição de probabilidades, chamada de distribuição amostral.

O símbolo geral escolhido para representar o parâmetro de interesse será o θ,


que pode representar a média, a variância, ou qualquer outro parâmetro de
interesse.

O estimador pontual de algum parâmetro de uma população θ é um único valor


numérico θˆ de uma estatística Θ̂ . A estatística Θ̂ é chamada de estimador
pontual.

Θ̂ é uma variável aleatória, por que ela é uma função de variáveis

aleatórias. Depois de ter sido selecionada, Θ̂ assume um valor numérico


particular Θ̂ , chamado de estimador pontual de θ.

Ao escolher entre diversos estimadores, devemos nos atentar a escolha


de um não viciado, ou seja, quando E( θˆ ) = θ para todos os valores possíveis de
θ.

A diferença entre a esperança matemática (E(X)) e o valor pontual do


estimador, é chamado de vício, e leva a um deslocamento da função sobre o
eixo.
Por via de regra quando temos dois estimadores não viciados devemos
escolher aquele de mínima variância, já que embora a distribuição observada
nos dois estimadores esteja centrada em um mesmo ponto, pode haver
dispersões diferentes em torno deste ponto.

Nesse caso o que tiver menos dispersão em relação aos dados, terá
uma distribuição mais homogênea e por consequência um erro menor.

Quando relatamos o valor de uma estimativa pontual, também devemos


relatar sua precisão, ou seja identificar qual é o erro em relação a medida, para
isso utilizamos o desvio padrão do estimador, também chamado de erro padrão
e definido como:

𝜎𝜎𝜃𝜃� = �𝑉𝑉(𝜃𝜃� )

Exemplo: Vamos presumir que a tensão de rompimento tenha uma


distribuição normal, 𝜇𝜇 = 𝑋𝑋� é o melhor estimador de µ, obtido em 20 amostras.
Sabendo que o valor de σ = 2,1, o erro padrão de 𝑋𝑋� é 𝜎𝜎𝑥𝑥̅ = 𝜎𝜎/√𝑛𝑛 = 2,1/√20 =
0,4696. Caso o valor do desvio padrão populacional ser desconhecido,
calculamos a estimativa s (desvio padrão amostral e procedemos de mesmo
modo para obter o erro padrão.
MÉTODOS DOS MOMENTOS

Quando definimos a ausência de vicio em estimadores não indicamos


como os mesmos podem ser deduzidos. Para a dedução iremos utilizar de dois
métodos, o métodos momentos a ser estudado neste tópico e o método da
máxima verossimilhança.

O método dos momentos se resume em igualar certas características da


amostra, como a média, aos valores esperados da população. As resoluções
dessas equações de parâmetros desconhecidos geram os estimadores.

O primeiro momento populacional é 𝐸𝐸(𝑋𝑋) = 𝜇𝜇, enquanto que o primeiro


momento amostral é (∑ 𝑋𝑋𝑋𝑋)/𝑛𝑛 = 𝑋𝑋� . segundo momento populacional e amostral
são 𝐸𝐸(𝑋𝑋 2 ) 𝑒𝑒 ∑ 𝑋𝑋𝑋𝑋 2 /𝑛𝑛, respectivamente.

Exemplo: Sendo 𝑋𝑋1 , 𝑋𝑋2 , … , 𝑋𝑋𝑛𝑛 uma amostra aleatória do tempo de espera
para um serviço de n clientes em que a distribuição de probabilidade que modela
os dados é exponencial com parâmetro λ. Note que há apenas um parâmetro a
ser estimado, como esse parâmetro é uma taxa média, utilizaremos 𝐸𝐸(𝑋𝑋) 𝑒𝑒 𝑋𝑋� .
Em uma distribuição exponencial temos que 𝑋𝑋� = 1/𝜆𝜆.

Logo concluímos que o estimador pelo método dos momentos é 𝜆𝜆 𝑒𝑒 𝜆𝜆̂ =


1/𝑋𝑋�.

MÉTODO DA MÁXIMA VEROSSIMILHANÇA

Esse método foi desenvolvido na década de 1920 por R. A. Fisher, ele é


mais recomendado do que o método dos momentos, principalmente quando
tratamos de grandes amostras.
Nesse método nos baseamos nos dados obtidos pela amostra, e
devemos determinar qual a distribuição de probabilidade que melhor se encaixa
aos dados, ou seja que tem mais possibilidade de ser geradora da amostra. Se
por exemplo, uma distribuição de tempo de falha indica que o melhor modelo é
o de Weibull, para cada combinação de 𝛼𝛼 𝑒𝑒 𝛽𝛽 temos uma distribuição diferente.
O método de máxima verossimilhança escolhe aquele par que melhor se aplicará
a amostra observada.

Matematicamente podemos definir esse método da seguinte forma:

Supondo que X 1 , X 2 ,..., X n tenha uma função densidade de probabilidade


ou uma função densidade de probabilidade conjunta, do tipo:

f ( x1, x 2 ,..., x n ;θ1 ,...,θ n ) .

Em que os parâmetros possuem valores desconhecidos. Quando os


valores das varáveis aleatórias são observados na amostra e é considerada uma
função de certo parâmetro, essa função é chamada de função de máxima
verossimilhança. As estimativas de máxima verossimilhança são os valores para
o estimador pontual do parâmetro que maximizam essa função de modo que:

^ ^
f ( x1, x 2 ,..., x n ;θ 1 ,...,θ n ) ≥ f ( x1, x 2 ,..., x n ;θ1 ,...,θ n )

Exemplo: Uma amostra de 10 skates fabricados por certa empresa é


obtida, sendo que em teste descobre-se que o primeiro, o quarto e o décimo
estão com defeito. Seja p, a proporção de todos os skates que apresentam
defeito, defina as varáveis aleatórias de Bernoulli, considerado 1 para o skate
defeituoso e 0 para o capacete sem defeitos.

Considerando a amostra obtida temos: X 1 = X 4 = X 10 = 1 , os outros sete

valores de X i são zeros. A função de probabilidade de qualquer X i é p x (1 − p)1− x


. Supondo que a condição de cada skate seja independente entre si, temos que
a função de probabilidade conjunta é o produto de suas funções individuais logo:
f ( x1 ,..., x n ; p) = p(1 − p) p... p = p 3 (1 − p) 7

Supondo que p = 0,25, A probabilidade de observar a ,mostra que


tivemos é de 0,002086. Supondo que p = 0,5, sua probabilidade passa a ser
0,000977.

Para que valor de p a amostra observada é mais possível de ter


ocorrido?

Qual valor de p a função de probabilidade combinada, tem o melhor


estimador não viciado de mínima variância?

Para determinarmos isso utilizamos o logaritmo natural, visto que


determinar o valor de µ que maximiza g(µ), é o mesmo de encontra µ para
maximizar ln(µ). Dessa forma:

ln[ f ( x1 ,..., x n ; p)] = ln[ p 3 (1 − p) 7 ] = 3 ln( p) + 7 ln(1 − p)

Dessa forma:

d d 3 7
ln[ f ( x1 ,..., x n ; p)] = [3 ln( p) + 7 ln(1 − p)] = + (−1)
dp dp p 1− p

Quando igualamos essa derivada a zero, chegamos em 3(1 – p)=7p, em


que p = 0,3. Ou seja, nossa estimativa pontual para p é 0,3, e esse é o valor que
maximiza a verossimilhança.

Esse método tem uma precisão mais forte do que o método dos
momentos abordado anteriormente, mas como podemos notar é mais difícil de
calcular. Hoje há alguns softwares no mercado que fazem verossimilhança como
o Minitab 17.

Intervalos de confiança
A teoria da inferência estatística consiste nos métodos pelos quais
realizamos inferências ou generalizações sobre uma população. O método
clássico consiste na estimação de um parâmetro populacional, por meio no qual
inferências são baseadas estritamente nas informações obtidas de uma amostra
aleatória selecionada da população.

Para iniciarmos o trabalho iremos supor , primeiro, que a distribuição da


população seja normal, e que o desvio padrão populacional seja conhecido.

Pela imagem a seguir notamos que queremos terminar valores em uma


distribuição normal padrão deforma que a probabilidade entre dois termos seja
conhecida, nesse caso nosso estimador será uma média amostral, e temos
interesse determinar um intervalo de confiança para um nível de confiança α
conhecido.
P(− zα / 2 < Z < zα / 2 ) = 1 − α
onde
X −µ
Z=
σ n
Assim,
 X −µ 
P − zα / 2 < < zα / 2  = 1 − α
 σ n 

σ
Multiplicando cada termo da igualdade por e depois subtraindo X
n
de cada termo e multiplicando por – 1 (revertendo o sentido das desigualdades),
obtemos:

 σ σ 
P X − zα / 2 < µ < X + zα / 2  = 1 − α
 n n

Para pequenas amostras selecionadas de populações não normais, não


podemos esperar que nosso grau de confiança seja exato. Entretanto para
amostras de tamanho n ≥ 30 , com a forma das distribuições não muito
assimétricas, a teoria da amostragem garante bons resultados.

Teoremas importantes:

• Se X é usado como uma estimativa de µ, podemos estar


σ
100(1 − α )% confiantes que o erro não excederá zα / 2 .
n
• Se X é usado como uma estimativa de µ, podemos estar
100(1 − α )% confiantes de que o erro não excederá um valor específico e quando
 zα σ
2

o tamanho da amostra for n =   .
2
 e 
 
Nem sempre queremos determinar dois limites de confiança há algumas
situações, nas quais só é de interesse determinar o limite superior ou inferior, a
diferença no cálculo é que não utilizamos α/2 e sim α.
σ
• Limite unilateral Superior: X + zα
n
σ
• Limite unilateral inferior: X − zα
n

Exemplo: A concentração média de zinco recuperado de uma amostra de


medições desse material em 36 locações diferentes é 2,6 gramas por mililitro.
Determine os intervalos de confiança de 95% para a média de concentração de
zinco no rio. Assuma que o desvio-padrão da população seja 0,3.

0,3 0,3
2,6 − (1,96) � � < 𝜇𝜇 < 2,6 + (1,96) � �
√36 √36

2,50 < 𝜇𝜇 < 2,70

Note que o valor para zα / 2 = z 0, 025 = 1,96 , obtido na tabela de distribuição

normal em anexo.

CASO DO 𝜎𝜎 DESCONHECIDO

Com frequência, tentamos estimar a média de uma população quando a


variância é desconhecida, nesse caso se temos uma amostra aleatória de uma
distribuição normal, então a variável aleatória

𝑋𝑋� − 𝜇𝜇
𝑇𝑇 =
𝑆𝑆
√𝑛𝑛

Tem uma distribuição t com n – 1 graus de liberdade.

Nesse caso o intervalo de confiança, será determinado por

𝑠𝑠 𝑠𝑠
𝑥𝑥̅ − 𝑡𝑡𝛼𝛼�2 < 𝜇𝜇 < 𝑥𝑥̅ + 𝑡𝑡𝛼𝛼�2
√𝑛𝑛 √𝑛𝑛

No qual 𝑡𝑡𝛼𝛼�2 é um valor t com gl = n − 1 ou v = n – 1 graus de liberdade

que deixa uma área de 𝛼𝛼�2 à direita, como indicado na figura a seguir:
α

Exemplo: Os conteúdos de ácido sulfúrico em sete contêineres similares


são 9,8; 10,2; 10,4; 9,8; 10,0; 10,2 e 9,6 litros. Determine um intervalo de
confiança de 95% para a média de todos os contêineres, assumindo uma
distribuição aproximadamente normal.

0,283 0,283
10,0 − (2,447) � � < 𝜇𝜇 < 10,0 + (2,447) � �
√7 √7

9,74 < 𝜇𝜇 < 10,26

INTERVALOS DE CONFIANÇA PARA UMA PROPORÇÃO

Uma estimativa pontual de uma proporção p em um experimento


binomial é dado pela estatística P = X/n, onde X representa o número de
sucessos em n tentativas. Então, a proporção amostral p = x/n será usada como
estimativa pontual do parâmetro p.

Senão se espera que a proporção p desconhecida seja muito próxima


de 0 ou 1, podemos estabelecer um intervalo de confiança para p considerando
a distribuição amostral de p. Sendo p apenas a média amostral de n valores,
Então pelo teorema central do limite, para n suficientemente grande, P têm
distribuição aproximadamente normal com média p e desvio padrão pq/n.

De onde escrevemos:
𝑝𝑝𝑝𝑝 𝑝𝑝𝑝𝑝
𝑃𝑃 �𝑃𝑃 − 𝑧𝑧𝛼𝛼 � < 𝑝𝑝 < 𝑃𝑃 + 𝑧𝑧𝛼𝛼 � � = 1 − 𝛼𝛼
2 𝑛𝑛 2 𝑛𝑛

Exemplo: Em uma amostra aleatória de n = 500 famílias que possuem


aparelhos de televisão na cidade de Vancouver, Canadá, descobre-se que x =
400 assinavam a HBO. Determine um intervalo de confiança de 95% para a atual
proporção de famílias dessa cidade que assinam HBO.

(0,8)(0,2) (0,8)(0,2)
0,8 − 1,96� < 𝑝𝑝 < 0,8 + 1,96�
500 500

0,7649 < 𝑝𝑝 < 0,8351

INTERVALO DE CONFIANÇA E CONFIABILIDADE

Por que determinamos um intervalo de confiança de 95%, se podemos


determinar um intervalo para 99% ou ainda 99,9%?

A resposta está no tamanho do intervalo de confiança, quando


aumentamos nossa confiança, naturalmente o intervalo se tornará mais largo,
no caso de imaginarmos a amplitude de um intervalo de confiança como sua
precisão, podemos notar que seu nível de confiança está inversamente
relacionado a sua precisão, ou seja quanto maior o nível empregado menor será
a precisão obtida.

Logo quando optamos por um intervalo de 99% ao de 95% ganhamos


em confiabilidade, mas perdemos a precisão da estimação do parâmetro
populacional.
INTERVALOS DE CONFIANÇA PARA VARIÂNCIA E DESVIO PADRÃO AMOSTRAL

No geral as inferência são feitas para média ou proporção, mas há casos


específicos onde há a necessidade de inferir informações a respeito da variância
ou do desvio padrão. Esse procedimento é realizado com auxílio da distribuição
qui-quadrada, com n – 1 graus de liberdade, dado que uma amostra aleatória
que possua distribuição normal com parâmetros µ e σ², tem uma variável
aleatória:

(n − 1) S ²
=
∑(X i − X)
,
σ² σ²

que possui distribuição qui-quadrada (𝑋𝑋 2 ) com n – 1 graus de liberdade.

O intervalo de confiança para a a variância σ² de uma população normal


possui seus limites indicados abaixo:

Limite inferior: (n − 1) s ² / X α / 2;n −1


2

Limite superior: (n − 1) s ² / X 1−α / 2;n −1


2

O intervalo para o desvio padrão σ possui limites superior e inferior que


são as raízes quadradas dos limites correspondentes para a variância.

Intervalos de confiança para duas amostras

Podemos determinar um intervalo de confiança para duas amostras


utilizando a diferença de duas médias ou a diferença entre duas proporções,
obtendo valores críticos z no caso do desvio padrão conhecido ou na estimação
da proporção, ou valores críticos t quando amostramos uma média com desvio
padrão desconhecido.

O conjunto de fórmulas utilizadas forma uma adequação, no caso do


desvio padrão conhecido, teremos:
σ 12 σ 22 σ 12 σ 22
( X 1 − X 2 ) − zα / 2 + < µ1 − µ 2 < ( X 1 − X 2 ) + z α / 2 +
n1 n2 n1 n2

E no caso do desvio padrão desconhecido mais iguais, temos:

1 1 1 1
( X 1 − X 2 ) − tα / 2 + < µ1 − µ 2 < ( X 1 − X 2 ) + t α / 2 +
n1 n 2 n1 n 2

E:

s12 s 22 s2 s2
( X 1 − X 2 ) − tα / 2 + < µ1 − µ 2 < ( X 1 − X 2 ) + t α / 2 1 + 2
n1 n2 n1 n2

Quando os desvios são desconhecidos e diferentes, ambos os casos


utilizando a tabela t com v graus de liberdade. Quando os desvios calculados
são diferentes o grau de liberdade da distribuição é determinado por:

v=
(s2
)
/ n1 + s 22 / n2
2

[ ] [ ]
1

( s12 / n1 ) 2 /(n1 − 1) + ( s 22 / n2 ) 2 /(n2 − 1)

No caso acima, o valor de v envolve variáveis aleatórias, logo essa


fórmula estima os graus de liberdade da distribuição, por via de regra há um
arredondamento sempre para o número inteiro mais baixo, afim de garantir uma
melhor confiabilidade.

Exemplo: Um estudo foi conduzido pelo Departamento de zoologia para


estimar a diferença na quantidade de ácido fosfórico, em duas estações
diferentes do de um determinado rio. O ácido é medido em miligramas por litro.
A coleta de dados foi feita da seguinte forma:

• 15 amostras na estação 1, que geraram uma média de 3,84 mg/L,


com desvio padrão amostral de 3,07 mg/L.
• 12 amostras na estação 2, que geraram uma média de 1,49 mg/L,
com desvio padrão amostral de 0,80 mg/L.

Vamos determinar um intervalo de confiança de 95% para a diferença


de médias reais.
v=
(3,07² / 15 + 0,8² / 12)2
[(3,07² / 15) 2
] [
/(15 − 1) + (0,8 / 12) 2 /(12 − 1) ] = 16,3 ≈ 16
t 0,025 = 2,120 com 16 graus de liberdade.

Logo:

3,07² 0,80 3,07² 0,80


(3,84 − 1,49) − 2,120 + < µ1 − µ 2 < (3,84 − 1,49) + 2,120 +
15 12 15 12
0,60 < µ1 − µ 2 < 4,10

Logo estamos 95% confiantes que o intervalo entre 0,6 e 4,1 contém a
verdadeira diferença de médias dos conteúdos de ácido fosfórico, para essas
duas localizações em um rio.

Podemos também estabelecer um intervalo de confiança par a diferença


entre duas proporções, utilizando:

𝑝𝑝̂1 𝑞𝑞�1 𝑝𝑝̂2 𝑞𝑞�2 𝑝𝑝̂1 𝑞𝑞�1 𝑝𝑝̂2 𝑞𝑞�2


(𝑝𝑝̂1 − 𝑝𝑝̂2 ) − 𝑧𝑧𝛼𝛼 � + < 𝑝𝑝1 − 𝑝𝑝2 < (𝑝𝑝̂1 − 𝑝𝑝̂2 ) + 𝑧𝑧𝛼𝛼 � +
2 𝑛𝑛1 𝑛𝑛2 2 𝑛𝑛1 𝑛𝑛2

Na qual z é um valor crítico determinado na tabela da distribuição normal.


EXERCÍCIOS da UNIDADE I

1) Identifique em seu ambiente de trabalho, exemplos de falhas, de acordo com


a classificação apresentada neste capítulo.

Resposta: pessoal, mas deve seguir o parâmetro:

1. Falhas temporárias. (curto circuito, que pode ser reparado)


2. Falhas intermitentes. (mau contato em relé)
3. Falhas permanentes. (fusível queimado ou lâmpada fundida)

2) Considere a seguinte amostra do teor de gordura (%) de 10 cachorros quentes


selecionados aleatoriamente, e determine um intervalo de confiança para 95%

25,2 21,3 22,8 17,0 29,8 21,0 25,5 16,0 20,9 19,5

Resposta: [18,94;24,86]

3) Dado que em 48 tentativas, 16 resultem em uma ignição de um tipo específico


de substrato por um cigarro acesso, elabore um intervalo de confiança de 95%
para a proporção de todas as tentativas que resultariam em ignição.

Resposta: [0,200; 0,466]

4) Um dos fatores que alteram o conforto de um tecido, é o volume vazio. A


permeabilidade de um tecido refere-se à acessibilidade do espaço vazio ao fluxo
de gás ou líquido.

A tabela abaixo oferece informações resumidas a respeito da permeabilidade do


ar de vários tipos diferentes de tecido. Considerando os dados como normais
estaveleça um intervalo de confiança de 95%.

Tipo de tecido Tamanho da Média amostra Desvio padrão


amostra amostral
Algodão 10 51,71 0,79

Triacetato 10 136,14 3,59

Resposta: [81,80 cm³/cm²/s; 87,06 cm³/cm²/s]

5) Segue abaixo os resultados de um experimento que compara o tratamento de


pacientes com câncer utilizando somente quimioterapia, e o tratamento que
combina quimioterapia com radiação.

Quimioterapia 154 indivíduos 76 sobreviveram 15 anos

Quimioterapia + radiação 164 indivíduos 98 sobreviveram 15 anos

Estabeleça um intervalo de confiança de 99% para a diferença de proporções de


um indivíduo que faz o tratamento com quimioterapia, e do individui que faz o
tratamento hibrido.

Resposta: [-0,247;0,039]
ANEXOS – CAPÍTULO 1 – TABELAS

TABELA DA DISTRIBUIÇÃO NORMAL PADRÃO


z s2
1 −
P ( Z ≤ z ) = Φ( z ) = ∫
−∞ 2π
e 2 ds
Tabela da Distribuição Qui-Quadrado
Unidade II Análise de vida do produto
Caro(a) Aluno(a)

Seja bem-vindo(a)!

Nesta primeira unidade, iremos estudar a determinação de vida


de um produto.

Bons estudos!!!

Conteúdo da Unidade

Nesta unidade abordaremos os seguintes conteúdos:

Tipos de dados de vida dos produtos

Teoria e métodos de estimação de parâmetros

Intervalo de confiança
Analisando dados de vida

Ao definirmos confiabilidade, nos referimos a capacidade de um item ou


produto desempenhar suas funções exigidas sob uma condição pré-
estabelecida, por um período de tempo predeterminado, ou seja, que também é
conhecido. Também nos referimos a probabilidade deste item ou produto,
desempenhar suas funções, em um determinado período de tempo.

Combinando estes dois conceitos podemos definir a confiabilidade, como


a capacidade e a probabilidade de um item cumprir sua função exigida por um
período de tempo determinado.

O desenvolvimento da confiabilidade tem como principal objetivo prevenir


falhas no produto, estas podem ser analisadas, ainda na etapa de projeto, sendo
que neste contexto a falha é definida como perda da capacidade de um item
desempenhar uma função exigida.

Por exemplo, um smartphone, atualmente tem diversas funções, e seu


tempo de vida útil pode estar ligado à degradação dos componentes eletrônicos,
a inadequação de softwares, devido a avanços tecnológicos, ou programação
do fabricante, ou ainda relacionado a inadequação frente aos novos lançamentos
que são constantes, que passa por uma impressão social que aquele aparelho
não serve mais. Logo um estudo no que se refere ao tempo de vida de um
smartphone teria que levar em consideração estes e outros aspectos, como
novos lançamentos, para ser realizado.

A análise de dados de vida de um produto ou componente, nos auxilia na


obtenção de informações valiosas, que podem servir de base para outras
análises, relacionadas a prevenção de falhas, previsão de consumo de peças
entre outros. As concessionárias de veículo, por exemplo, buscam manter um
estoque mínimo, mas suficiente de peças a fim de ter um atendimento em um
tempo que não cause insatisfação ao cliente.
Alguns cuidados devem ser tomados durante o processo de coleta de
dados para que os resultados e conclusões não sejam equivocados, fato que
pode trazer perdas para a empresa.

Por exemplo, em uma análise Weibull, nem todos os dados encontrados podem
ser tratados da mesma maneira. Quando uma peça é substituída após ficar 800
horas em operação, pode haver dois motivos diferentes para isso.

1) A peça pode ter falhado, caso em que se aplica a distribuição Weibull.

2) A peça pode ter sido trocada preventivamente, caso em que não sabemos o
tempo em que ela ainda funcionaria até a falha.

Neste caso o tempo de operação da peça é diferente do seu tempo até a


falha, ou seja há uma suspensão da atividade. Se entendermos o tempo de
suspensão, como tempo até a falha, teremos lima estimativa excessivamente
pessimista da realidade, que pode afetar os parâmetros da distribuição de
probabilidade ajustada nestes dados.

O cuidado em diferenciar a suspensão e a falha pode ser tomado por meio


de uma ficha em que de algum modo se indique que a peça não falhou e sim
seu uso foi suspenso.

Exemplo:

Peça Tempo de vida útil Motivo de parada

A 600 horas Falha – causa desconhecida

B 650 horas Suspensão – manutenção da máquina

C 520 horas Suspensão – defeito em outro componente


(manutenção)

D 700 horas Falha – Causa desconhecida

E 612 horas Suspensão – manutenção da máquina


Podemos perceber que a preparação de dados é muito importantes para
uma análise bem feita, logo deve-se fazer uma entrada correta dos dados, que
origine confiança e representatividade de uma informação sem desvios.

Após essa coleta, devemos classificar o s dados que estamos, utilizando,


já que a maioria contém censuras, ou seja, informações incompletas, no caso as
suspensões tratadas anteriormente, que podem ser entendidas como dados de
itens nos quais o tempo de falha só será conhecido, após excedermos certos
valores de tempo.

Definido os tipos de dados, temos:

• Dados Completos: a maioria dos dados que não são classificados como
dados de vida, bem como alguns tipos de dados de vida. Dados
completos significam que o valor de cada item da amostra é observado
ou conhecido. Por exemplo, se testarmos 20 itens e todos falharam,
teríamos a informação exata do tempo de falha para cada item.

Fonte: Reliasof (2001, p.156)

• Dados Censurados à Direita: neste caso os dados possuem itens que não
falharam. Por exemplo, se testarmos 20 itens, mas somente dezesseis
falharam. Neste caso, os dados são compostos, por dezesseis itens que
falharam, ou seja, que conhecemos o tempo até a falha e quatro itens que
não falharam e que não devem ser desprezados da análise.
Fonte: Reliasof (2001, p.163)

• Dados em Intervalos Censurados: são dados que contém incertezas em


relação ao tempo exato de falha, só sabemos que o item falhou em um
determinado intervalo de tempo. Se examinarmos dez tens a cada dez
horas, e percebemos que no quinto exame três itens falharam, não
podemos determinar o momento exato da falha, somente que a mesma
ocorreu entre trinta horas e 40 horas.

Fonte: Fonte: Reliasof (2001, p.163)

• Dados Censurados à Esquerda: esse tipo de censura é similar à censura


em intervalos e é denominado dado censurado à esquerda. É o caso, no
qual, a falha ocorre antes de um determinado momento da análise.
Fonte: Fonte: Reliasof (2001, p.163)

TABELA DE VIDA

A tabela de vida é um dos métodos estatísticos mais antigos, utilizados


para estimar características associadas à distribuição de tempos de falhas.
Essencialmente a a tabela de vida é uma extensão do histograma par o caso de
dados censurados. Vejamos os passos para sua construção.

Dados os pontos, 0 = t 0 < t1 < ... < t k < t k +1 = ∞ , dividimos o eixo tempo de 0
a ∞ em k +1 intervalos, sendo que para cada intervalo devemos considerar as
seguintes probabilidades:

pi = P(T > ti | T > ti −1 )


qi = P(T < ti | T > ti −1 ) = 1 − pi

Em que pi representa a probabilidade de um componente sobreviver além

do intervalo (depois de ti , dado que ele não falhou até o início do intervalo ( ti −1 )

e qi representa a probabilidade de um item falhar no intervalo (entre ti −1 e ti ),


dado que ele não falhou até o início do intervalo.

Além disso, observe que pela probabilidade condicional, temos:

P(T > ti  T > ti −1 ) R (ti )


pi = P(T > ti | T > ti −1 ) = =
P (T > ti −1 ) R (ti −1 )
Como,

R (ti )
pi = ↔ R (ti ) = pi R (ti −1 )
R (ti −1 )

E considerando i = 1, 2, 3, ..., k + 1, temos que:

R(t i ) = pi × pi −1 × ... × p1

E como qi = 1 − pi , podemos escrever:

R(ti ) = (1 − qi ) R(ti −1 )

Podemos obter uma estimativa para a confiabilidade em ti a partir de uma

estimativa para a probabilidade qi , dada por:

𝑁𝑁ú𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖 𝑞𝑞𝑞𝑞𝑞𝑞 𝑓𝑓𝑓𝑓𝑓𝑓ℎ𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑒𝑒𝑒𝑒 𝑢𝑢𝑢𝑢 𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖


𝑞𝑞� =
𝑁𝑁ú𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐
𝑁𝑁ú𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖 𝑒𝑒𝑒𝑒 𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟𝑟 − 2

Exemplo: Vamos considerar os seguintes intervalos:

Intervalo Nº em Falhas Censura �%


𝒒𝒒 Confiabilidad
risco s e

[0;5[ 30 2 1 93,22%
2
� � × 100% = 6,78%
1
30 − 2
[5;10[ 25 3 0 88%
3
� � × 100% = 12%
0
25 − 2

[10;15[ 42 2 0 95,24%
2
� � × 100% = 4,76%
0
42 − 2

[15;20[ 28 1 1 96,36%
1
� � × 100% = 3,64%
1
28 − 2

Uma desvantagem associada as tabelas de vida, é que o número de


intervalos de tempo, são escolhidos de forma arbitrária, sendo que o uso de
poucos intervalos nos dá uma aproximação grosseira da verdadeira função de
confiabilidade.

Análise e interpretação de gráficos de confiabilidade

Um dos gráficos mais utilizados na análise de taxa de falhas segundo a


teoria da confiabilidade é a curva da banheira, nome dado ao gráfico utilizado
em análise de equipamentos e seu histórico de manutenção:
Fonte: https://pcmusina.files.wordpress.com/2011/07/banheira.png

Nela, percebemos que em um período inicial a curva mostra uma


diminuição significativa de paradas por problemas de manutenção, em
sequência temos a estabilidade, ou seja, o momento em que só ocorrem as
manutenções preventivas programadas e com o envelhecimento do
equipamento, a curva começa a subir novamente, mostrando o fim da vida útil
do mesmo.

Isso é melhor indicado na imagem abaixo:


Fonte: http://lh6.ggpht.com/_-XmdhGgWUc8/TWakp-
JYTwI/AAAAAAAAAEk/J3urxfG-
VYk/Banheira_thumb%5B1%5D.jpg?imgmax=800

Onde podemos perceber que a curva da banheira, na verdade é composta


por três gráficos, o de falhas prematuras, a de falha constante ou aleatória e o
de falhas por desgaste, quando o equipamento está no fim de sua vida útil.

No geral podemos indicar outras curvas que são relacionadas a taxas de


falhas, respeitando a especificidade de cada caso.

Onde indicamos que a curva anteriormente se relaciona com a idade do


equipamento, como por exemplo, motores elétricos, engrenagens e controles.

Sobre o tempo de operação de um equipamento, podemos perceber que


o gráfico de mantém constante por um determinado período, até que o número
de falhas começa a aumentar exponencialmente, indicando o fim da vida útil.

Alguns exemplos de equipamentos que se enquadram neste modelo, são


pistões, discos de freios e aerofólios.
As falhas relacionadas com a idade do equipamento já apresentam um
crescimento linear, como indicado na figura a seguir:

Esta curva dificulta a percepção de futuras falhas pois seu envelhecimento


é gradativo, apesar de um aumento discreto na taxa a cada intervalo de tempo.
Alguns equipamentos que podem ser modelados por essa curva são: turbinas,
compressores e rolamentos.

É claro que nem todas as falhas de um equipamento estão relacionadas


com idade, mas as mesmas ainda ocorrem em um intervalo de tempo, seja por
manutenção inadequada, ou mal uso do equipamento:

A questão mais complicada, com esse tipo de falha é que sua taxa é
quase nula no início, mas aumenta para um valor não nulo qualquer ao longo do
tempo, equipamento propensos a esse modelo flaps de turbinas.

O tempo de operação de um equipamento, também não está relacionado


a sua idade.
Esse tipo de curva possui uma taxa constante, um exemplo disso são as
lâmpadas incandescentes, que não são mais comercializadas no Brasil.

A última curva a ser indicada, é em geral, apresentada em aparelhos


eletrônicos, pois os mesmo estão sujeitos a uma alta taxa de falhas no início de
operação, que após um período inicial, passa a apresentar uma taxa de falhas
constante ou quase constate.

Cabe ressaltar que para a realização de um controle efetivo, sobre


máquinas ou componentes, no que se refere a falhas, há a necessidade de
elaboração de um planejamento de atividades de equipe de manutenção e coleta
de informações baseadas em históricos de atividade.

A própria realização de um plano de manutenção adequado está ligada a


construção de um banco de dados de vida, das máquinas e equipamentos em
análise, dessa forma é necessário a criação de um sistema que armazene todas
as informações relevantes, por exemplo, quando e como ocorreu a última falha
no sistema e que ações foram realizadas para sua correção.
Análise de garantia

Quando tomamos a decisão de adquirir um produto, o que levamos em


conta?

Vejamos por exemplo, um computador do tipo notebook, se olharmos


apenas para as configurações, iremos perceber diversas marcas oferecem
produtos muito similares, tanto em design, quanto em preço, nesse sentido como
escolher um produto?

Em situações deste tipo, o pós venda costuma ser levado em conta, esse
pós venda engloba a reputação da marca, facilidade com reposição de peças, e
tempo de garantia e modo como ela é oferecida. Afinal um tempo de garantia
maior, demonstra que a marca confia que seu produto estará em perfeitas
condições ao fim daquele período.

Em suma a garantia é um compromisso, entre o produtor e o consumidor,


que garante par o segundo que o mesmo terá seu defeito corrigido, no caso de
o mesmo existir. Podemos dizer que a maioria dos produtos é vendido com
algum tipo de garantia, e que se um produtor oferece uma garantia maior do que
seu concorrente, é por que a confiabilidade de seu produto reduz custos
associados a utilização da garantia. Em suma, há menos risco que o produto
venha a precisar de algum reparo neste período.

A garantia de um produto, tanto pode ser utilizada como meio de


divulgação da qualidade de um produto, no interesse de melhorar as vendas,
como pode ser dada por imposição da legislação vigentes, por exemplo, o código
de defesa do consumidor.
Fonte: SANTOS, 2008.

A figura acima, mostra como a ideia da garantia, forma uma relação entre
produtor e comprador, mediada pelo governo, com intenção de garantir um
qualidade mínima do produto, ressaltando que um cuidado com a redução de
custos de garantia, pode gerar lucro a médio e longo prazo, pela valorização da
marca.

A garantia de um produto pode ser observada sobre as perspectivas de:

1. Contexto cultural da garantia.


2. Papel da garantia e implicações no ciclo de vida do produto.
3. Gestão de garantia e logística.
4. Análise de custos.
5. Políticas de garantia.
6. Estratégias de garantia.

Indicado por Santos, 2008 por meio de um fluxograma:


Fonte: SANTOS, 2008

Desta maneira, podemos perceber que a garantia de um produto, está


ligada a diversos aspectos da empresa, um produto que tenha uma garantia
longa, mais uma baixa confiabilidade de falha nesse período, é insustentável, do
ponto de vista comercial.

Há três pontos de vista que podem ser abordoados para entender um


processo de garantia:

• Comprador: proteção e informação, pois estabelece um meio de corrigir


falhas do produto, após seu uso devido, e passa uma informação de
confiabilidade.
• Produtor: proteção e promoção, protege o comprador frente a uso
indevido do produto e violações que levem a falha, em geral descritas em
um manual. A promoção está ligada ao fato, que um maior tempo de
garantia, faz com que o comprador conclua que o produto é mais
confiável.
• Legislador: definição de responsabilidades, a garantia protege tanto
comprador, quanto produtor, deixando claras as responsabilidades de
cada um, sobre um item, facilitando a resolução de disputas.

As decisões sobre a aplicação da garantia, devem ser levadas em conta,


em cada um dos estágios do ciclo de vida de um produto sendo eles:
1. Projeto e desenvolvimento
2. Produção
3. Comercialização
4. Suporte de pós-venda

Sendo que as decisões, que podem alterar a confiabilidade de um produto


em geral são realizadas em nível de projeto, enquanto que a produção,
concretiza as alterações melhorias propostas, que venham a atender a melhora
na confiabilidade. A comercialização apresenta o produto aos possíveis
compradores.

O suporte pós-venda inclui: instalação do produto, serviços de garantia e


manutenção, garantia estendida, provisão de peças para reparo, programas de
treinamento de redes autorizadas, atualização de produtos e outras formas de
assistência ao comprador. Sendo algumas assistências contratadas por um valor
adicional, como por exemplo a garantia estendida.

DADOS DE GARANTIA

Um pressuposto básico na confiabilidade, é a da existência de dados, a


cerca do item, no caso de garantia, esses dados estão ligados ao tempo até a
falha de um determinado produto e refletem o desempenho em campo das
unidades comercializadas. Estes dados podem ser utilizados na revisão do
período de garantia, em projetos de melhorias de produtos, ou no
desenvolvimento de produtos similares, já que um novo produto não possui
dados de garantia de campo.

Esses dados não são exatamente fáceis de coletar, pois dependem de


um alinhamento com a rede credenciada, em geral terceirizada, para a coleta
com precisão das informações. Mesmo assim esses representam as avaliações
mais completas e consistentes sobre o desempenho de um produto. Dessa
forma dados de garantia apresentam grande potencial como fonte de informação
sobre a confiabilidade de um produto.
De toda forma a coleta de dados pode ter alguns reveses, pois ocorrem
em várias etapas de um processo. Entre eles está o fato de um sistema conter
tipicamente muitos módulos, sendo que alguns deles apresentarão poucas
falhas, quando realizamos inferências sobres estes módulos, corremos um risco
em trata-los igual a módulos de falhas expressivas.

É possível que os tempos de registro sejam falhos e inexatos, o que


tornam os dados impuros, algumas empresas buscam corrigir esta falha
centralizando em um SAC, todo o atendimento da rede credenciada, com
registro da nota fiscal. A utilização de dados secundários, também ode gerar
problemas na modelagem dos dados, tendo em vista que relatórios de
manutenção não se destinam por definição ao registro de falhas.

O último ponto crítico está na apresentação de reclamações inválidas,


seja por excelência do tempo de garantia, ou mal-uso do produto, ainda é
possível que haja reclamações, quando na verdade não houve uma falha.

As falhas de um produto durante o período de garantia, podem ser


modeladas em nível de componente ou produto, cabe notar que a falha do
produto, se deve à falha de um ou mais componentes. O produto pode ser
descartado após uma única falha, quando seu concerto excede um determinado
valor, ou reparado várias vezes em sua vida útil.

Além disso o tempo até a falha será modelado por uma distribuição de
probabilidade, mas em um sistema complexo de componentes, o tempo até a
falha de cada componente pode seguir um modelo de distribuição diferente, logo
o tempo até a falha de um produto não costuma seguir uma distribuição
específica, mas sim uma combinação de distribuições de probabilidade.

É lógico imaginar que a confiabilidade de um produto se reduz com o


tempo, uma redução que ocorre por diversos fatores, como a condição de uso,
o meio ambiente o desgaste de peças, onde podemos imaginar uma taxa de
falha crescente, comp o modelo gráfico apresentado no capítulo anterior.
Por outro lado temos falhas que não relacionam com o tempo de vida de
um produto, que podem ocorrer no início de uso decorrentes ao uso indevido, ou
falhas de montagem, caso em que o gráfico de banheira também analisado
anteriormente é mais adequado.

MODELAGEM DE DADOS DE GARANTIA

Para tratar esse tópico utilizaremos um exemplo do artigo “Modelagem


da confiabilidade utilizando dados de garantia: uma alternativa para
resolver as limitações ao se trabalhar com dados de campo” de Oliveira e
Turrioni, 2016.

Sistema analisado: produto eletrônico portátil, considerado como um


único componente, ou seja, não houve distinção entre a causa de falha.

Foram analisados 100958 unidades, sendo que 23998 apresentaram


falhas de acordo com o histograma abaixo, apresentado no artigo:
A identificação da distribuição amostral, se deu por meio de testes de
hipóteses, considerando seu valor P-Value, abaixo do nível de significância
adotado, conforme discutido anteriormente quando consideramos sistemas
complexos podemos estar lidando para distribuições de probabilidade diferentes
para cada módulo do sistema, este poderia ser um motivo para a dificuldade de
aderir os dados as principais distribuições d probabilidade, conforme relatado no
artigo.

De qualquer modo, foi feito um levantamento por tipo de falha, que


também não obteve sucesso em sua modelagem, este levantamento está
presente na tabela a seguir:
Deste modo o caminho mais simples, foi a aplicação de um questionário
para especialistas no item, de modo a levantar o tempo de falha após a garantia
ter terminado, este levantamento resultou em:

Quando realizado os testes de aderência com estes dados, obteve-se


uma distribuição Weibull já discutida neste capítulo com parâmetro de forma 2,74
e de escala 217,47.

Após a modelagem dos dados foi possível identificar que o tem médio
para falhas do produto, é de 155 semanas, pelo seguinte gráfico de
confiabilidade:
Com os seguintes intervalos de confiança.

Toda a dificuldade relatada no artigo, gira em torno da falta de um banco


de dados adequados sobre falhas, principalmente após o término da garantia,
além disso o fato de ouvir opiniões de especialistas, apesar de valido, diminui a
acuidade dos dados e é limitado para alguns tipos de produtos.
O software utilizado não é exposto no artigo, mas fazemos uma
observação no que se refere ao Minitab, que tem uma ferramenta de predição
de garantia, que leva em consideração inclusive dados censurados, segue um
exemplo de tela:

Nota-se que frente as ferramentas estatísticas e de softwares existentes,


o maior cuidado em uma análise de garantia, será com a agudeza na coleta de
dados, este um problema de difícil resolução, já que afeta diversas partes de
uma instituição.

Confiabilidade em sistemas

Um dos aspectos mais importantes da confiabilidade é a análise de um


sistema a partir de seus componentes, sendo um sistema, um conjunto de itens
como sunsistemas, softwares e operadores (elemento humano), cujo
funcionamento adequado e coordenado implica no próprio funcionamento de um
sistema, o exemplo citado, seria, uma central de atendimento telefônico.

Quando analisamos um sistema, analisamos não somente o todo, mas


também as relações entre os componentes e as confiabilidades de cada
componente, dessa forma podendo determinar a confiabilidade de um sistema
como um todo.
Em geral um sistema pode ser representado por um diagrama de blocos,
defininfo a confiabilidade como a probabilidade de um sistema, ou componentes,
realizar sua função por um período de tempo, podemos entender o diagrama de
blocos como uma rede que descreve a função de um sistema.

Dado que um sistema tenha mais do que uma função, cada função deve
ser considerada individualmente, por meio de um diagrama de blocos distinto.

Exemplo de diagrama de blocos:

Fonte: https://www.electronica-pt.com/tv-eletronica

Podemos ter uma interpretação mais simples de um diagrama de blocos,


de modo a entender o significado de uma falha:
Quando existe uma conexão entre os pontos a e b, podemos dizer que o
componente i está funcionando, ou seja, não ocorre o modo de falha. O modo
de falha corresponde a uma das formas em que o componente ou o sistema
pode falhar.

Dessa forma:

Quando temos uma conexão estabelecida entre os pontos a e b, podemos


dizer que a função representada no diagrama de blocos está sendo realizada e
o modo de falha não ocorre.

SISTEMAS EM SÉRIE

Na prática essa é a configuração mais comum para um sistema, considere


que um sistema em série é formado por n componentes independentes, que
deme estar funcionando para que o sistema como um todo não falhe. Esse
modelo de sistema é muito utilizado por ser mais simples de montar e trazer uma
aproximação razoável de uma situação real.

Por sua própria característica, devemos inferir que a confiabilidade de um


sistema em série diminui quando aumentamos o número de componentes:
A confiabilidade de um sistema, quando consideramos seus componentes
como independentes, ou seja:

Rs = P ( E1 ) × P( E 2 ) × P( E3 ) × ... × P( E n )
ou
n
Rs = ∏ Ri
i =1

Já que qualquer falha de componente, corrompe o sistema como um todo,


vejamos o exemplo de uma impressora a laser organizada em um diagrama de
blocos, considerando a mesma como um sistema em série:

Fonte: http://www.producao.ufrgs.br
Fonte: http://www.producao.ufrgs.br

Ocasionalmente consideramos sistemas com taxas de falhas constantes,


λ, quando o tempo de falha é adequadamente modelado pela distribuição
exponencial, logo a confiabilidade do sistema é dada por:

n n
 n 
Rs (t ) = ∏ Ri (t ) = ∏ exp(−λi t ) = exp − ∑ λt 
i =1 i =1  i =1 

Logo,

Rs (t ) = exp(−λ s t )

Sendo

n
λ s = ∑ λi
i =1

Concluindo que se todos os componentes de um sistema em série


possuem uma taxa de falha constantes, o sistema terá uma taxa de falha
constante, e que apesar de todos os componentes terem uma taxa de falha
modelada pela distribuição exponencial, estas distribuições em geral não são as
mesmas, ou seja, tem parâmetros diferentes.

Exemplo:
Considere um sistema em série composto por um telefone sem fio, uma
base e uma fonte, em que cada componente tem a seguinte taxa de falha:

• Fonte: 5 falhas/106 horas


• Base: 3 falhas/106 horas
• Telefone sem fio: 15 falhas/106 horas

Vamos determinar a confiabilidade desse sistema para 1000 horas de


uso:

−6
R fonte (1000) = e − λt = e −5×10 (1000 )
= 0,995
−6
Rbase (1000) = e −λt = e −3×10 (1000 )
= 0,997
−6
Rtelefone (1000) = e −λt = e −5×10 (1000 )
= 0,985
Rsistema (1000) = R fonte × Rbase × Rtelefone = 0,977

SISTEMA EM PARALELO

Quando dois ou mais componentes estão em paralelo dentro de um


sistema, todos os componentes devem falhar para que o sistema falhe:

Logo se pelo menos um dos componentes do sistema funciona, o sistema


como um todo não apresentará uma falha, e o sistema é considerado ativo se
todos os seus componentes estão em pleno funcionamento.
A confiabilidade do sistema formado por n componentes independentes
em paralelo ativo, será dada, por 1 menos a probabilidade de que todos os
componentes falhem, logo será igual a probabilidade de que pelo menos um
componente funcione.

Sua expressão de confiabilidade é dada por:

n
q s = P( E1 ) × P( E 2 ) × ... × P( E n ) = ∏ (1 − Ri )
i =1
n
Rs = 1 − ∏ (1 − Ri )
i =1

Sendo qs a não confiabilidade de um sistema.

Exemplo: Considerando o sistema com 3 componentes em paralelo,


vamos calcular sua confiabilidade:

3
Rs = 1 − ∏ (1 − Ri )
i =1

Rs = 1 − [(1 − 0,9 ) × (1 − 0,8) × (1 − 0,75)] = 0,995

Devemos observar que a confiabilidade de um sistema em paralelo ativo


é pelo menos igual a confiabilidade do seu componente mais confiável, e que
para um sistema redundante, no qual, todos os componentes possuem a taxa
de falha constante, a confiabilidade do sistema pode ser modelada pela
distribuição exponencial, por:

( )
n
Rs (t ) = 1 − ∏ 1 − e −λit , em que λi é a taxa de falha do i-ésimo componente.
i =1
SISTEMAS EM SÉRIE-PARALELO

Sistemas complexos, em geral tem modos ligados em série e paralelos, e


sua confiabilidade está ligada a organização dos subsistemas, devendo levar em
consideração as ligações em série e paralelo.

Veja a figura a seguir:

Fonte:https://s3.amazonaws.com/qconassetsproduction/images/provas/4
8471/b8bd502a79a229230517.png

No cálculo da confiabilidade, devemos primeiro, identificar e categorizar


os subsistemas em série ou em paralelo, em seguida determinar a
confiabilidade de cada subsistema, utilizando cada subsistema em série ou
paralelo como um novo bloco que faz parte de um novo sistema em um nível
mais elevado de detalhamento.

O FATOR HUMANO

A garantia de manutenção dos sistemas de produção, também passa pelo


sistema humano, além disso na resolução de problemas dentro de sistema, o
papel humano é fundamental, já que nele há o poder de decisão, antecipação,
percepção, entre outras características.

A atividade humana, pode estar presente em uma estrutura própria de


ergonomia, não apenas como um resíduo de automação, assumindo dessa
forma um papel estruturante no interior de sistemas sócio técnicos,
transformando suas funções na medida que os sistemas automatizados
evoluem.

O exemplo mais clássico da interação humana, em um sistema está ligado


a troca de turnos, conforme indicado na figura a seguir.

Fonte: Borges e Menegon, 2009.

Nesse tipo de sistema a eficiência operacional depende de uma série de


sistemas técnicos e humanos, esses interligados em todo o fluxo de produção.
EXERCÍCIOS da UNIDADE II

1) Com base em um produto que você conhece ou que trabalha diretamente,


organize um diagrama de blocos, decompondo o sistema com seus módulos em
série e paralelo.

Resposta pessoal

2) Defina os principais envolvidos em um processo de garantia de produto, e o


papel de cada um dos envolvidos.

Resposta: O aluno deve dissertar a respeito do papel do produtor, do governo e


do comprador, como a garantia é vista por cada um dos elementos com base no
fluxograma:

3) Determine a confiabilidade no sistema hibrido, série -paralelo abaixo:

Dica: decomponha o sistema em três subsistemas em paralelo e depois trate


como um único subsistema em série.
Resposta: 0,81

4) Um sistema é formado por quatro componentes em série cada um dos quais


possuindo tempo de falha distribuído de acordo com Weibull e com parâmetros
fornecidos na seguinte tabela:

Estime a confiabilidade do sistema.

Resposta: 0,8415

5) 100 lâmpadas foram testadas durante 1000h, sendo obtido os resultados da Tabela
abaixo. Calcule a Taxa de Falhas (Tf) para o caso estudado.

𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞 𝑑𝑑𝑑𝑑 𝑓𝑓𝑓𝑓𝑓𝑓ℎ𝑎𝑎𝑎𝑎


𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷: 𝑇𝑇𝑓𝑓 =
𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞 𝑑𝑑𝑑𝑑 𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢𝑢 𝑥𝑥 ℎ𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 𝑑𝑑𝑑𝑑 𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜çã𝑜𝑜
Resposta: 0,00008333

UNIDADE III Estudo de FMEA


Caro(a) Aluno(a)

Seja bem-vindo(a)!

Nesta primeira unidade, iremos estudar com analisar e prever


falhas em processos, produtos e desenvolvimentos

Bons estudos!!!

Conteúdo da Unidade

Nesta unidade abordaremos os seguintes conteúdos:

O que é FMEA

Tipos de FMEA

Construção de FMEA
A metodologia de Análise do Tipo e Efeito de Falha, conhecida como
FMEA (do inglês Failure Mode and Effect Analysis), é uma ferramenta que
de ação preventiva baseada princípio, evitar, por meio da análise das falhas
potenciais um conjunto de propostas de ações antecipadas de melhoria, que
possam ocorrer nos projetos de desenvolvimento, processo e produto. Desta
forma o objetivo principal é diminuir as chances de falhas durante por
exemplo a utilização de um produto ou seja, buscamos aumentar a
confiabilidade deste ou, entermos estatísticos diminuir a probabilidade de
falha.

Em um relato pessoal, vivenciei a experiencia junto a indústria


automoilístca no setor de auto peças e percebi o quanto esta dimensão teve
sua importância no context de garantir a confiabilidade dos sistemas que
produzíamos. pois, as falhas dos produtos causavam insatisfação, mesmo
que reparada pelo serviço de assistência técnica das concessionárias e
muitas vezes com coberto pela garantia.

Esta metodologia torna-se mais significativa e importante à medida


que a complexidade e segurança dos produtos e processos aumentam.
Imaginem um avião com falhas de motor durante o vôo, um aparelho de
manutenção de vida falhando!

Apesar do foco sido desenvolvido para o estudo dos novos projetos e


produtos atualmente ja existem relatos da utilisação em áreas
administrativas, analyses de riscos de engenharia de segurança e industria
de alimentos.

Definição:

Análise FMEA (Failure Mode and Effect Analysis) é uma metodologia que
objetiva avaliar e minimizar riscos por meio da análise das possíveis falhas
(determinação da causa, efeito e risco de cada tipo de falha) e implantação de
1 Tipos de FMEA

As análises FMEA´s são classificadas basicamente em dois tipos:

FMEA DE PRODUTO: estuda-se as potenciais falhas que poderão ocorrer


com o produto a partir das especificações no projeto original. É denominado
também de FMEA de projeto. (DFMEA)

FMEA DE PROCESSO: estuda-se as potenciais falhas no planejamento de


execução do processo, toma-se como base as não conformidades do
produto com as especificações do projeto. (PFMEA)

2 Porquê usar o FMEA

• para diminuir a probabilidade da ocorrência de falhas em projetos de


novos produtos ou processos;

• para diminuir a probabilidade de falhas potenciais (ou seja, que ainda


não tenham ocorrido) em produtos/processos já em operação;

• para aumentar a confiabilidade de produtos ou processos já em


operação por meio da análise das falhas que já ocorreram;

• para diminuir os riscos de erros e aumentar a qualidade em


procedimentos administrativos.

3 Como executar o FMEA

Para aplicar a metodologia é necessário a utilização de um formulário


de FMEA como veremos logo adiante na fig xx.

Funcionamento Básico

A metodologia independe do tipo de FMEA que será aplicado, Produto


ou processo, novos ou em operação.

Técnicamente para executar um FMEA forma-se um grupo de


pessoas que irão identificar as possíveis falhas de um produto ou processo
em relação às suas funções, identifica-se os tipos de flahas os efeitos e
causas destas falhas.Na sequencia são avaliados os riscos e em função
deles aaliadas as possíveis ações de melhoria e em um future próximo a
reavaliação dos tópicos avaliados anteriormente para validação e
confirmação das ações determinadas anteriormente..

A figura xx ilustra o funcionamento da análise FMEA.

O formulário do FMEA tem cada coluna com sua respective definição


e de acordo com a sequencia das colunas é definido o seu preenchimento
sempre da esquerda para a direita. Observa-se que este preenchimento
deve ser um exercício de reflexão de todos os mebros do grupo de análise
sobre toas as potenciais falhas que podem ocorrer

A metodologia FMEA tem sua importancia pois incorpora a sua


empresa uma forma sistemática de registrar as informaçõs sbre as falhas
dos produtos e processos, corroborando assim para o melhor conhecimento
o funcionamentos dos processos e produtos. Ficam também registradas as
ações de melhoria e promove a redução de custos por meio das prevenções
das falhas, além de criar uma cultura empresarial pró ativa ao inves de
reativa.

Etapas de execução

Planejamento
Na formação do grupo existe a necessidade de ser eleito o
responsável pela aplicação da metodologia. Suas responsabilidades são:

• descrição dos objetivos e abrangência da análise:

Consiste em que identificar qual produto ou processo será objeto de


análise

• formação dos grupos de trabalho:

definir a equipe ou grupo de trabalho multidisciplinar, normalmente entre


4 e 6 pessoas que tenham relação com o objeto de estudo.
• planejamento das reuniões:

agendadar reuniões com antecedência e com acordo de todos os


participantes.

• Preparação da documentação

Análise de Falhas em Potencial


O grupo de trabalho deve discutir e analisar os tópicos ou colunas na
sequencia abaixo:

• função e característicado produto/processo (coluna 1 na figura 2);

• tipo de falha potencial para cada função (coluna 2);

• efeito do tipo de falha (coluna 3);

• causa possível da falha (coluna 4);

• controles atuais (coluna 5);

Avaliação dos Riscos


O objetivo desta faze é quantificar o risco envolvido para cada uma
das avaliações anteriores ~sao avaliados nesta faze :
a. os índices de severidade (S),

b. ocorrência (O) e

c. detecção (D) para cada causa de falha,

de acordo com critérios previamente definidos conforme as tabelas


específicas a seguir.

Depois são calculados os coeficientes de prioridade de risco (R), por


meio da multiplicação dos três índices.

P=SxOxD

A seguir as tabelas dos índices de severidade, ocorrência e detecção

SEVERIDADE

Índice Severidade Critério


1 Mínima O cliente mal percebe que a falha ocorreu
2 Pequena Ligeira deterioração no desempenho com leve descontentamento do
3 cliente;
4 Moderada Deterioração significativa no desempenho de um sistema com
5 descontentamento do cliente
6
7 Alta Sistema deixa de funcionar e grande descontentamento do cliente
8
9 Muito Alta Idem ao anterior porém afeta a segurança
10

OCORRÊNCIA
Índice Ocorrência Proporção Cpk
1 Remota 1:1.000.000 Cpk> 1,67
2 Pequena 1:20.000 Cpk>1,00
3 1:4.000
4 Moderada 1:1.000 Cpk < 1,00
5 1:400
6 1:80
7 Alta 1:40
8 1:20
9 Muito Alta 1:8
10 1:2

DETECÇÃO
Índice Detecção Critério
1 Muito Grande Certamente será detectado
2
3 Grande Grande probabilidade de ser detectado
4
5 Moderada Provavelmente será detectado
6
7 Pequena Provavelmente não será detectado
8
9 Muito Pequena Certamente não será detectado
10

Figura xx: Exemplos de Critérios de Risco

Observações Importantes:

• quando o grupo estiver avaliando um índice, os demais não podem ser levados em
conta, ou seja, a avaliação de cada índice é independente. Por exemplo, se
estamos avaliando o índice de severidade de uma determinada causa cujo efeito
é significativo, não podemos colocar um valor mais baixo para este índice somente
porque a probabilidade de detecção seja alta.
• No caso de FMEA de processo pode-se utilizar os índices de capacidade da
máquina, (Cpk) para se determinar o índice de ocorrência.

Melhoria
Aqui analisamos e utilizamos os conhecimentos, criatividade por meio
de técnicas de brainstormingas possíveis ações que podem minimizer os
riscos calculados anteriormente. As medidas normalmente versam sobre:

• medidas de prevenção total ao tipo de falha;

• medidas de prevenção total de uma causa de falha;

• medidas que dificultam a ocorrência de falhas;

• medidas que limitem o efeito do tipo de falha;


• medidas que aumentam a probabilidade de detecção do tipo ou da causa
de falha;

após a definição das medidas de melhorias estas deme ser


registradas com o nome do responsável e prazo de execução, e em um
futuro próximo definido pelo prazo uma nova avaliação dos riscos.
□ FMEA de Processo
Cod_pec : □ FMEA de Produto
Nome da Peça:
Data:
Folha No. de

Descrição Função(ões) Tipo de Falha Efeito de Falha Causa da Controles Índices Ações d e Melhoria
do do produto Potencial Potencial Falha em Atuais Ações Responsável/ Medidas Índices Atuais
Produto/ Potencial Recomendadas Prazo Implantadas
S O D R

Processo S O D R
(0) (1) (2) (3) (4) (5) (6) (7) (8) (9) (10) (11) (12) (13) (14) (15) (16)

Produto/ Função e/ou Forma e modo Efeitos Causas e Medidas S O D R Ações Reponsável
Processo características como as (conseqüências) condições que Preventivas e de E C E I recomenda- e Prazo
objeto de que devem ser características do tipo de falha, podem ser detecção que já V O T S das para a
análise atendidas pelo ou funções sobre o sistema responsáveis tenham sido E R E C diminuição
produto. Ex.: podem deixar de e sobre o cliente. pelo tipo de falha tomadas e/ou R R C O dos riscos
Suportar o ser atendidas. Ex.:vazamento em potencial são I Ê Ç S
conjunto do eixo. Ex.: de ar, ruidoso, Ex.: Erro de regularmente D N Ã
Desbalanceado, desgaste montagem, falta utilizadas nos A C O
Rugoso, prematuro, etc... de lubrificação, produtos/proces D I Quais os
Trincado... etc... sos das da E A riscos
enmmpresa. prioritár
ios ?
Que efeitos
tem este S
Quem tipo de
está falha ? R
Quais Como a Quais O Quais
sendo
analisa funções ou função ou poderiam medidas
do ? característic característic ser as Quais podem
as devem a pode não causas ? medidas de ser
ser ser prevenção e tomadas
atendidos ? cumprida ? descoberta D para
poderiam atenuar
ser tomadas os
? riscos?
S = Severidade O = Ocorrência D = Detecção R
= Riscos
Lista de verbos e substantivos geralmente utilizados na
construção do FMEA

Esta seção tem por objetivo providenciar alguns exemplos de verbos e


substantivos usados na construção do FMEA. Esta lista não contém todos os
substantivos e verbos por razões óbvias. Ela tem a função de servir como
exemplo para o leitor, para que ele tenha uma idéia melhor de como iniciar a
construção do FMEA.

FMEA de projeto

o Verbos

Atuar Filtrar Mover


Amplificar Segurar Prevenir
Aplicar Inflamar Proteger
Mudar Impedir Corrigir
Fechar Melhorar Reduzir
Coletar Aumentar Repelir
Conduzir Induzir Rotacionar
Conter Isolar Proteger
Controlar Interromper Fortalecer
Criar Limitar Encurtar
Diminuir Localizar Espaçar
Emitir Manter Sustentar
Estabelecer Modular Determinar (tempo)
Prender Equipar
o Substantivos
Fluxo Pistão
Aparência Fluido Proteção
Circuito Força Radiação
Contatos Formulário Reparo
Contaminação Fricção Ferrugem
Conveniência Calor Estilo
Corrente Isolamento Interruptor
Dano Luz Simetria
Densidade Líquido Torque
Poeira Barulho Vibração
Efeito Oxidação Voltagem
Energia Tinta Volume
Características Painel Peso

FMEA de processo

o Verbos
Melhorar Estocar
Permitir Elevar Suportar
Aplicar Carregar Transmitir
Cozer Minimizar Transportar
Diminuir Modificar Pesar
Descartar Mover Empacotar
Dirigir Produzir
Secar Receber
Eliminar Reduzir
Friccionar
Acabar Remover
Despedir Resistir
Restringir
Formular Dar forma
Gerar Organizar
o Substantivos

Corrosão
Esforço
Eletricidade
Energia
Ambiente
Equipamento
Dispositivos elétricos
Força
Luz
Material
Movimento
UNIDADE IV Estudo de FMEA
Caro(a) Aluno(a)

Seja bem-vindo(a)!

Nesta primeira unidade, iremos estudar como identificar e


solucionar problemas através da metodologia MASP

Bons estudos!!!

Conteúdo da Unidade

Nesta unidade abordaremos os seguintes conteúdos:

O que é MASP

Estudo de caso do FOCEN


Metodologia para identificação de problemas
Os estudos de confiabilidade tornan-se eficazes à medida que
conseguimos identificar com muita precisao os probelmas envolvidos com
um determinado evento.

Muitas vezes nos deparamos com estudos estatísticos profundos porém


sem o resultado esperado. Nesta última unidade iremos estudar por meio
do material do FOCEM – Fundo para a Convergencia Estrutural do Merco
Sul a metodologia de Masp – Metodologia de Análise de Solução de
Problemas.

O crédito deste capítulo deve ser dado ao FOCEM e as entidades


mencionadas neste material.
QUALIDADE

Os requisitos de qualidade do cenário mercadológico atual variam e


evoluem conforme o processo de evolução tecnológica. Cada dia mais é
necessário o aperfeiçoamento dos processos para atender as
necessidades dos clientes. Considerando que as necessidades do público
consumidor alteram-se constantemente, pode-se analisar que a busca
pela melhoria dos processos deve ser contínua também, para que o
conceito de qualidade não perca seu sentido na percepção do consumidor.

Classificar qualidade e defini-la em palavras é um tanto complexo uma vez


que as variáveis que influenciam na sua classificação são subjetivas a
cada ser humano em sua singularidade.

Consideremos algumas definições de qualidade:

• Qualidade é adequação ao uso. (Joseph Juran)

• Qualidade é conformidade aos requisitos. (Philip Crosby)

• Qualidade é o grau no qual um conjunto de características inerentes


satisfaz requisitos. (ISO 9000:2000)

O movimento da qualidade se iniciou por volta da década de 20 quando os


gestores começaram a notar a necessidade de satisfazer os clientes com
seus produtos a um custo menor. Por muitos anos após a II Guerra
Mundial, a qualidade foi vista mais como uma função defensiva do que
como uma arma competitiva para utilização no desenvolvimento de novos
mercados e no aumento da participação de mercados já conquistados.

Logo após a Guerra, aumentou a demanda por mercadorias nos EUA


devido à ênfase dada à qualidade durante a Guerra. Neste contexto, Juran
e Deming deram início ao processo de ensinar aos gestores japoneses a
necessidade de fazer certo da primeira vez, gerando menores custos e
aumentando o nível de qualidade.

A Figura xx apresenta graficamente a evolução da qualidade ao longo


dos anos e ao mesmo tempo as ações naturais que as empresas
desenvolvem em busca da qualidade. Para cada estágio pode-se
analisar como funciona a fábrica, o que o cliente recebe, qual poderia
ser o slogan ou falácia dentro da empresa, qual a estratégia adotada e
que tipo de inspeção é utilizado.
Defeitos NÃO Defeitos NÃO
Situação Defeitos saem da saem da Reduzir saem do
empresa empresa Defeitos processo

Operações Operações
Operações Operações Operações
Erros

Processos

Processos
Melhoria

Melhoria

Melhoria
Fábrica Erros Erros
Erros Defeitos
Defeitos Defeitos
Inspeções Erros
Inspeções Inspeções
f i
Cliente

Slogans

Estratégia

Inspeções

Figura 1 – A busca da Qualidade

Na primeira situação, onde os defeitos saem da empresa, a fábrica não conta


com qualquer tipo de inspeção, fazendo com que os clientes recebem produtos
defeituosos. É comum em uma situação destas, ouvir falar na empresa que há
muitos defeitos e muitas reclamações. Não pode ser considerado que uma
empresa que atue desta forma tenha uma estratégia, pois atua sem inspeção
de qualidade.

Em um estágio um pouco mais evoluído a empresa faz com que os defeitos


deixem de sair da empresa, instalando uma inspeção ao final de todo o processo
produtivo, fazendo com que os defeitos sejam filtrados e não cheguem aos
clientes. Neste cenário o lema é evitar reclamações e isto muitas vezes implica
na estratégia de aumentar cada vez mais o número de inspetores. O problema
desta estratégia é que, apesar de não deixar os defeitos chegarem no cliente, o
defeito é detectado tarde demais não permitindo ações para solucionarem os
problemas, pois trata-se de uma inspeção por julgamento.

Reduzir os defeitos é o passo seguinte à situação anterior. Neste caso o controle


de qualidade atua conjuntamente com a fábrica na busca de melhoria para que
os mesmos defeitos não ocorram novamente. É fundamental para o sucesso
desta estratégia a intensificação de melhorias no controle de qualidade,
utilizando-se de ferramentas de qualidade e de um método de
solução de problemas. Esta inspeção denomina-se inspeção informativa, pois
além de não deixar os defeitos chegarem nos clientes, informam a produção
acerca do que está ocorrendo.

A evolução natural ao estágio anterior é passar a inspecionar os produtos em


cada etapa do processo e já realizar a melhoria no próprio local de trabalho. A
ideia neste caso é não deixar que os defeitos passem adiante, evitando custos
desnecessários de retrabalho. Para que seja possível adotar a inspeção no
processo, é imprescindível que os operadores sejam bem treinados e que estes
possam seguir métodos de solução de problemas e estejam aptos a utilizarem
ferramentas de qualidade.

A última e deseja etapa é a que não conta com defeitos no processo produtivo,
ou seja, que a inspeção ocorra antes mesmo do defeito ocorrer. Este tipo de
inspeção é conhecida como inspeção na fonte, ou produção zero-defeitos. A
técnica utilizada para que se elimine os defeitos foi desenvolvida pelos japoneses
e denomina-se Poka Yoke, que é definido como um sistema a prova de falhas.

Obviamente que é extremamente difícil uma empresa ter todos os seus processo
trabalhando com inspeção na fonte. Tradicionalmente as empresas, ao
compararem-se com este modelo gráfico, identificam processos em quase todos
os estágios, porém é benéfica a busca incessante para se aproximar ao nível de
zero-defeito, pois inspecionar na fonte geram menores custos na produção como
pode ser visto na Figura xx.

Um problema que não é detectado na fonte, e sim no final da linha, acarreta


outros custos, como retrabalho, refugo e possível atraso na entrega, pois no
momento da inspeção entende-se que o produto deveria estar pronto.

Se o defeito chegar no cliente, o custo eleva-se ainda mais. Os custos de


garantia, administrativos e de pós-vendas podem ser medidos, porém os custos
decorrentes de perda de mercado e descontentamento dos clientes são muito
difíceis de medir e infinitamente maiores que os anteriormente citados.
No Cliente
Custo dos Defeitos

•Custos de garantia
•Custos administrativos
•Descontentamento do cliente
No Final •Perda de participação no mercado
da Linha

•Retrabalho (possível refugo)


Na Fonte •Aumento do custo de inspeção
•Atrasos na entrega

•Menores atrasos na produção

Onde Detectado

Figura 2 – Detecção e o Custo dos Defeitos

Todos estes custos decorrentes da má qualidade são gerados por perdas e


insatisfações, que por sua vez são gerados por problemas. Um problema é um
efeito indesejável que envolve qualquer situação que resulte em insatisfações do
cliente ou perdas (resultado) para organização. Neste sentido, entende-se que é
fundamentos métodos e ferramentas que auxiliem as empresas a solucionar
problemas.
O CICLO PDCA

O ciclo PDCA é um método gerencial de tomada de decisões para garantir o


alcance das metas necessárias a sobrevivência de uma organização.

A partir desse conceito, cabe destacar que existem dois tipos de metas: metas
para manter e metas para melhorar. As metas para manter, também são
conhecidas como “metas padrão” e estas são atingidas através de operações
padronizadas. Ex: “atender ao telefone sempre antes do terceiro sinal”. As metas
para melhorar não atendem a um tipo de padrão e normalmente é estipulado um
prazo de alcance. Ex : Aumentar as vendas da região Sul em 10% até junho do
decorrente ano.

O ciclo PDCA é representado pela Figura 3. O PDCA é uma abordagem


sistemática para evitar conclusões erradas e buscar soluções otimizantes, pois
dados estão acima de personalidades e de egos.

Action Concluir Plan

Padronizar

Verificar os

Check Do

Figura 3 – O Ciclo PDCA


O PDCA é divido em 4 etapas que consistem em:

P - PLAN (Planejar) - antes da execução de qualquer processo as atividades


devem ser planejadas, com as definições de onde se quer chegar (meta)
e do caminho a seguir (método). Esta é, sem dúvida, uma das principais
fases do gerenciamento. O contra-senso está na rotineira
desconsideração do Planejamento. Em parte, devido aos curtos prazos
do dia-a-dia, é normal se privilegiar o “agir” em detrimento ao “planejar”.
Nossa cultura claramente estimula o “fazer”. “Não planejamos porque não
temos tempo e não temos tempo porque não planejamos”. Visando o
comprometimento de todos e uma melhor qualidade do plano, devemos
planejar de forma participativa.

D - DO (Executar) - é a execução do processo com o cuidado do registro de


dados que permitam o seu controle posterior. Nesta fase é essencial a
capacitação, o treinamento e a educação básica. Assim como o
treinamento, o registro dos dados necessários deve fazer parte integrante
da tarefa e não ser encarado como um complemento desta.

C - CHECK (Verificar) - é a fase de monitoração e avaliação, onde os


resultados da execução são comparados com o planejamento (metas e
métodos) para, a seguir, registrar-se os desvios encontrados (problemas).
Devemos cultivar o hábito de avaliar e monitorar durante o processo, e
não, como é muito comum, somente ao final das tarefas.

A - ACTION (Atuar Corretivamente) - definição de soluções para os problemas


encontrados com contínuo aperfeiçoamento do processo. Quando
tomamos alguma atitude para resolver um problema e este volta a
aparecer alguns dias depois, é sinal de que nossas ações foram paliativas
e não corretivas.

O Ciclo PDCA, em uma abordagem mais simples, pode ser usado para manter
ou melhorar os resultados de um processo. Quando o processo está
estabilizado, o planejamento (P) consta de procedimentos padrões (Standard) e
a meta já atingida é aceitável, utiliza-se o Ciclo PDCA para manutenção dos
resultados. Ao contrário, quando o processo apresenta problemas que precisam
ser resolvidos, utiliza-se o Ciclo PDCA para melhoria de resultados (Método para
Análise e Solução de Problemas - MASP).

10
2 MASP – METODOLOGIA DE ANÁLISE E SOLUÇÃO DE PROBLEMAS

Uma das principais causas do insucesso de muitas empresas é a falta de


métodos e padrões. Por mais que os gestores busquem se qualificar e qualificar
seus colaboradores, em muitos casos o que é aprendido na teoria não é
realizado na prática, devido ao fluxo de trabalho que é cada vez mais rápido
exigindo decisões rápidas para a solução dos problemas.

Visto que o processo de tomada de decisão exige certa habilidade, o MASP foi
desenvolvido para que os gerentes e operadores adquiram essa habilidade e
eficiência.

O MASP é um processo dinâmico na busca de soluções para uma determinada


situação. Não é um processo rígido e sim um processo flexível em cada caso
com que de se defrontar. Ele procura encontrar respostas tais, como:

• Priorização do problema.

• Divisão do problema em partes que possam ser analisáveis.

• Verificações das situações que necessitam de atenção.

O objetivo é aumentar a probabilidade de resolver satisfatoriamente uma


situação onde um problema tenha surgido. A solução de problema é um
processo que segue uma sequência lógica, começando pela identificação do
problema, continuando pela análise e terminando com a tomada de decisão.

A análise do problema é um processo lógico de estreitar um corpo de informação


durante a busca por uma solução. A cada estágio, a informação vai surgindo, à
medida que o processo se movimenta para o que está errado, passando para o
problema a ser tratado e a seguir para as possíveis causas que fizeram o
problema surgir, e finalmente para a causa mais provável com uma ação
corretiva específica em relação ao problema.

O MASP é composto por 8 etapas, onde sua estrutura é baseada no PDCA,


conforme apresentado na Figura 4.

11
Figura 4 – O Ciclo PDCA e suas fases

A seguir serão detalhadas cada uma das fases apresentadas na Figura 4. Para
cada fase será descrito o objetivo, as tarefas a serem realizadas e as ferramentas
que podem ser utilizadas.

12
3.1 IDENTIFICAÇÃO DO PROBLEMA
Definir claramente problema e sua importância.
DESAFIO
• Escolha/Definição do problema: O problema escolhido deve ser o mais
importante e urgente, baseado em fatos e dados.
• Levante o histórico do problema: Deve-se levantar todos os dados relacionados
ao problema em questão por meio de dados históricos, fotos, gráficos, etc.
• Demonstre as perdas atuais e os ganhos previstos: Mostre para a empresa a
importância da resolução do problema, as vantagens que serão obtidas e fixe as
metas.
• Nomeie os responsáveis ou equipes: Nomeie os responsáveis, propondo datas,
limites para a solução do problema.

FERRAMENTAS
• Diagrama de Pareto
• Gráfico de Tendência ou Gráfico de Controle
RESUMO

13
3.2 OBSERVAÇÃO

OBJETIVO
Investigar as características específicas do problema com uma visão ampla e
sob vários pontos de vista.

TAREFAS
• Descoberta das características do problema por meio da coleta de dados:
Levantar os dados e detalhar o problema estratificando-o por características.
• Descoberta das características do problema por meio de observação no local:
Caracterizar o problema no próprio local da ocorrência para coleta de
informações adicionais.

FERRAMENTAS
• Fluxograma de Processo
• Estratificação/ Folha de Verificação

RESUMO

14
3.3 ANÁLISE

OBJETIVO
Descobrir as causas fundamentais do problema.
TAREFAS
• Definição das causas influentes: O grupo de trabalho procura descobrir as
causas prováveis do problema.
• Escolha das causas mais prováveis (hipóteses): Caracterizar o problema no
próprio local da ocorrência para coleta de informações adicionais.
• Análise das causas mais prováveis (verificar hipóteses): Testar e confirmar se
as causas escolhidas (hipóteses) de fato são as responsáveis pelo problema.

15
FERRAMENTAS
• Brainstorming • Histograma
• Diagrama de Ishikawa • GUT
• Diagrama de Dispersão • 5 Porquês

RESUMO

16
3.4 PLANO DE AÇÃO

OBJETIVO
Elaborar um plano de ação para bloquear o problema, eliminando suas causas
fundamentais.

TAREFAS
• Elaborar o plano de ação: Definir ações para bloqueio do problema, certificando-
se que elas eliminarão as causas e não somente os efeitos colaterais. Em caso
afirmativo, adotar ações também contra os efeitos colaterais.
• Definição do cronograma, orçamento e metas: Formular o cronograma e
orçamento para solução do problema. Definir metas quantitativas e itens de
controle.

FERRAMENTAS
• 5W2H
RESUMO

17
3.5 AÇÃO

OBJETIVO
Bloquear as causas fundamentais do problema
TAREFAS
• Treinamento: Divulgar as ações, certificando-se que todos os envolvidos
entenderam e capacitar os executores sempre que necessário.
• Execução da Ação: Implementar as ações e registrar todos os resultados (bons
ou ruins).
FERRAMENTAS
• 5W2H
RESUMO

18
3.6 VERIFICAÇÃO

OBJETIVO
Verificar se o bloqueio foi efetivo e certificar-se que o problema não ocorrerá
novamente.
TAREFAS
• Comparação dos resultados e análise dos efeitos secundários: Utilizar dados
antes e depois da ação de bloqueio para a comparação dos resultados. Utilizar
o mesmo tipo de apresentação de dados (não mudar de ferramenta).
• Verificação da continuidade ou não do problema: base nos dados coletados na
etapa anterior, verificar se o bloqueio foi efetivo. Se os resultados forem
satisfatórios, verificar se todos as ações foram tomadas. Se as ações tomadas
não funcionaram, voltar à fase 2 (observação).
FERRAMENTAS
• Diagrama de Pareto
• Gráfico de Tendência ou Gráfico de Controle
• Histograma
RESUMO

19
3.7 PADRONIZAÇÃO

OBJETIVO
Previnir o reaparecimento do problema.
TAREFAS
• Elaboração ou alteração do padrão: Estabelecer o novo procedimento
operacional ou revisar o antigo.
• Comunicação: Por meio de reuniões e circulares.
• Educação e treinamento: Transmitir as alterações nos padrões para todos os
envolvidos no processo.
• Acompanhamento: Fazer verificações periódicas (auditorias) para garantir o
cumprimento do padrão.
FERRAMENTAS
• 5W2H
RESUMO

20
22222222222222222

21
3.8 CONCLUSÃO

OBJETIVO
Recapitular todo o processo de solução do problema para aproveitar em
situações futuras.
TAREFAS
• Reflexão: “Relação dos problemas remanescentes”.
• Avaliar o que foi feito, questionando:
o Houve atrasos ou folgas no cronograma?
o Houve participação do grupo?
o O grupo era o melhor para solucionar aquele problema?
o As reuniões foram produtivas?
o A distribuição de tarefas foi bem estruturada?
o O grupo utilizou todas as técnicas?
o Avaliar os itens pendentes, organizando-se para uma futura
aplicação do MASP.
RESUMO

22
4 FERRAMENTAS DA QUALIDADE

Nas próximas páginas tomaremos conhecimento de ótimos auxiliares para o


gerenciamento da rotina e das melhorias em uma organização.

As ferramentas da qualidade, associadas ao método de análise e melhorias de


processos, permitem que uma equipe chegue, com relativa facilidade, a
resultados positivos na solução de problemas.

4.1 DIAGRAMA DE PARETO

Em 1887, o economista italiano Vilfredo Pareto apresentou uma fórmula que


mostrava a desigualdade na distribuição de salários. Teoria semelhante foi
apresentada na forma de diagrama pelo economista americano M.C.Lorenz, em
1907. Os dois professores demonstraram que a maior parte da riqueza pertencia
a muito poucas pessoas.

No campo do controle da qualidade, o Dr. J.M.Juran aplicou o método como


forma de classificar os problemas da qualidade em "poucos vitais" e "muitos
triviais", e denominou-o de Análise de Pareto. Demonstrou que a maior parte dos
defeitos, falhas, reclamações e seus custos provêm de um número pequeno de
causas. Se essas causas forem identificadas e corrigidas torna-se possível a
eliminação de quase todas as perdas. É uma questão de prioridade.

O princípio de Pareto é conhecido pela proporção "80/20". "É comum que 80%
dos problemas resultem de cerca de apenas 20% das causas potenciais"
(Scherkenbach). "Dito de outra forma, 20% dos nossos problemas causam 80%
das dores de cabeça" (Wheeler & Chambers). A Figura 5 representa esta ideia.
MAGNITUDE DO IMPACTO

POUCOS VITAIS

A B C D E

CATEGORIAS ENVOLVIDAS

23
Figura 5 - Diagrama de Pareto

Basicamente, a Análise de Pareto é usada para, correta e objetivamente,


identificar os problemas mais importantes e, se necessário, possibilita dividi-los,
através da estratificação, em problemas menores que são mais fáceis de serem
resolvidos.

O Diagrama de Pareto pode ser usado para:

• Auxiliar a equipe a priorizar suas ações sobre as causas que terão o


maior impacto se resolvidas;

• Demonstrar a importância relativa dos problemas num formato visual,


simples e rápida interpretação;

• Ajuda na prevenção da “mudança de problemas”, onde as soluções


removem algumas causas piorando outras;

• O progresso é medido em um formato altamente visível fornecendo


incentivo na busca de mais melhorias.

4.1.1 Como construir


A seguir, seguem os passos para a construção do diagrama de Pareto.

1) Primeiro é preciso coletar dados e organizá-los em uma tabela, para


isso:

a) determine o tipo de assunto que você quer investigar;

b) especifique o aspecto de interesse do tipo de assunto. Por


exemplo, na produção de perdas com defeito existem vários
aspectos de interesse: tipo de defeito, localização do defeito,
máquinas que produzem o defeito;

c) organize uma folha de verificação com as categorias do aspecto


que você decidiu investigar;

d) preencha a folha de verificação;

e) faça as contagens, organize as categorias por ordem decrescente


de frequência, agrupe aquelas que ocorrem com baixa frequência
sob a denominação "Outros" e calcule o total.

2) Calcule as frequências relativas, as frequências acumuladas e as


frequências relativas acumuladas, apresentadas na tabela da Figura 6.
Para obter a frequência acumulada, some a frequência da categoria com
as frequências das categorias anteriores.
24
Distribuição de peças segundo o tipo de defeito

Tipo de Freqüência Freqüência Freqüência Freqüência


defeito relativa acumulada relativa
acumulada
Saliências 19 23,75 19 23,75
Asperezas 18 22,50 37 46,25
Riscos 12 15,00 49 61,25
Manchas 11 13,75 60 75,00
Cor 11 13,75 71 88,75
Outros 9 11,25 80 100,00
Total 80 100 -- --

Figura 6 - Cálculo do Pareto

3) Desenhar o diagrama de Pareto:

a) Trace um eixo horizontal. Divida esse eixo em tantas partes iguais


quantas forem as categorias listadas na tabela;

b) Trace um eixo vertical e escreva nele as frequências;

c) Trace barras verticais, com base no eixo horizontal e altura igual ä


frequência da categoria. A figura resultante é o diagrama de Pareto;

d) Complete a figura colocando titulo, unidades, data e nome do


responsável pela coleta de dados.

4) Para desenhar a curva de Pareto:

a) Desenhe um segundo eixo de abscissas com uma escala em


percentual.

b) Para cada categoria, marque um ponto com abscissa igual ao


extremo direito da base da categoria e ordenada igual a frequência
acumulada

c) Ligue os pontos.

25
Figura 7 – Diagrama de Pareto

Observações:

• É indesejável que o item "outros" tenha percentagem muito alta. Se isso


acontecer, é provável que os itens não estejam classificados de forma
adequada, sendo preciso rever o método de classificação.

• Se um item parece de simples solução, deve ser atacado imediatamente,


mesmo que tenha menor importância relativa. Como o gráfico de Pareto
objetiva a eficiente solução do problema, exige que ataquemos somente
os pontos vitais. Se determinado item parece ter importância relativa
menor, mas pode ser resolvido por medida corretiva simples, deve servir
como exemplo de eficiência na solução de problemas.

4.2 GRÁFICO DE TENDÊNCIA OU GRÁFICO DE CONTROLE

São gráficos com limites de controle que permitem o monitoramento dos


processos. Estes gráficos servem para identificar o aparecimento de causas

26
especiais nos processos, verificar se o processo está estável e detectar quanto
a variabilidade do processo está excessiva. É aplicado para:

• Permitir que a equipe analise as tendências ou padrões de


comportamento dos dados (desempenho de um processo) durante um
período de tempo.

• Monitorar processos para detectar tendências, mudanças ou ciclos;

• Permitir a equipe comparar o desempenho antes e depois da


implementação de uma solução e medir o seu impacto;

• Focalizar sobre as verdadeiras mudanças vitais nos processos.

4.2.1 Como construir


A seguir, seguem os passos para a construção de um gráfico de controle.

1) Decidir qual processo será avaliado;

2) Obter os dados. Geralmente coletar de 20 a 25 dados para detectar


padrões significativos;

3) Criar um gráfico com o eixo vertical (eixo y) representando a variável que


está sendo medida. Construa o eixo y de forma que cubra toda a variação
(1,5 vezes a amplitude dos dados). No eixo horizontal (eixo x) desenhe
uma escala sequencial ou de tempo;

4) Registrar os dados. Calcule a média e represente no gráfico com uma


linha;

• Sugestão: Não recalcule a média toda vez que dados são adicionados.
Recalcule apenas quando existir uma mudança significativa no processo.

5) Interpretar os resultados. Verifique a posição da linha média. Está próxima


as especificações ou necessidades dos clientes? Está próxima aos
objetivos do negócio?

• Sugestão: Um risco no uso de gráficos de tendência é tratar toda variação


como sendo importante. Os gráficos de tendência deveriam ser usados
para focar apenas sobre as mudanças importantes no processo.

A Figura 8 apresenta um exemplo de gráfico de controle.

27
Quebras

Figura 8 – Gráfico de Controle ou tendência

4.3 FLUXOGRAMA DE PROCESSO


É um método para descrever graficamente um processo existente, ou um novo
processo proposto, usando símbolos simples e palavras, de forma a apresentar
as atividades e a sua sequência no processo.

O objetivo de um fluxograma é fornecer uma representação gráfica dos


elementos, componentes ou tarefas associadas a um processo. Os fluxogramas
são úteis para o propósito de documentação de um processo, proporcionando o
conhecimento das suas etapas e relações de dependência.

O Fluxograma é aplicado para:

• Demonstrar complexidades, áreas problemáticas, redundâncias, laços


(loops) desnecessários, e onde a simplificação e a padronização são
possíveis.

• Analisar e comparar os fluxos reais e ideais de processos para identificar


oportunidades de melhorias.

• Permitir que a equipe obtenha um consenso sobre as etapas do processo


a serem examinadas e quais etapas podem impactar na performance do
processo.

28
• Identificar áreas onde dados adicionais podem ser coletados e
investigados.

• Servir como apoio no treinamento para entendimento do processo por


completo.

4.3.1 Simbologia
Antes de entender como construir um fluxograma é necessário conhecer os
símbolos envolvidos e seus significados, conforme apresentado na Figura 9.

Terminal (início/fim) Decisão


de um processo
Executante Demora
ou responsável

Arquivo definitivo Documento

Arquivo provisório Material

Operação Conector de rotina


Fluxo (sentido de circulação)

Figura 9 – Simbologia do Fluxograma

4.3.2 Como construir


A seguir, seguem os passos para a construção de um fluxograma.

1) Determinar os limites ou fronteiras do processo. Definir claramente onde


o processo em análise começa (entrada) e termina (saída). Os membros
da equipe devem concordar sobre o nível de detalhamento a ser utilizado;

2) Determinar as etapas do processo. Elabore uma lista (brainstorming) com


as principais atividades, entradas, saídas e decisões em um flipchart do
início até o final do processo;

3) Colocar as etapas em seqüência. Coloque as etapas na ordem em que


elas são realizadas;

29
4) Desenhar o fluxograma usando os símbolos apropriados;

30
• Seja consistente com o nível de detalhe demonstrado

o Um macro-fluxo irá mostrar as atividades chaves e não caixas de


decisões;

o Um nível intermediário irá apresentar ações e pontos de decisões;

o Um micro-fluxograma irá mostrar detalhes minuciosos.

• Nomeie cada etapa do processo com palavras que sejam entendidas


pelos usuários.

• Desenhe as setas para mostrar a direção do fluxo das etapas dos


processos. Para facilitar o entendimento do fluxograma, você pode
desenhar todas as setas de decisão “sim” para baixo e “não” para o lado.

• Não se esqueça de identificar o seu trabalho.

5) Revisar o fluxograma:

• Os símbolos foram utilizados corretamente?

• As etapas do processo (entradas, saídas, ações, decisões, esperas /


atrasos) foram claramente identificadas?

• Verifique que cada laço de feedback esteja fechado, isto é, cada passo
leva a frente ou de volta para outro passo.

• Verifique se todo o ponto de quebra tem o seu correspondente ponto de


continuidade no fluxograma na mesma ou em outra página.

• Usualmente só existe uma seta de saída de uma caixa de atividades. Se


existir mais de uma seta de saída, você pode precisar de um losango de
decisão;

• Valide o fluxograma com pessoas que não pertençam a equipe e pelos


que operam o processo. Traga e discuta com a equipe as recomendações
e incorpore no fluxograma final.

6) Analisar o fluxograma:

• O processo está operando como deveria?

• As pessoas seguem o processo conforme o fluxograma?

• Existem complexidades ou redundâncias que podem ser reduzidas ou


eliminadas?

30
• O quanto diferente o processo atual é diferente do ideal? Desenhe o
fluxograma ideal. Compare os dois (atual versus ideal) para identificar
discrepâncias e oportunidades para melhorias.

A Figura 10 apresenta um exemplo de fluxograma que demonstra o processo de


compra de um terno.

Início

Pesquisa modelo, cor e preço

cor, ok?

sim
Provar tamanho

Ajusta-se
bem?

Fechar negócio

Pagar o valor no caixa

Retirar mercadoria e NF

Figura 10 – Exemplo de Fluxograma

4.4 ESTRATIFICAÇÃO/ FOLHA DE VERIFICAÇÃO


Nesta seção será tratada a estratificação e a folha de verificação. Estas
ferramentas são utilizadas conjuntamente conforme é apresentado a seguir.

4.4.1 Estratificação
Estratificação é o processo de agrupar os dados em estratos (= subgrupos) com
base em características, categorias ou quaisquer outras condições existentes na
hora da coleta. Serve para possibilitar uma melhor avaliação da situação,
identificando o principal problema. Sua aplicação envolve:

• Analisar dados com o objetivo de encontrar oportunidades de melhorias;

31
• Dividir os dados em categorias ou características significativas como o
objetivo de direcionar ações corretivas;

• Separar os dados de modo a expor padrões latentes;

• Buscar origens diferentes e, assim, direcionar a sua solução;

• Focalizar os dados em subgrupos para análise dos seus efeitos;

• Pesquisar os caminhos que contribuem com maior intensidade na


identificação de um problema.

A ideia da estratificação é que, ao se comparar, por exemplo, os dados referentes


a diversos operadores, pode-se detectar uma diferença significativa no
desempenho deles. Pode-se, então, aplicar uma ação corretiva específica - de
treinamento para um deles, por exemplo. Isso poderá diminuir a diferença entre
eles, reduzindo a variação do processo.

4.4.1.1 Como construir


A seguir, seguem os passos para a construção de uma estratificação.

1) Pesquisar as causas de falhas de um processo, rever todas as variáveis


que possam controlar a qualidade dos seus resultados. Depois, para cada
uma delas, preveja que fatores podem controlar mudanças nos seus
respectivos comportamentos estatísticos. Uma forma fácil de fazer isto é
pôr em discussão as relações entre cada variável e os 6Ms do diagrama
de Ishikawa;

2) Selecionadas as variáveis que serão medidas e os agrupamentos que


serão organizados, prepare listas de verificação para a coleta dos dados.
Os resultados serão tratados estatisticamente, calculando-se, por
exemplo, a média e amplitude e montando os histogramas para cada
grupo.

A Figura 11 apresenta categorias de estratificações.

32
1. Por material Fabricante, comprador, marca, local de produção, data de compra,
lote recebido, lote de produção, componentes, pureza,
tamanho, códigos, tempo de estocagem, local de estocagem,
etc.

2. Por máquina, equipamento ou ferramenta Tipo de máquina, número, modelo, performance, idade, fábrica,
linha, ferramenta, tamanho, molde, cavidade, etc.

3. Por operador Indivíduo, equipe, grupo, idade, experiência, gênero, etc.

4. Por procedimentos ou condições operacionais Temperatura, pressão, velocidade, frequência de rotação,


velocidade da linha, local da operação, iluminação,
temperatura do ar, umidade, etc.

5. Por medição e inspeção Instrumento, procedimento de medição, local de medição,


inspetor, dispositivo de fixação, dispositivo de medição,
procedimento de inspeção, local de inspeção, etc.

6. Por tempo Tempo, manhã, tarde, noite, dia, semana, mês, período, estação,
início (ou final) do turno

7. Por ambiente e clima Temperatura do ar, umidade, etc

8. Outro Produto novo x antigo, método de embalagem, método de


manuseio, método de transporte, etc.

Figura 11 – Categorias de Estratificação

Observações:

• A estratificação de ordenamento é o primeiro tratamento que os dados


recebem, dentro da estatística descritiva;

• A organização dos dados em uma determinada ordem simplifica, por


exemplo, o cálculo da amplitude e permite uma representação gráfica que
seja mais expressiva e visualizável do que a tabulação.

Para coletar os dados de forma estratificada é necessária uma folha de


verificação.

4.4.2 Folha de Verificação


Folha de verificação é uma planilha para a coleta de dados que serve para
facilitar a coleta de dados pertinentes a um problema. É utilizada quando é
preciso colher dados baseados em observações amostrais com o objetivo de
definir um modelo. Este é o ponto lógico de início na maioria dos ciclos de
solução de problemas.

Seu objetivo é permitir que a equipe registre e compile dados coletados de fontes
históricas ou de observações realizadas durante a ocorrência dos processos ou
fenômenos, permitindo que padrões e tendências possam ser claramente
detectados e apresentados. Suas aplicações compreendem:

33
• Obter dados de fácil entendimento, por meio de um método simples e
eficiente, e que pode ser aplicado em qualquer área para avaliação de
desempenho;

• Construir, com cada observação, uma figura clara dos fatos em oposição
a opiniões pessoais;

• Construir um consenso sobre as definições de cada condição ou evento


(cada membro deve buscar e registrar a mesma coisa);

• Identificar padrões óbvios nos dados coletados.

• Retirar o lado subjetivo dos problemas e obter os dados de maneira


consistente;

• Detectar tendências no desempenho do processo e comparar com


especificações;

• Contribui para compilar e otimizar a posterior análise dos dados obtidos.

4.4.2.1 Como construir


A seguir, seguem os passos para a construção de uma folha de verificação.

1) Escrever uma clara definição dos eventos ou condições que estão sendo
observados (definição operacional);

2) Decidir quem irá coletar os dados, durante que período, e de quais


fontes;

3) Projetar uma Folha de Verificação clara, completa e fácil de usar;

4) Coletar os dados de forma consistente e precisa.

o Sugestão: A pessoa que irá coletar os dados deve estar segura


para registrar e relatar “más notícias”, caso contrário os dados
poderão ser filtrados.

o Sugestão: Gerentes e membros da equipe podem fazer a sua parte


para incentivar o responsável pela coleta de dados a fazer um bom
trabalho pela simples demonstração de interesse no projeto.

A Figura 12 apresenta 2 exemplos de folha de verificação.

34
(a) Projeto: Atraso na Admissão (c) Nome: se aplicável (e) Turnos: Todos
(b) Localização: Sala de Emergência (d) Datas: 10/3 à 16/03
Acidentes
(f) Motivos (g)Datas (i)Total
10/3 11/3 12/3 13/3 14/3 15/3 16/3
Abril /03

Atraso Laboratório 52
IIII IIII IIII IIII I IIII I III IIII IIII II IIII IIII II

Sem leitos disponíveis II IIII II II IIII IIII IIII III III


31

Informações incompletas dos pacientes 24


IIII II III I II II IIII IIII

(h)Total 33 28 36 30 25 47 38 (j) 237

Figura 12 – Exemplos de Folha de Verificação

4.5 BRAINSTORMING

Desenvolvido por Alex Osborn em 1950 para uso em publicidade, o


brainstorming é baseado no princípio da total suspensão do julgamento, o que
requer esforço e treinamento. Segundo Osborn, dos dois tipos de pensamento
humano, o criativo e o crítico, usualmente predomina o último. Assim, o objetivo
da suspensão de julgamento é o de possibilitar a geração de ideias,
sobrepujando o pensamento de julgar e criticar. Só após a geração de um
número suficiente de ideias é que se fará o julgamento de cada uma.

Outro princípio do brainstorming sugere que quantidade origina qualidade.


Quanto maior o número de ideias geradas, maior será a possibilidade de
encontrar a melhor solução do problema. Maior será também o número de
conexões e associações que geram novas ideias e outras soluções.

O Brainstorming é uma técnica utilizada com o intuito de romper paradigmas,


oportunizar momentos de criatividade e encontrar diversidade nas ideias e
opiniões dentro da equipe de trabalho. A técnica de Brainstorming é um processo
destinado à geração de ideias/sugestões criativas, possibilitando ultrapassar os
limites/ paradigmas dos membros da equipe.

O Brainstorming pode ser de dois tipos: Estruturado, ou não estruturado. No


estruturado, todos os membros do grupo devem lançar uma ideia a cada rodada,
o que acaba obrigando a participação de todos. No não estruturado os membros
do grupo vão lançando ideias de acordo com o que vem em suas mentes, essa
forma oportuniza um ambiente mais livre e relaxado, porém, pode há o risco de
dominação de alguns participantes mais desinibidos.

35
Apesar de todo esse aspecto liberal, essa técnica possui algumas regras de
aplicação, apresentadas na Figura 13, para que seja possível atingir o objetivo
proposto com ela que é coletar o máximo de ideias e opiniões possíveis e fazer
com que todos participem.

Figura 13 – Regras do Brainstorming

4.5.1.1 Como aplicar

Feitas as todas as considerações sobre o Brainstorming, é importante


contemplar sua forma de aplicação. No Brainstorming estruturado, a questão
central deve ser escrita em um local onde todos os membros possam visualizar,
importante que todos tenham entendido a questão ou o problema para iniciar.

Após a exposição da questão, cada membro do grupo tem que dar uma ideia ou
passar a vez, assim como já destacado nas regras as ideias não podem ser
criticadas e durante o giro, o líder deve estimular e motivar o grupo a
participação, direcionando atenção com cautela principalmente aos mais
inexperientes e tímidos.

36
Todas as ideias lançadas devem ser escritas em letras grandes e visíveis aos
participantes da forma como foram geradas, sem abreviações ou substituições.
O giro prossegue até que todos passem a vez, indicando que as ideias
esgotaram. Deve durar de 05 a 20 minutos, dependendo do assunto. Depois que
acaba o processo, a lista de ideias deve ser revisada, e descartadas apenas as
ideias em duplicidade.

No método não estruturado a diferença no processo é o giro de ideias que não


obrigatório que cada um lance sua ideia ou passe a vez. Os membros vão
falando conforme lembram ou surgem novas ideias e sugestões.

4.6 DIAGRAMA DE CAUSA E EFEITO / ISHIKAWA

Também chamado de "diagrama de espinha de peixe" ou "diagrama de


Ishikawa", foi aplicado pela primeira vez, no Japão, em 1943. Professor da
Universidade de Tóquio, Kaoru Ishikawa utilizou o diagrama para sintetizar as
opiniões dos engenheiros de uma fábrica, quando discutiam problemas da
qualidade.

No início, o diagrama era usado por auxiliares de Ishikawa para dar organização
às pesquisas. Hoje é aplicado no mundo inteiro para equacionar problemas da
qualidade e de várias outras áreas.

No Japão, seu uso é generalizado nas empresas. O diagrama de causa e efeito


está, inclusive, incluído na terminologia de controle da qualidade da JIS -
"Japanese Industrial Standards" (Normas Industriais Japonesas).

O diagrama recebe o nome de espinha de peixe pelo seu formato. Sua estrutura
consiste em ordenar as causas iniciais para os seus efeitos finais, ou seja, os
problemas são colocados do lado direito do gráfico (onde seria a cabeça do
peixe) e suas causas do lado esquerdo, conforme Figura 14. A principal utilidade
do diagrama é identificar as causas de um problema.

37
CATEGORIAS MÉTODO MÃO DE MEDIÇÃO
OBRA
Efeito desejado:
Característica
CAUSAS
SECUNDÁRIAS

PROBLEMA A

SER RESOLVIDO

CAUSAS
TERCIÁRIAS Efeito
indesejado:
MEIO Problemas
CATEGORIAS MÁQUINA MATERIAL
AMBIENTE

CAUSAS E F E I TO

Figura 14 – Diagrama de Ishikawa

O diagrama dá uma ideia clara das “causas” prováveis que contribuem para um
“efeito”. As categorias de causas mais utilizadas são: método, mão-de-obra,
material e máquina, meio ambiente e medições (6M). A explicação de cada
categoria dos 6M’s podem ser verificadas na Figura 15.

Procedimentos, métodos, maneiras de executar cada


MÉTODO
trabalho

Conhecimentos e habilidades necessárias para o bom


MÃO DE OBRA
desempenho das pessoas
Tipo de materiais e disponibilidades para utilização no
MATERIAIS processo
Condições e capacidade das instalações e recursos
MÁQUINA
físicos
Condições de fatores relacionados ao ambiente de
MEIO AMBIENTE negócio

MEDIÇÃO Referentes à medições (medidas)

Figura 15 - Categorias 6M

Dentre as aplicações do diagrama de Ishikawa pode-se destacar:

• Capacitar a equipe para focar sobre o conteúdo do problema;

• Construir um conhecimento coletivo e consenso da equipe sobre o


38
problema, formando uma base para os esforços de melhoria;

39
• Focalizar as ações da equipe sobre as causas e não sobre os sintomas.

4.6.1.1 Como construir


A seguir, seguem os passos para a construção de um Diagrama de Ishikawa.

1) Definir claramente o problema (o que é, onde ocorre, quando ocorre, etc.).

2) Levantar as possíveis causas através de:

o Brainstorming (sem prévia preparação);

o Folhas de verificação (com dados levantados pela equipe antes da


reunião).

3) Construir o diagrama de causa e efeito:

o Escreva a definição do problema dentro de um retângulo, ao lado


direito da folha de papel e no final de um eixo;

o Escreva as causas primárias do problema sob investigação em


retângulos e os disponha em torno do eixo. Ligue esses retângulos
ao eixo por seguimentos de reta.

o Identifique as causas secundárias dentro de cada causa primária.


Escreva essas causas ao redor da respectiva causa primária.

o Quando examinar cada causa, observe os fatos que mudaram,


como, por exemplo, desvios das normas ou dos padrões.

o Identifique a causa, não o sintoma. As causas são encontradas


através de sucessivas perguntas do tipo “Porquê esta causa
ocorre?”. Use vocabulário simples e direto (economize palavras).
Questione o porquê de cada causa;

4) Obtenha consenso do grupo sobre causas a serem sanadas. Afinal, se as


causas de um problema não podem ser removidas, o diagrama de causa
e efeito não terá aplicação prática;

5) Use o diagrama de causa e efeito como uma ferramenta de discussão


para entender melhor como proceder nos esforços de melhoria. O
diagrama também pode ser utilizado para comunicar as muitas causas
potenciais de qualidade que podem influenciar um efeito, resultado ou
meta de melhoria.

A Figura 16 mostra um diagrama de causa e efeito tendo como efeito uma


derrota em uma partida esportiva.

40
Saúde Moral

Relaxamento Orgulho Coragem

Nutrição Calorias Espírito


Descanso de luta

Divertimento Alimentação Paciência Dedicação


Tempo Calma
Cuidado

Sono Quantidade Compostura

Profundidade Confiança

Informação
Força
Derrota em uma
partida esportiva
Programa
Estudo do Movimento
Exercício
Teoria adversário
Velocidade

Planejamento Análise Quantidade Qualidade


Observação Cooperação
Recomendação

Regras Bom Trabalho


Avaliação
senso de equipe Forma
da situação
Experiência Função Modelo Repetição
em partidas
Estratégia Técnica

Figura 16 – Exemplo de Diagrama de Ishikawa

4.7 DIAGRAMA DE DISPERSÃO

Diagrama de Dispersão é um gráfico cartesiano que representa a relação entre


duas variáveis. Serve para verificar a existência ou não de relação entre duas
variáveis.

Dizemos que há uma correlação entre duas variáveis x e y quando y aumenta


ou diminui com x:

• Se y aumenta com o aumento de x, dizemos que há uma correlação


positiva entre x e y

• Se y diminui com o aumento de x, dizemos que há uma


correlação negativa entre x e y

O Diagrama de Dispersão é utilizado para identificar quais fatores, dentre vários


que tenham influência nas características de qualidade, têm correlação forte com
características de qualidade. Serve ainda para determinar a faixa ideal para
controle de variáveis que influenciem uma característica de interesse ou para
comparar resultados de medições precisas e medições simples, testes
destrutivos e não destrutivos, e para escolher características ou métodos
40
substitutos para realizar medições ou experimentos.

Suas principais aplicações são:

• Fornecer dados para confirmar a hipótese que duas variáveis são


relacionadas;

40
• Fornecer informações sobre a força de relação das variáveis;

• Suportar a análise de um diagrama de causa e efeito, determinando se


existe mais do que apenas um consenso da equipe na relação de uma
causa com um efeito.

4.7.1.1 Como construir


A seguir, seguem os passos para a construção de um Diagrama de Dispersão.

1) Coletar de 25 a 100 pares de dados que possam ser correlacionados;

2) Desenhar os eixos horizontal e vertical. O diagrama de dispersão é


construído de forma que o eixo horizontal (eixo x) represente os valores da
variável independente (causa) e o eixo vertical (eixo y) represente a variável
dependente (efeito);

3) Plotar cada par de pontos no gráfico. Se houver pontos repetidos, circule-


os quantas vezes quanto for necessário;

4) Interpretar o diagrama de dispersão:

o A direção e a espessura do grupamento de pontos indica a


intensidade e a forma de relação entre as variáveis.;

o Você só pode afirmar que X e Y tem correlação, mas não que um é


a causa do outro.

A Figura 17 apresenta possíveis resultados de correlações.

� �

� �
� � �
� � �
� � � � �
� � �
� � � �
� � �
� � �

� �

Variável X Variável X �
�� �
� �

� �
Correlação Positiva Possível Correlação Positiva �



� �

Variável X

Nenhuma Correlação

Variável X Variável X

Correlação Negativa Possível Correlação Negativa

Figura 17 – Diagrama de Dispersão

41
4.8 HISTOGRAMA
O Histograma é um diagrama de barras que representa a distribuição de
frequências de uma população. É uma representação gráfica na qual um
conjunto de dados é agrupado em classes uniformes, representado por um
retângulo cuja base horizontal são as classes e seu intervalo e a altura vertical
representa a frequência com que os valores desta classe estão presente no
conjunto de dados Serve para verificar o comportamento de um processo em
relação à especificação.

A Figura 18 apresenta graficamente a definição de um Histograma e a sua


relação com a distribuição normal. A distribuição normal é uma das mais
importantes distribuições da estatística, conhecida também como Distribuição de
Gauss ou Gaussiana. Além de descrever uma série de fenômenos físicos e
financeiros, possui grande uso na estatística inferencial. É inteiramente descrita
por seus parâmetros de média e desvio padrão, ou seja, conhecendo-se estes
consegue-se determinar qualquer probabilidade em uma distribuição Normal.

Histograma Curva Normal


(Sino)

Figura 18 – Histograma e Distribuição Normal

O Histograma apresenta as seguintes aplicações:

• Apresentar uma grande quantidade de dados que são difíceis de serem


interpretados em uma tabela;

• Mostrar a freqüência relativa de ocorrência de vários valores de dados;

42
• Revelar a centralização, dispersão (variação) e forma da distribuição dos
dados;

• Ilustrar rapidamente a distribuição do conjunto de dados;

• Fornecer informações para previsão de desempenho futuro dos


processos;

• Auxiliar a indicar se ocorreu alguma mudança no processo;

• Auxiliar a responder a questão: “O processo é capaz de atender os


requisitos do cliente?”

4.8.1.1 Como construir


A seguir, seguem os passos para a construção de um Histograma.

1) Decida sobre a medição do processo:

o Os dados devem ser “variáveis”, isto é, medidos sobre uma escala


contínua. Por exemplo: temperatura, tempo, dimensões, peso,
velocidade.

2) Coletar os dados:

o Colete pelo menos de 50 a 100 pontos de dados se você planeja


procurar, padrões, centralização (média), dispersão (variação), e
forma. Você pode também considerar colher dados para um
período especificado de tempo: hora, turno, dia, semana, etc;

o Use dados históricos para descobrir padrões ou como base de


medição de desempenho passado.

3) Preparar uma tabela de frequência conforme o exemplo da Figura 19.

43
9,9 9,3 10,2 9,4 10,1 9,6 9,9 10,1 9,8
9,8 9,8 10,1 9,9 9,7 9,8 9,9 10,0 9,6
9,7 9,4 9,6 10,0 9,8 9,9 10,1 10,4 10,0
10,2 10,1 9,8 10,1 10,3 10,0 10,2 9,8 10,7
9,9 10,7 9,3 10,3 9,9 9,8 10,3 9,5 9,9
9,3 10,2 9,2 9,9 9,7 9,9 9,8 9,5 9,4
9,0 9,5 9,7 9,7 9,8 9,8 9,3 9,6 9,7
10,0 9,7 9,4 9,8 9,4 9,6 10,0 10,3 9,8
9,5 9,7 10,6 9,5 10,1 10,0 9,8 10,1 9,6
9,6 9,4 10,1 9,5 10,1 10,2 9,8 9,5 9,3
10,3 9,6 9,7 9,7 10,1 9,8 9,7 10,0 10,0
9,5 9,5 9,8 9,9 9,2 10,0 10,0 9,7 9,7
9,9 10,4 9,3 9,6 10,2 9,7 9,7 9,7 10,7
9,9 10,2 9,8 9,3 9,6 9,5 9,6 10,7

Figura 19 – Exemplo de Dados para Histograma

a) Contar o número de dados, n, na amostra. No exemplo existem 125


dados, n =125.

b) Determinar a amplitude, R, para conjunto de dados da amostra. A


amplitude é o valor mais alto da amostra subtraído do valor mais baixo.
Para o nosso exemplo:

R = Xmáx – Xmin = 10,7 - 9,0 = 1,7.

c) Determinar o número de intervalos de classe, k necessários. Tire a raiz


quadrada do número total de pontos de dados, e arredonde para o
número inteiro mais próximo.

d) Determinar a largura (amplitude da classe) de classe, H:

A fórmula para isto é:

H = R / k = 1,7 / 10 = 0,17
Onde, R é a amplitude geral dos dados e k o número de classes.

o Arredonde primeiro o seu número para o valor mais próximo, com


a mesma quantidade de decimais dos dados da amostra. Depois
acrescente mais uma casa decimal. No exemplo, poderíamos
ajustar para 0,20.

e) Determinar as fronteiras de classes, ou pontos finais.

44
o Use o menor ponto de medição individual da amostra, ou
arredonde para o próximo número inferior. Este será o ponto final
inferior para o primeiro intervalo de classe. No nosso exemplo
deveria ser 9,0.

o Adicione a largura de classe, H, ao ponto final inferior. Este seria


o ponto final inferior para o próximo intervalo de classe. No nosso
exemplo:

9,0 + H = 9,0 + 0,20 = 9,20

o Sugestão: Cada intervalo de classe deve ser mutuamente


exclusivo, isto é, cada dado (medição) irá se ajustar dentro de um
e apenas um intervalo de classe.

o Consecutivamente adicione a largura de classe ao limite inferior de


classe até que os k intervalos de classe ou a amplitude de todos
os números sejam obtidos.

f) Construir uma tabela de frequências baseado nos cálculos do item “e”.


A tabela de frequências baseado no nosso exemplo é apresentada na
Figura 20.

Classe Limites de Ponto


# Classe Médio Frequencia Total
1 9,00 - 9,19 9,1 I 1
2 9,20 - 9,39 9,3 IIII IIII 10
3 9,40 - 9,59 9,5 IIII IIII IIII I 16
4 9,60 - 9,79 9,7 IIII IIII IIII IIII IIII II 27
5 9.80 - 9,99 9,9 IIII IIII IIII IIII IIII IIII I 31
6 10,00 - 10,19 10,1 IIII IIII IIII IIII II 22
7 10,20 - 10,39 10,3 IIII IIII II 12
8 10,40 - 10,59 10,5 II 2
9 10,60 - 10,79 10,7 IIII 5
10 10,80 - 10,99 10,9 0

Figura 20 – Tabela de frequências do Histograma

4) Desenhar um histograma da tabela de freqüência:

o Sobre a linha vertical (eixo y), desenhe a escala de contagem


considerando o intervalo de classe com contagem mais alta;

45
o Na linha horizontal (eixo x), desenhe a escala relacionada com a
variável que está sendo medida;

o Para cada intervalo de classe, desenhe uma barra com a altura


igual à contagem daquela classe.

Figura 21 - Histograma

4.8.1.2 Interpretação
É importante saber interpretar um histograma, para tal, seguem algumas
situações básicas de resultados.

Figura 22: Centralização: Onde a distribuição está centrada? O processo está


rodando muito acima? Muito abaixo?

46
Requisitos do Cliente

Processo
Centralizado

Processo Acima
dos Requisitos

Processo
Abaixo dos
Requisitos

Figura 22 – Análise do Histograma quanto à centralização

Figura 23: Variação: Qual a variação ou dispersão dos dados? A variabilidade


é grande ou pequena?

Requisitos do Cliente

Pequena
Variabilidade

Grande
Variabilidade

Figura 23 – Análise do Histograma quanto à variação

Figura 24: Forma: Qual é a sua forma? É parecida com uma normal
(distribuição com forma de sino)? É positivamente ou negativamente inclinada,

47
isto é, os dados estão mais concentrados para a esquerda ou para direita?
Existem dois (bi-modal) ou mais picos?

Normal

Multimodal Bimodal

Positivamente Inclinada Negativamente Inclinada

Figura 24 – Análise do Histograma quanto à forma

Sugestões:

• Alguns processos são naturalmente inclinados, não espere que toda


distribuição tenha a forma de sino.

• Dois ou mais picos podem indicar que os dados podem vir de fontes
diferentes, isto é, turnos, pessoas, fornecedores, máquinas. Se isto for
evidente, os dados devem ser estratificados.

• Desconfie da precisão dos dados se o histograma termina subitamente


(tal como um limite de especificação) sem um prévio declínio nos dados.
Isso poderia indicar que produtos defeituosos estão separados e não
incluídos na amostra.

• Da mesma forma que um gráfico de controle, um histograma normalmente


distribuído terá quase todos os seus valores dentro de +/- 3 desvios
padrões da média.

4.9 GUT (GRAVIDADE, URGÊNCIA E TENDÊNCIA)

48
Essa ferramenta é utilizada como um auxílio para definir prioridades quando há
várias atividades para serem realizadas. Em resumo, ajuda a tratar os
problemas. A matriz recebe esse nome por considerar Gravidade, Urgência e
Tendência como quesitos de prioridade para cada problema.

Segue a definição de cada quesito:

• Gravidade: Impacto do problema sobre as coisas, pessoas, resultados,


processos, ou organizações e efeitos que surgirão em longo prazo, caso
o problema não seja resolvido.

• Urgência: Relação com o tempo disponível ou necessário para resolver o


problema.

• Tendência: Potencial de crescimento do problema, avaliação da


tendência de crescimento, redução ou desaparecimento do problema.

A Figura 25 apresenta o funcionamento da Matriz GUT bem como as pontuações


a serem atribuídas.

Figura 25 – Matriz GUT

Como é possível ver na Figura 25, a pontuação para a GRAVIDADE representa


o DANO ou PREJUÍZO que a situação acarreta e responde pelo nível desse
dano ou prejuízo em cinco casos.

O grau de URGÊNCIA representa o TEMPO que se dispõe para resolver a


questão e responder por duas categorias de tempo:

• Quantidade: é a disponibilidade do tempo relacionado a PRAZO;

• Qualidade: é a disponibilidade do tempo relacionada à OPORTUNIDADE


do momento conjuntural.

A prioridade de tempo é pesada pelas cinco questões expostas na coluna 3.

49
Na sequência, a atribuição de TENDÊNCIA, que representa o que pode
acontecer se nada for feito a respeito; responde por aspectos ou fatores mais
desvantajosos da situação; caracteriza-se pelas cinco perguntas expostas na
coluna 4.

Após todas as atribuições e preenchimento da matriz GUT, é possível, através


da multiplicação demonstrada na coluna 5, identificar as causas mais prioritárias
do problema, ou seja, onde se deve “atacar” primeiro.

Reforça-se que é sempre preferível a utilização do Pareto para a priorização das


causas, e que esta matriz, por ser subjetiva, deve ser utilizada quando não há
dados quantitativos para a priorização.

4.10 PORQUÊS

Também conhecida como técnica dos 5 porquês ou “why-why”, Teve sua origem
na Toyota no Japão, e é até hoje utilizada como técnica de análise sobre
determinada necessidade, Buscando identificar a “causa-raiz” de um problema,
podendo ser utilizada individualmente ou em pequenos grupos.

A técnica 5 por quês é aplicada na solução de anomalias com a finalidade de


descobrir a sua principal causa, portanto ao chegar ao quinto por que, deve-se
ter a definição clara da causa, devido ao processo de análise.

Para aplicação desta técnica deve-se analisar as possíveis causas de maneira


crítica, considerando a sua real participação no problema detectado, ou seja,
qual o fator de importância que esta causa tem para a ocorrência deste
problema.

Em suma, a técnica serve para identificar a causa-raiz de um problema através


do questionamento sucessivo de porquês através das suas causa diretas ou
contributivas, conforme apresentado na Figura 26.

50
PROBLEMA
Porque (1)?
CAUSA DIRETA
Porque (2)?
CAUSA CONTRIBUTIVA
Porque (3)?
CAUSA CONTRIBUTIVA
Porque (4)?
CAUSA CONTRIBUTIVA

Porque (5)? CAUSA-RAIZ

Figura 26 – 5 Porquês

A quantidade de porquês tem relação direta com a probabilidade de sucesso na


identificação da causa. Poucas vezes pode identificar uma causa direta ou
contributiva, ou seja, uma causa oculta, da mesma forma que um excesso de
perguntas pode chegar à uma solução não realista, conforme apresentado na
Figura 27.

Solução
Causa oculta não realista
Probabilidade de Sucesso

Quantidade de “porquês”

Figura 27 – 5 Porquês e a probabilidade de sucesso

4.11 5W2H
Sabe-se da importância que o planejamento representa para o bom
funcionamento de uma empresa. Com as atribulações diárias da rotina de
trabalho, a cada dia torna-se mais indispensável a estruturação de um bom
planejamento a revisão do mesmo periodicamente.

51
As ações que compõe um planejamento são orientadas através do Plano de
Ação. Além de orientar essa implementação das ações, o plano de ação serve
também como referência para a tomada de decisões, pois permite que seja
realizado o acompanhamento do andamento do projeto.

A sigla 5W2H tem origem nos seguintes termos da língua inglesa:

• Why- Por que deve ser executada a tarefa ou projeto (justificativa);

• What- O que será feito (etapas);

• How- Como deverá ser realizada cada tarefa/etapa (método);

• Where- Onde cada tarefa será executada (local);

• When- Quando cada uma das tarefas deverá ser executada (tempo);

• Who- Quem realizará as tarefas (responsabilidades);

• How much/ How many- Quanto custará cada etapa do projeto (custo).

A Figura 28 apresenta um exemplo de plano de ação elaborado através da


ferramenta 5W2H.

Contramedida Responsável Prazo Local Justificativa Procedimento Investimento

O quê? Quem? Quando? Onde? Porque? Como? Quanto?


What? Who? When? Where? Why? How? How much?

Reduzir João Abril/2009 Supervisão Evitar Trocando R$ 100.0


interferência na propagação placa tipo A
placa de de por placa tipo
assinantes radiointerfe- B
rência

. . . . . . .
. . . . . . .
. . . . . . .

Figura 28 – Plano de Ação 5W2H

52
BIBLIOGRAFIA

DEVORE, Jay L. Probabilidade e Estatística para engenharia e ciências. São Paulo:


Cengage Learning, 2014. (Tradução da 8 ed. norte-americana).

WALPOLE et al. Probabilidade e Estatística para engenharia e ciências. São Paulo:


Pearson Prentice Hall, 2009.

CASELLA, George; BERGER, Roger L. Inferência Estatística. São Paulo: Cengage


Learning, 2010. (Tradução da 2 ed. norte-americana).

OLIVEIRA, Gustavo Silveira; TURRIONI, João Batista. Modelagem da confiabilidade


utilizando dados de garantia: uma alternativa para resolver as limitações ao se
trabalhar com dados de campo. Produto & Produção, vol 17 n 2, p 44-52 , 2016.

SANTOS, Gilberto Tavares. Modelo de confiabilidade associando dados de


garantia e pós-garantia a três comportamentos de falhas. Tese de Doutorado, Porto
Alegre: Universidade Federal do Rio Grande Do Sul, 2008.

CAMPOS, Vicente Falconi. Qualidade total: padronização de empresas. Belo


Horizonte, MG: INDG Tecnologia e Serviços Ltda, 2004.

WERKEMA, Maria Cristina Catarino. As ferramentas da qualidade no


gerenciamento de processos. 6. ed. Belo Horizonte, MG: Editora de
Desenvolvimento Gerencial, 1995.

53
54

Você também pode gostar