Você está na página 1de 67
PÓS-GRADUAÇÃO LATO SENSU FERRAMENTAS DA QUALIDADE MÓDULO – 2 Editoração e Revisão: Editora Prominas e
PÓS-GRADUAÇÃO LATO SENSU
FERRAMENTAS DA QUALIDADE
MÓDULO – 2
Editoração e Revisão: Editora Prominas e Organizadores
Coordenação Pedagógica
INSTITUTO PROMINAS
APOSTILA RECONHECIDA E AUTORIZADA NA FORMA DO CONVÊNIO
FIRMADO ENTRE UNIVERSIDADE CANDIDO MENDES
E O INSTITUTO PROMINAS.
Impressão
e
Editoração

SUMÁRIO

UNIDADE 1 – INTRODUÇÃO

03

UNIDADE 2 – EVOLUÇÃO E CARACTERÍSTICAS DAS FERRAMENTAS DA QUALIDADE

05

2.1 Evolução

05

2.2 Características

12

UNIDADE 3 – FERRAMENTAS DA QUALIDADE

17

3.1 Fluxograma

17

3.2 Diagrama de causa e efeito

19

3.3 Histograma

21

3.4 Gráfico de controle

22

3.5 Folha de checagem

27

3.6 Gráfico de Pareto

29

UNIDADE 4 – BRAINSTORMING, OBSERVAÇÃO INSTANTÂNEA, 5W2H

35

4.1 Brainstorming

35

4.2 Observação instantânea

36

 

4.3 5W2H

37

UNIDADE 5 – MAPEAMENTO DE PROCESSO

38

UNIDADE 6 - 5’S, KAIZEN, KANBAN

40

6.1 5’S

40

 

6.2 Kaizen

41

6.3 Kanban

44

UNIDADE 7 – PDCA

49

UNIDADE 8 – SEIS SIGMA

54

8.1

Perspectiva estratégica do Seis Sigma

57

REFERÊNCIAS

64

3

UNIDADE 1 – INTRODUÇÃO

Qualidade é um termo que utilizamos cotidianamente, mas, se perguntarmos

a diversas pessoas o significado deste termo, dificilmente chegaremos a um consenso.

Por seu uso indiscriminado, o termo qualidade tem sido confundido com luxo, beleza, virtudes, etiquetas, preço alto ou baixo, falta ou excesso de peso, embalagem bonita, moda, detalhes de acabamento, etc. (AMBROZEWICZ, 2003).

Não que cada um desses itens não faça parte da Qualidade, como explica o

autor acima. O erro está em considerar que a Qualidade pode ficar restrita, apenas,

a um ou alguns deles. Na verdade, a Qualidade é um conjunto de atributos ou elementos que compõem um produto ou serviço.

Para incorporar a Qualidade no seu processo produtivo, uma empresa deve criar, em todos os níveis, o que chamamos de uma Cultura da Qualidade, ou seja, para se alcançar a Qualidade, deve-se focalizar toda a atividade produtiva no atendimento ao consumidor.

É o uso que o consumidor vai dar ao produto, ou serviço, que determinará seus elementos e atributos, sejam eles subjetivos, mensuráveis, declarados, perfeitamente caracterizados, ou não. A satisfação do consumidor e o desempenho da empresa em proporcioná-la são os principais itens na avaliação da Qualidade (AMBROZEWICZ, 2003).

Nesse contexto, um fator de sucesso da Gestão da Qualidade advém do uso das ferramentas e estratégias que vem sendo desenvolvidas ao longo das últimas décadas.

De todo modo, as ferramentas, por si só, não geram melhorias e nem implantam alterações. O que elas fazem, na verdade, é orientar a ação do usuário. Elas geram dispositivos simples de avaliação de ações desenvolvidas, possibilitando ao usuário conhecer, passo a passo, como ocorrem as mudanças nas operações de processo (PALADINI, 2012).

A evolução e quais ferramentas são utilizadas para implementar a qualidade, organizar todo processo são os temas desta apostila.

4

Ressaltamos em primeiro lugar que embora a escrita acadêmica tenha como premissa ser científica, baseada em normas e padrões da academia, fugiremos um pouco às regras para nos aproximarmos de vocês e para que os temas abordados cheguem de maneira clara e objetiva, mas não menos científicos. Em segundo lugar, deixamos claro que este módulo é uma compilação das ideias de vários autores, incluindo aqueles que consideramos clássicos, não se tratando, portanto, de uma redação original e tendo em vista o caráter didático da obra, não serão expressas opiniões pessoais.

Ao final do módulo, além da lista de referências básicas, encontram-se outras que foram ora utilizadas, ora somente consultadas, mas que, de todo modo, podem servir para sanar lacunas que por ventura venham a surgir ao longo dos estudos.

5

UNIDADE 2 – EVOLUÇÃO E CARACTERÍSTICAS DAS FERRAMENTAS DA QUALIDADE

2.1 Evolução

Entender o conceito de Gestão da Qualidade requer uma volta ao passado, não muito distante é claro, buscando interpretar a origem e evolução, afinal: a história nos situa no tempo e no espaço, nos faz entender os motivos que nos trouxeram até a atualidade.

Se fizermos uma viagem no tempo e perguntarmos a um artesão (mais uma vez voltamos ao artesão, pois nele temos nosso ponto de partida pata entender a trajetória percorrida até chegarmos à qualidade) o que significa qualidade e confrontarmos com trabalhadores de diversas épocas posteriores, receberemos respostas bastante diversas.

O artesão era um especialista que tinha domínio completo de todo o ciclo de produção, desde a concepção do produto até o pós-venda. Nessa época, o cliente estava próximo do artesão, explicitando suas necessidades, as quais o artesão procurava atender, pois sabia que a comercialização de seus produtos dependia muito da reputação de qualidade, que, naquele tempo, era comunicada boca a boca pelos clientes satisfeitos.

Nesse sentido, o artesão tinha em sua abordagem de qualidade alguns elementos bastante modernos, como o atendimento às necessidades do cliente. Por outro lado, conceitos importantes para a área de qualidade moderna, como o de confiabilidade, conformidade, metrologia, tolerância e especificação, ainda eram embrionários. Além disso, o foco do controle da qualidade era o produto, não o processo, feito via inspeção de todos os produtos pelo artesão.

Esse paradigma ainda encontrava eco no final do século XIX, quando a maior montadora de automóveis, a Panhard e Levassor (P&L) montava seus veículos atendendo às necessidades dos abastados clientes que a procuravam; não havia dois carros iguais (CARVALHO, 2012).

6

Um grupo de artesãos altamente qualificado era responsável pela fabricação de componentes e peças específicos e, posteriormente, pela montagem do veículo e pelos testes, ou seja, um processo semelhante à fabricação de um protótipo atualmente. Naquele tempo, era comum ocorrer o susto dimensional, em que o tamanho de um veículo diferia bastante de outro produzido sob o mesmo projeto, devido à necessidade de ajuste nas peças feitas separadamente por diferentes artesãos, sem a utilização adequada dos conceitos de qualidade. Nessa época, o carro era um produto para poucos, como ter um avião ou um helicóptero hoje, e, embora alguns fabricantes ainda produzissem carros dessa forma até a Primeira Guerra Mundial e alguns até hoje, como o Rolls Royce, esse paradigma de produção foi abandonado por essa indústria.

Veio então a Revolução Industrial, que trouxe nova ordem produtiva, em que a customização foi substituída pela padronização e a produção em larga escala. A invenção de máquinas projetadas para obter grande volume de produção e uma nova forma de organização do trabalho permitiram alcançar a produção em massa.

A produção em massa encontrou na linha de montagem seu modelo ideal. O trabalho foi fragmentado e, portanto, os trabalhadores tinham domínio apenas de uma pequena fração do trabalho, que era repetida várias vezes ao longo da jornada de trabalho.

O modelo de administração taylorista, ou Administração Científica, também retirou do trabalhador as etapas de concepção e de planejamento. Nessa época surgiu a função do inspetor, responsável pela qualidade dos produtos.

As necessidades dos clientes não eram direcionadoras da concepção do produto. Da linha de montagem da Ford, no período de 1908 a 1927, saía apenas um modelo, o Ford T – ou como conhecido: Ford Bigode – e em uma única cor, a preta. Todavia, isso não foi empecilho para que esse produto se tornasse o carro do século, chegando a 15 milhões de unidades vendidas. Pela primeira vez, o carro se tornara um produto acessível à classe trabalhadora, mudando o conceito dessa indústria, que investiu em capacidade para atender à demanda, que, então, era maior que a oferta.

7

Por outro lado, essa também foi uma época de grande evolução do conceito de controle da qualidade, e Ford também teve papel importante nessa disciplina. Imaginem o quão difícil era encaixar as peças na linha de montagem, sem que os conceitos de especificação, tolerância e conformidade estivessem desenvolvidos.

Lembremos no susto dimensional!

Para viabilizar sua linha de montagem, Ford investiu muito na intercambialidade das peças e na facilidade de ajustes, adotando um sistema padronizado de medida para todas as peças. Como o modelo de linha de montagem se difundiu não só na indústria automobilística, mas também em outros setores industriais, tornou-se importante investir no desenvolvimento de áreas como a metrologia, sistema de medidas e especificações, para garantir a intercambialidade das peças. Embora, nessa época, o foco do controle da qualidade ainda fosse a inspeção, já se encontravam elementos importantes do que viria a ser o conceito de qualidade que priorizava uma abordagem voltada à produção e à conformidade (CARVALHO, 2012).

Contudo, nesse período, deixaram de ser priorizados alguns aspectos importantes da Gestão da Qualidade moderna, como o conhecimento das necessidades do cliente e a participação do trabalhador, que eram bastante enfatizados no período artesanal.

Foi um pouco depois, em 1924, que o conceito de controle da qualidade deu um novo salto, quando Walter A. Shewhart criou os gráficos de controle, ao fundir conceitos de estatística à realidade produtiva da empresa de telefonia Bell Telephone Laboratories. Shewhart também propôs o ciclo PDCA (plan-do-check- act), que direcionaria as atividades de análise e solução de problema.

Na década de 1930, o controle da qualidade evoluiu bastante, com o desenvolvimento do sistema de medidas, das ferramentas de controle estatístico do processo e do surgimento de normas específicas para essa área. Surgiram técnicas de amostragem, o que permitiu a introdução da inspeção por amostragem, que reduziu as inspeções a 100% (antes, geravam elevados custos indiretos). As normas britânicas e americanas de controle estatístico da qualidade são também desse

8

período,

respectivamente.

British

Standard

BS

600

e

American

War

Standarts

Z1.1

-

Z1.3,

Foi também nessa época que os experimentos de Elton Mayo e a Escola das Relações Humanas começaram a questionar a alienação no trabalho e a importância da participação do trabalhador. Esse trabalho pioneiro, aliado aos estudos de Maslow, McGregor e Herzberg, nas décadas seguintes, sobre motivação humana, teve grande influência nos programas de qualidade no período pós-guerra, em especial na composição do modelo japonês.

No período da Segunda Guerra Mundial, as conquistas do controle estatístico da qualidade se difundiram, mas foi no período pós-guerra que novos elementos surgiram na Gestão da Qualidade.

Nos Estados Unidos, a área de qualidade se consolidou. Em 1945, surgiu a primeira associação de profissionais da área de qualidade – a Society of Quality Enginers – vindo outras na sequência.

Foi na década de 1950 que as primeiras associações da área de qualidade e seu impacto nos custos foram tecidas e foi proposta a primeira abordagem sistêmica.

Do outro lado do mundo, o Japão lutava pela reconstrução no período pós- guerra e dois importantes teóricos da área da qualidade lá estiveram influenciando a criação do modelo japonês, mas também foram influenciados por esse mesmo modelo. Deming, que exerceu forte influência na criação do modelo japonês, tinha forte orientação estatística e foco no controle da qualidade, mas em sua estada no Japão incorporou aspectos relacionados à participação dos trabalhadores e da alta gerência como fundamentais para a boa Gestão da Qualidade.

O modelo japonês, Company Wide Quality Control – CWQC, que foi traduzido no Brasil como Controle da Qualidade por toda a Empresa ou Controle da Qualidade Amplo Empresarial, traria vários elementos novos à Gestão da Qualidade, que seriam associados àqueles já presentes no modelo ocidental (TQC).

Enfim, chegamos a alguns elementos da Gestão da Qualidade moderna, que paradoxalmente recupera alguns atributos da época artesanal, como a busca da

9

proximidade às demandas do cliente e maior customização, embora agora uma customização em massa, ou seja, também com escala. No final da década de 1960, Mizuno e Akao colaboraram para resgatar a proximidade com o cliente, propondo o método Desdobramento da Função Qualidade, QFD (Quality Function Deployment). Também Genichi Taguchi focou nas atividades de projeto, como fundamentais para a satisfação do cliente e para criação de uma qualidade robusta (robust quality).

Esse resgate da importância dos clientes e a percepção da qualidade como um critério competitivo, passível de fornecer vantagem competitiva, trouxe alguns teóricos da área de estratégia e administração para a área da qualidade, como Garvin, que em seus trabalhos discutiu o impacto estratégico da qualidade. Também Akao tratou da importância do alinhamento estratégico da área de qualidade com as estratégias do negócio, o que chamou de desdobramento das diretrizes.

O programa mais recente de Gestão da Qualidade surgiu no final da década de 1980, na Motorola, chamado Seis Sigma. Contudo, essa ferramenta só se popularizou no final do século passado e início do século XXI. Esse programa apresenta várias características dos modelos anteriores, como o pensamento estatístico típico da época de maior ênfase no controle da qualidade e na análise e solução de problemas. No Seis Sigma existe uma preocupação com o uso sistemático das ferramentas estatísticas, seguindo um ciclo batizado de DMAIC (define-measure-analyse-improve-control), sigla que representa as etapas de definir, medir, analisar, melhorar e controlar, o que também remete ao ciclo PDCA. É importante ressaltar, contudo, que esse método vai além do pensamento estatístico, pois promove um alinhamento estratégico da qualidade, desdobrada em projetos prioritários. Além disso, existe forte ênfase na relação custo-benefício desses projetos, cujos ganhos, em algumas empresas, somam cifras expressivas.

Outra tendência que desponta é a gestão integrada dos sistemas de qualidade e das normas de sustentabilidade, através da gestão integrada. Esse conjunto integrado de normas é composto das normas ISO 9000 e ISO 14000, já mencionadas e das normas ISO 26000 de responsabilidade social e da OHSAS 18000 de saúde e segurança ocupacional. Os Sistemas Integrados de Gestão (SIG) integram, portanto, a perspectiva ambiental, a da saúde e da segurança ocupacional

10

(que as empresas têm denominado de SMS – saúde, meio ambiente e segurança), além da responsabilidade social à Gestão da Qualidade.

Essa breve revisão histórica busca traçar uma trajetória da evolução da qualidade ao longo do último século, lembrando que vários elementos de todos esses anos estão presentes no dia a dia das empresas.

Na ilustração abaixo, temos uma linha do tempo mostrando a evolução desenhada acima, que podemos chamar de ondas da gestão da qualidade.

Ondas da gestão da qualidade

ondas da gestão da qualidade. Ondas da gestão da qualidade Alguns autores fazem marcações temporais entre

Alguns autores fazem marcações temporais entre as principais tendências, embora a intersecção e a complementaridade entre os modelos predominantes em cada época sejam grandes.

Uma das classificações temporais mais adotadas é a proposta por David Garvin, que classifica a evolução da qualidade em quatro eras, quais sejam:

Inspeção; Controle Estatístico da Qualidade; Garantia da Qualidade e Gestão da

11

Qualidade. As principais características dessas quatro eras e as abordagens da qualidade, ambas propostas por Garvin estão descritas nas tabelas abaixo:

Eras da qualidade

estão descritas nas tabelas abaixo: Eras da qualidade Fonte: Adaptado de Garvin (1992). Site :

Fonte: Adaptado de Garvin (1992).

12

Abordagens da qualidade

12 Abordagens da qualidade Fonte: Adaptado de Garvin (1987). 2.2 Características Como vimos acima, o desenvolvimento

Fonte: Adaptado de Garvin (1987).

2.2 Características

Como vimos acima, o desenvolvimento das ferramentas da Gestão da Qualidade tem sido vigoroso ao longo do tempo. São técnicas que evoluíram bastante nos últimos anos.

13

Algumas delas passaram de modelos estatísticos elementares para estruturas cujo funcionamento está respaldado em desenvolvimentos teóricos bastante complexos. Outras deixaram de usar elementos de matemática básica para empregar lógica difusa. A utilização de matrizes dos mais diversos tipos passou a ser observada. Fórmulas sofisticadas, recursos de novas teorias das mais variadas áreas, equações (pelo menos, à primeira vista) intrincadas, passaram a ser elementos corriqueiros em muitos destes dispositivos. Várias delas só conseguiram ter facilidade efetiva de uso depois que foram desenvolvidos softwares específicos ou mecanismos “automatizados” de apoio à ação do usuário.

Nesses novos mecanismos de operação da Gestão da Qualidade, uma componente inédita apareceu e uma antiga se manteve. De fato, por um lado, a complexidade ampliou a abrangência, a diversidade e o raio de alcance das ferramentas. Mas, ao mesmo tempo, foi preservada a facilidade de uso e a simplicidade de operação; não houve sofisticação nas informações requeridas para seu funcionamento e conservou-se a compreensão de suas características específicas. A simplicidade de operação não significa falta de suporte teórico consistente a dar sustentação às ferramentas. O que ocorre é que este rigor teórico consegue tornar-se transparente ao usuário, como sucede, por exemplo, com a utilização de gráficos de controle. Além disso, com maior ênfase, os novos desenvolvimentos evidenciaram o fato de que as ferramentas da Gestão da Qualidade geram resultados altamente compensadores (HAMILTON, CARUSO, 2010 apud PALADINI, 2012).

As ferramentas da Gestão da Qualidade, assim, respondem pela sua plena viabilidade de utilização. Em função desse aspecto, as ferramentas, ainda que diversas em seu desenvolvimento, sustentação teórica ou mesmo utilidade prática, possuem algumas características comuns, próprias da finalidade primeira a que todas elas se destinam.

Conceitualmente, são mecanismos simples para selecionar, implantar ou avaliar alterações no processo produtivo por meio de análises objetivas de partes bem definidas deste processo. Evidentemente, o objetivo das alterações é gerar melhorias.

14

Como regra geral, ferramentas são técnicas simples. Seu objetivo básico é sempre o mesmo: produzir qualidade. A forma como isso é feito e a natureza da aplicação, em si, são duas especificidades típicas de cada ferramenta.

As ferramentas costumam envolver procedimentos em forma de diagramas ou gráficos; procedimentos numéricos; esquemas para o desenvolvimento de atividades, para a realização de análises ou para tomadas de decisão; estudos analíticos; formulações precisas de conceitos ou diretrizes; roteiros simples de ação; regras de funcionamento ou de implementação; planos de atividades; mecanismos de operação, etc.

De forma mais ampla, portanto, ferramentas são métodos estruturados de modo consistente para viabilizar a definição de melhorias que possam vir a ser implantadas em partes definidas do processo produtivo. As ferramentas atuam tanto na parte anterior da implantação (listagem de opções; processos de escolha; regras de preferência, por exemplo) quanto na fase posterior (análise de resultados, avaliação de efeitos; implicações práticas; decorrências das ações, por exemplo).

Uma análise mais cuidadosa das diversas ferramentas que têm sido desenvolvidas para viabilizar a utilização prática dos conceitos e normas da Gestão da Qualidade evidencia que há algumas características comuns a todas elas. Algumas destas particularidades são mais visíveis em determinadas ferramentas; em outras, certas especificidades estão mais expostas. Mas todas as ferramentas, em maior ou menor grau, apresentam as seguintes características:

1. facilidade de uso – costuma-se dizer que as ferramentas são “amigáveis” ao usuário (“friendly”), ou seja, não oferecem grandes dificuldades de uso. Leituras de longos manuais, conhecimento de regras específicas, domínio de técnica avançadas costumam ser dispensáveis;

2. lógica de operação – as ferramentas apresentam um desenvolvimento lógico que não agride o bom-senso do usuário, levando-o a concluir que as etapas de aplicação estão dispostas em uma ordem natural, óbvia, sem alternativas que não essa mesma. Ou seja, cada ferramenta segue uma lógica de

15

operação que parece ser a mais indicada para aquele caso. Esta característica é complementada pela que vem a seguir;

3. sequência coerente de ações – este aspecto só se torna visível depois de certo tempo de utilização das ferramentas e, mais do que isso, depende muito do poder de observação do usuário. É o que se poderia chamar de “decorrências naturais” das ações em curso. Normalmente, a implantação de uma ferramenta segue etapas em sequência. Se a implantação das primeiras etapas for feita corretamente, as etapas subsequentes surgem naturalmente. Ou seja, dificilmente o usuário implanta todas as etapas, uma por uma. O mais normal é que, implantadas as primeiras, as seguintes “auto-implantem- se”. Um exemplo bem simples pode ser visto na própria lógica do PDCA, que será visto a seguir – se o P (“plan”), o D (“do”) e o C (“check”) forem corretamente desenvolvidos, o A (“act”) transforma-se naturalmente em melhoria. Esta é uma das mais interessantes características das ferramentas da Gestão da Qualidade. Sua percepção, entretanto, não é intuitiva ou determinada por um arcabouço teórico, ela decorre da experiência prática do usuário;

4. alcance visual – as ferramentas tendem sempre a reforçar uma facilidade visual do método e do resultado. Facilmente, qualquer ferramenta está associada a um diagrama, um esquema simples ou um traçado que permita visualizar, sobretudo, o processo de implantação dos mecanismos de operação e do objetivo a alcançar, o que configura uma análise simples do resultado alcançado ou a alcançar. Como se sabe, o apelo visual facilita a compreensão do processo em estudo. As ferramentas costumam investir no alcance visual do mecanismo escolhido para representá-las, sempre visando à maior facilidade de compreensão do que se passa no método em si e no processo sob análise. O impacto visual é uma característica essencial das ferramentas da qualidade.

5. etapas de implantação – costuma ser pequeno o número de etapas de implantação de uma ferramenta e também pequeno tende a ser o tempo gasto para desenvolver tais etapas;

16

6. delimitação – as ferramentas não costumam alcançar grandes áreas do processo produtivo, priorizando, ao invés disso, a análise de partes bem definidas dele. Tendem a enfatizar uma ação específica do processo, que pode ser determinada operação de um equipamento, o funcionamento de um dispositivo, a ação de um ou mais operadores, o desempenho de um material. Ações mais amplas de análise (que envolvam, por exemplo, reflexos de natureza estratégica para a organização) costumam requerer o uso de dispositivos mais complexos e sofisticados do que as ferramentas;

7. implicações no atendimento ao cliente final – dificilmente uma ferramenta tem implicações estritamente internas à organização, ou seja, não gera nenhuma melhoria que impacte sobre o produto acabado. O mais normal é que as ferramentas sejam aplicadas para determinar melhorias no processo produtivo que impactam sobre o produto acabado, determinando, por exemplo, diferenciação do produto em relação a seus concorrentes; formas específicas de atender determinados requisitos de mercado; ou adicionando, ao produto, itens que podem torná-lo mais atrativo aos olhos do consumidor;

8. foco na solução – o foco das ferramentas é buscar soluções para os problemas e não apenas identificá-los. Muitas ferramentas investem na análise do problema para garantir que o diagnóstico seja o mais preciso possível, parte-se do princípio que um bom diagnóstico é metade da cura. Mas, de qualquer modo, é para a solução do problema que está focado o esforço das pessoas que empregam determinada ferramenta (PALADINI,

2012).

Veremos essas características nas ferramentas que serão apresentadas ao longo da apostila.

17

UNIDADE 3 – FERRAMENTAS DA QUALIDADE

3.1 Fluxograma

São representações gráficas da sequência das etapas pelas quais passa um processo. Como em programação computacional, o fluxograma permite rápido entendimento de como o processo opera.

Ele pode tanto ser utilizado para uma rotina específica como para o processo global de uma empresa. Primeiro, devemos fazer um levantamento da rotina do processo, identificando as entradas e seus fornecedores, padrões de entrada, operações, órgãos e pessoas envolvidas, saídas e seus clientes, padrões de saída. Existem diversos tipos de fluxograma, cada um com sua simbologia e método próprio.

Segundo o Manual de Ferramentas da Qualidade editado pelo Sebrae (2005, p. 9), além da sequência das atividades, o fluxograma mostra o que é realizado em cada etapa, os materiais ou serviços que entram e saem do processo, as decisões que devem ser tomadas e as pessoas envolvidas (cadeia cliente/fornecedor).

Os símbolos padrões identificam operações básicas (como as decisões) ou secundárias (pontos de armazenamento, por exemplo), atividades que impactam sobre o processo (tais como controle de fluxo e inspeções), situações naturais no contexto de operações (transporte, por exemplo), bem como o início e o final do processo.

A construção de um fluxograma segue, em geral, o mesmo roteiro:

1. selecionam-se as atividades de cada fase do processo que se deseja representar;

2. mapeia-se o fluxo dessas atividades;

3. traça-se um desenho inicial com as atividades colocadas no fluxo em questão;

18

4. neste esboço gráfico, associa-se cada atividade a um padrão previamente definido e representado em um conjunto definido por legendas próprias;

5. o fluxo final, assim, utiliza-se de elementos gráficos padronizados para representar diversas atividades do processo em estudo.

Simbologia básica para fluxograma

do processo em estudo. Simbologia básica para fluxograma Modelo de fluxograma Como é o mapeamento de

Modelo de fluxograma

Simbologia básica para fluxograma Modelo de fluxograma Como é o mapeamento de um processo, o fluxograma

Como é o mapeamento de um processo, o fluxograma é considerado uma das mais importantes e úteis ferramentas de um sistema de qualidade.

19

Carvalho (2012) ressalta que são ferramentas obrigatórias em qualquer atividade de programação computacional.

3.2 Diagrama de causa e efeito

O Diagrama de causa e efeito também é conhecido como gráfico de espinha de peixe ou diagrama de Ishikawa, que o criou, em 1943. Trata-se de um instrumento voltado para a análise de processos produtivos. Sua forma é similar à espinha de peixe, onde o eixo principal mostra um fluxo de informações, e as espinhas, que para ele se dirigem, representam contribuições secundárias ao processo sob análise.

O diagrama ilustra as causas principais de uma ação, para as quais convergem subcausas (causas menos importantes), cuja interação leva ao sintoma, resultado ou efeito final. O diagrama permite a visualização da relação entre as causas e os efeitos delas decorrentes.

Diagrama de causa e efeito

e os efeitos delas decorrentes. Diagrama de causa e efeito Fonte: SEBRAE (2005) Site : www.ucamprominas.com.br

Fonte: SEBRAE (2005)

20

São variadas as aplicações do diagrama de causa e efeito, dentre elas:

analisar as ações dos recursos humanos; o desempenho de equipamentos; o comportamento de materiais; o impacto do ambiente na ação produtiva. Pode envolver avaliações, medidas, métodos, operações, procedimentos de gerência, manutenção, ou seja, pode ser aplicado em qualquer área da organização.

Roteiro para explicar a construção do diagrama:

1. inicialmente, identifica-se o efeito a estudar;

2. este efeito é colocado no lado direito do diagrama;

3. o grupo que estuda o problema começa a sugerir e a determinar causas

que podem determinar este efeito;

4. em princípio, todas as causas possíveis, prováveis e até mesmo remotas

que forem mencionadas são listadas;

5. a ênfase desta fase do processo é dispor do maior número de ideias que

conduzam às causas. Não há imposição prévia a qualquer causa apontada

(aceitam-se, até mesmo, causas aparentemente inviáveis ou altamente improváveis);

6. concluída esta primeira listagem de ideias, seguem-se novas rodadas

para definir ideias decorrentes de situações já mencionadas;

7. concluída a fase de definição do problema (efeito) e a listagem de todas

as possíveis causas que vieram à tona, são classificadas as causas listadas em dois grupos: (1) causas básicas e (2) causas secundárias;

8. métodos como a análise 5W e 1H (por que, o que, onde, quando, quem e

como) são usados neste processo;

9.

as causas principais e as secundárias são alocadas à esquerda no

diagrama;

10. cada causa passa por uma revisão crítica, associando-se a ela, por exemplo, níveis de viabilidade de gerarem o efeito;

21

11. a seguir, segue-se a fase de experimentação. Cada causa vai sendo testada ou analisada com mais detalhes. O diagrama vai sendo refinado;

12. em sua estrutura final, o diagrama permite definir as causas do efeito.

Diagrama de Ishikawa

permite definir as causas do efeito. Diagrama de Ishikawa Fonte: Carvalho (2012, p. 361) 3.3 Histograma

Fonte: Carvalho (2012, p. 361)

3.3 Histograma

O histograma é um exemplo clássico de ferramenta de outras ciências que migrou para a Gestão da Qualidade.

São estruturas utilizadas na Estatística para a representação de dados. Trata-se de um “sumário gráfico da variação de uma massa de dados” (CARVALHO, 2012). A representação dos dados sob forma de histogramas facilita a visualização do padrão básico, que identifica a população de onde eles foram extraídos, o que não seria possível em tabelas convencionais.

Eles descrevem as frequências com que variam os processos e a forma que assume a distribuição dos dados de toda a população.

22

Histograma

22 Histograma O roteiro de construção do histograma: 1. representado em um espaço bidimensional; 2. eixo

O roteiro de construção do histograma:

1. representado em um espaço bidimensional;

2. eixo horizontal – estão as medidas da variável sob estudo – medidas apresentadas sob a forma de intervalos;

3. eixo vertical – estão as frequências de ocorrência de cada medida;

4. a estrutura da curva de dados aparece por sobre os retângulos levantados, a partir dos intervalos de medidas;

5. uma linha ligando o ponto central do ápice dos retângulos dá uma ideia da curva de frequência dos dados.

3.4 Gráfico de controle

São gráficos desenvolvidos por Shewhart, na década de 1920, que especificam limites superiores e inferiores dentro dos quais medidas estatísticas associadas a uma dada população são locadas. A tendência da população é mostrada por uma linha central; as curvas determinam a evolução histórica de seu comportamento e a tendência futura.

Esta é uma das ferramentas mais conhecidas da Gestão da Qualidade. É, também, considerado um dos elementos fundamentais do conjunto de mecanismos

23

que compõem a Avaliação da Qualidade. Estes gráficos foram desenvolvidos pelo engenheiro americano Walter Andrew Shewhart (1891 - 1967), na década de 1920. É uma ferramenta que introduziu as bases quantitativas para a avaliação da qualidade e marcou o uso da estatística como instrumento básico da avaliação da qualidade em nível de processos (note-se que isto ocorreu no começo do século XX).

A ferramenta básica desse desenvolvimento foi o conjunto dos Gráficos de Controle. A área introduzida por esta aplicação foi o Controle Estatístico de Processo (CEP).

Algumas definições básicas que suportam esta ferramenta são as seguintes:

processo – qualquer conjunto de condições, ou causas que, agindo juntas, geram um dado resultado;

controle de processos – atividades planejadas e desenvolvidas com a finalidade de conhecer o processo em estudo;

meta do controle de processo – conhecer objetivamente como opera o processo;

mecanismos do CEP – técnicas que analisam as alterações no processo produtivo para determinar sua natureza e a frequência com que ocorrem;

análise das alterações – mensuração de variáveis fundamentais do processo ou dos defeitos por peças ou número de peças defeituosas por amostra;

capabilidade – comportamento normal de um processo, quando operando em estado de controle estatístico (situação operacional ideal). Envolve as tolerâncias naturais do processo (valores assumidos quando em estado de controle estatístico). Trata-se de um método próprio para determinar as tolerâncias naturais do processo.

A determinação da capabilidade do processo e a avaliação da situação (sob controle ou fora de controle) do processo utilizam métodos científicos, sem improvisações ou ações intuitivas. Isto requer um nível adequado de conhecimento técnico, uma das exigências que esta ferramenta apresenta e que talvez, em muitas

24

outras ferramentas da Gestão da Qualidade, não seja tão requerido. De fato, há muitas decisões técnicas que envolvem a implantação do CEP; decisões equivocadas podem comprometer a avaliação.

Os gráficos de controle trabalham com as variações de um processo e estão restritos a áreas determinadas do processo. Como regra geral, os gráficos de controle são instrumentos para separar causas aleatórias das causas assinaláveis. Eles verificam se o processo é estável, se o processo está sob controle e se permanece assim e permitem a análise das tendências do processo.

Um processo está sob controle se a variabilidade é devida ao acaso; se os característicos da qualidade forem adequadamente distribuídos de forma estável (por exemplo: distribuição normal); se as causas de variabilidade são aleatórias, inerentes ao processo; não comprometem o produto e quando a eliminação destes desvios é impossível ou antieconômica. Processos fora de controle exibem variabilidade anormal; grande dispersão e causas de modificações identificáveis.

São situações que exigem pronta intervenção, pois há significativas diferenças entre

a média do processo e as medidas observadas (CARVALHO, 2012).

O roteiro geral de construção dos gráficos de controle é bastante simples, ainda que seu suporte teórico seja bastante consistente e com algum grau de

sofisticação:

1. define-se o produto a avaliar e os característicos a medir ou analisar;

2. associam-se aos eixos do gráfico as medidas definidas para o característico da qualidade sob avaliação (eixo das ordenadas) e as amostras retiradas do processo, em ordem sequencial, cronologicamente obtidas (eixo das abscissas);

3. três pontos são críticos na montagem do gráfico – a média, que determina

a linha média do gráfico, e os limites de controle (superior e inferior);

4. o gráfico fica, então, dividido em duas zonas – Zona 1 (interior aos limites

de controle) corresponde à faixa de normalidade ou de controle; Zona 2 (exterior aos limites de controle) corresponde à faixa de anormalidade ou falta de controle;

25

5. a tendência da população é mostrada por uma linha central; as curvas determinam a evolução histórica do seu comportamento e a tendência futura;

6. ao longo do gráfico é mostrada a situação do processo em cada uma de suas fases, bem como sua tendência central. A curva mostrará a variabilidade em torno do valor central, que é, em geral, a própria média do processo.

É necessário selecionar o modelo estatístico adequado para cada caso.

Assim, adota-se uma distribuição de frequências para cada modelo de avaliação. Confrontando-se a distribuição em questão com a natureza do processo, são definidos critérios que atestarão (ou não) se o processo está sob controle.

O elemento de maior importância nesta análise é a tendência do processo.

Este estudo informa se o processo tende a permanecer sob controle ou se pode sair dele.

Considerando as diferentes naturezas dos modelos de controle, é necessário separar os gráficos de controle que descrevem a avaliação da qualidade por atributos daqueles que mostram avaliações feitas por variáveis.

O modelo de avaliação por variáveis é utilizado para situações onde os característicos da qualidade são diretamente mensuráveis. É o caso da análise de temperaturas, pressão, volumes, diâmetros, pesos, alturas, pH, etc. Trata-se de uma análise quantitativa de possíveis desvios que determinadas medidas apresentam (até para verificar se estes desvios são, na verdade, defeitos).

Já o modelo de avaliação por atributos é utilizado para situações onde os característicos da qualidade não são medidos, mas, apenas, rotulados. É o caso da análise da presença de quebras, de manchas ou de trincas em peças, do uso de calibradores tipo passa ou não passa, de testes simples (como em lâmpadas, onde se analisa se a peça acende ou não), etc. Trata-se de uma análise qualitativa de possíveis desvios que determinados componentes de um produto (ou característicos destes componentes) apresentam (até para verificar se estes desvios são, na verdade, defeitos).

Os gráficos mais comuns para cada caso são os seguintes:

26

variáveis – (1) Gráfico da tendência central (o mais usual é o Gráfico da Média [x] ); (2) Gráfico de controle da dispersão (os mais usuais são o do Desvio-padrão [s] e o da Amplitude [R] );

atributos – (1) Gráficos para o controle de peças defeituosas, podem ser os gráficos da fração defeituosa [p] ou o gráfico do número de defeituosas [p]; (2) Gráficos para o controle de defeitos por unidade (os mais comuns são os gráficos de defeitos por unidade [u], o da média de defeitos [u] e o de defeitos por amostras [c]).

As ferramentas básicas do CEP deram origem aos mais diversos desenvolvimentos teóricos e práticos na área da Avaliação da Qualidade e, mais especificamente, no Controle Estatístico da Qualidade. Alguns exemplos:

muitas ferramentas estatísticas, por exemplo, só são acionadas quando o processo já se encontra sob controle (BISGAARD, 2008 apud PALADINI, 2012). Por isso, o CEP funciona como uma espécie de pré-requisito para estas análises;

outras técnicas partem de resultados do CEP, ainda que o processo não esteja em plena operação (BROWNE, 2010 apud PALADINI, 2012);

há mecanismos que sofisticam gráficos básicos para atender determinadas exigências do processo (CAPIZZl; MASAROTTO, 2010 apud PALADINI,

2012);

há ainda procedimentos que unem indicadores do CEP com outras áreas do Controle Estatístico da Qualidade (ITAY et al., 2009 apud PALADINI, 2012);

a preocupação em melhorar o uso do CEP tem incentivado o contínuo desenvolvimento de métodos próprios para a aplicação dos gráficos (VINNING, 2009). Mas o que se observa com mais frequência é o uso dos instrumentos do CEP em situações específicas, quer por novos aportes teóricos quer por aplicações variadas (SANIGA et al., 2009; ZHANG et al., 2010 apud PALADINI, 2012).

27

Vamos

processos.

aprofundar

o

CEP

quando

falarmos

de

Gráfico de controle

diretrizes,

rotinas

e

falarmos de Gráfico de controle diretrizes, rotinas e 3.5 Folha de checagem São dispositivos utilizados para

3.5 Folha de checagem

São dispositivos utilizados para o registro de dados. As folhas são estruturadas conforme necessidades específicas de seus usuários e, por isso, apresentam extrema flexibilidade de elaboração, utilização e interpretação. Essas folhas não devem ser confundidas com checklists (listagens de itens a verificar). Um boletim escolar é um exemplo simples do seu uso, assim como a maioria dos formulários normalmente utilizados no nosso dia-a-dia.

As folhas de checagem constituem uma das mais simples e eficientes ferramentas que se conhece para analisar o desenvolvimento de atividades ao longo de um processo.

As folhas de checagem são dispositivos práticos utilizados para registrar dados de atividades em andamento ou que estão sob análise. Esta ferramenta não

28

possui um esquema específico, e as folhas acabam sendo estruturadas conforme as necessidades, as conveniências ou mesmo as preferências de cada usuário. Esta capacidade de aplicação determina que esta seja uma ferramenta de enorme flexibilidade na sua estruturação, utilização ou interpretação. Por isso se afirma que não existe um modelo geral para as folhas de checagem – elas dependem de cada aplicação feita.

De forma geral, as folhas de checagem são representações gráficas que avaliam atividades planejadas, em andamento ou em vias de ser executadas. Sua utilidade é tanto maior quanto mais organizados forem os dados que suportam. Como mostra o desenvolvimento de ações, é necessário atentar para o processo de coleta de dados, garantindo-se segurança e precisão nas contagens feitas. Este cuidado é o único requerido, já que a folha é muito simples em seus mecanismos de elaboração e de interpretação (CARVALHO, 2012).

O roteiro de construção envolve passos elementares:

1. seleção do processo;

2. definição das ações sob análise;

3. avaliação das variáveis a estudar (em geral, contagem de valores associados a essas variáveis);

4. construção do modelo visual;

5. interpretação da ferramenta.

O modelo visual que a folha determina permite rápida percepção de como o processo se desenvolve e imediata interpretação da situação atual em que ele se encontra.

Os dois exemplos mostrados na tabela a seguir foram desenvolvidos sob forma de tabelas. O primeiro descreve o controle de atividades a executar; o segundo, lista ocorrências ao longo do desenvolvimento de um processo.

29

Check lists

29 Check lists Fonte: Carvalho (2012, p. 374) Folha de checagem Site : www.ucamprominas.com.br e-mail :

Fonte: Carvalho (2012, p. 374)

Folha de checagem

30

30 3.6 Gráfico de Pareto São gráficos utilizados para classificar causas que atuam em um dado

3.6 Gráfico de Pareto

São gráficos utilizados para classificar causas que atuam em um dado processo de acordo com seu grau de importância.

Utiliza-se aqui uma analogia com os princípios de Economia fixados por Vilfredo Pareto, no século passado, segundo os quais apenas uma pequena parcela de pessoas detinha a maior parte da renda.

O mesmo princípio foi utilizado na década de 1950 para mostrar que os principais efeitos (problemas) são derivados de um pequeno número de causas. Essa ferramenta permite determinar as prioridades a serem atacadas. Os gráficos podem ser construídos levando-se em conta a frequência do problema ou o custo causado por ela. Isso porque nem sempre o problema mais frequente é o de maior custo.

Apesar de ter nascido em Paris, em 1848, Vilfredo Pareto (falecido em 1923) é considerado um político, sociólogo e economista italiano por conta do país onde viveu quase toda sua existência. Em 1897, Pareto desenvolveu um estudo sobre a distribuição de renda no seu país. Por meio deste estudo, ele percebeu que a distribuição de riqueza não se dava de maneira equitativa, mas, bem ao contrário, 80% de toda a riqueza nacional estavam concentradas nas mãos de uma pequena parcela da população (20%). Esta distribuição inadequada foi expressa em um

31

gráfico, que leva o seu nome e que, mais tarde, viria a transformar-se em uma das mais conhecidas ferramentas da qualidade (CARVALHO, 2012).

De fato, os gráficos de Pareto, por similaridade ao modelo original, podem ser utilizados, por exemplo, para classificar causas que atuam em um processo com maior ou menor intensidade, ou, ainda, com diferentes níveis de importância. Assim, por analogia, pode-se mostrar, por exemplo, que os principais defeitos e problemas nas operações do processo produtivo podem ser derivados de um pequeno número de causas.

O modelo Pareto (que, na verdade, era de Economia – a maior parte da renda está concentrada em poucas pessoas) foi traduzido para a área da Qualidade sob a forma “alguns elementos são vitais; muitos, apenas triviais” (JURAN; GRYNA

1991).

Este princípio pode ser expresso em variadas formas:

alguns consumidores concentram a maior parte da demanda;

algumas causas geram a maior parte dos defeitos;

alguns defeitos são responsáveis pela maioria das reclamações;

alguns equipamentos determinam a maioria das quebras e paradas;

algumas operações envolvem a maior parte das falhas;

alguns

funcionários

melhoria;

respondem

pela

grande

maioria

das

sugestões

de

alguns produtos determinam a maioria das receitas;

alguns materiais são responsáveis pela maior parcela dos custos.

Na verdade, o que o diagrama de Pareto sugere é que existem elementos críticos e a eles deve-se conferir prioridade de análise. Pode-se, assim, empregar um modelo gráfico que classifica tais elementos em ordem crescente de importância, a partir da esquerda. Os elementos sob estudo (apresentados na linha horizontal) são associados a uma escala de valor (que aparece na vertical), constituída de

32

medidas em unidades financeiras, frequências de ocorrência, percentuais, número de itens, etc. Enquanto nos histogramas a linha horizontal refere-se a medidas, intervalos ou números, no diagrama de Pareto esta linha mostra categorias, classes ou grupos de elementos.

O diagrama de Pareto também guarda relação com outro gráfico muito usado em Engenharia de Produção: a Curva ABC. Há, mesmo, quem diga que a Curva ABC é uma aplicação do diagrama de Pareto para a análise de materiais em estoque, por exemplo.

De fato, pode-se traçar uma curva unindo os extremos dos retângulos que mostram os valores associados a cada grupo de elementos. A curva resultante, associada a valores percentuais, mostra os resultados acumulados.

e destacam os

elementos mais críticos. A interpretação dos resultados é imediata graças ao impacto visual do diagrama.

As

categorias

mais à

direita do diagrama

identificam

Conforme já mencionado, a força visual é uma característica comum à maioria das ferramentas da qualidade.

Um roteiro para construir o diagrama de Pareto:

1. parte-se de algum processo de classificação das informações disponíveis

– por defeito detectado, problema encontrado, causa, tipo de falhas ou perdas,

efeitos observados, etc.;

2. a seguir, uma escala de medidas é associada os elementos (unidades

financeiras ou percentuais, por exemplo);

3.

fixa-se um determinado período de tempo para o horizonte de análise;

4.

coletam-se os dados no período em questão;

5.

as informações são classificadas segundo os elementos selecionados;

6.

as informações são postas no diagrama em ordem crescente a partir da

esquerda.

33

Um exemplo simples – um novo modelo de carro foi lançado no mercado. 250 consumidores que adquiriram o carro retomaram à concessionária em até 15 dias após a compra. Foram constatados 320 defeitos. Os mais relevantes foram:

travamento indevido de uma das portas (05 relatos); defeitos em algum farol ou sinaleira (56 relatos); funcionamento irregular de um acessório no painel (45 relatos); barulhos inesperados nas rodas (35 relatos); defeitos nos limpadores do para-brisa (20 relatos) e também 20 relatos de travamento de rodas. 15 outros defeitos menores foram registrados. Duas análises foram feitas. Inicialmente, a incidência dos defeitos, como relatado acima. A seguir, os custos de correção dos problemas. Montou-se, então a tabela abaixo.

Relato de custos e defeitos

então a tabela abaixo. Relato de custos e defeitos abaixo descreve a curva de Pareto para

abaixo

descreve a curva de Pareto para cada caso, evidenciando os itens mais críticos a corrigir.

A

figura

Gráfico de Pareto

34

34 Quando estes elementos críticos tiverem desaparecido, novos diagramas de Pareto podem ser traçados, para as

Quando estes elementos críticos tiverem desaparecido, novos diagramas de Pareto podem ser traçados, para as novas situações que surgirem e for a hora de concentrar atenção, por exemplo, nas 14 causas restantes. O diagrama, assim, pode ser usado indefinidamente, possibilitando a introdução de um processo de melhoria contínua na fabricante de veículos.

Note-se, pelo diagrama, que os custos e a incidência de cada defeito são variáveis que adotam comportamentos diversos. E, por isso, o modelo de gestão precisará adotar, também, ações diferentes para cada caso, priorizando de forma diferente cada defeito.

Por fim, poderia ser traçado um terceiro e mais importante diagrama de Pareto – o que determina o impacto do defeito sobre a segurança do veículo. Este diagrama definiria prioridades de ação com maior precisão.

O Diagrama de dependência é uma ferramenta que estrutura o fluxo lógico de desenvolvimento de determinadas atividades. Em última análise, este fluxo cria

35

um conjunto de relações entre causas e efeitos. Na sua forma operacional mais simples, o diagrama de dependência estabelece quais os elementos que dependem de determinada atividade e os que estão a ela, de alguma forma, relacionados.

UNIDADE 4 – BRAINSTORMING, OBSERVAÇÃO INSTANTÂNEA, 5W2H

4.1 Brainstorming

36

Esta é uma palavra inglesa que significa “tempestade de ideias”. Seu objetivo é gerar ideias novas e criativas e funciona da maneira explicada a seguir:

Reunidas num mesmo ambiente e dispostas em círculo, as pessoas, uma de cada vez, começam a expressar suas ideias sobre um assunto predeterminado. Quanto mais ideias, melhor; neste caso, quantidade é qualidade.

As ideias não devem sofrer censura, nem autocensura. É proibido dizer não. Deve-se falar a primeira ideia que vem à cabeça. No primeiro momento, não devemos questionar se uma ideia é ou não exequível, nem devemos ter medo de parecermos ridículos. Pegar carona, isto é, desenvolver uma ideia já apresentada, também é válido. Para que não se perca o que foi dito, é necessário que alguém esteja anotando tudo.

Só depois de completadas duas rodadas, sem que ninguém apresente nada de novo é que se encerra o brainstorming propriamente dito.

A seguir, vem o processo de filtragem das ideias, que engloba: numerar as ideias; descartar as repetidas e as inexequíveis; juntar, combinar e completar as ideias (se possível); organizar as ideias consideradas válidas.

Para Manganote (2001) existem três tipos de brainstorming:

brainstorming estruturado – é realizado por rodada. Cada integrante deve dar uma ideia a cada rodada (sentido horário). Se um integrante não tiver nada a sugerir quando for a sua vez, ele responde “passo” e aguarda a próxima rodada. O brainstorming termina quando nenhum dos integrantes tiver mais ideias e todos passam a vez em uma rodada.

Suas vantagens são: propicia a todos os integrantes a oportunidade igual de falar; envolvimento de todo o time, mesmo os que são tímidos; evita que algum integrante do time domine a discussão.

Suas desvantagens são: enquanto os integrantes aguardam a sua vez, pode-se desenvolver um clima de ansiedade o que facilita o esquecimento de algumas ideias;

37

brainstorming não estruturado – é realizada em livre direção. Os integrantes do time simplesmente dão as ideias conforme elas surgem na mente. O brainstorming termina quando nenhum dos integrantes tiver mais ideias e todos concordam em parar.

Suas vantagens são: é a forma mais espontânea; facilita a proliferação de ideias; dificulta o esquecimento de ideias; favorece rápida combinação de ideias.

Suas desvantagens são: favorece a inibição dos integrantes mais tímidos; facilita o domínio da sessão por alguns integrantes; pode-se criar certa confusão se todos falarem ao mesmo tempo;

brainstorming fechado ou brainswriting – é realizada de forma organizada, onde cada integrante do time deve escrever três ideias em uma folha e passar para o seu colega da esquerda para acrescentar mais três ideias diferentes. Os papéis são passados a seguir, no mesmo sentido de rotação, repetindo o processo até que a mesma folha tenha passado cinco vezes pelo mesmo integrante.

O

brainstorming

termina

após

ter

passado

cinco

vezes

pelo

integrante ou quando esgotar a lista de ideias

mesmo

Suas vantagens são: facilita o controle da técnica em times novos; facilita a comunicação de integrantes mais tímidos; inibe qualquer crítica antecipada.

4.2 Observação instantânea

Esta técnica foi criada em 1934 por um inglês chamado L. H. C. Tippett para medir o tempo de espera de máquinas e trabalhadores na indústria têxtil. Trata-se de um método estatístico por sondagem, ou seja, por observações descontínuas, rápidas, tomadas ao acaso e com intervalos de tempo irregulares.

A observação instantânea é um meio de análise e diagnóstico que trabalha sob forma de percentagem, sobre como o tempo foi gasto durante o período de observação. Por se tratar de um cálculo estatístico, é fundamental determinar o nível de confiança e o erro relativo com o qual se deseja trabalhar.

38

Normalmente, usa-se um grau de confiança de 95% e erro relativo de +/- 5%.

O resultado dessa ferramenta, normalmente, é dado sob as formas de histograma ou de um gráfico do tipo “pizza” (onde cada pedaço corresponde a uma percentagem do total das observações).

4.3 5W2H

Este método surgiu para facilitar a identificação das variáveis de um processo, suas causas e o objetivo a ser alcançado, garantindo que todos os ângulos sejam abordados. O nome vem da língua inglesa, onde as letras W e H são as iniciais das interrogativas “what, who, where, when, why, how e how much” (em português: que, quem, onde, quando, por que, como e quanto). O 5W2H é um excelente checklist nos processos complexos e pouco definidos.

Perguntando dessa maneira, devemos exaurir o tema em questão.

A ferramenta 5W2H

Why

Por que o projeto ou tarefa escolhida deve ser realizada? (justificativa)

What

O que será feito? (etapas)

How

Como deverá ser realizada cada etapa? (método)

Where

Onde cada tarefa será executada? (local)

When

Quando cada uma das tarefas deverá ser executada? (tempo)

Who

Quem realizará as tarefas? (responsabilidade)

How much

Quanto custará cada etapa do projeto? (custo)

Fonte: SCHIESARI; MALIK (2006, p. 132)

UNIDADE 5 – MAPEAMENTO DE PROCESSO

O mapeamento de processos é uma ferramenta gerencial que estuda as atividades e analisa os processos permitindo a redução de custos no desenvolvimento de produtos ou serviços e das falhas de integração entre sistemas. Além disso, é uma excelente ferramenta para o melhor entendimento dos processos

39

atuais, eliminação ou simplificação dos que necessitam de mudanças e a melhoria dos serviços, pois permite que as pessoas envolvidas reflitam de maneira sistemática e estruturada sobre as práticas do dia-a-dia (HUNT, 1996 apud MARETH, ALVES, BORBA, 2009).

Em uma definição mais simples, processo seria um conjunto de recursos e atividades inter-relacionadas, que transformam no tempo, insumos em produtos ou serviços ou, uma série de etapas com valor agregado que converte uma entrada (fornecida por um fornecedor) em uma saída (fornecida a um cliente).

Um processo, para Davenport (1994 apud MARETH, ALVES, BORBA, 2009), é uma ordenação específica das atividades de trabalho no tempo e no espaço, com um começo, um fim, inputs e outputs claramente identificados, enfim, uma estrutura para ação.

Já Harrington (1993 apud MARETH, ALVES, BORBA, 2009) o define como sendo um grupo de tarefas interligadas logicamente, que utilizam os recursos da organização para gerar os resultados definidos, de forma a apoiar os seus objetivos.

Os processos mostram como se agrega valor na organização; como o trabalho é feito e como acontece o fluxo de informação e materiais. Podem ser voltados para clientes, para área administrativa ou de gerenciamento.

Para se chegar a um novo processo, o primeiro passo é definir a equipe de melhorias e a proposta. Na sequência, desenvolve-se a visão estratégica do processo, analisa-se o processo atual, remodela-se o processo ideal e, por fim, implanta-se o novo processo que deve passar por melhorias constantes.

Processos redesenhados proporcionam melhorias radicais desde redução de custos, melhoria da qualidade (alinhamento das atividades internas, padronização e documentação das atividades, facilidade no entendimento de todos a respeito do funcionamento da organização) e aumento da velocidade (implantação de estruturas ágeis para responder com rapidez às mudanças).

Conforme Rummler; Brache (1994) “Não melhorar o desempenho do processo implica não melhorar o desempenho da organização. Não gerenciar os processos de maneira efetiva significa não gerenciar efetivamente os negócios”.

40

UNIDADE 6 - 5’S, KAIZEN, KANBAN

6.1 Programa 5’s

Mais que um instrumento, este programa é uma filosofia de trabalho. O seu maior objetivo é desenvolver a criatividade e a cooperação visando a melhoria do

41

ambiente de trabalho. Muitos o consideram o primeiro passo na implantação de um sistema de Gestão de Qualidade. Em outras palavras, ele serve como uma preparação do terreno para que a Qualidade possa germinar. Através dos seus mandamentos, promove-se uma “faxina geral na casa” e cria-se um ambiente motivador.

O nome 5S vem das palavras japonesas Seiri, Seiton, Seisou, Seiketsu e Shitsuke. Como não existe uma tradução literal para o Português para cada uma delas, os autores brasileiros convencionaram chamar o S de “senso de”. Mesmo assim, há divergências na nomenclatura adotada por cada um deles.

1. Seiri = Senso de Utilização ou Descarte: os recursos disponíveis devem ser separados conforme a necessidade, a frequência de uso ou a adequação, procurando evitar os excessos, as perdas, os desperdícios e a má utilização. Tudo que não tiver utilidade presente ou futura deve ser descartado. Neste senso inclui-se também a correta utilização dos equipamentos visando aumentar a sua vida útil.

2. Seiton = Senso de Ordenação/Organização: ordenando-se os recursos disponíveis de forma sistêmica, através de um layout definido e um bom sistema de comunicação visual, consegue-se organizar melhor o ambiente de trabalho, tornando-o mais funcional e agradável.

3. Seisou = Senso de Limpeza: ao se manter em excelentes condições de limpeza o ambiente de trabalho e os equipamentos, contribui-se para o bem- estar e a segurança de todos, bem como para o aumento da produtividade. Este senso também pode ser encarado como um processo de Gestão Ambiental, já que prega a eliminação de fontes de poluição.

4. Seiketsu = Senso de Asseio ou Saúde: o objetivo deste senso é promover no ambiente de trabalho um estado favorável à saúde, num sentido amplo (físico, mental e emocional). Na prática, ele funciona eliminando-se as fontes de perigo, embelezando o local de trabalho e promovendo atividades para a integração e desenvolvimento social dos funcionários.

42

5. Shitsuke = Senso de Autodisciplina: este senso é um reforço dos quatro anteriores, pois só através da autodisciplina é possível manter e melhorar os outros S. Ele significa que as pessoas devem estar comprometidas com o rigoroso cumprimento de padrões técnicos, morais e éticos. Além da disciplina, ele engloba os fatores motivação e iniciativa.

6.2 Kaizen

Kaizen significa a busca da melhoria contínua, da qual reflete diretamente junto à produtividade e à qualidade sem gasto ou com o mínimo investimento.

De acordo com Ferreira; Reis e Pereira (2000), a Metodologia Kaizen é desenhada segundo as seguintes características:

as pessoas na organização desenvolvem suas atividades melhorando-as sempre, por meio de reduções de custos e alternativas de mudanças inovadoras;

o trabalho coletivo prevalece sobre o individual;

o ser humano é visto como um dos bens mais valiosos da organização e deve ser estimulado a direcionar seu trabalho para as metas compartilhadas da empresa, atendendo suas necessidades humanas;

satisfação e responsabilidade são valores coletivos.

O conceito de Kaizen desenvolvido por Imai (1994) engloba uma série de inovações da Gestão Japonesa: controle da qualidade total e gestão da qualidade total; just in time; kanban; zero defeito; círculos de qualidade; sistemas de sugestões; manutenção preventiva total; orientação para o consumidor; automação; disciplina no local de trabalho; atividades em grupos pequenos; relações cooperativas entre administração e mão de obra; melhoria da produtividade e desenvolvimento de novos produtos.

Ainda, de acordo com Imai (1994), existem dez mandamentos que devem ser seguidos na metodologia Kaizen, como seguem:

43

1. o desperdício deve ser eliminado;

2. melhorias graduais devem ser feitas continuamente;

3. todos os colaboradores devem estar envolvidos, sejam gestores do topo e intermediários, ou pessoal de base, o Kaizen não é elitista;

4. é baseado em uma estratégia barata, acreditando que um aumento de produtividade pode ser obtido sem investimentos significativos, não se aplicam somas astronômicas em tecnologias e consultores;

5. aplica-se em qualquer lugar e não somente dentro da cultura japonesa;

6. apoia-se em uma gestão visual, total transparência de procedimentos, processos e valores, tornando os problemas e os desperdícios visíveis aos olhos de todos;

7. focaliza a atenção no local onde se cria realmente valor, chão de fábrica;

8. orienta-se para os processos;

9. dá prioridade às pessoas, acredita que o esforço principal de melhoria deve vir de uma nova mentalidade e estilo de trabalho das pessoas (orientação pessoal para a qualidade, trabalho em equipe, cultivo da sabedoria, elevação do moral, autodisciplina, círculos de qualidade e prática de sugestões individuais ou de grupo);

10.o lema essencial da aprendizagem organizacional é: aprender fazendo.

Contudo, vale ressaltar que uma das principais discussões da metodologia Kaizen está relacionada com os processos de melhorias contínuas. Neste sentido, vale observar que o processo de melhoria contínua é um grande objetivo para as corporações industriais e organizações que desejam atingir uma posição sólida e reconhecida no mercado atual.

O processo de melhoria contínua traz algumas importantes vertentes que o torna efetivo e traduzem os caminhos da metodologia Kaizen:

a análise de valor;

a eliminação de desperdícios;

44

a padronização;

a racionalização da força de trabalho;

o sistema just in time, entre outros.

Tem-se que a partir do uso destas vertentes efetivamente se pode afirmar que a organização está buscando um processo de melhoria contínua.

Ainda, melhoria contínua significa o envolvimento de todas as pessoas da organização no sentido de buscar, de forma constante e sistemática, o aperfeiçoamento dos produtos e processos empresariais. A melhoria contínua pressupõe mudanças como hábito da organização e grandes mudanças com maior planejamento. Cabe salientar que quando a empresa evolui dentro de um processo de melhoria contínua, os ganhos associados às mudanças de origem tecnológicas, sejam gerencias ou operacionais, são mais rápidos e mais facilmente incorporados ao processo (MORAES; SILVA; TURRIONI, 2003).

Aliado ao processo de melhoria contínua tem-se o processo de mudança. Debates sobre a mudança são vistos como meios de se tirar o conforto organizacional, já que mudanças essencialmente afetam a vida das pessoas da organização. É por esta razão que as resistências e as barreiras às mudanças estão presentes na esfera organizacional. O ser humano, via de regra, preserva-se diante de qualquer situação estranha. A sua primeira reação é quanto à condição de permanecer exatamente como sempre esteve. Muitas pessoas de diversas empresas agem dessa forma, diante de qualquer possibilidade de mudança. Essa postura somente contribui negativamente para o desempenho da empresa (REBECHI, 2007).

Uma reflexão sobre o processo de mudança é levantada por Morgan (1996), quando afirma que a pessoa ou a organização pode influenciar em parte a mudança, mas este processo é sempre dependente dos padrões de conectividade recíproca que não podem ser previstos ou controlados, ou seja, a empresa e suas pessoas estão sendo arrastadas pela onda que as obrigam mudar para não morrer. Vale ressaltar que mesmo diante desta situação, muitas empresas ainda têm morrido.

45

A verdade é que a dimensão da mudança abrange um espaço muito valioso

na vida da empresa.

6.3 Kanban

Esta é uma das mais famosas ferramentas do sistema japonês de Gestão da Qualidade.

O Kanban é um modelo típico do sistema Just ln Time. Trata-se de uma

técnica para a programação e o controle da produção.

A essência do Kanban é o uso do apelo visual por meio de cartões que

sinalizam tipos, quantidades e, eventualmente, outras características das peças que deverão entrar ou estão em processo de produção, em movimentação ou em processos complementares de fabricação.

O Kanban também é usado para direcionar os fluxos físicos de materiais nas

fábricas.

O uso de cartões, neste caso, é inequívoco. Cada cartão está associado a

uma área de operação, um depósito ou uma fase do fluxo de produção. Este cartão é único. Assim, não há como produzir, transportar ou direcionar peças que estejam fora das especificações nele contidas. Deste modo, o que determina o fluxo de

peças são os níveis de demanda. A produção é por ela regulada. Como decorrência, os estoques são minimizados.

Note-se: o objetivo do Kanban não é zerar estoques; o fato decorre da sua aplicação (PALADINI, 2012).

A rigor, como quase todas as técnicas de produção da qualidade desenvolvidas no Japão, o Kanban é simples, priorizando sempre a eliminação de ações que comprometam a eficiência do processo. Por isso, também o roteiro de aplicação da ferramenta é simples.

Seleciona-se uma fase do processo produtivo e a operação que será controlada. A partir daí, são escolhidos os cartões mais adequados para as diversas

46

etapas do processo. Cores variadas e até tamanhos distintos favorecem a maior visualização dos cartões e, por isso, recomenda-se seu uso.

No seu roteiro de aplicação, cabem certas regras próprias da ferramenta. Entre elas se incluem:

o uso de containers e áreas de depósito padronizadas;

a reserva de áreas específicas para determinadas operações;

criação de áreas de suprimentos com características próprias (por exemplo, o “supermercado” de peças);

determinação de uma estrutura ordenada de produção;

clara identificação das demandas, a partir das quais o sistema é estruturado;

rigor, atenção e disciplina nas operações produtivas;

perfeita sintonia entre o que foi produzido e o que foi solicitado (tamanhos, quantidades, dados de projeto, enfim, atendimento ao que foi solicitado e na quantidade requerida).

A decorrência natural da aplicação deste roteiro é a completa reorganização do processo produtivo. E, por consequência, uma profunda reestruturação da empresa. Este fluxo de atividades começa pela necessidade de se ter clareza em termos do que produzir, onde produzir e como produzir. Ou seja, puxa-se a produção para frente, isto é, pelas fases seguintes do processo, a última das quais é o atendimento do consumidor externo.

Este direcionamento requer que cada operação especifique o que é necessário dispor a partir das operações anteriores para que ela, por sua vez, possa atender à operação seguinte. É necessário, assim, conhecer as suas necessidades de desempenho (operação em si) e suas condições de atendimento (ao cliente interno subsequente, até se chegar ao cliente externo). A ferramenta Kanban, assim, transforma-se no sistema Kanban.

Um modelo simples de Kanban é visto na figura abaixo. São três fases de um processo produtivo e do acompanhamento do abastecimento dos suprimentos de cada um.

47

Um modelo simples de kanban

47 Um modelo simples de kanban Fonte: Paladini (2012, p. 395). O uso intensivo do Kanban

Fonte: Paladini (2012, p. 395).

O uso intensivo do Kanban cria um novo sistema de operações, com ênfase

para a produtividade do processo. Segundo a experiência prática, as áreas nas quais os reflexos mais são observados são Gestão da Qualidade, Custos e Gestão Operacional da empresa.

O sistema gerado pelo conjunto de Kanbans cria operações organizadas,

com objetivos comuns a todas elas, com relações entre operações bem

caracterizadas.

E, como todo sistema, tem-se aqui clara definição das entradas, saídas e

dos mecanismos de realimentação.

Ainda que o sistema tenha maior complexidade, se observa que, enquanto ferramenta, o que se obtém com o Kanban é um conjunto de mecanismos interativos de controle de materiais de acordo com as necessidades e conveniências das mais diversas operações produtivas. Estes mecanismos ampliam-se para além do processo, envolvendo fornecedores e consumidores (duas áreas muito comuns de aplicação do Kanban, como se pode ver em qualquer loja da rede McDonalds).

A identificação do Kanban com a Gestão da Qualidade é muito clara.

Iniciada a utilização da técnica, há a necessidade de constante acompanhamento,

48

avaliação e monitoramento das atividades desenvolvidas. Este processo determina, naturalmente, melhorias que podem ser implantadas. Observa-se, assim, um conjunto de atividades evolutivas, próprias de estruturas que disponham de processos de realimentação, ou seja, de sistemas, e cujo desenvolvimento se guia por diretrizes da Gestão da Qualidade.

Os benefícios do Kanban são conhecidos e estão chancelados pela prática. Entre eles listam-se:

redução de atividades que não agregam valor, como a movimentação de materiais e a formação de estoques (sobretudo os de reposição, amortecimento ou intermediários);

eliminação de perdas, como as geradas por excessos de produção; ou pela realização de atividades não necessárias (pelo menos, agora);

novas políticas de gestão de materiais;

flexibilização das operações produtivas;

racionalização de atividades;

direcionamento do esforço produtivo para atendimento da demanda – inicialmente, em termos quantitativos, mas depois com metas de ajuste dos produtos às exigências do consumidor.

A experiência prática tem apontado algumas restrições ao uso do Kanban,

por conta de algumas de suas exigências. Em geral, estas restrições são operacionais e incluem a necessidade de reorganizar o processo produtivo, sobretudo em termos de layout e desenvolvimento das operações; o imperativo de alterar práticas como o uso de quaisquer contêineres (só se usam embalagens padronizadas) e mudanças nos equipamentos para reduzir tempos de set-up, por exemplo.

A mudança de cultura (sobretudo para eliminar hábitos como o de produzir

em excesso por “precaução” ou de exagerar no uso de certos materiais, por “segurança”) é apontada como a maior dificuldade para implantar operações baseadas em Kanbans ou com o uso deles. Isto leva tempo, mas os resultados são

49

compensadores e, sobretudo, consistentes. Além disso, deve-se observar que se trata de uma estratégia que envolve a mão de obra e, por isso, é motivadora, até por valorizar a boa estruturação das operações (PALADINI, 2012).

UNIDADE 7 – PDCA

A implantação das ferramentas da Gestão da Qualidade costuma utilizar-se de um método geral, que talvez possa ser chamado de “lógica de operação”. Este método envolve roteiros já estabelecidos, que, por sua vez, contemplam etapas definidas, que são implementadas de acordo com um planejamento bem

50

estruturado. O método mais usual que pode ser aqui aplicado é denominado ciclo PDCA. Dada sua abrangência e alcance, este procedimento define, com bastante precisão, a lógica de operação das ferramentas da Gestão da Qualidade.

Em sua essência, o ciclo PDCA é um processo que visa à melhoria. Seu uso mais comum refere-se ao ambiente in-line (processos produtivos), o que não exclui sua utilização em outros contextos. Cada letra da sigla evidencia uma etapa do método:

1. planejamento (P - plan) – refere-se ao planejamento detalhado da ação

que se pretende implantar. Esta ação é guiada por objetivos bem definidos. Muitas vezes, no desenvolvimento de uma ferramenta, estes objetivos são fixados sob forma de padrões que se pretende atingir. De todo modo, o planejamento aqui se guia por objetivos quantificados (o que garante sua plena definição e gera meios para a avaliação de seu alcance, a ser feita posteriormente);

2. execução (D - do) – nesta fase, o planejamento passa a ser implantado

efetivamente. No caso do uso de ferramentas, é comum que se trate de uma execução experimental, em escala reduzida, limitada a partes selecionadas do processo. Esta delimitação permite acompanhar melhor o que ocorre com as ações que vão sendo executadas e como os resultados vão sendo atingidos;

3. controle (C - check) – esta é a fase da avaliação. Aqui os efeitos da

implantação do plano são confrontados com os objetivos previstos inicialmente. Em outras palavras, trata-se da ação básica do controle – confrontar o planejado com o realizado. É a fase em que se avalia o alcance de resultados que deveriam estar associados às ações propostas. Esta fase evidencia o caráter quantitativo das ferramentas. Afinal, será fundamental definir que medidas serão utilizadas para determinar a confrontação entre objetivos estabelecidos e efeitos gerados pelas ações desenvolvidas.

4. ação (A - act) – nesta fase, as melhorias começam a se caracterizar. E, ao

mesmo tempo, estabelece-se o ciclo da melhoria contínua – os resultados alcançados são analisados com cuidado. Primeiro para consolidar a fase anterior (criteriosa avaliação do que foi obtido) e, a seguir, dando início a um ciclo positivo,

51

determinar o que pode ser ainda desenvolvido a partir do que já foi conseguido até aqui. Identifica-se, assim, o que ainda pode ser melhorado, dando início ao processo de melhoria contínua. Esta etapa, como se percebe, destina-se a garantir o aperfeiçoamento de forma sistemática, permanente e organizada.

Como seria de se esperar, o ciclo completa-se quando desta última etapa (ação) retorna-se ao planejamento. Esta lógica evidencia o esforço pela melhoria contínua.

O PDCA é também conhecido Ciclo de Shewhart, em função do que seria seu idealizador, o engenheiro americano Walter Andrew Shewhart (1891-1967) ou ciclo de Deming, menção ao também americano William Edwards Deming (1900- 1993), um dos mais ilustres nomes da história recente da Qualidade, que o teria introduzido no Japão nos anos 1950.

Em sua concepção inicial, o ciclo é, assim, composto por etapas de um processo recorrente de melhoria contínua. Observa-se, pela própria definição destas etapas, que sua aplicação não possui delimitação caracterizada.

O ciclo tem recebido variadas contribuições ao longo do tempo. Muitos autores, por exemplo, defendem o uso do ciclo PDCA em cada atividade e não no esquema global de implantação. Assim, cada atividade passa a ser um ciclo, conforme mostra a ilustração a seguir.

Ciclo PDCA

52

52 Há, ainda, outras contribuições em termos do ciclo PDCA, como a proposta por Juran (JURAN;

Há, ainda, outras contribuições em termos do ciclo PDCA, como a proposta por Juran (JURAN; GRYNA, 1991) em que as quatro etapas do ciclo PDCA são subdivididas, criando-se sete estágios que são:

1) determinação da característica da qualidade a ser analisada;

2) determinação da unidade de medida para avaliar a característica;

3) estabelecer um valor padrão para a característica em estudo;

4) criar um método de medição da característica em questão;

5) desenvolver as medições;

6) definir as divergências entre a característica e seu respectivo padrão, interpretando as diferenças observadas; e,

7) agir sobre as diferenças observadas.

Um detalhamento muito comum associa, à fase do planejamento, as atividades de definição de objetivos, metas ou padrões e a seleção dos métodos de ação. Já à segunda fase são associadas as atividades de formação de pessoal (educação, treinamento, qualificação, etc.); de execução das atividades em si

53

(agora, por pessoal devidamente formado para tal) e a coleta de dados e de outras informações relativas ao desenvolvimento das ações previstas. A terceira fase concentra-se no confronto entre as metas formuladas e os resultados obtidos e a fase final da primeira “rodagem” do ciclo investe em ações corretivas, preventivas e nas melhorias em si. Uma crítica usual a este detalhamento enfatiza que a última fase deveria gerar apenas melhorias, e não ações corretivas, por exemplo. Se tal ocorreu, afirma-se, é porque houve falhas nas etapas precedentes. Segundo Paladini (2012), a restrição levantada tem total fundamento.

Um “modelo geométrico” pode facilitar a compreensão de como o Ciclo PDCA impacta sobre o uso das ferramentas da Gestão da Qualidade. Observou-se que o ciclo PDCA deve ser analisado no âmbito da melhoria contínua. Isto pode ser constatado, inicialmente, pelo “fechamento” do ciclo – da fase final da ação de volta à etapa do planejamento. Sucessivas interações das etapas poderiam ser vistas como a formação de uma espiral, ao centro da qual se forma um eixo que avança na direção da melhoria permanente da qualidade e não apenas em termos de progressos ocasionais. Este processo é, essencialmente, recorrente. Em termos semânticos, trata-se de um processo que pode ser indefinidamente continuado, já que seus efeitos parciais vão, sucessivamente, transformando-se em causas de efeitos semelhantes.

Carvalho (2012) ressalta que este modelo enfatiza diversas características das ferramentas da qualidade, como é o caso, por exemplo, da chamada sequência coerente de ações ou da lógica de operação.

Vale guardar

Os ciclos de melhoria contínua são a força motriz de todos os modelos para qualidade, uma vez que sem o aprimoramento contínuo não é possível avançar em termos de qualidade (SCHIESARI; MALIK, 2006). Deming difundiu a ideia desse ciclo por meio do acrônimo PDCA (plan, do, check e act) tendo como a ideia básica trabalhar em torno de um problema ou situação que careça de melhoria, por meio da

54

utilização de um método simples e adequado à gestão cotidiana, conforme ilustração abaixo.

Ciclo PDCA

gestão cotidiana, conforme ilustração abaixo. Ciclo PDCA Fonte: Schiesari e Malik (2006) Na ilustração acima,

Fonte: Schiesari e Malik (2006)

Na ilustração acima, planejar corresponde a definir as metas e os métodos que permitirão atingi-la. Definidas as metas, é preciso identificar os problemas a elas relacionadas e as dificuldades existentes para cumpri-las. Observa-se inicialmente o problema, depois se procede a sua análise detalhada com o objetivo de identificar suas principais causas. Um plano de ação é então elaborado com o intuito de eliminar as causas do problema em discussão e assim aprimorar o processo, produto ou serviço (BRASSARD, 1996).

55

UNIDADE 8 – SEIS SIGMA

Seis Sigma é um sistema abrangente e flexível para alcançar, sustentar e maximizar o sucesso empresarial. Seis Sigma é singularmente impulsionado por uma estreita compreensão das necessidades dos clientes, pelo uso disciplinado dos fatos, dados e análise estatística e pela atenção diligente à gestão, melhoria e reinvenção dos processos do negócio (PANDE; NEUMAN; CAVANAGH, 2001).

Método 6 – Sigma para Melhorias

NEUMAN; CAVANAGH, 2001). Método 6 – Sigma para Melhorias Fonte: Blakeslee Jr. (1999 apud ANDRIETTA; MIGUEL,

Fonte: Blakeslee Jr. (1999 apud ANDRIETTA; MIGUEL, 2002).

Sigma é uma letra grega utilizada pela estatística para medir o desvio- padrão de uma população. Em qualidade, o sigma é uma medida de variabilidade usada para indicar quanto dos dados insere-se nos requisitos do cliente. Quanto maior o sigma do processo, melhores os produtos ou serviços ou menor o número de defeitos.

O Seis Sigma não é mais um modismo. Trata-se de uma ferramenta que auxilia os profissionais de negócios a entender e melhorar a competitividade dos seus processos, através do seu alinhamento com os requisitos do mercado, buscando a rentabilidade, através da redução de atividades que não agregam valor ao processo.

A metodologia utilizada na solução de problemas é o ciclo DMAIC:

D – Define (definir);

56

M – Measure (medir);

A – Analyse (analisar);

I – Improve (melhorar);

C – Control (controlar).

O objetivo da utilização desta sequência é para a realização de melhoria em

produtos, serviços ou processos. O DMAIC se assemelha ao PDCA, sendo considerado por alguns estudiosos como métodos análogos havendo apenas a mudança na nomenclatura.

Pande, Neuman e Cavanagh (2001) apontam três estratégias na filosofia Seis Sigma:

1ª estratégia de melhoria do processo – desenvolver soluções com a

finalidade de eliminar as causas-raiz dos problemas de desempenho de uma

empresa, sem interferir na estrutura básica do processo;

2ª Estratégia de projeto/reprojeto – substituir parte ou todo o processo por um novo;

Estratégia

de

gerenciamento

do

projeto

os

processos

são

documentados e gerenciados com medições em todas as suas etapas.

Para Aguiar (2002), um dos fatores que determinam o sucesso do Programa de Seis Sigma é a sua estrutura de implementação e de condução. Este planejamento contém basicamente quatro aspectos:

I – metodologia de solução de problemas e de desenvolvimento de novos produtos / serviços e/ou processos;

II – estrutura de responsabilidades e funções;

III – estrutura de treinamentos;

IV – política de pessoal.

A liderança precisa “comprar a ideia” do programa Seis Sigma e

desempenhar papel fundamental na condução do processo, acompanhamento dos

resultados e reconhecimento dos ganhos e lições obtidos do programa.

57

Aguiar (2002) acredita que o programa Seis Sigma promove uma mudança na cultura de uma empresa, pois, após a sua implementação, modifica o posicionamento da empresa em relação aos seus problemas e também na sua forma de identificá-los e tratá-los.

A política de pessoal deve ser formatada com foco no estabelecimento de uma nova cultura com base em produtividade, disseminação de conhecimento e oportunidades de crescimento com treinamento e reconhecimento para os funcionários.

Como exemplo temos a General Electric (GE). Com aproximadamente 6.000 projetos a GE obteve economias com a implantação do Seis Sigma de US$1,5 bilhão até 1999, melhorando a sua margem operacional de 14,8%, em 1996, para 18,9%, em 2000.

Apesar dos resultados divulgados de ganhos com o programa Seis Sigma seja de grandes empresas, a filosofia do programa é de melhoria continua, podendo ser aplicada em diversos tipos e tamanhos de negócios.

Para Elliott (2003), a preparação para a jornada Seis Sigma é tão difícil quanto se quer fazê-la. Deve-se começar apenas com um processo, então todo um departamento, e finalmente toda a operação. A maioria das empresas encontra dificuldades na implementação por causa da falta desta preparação e impaciência para iniciar a corrida.

O conceito de Seis Sigma foi introduzido e popularizado pela Motorola, seguida pela General Electric (GE) e por outras empresas de classe mundial. Rapidamente os programas Seis Sigma se difundiram, não só em ambientes de manufatura, mas também no setor de serviços.

Diferentemente de outros programas de qualidade, as empresas que utilizam o Seis Sigma divulgam cifras milionárias de ganhos obtidos com sua implementação. O sucesso dos programas Seis Sigma não pode ser explicado apenas pela utilização exaustiva de ferramentas estatísticas, mas também pela harmoniosa integração do gerenciamento por processo e por diretrizes, mantendo o foco nos clientes, nos processos críticos e no resultados da empresa.

58

Um dos idealizadores deste programa, Michel Harry, define o Seis Sigma como uma estratégia que não deve estar encapsulada na área de qualidade, devendo espalhar seus tentáculos por toda a organização, da manufatura e engenharia à área de serviço.

8.1 Perspectiva estratégica do Seis Sigma

O programa Seis Sigma promove um alinhamento da área de qualidade com as estratégias de negócio da organização. Esse desdobramento é feito por meio de uma estrutura hierárquica que alinha as estratégias e objetivos de negócio com o portfólio de programa e projetos, os quais estão na base da pirâmide, conforme ilustra a figura abaixo.

Alinhamento estratégico dos projetos Seis Sigma

abaixo. Alinhamento estratégico dos projetos Seis Sigma Fonte: Carvalho e Rotondaro (2012, p. 131). Uma questão

Fonte: Carvalho e Rotondaro (2012, p. 131).

Uma questão central nos programas Seis Sigma é a definição dos projetos que receberão aporte de recursos da organização. O processo de seleção deve assegurar a alocação ideal dos recursos em projetos prioritários, alinhados à estratégia da empresa, com impacto não só na melhoria da eficiência, mas,

59

sobretudo,

na

eficácia

da

empresa,

garantindo-lhe

a

obtenção

de

vantagem

competitiva.

A organização deve, portanto, analisar os projetos Seis Sigma sob alguns

critérios individuais e alguns critérios gerais de formação da carteira ou portfólio. A

gestão da carteira de projetos é fundamental para garantir o balanceamento segundo as principais dimensões estratégicas. Por outro lado, a adoção de critérios individuais para a análise dos projetos permite garantir a viabilidade técnica e financeira do projeto, que os habilita a ingressar na carteira.

Nessa direção, a gestão de portfólio é um processo dinâmico, que administra uma lista de projetos ativos, a qual deve ser constantemente atualizada e revisada. Neste processo, os projetos novos são avaliados, selecionados, e priorizados; os projetos existentes podem ser acelerados, abortados ou despriorizados. Além disto, os projetos competem por recursos escassos (pessoal, recursos financeiros, tempo), que são alocados e realocados aos projetos ativos periodicamente, para não exceder os recursos disponíveis ou violar outras restrições.

Outro aspecto da gestão do portfólio de projetos é obter o balanceamento em vários aspectos tais como: balanceamento dos recursos disponíveis entre os vários projetos – candidatos e correntes; balanceamento entre projetos em diferentes fases do ciclo DMAIC; balanceamento entre o risco e a recompensa; e balanceamento entre o longo prazo e o curto prazo (CARVALHO; ROTONDARO,

2012).

Existem diversas técnicas para a gestão de portfólio, das quais uma das mais utilizadas é o diagrama de bolhas, conforme ilustra o “case” abaixo.

Uma grande empresa do setor financeiro implementou o programa Seis Sigma, em 1998. No início eram poucos os projetos conduzidos e a empresa não tinha sentido necessidade de estruturar a carteira de projetos Seis Sigma. Contudo, no início de 2004, a empresa possuía mais de 41 projetos em andamento nas diversas áreas funcionais.

O diretor de qualidade decidiu então aplicar a técnica de diagrama de bolhas

em uma das unidades, com 19 projetos ativos em diferentes fases do ciclo DMAIC.

60

O diagrama de bolhas adotado possuía o ganho financeiro estimado do projeto Seis Sigma no eixo X (horizontal), enquanto os valores de prioridade estratégica eram lançados no eixo Y (vertical). O diâmetro da bolha representa o montante de recursos alocados ao projeto. A Figura abaixo apresenta o diagrama de bolhas dos projetos da área de TI desta organização.

de bolhas dos projetos da área de TI desta organização. Os valores de prioridade estratégica foram

Os valores de prioridade estratégica foram atribuídos pelos diretores da organização em uma escala de 0 a 5.

Observa-se que na figura existem quatro classificações dos projetos Seis Sigma, quais sejam: I - Projetos Prioritários; II - Projetos Estratégicos, III – Projetos Lucrativos; e, IV - Projetos Sujeitos a Desativação.

Os estímulos para o início de um projeto podem ser tanto oportunidades de mercado como exigências do negócio, geralmente deflagradas por uma das seguintes situações:

uma demanda de mercado;

uma necessidade do negócio;

um pedido (uma exigência) de cliente;

61

um avanço tecnológico;

uma exigência legal;

o que é crítico para o mercado?

quais são os processos críticos?

Com o intuito de diferenciar as características críticas para a qualidade oriundas das demandas do mercado, portanto externas, daquelas que vêm de uma análise dos processos críticos da empresa (internas), pode-se utilizar a seguinte convenção: características críticas para a qualidade externa (CTQex) e interna (CTQin).

Uma vez que a empresa conhece o que é crítico para a qualidade, deve promover projetos Seis Sigma para garantir que seu desempenho nesses quesitos seja classe mundial, reduzindo sistematicamente a variabilidade desses processos.

É importante destacar que esse processo de seleção dos projetos Seis Sigma é permanente e que um tema específico dentro da organização (CTQex ou CTQin) pode vir a ser alvo de projeto mais de uma vez. As informações históricas devem ser consideradas sempre que estiverem disponíveis, tornando importante a manutenção de banco de dados que contenha os resultados dos projetos Seis Sigma já realizados e do monitoramento do desempenho das CTQex e CTQin ao longo do tempo.

O mapeamento dos processos críticos e, por conseguinte, das CTQin é uma demanda da nova versão da ISO 9000 que vigora desde 2000, portanto, as empresas certificadas já incorporaram o gerenciamento por processos à Gestão da Qualidade.

Os critérios de seleção do projeto podem contemplar uma vasta gama de possíveis metas das organizações, tais como: retorno financeiro, fatia de mercado, percepções públicas, etc.

Não obstante, nem sempre é possível conduzir vários projetos Seis Sigma simultaneamente para todas as CTQ, pois em geral existem limitações de recursos.

62

Deve-se, portanto, estabelecer alguns crivos para a seleção dos projetos, seguindo estas etapas:

identificar as CTQ internas e externas;

identificar lacunas de desempenho (gaps);

determinar se o escopo e a amplitude do projeto são gerenciáveis;

determinar a viabilidade do projeto.

A tabela abaixo mostra quais são as questões críticas para reflexão em cada uma dessas etapas, de forma a selecionar o alvo dos projetos Seis Sigma.

Tópicos para seleção de projetos

 

Etapas

   

Questões

 

Identificar

as

CTQs

internas

e

Quais são os critérios ganhadores de pedido?

 

externas

A análise dos critérios competitivos está focada nos clientes preferenciais?

Os processos críticos da organização foram mapeados?

 

As CTQs têm um defeito identificável, sendo possível mensurar o impacto do projeto?

Identificar

lacunas

de

Existe risco de perda de competitividade com os atuais níveis

desempenho (gaps)

 

de

desempenho?

 

O desempenho atual apresenta uma lacuna significativa (gap) em relação aos concorrentes?

Nosso desempenho é pior que o dos nossos concorrentes nas CTQs?

Determinar

se

o

escopo

e

a

O

projeto tem apoio e recursos adequados proporcionados

amplitude

do

projeto

são

pelas partes interessadas (stakeholders)?

 

gerenciáveis

 

Os recursos disponíveis são suficientes para concluir com sucesso o projeto?

 

Qual o horizonte de tempo necessário para a conclusão do projeto?

Existem muitas áreas envolvidas no projeto?

 

Os “donos” dos processos envolvidos participam do projeto?

 

Existe

duplicidade

ou

conflito

com

outros

projetos

da

organização?

 

Determinar

a

viabilidade

do

Qual o risco do projeto não obter a melhoria de desempenho

Qual o risco do projeto não obter a melhoria de desempenho Site : www.ucamprominas.com.br e-mail :
Qual o risco do projeto não obter a melhoria de desempenho Site : www.ucamprominas.com.br e-mail :

Site: www.ucamprominas.com.br e-mail: ouvidoria@institutoprominas.com.br ou diretoria@institutoprominas.com.br Telefone: (0xx31) 3865-1400 Horários de Atendimento: manhã - 08:00 as 12:00 horas / tarde - 13:12 as 18:00 horas

63

projeto

planejada (viabilidade técnica)?

 

Os benefícios obtidos com o projeto são maiores que os custos (viabilidade econômica)?

Existem

recursos

suficientes

para

financiar

o

projeto

(viabilidade financeira)?

 

Em algumas organizações, um projeto Seis Sigma só é formalmente iniciado depois da conclusão de um estudo de viabilidade, embora nem sempre seja obrigatório. Em outros casos, uma avaliação especializada pode ser requerida, utilizando outras unidades dentro da organização.

Uma vez selecionado o projeto Seis Sigma, é importante que toda a equipe conheça as restrições a que o projeto está sujeito, pois elas limitarão as opções da equipe com relação a escopo, pessoal e prazos. Em algumas empresas, como a GE, o projeto Seis Sigma é desenvolvido sob “contrato interno” (project chart) que explicita todas essas informações.

Este “contrato interno” é de fundamental importância para o bom gerenciamento de tempo, custo e escopo, garantindo o uso eficiente dos recursos disponíveis e mantendo monitoramento dos marcos importantes do projeto para controlar os possíveis desvios de rota (escopo). Portanto, os projetos Seis Sigma são avaliados não só quanto aos resultados “técnicos” obtidos, mas também quanto ao gerenciamento do tempo, do custo da utilização dos recursos alocados para o projeto, critérios estes relacionados à gestão do projeto propriamente dita (CARVALHO; ROTONDARO, 2012).

Vale guardar

Carvalho (2012) confirma que o programa Seis Sigma traz vários elementos de diversas eras da qualidade. Um dos elementos mais marcantes deste programa é a adoção estruturada do pensamento estatístico. O uso intensivo de ferramentas estatísticas e a sistemática análise da variabilidade são as marcas registradas deste programa, que lhe conferiu o nome Seis Sigma, significando, em linguagem

64

estatística, seis desvios padrão. É uma métrica de capacidade que implica um processo praticamente isento de erros, ou seja, com 3,4 defeitos por milhão de oportunidades.

No mercado globalizado, parece haver uma correlação da competitividade com os níveis de defeito praticados pelas organizações. Dessa forma, as empresas líderes de mercado ganham competitividade ao reduzir suas taxas de defeitos drasticamente recorrendo ao modelo Seis Sigma.

Contudo, não é somente o pensamento estatístico e a redução da variabilidade que caracterizam este programa. O programa Seis Sigma promove um alinhamento estratégico, utilizando indicadores de desempenho alinhados aos resultados da organização e prioridades estratégicas como alvos dos projetos de melhoria.

Em síntese, o modelo de Gestão da Qualidade Seis Sigma é uma estratégia gerencial disciplinada, caracterizada por uma abordagem sistêmica e pela utilização intensiva do pensamento estatístico, que tem como objetivo reduzir drasticamente a variabilidade dos processos críticos e aumentar a lucratividade das empresas, por meio da otimização de produtos e processos, buscando satisfação de clientes e consumidores.

65

REFERÊNCIAS

REFERÊNCIAS BÁSICAS

CARVALHO, Marly Monteiro de; PALADINI, Edson Pacheco. Gestão da qualidade:

teoria e casos. 2 ed. Rio de Janeiro: Elsevier/ABEPRO, 2012.

PALADINI, Edson Pacheco. Gestão estratégica da qualidade: princípios, métodos e processos. 2 ed. São Paulo: Atlas, 2009.

REFERÊNCIAS COMPLEMENTARES

AGUIAR, Silvio. Integração das ferramentas da qualidade ao PDCA e programa Seis Sigma. Belo Horizonte: Editora de Desenvolvimento Gerencial, 2002.

AMBROZEWICZ, Paulo Henrique Laporte. Qualidade na prática: Conceitos e Ferramentas. Curitiba: Serviço Nacional de Aprendizagem Industrial. Departamento Regional do Paraná, 2003.

ANDRIETTA, João Marcos; MIGUEL, Paulo Augusto Cauchick. A Importância do Método Seis Sigma na Gestão da Qualidade Analisada sob uma Abordagem Teórica. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 20 – pp. 91-98. jul./dez. • 2002.

BRASSARD, Michael. Qualidade - Ferramentas para uma Melhoria Contínua. Rio de Janeiro: Qualitymark Editora, 1991.

CARAVANTES, G. R; CARAVANTES, C.; BJUR, W. Administração e qualidade: a superação dos desafios. São Paulo: Makron Books, 1997.

CARVALHO, Marly Monteiro de. História da gestão da qualidade. In: CARVALHO, Marly Monteiro de; PALADINI, Edson Pacheco (coord.) Gestão da qualidade: teoria e casos. 2 ed. Rio de Janeiro: Elsevier/ABEPRO, 2012.

CARVALHO, Marly Monteiro de; ROTONDARO, Roberto Gilioli. Modelo Seis Sigma. In: CARVALHO, Marly Monteiro de; PALADINI, Edson Pacheco. Gestão da qualidade: teoria e casos. 2 ed. Rio de Janeiro: Elsevier/ABEPRO, 2012.

ELLIOTT, G. The race to Six Sigma. Industrial Engineer, 35, no.10, pp. 30-35, out.

2003.

FERREIRA, A.A.; REIS, A.C.F.; PEREIRA, M.I. Gestão Empresarial: de Taylor aos Nossos Dias. 1º ed. São Paulo: Pioneira, 2000.

GARVIN, D. A. Gerenciando a Qualidade: a visão estratégica e competitiva. Rio de Janeiro: Qualitymark, 1992.

66

IMAI, M. Kaizen: a Estratégia para o Sucesso Competitivo. 5 ed. São Paulo: IMAM,

1994.

JURAN, J. M.; GRYNA, F.M. Controle da qualidade handbook: conceitos, políticas e filosofias da qualidade. São Paulo: Makron, Mc Graw-Hill, 1991. Vol. 1.

MANGANOTE, E. J. T. Brainstorming. 2 ed. Campinas: Alínea, 2001. Tópicos Atuais em Administração 5.

MANGANOTE, E.J.T. Tópicos atuais em administração. 5 Ed. Campinas: Alínea, 2000. (Coleção tópicos atuais em administração, v.5).

MARETH, Taciane; ALVES, Tiago W.; BORBA, Gustavo Severo. Mapeamento de processos e simulação como procedimentos de apoio à gestão de custos: uma aplicação para o processo de registros e matrículas da universidade de Cruz Alta (2009). Disponível em: www.congressousp.fipecafi.org/artigos92009/237.pdf

MORAES, Paulo Eduardo Sobreira; FRANCO, Maura Regina; SILVA, Guilherme R.S. Souza e. Ensaio sobre a insustentável leveza do conceito de Qualidade. Revista Qualidade Emergente, 2010, v.1 n.1: 3-12.

MORAES, R.F.; SILVA, C.E.S.; TURRIONI, J.B

Indústria Automobilística. X SIMPEP - Simpósio de Engenharia de Produção. Bauru,

2003.

Filosofia Kaizen Aplicada em uma

MORGAN, G. Imagens da Organização. São Paulo: Atlas, 1996.

PALADINI, Edson Pacheco. Avaliação estratégica da qualidade. São Paulo: Atlas,

2009.

PALADINI, Edson Pacheco. Ferramentas para a Gestão da Qualidade. In:

CARVALHO, Marly Monteiro de; PALADINI, Edson Pacheco. Gestão da qualidade:

teoria e casos. 2 ed. Rio de Janeiro: Elsevier/ABEPRO, 2012.

PALADINI, Edson Pacheco. Qualidade total na prática. São Paulo: Atlas, 2007.

PANDE, P. NEUMAN, R. CAVANAGH, R. Estratégia Six Sigma: como a GE, a Motorola e outras grandes empresas estão aguçando o seu desempenho. Rio de Janeiro: Qualitymark, 2001.

REBECHI, Robson. Sistema Operacional Kaizen: Um Estudo de Caso sobre a Implantação do Sistema Operacional Oriental em um Empresa Ocidental. Disponível em: http://www.aedb.br/seget/artigos06/868_Sistema%20Operacional%20Kaizen.pdf

RUMMLER, Geary A. BRACHE, Alan P. Melhores desempenhos das empresas. São Paulo: Makron Books, 1994.

SANTOS, Adriana Barbosa; MARTINS, Manoel Fernando. Contribuições do Seis Sigma: estudos de caso em multinacionais. Prod., São Paulo, v. 20, n. 1, mar. 2010.

67

Disponível em <http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0103-

65132010000100005&lng=pt&nrm=iso>.

SCHIESARI, Laura Maria Cesar; MALIK, Ana Maria. Instrumentos utilizados na prática diária da gestão da qualidade. In: GONÇALVES, Ernesto Lima (org.) Gestão hospitalar: administrando o hospital moderno. São Paulo: Saraiva, 2006.

SEBRAE. Manual de Ferramentas da Qualidade. São Paulo: Sebrae, 2005.

TONINI, Antonio Carlos; OLIVEIRA, Otávio J. Seis sigmas:uma estratégia para a melhoria da qualidade e da lucratividade. In: OLIVEIRA, Otávio J. (org.) Gestão empresarial: sistemas e ferramentas. São Paulo: Atlas, 2007.