Escola de Administração de Empresas de São Paulo
Fundação Getúlio Vargas
Especialização em Administração Contemporânea
MONOGRAFIA
O PROGRAMA SEIS SIGMA E A MELHORIA CONTÍNUA
JOÃO JOSÉ DE SOUZA
ORIENTDOR: PROF. DR. PAULO YAZIGY SABBAG
SÃO PAULO – SP
2003
JOÃO JOSÉ DE SOUZA
Escola de Administração de Empresas de São Paulo
Fundação Getúlio Vargas
Especialização em Administração Contemporânea
O PROGRAMA SEIS SIGMA E A MELHORIA CONTÍNUA
TRABALHO APRESENTADO PARA
CONCLUSÃO DO CURSO DE
ESPECIALIZAÇÃO EM ADMINISTRAÇÃO
CONTEMPORÂNEA, DA EAESP –
FUNDAÇÃO GETULIO VARGAS, SOB
ORIENTAÇÃO DO PROF. PAULO YAZIGI
SABBAG.
SÃO PAULO
2003
JOÃO JOSÉ DE SOUZA
“A contribuição de longo prazo da estatística
depende em não ter somente estatísticos
altamente treinados para a indústria,
mas criar uma geração de físicos, químicos,
engenheiros e outros que pensem estatisticamente,
os quais estarão desenvolvendo
os processos de produção do futuro.”
Walter A. Shewhart
(Bell Labs, 1939)
JOÃO JOSÉ DE SOUZA
Resumo
O presente trabalho pretende demonstrar a metodologia e a aplicabilidade do Programa
Seis Sigma na solução de problemas e na melhoria contínua da qualidade.
O programa Seis Sigma teve sua origem na Motorola em 1985, obtendo resultados
fantásticos nas décadas de 80 e 90. Posteriormente ele foi implantado em outras empresas com igual
sucesso. Em 1995 Jack Welch o implantou na General Eletric, obtendo resultados surpreendentes, a
partir daí a fama de eficácia do programa se espalhou pelo mundo.
Através de uma revisão nos conceitos, ferramentas, metodologia e historia da Qualidade,
será demonstrado como o programa auxilia no aumento da capacidade crítica e analítica dos profissionais
de uma empresa, para que estes possam resolver problemas crônicos e atingir metas de melhoria
desafiadoras.
JOÃO JOSÉ DE SOUZA
Abstract
This paper will show Six Sigma Program, metodology, applicabylite in problems solution
and in the quality improvement.
Six Sigma Program , a disciplined, data-driven quality improvement program designed to
reduce flaws, expose inefficiency and streamline processes, was pioneered at Motorola in the mid-1980s.
General Electric Chairman Jack Welch, who embraced Six Sigma eight years ago, calls it a revolution.
GE claims a savings of more then $2 billion in 1999 and has become a darling of Wall Street.
Through of conception revision, quality tools, metodology and Quality history, this paper
will show how Six Sigma Program could make a assistant of emploies critical and analytical capacity, to
solve chronics problems and to reach challenge targets.
JOÃO JOSÉ DE SOUZA
1 – Abertura
1.1- A realidade das empresas
1.2- Objetivos da Monografia
2 – A noção de Qualidade
2.1 - Engenharia da Qualidade:
2.2 - Engenharia de Confiabilidade:
3.1 – As Ferramentas Estatísticas da Qualidade
3.1.1 – Estrtificação
3.1.2 – Folha de Verificação
3.1.3 – Grafico de Pareto
3.1.4 – Diagrama Causa e Efeito
3.1.5 – Histograma
3.1.6 – Medidas de locação e variabilidade
3.1.7 –Índices de capabilidade de processos
3.1.8 – Diagrama de dispersão
3.1.9 – Gráfico de controle
3.1.10 – Amostragem
3.1.11 – Intervalos de confiança e análise de variância
3.1.12 – Análise de regressão
3.1.13 – Planejamento de experimentos
3.1.14 – Análise multivariada
3.1.15 – Confiabilidade
3.1.16 – Avaliação dos sistemas de medição
3.2 – As Ferramentas de Planejamento da Qualidade
3.2.1 – Diagrama de afinidades
3.2.2 – Diagrama de relações
3.2.3 – Diagrama de árvore
3.2.4 – Diagrama de matriz
3.2.5 – Diagrama de priorização
3.2.6 – Diagrama de processo decisório
3.2.7 – Diagrama de setas.
JOÃO JOSÉ DE SOUZA
3.3 – O Controle da Qualidade Total
3.3.1 – Qualidade
4. – Confiabilidade e prevenção de falhas em produtos
4.1 - Confiabilidade
4.1.1 - Confiabilidade e Taxas de Falha
4.1.2 - Engenharia da Confiabilidade
4.1.3 - Categorias Medianas (Median Ranks) e Regressão Linear.
4.2 – Prevenção de falhas
4.2.1 - Auditoria de Processos
4.3 – Análise de Falhas
4.3.1 - M S P – Método de Solução de Problemas
4.3.1.1 - Método P.D.C.A ( Planejar, Fazer, Checar e Agir )
4.3.1.2 – Tipos de Problemas
4.3.1.3 – Método de Análise:
4.3.1.4 – Responsabilidade
5 – A metodologia Seis Sigma
5.1 – Identificação do problema
5.2 – Análise do fenômeno
5.3 – Análise do processo
5.3.1 - Desenhar o fluxo do processo gerador do problema
5.3.2 - Indicar os produtos em processo e o produto final
5.3.3 - Indicar os parâmetros de produto
5.3.4 - Indicar os Parâmetros de processo
5.3.5 - Classificar os parâmetros de processo
5.4 – Priorização das causas
JOÃO JOSÉ DE SOUZA
5.5 – Análise quantitativa dos fatores
5.5.1 – Planejamento de experimentos
5.5.2 – Exemplo de experimentos
5.5.3 – Armadilhas em experimentos
5.5.3.1 – Armadilhas: variável comum
5.5.3.2 – Armadilhas: correlações casuais
5.5.3.3 – Armadilhas: faixa de variação
5.5.3.4 – Armadilhas: causa reversa
5.5.3.5 – Armadilhas: fatores omitidos
5.5.3.6 – Armadilhas: multicolinearidade
5.6 – Elaboração do Plano de ação
5.7 – Verificação da efetividade do Plano de ação
5.7.1 – Condção do plano de ação
5.7.2 – Verificar os resultados
6 – Resultados da aplicação do Programa Seis Sigma
6.1 - Schneider Electric reduz custos e melhora atendimento com Seis Sigma
6.2 – Multibras aplica o Seis Sigma no projeto
6.3 – FDG ensinando o Seis Sigma
6.4 – Telefônica: no caminho da qualidade
6.5 - Belgo-Mineira investe para formar Faixas-Pretas em Qualidade
6.6 – Kodak economiza com o Seis Sigma
7 – Conclusão
8 - Bibliografia
JOÃO JOSÉ DE SOUZA
1 – Abertura
1.1- A realidade das empresas
No mundo atual, caracterizado por rápidas e profundas mudanças nas áreas tecnológicas,
econômica e social, apenas as empresas que sabem utilizar de forma eficiente a informação no
gerenciamento encontram-se em posição realmente competitiva.
O gerenciamento consiste em atingir as metas necessária à sobrevivência de uma
organização e ao seu desenvolvimento. Isto é, uma meta é alcançada por meio do método gerencial.
Quanto mais informações forem agregadas ao método, maiores as chances de se alcançar
as metas. neste contexto, podemos introduzir a estatística como a ciência que viabiliza a coleta, o
processamento e a disposição da informação, de forma que o conhecimento assim gerado possa ser
utilizado - por meio do método gerencial - para o alcance de metas. Portanto, é imediato perceber que a
estatística é fundamental para as empresas que desejam garantir sua sobrevivência a longo prazo.
Diante desta realidade é inevitável que surja a pergunta: por que ainda existe, por parte
das empresas, uma certa resistência quanto ao uso da estatística? A resposta a esta pergunta é a seguinte:
a estatística não vem sendo ensinada de forma integrada à prática gerencial. Os cursos para profissionais
de empresas vêm sendo centrados, muitas vezes, em deduções e cálculos matemáticos, que não permitem
visualizar a aplicação da estatística na empresa. O participante termina o curso sem saber como o
conhecimento adquirido poderá garantir bens e serviços de melhor qualidade, que é o que realmente lhe
interessa. Pior: termina o curso sem a habilidade necessária para a utilização da estatística como uma
ferramenta básica ao tratamento da informação dentro do método gerencial. Uma situação semelhante
acontece com a maioria dos livros de estatística.
Diante dessa constatação, onde temos administradores e engenheiros que pouco
conhecem, ou simplesmente não sabem como usar a estatística, os problemas que surgem no cotidiano
das empresas tendem a ser tratados de forma simplista.
O tratamento dos problemas desde a concepção de um produto até o seu pós-vendas,
geralemente é feito de maneira incorreta. Existe uma grande deficiência na análise dos problemas
encontrados e de suas verdadeiras causas.
As análises quando são realizadas não focam suficientemente o problema e suas possíveis
origens, com isto são tomadas decisões erradas, que acabam por não resolver o problema e em alguns
casos até mesmo agravando-o ainda mais.
Por decadas as organizações tem utilizado uma infinidade de ferramentas e metodologias
diferentes para o tratamento dos problemas, todas elas com diferentes graus de eficácia. Entretanto na
verdade não faltam ferramentas para se buscar a solução dos problemas.
O que ocorre é uma falta de disciplina, de coerência e de uma metodologia uniforme para
o tratamento dos problemas. Devido a este fato pesnou-se em uma metodolgia que agupasse as
principais ferramentas da qualidade, ao mesmo tempo que criasse uma rotina padronizada na solução de
problemas. A esse método deu-se o nome de Programa Seis Sigma.
JOÃO JOSÉ DE SOUZA
O Six Sigma constituem a mais poderosa ferramenta da gestão jamais imaginada e que
promete um aumento na quota de mercado, reduções nos custos e enormes desenvolvimentos no lucro
da bottom line de qualquer empresa, independentemente da sua dimensão.
Acarinhada por Wall Street, transformou-se no mantra das 500 maiores empresas
pertencentes ao ranking da Fortune, simplesmente porque funciona. O extraordinário e inovador
programa de gestão — apresentado pela GE, pela Motorola e pela Allied Signal — exibe uma
capacidade sem precedentes para se alcançar resultados financeiros superiores. Mas o que é que se
entende por Six Sigma? É, em primeiro lugar, um processo de negócio que possibilita que as empresas
aumentem drasticamente os seus lucros através de uma reestruturação das operações, aumento da
qualidade e eliminação de defeitos ou erros em qualquer área de performance do negócio, desde o
preenchimento de encomendas até à produção de motores de aviões. Enquanto os programas de
qualidade tradicionais se concentram na detecção e correcção de erros, o sistema Six Sigma abrange algo
mais ambicioso: fornece métodos específicos para recriar o próprio processo, para que os erros nunca
cheguem sequer a existir.
Grande parte das empresas opera a um nível de três a quatro sigmas, no qual o custo dos
defeitos se cifra em cerca de 30% das receitas. Ao aproximarem-se dos seis sigmas — ou seja, menos do
que um defeito por 3,4 milhões de oportunidades —, o custo em termos de qualidade é reduzido para
menos de 1% do total de vendas, ou seja, quanto maior for a qualidade, mais diminutos serão os custos.
Quando a GE reduziu os seus custos de 20% para menos de 10%, poupou cerca de mil
milhões de dólares em apenas dois anos — dinheiro que foi canalizado directamente para a bottom line.
Esta é a razão pela qual Wall Street e empresas tão diversas como a Sony, a Ford, a Nokia, a Texas
Instrument, a Canon, a American Express, a Hitachi, a Toshiba, a Lockheed Martin, a Polaroid ou a
DuPont, entre outras, aderiram a programas alargados de Six Sigma, esperando atingir ainda uma
posição mais forte nos mercados.
O processo Six Sigma deverá revestir-se de importância extrema para qualquer executivo
ou gestor determinado a colocar a sua empresa na linha da frente da indústria em que opera.
Embora as ferramentas usadas não sejam novas, a abordagem Seis Sigma acrescenta
considerável valor a elas, desenvolvendo um vocabulário de métricas e ferramentas uniformizado em
toda a organização. Ao se formalizar o uso de ferramentas estatísticas, evita-se empregá-las isolada e
individualmente em um caminho desconhecido. Com isso intensifica-se a necessidade de entender e
reduzir variações, em vez de somente estimá-las. Seis Sigma exige que muitas coisas estejam
quantificadas, mesmo sendo intangíveis, como a percepção do cliente. dessa forma, salienta uma
abordagem baseada em dados para o gerenciamento, e não apenas sentimentos ou intuição.
A estimativa dos analistas de mercado americanos é de que, a curto prazo, as indústrias
de transformação que não estiverem com um nível de qualidade Seis Sigma estarão sem capacidade
competitiva
JOÃO JOSÉ DE SOUZA
1.2- Objetivos da Monografia
O presente trabalho tem como objetivo apresentar o Programa Seis Sigma como um
agente para promover a melhoria contínua da qualidade nas empresas e em seus produtos.
A melhoria contínua acima mencionada, não refere-se apenas da qualidade percebida pelo
consumidor final, mas também da qualidade e confiabilidade dos processo de produção. Desta forma
quando as empresas tem melhores processo, melhores serão os produtos originados e também serão
menores os seus custos. Com isto as empresas poderão ter preços menores e com maior grau de
confiança em seus produtos. Assim o consumidor além de ter acesso a produtos mais baratos, também
contará com produtos mais confiáveis.
Nesta Monografia serão apresentadas:
•
A evolução da qualidade na História
•
As principais ferramentas estatísticas utilizadas pelas áreas da qualidade na
corporações.
•
Noções de confiabilidade
•
A metodologia do Programa Seis Sigma
•
Resultados obtidos por empresas com o programa
Assim pretendemos demonstrar a importância da utilização de um método estruturado na
solução de problemas, que pode além de gerar uma melhoria dos produtos, propiciar grandes retornos
financeiros para as empresas que se empregam o método.
JOÃO JOSÉ DE SOUZA
2.1 – A noção de Qualidade
As necessidades humanas pela qualidade existem desde o crepúsculo da história.
Entretanto os meios para obter essas necessidades, sofreram imensas e contínuas mudanças ao longos
dos anos.
Antes do século XX, o gerenciamento para a qualidade baseava-se em princípios muito
antigos que eram utilizados tanto pelos artesãos como pelos consumidores:
•
A inspeção do produto pelo consumidor, que ainda hoje é largamente usada
principalmente em mercados e nas vendas de alimentos a granel.
•
O conceito de artesanato, no qual os compradores confiam na técnica e reputação de
artesãos treinados e experientes. Alguns artesãos adquiriam reputações que se
estendiam muito além de suas aldeias, chegando em alguns casos a serem
considerados tesouros nacionais.
À medida que o comércio se expandiu além dos limites das aldeias, e com o aumento
da tecnologia, conceitos e ferramentas adicionais foram inventadas para assistir o controle da qualidade.
Dentre essas novas ferramentas que passaram a ser utilizadas pelos artesãos podemos
destacar duas delas: especificações por amostragem e garantias de qualidade nos contratos de venda.
Nas grandes cidades os artesãos se organizaram em corporações de monopólio, que
geralmente eram rigorosas na imposição da qualidade do produto. Entre as estratégias utilizadas
estavam:
•
Especificações impostas para os materiais de entrada, processos e bens acabados.
•
Fiscalização do desempenho dos membros da corporação
•
Controles de exportação sobre os bens acabados.
A abordagem americana inicial para o controle da qualidade seguiu a pratica
prevalecente nos países europeus que colonizaram o continente americano. Aprendizes instruíam-se num
ofício, qualificavam-se como artífices e no devido tempo podiam tornar-se mestres de oficinas
independentes.
A Revolução Industrial que se originou na Europa, criou o sistema fabril, que logo
produzia mais que as pequenas oficinas independentes, tornado-as muito obsoletas. Os artesãos
tornaram-se então operários e os mestres de ofício tornaram-se supervisores das fábricas.
JOÃO JOSÉ DE SOUZA
A qualidade era gerenciada como antes, através das técnicas dos artesãos, suplementadas
por inspeções departamentais ou auditorias dos supervisores. A Revolução Industrial também acelerou o
crescimento do número de estratégias utilizadas, sendo incluídas algumas tais como:
•
Especificações escritas para materiais, processos, bens acabados e testes.
•
Mensurações junto com os instrumentos de medição associados e os laboratórios para
testes.
•
Padronização de muitas formas.
Quando os conceitos da Revolução Industrial chegaram à América, vindos da Europa, os
habitantes das colônias novamente seguiram a prática européia.
No final do século XIX os Estados Unidos separaram-se consideravelmente da tradição
européia ao adotar o sistema Taylor de gerenciamento científico. No centro do sistema de Taylor residia
o conceito da separação do planejamento da execução. Essa separação tornou possível um crescimento
considerável na produtividade. Também deu um golpe irremediável no conceito de artesanato. Além
disso, a nova ênfase na produtividade surtiu um efeito negativo na qualidade. Para restabelecer o
equilíbrio, os gerentes de fábrica adotaram uma nova estratégia: um departamento central de inspeção,
dirigido por um inspetor chefe. Os vários inspetores departamentais foram então transferidos para o
novo departamento de inspeção sob oposição severa dos supervisores da produção.
As dimensões externas dessas estratégias de inspeção podem ser vistas a partir da
situação reinante no Hawthorne Works of Western Eletric Company no final da década de 1920.
Naquele momento Hawthorne era praticamente a única instalação fabril da Bell System. Em seu auge,
por volta de 1928, ela empregava 40.000 pessoas, das quais 5.200 estavam no departamento de
inspeção.
Durante os acontecimentos anteriormente relatados, podemos verificar que a prioridade
dada à qualidade caiu sensivelmente. Além disso a responsabilidade quanto a função da qualidade
tornou-se vaga e confusa. Na época dos artesãos, o mestre participava pessoalmente no processo de
gerenciamento para a qualidade. O que surgiu foi um conceito no qual a alta gerência separou-se do
processo de gerenciamento para a qualidade.
O século XX trouxe um crescimento explosivo nos bens e serviços, tanto em termos de
volume quanto de complexidade. Industrias imensas surgiram para produzir, vender e manter bens ao
consumidor, tais como automóveis, eletrodomésticos e aparelhos de entretenimento. Esses bens são cada
vez mais complexos e portanto mais exigentes em relação à qualidade. Bens para o uso industrial não
eram menos exigentes.
JOÃO JOSÉ DE SOUZA
As industrias de serviços também sofreram um crescimento explosivo em volume e
complexidade. A complexidade era evidente nos sistemas imensos que forneciam energia, comunicação,
transporte e processamento de informações. Esses sistemas são da mesma maneira sempre mais
exigentes no que se refere à qualidade, especialmente relacionada a continuidade do serviço, que é
baseado no parâmetro de confiabilidade.
A maioria das estratégias que surgiram para lidar com essas forças de volumes e
complexidade podem ser agrupadas sob dois nomes distintos:
2.1.1 - Engenharia da Qualidade:
Essa especialidade origina-se na aplicação de métodos estatísticos para o controle da
qualidade em fabricação. Boa parte dos trabalhos teóricos pioneiros foi feita nos anos vinte pelo
departamento responsável pela qualidade do Bell Telephone Laboratories. Pertenciam a esse
departamento Shewhart, Dodge e Edwards. Grande parte das aplicações pioneiras ocorreram dentro do
Hawthorne Works da Western Eletric Company. Entre os membros da equipe encontravam-se J. M.
Duran que participou do Hawthorne Works em 1924. Naquela época esse trabalho pioneiro surtiu pouco
impacto na industria. O que sobreviveu para tornar-se influente nas décadas posteriores foi o quadro de
controle de Shewhart. Na década de 1980 foi amplamente utilizado como um elemento principal no que
se chamava comumente de CEP (Controle Estatístico de Processos).
2.1.2 - Engenharia de Confiabilidade:
Essa especialidade surgiu principalmente na década de 1950 como resposta aos sistemas
complexos. Acabou gerando uma literatura considerável relacionada à conformação da confiabilidade e a
formulas, além de bancos de dados para quantificar a confiabilidade. Inclui conceitos para melhorar a
confiabilidade de um produto ao quantificar fatores de segurança, reduzindo o número de componentes e
mantendo a qualidade em níveis de falhas por milhão de peças produzidas.
Essas novas especialidades que surgiram precisavam de um lugar na organização das
empresas, que acabavam criando departamentos com nomes tais como: controle da qualidade, garantia
da qualidade, etc. Esses departamentos eram liderados por um gerente de qualidade e nele residiam as
atividades relacionadas à qualidade: inspeção e testes, engenharia da qualidade e de confiabilidade.
A atividade principal, a de inspeção e testes, desses departamentos permaneceu sob a
ótica que já vinha sendo empregada, ou seja, a separação e produtos bons e maus. O maior benefício foi
reduzir o risco de produtos defeituosos serem enviados aos clientes. Entretanto isso ajudou a criar uma
crença de que a obtenção da qualidade era unicamente de responsabilidade do departamento de
qualidade. Por sua vez essa crença dificultou os esforços em eliminar as causas dos produtos defeituosos,
ou seja, as responsabilidades eram confusas. Como resultado, produtos com tendências de falhas e
processos não capazes permaneceram atuantes e continuaram a gerar altos custos pela má qualidade.
JOÃO JOSÉ DE SOUZA
O que realmente surgiu foi um conceito de gerenciamento para a qualidade mais ou
menos como o seguinte: cada departamento funcional executava sua devida função e em seguida
entregava o resultado ao próximo departamento funcional da seqüência de eventos. No final o
departamento de qualidade separava o bom do mau produto. Quanto aos produtos defeituosos que
escapavam ao consumidor, era providenciada a devolução através do serviço ao cliente baseado em garantias.
Pelos padrões das décadas posteriores esse conceito de confiança apenas baseado na
inspeção e nos testes tornou-se inseguro. Entretanto não seria um empecilho se os concorrentes
empregassem o mesmo conceito, como era geralmente o caso. Apesar das deficiências inerentes ao
conceito de detecção, os bens americanos conseguiram uma boa reputação quanto a qualidade. Em
algumas linha de produtos, as empresas americanas tornaram-se líderes em qualidade. Além disso a
economia americana atingiu a dimensão de superpotência.
Durante a Segunda Guerra Mundial a industria americana enfrentou a tarefa adicional de
produzir quantidades enormes de produtos militares. Uma parte da estratégia global durante a Segunda
Guerra Mundial foi a de interromper a produção de vários produtos civis como automóveis,
eletrodomésticos e produtos de entretenimento. Uma imensa escassez de bens surgiu no meio de um
enorme crescimento do poder de compra. Levou todo o resto da década para que a oferta se equiparasse
à demanda.
Durante esse período as empresas de fabricação deram prioridade aos cumprimentos dos
prazos de entrega, de modo que a qualidade do produto caiu. O hábito de priorizar as datas de entrega
persistiu por muito tempo após a escassez Ter terminado.
Na Segunda Guerra Mundial surgiu uma nova estratégia: “Controle Estatístico da
Qualidade (CEQ)”. O War Production Board, num esforço para melhorar a qualidade de fabricação dos
bens militares, patrocinou vários cursos de treinamento sobre as técnicas estatísticas desenvolvidas pelo
Bell System durante a década de 1920. Um dos conferencistas do War Production Board foi o Dr. W. E.
Deming. Ele também foi empregado por pouco tempo no Hawthorne Works na década de 1920. Muitos
dos que freqüentaram os curso tornaram-se entusiastas e conjuntamente organizaram a Sociedade
Americana para o Controle de Qualidade (ASQC). Em seus primeiros anos a ASQC norteava-se
vigorosamente pelo CEQ, estimulando assim mais entusiasmo.
Como veio a ser a maior parte das aplicações nas empresas dirigiram-se às ferramentas
em vez de dirigirem-se aos resultados. Como os contratos do Governo pagavam tudo, a empresas não
podiam perder. No tempo devido os contratos do Governo acabaram, e os programas de CEQ foram
reexaminados do ponto de vista da efetividade do custo. A maioria deles fracassou no teste, resultando
em seus cancelamentos.
Após a Segunda Guerra Mundial os japoneses partiram em direção à busca de metas
nacionais através do comércio e não de meios militares. Os principais fabricantes que estiveram bastante
envolvidos na produção militar, enfrentaram a conversão para os produtos civis. Um dos principais
obstáculos para a venda desses produtos no mercado internacional era a reputação nacional por produtos
de Segunda, devido a exportação de bens de má qualidade antes da Segunda Guerra Mundial.
JOÃO JOSÉ DE SOUZA
Para solucionar seus problemas de qualidade, os japoneses se prontificaram a aprender
como os outros países gerenciavam para a qualidade. Para esse fim os japoneses enviaram equipes ao
exterior para visitar grandes empresas estrangeiras e estudar suas abordagens, além de traduzirem
literatura estrangeira selecionada para o japonês. Eles também convidaram conferencistas estrangeiros
para ir ao Japão e conduzir cursos de treinamento para gerentes. A partir desses e outros dados de
entrada, os japoneses arquitetaram alguma estratégias inéditas para criar uma revolução na qualidade.
Várias dessas estratégias foram decisivas, dentre elas destacam-se:
•
Os gerentes de nível alto lideraram pessoalmente a revolução
•
Todos os níveis e funções foram treinados em gerenciamento da qualidade.
•
O aperfeiçoamento da qualidade foi empreendido a um ritmo contínuo e
revolucionário.
•
A força de trabalho participou do aperfeiçoamento da qualidade através do conceito
de círculos de controle de qualidade (CCQ).
No período logo após a guerra, as empresas americanas afetadas, logicamente
consideraram que a competição japonesa residia nos preços e não na qualidade. Sua resposta foi levar a
fabricação de produtos de intensa mão-de-obra para áreas onde a mão-de-obra fosse mais barata,
freqüentemente fora do país.
À medida que os anos passaram a competição de preços caiu, enquanto que a competição
da qualidade subiu. Durante as décadas de 1960 e 1970, vários fabricantes japoneses aumentaram
bastante sua participação no mercado americano. Uma das principais razões deveu-se à superioridade em
qualidade. Muitas industrias foram afetadas, como por exemplo a industria eletrônica, automobilística, de
aço e máquinas industriais.
As empresas americanas geralmente não conseguiam observar as tendências. Elas
aderiram à crença de que a competição japonesa baseava-se primordialmente na competição de preços e
não na de qualidade. Alguns observadores deram o sinal de aviso de que os japoneses direcionavam-se à
liderança mundial em qualidade e que conseguiriam atingi-la, pois mais ninguém trabalhava nesse sentido
naquele ritmo. O alarme foi dado na Conferência da Organização Européia para o Controle da Qualidade
em Estocolmo em junho de 1966.
O efeito mais óbvio decorrente da revolução japonesa de qualidade foi a enorme
exportação de bens. O impacto nos Estados Unidos foi considerável, especialmente em certas áreas mais
sensíveis; as empresas de fabricação afetadas sofreram prejuízos devido a perda resultante de vendas. A
força de trabalho e seus sindicatos sofreram também pela diminuição dos postos de trabalho. A economia
Americana foi afetada e a balança comercial tornou-se desfavorável.
JOÃO JOSÉ DE SOUZA
Posteriormente um outro fenômeno significativo do pós-guerra foi a ascensão da
qualidade do produto a uma posição de destaque na mentalidade do público. Esse aumento de
importância foi o resultado da convergência de algumas tendências tais como:
-
Preocupação crescente sobre os danos ao ambiente.
Ações judiciais impondo responsabilidades precisas
Receio de grandes desastres
Pressão por parte de organizações de consumidores por melhor qualidade
Público mais consciente do papel da qualidade na competição internacional
Conjuntamente essas tendências são uma conseqüência da adoção pela humanidade da
tecnologia e industrialização. Esta presta muitos benefícios à sociedade, mas também torna a sociedade
dependente do desempenho contínuo e do bom comportamento de uma gama imensa de bens e serviços
tecnológicos. É este fenômeno da vida necessitando de qualidade, uma forma de assegurar os benefícios,
mas vivendo perigosamente. Como os holandeses que aproveitaram tanta terra do mar, nós temos os
benefícios da tecnologia. Entretanto precisamos de diques de proteção na forma de boa qualidade para
proteger a sociedade contra interrupções dos serviços e resguardá-la contra desastres.
As respostas das empresas à crescente necessidade e busca por qualidade, resultou na
adoção de estratégias tais como:
-
-
Criação de comissões de alto nível para estabelecer políticas, metas e planos de ação
respeitantes à segurança do produto, danos ambientais e reclamações de
consumidores.
Estabelecimento de programas específicos a serem executados pelas várias funções,
como por exemplo projeto de um produto, fabricação, publicidade e aspectos legais.
Auditoria para garantir que as políticas e metas fossem atendidas.
Contrastando com isso as respostas japonesas à revolução de qualidade tomaram muitas
direções. Algumas delas consistiam em estratégias que não se relacionavam com o melhoramento da
competitividade mundial. Em vez disso nos Estados Unidos foram feitos esforços para bloquear através
de uma legislação restritiva de cotas, processos criminais e civis e apelos para se comprar produtos
americanos.
Entretanto a maioria dos gerentes de alto nível reconheceram que a melhor resposta a um
desafio competitivo era a de se tornar mais competitivo. Sem treinamento ou experiência no
gerenciamento para a qualidade, esses mesmos altos gerentes buscaram ajuda dos especialistas internos e
externos. Resultou disso que os vários especialistas propuseram muitas estratégias, incluindo a
motivação da mão-de-obra, círculos de controle de qualidade, controle estatístico de processos e
conscientização dos gerentes e supervisores. Outras estratégias ainda incluíam o cálculo do custo da
qualidade, melhoramentos do tipo projeto a projeto, manuais completos de procedimentos, revisão da
estrutura organizacional, incentivos para a qualidade, inspeção e testes automatizados e o uso da
robótica.
JOÃO JOSÉ DE SOUZA
Todas essas estratégias possuem algum mérito sob condições apropriadas. Os altos
gerentes tiveram então de selecionar uma ou mais estratégias disponíveis para serem usadas como base
do plano de ação. Todos eles eram gerentes experientes, mas não no gerenciamento da qualidade. Os
resultados em geral não foram satisfatórios, pois esses gerentes estavam acostumados com ações
imediatistas, não estando acostumados a trabalhar e esperar pelos resultados a médio e longo prazo. E
ainda muitas vezes as estratégias escolhidas não focavam os verdadeiros problemas fundamentais da
empresa relacionados à qualidade.
JOÃO JOSÉ DE SOUZA
3.1 – As Ferramentas Estatísticas da Qualidade
A seguir serão apresentadas as principais técnicas estatísticas que podem ser utilizadas de
forma integrada em ciclos de melhoria contínua de processo e produtos.
3.1.1 – Estrtificação
Consiste no agrupamento da informação sob vários pontos de vista, de modo a focalizar a
ação. Os fatores equipamento, material, operador, tempo entre outros, são categorias naturais para a
estratificação dos dados.
- armazenamento
- data de validade
- queda
- deterioração
- roubo
Perdas de produtos em
um supermercado
Fig 3.1 – Estratificação das perdas em supermercados
3.1.2 – Folha de Verificação
Formulário no qual os itens a serem verificados para a observação do problema já estão
impressos, com o objetivo de facilitar a coleta e o registro dos dados. O tipo de folha de verificação a ser
utilizado depende do objetivo da coleta de dados. Normalmente é construída após adefinição das
categorias para a estratificação dos dados.
FOLHA DE VERIFICAÇÃO PARA LOCALIZAÇÃO DE DEFEITOS
Produto: Folha formato A2
Material: Papel branco
Data: 01/03/2002
Obs:
.
Fig 3.2 - Folha de verificação para papel
JOÃO JOSÉ DE SOUZA
3.1.3 – Grafico de Pareto
Gráfico de barras verticais que dispõe a informação de forma a tornar evidente e visual a
priorização de temas. A informação assim disposta também permite o estabelecimento de metas
numéricas viáveis de serem alcançadas.
Volume de vendas
25,00%
100,00%
90,00%
20,00%
80,00%
70,00%
15,00%
60,00%
%
% ACUM.
50,00%
10,00%
40,00%
30,00%
5,00%
20,00%
10,00%
0,00%
0,00%
1
2
3
4
5
6
7
8
9
10
11
12
Fig 3.3 – Pareto de vendas de produto
3.1.4 – Diagrama Causa e Efeito
Esta ferramenta que também é conhecida como Diagrama de Ishikawa, apresenta a
relação existente entre um resultado de um processo e os fatores do processo que por razões técnicas,
possam afetar o resultado considerado. É empregado nas sessões de brainstorm realizada nos trabalhos
em grupo
Matéria-prima
Mão-de-obra
Máquina
Perda de
produtos
Método
Meio ambiente
Medição
Fig 3.4 – Diagrama de Ishikawa para perdas de produtos
JOÃO JOSÉ DE SOUZA
3.1.5 – Histograma
Gráfico de barras que dispõe as informações de modo que seja possível a visualização da
forma da distribuição de um conjunto de dados e também a percepção da localização do valor central e
da dispersão dos dados em torno deste valor central. A comparação de histogramas com os limites de
especificação nos permite avaliar se um processo está centrado no valor nominal e se é necessário adotar
alguma medida para reduzir a variabilidade do processo.
Temperatura
LIE
LSE
Fig 3.5 – Histograma de temperatura de estufa
3.1.6 – Medidas de locação e variabilidade
Estas medidas processam a informação de modo a fornecer um sumário dos dados sob a
frma numérica. Este sumário quantifica a locação (onde se localiza o centro da distribuição dos dados) e
a variabilidade (dispersão dos dados em torno do centro). O cálculo destas medidas é o ponto de partida
para a avaliação da capacidade de um processo em atender às especificações estabelecidas pelos clientes
internos e externo.
Variável : Temperatura
Média de x = 520C
Desvio Padrão de x = 10C
Se a temperatura tem distribuição normal:
- 99,7% das medidas estão na faixa x ± 3S :entre 49 e 550C
Especificação: 45 a 600C
Fig 3.6 – Medidas de locação de temperatura de estufa
JOÃO JOSÉ DE SOUZA
3.1.7 –Índices de capabilidade de processos
Estes índices processam as informações de forma que seja possível avaliar se um processo
é capaz de gerar produtos que atendam às especificações provenientes dos clientes internos e externo.
Cp
Nível do Processo
Cp ? 1,33
Capaz
1 ? Cp < 1,33
Razoável
Cp< 1
Incapaz
Fig 3.7 – Tabela dos índices de capabilidade deprocesso
3.1.8 – Diagrama de dispersão
Gráfico utilizado para a visualização do tipo de relacionamento existente etre duas
variáveis. Estas variáveis podem ser duas causas de um processo, uma causa e um efeito do processo ou
dois efeitos do processo.
35
30
25
20
15
Series1
Series2
10
5
0
0
2
4
6
8
10
Fig 3.8 – Diagrama de dispersão
3.1.9 – Gráfico de controle
JOÃO JOSÉ DE SOUZA
12
14
Ferramenta que dispõe os dados de modo a permitir a visualização do estado de controle
estatístico de um processo e o monitoramento, quanto à locação e à dispersão, de itens de controle do
processo.
32
LSC
24
16
LIC
8
0
1
2
3
4
5
6
7
8
9
10
11
12
13
Fig 3.9 – Gráfico de controle de variáveis
3.1.10 – Amostragem
As técnicas de amostragem permitem que sejam coletados, de forma eficiente, dados
representativos da totalidade dos elementos que constituem o universo de nosso interesse.
TPO DE AÇÃO
POPULAÇÃO
Ações sobre o processo
Processo
AMOSTRA
Lote
Amostra
AÇÃO
Fig 3.10 – Diagrama de técnica de amostragem
JOÃO JOSÉ DE SOUZA
DADOS
Dados
3.1.11 – Intervalos de confiança e análise de variância
Estas ferramentas permitem um processamento mais aprofundado das informações
contidas nos dados, de modo que possamos controlar, abaixo de valores máximos pré-estabelecidos, os
erros que podem ser cometidos no estabelecimento das conclusões sobre as questões qe estão sendo
avaliadas.
µ = tempo médio de espera para o atendimento em um restaurante
Hipóteses
Ho: µ • 15 minutos
H1 : µ < 15 minutos
Estatística de Teste
t = - 3,815
Conclusão
t = -3,815< t 2,5% = -2,145
Concluir com 95% de confiança que a alteração realizada pelo restaurante
diminuiu o tempo de espera dos clientes
Fig 3.11 – Resultados de análise de confiança
3.1.12 – Análise de regressão
Ferramenta que processa as informações contidas nos dados de forma agerar um modelo
que represente o relacionamento existente entre as diversas variáveis de um processo, permitindo a
determinação quantitativa das causas mais influentes para o alcance de uma meta.
• = 24 + 2X1 +3X2 +1,7X1X2
onde:
Y = Rendimento de uma reação química
X1 = temperatura do processo
X2 = pressão de trbalho
Fig 3.12 – Análise de regressão de dados
3.1.13 – Planejamento de experimentos
JOÃO JOSÉ DE SOUZA
Processam as informações nos dados de modo a fornecer indicações sobre o sentido no
qual o processo deve ser direcionado para que a meta de interesse possa ser alcançada.
1
0,9
0,8
Alterações para melhoria
no processo
0,7
Pressão
0,6
95%
0,5
90%
0,4
80%
0,3
70%
Condição atual
do processo
0,2
60%
0,1
0
10
20
30
40
50
60
70
80
90
100
110
120
130
Temperatura
Fig 3.13 – Gráfico de planejamento de experimentos
3.1.14 – Análise multivariada
Processa as informações de modo a simplificar a estrutura dos dados e a sintetizar as
informações quando o número de variáveis envolvidas é muito grande.
10
Grupo
administrador
Grupo
superior
8
6
4
2
0
-15
-10
-5
0
5
10
15
-2
-4
Grupo
inferior
Grupo
médio
-6
-8
-10
Fig 3.14 – Gráfico de Análise multivariada
3.1.15 – Confiabilidade
JOÃO JOSÉ DE SOUZA
Grupo
técnco
Fazem parte deste grupo de ferramentas a análise de tempo de falha ( também conhecida
como análise de Weibull) e os testes de vida acelerada. Estas técnicas processam as informações de tal
forma que as necessidades dos clientes em segurança, durabilidade e manutenabilidade dos produtos
possam ser atendidads pela empresa.
Componente
Taxa de Falha λi
Velocímetro
0,128
Medidor de combustível
0,04 x 10-3
Fig 3.15 – Tabela de confiabilidade de componentes
3.1.16 – Avaliação dos sistemas de medição
Estas técnicas permitem avaliação do grau de confiabilidade dos dados gerads pelos
sistemas de medição utilizados na empresa.
(a)
a) alto vício + baixa precisão
c) alto vício + alta precisão
(b)
(c)
(d)
b) baixo vício + baixa precisão
d) baixo vício + alta precisão
Fig 3.16 – Análise dos sistemas de medição
JOÃO JOSÉ DE SOUZA
3.2 – As Ferramentas de Planejamento da Qualidade
A seguir serão apresentadoas as Ferramentas de Planejamento da Qualidade, que também
são utilizadas pelos ciclos PDCA para melhorar e manter. Estas ferramentas são apropriadas para o
tratamento de dados não numéricos, sendo muito importantes na preparação de projetos e como apoio
aos processos decisórios
3.2.1 – Diagrama de afinidades
Esta ferramenta utiliza as similaridades entre dados não numéricos para facilitar o
entendimento, de forma sistemática, da estrutura de um problema. É indicada para:
•
•
•
•
Mostrar a direção adequada a ser seguida em um processo de solução de
problemas.
Organizar as informações disponíveis
Prever situações futuras
Organizar idéias provenientes de alguma avaliação
Problemas de
gerenciamento
Falta liderança
Falta habildade de
liderança
Falta entusiasmo
Falta de objetivos
das equipes
Problemas de
comunicação
Autoritarismo
Fig 3.17 – Diagrama de afinidades
3.2.2 – Diagrama de relações
JOÃO JOSÉ DE SOUZA
Não aceita o
papel de líder
Apresenta a estrutura das relações de causa e efeito de um conjunto de dados numéricos,
permitindo a organização da tecnologia disponível sobre o problema analisado. Sua utilização é indicada
nos seguintes casos:
•
•
Problema complexo, de modo que a visualização das relações de causa e efeito
não é facilmente percebida.
A seqüência correta das ações é crítica para o alcance do objetivo.
Dados do
problema
Análise de um
problema
Decisão de
prioridades
Delineamento da
solução
Análise dos dados
e causas
Estudo do
Processo
Mão-de-obra
Máquinas
Fig 3.18 – Diagrama de relações
3.2.3 – Diagrama de árvore
Recomendada na definição da estratégia para a solução de um problema e na eluidação da
essência de uma área a ser aprimorada. O diagrama de árvore mostra o mapeamento detalhado dos
caminhos a serem percoridos para o alcance de um objetivo, sendo efetivo quando:
•
•
•
•
A tarefa considerada é específica, complicada e não deve ser atribuída a apenas
uma pessoa.
A perda de uma tarefa básica é perigosa
Histórico demonstra que obstáculos levaram ao fracasso de tentativas anteriores.
É necessário o desdobramento das tarefas associadas ao alcance de um objetivo
básico.
JOÃO JOSÉ DE SOUZA
Melhorar
equipamentos
Treianar pessoal
Fazer os atendentes
melhorar o
atendimento
Mudar o la-out
Melhorar o processo
de atendimento
Capacitar o pessoal
de atendimento
Valorizar as
atividades de
atendimento
Fig 3.19 – Diagrama de arvore
3.2.4 – Diagrama de matriz
Consiste no arranjo dos elementos que constituem um evento ou problema de interesse
nas linhas e colunas de uma matriz, de forma que a existência ou a força das relações entre os elementos
é mostrada, por meio de símbolos, nas intersecções das linhas e colunas. É utilizado na visualização de
um problema como um todo, deixando claras as áreas nas quais o problema está concentrado. Esta
ferramenta permite:
•
•
•
A exploração de um problema sob mais de um ponto de vista e a construção de
uma base multidimentsional para a solução.
A distribuição de tarefas entre as diversas equipes de trabalho disponíveis
A identificação de gargalos e pontos críticos
Causa do defeito
A
B
C
D
E
Tipo do defeito
Lasca no gap
Trinca na camada
Riscos de lapidação
Abaulamento insuficiente
Relacionamento:
Muito forte
Forte
Fig 3.20 – Diagrama de matriz
JOÃO JOSÉ DE SOUZA
Fraco
3.2.5 – Diagrama de priorização
Permite o processamento das informações contidas em um conjunto de dados constituido
por um grande número de variáveis, de modo que estas variáves possam ser representadas por apenas
duas ou três caracterísiticas gerais. O Diagrama de priorização mostra a a importância dos fatores
componentes de um problema, sendo utilizado quando:
•
•
•
•
Os pontos chaves de um problema foram identificados, mas sua quantidade tem
que ser reduzida
Na existência de concordância sobre os fatores, mas discordância sobre a ordem
de abordagem destes fatores
Existência de limitações de recursos humanos e financeiros e uma grande
quantidade de problemas
As opções para a solução do problema são fortemente correlacionadas
Habilidade
Específica
Trabalho
Administrativo
F
G
C
C
E
Habilidade
Global
B
D
Baixa
Alta
A
H
A
Trabalho
Técnico
Fig 3.21 – Diagrama de priorização
3.2.6 – Diagrama de processo decisório
É utilizado para garantir o alcance de uma meta pelo estudo da lógica de todas as
possibilidades de ocorrência de eventos no caminho para se atingir a meta e das soluções que podem ser
adotadas, melhorando as condições de tomada de decisões e consequentemente, aprimorando o plano de
ação. O diagrama de processo decisório tem se mostrado muito útil para:
JOÃO JOSÉ DE SOUZA
•
•
•
Nova tarefa ou única
A solução do problemas é complexa de difícil execução
É de interesse realizar a padronização de atividades na área de prestação de
serviços.
Eliminar o problema de
lascas na peças
Avaliar o processo de
produção
Lascas são geradas na
retificação das
extremidades das peças
Otimizar o processo de
de retificação
Aumentar
avanço
Alterar rebolo
Otimizar o processo de
cromação
Diminuir
camada de Cr
Aumentar
camada de Cr
?
?
Eliminadas as lascas
geradas na retificação das
extremidades das peças
Fig 3.22 – Diagrama de processo decisório
3.2.7 – Diagrama de setas
Mostra o cronograma de execução das tarefas de um projeto, bem como o seu caminho
crítico e como eventuais atrasos afetam o tempo de execução. O diagrama de setas tem se mostrado
muito efetivo quando:
•
•
•
O tempo é um fator crítico
É necessário negociar o tempo de duração de um projeto
É preciso estabelecer cuidados especiais para que o tempo de duração do projeto
seja preservado.
JOÃO JOSÉ DE SOUZA
Produção da
Peça 1
3
1
Planejamento
Produção da
Peça 2
2
4
Produção da
Peça 3
Produção da
Peça 4
Inspeção da
Peça 3
5
Montagem
Intermediária
6
7
Produção da Moldura
Inspeção de saída
8
9
Montagem
Final
Fig 3.23 – Diagrama de setas
3.3 – O Controle da Qualidade Total
O controle da Qualidade Total – TQC (Total Quality Control) é um sistema gerencial
baseado na participação de todos os setores e de empregados de uma empresa, no estudo e na condução
do Controle da Qualidade. Seu núcleo é portanto o Controle da Qualidade, o qual é definido segundo a
norma JIS Z 8101, como um sistema de técnicas que permitem a produção econômica de bens e serviços
que satisfaçam as necessidades do consumidor.
O controle da qualidade moderno utiliza técnicas estatísticas e por este motivo é
freqüentemente denominado controle estatístico da qualidade.
Segundo a definição de Ishikawa, praticar um bom controle da qualidade é desenvolver,
projetar, produzir e comercializar um produto de qualidade que seja mais econômico, mais útil e sempre
satisfatório para o consumidor. Para atingir este objetivo, todos na empresa (diretores, gerentes, técnicos
e operadores) precisam trabalhar juntos.
Alguns autores costumam definir 5 componentes da Qualidade Total, os quais serão
apresentados a seguir:
JOÃO JOSÉ DE SOUZA
3.3.1 – Qualidade
Também conhecida como qualidade intrínseca, esta dimensão da Qualidade Total se
refere às características específicas dos produtos (bens e serviços) finais ou intermediários da empresa, as
quais definem a capacidade destes bens ou serviços de promoverem a satisfação do cliente. A qualidade
intrínseca inclui a qualidade do bem ou serviço, qualidade do pessoal, qualidade da informação, qualidade do treinamento entre outros aspectos.
3.3.2 – Custos
Quando tratamos deste outro componente devemos lembrar que estamos nos referindo ao
custo operacional para fabricação do bem ou fornecimento do serviço e envolve, por exemplo, os custos
de compra, de venda, de produção, de recrutamento e de treinamento. O custo resulta do projeto,
fabricação e desempenho do produto.
3.3.3 – Entrega
Componente relacionado à entrega dos produtos finais e intermediários de uma empresa.
A entrega deve acontecer na quantidade, na data e no local certos.
3.3.4 – Moral
Mede o nível de satisfação das pessoas que trabalham na empresa. Como os produtos que
serão fornecidos aos clientes serão produzidos pela equipe de pessoas, é claro que deverá haver um bom
ambiente de trabalho para que os bens ou serviços sejam de boa qualidade, capazes de garantir o
atendimento das necessidades do cliente. O nível médio de satisfação das pessoas que trabalham na
empresa pode ser medido através de índices de absenteísmo, de demissões, de reclamações trabalhistas,
de sugestões entre outros.
3.3.5 – Segurança
Dimensão da Qualidade Total que se refere à segurança das pessoas que trabalham na
empresa e dos usuários do produto. Os produtos não devem provocar acidentes aos seus usuários e não
devem ocorrer acidentes de trabalho na empresa.
JOÃO JOSÉ DE SOUZA
A partir das constatações anteriores e da apresentação dos componentes da Qualidade
Total, fica claro que a qualidade não é apenas a ausência de defeitos. De nada adiantará, por exemplo,
fabricar um produto totalmente sem defeitos, mas cujo preço é tão elevado que ninguém estará disposto
a comprá-lo. Por outro lado, o cliente não comprará um produto que não cumpra adequadamente a
função para a qual foi projetado, ou que não seja seguro, por mais baixo que seja o seu preço.
JOÃO JOSÉ DE SOUZA
4. – Confiabilidade e prevenção de falhas em produtos
Tradicionalmente no processo de comercialização de bens e serviços, tem sido utilizada a
instituição da Garantia, durante um determinado período de tempo. Durante esse período o fornecedor
ou fabricante, compromete-se a consertar ou substituir, total ou parcialmente o produto, ou seus
componentes que apresentem defeitos operacionais ou construtivos sem ônus para o usuário.
Embora esse compromisso represente uma tranqüilidade para o cliente, o fato de não
dispor do produto durante o período de conserto do mesmo, ou ficar sem ele com demasiada freqüência,
representa no mínimo um motivo para perda de satisfação para com o fornecedor do bem ou serviço.
Em outras ocasiões o produto é utilizado em lugares remotos ou em condições muito
críticas. Nesses casos o interesse maior do cliente é que o produto não falhe e a garantia passa a ter uma
relevância secundária.
Por estes e outros motivos é desejável colocar no mercado um produto ou serviço que
não apresente defeitos, ou seja, sem falhas, até onde isso possa ser possível. Cada vez mais o cliente
espera um produto confiável e com o nível de desempenho especificado.
4.1 - Confiabilidade
A definição de Confiabilidade, abrangentemente, é associada em dependência do
funcionamento desejado do sistema, ou seja: isento de falhas durante a sua vida útil. Para efeito de
análise em engenharia, por outro lado, é necessário definir confiabilidade quantitativamente em termos de
probabilidade. Então, confiabilidade pode ser definida como a probabilidade que um sistema irá executar
a função desejada por um perído de tempo determinado, sobre condições determinadas.
A palavra sistema é usada em um senso genérico, sendo que esta definição pode ser
aplicada sobre todas as variedades de produtos, subsistemas, equipamentos, componentes e peças. A
falha de um sistema pode considerada qualitativamente quando o sistema cessa de executar a função
desejada: Estruturas rompem-se, motores param de funcionar, um componente eletrônico queima nestas condições o sistema claramente falhou.
Algumas vezes, porém, é necessário definir falha quantitativamente, levando em
consideração formas mais sutis de falha como deterioração ou instabilidade de função: um motor não é
capaz de produzir o torque necessário, uma estrutura excede a flexão especificada, um amplificador não
produz mais o ganho especificado - são também falhas. Além da confiabilidade, outras quantidades
também são utilizadas para caracterizar a confiabilidade de um sistema, como o tempo médio até falhas
(MTTF - Mean Time To Failure) e taxa de falhas; no caso de sistemas reparáveis temos o tempo médio
entre falhas (MTBF - Mean Time Between Failures).
JOÃO JOSÉ DE SOUZA
4.1.1 - Confiabilidade e Taxas de Falha
Conforme definido anteriormente, confiabilidade é a probabilidade de sobrevivência de
um sistema em um determinado período de tempo. A função confiabilidade pode ser definida em função
da variável aleatória T (tempo de falha). Em termos probabilísticos podemos fazer as seguintes
definições:
Sendo que se o sistema não falha para T<=t ele deve falhar para T>t, então:
Conforme as definições das funções, deve ficar claro que R(0)=1 (100%) e R(•)=0.
A definição da função taxa de falhas • (t), pode ser feita a partir da função confiabilidade
R(t) e da função densidade de falhas f(t): consideremos que • (t)·• t seja a probabilidade de que o sistema
falhe em um tempo T < t + • t dado que não falhou até o tempo T = t, esta definição reduz-se à
probabilidade condicional:
A natureza da taxa de falhas em função do tempo é reveladora. O gráfico da taxa de
falhas em função do tempo é chamada "curva da banheira", esta curva é de fato uma característica da
sobrevivência tanto de sistemas de engenharia como organismos vivos. Esta definição tem muito em
comum com estudos demográficos da mortalidade humana: na região onde os tempos são relativamente
pequenos é chamada de mortalidade infantil, e a taxa de falhas decresce exponencialmente com o
tempo; de modo análogo, a região onde os tempos são relativamente altos, é chamada de mortalidade
JOÃO JOSÉ DE SOUZA
por velhice ou fadiga, e a taxa de falhas cresce exponencialmente; nos tempos intermediários, a taxa de
falhas é relativamente constante e é chamada de região de falhas aleatórias.
Fig 4.1 – Curva da banheira
4.1.2 - Engenharia da Confiabilidade
A análise de Weibull é a técnica mais empregada para obtermos estatísticas das
características de vida de um sistema, ela permite que com poucos dados obtenha-se uma boa estatística
sobre a confiabilidade; impraticável para qualquer empresa é aguardar que ocorram muitas falhas para
que sejam tomadas ações, então, a análise de Weibull está a nosso favor . A distribuição de Weibull é
empregada para obtermos um modelo paramétrico dos dados obtidos, e para obter seus parâmetros
podemos utilizar regressão linear ou o método da máxima verossimilhança. Na prática o método mais
utilizado para obtermos os parâmetros da distribuição de Weibull é a regressão linear em Y. A
distribuição de Weibull é definida pela equação:
Onde • é o parâmetro de forma e • é a vida característica. Esta distribuição é muito
flexível, sendo que para • =1 ela aproxima-se de uma distribuição exponencial, para • =2 aproxima-se
de uma distribuição lognormal e para • =3 de uma distribuição normal. Para • <1 é dito que a
distribuição está na região de mortalidade infantil, para ••1 está na região de falhas aleatórias e para
• >2 está na região de mortalidade por velhice ou fadiga. A vida característica • representa o tempo
onde a desconfiabilidade (Q(t) ou (1-R(t) ou probabilidade de falha) é de 63.2%.
JOÃO JOSÉ DE SOUZA
4.1.3 - Categorias Medianas (Median Ranks) e Regressão Linear.
Para efeito de análise, os dados de vida devem ser ordenados de forma crescente, e
atribuído um número de ordem j para cada dado. A aproximação da categoria mediana pode ser feita
través da aproximação de Bernard:
Onde j é o número de ordem e N o tamanho da amostra.
Exemplo:
Ordem
(j)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Tempo
Falha (t)
72
82
97
103
113
117
126
127
127
139
154
159
199
207
até Categoria
LN(t)
Mediana (MR)
0.0486
4.2767
0.1181
4.4067
0.1875
4.5747
0.2569
4.6347
0.3264
4.7274
0.3958
4.7622
0.4653
4.8363
0.5347
4.8442
0.6042
4.8442
0.6736
4.9345
0.7431
5.0370
0.8125
5.0689
0.8819
5.2933
0.9514
5.3327
Fig 4.2 – Tabela de dados
LN(LN(1/(1MR)))
-2.9991
-2.0744
-1.5720
-1.2141
-0.9286
-0.6854
-0.4684
-0.2677
-0.0761
0.1130
0.3067
0.5152
0.7592
1.1065
A partir das variáveis LN(t) e LN(LN(1/(1-MR))) é possível representar os pontos em um
gráfico, onde as escalas estão ajustadas linearmente e equivalentemente a um papel de Weibull. A
categoria mediana (MR) é a função desconfiabilidade Q(t) e está ajustada para o gráfico através de
LN(LN(1/1(1-MR))). Este gráfico representa a probabilidade de falha (y=LN(LN(1/1(1-MR)))) em função
do tempo (x=LN(t)):
JOÃO JOSÉ DE SOUZA
Fig 4.3 – Gráfico de regressão linear
Observamos que é possível ajustar uma reta aos pontos do gráfico (regressão linear).
Analiticamente, podemos obter a equação da reta através do método dos mínimos
quadrados (regressão em X ou Y). Considerando que a reta y=ax+b descreve a função Q(t)
adequadamente, podemos obter o parâmetro de forma • pelo coeficiente angular da reta (• =a) e a vida
característica • é obtida de e^(-b/a).
4.2 – Prevenção de falhas
Para se conseguir a confiabilidade exigida nos produtos, devemos adotar algumas ações
dpreventivas, de forma a garantir que as falhas não ocorram.
As industrias vem adotando nas últimas décadas inúmeros métodos para realizar a
prevenção do aparecimento de falhas em seus produtos. As primeiras industrias a utilizarem esses
métodos foram as automobilísticas e de aparelhos eletrônicos, sendo posteriormente adotados por outros
ramos da industria e da prestação de serviços.
Entre os métodos para a prevenção dessa falhas podemos destacar algumas metodologias
que são amplamente empregadas no cotidiano:
•
•
•
•
•
FMEA de projeto (Análise dos Modos e Efeitos da Falhas)
Design Review
SET (Times de Engenharia Simultânea)
Auditorias de Sistemas
Auditorias de processo
Na seqüência será apresentado o método das Auditorias de Processo utilizados pela VDA
a Associação Alemã dos Fabricantes de Automóveis.
JOÃO JOSÉ DE SOUZA
4.2.1 - Auditoria de Processos
As exigências ao gerenciamento de qualidade, as prestações de serviços, a qualidade
dos produtos fabricados, e a aplicação da estratégia básica, exigem procedimentos direcionados aos
objetivos da nossa das corporações.
Um fator de sucesso importante é a melhoria contínua da capacidade e serviço de
qualidade em todo o processo de formação do produto.
Independente de ter sido iniciado um “Programa de Zero Defeito“ ou implementados
métodos de gerenciamento de qualidade, sempre um “processo” será iniciado.
Um processo é a seqüência de atividades para a realização de uma ou varias metas.
Através de um processo, grandezas de entrada dependentes de tempo (Homem, Método, Material,
Máquina, Meio) são convertidas em grandezas de saída também dependentes do tempo.
As entradas de processo mudam permanentemente, pois estão sujeitas a contínuas
variações. Em conseqüência, os resultados também mudarão continuamente (com mais intensidade
nos processos seqüênciados).
Grandezas de entrada:
Homem:
O homem como posição central no processo operacional de qualidade.
Materiais e o fluxo de materiais :
Materiais e o fluxo de materiais para manter a produção.
Métodos:
Os métodos para evitar falhas e planejar as seqüências operacionais ótimas.
Meio:
O meio (ambiente), eventualmente com influência inibidora ou promotora da
qualidade.
Máquinas:
As máquinas, cuja qualidade influencia diretamente a qualidade do produto.
Um dos objetivos das Auditorias de Processo é analisar e avaliar as grandezas de
influência do processo, apresentar as deficiências existentes de forma visível e transparente, a fim de
eliminar as causas de reclamações definitivamente.
JOÃO JOSÉ DE SOUZA
Uma Auditoria de Processo é uma análise sistemática e independente, para constatar se
a execução de um processo corresponde ao planejamento e se o planejamento e a execução de um
processo são adequados para atingir os resultados e metas exigidos (VDA volume 6.3).
Em todas as fábricas de origem Alemã qe seguem as recomendações da VDA, é
previsto um mesmo procedimento, de acordo com VDA volume 6.3. Este manual contem:
• generalidades para a Auditoria de Processo,
• uma lista geral de perguntas para a composição do checklist,
• determinações para o gabarito,
• exemplos para a documentação e relatórios e
• referências para a formação de auditores de processo.
O objetivo da Norma VDA 6.3 é determinar um procedimento uniforme dentro das
corporações, a fim de poder avaliar um processo de maneira preventiva e orientada à necessidade, e
finalmente garantir a possibilidade de comparação dos resultados.
As auditorias de processo devem demonstrar a confiabilidade do processo (índice de
desempenho) nas seqüências individuais de processo, revelar pontos fracos relevantes ao cliente e
causadores de custos, e prover uma solução duradoura.
Os resultados de Auditorias de processo devem fornecer indicações de melhorias de
processo para os respectivos locais de produção, e formar a longo prazo a base de Benchmarking para
outros locais.
A Auditoria de Processo considera, dentro do sistema de garantia de qualidade,
exigências da VDA volume 6.3 e as determinações de qualidade da corporação.
Os processos devem ser controlados para garantir a sua confiabilidade ou possibilitar a
introdução em tempo hábil de mecanismos adequados de ajuste, no caso de desvios. Uma Auditoria de
Processo pode ser acionada também pelas informações de qualidade a seguir:
• Informações de campo, (amostragem de defeitos)
• Resultados de Auditoria,
Antes da efetivação de uma Auditoria de Processo é recomendável uma verificação prévia
de conteúdo das Auditorias de Produto instaladas na seqüência de processo (Avaliação de características
do produto sob ponto de vista do cliente) para a identificação de processos críticos.
JOÃO JOSÉ DE SOUZA
Os checklists de uma Auditoria de Processo devem ser classificados conforme VDA 6.3,
Elementos M5, M6 e M7 de produção, a fim de possibilitar uma comparação:
• Sub-Fornecedor / Aquisição,
• Pessoal / qualificação,
• Meios de operação / instalações,
• Transporte / manuseio de peças / armazenamento / embalagem,
• Análise de falhas / correção / melhoria contínua,
• Qualidade perante o cliente.
Esses checklistsdevem ser elaborados antes da Auditoria de Processo.
A avaliação de um processo é feita através da determinação do grau de desempenho.
Grau de desempenho em uma Auditoria de Processo resulta de:
Grau de desempenho
=
soma de todos pontos alcanç ados
x 100
soma dos pontos possiveis
[ο ο]
Através da avaliação quantitativa nas Auditorias de processo programadas obtém-se
resultados de auditorias que podem ser comparados e alterações podem ser constatadas em relação a
auditorias anteriores.
4.3 – Análise de Falhas
Mesmo com todos os cuidados e metodos utilizados na prevenção dos problemas desde o
projeto até o processo de fabricação dos produtos, os problemas ocorrem. E essa ocorrência em geral
está relacionada ao desempenho dos processos de fabricação e de seus parâmetros.
Quando os problemas ocorrem torna-se necessária então que os mesmos sejam
resolvidos, com a maior eficácia e no menor espaço de tempo possível, de forma a diminuir os custos
envolvidos na garanita do produto ou serviço.
As empresas vem desenvolvendo e aplicando inúmeras técnicas para a solução dos
problemas surgidos. Dentre essas técnicas, destacaremos a seguir a conhecida como MSP – Método de
Solução de Problemas.
JOÃO JOSÉ DE SOUZA
4.3.1 - M S P – Método de Solução de Problemas
Solução de problemas é um procedimento (padrão) uniforme, através do qual as reais
causas dos problemas são reconhecidas e eliminadas de forma duradoura. Cada desvio Deve ser/É é, por
definição, um problema.
Vantagens da utilização do Método de Solução de Problemas:
•
•
•
•
•
•
•
Todos os funcionários atingidos são envolvidos,
É um método padronizado para todos os funcionários poderem realizar suas
atividades, conforme planejado,
A atualização transmite segurança e sentimento de certeza de que todos os
problemas são solucionados de forma duradoura,
O tempo de reação entre a detecção do problema e sua solução é menor,
A visualização e a documentação são transparentes,
As responsabilidades são claras e inequívocas,
A prevenção de desperdícios, refugo e retrabalho, reduz custos.
Resumindo, a utilização do Método de Solução de Problemas permiti alcançar os
objetivos de Custos, Qualidade e prazos, aumentando a satisfação do cliente.
Nos últimos anos, os níveis de qualidade esperados pelos consumidores têm aumentado
significativamente, e os clientes querem: produto adequado, no momento certo e com o menor preço.
Para atender à estes fatores, a empresa necessita reduzir a quantidade de problemas e com
isto reduzir os custos e aumentar a produtividade. Várias técnicas, com enfoque em prevenção, têm sido
adotadas para o aumento da qualidade e, lógicamente, para redução dos problemas.
Como exemplos podemos citar o F.M.E.A (Análise do Modo de Falha e seus Efeitos) e o
CEP (Controle Estatístico do Processo). Sabemos que, apesar de todos estes esforços, problemas
aparecem. Para garantir que o cliente receba o produto conforme solicitado a empresa deve tratá-los o
mais rápido possível e de uma forma eficaz, ou seja, identificando e eliminando a causa raíz e
implantando ações para evitar a reincidência.
O objetivo deste método é transmitir:
a - Uma metodologia de solução de problemas, ou seja uma seqüência lógica e rganizada
que permita que a melhor solução seja encontrada e implantada;
b - Indicar ferramentas que facilitem a aplicação do método.
JOÃO JOSÉ DE SOUZA
A palavra método vem do grego. É a soma das palavras Meta e Hodos. Hodos quer dizer
caminho. Portanto, método significa “Caminho para atingir a meta”.
Existem nomes para a metodologia de solução de problemas. Uns a chamam de MSP
(Método de Solução de Problemas), outros de FSP (Folha de Solução de Problemas), e outros, ainda, de
MASP (Método de Análise e Solução de Problemas), mas todos foram extraidos do método PDCA:
iniciais de PLAN (planejar), DO (fazer), CHECK (checar) e ACTION (agir).
O PDCA é um modelo gerencial para todas as pessoas da empresa. Este método de
solução de problemas deve ser entendido e praticado por todos.
4.3.1.1 - Método P.D.C.A ( Planejar, Fazer, Checar e Agir )
Fig 4.4 – Gráfico PDCA
O P.D.C.A é um modelo gerencial para todas as pessoas da empresa Este método de
solução de problemas deve ser entendido e praticado por todos
JOÃO JOSÉ DE SOUZA
No caso solução de problemas, as etapas P,D,C e A podem ser assim traduzidas:
Fig 4.5 – Tabela PDCA
4.3.1.2 – Tipos de Problemas
Problemas crônicos são aqueles que uma vez solucionados melhoram a condição de
operação e processo, tornando-o mais robusto, isto é, menos sujeito às alterações de padrões dos
fatores de produção (6 M’s) e/ou melhorando o resultado final ( menor oferta de defeitos, menor
variação, etc).
Após a resolução de um problema crônico se estabelece um novo e melhor padrão de
resultado, quando comparado à condição anterior. Os problemas crônicos podem ser causados por não
observância sistemática de alguns padrões estabelecidos, padrões mal definidos dos fatores de produção
(6 M’s), ou melhor, com potêncial para definição que resulta em melhor resultado final, ou, ainda, por
má manutenção de padrões.
Problemas Crônicos podem ser:
• Problemas repetitivos, já conhecidos e, até então, nunca tratados.
Exemplo: peças com posição deslocada de um furo são fabricadas de vez em quando,
há muito tempo; da mesma forma, peças que não se encaixam, danificadas,
amassadas, ou fora do padrão de cores;
JOÃO JOSÉ DE SOUZA
Definição: Alteração repentina no padrão de resultado identificado pelo próprio grupo ou
identificado pelo cliente; ou ainda, dificuldade repentina ou interrupção das ações de processamento
exigindo esforços adicionais para a sua realização.
Problemas repetitivos, que o histórico indica que já foram tratados por diversas vezes,
mas que voltam a reincidir, demonstrando assim a ineficácia das ações implantadas;
Problemas bons ( oportunidades ):
Essa situação ocorre quando a meta é superar uma situação atual que está boa, mas que
pode ser melhorada, porque:
•
•
•
Uma outra área, da mesma empresa atingiu melhores resultados;
Um concorrente atingiu melhores resultados;
Uma outra empresa, de um ramo de atividades diferente, atingiu melhores
resultados.
Existem problemas que chamamos de problemas do dia – a – dia. Para esse tipo de
problema utilizamos o ciclo PDCA - Rápido.
Sabemos,no entanto, que em nosso dia-a-dia, nos deparamos com problemas e problemas,
ou seja, existem aqueles que aparecem inesperadamente e tiram o processo da sua condição
normal de operação. Uma vez removidos, permitem ao processo retornar às mesmas condições
anteriores. A estes problemas chamamos de “ Não conformidades do dia-adia ” e normalmente suas
soluções podem ser obtidas por pessoas envolvidas com o processo (Operadores, Monitores e Líderes,
que têm conhecimento e recursos para resolvê-los.
4.3.1.3 – Método de Análise:
JOÃO JOSÉ DE SOUZA
JOÃO JOSÉ DE SOUZA
JOÃO JOSÉ DE SOUZA
JOÃO JOSÉ DE SOUZA
4.3.1.4 - Responsabilidade ( Controle do processo / melhoria do processo )
JOÃO JOSÉ DE SOUZA
Fig 4.6 – Tabela de responsabilidades
Relatório de Análise de Problemas ( R.A.P )
Fig 4.7 – Relatório PDCA
Dentre as Ferramentas Auxiliares para Solução de Problemas podemos destacar:
Método dos 3 Gen’s
São as iniciais de 3 palavras japonesas:
• GENBA – significa local real
• GENBUTSU – significa coisa real
• GENJITSU – significa realidade
Em outras palavras os termos utilizados significam:
JOÃO JOSÉ DE SOUZA
•
•
•
Vá até o local das ocorrências para observar fatos adicionais.
Converse com as pessoas que estão diretamente relacionadas com o problema
Verifique no local a frequência do problema, como ocorre, etc.
Fotografe, filme, relate, se necessário. Utilize os 3 gen’s para poder responder as
seguintes perguntas
O QUE ?
- Qual é o defeito e em quais produtos ele aparece ?, Quais consequências ele traz ?
ONDE ?
Em que ponto do produto se encontra o defeito ?
QUANDO ?
Quando o defeito aconteceu pela primeira vez ?, Em que circunstâncias ele ocorreu ?
QUANTO ?
Quais são as proporções do defeito e a quantidade de itens defeituosos ?
Qual é o tamanho do problema ?, Qual a tendência ?
COMO ?
Como o defeito ocorre ? Sob que condições ?
PORQUE ?
Porque o defeito está ocorrendo ? ( nesta fase ainda estamos procurando causas do
problema )
Estratificação
É uma técnica que auxilia na definição mais objetiva de um problema, pois a sua
utilização possibilita a investigação do problema, sob vários pontos de vista e assim ter uma melhor
visualização e atendimento do mesmo.
A estratificação facilita a identificação dos pontos mais críticos do problema.
No caso de estratificação temos quatro pontos importantes a serem observados:
· Por tempo ( quando o problema ocorreu )
· Por local ( lado esquerdo, direito, em cima, em baixo, dentro ou fora )
· Por tipo ( depende de outro fator, temperatura, material, fornecedor, etc )
· Por outros fatores ( métodos diferentes, meios de medição, meios de produção )
Folha de Verificação
JOÃO JOSÉ DE SOUZA
É uma ferramenta da qualidade que tem como objetivo:
· Facilitar a coleta de dados
· Organizar os dados durante a coleta, eliminando a necessidade de rearranjos posteriores.
· Uma folha de verificação bem elaborada é o ponto de partida para que o problema possa
ser subdividido em partes menores e assim sua descrição possa ser bem focada e
objetiva.
Gráfico de Pareto
Este é um critério fundamental para a solução de problemas, sendo aplicado para priorizar
aqueles que contribuem mais significamente. Qualquer problema de priorização pode ser
satisfeito pelo uso da análise de pareto, bastando que os itens a priorizar possam receber valores
quantitativos ( Índice de Ocorrência ). O hábito de priorizar por meio de desta ferramenta, permite
utilizar melhor os recursos disponíveis.
Diagrama de Causa e Efeito
Segundo o idealizador desta ferramenta, o professor Kaaru Ishikawa, o diagrama de
causa e efeito não identifica as causas do problema. É uma ferramenta que possibilita a organização das
Causas do problema, através de sua disposição em diversos níveis, desde o macro até o mais detalhado. (
Causa Fundamental )
A sua forma facilita a visualização das anotações feitas pelo grupo.
A identificação da causa e responsabilidade do grupo, em função disso, deve-se ter em
mente que a eficácia desta ferramenta depende da habilidade do Líder em conduzir a reunião; em fazer
com que as pessoas participem; em evitar críticas às possíveis causas levantadas.
Diagrama de Dispersão ( Correlação )
É um gráfico que permite verificar visualmente o grau de influência que uma váriavel
apresenta sobre a outra. Pode ser utilizado, portanto, para verificar a correlação entre:
· ponto de medição “A” no dispositivo com o ponto “B”;
· a temperatura ambiente e o rendimento do motor;
· a lubrificação e o atrito de componentes mecânicos;
· a velocidade de corte e a rugosidade, ...
Montagem do Plano de Ação
O plano de ação deve estar baseado no conhecimento adquirido até o momento pela
equipe. Um plano de ação bem elaborado deve seguir as seguintes etapas:
JOÃO JOSÉ DE SOUZA
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Listar junto a equipe, todas soluções possíveis para cada causa priorizada.
Escolher soluções mais adequadas levando-se em consideração, dentre outras
coisas:
Custo da solução proposta;
Dificuldades para implantação;
Efeitos colaterais;
Impacto previsto no resultado ( objetivo a ser alcançado );
As soluções mais adequadas para cada causa;
Elaboração de um plano de ação para cada causa definida;
O que será feito ( WHAT );
Quanto será feito ( WHEN );
Quem fará ( WHO );
Onde será feito ( WHERE );
Porque será feito ( WHY );
Como será feito ( HOW ) .
5 – A metodologia Seis Sigma
O principal objetivo da utilização da metodologia Seis Sigma é de aumentar a capacidade
crítica e analítica dos profissionais da empresa, para que estes profissionais possam resolver problemas
crônicos e atingir mets de melhoria desafiadoras.
A metodologia Seis Sigma fundamenta uma lógica estruturada de análise e processamento
das informações, baseando-se em ferramentas estatísticas conhecidas e aplicadas no campo da Gestão da
Qualidade.
Entretanto a metodologia Seis Sigma busca padronizar uma forma eficinete de utilização dessas
ferramentas, de forma a obtermos os melhores resultados na solução dos problemas.
JOÃO JOSÉ DE SOUZA
UNIVERSO DAS INFORMAÇÕES
FATOS = informações qualitativas
DADOS = informações quantitativas
COLETA
PROCESSAMENTO
DISPOSIÇÃO
UNIVERSO DE CONHECIMENTO
Conhecimento dos fatores atuais do problema
O que? Quem? Como? Onde? Quantos? Quando? Por quê? (5W 2H)
ATINGIR METAS
Fig 5.1 – Fluxo das informações na metodologia Seis Sigma
Na aplicação do Seis Sigma podem ser utilizadas diferentes métodos de encaminhamento
da resoluçaõ de problemas. Entre os mais utilizados e eficazes está a que utiliza a metodologia do PDCA
de Deming ( Plan, Do, Check e Action).
Na sequência será apresentada a aplicação do Seis Sigma na solução de problemas
utilizando a metodologia do PDCA de Deming. Serão descritas as etapas com comentários e exemplos
práticos.
5.1 – Identificação do problema
Esta etapa inicial da metodologia tem como principais objetivos:
•
•
•
Definir claramente o problema e evidenciar a sua importância
Definir a freqüência e a evolução do problema até o momento atual
Analisar e quantificar a conveniência de sua solução
Os tópicos apresentados anteriormente podem parecer bastatne óbvios, entretanto é
muito comum que se inicie a tentativa de solução de um problema, sem mesmo defini-lo com exatidão e
de sua real importância e impacto na qualidade do produto ou serviço prestado. A segunda definição
torna-se necessária para avaliar como o problema está se comportanto com o passar do tempo.
Finalmente devemos avaliar o impacto financeiro do problema e de sua solução, pois desta forma iremos
JOÃO JOSÉ DE SOUZA
evitar o dispêndio de tempo e de recursos na solução de problemas que não apresentarão viabilidade
econômica.
Com a clara definição do problema, precisaremos então definir uma Meta a ser alcançada.
Onde deverão estar claramente definidos: o objetivo gerencial o valor e o prazo. A deficiência na
determinação de uma meta poderá comprometer todo o trabalho, uma vez que poderá direciona-lo em
uma determinada direção, fazendo com que outras possíveis causas do problema sejam relevadas. Desta
forma o processo de tomada de decisão será totalmente comprometido. As metas deverão sempre ser
estabelcidas sobre os resultados (fins) e nunca sobre os meios de um processo.
O método mais utilizado para acompanhamento da freqüência da ocorrencia e da
evolução do problema é o gráfico seqüencial. Desta forma podemos acompanhar o comportamento da
variável de interesse ao longo do tempo ou de um determinado período.
32
24
16
8
0
1
2
3
4
5
6
7
8
9
10
11
12
13
Fig 5.2 – Gráfico seqüencial de acompanhamento de uma variável
Analisando-se o gráfico sequencial podemos determinar o comportamento da variável em
função do tempo transcorrido. Verificar se existe uma tendência de aumento ou diminuição dos
problemas. Sendo possível ainda a verificação da existência dealgum caráter cíclico ou sazonal na
ocorrência dos problemas sob observação.
A última etapa a ser realizada na tarefa de identificação do problema é analisar e
quantificar a conveniência de sua solução. Ao avaliar o retorno previsto com a solução do problema,
devemos perceber quais fenômenos estão associados e tentar quantificar o impacto de cada um deles. A
resolução de alguns problemas não gera benefício econômico direto, mas é estrátegica para a empresa,
pois os problemas estão vinculados à sua imagem, à sua visão, às suas políticas e aos seus objetivos.
JOÃO JOSÉ DE SOUZA
5.2 – Análise do fenômeno
A análise do fenômeno tem como objetivos principais:
•
•
Focar o problema
Conhecer profundamente o problema
Durante a etapa da análise do fenômeno devemos coletar a maior quantidade de dados e
informações sobre o fenômeno, desdobra-lo, analisar suas variações para então podermos estabelecer as
metas específicas para a solução do problema.
Antes de iniciar a coleta dos dados é de extrema importância definir claramente a
finalidade e quais as informações que se deseja obter. Devem ser definidas e estudas as fontes e
credibilidades dos dados coletados. Ainda devem ser definidas as formas de registro dos dados, para
permitir a sua utilização e fidelidade.
Uma etapa importante na análise do fenômeno é o desdobramento do problema, isto
significa que devemos dividi-lo em partes menores a fim de locaizar a origem dos problemas. Os
desdobramentos podem ser feitos sob diversos pontos de vista, tais como tempo, tipo, indivíduo, sintoma
e local de ocorrência.
As ferramentas mais utilizadas para a realização do desdobramento e priorização de um
problema são a Análise de Pareto e o Diagrama de Árvore (ver ferramentas da qualidade).
Após o desdobramento do problema torna-se necessário a verificação dos itens ou
problemas que deverão ser priorizados e quaisapresentam variações. Essas variações devem ser
estudadas, pois elas poderão ser naturais, habitual ou esperada do processo, estando relacionadas com as
diversas fontes de variação que são inerentes ao processo produtivo, que também são conhecidas como
causas comuns de variação. Em contrapartida também podem ocorrer variações não habituais e
inesperadas do processo, que estão relacionadas com fontes de variação que ocasionalmente estão
presentes no processo, essas são conhecidas como causas especiais de variação.
Podemos destacar as razões da necessidade da análise das causas das variações de um
processo produtivo. Identificar o tipo de causa de variação associado ao problema na análise do
fen^meno auxilia a dimensionar a análise do processo.
•
•
Causas comuns = item sistêmico – necessita profunda análise do processo
Causas especiais = item localizado – necessária avaliações de registro do processo
No caso de ocorrência de causas especiais, a ferramenta mais apropriada para detectar as
causas da variação são as cartas de controle, dentre as quais podemos destacar:
JOÃO JOSÉ DE SOUZA
•
•
•
•
Carta X – das medidas individuais
Carta AM – das amplitudes móveis
Carta X – das médias
Carta R – das amplitudes
Cartas X-AM para o tempo de carregamento das Carretas
Individual Value
170
11
UCL=157,9
120
2
70
Subgroup
LCL=76,36
1
0
100
60
Moving Range
Mean=117,1
2222
200
300
1
50
UCL=50,10
40
30
20
10
0
2 2
22 2
2222222 22
2
22
2
R=15,33
2
2 2
2
LCL=0
Fig 5.3 – Exemplo de Carta X-AM
Tendo como base os dados coletados nessas cartas de controle, podemos realizar algumas
análises da Capacidade do Processo. Essa análise tem por ojetivo avaliar se o processo atende às
especificações estabelecidas em projeto.
Para a realização dessa análise, torna-se necessária uma verificação da normalidade dos
dados coletados, ou seja, se os dados coletados apresentam uma distribuição normal confrme a curva de
Gauss. Caso os dados apresentem uma distribuição normal, esntão pode-se determinar os índices de
capabilidade do processo e também os índices de desempenho do processo produtivo.
JOÃO JOSÉ DE SOUZA
Grafico de Probabilidade Normal para o
Tempo de Carregamento das Carretas
,999
Probability
,99
,95
,80
,50
,20
,05
,01
,001
80
100
120
140
160
Tempo de ca
Average: 117,141
StDev: 14,0929
N: 276
W-test for Normality
R:
0,9966
P-Value (approx): > 0,1000
Fig 5.4 – Gráfico de análise de normalidade de uma variável
Analise de Desempenho do
tempo de carregamento das Carretas
USL
Process Data
USL
120,000
Target
*
LSL
*
Within
Overall
Mean
117,141
Sample N
276
StDev (Within) 13,5945
StDev (Overall) 14,1057
Potential (Within) Capability
Cp
CPU
CPL
*
0,07
*
Cpk
0,07
Cpm
*
Overall Capability
60
80
100
140
160
180
Exp. "Within" Perform ance
Exp. "Overall" Performance
*
PPM < LSL
*
PPM < LSL
*
PPM < LSL
*
PPU
0,07
PPM > USL
402173,91
PPM > USL
416723,03
PPM > USL
419699,38
PPL
Ppk
*
0,07
PPM Total
402173,91
PPM Total
416723,03
PPM Total
419699,38
Pp
Observed Performance
120
Fig 5.5 – Gráfico de análise de dispersão de uma variável
5.3 – Análise do processo
Nesta fase o objetivo é a determinação das causas dos problemas em estudo, desta forma
uma análise de fenômeno bem realizada facilitará a análise do processo.
Uma análise profunda do processo gerador do problema permite conhecer
qualitativamente os fatores causais deste problema. Para isto são utilizadas algumas ferramentas que
ajudam a identificar esses fatores causais, tais como Brainstorming, FMEA (Failure Mode and Effects
Analysis) e FTA (Fault Tree Analysis).
JOÃO JOSÉ DE SOUZA
As variações do produto final, refletida nas características do produto, é um resultado das
diversas fontes de variação do processo. Estudar um processo, segundo uma visão sistemica, permite
desenvolver um conhecimento profundo do processo de transformação das chamadas entradas e saídas.
Um dos métodos utilizados para analisar o processo segundo uma visão sistêmica, é a
construção de uma teia de aranha onde todas as causas estão interligadas.
CAUSA 2
CAUSA 3
CAUSA 1
CAUSA 4
PROCESSO
CAUSA 8
CAUSA 5
CAUSA 7
CAUSA 6
Fig 5.6 – Gráfico em Teia de Aranha
Esse fluxograma apresenta de maneira clara e detalhada cada uma das etapas do processo
sob estudo, tendo como características:
•
•
•
Documentar o processo
Apresentar a seqüência atual de atividades do processo
Facilitar o conhecimento geral do processo
Entretanto apresentam como desvantagens não fornecer indicação sobre possíveis fontes
de variação no processo, fato importante num programa de redução de variação.
Uma outra forma de análise de processos, tendo sido desenvolvida no Japão, também
muito utilizada é o chamado Diagrama de Causa e Efeito, ou ainda de Diagrama de Ishikawa.
O Diagrama de Ishikawa apresenta de forma clara e detalhada as causas que no processo,
geram o problema em estudo. A eficiência do Diagrama depende da qualidade do Brainstorming de
JOÃO JOSÉ DE SOUZA
causas, ou seja, da forma como foi conduzido o processo de análise das possíveis causas do problema.
Desa forma tanto o conhecimento técnico como o prático devem estar presentes nas reuniões de
Brainstorming, onde devem ser esgotadas todas as possibilidades de causas dos defeitos.
As principais características do Diagrama de Ishikawa são:
•
•
•
•
Apresentar sicintamente o resultado de uma reunião
Apresentar a complexidade e dimensão do sistema de causas
Indicar quais são as causas que podem estar afetando o desempenho do processo
Reunir todo o conhecimento sobre o processo analisado.
Entretanto esta ferramenta da Qualidade também apresenta as seguintes desvantagens:
•
•
Não permitir identificar em que etapa do processo os fatores causais se
encontram, nem onde podem ser atacados.
Não permitir concluir se os fatores atuam de maneira cinsistente ao longo das
várias atividades.
Matéria-prima
Mão-de-obra
Máquina
Perda de
produtos
Método
Meio ambiente
Medição
Fig 5.7 – Diagrama de Ishikawa
Para sanar a maioria das desvantagens dos outros métodos apresentados anteriormentes,
foi desenvolvido uma ferramenta analítica e de cominicação, desenvolvida para identificar as
oportunidades de melhorias nos processos existentes, o chamado mapa de processo.
O Mapade Processo permite expor em sua forma e em um nível de detalhamento
necessário para o conhecimento qualitativo dos fatores geradores do problema, propiciando melhor
qualidade da análise qualitativa, o que auxilia a aplicação de ferramentas estatísticas que irão quantificar
as relações de causa e efeito.
JOÃO JOSÉ DE SOUZA
Para a elaboração do Mapa de Processos são necessárias algumas etapas que devem ser
efetuadas na seqüência que será apresentada a seguir:
5.3.1 - Desenhar o fluxo do processo gerador do problema
•
•
Defini-se o início e o fim do processo a mapear
Deve-se deixar claro os limites sobre o qual se está trabalhando.
Alinhar o eixo
com o centro da
placa do torno
Fixar a peça na placa de
castanhas e aproximar o
contra-ponto
Usinar o diâmetro
do eixo
Figura 5.8 – Fluxograma de processo
5.3.2 - Indicar os produtos em processo e o produto final
•
•
PP – Produto em Processo: produto gerado após cada etapa do processo, antes de
sofrer a transformação em produto final.
PF – Produto Final: produto gerado na última etapa do processo
Alinhar o eixo
com o centro da
placa do torno
Fixar a peça na placa de
castanhas e aproximar o
contra-ponto
PP: Peça alinhada
PP: Peça presa
Usinar o diâmetro
do eixo
PF: Peça usinada
Figura 5.9 – Mapa de processo em construção
5.3.3 - Indicar os parâmetros de produto
Parâmetros de Produtos: variáveis que caracterizam o produto e estão relacionadas com o
problema. Esses parâmetros do produto podem ser classificados em:
•
Parâmetro de Produto final (Y): características importantes do produto final que
estão relacionadas com o problema.
JOÃO JOSÉ DE SOUZA
•
Parâmetros de Produto em processo (y): características importantes no produto
em processo que podem afetar o problema.
Também é aconselhavel incluir no mapa de processo aquelas características de produto
final que não estão associadas ao problema, mas que podem ser afetadas pelo processo em estudo. Os
Parâmetros de Produto deveriam ser passíveis de serem mensurados ou pelo menos, visualmente
observados para facilitar o monitoramento do processo.
y: nivelamento do peça
na máquina
y: posição da peça em
relação ao barramento
Alinhar o eixo
com o centro da
placa do torno
y: estabilidade da peça
na máquina
Y: circularidade do diâmetro
Fixar a peça na placa de
castanhas e aproximar o
contra-ponto
PP: Peça alinhada
PP: Peça presa
Usinar o diâmetro
do eixo
PF: Peça usinada
Figura 5.10 – Mapa de processo em construção
5.3.4 - Indicar os Parâmetros de processo
Parâmetros de Processo (x): são variáveis próprias do processo que causam impacto nos
parâmetros dos produtos em processo e final.
JOÃO JOSÉ DE SOUZA
y: nivelamento do peça
na máquina
y: posição da peça em
relação ao barramento
Alinhar o eixo
com o centro da
placa do torno
y: estabilidade da peça
na máquina
Fixar a peça na placa de
castanhas e aproximar o
contra-ponto
PP: Peça alinhada
x:
x:
x:
x:
Y: circularidade do diâmetro
limpeza da peça
limpeza do suporte
localização dos fixadores
distância da peça às castanhas
Usinar o diâmetro
do eixo
PP: Peça presa
x: torque nas castanhas
x: conservação do torno
x: limpeza do torno
y: posição da peça na placa
PF: Peça usinada
x:
x:
x:
x:
x:
tipo de pastilha
desgaste da pastilha
velocidade de corte
profundidade de corte
avanço da ferramenta
y: nivelamento da peça na placa
y: estabilidade da peça na placa
Figura 5.11 – Mapa de processo em construção
5.3.5 - Classificar os parâmetros de processo
•
•
Parâmetros Controláveis (C): são parâmetros de processo que são controlados, ou
seja, são ajustados em um determinado valor e mantidos próximos ao seu valor
ajustado.
Parâmetros de Ruído (R): são os parâmetros de processo que não podem ser
controlados ou não se deseja controlar.
Dependendo da magnitude do efeito que um parâmetro de ruído tenha sobre um
parâmetro de produto, poderá ser necessário implementar medidas de controle sobre ele, o que o
transformará em parâmetro contolável.
Aqueles parâmetros de processo (controláveis ou de ruídos) que exercem grande efeito
no problema são considerados Críticos.
JOÃO JOSÉ DE SOUZA
y: nivelamento do peça
na máquina
y: posição da peça em
relação ao barramento
Alinhar o eixo
com o centro da
placa do torno
y: estabilidade da peça
na máquina
Y: circularidade do diâmetro
Fixar a peça na placa de
castanhas e aproximar o
contra-ponto
PP: Peça alinhada
Usinar o diâmetro
do eixo
PP: Peça presa
R: limpeza da peça
*R: limpeza do suporte
*R: localização dos fixadores
*C: distância da peça às castanhas
*C: torque nas castanhas
R: conservação do torno
R: limpeza do torno
y: posição da peça na placa
Classificação dos parâmetros de processo
* : Crítico
R: Ruído
C: Controlável
PF: Peça usinada
C: tipo de pastilha
R: desgaste da pastilha
*C: velocidade de corte
*C: profundidade de corte
*C: avanço da ferramenta
y: nivelamento da peça na placa
y: estabilidade da peça na placa
Figura 5.12 – Mapa de processo concluído
Aconselha-se que antes da elaboração final, seja feito um rascunho preliminar do mapa,
sendo que posteriormente sejam determinados os detalhes, acabamentos, etc. Nessa elaboração devem
participar mais de uma pessoa, de forma que a atividade seja dinâmica, preferencialmente deve ser
formada uma equipe para a análise do problema.
5.4 – Priorização das causas
JOÃO JOSÉ DE SOUZA
Após o levantamento dos fatores causais é extremamente importante determinar quais são
as causas que tem grande impacto no problema. Um diagrama de matriz pode ajudar nesta tarefa. Para a
construção do diagrama matriz necessita-se dispor nas linhas as causas e nas colunas os fenômenos,
posteriormente indicar qualitativamente o impacto d cada causa nos fenômenos.
Causa do defeito
A
B
C
D
E
Tipo do defeito
Lasca no gap
Trinca na camada
Riscos de lapidação
Abaulamento insuficiente
Relacionamento:
Muito forte
Forte
Fraco
Figura 5.13 – Diagrama matriz
5.5 – Análise quantitativa dos fatores causais
Nesta fase da aplicação da Metodologia Seis Sigma, deve-se quantificar e priorizar os
fatores causais. Sendo que a percepção destes e sua análise dependem de um observador, que irá se
basear em seu conhecimento sob algum evento que está ocorrendo. Costuma-se dizer que o
conhecimento técnico de um observador perceptivo atua como uma faca de dois gumes, pois pode
limitar a percepção do evento. Por outro lado, a falta de conhecimentos também pode limitar essa
percepção.
A atuação do observador sobre o evento que está ocorrendo pode ser de dois tipos
distintos:
•
•
Atituide passiva
Atitude ativa
Um procedimento que induz eventos informativos é a experimentação. Num experimento,
realizamos modificações no processo segundo um critério definido e avaliamos o resultado final.
5.5.1 – Planejamento de experimentos
JOÃO JOSÉ DE SOUZA
Um experimento é um conjunto de testes nos quais são realizadas as modificações
propositais em determinados parâmetros de processo contrláveis, de forma a identificar e quantificar as
mudanças nos parâmetros de produto em processo ou de produto final.
No planejamento de um experimento podemos definir alguns tópicos necessários à sua
elaboração, os quais são:
•
Variáveis respostas: é o que se deseja melhorar ao se realizar um experimento.
São os parâmetros de produto em processo que estão em questão relacionados ao
problema. Estes devem ser quantitativos, sendo que podemos ter mais de uma
resposta em um experimento.
•
Fatores: são variáveis que são deliberadamente alteradas em um experimento,
com o objetivo de avaliar o efeito que elas exercem sobre as variáveis respostas e
escolher a melhor condição de operação no processo. Em geral devem ser
escolhidos os parâmetros críticos de processo, podendo ser qualitativos ou
quantitativos.
•
Nível de um fator: representa as possíveis condições que um fator pode assumir
em um experimento.
•
Variáveis de ruído: são variáveis conhecidas que podem afetar as variáveis
respostas de um experimento e que na prática não há como controlar, ou não há
interessee em se controla-las durante o processo produtivo.
•
Variáveis perturbadoras: são as variáveis que podem afetar os resultados do
experimento. Par diminuir o seu efeito sobre um experimento, deve-se tornar o
experimento aleatório.
•
Ensaio: corresponde ao teste realizado em uma determinada condição
experimental.
•
Réplicas: são repetições de um mesmo experimento nas mesmas condições. O
objetivo das réplicas é aumentar a capacidade de percepção das diferenças que os
tipos de variações do processo podem produzir.
Muitas vezes, mesmo identificadas as principais fontes de variação do processo, faz-se
necessária a realização de alguns experimentos para confirmar qual o melhor valor para cada uma destas
variáveis . Estes experimentos devem ser conduzidos de forma a evitar determinadas armadilhas que
podem levar o observador a tirar conclusões falsas sobre os níveis de melhor desempenho de cada fator .
5.5.2 – Exemplo de experimentos
JOÃO JOSÉ DE SOUZA
A seguir iremos demonstrar um exemplo de experimento onde uma análise muito
superficial conduzirá aconclusões errôeneas.
Desconfia-se que dois fatores influenciam a quantidade de erros de digitação por 100
páginas:
•
•
o tipo de computador usado (Mac ou PC);
o funcionário (José ou Paulo).
Os resultados estão abaixo. Qual é a conclusão ?
Figura 5.14 – Tabela de variáveis
Temos dois fatores, sendo que cada um deles estão em dois níveis diferentes.
Figura 5.15 – Tabela Fatores X Níveis
Observando-se os totais por coluna e por linha, percebe-se que há mais diferença entre
funcionários do que entre equipamentos. De fato, enquanto José comete em média somente 11 erros a
cada 100 páginas, Paulo comete 25.
É mais fácil ainda perceber estas diferenças através de uma figura, chamado de gráfico
dos efeitos principais.
JOÃO JOSÉ DE SOUZA
Figura 5.16 – Gráfico de efeitos principais
Outro aspecto importante em experimentos é detectar a eventual presença de interação
(sinergia) entre os fatores. Esta só é detectada quando se varia mais do que um fator por vez, mediante o
gráfico de linhas para interação.
Figura 5.17 – Gráficos de linhas de interação
Para facilitar (sistematizar) a forma de fazer cálculos de efeitos e interações vistos
anteriormente, é comum utilizar uma tabela de contrastes como a seguir:
JOÃO JOSÉ DE SOUZA
Figura 5.18 – Tabela de contrastes
5.5.3 – Armadilhas em experimentos
Os exemplos a seguir apresentam situações onde podemos tirar conclusões erradas, em
função de observações realizadas sem um critério rígido e bem definido.
5.5.3.1 – Armadilhas: variável comum
É comum em muitos Projetos Seis Sigma o associar-se um defeito com uma variável que
está sempre presente quando ele ocorre (é o caso do operador que é culpado, pois quando que ele
executa a operação ocorre um defeito ) .
Vejamos a análise dos casos de embriagues ocorridas durante as convenções de final de
ano em um famoso hotel localizado no sul do país.
Figura 5.19 – Tabela de variáveis
Conclusão: a água embebeda
JOÃO JOSÉ DE SOUZA
5.5.3.2 – Armadilhas: correlações casuais
Se a história servisse de base, os Republicanos nos Estados Unidos deveriam estar
vestindo a camisa do time de Basebol dos Yankees e dando uma força para o New York vencer o
campeonato. Desde a Segunda Guerra Mundial, toda vez que os Yanks venceram em um ano de eleição,
o Partido Republicano assumiu a Casa Branca.
Figura 5.20 – Tabela de relações casuais
5.5.3.3 – Armadilhas: faixa de variação
Esta é uma outra armadilha bastante comum. O observador estuda durante a fase de
Análise uma faixa estreita de comportamento do “X” , tira conclusões falsas e toma ações erradas na fase
de Melhoria. E, pior, muitas vezes extrapola as conclusões para fora desta faixa .
Figura 5.21 – Análise das faixas de variação
JOÃO JOSÉ DE SOUZA
No exemplo apresentado na Figura 5.21, a utilização de uma faixa de variação muito
pequena, induz a análise errada sobre o fenômeno em estudo. Em ambos os casos apresentados a
pequena faixa de variação escolhida demonstra que o processo está estável e uniforme. Quando na
verdade apresentam variações bem distintas. No primeiro caso a variável controlada está diminuindo
gradativamente. Enquanto que no segundo caso a variação é parabólica.
5.5.3.4 – Armadilhas: causa reversa
O observador chega na fase de Análise à conclusão que um fator “X” tem influência sobre
o “Y” quando, na verdade, o que ele está vendo é a conseqüência do “Y” .
Um exemplo deste caso é o do Departamento de Vendas que insatisfeito com as Vendas
resolve dar uma série de descontos e faz promoções para atrair os clientes .Só que a verdadeira causa do
problema é o Serviço de Atendimento ao Cliente . Com os novos descontos e a nova promoção fica mais
difícil ainda administrar o Serviço de Atendimento ao Cliente, ocasionando num aumento da insatisfação
do cliente e diminuindo mais ainda as vendas (“o tiro saiu pela culatra”)
5.5.3.5 – Armadilhas: fatores omitidos
Pesquisas continuamente demonstram que a medida que o tamanho dos hospitais
aumenta, a taxa de mortalidade dos pacientes aumenta dramaticamente. Portanto, deveríamos evitar
hospitais grandes? Esta análise é enganadora, pois omite um segundo X2 (fator) importante a gravidade
da condição do paciente quando é admitido ao hospital. Os casos mais sérios tendem a serem levados
aos hospitais maiores!
Um caso muito comentado em treinamentos do Progrma Seis Sigma é o caso do
Fazendeiro Radiofóbico.
Em 1950, um fazendeiro afirmou que suas árvores frutíferas estavam sendo prejudicadas
pelas ondas de rádio de uma estação local próxima. Ele colocou uma tela de arame ao redor de algumas
das árvores para “protegê-las” destas ondas de rádio e, realmente, as árvores protegidas se recuperaram
rapidamente, enquanto que as desprotegidas ainda sofriam.
Na mesma época, muitas árvores cítricas em todo país foram ameaçadas por uma doença
chamada de “folha pequena”. Alguns fazendeiros Texanos descobriram que uma solução de sulfato de
ferro curava a doença. No entanto, nem sempre funcionava no Texas, e praticamente nunca funcionava
na Flórida ou na Califórnia. O mistério foi desvendado quando o problema verdadeiro foi revelado -deficiência de zinco no solo. A cerca do fazendeiro Radiofóbico era de tela galvanizada, sendo que
traços do zinco da galvanização eram levados da tela para o solo. O sulfato de ferro nada tinham a ver
com a cura, mas sim os baldes de ferro galvanizados usados para espalhar a substância! Em outras
regiões, onde outros tipos de baldes eram usados, as árvores continuaram doentes.
JOÃO JOSÉ DE SOUZA
5.5.3.6 – Armadilhas: multicolinearidade
É difícil saber o quê causa o quê, quando alguns fatores [X’s] tendem a ocorrer juntos
regularmente. • “Tenho visto uma redução dramática nas perdas desde que comecei a implementar as
ferramentas Seis Sigma na fábrica!” No entanto, foi exatamente na mesma época em que o RH
introduziu seu novo sistema de recompensa e reconhecimento. O que ocasionou a melhoria?
• Em 1967, um artigo rotulou um determinado tipo de carro como sendo inseguro. O
modelo em questão era um carro pequeno esportivo de alto desempenho. Mas que tipo de motorista
seria atraído a tal carro? E se eu dissesse que a maioria dos proprietários deste carro tendiam a ser
motoristas jovens menores de 25 anos com novas idéias. Esta faixa etária não paga prêmios de seguro
mais elevados devido a maior incidência de acidentes?
5.6 – Elaboração do Plano de ação
A elaboração do plano de ações deve ser realizada após um completo estudo do processo
e da análise de suas variáveis de entrada e de suas variáveis de respostas. Tem como principais objetivos:
•
propor medidas para solucionar o problema
•
entender o efeito de cada medida no resultado desejado
•
identificar os efeitos correlatos de cada medida
•
e finalmente elaborar o plano de ações
Para elaborar um bom plano de ações devemos, para cada causa prioritária, identificada
na análise do processo, realizar um brainstorming para levantar possíveis contramedidas. Sendo que para
estas devemos estabelecer a correlação com as metas específicas e outras variáveis de interesse através
do diagrama matriz.
Deve-se também testar as medidas para verificar seus efeitos. Algumas ferramentas como
otimização de respostas, pesquisa operacional, simulação e as mesmas ferramentas utilizadas para
quantificar os fatores causais podem ser utilzadas para testar as medidas propostas.
Finalmente o plano de ações deve então ser elaborado com base nas causas prioirtárias,
normalmente o plano de ações é disposto por meio do 3W, 5W1H ou 5W2H.
JOÃO JOSÉ DE SOUZA
What (O que)
3W
Who (Quem)
When (Quando)
5W1H
Where (Onde)
5W2H
Why (Por que)
How (Como)
How much (Quanto custa)
Figura 5.22 – Perguntas para elaboração do plano de ações
Plano de ação
O Que
Eliminar paredes entre área de
estocagem e carregamento
Trocar piso de concreto para
piso de asfalto
Instalar placas indicativas
Instalar sinais luminosos
Quem
Quando
Oliveira
21/09/ deste ano
Ronaldo
10/10/deste ano
Alessandra 15/10/deste ano
Wagner
25/10/deste ano
Porque
Layout do depósito
inapropriado;
Distância elevada entre as
áreas de estocagem e
carregamento;
Piso inadequado
Falta de sinalização
Falta de sinalização
Figura 5.23 – Plano de ações
5.7 – Verificação da efetividade do Plano de ação
A verificação da efetividade de um plano de ação deve ser realizada em diferentes etapas,
de forma que possam ser cumpridas as metas estabelecidas.
JOÃO JOSÉ DE SOUZA
5.7.1 – Condção do plano de ação
Entre outras atividades deve-se:
•
•
•
•
•
verificar se há o comprometimento ds partes responsáveis pela execução do plano
de ações, desde gerentes até operadores de linha.
Padronizar e treinar as pessoas envolvidas na implementção d oplano de ação
Observar no local como estão sendo executadas as ações previstas no plano de
ação
Acompanhar o cronograma de execução
Registrar os desvios encontrados na execução do plano de ação e elaborar planos
e contingencia.
5.7.2 – Verificar os resultados
A efetividade do plano de ações deve ser verificadas através de monitoramento, tanto da
meta geral quanto das específicas continuamente, por meio de gráficos sequneciais, cartas de controle ou
outras ferramentas.
Verificacao do % de Caminhoes que ultrapassam
o tempo de permanencia especificado
% caminhões > LSE
24
Inicio do Plano de Acao
19
Meta
14
Month
Year
j j a s o n d j f mam j j a s o n d j f mam j j a s o n d j f mam
1
2
3
4
Figura 5.24 – Monitoramento da meta por gráfico seqüencial
JOÃO JOSÉ DE SOUZA
6 – Resultados da aplicação do Programa Seis Sigma
A utilização do Programa Seis Sigma pelas empresas tem trazidos grandes resultados,
tanto na otimização dos processos de criação, de projeto como na área das finanças. Os maiores
impactos e mais perceptíveis a níveis gerenciais, são os retornos financeiros que a aplicação do Programa
vem gerando nas empresas.
Desenvolvido pelo Engenheiro Bill Smith, da Divisão de Comunicações da Motorola, em
1986, para resolver o crescente aumento de reclamações relativas as falhas no produto dentro do
período da garantia, o método padronizou a forma de contagem dos defeitos e também definiu um alvo,
onde estaríamos próximos à perfeição, o qual foi denominado de Seis Sigma.
A estratégia auxiliou a Motorola no alinhamento dos processos às necessidades do
cliente, na mensuração e aprimoramento do desempenho dos processos críticos e na documentação
destes, levando-a a triplicar a produtividade e obter economias da ordem de US$ 11 bilhões até o ano de
1997. O trabalho resultou na obtenção do prêmio Malcolm Baldrige National Quality Award (Prêmio
Nacional da Qualidade dos EUA) em 1988.
Posteriormente, esta estratégia recebeu contribuições importantes de organizações como
IBM, Xerox, Texas Instruments, AlliedSignal (atualmente Honeywell).
A General Eletric, empresa que adotou e alardeou os benefícios da ferramenta foi a
General Eletric, na gestão de Jack Welch. Os ganhos com os projetos desenvolvidos pelos "black belts"
chegaram a US$ 1,5 bilhão na companhia em 1999.
Na área automotiva, a utilização começou com a AlliedSignal, fabricante de autopeças,
em 1994, alcançando economias de US$ 2 bilhões em projetos Seis Sigma [5]. Os resultados obtidos
pelas organizações pioneiras, auxiliaram a disseminação em alta velocidade às principais montadoras e
fabricantes de autopeças americanos, a destacar: Dana, Delphi, Johnson Control, Ford, Lear, Visteon,
Eaton, Cummins, Caterpillar, John Deere, entre outras.
A seguir serão apresentados alguns casos dos resultados da aplicação do Programa Seis
Sigma em empresas no Brasil.
6.1 - Schneider Electric reduz custos e melhora atendimento com Seis Sigma
Líder mundial em baixa tensão e controle industrial, a Schneider Electric estima
economizar no Brasil R$ 800 mil ao ano com projetos desenvolvidos dentro do Seis Sigma.
Este programa, já difundido internacionalmente, é fundamentado em detectar falhas no
processo produtivo, corrigi-las e assim buscar economia para a empresa.
JOÃO JOSÉ DE SOUZA
O Seis Sigma está crescendo no Brasil pela possibilidade que oferece às empresas de
ganho financeiro através da redução de custos. A empresa acredita que a economia será ainda maior com
os novos projetos, que estão sendo elaborados.
Um dos projetos, com o objetivo de reduzir em 30% as devoluções de produtos causadas
por problemas comerciais ou logística, já conseguiu reduzir de três dias para um hora a troca de
produtos que estavam na garantia. Além disso, esse projeto deve proporcionar uma redução de custo em
torno de R$ 150 mil ao ano, além de diminuir os prejuízos da empresa com devoluções, que de janeiro a
outubro de 2002 somaram R$ 350 mil.
Outro exemplo é o projeto para diminuir o tempo de atendimento das reclamações dos
clientes. De janeiro a setembro de 2002 a Schneider Electric levava em média 15 dias para atender a uma
reclamação de cliente. Em abril deste ano, este prazo passou para quatro dias. Para obter esse resultado
foram redefinidas responsabilidades e a empresa adotou um novo método, onde qualquer pessoa pode
registrar uma reclamação. Assim, o atendimento ao cliente é feito 24 horas por dia, além das melhorias
nos controles das reclamações.
Hoje, a Schneider Electric Brasil conta 31 Green Belts e um Black Belt, que trabalham
em projetos na área industrial, administrativa e comercial, envolvendo perto de 150 pessoas que atuam
revendo os processos, reduzindo a sua variabilidade e otimizando os meios à luz da metologia DMAIC
(*). Esta economia é a previsão para os primeiros trabalhos, nesta fase considerada de formação dos
Green Belts.
A proposta principal do Programa Seis Sigma é reduzir a variabilidade do processo,
lançando mão de ferramentas estatísticas e de qualidade, a fim de detectar as falhas que estão presentes
no processo.
Na Schneider Electric Brasil, cada Green Belt deve apresentar um projeto até a fase de
controle para conseguir o certificado de Green Belt, tendo início então a responsabilidade de
participarem de grupos de trabalho em sua atividade ou projetos transversais, dirigir e animar grupos de
trabalhos e serem replicadores da metodologia DMAIC. A metodologia DMAIC que reúne cinco pontos:
definir, medir, analisar, implementar e controlar.
6.2 – Multibras aplica o Seis Sigma no projeto
Na Multibrás, fabricante de linha branca das marcas Brastemp e Cônsul, há 600
funcionários formados, sendo 400 deles "faixa preta". E há ainda um plano mais aprofundado de
conhecimento que é o processo de certificação, com mais de 18 meses de projeto. "O objetivo é criar
especialistas em resolução de problemas crônicos e em desenvolvimento de produtos, de maneira a evitar
que nasçam com falhas", explica o gerente-geral de Qualidade Total da Multibrás, Carlos Afonso Zilli,
que é coordenador do programa "Black Belts" na empresa. De acordo com Zilli, desde 1998 a média de
retorno por funcionário envolvido no programa e, conseqüentemente, autor de algum projeto, é de R$
15 para cada R$ 1 investido em treinamento.
JOÃO JOSÉ DE SOUZA
Escala - O índice médio de retorno é de R$ 10, pelos cálculos da consultora da FDG Ana
Cristina Belém. Ela conta que a consultoria, sediada na Grande Belo Horizonte, foi uma das pioneiras no
método Seis Sigma no Brasil, criado em 1985 pela Motorola.
A fabricante de equipamentos eletrônicos, na época, desenvolveu uma escala para análise
do processo produtivo, levando em conta quantos erros eram encontrados num lote de um milhão de
produtos.
A Multibrás, primeira cliente e parceira da FDG na formatação do Seis Sigma para o
mercado brasileiro, acumulou retorno de R$ 74 milhões em quatro anos de programa, segundo Zilli. O
executivo conta que toda a corporação está envolvida na busca de melhoria do processo produtivo e
redução de falhas, não apenas no chão de fábrica, mas também na área administrativa. "Os 'black belts'
estão espalhados por todos os departamentos", diz.
6.3 – FDG ensinando o Seis Sigma
Perfil - Para tornar-se um faixa verde ou preta, o funcionário deve demonstrar perfil de
liderança, disposição para mudanças, conhecimento técnico ou da área em questão, influência em seu
grupo, gosto por desafios.
A consultora da FDG Ana Cristina Belém conta que os "black belts" em geral alcançam
melhores posições na empresa. Na Multibrás, a área de Recursos Humanos participa do programa, com
uma política de retenção de talentos dos formandos, O coordenador revela que os profissionais
certificados atingem o teto máximo de suas respectivas categorias ou até chegam a ser promovidos.
"Temos diversos casos de 'black belts' promovidos a cargos de gerência." Os "blacks belts" do mais alto
grau, cerca de 60 até agora na Multibrás, passarão em 2003 a assessorar os colegas em curso e
participação da seleção de projetos. Carlos Afonso Zilli ressalta que o programa não é meramente um
treinamento. "É uma cultura que não fica restrita à corporação, mas também se aplica à vida do
funcionário."
Treinamento - O curso da FDG dura uma semana para o nível "green" e duas para
"black", período no qual o funcionário aprende a lidar com o software Minitab, muito utilizado no ramo
de estatística. Ao longo do prazo previsto de projeto, seis meses ou um ano (ou seja, dois projetos no
caso dos "faixas pretas"), o aluno recebe orientação dos consultores FDG em conceitos de
administração, que é para auxiliar na realização de sua tarefa.
Há empresas que optam por manter consultores residentes, como é o caso da BelgoMineira. "Temos 5 consultores dentro da empresa, o tempo todo disponíveis para os 160 profissionais
envolvidos em projetos", diz Ana Cristina Belém. Antes de iniciar o treinamento, a consultora explica
que é importante que a empresa saiba quais objetivos pretende atingir. Em caso de dúvida, a FDG
oferece um workshop com a alta administração para fazer um diagnóstico operacional e definir as
lacunas a serem preenchidas. Esse processo leva em torno de dois meses, segundo a consultora. Ela
aconselha começar por um curso para "green belts", que já resolvem boa parte das falhas. Depois, de
acordo com a necessidade, partir para a formação de "black belts". "Com massa crítica a empresa dilui
JOÃO JOSÉ DE SOUZA
os custos e posteriormente consegue identificar os profissionais mais capacitados para um
aprofundamento na metodologia" explica. Dessa maneira, a FDG espera conquistar maior número de
médias e pequenas empresas.
Hoje, a carteira é composta por grandes nomes, como, Ambev, CST, Gerdau, Acesita,
Telemar, Votorantim, Johnson&Johnson, Politeno, Sadia, entre outros.
A FDG é uma fundação, portanto sem fins lucrativos, que nasceu atrelada à Universidade
Federal de Minas Gerais, da qual se desligou em 1997, pouco antes de começar a consultoria em seis
Sigma, dentre outros serviços de gestão. O faturamento previsto para este ano é de R$ 70 milhões, o que
representa 38 % de crescimento sobre 2001.
6.4 – Telefônica: no caminho da qualidade
Recentemente, a Telefônica começou a trabalhar a gestão de qualidade baseada no seis
sigma, processo de gerenciamento de qualidade que utiliza ferramentas estatísticas para tornar os
processos estáveis e com baixo nível de erros (no caso de seis sigmas são 3,4 defeitos em um milhão de
possibilidades de eles ocorrerem). O modelo é utilizado por muitas companhias pelo mundo. Mas a
empresa ainda pretende incrementar o seis sigma. 'Você pode ter nível de erro baixo, mas se o erro for
muito grande não se pode dizer que tem qualidade', exemplifica Amorim.
Por isso, a empresa pretende criar ferramentas que permitam identificar não só as causas
dos problemas, mas também soluções eficazes. O processo de implantação desse modelo de gestão
começou identificando as pessoas que se dedicarão integralmente ao gerenciamento de qualidade e
passarão por um treinamento prático com a Fundação Vanzolini. 'Já contratamos a fundação,
selecionamos 12 candidatos e 12 projetos e começaremos a etapa de qualificação. Todas os setores da
empresa apresentaram um candidato, desde finanças, recursos humanos até as áreas operacionais',
comenta o presidente da Telefônica.
Cada um dos escolhidos vai trabalhar num projeto considerado crítico e se tornarão o que
a empresa chama de black belts (faixas pretas) que, além de serem os líderes do projeto, treinarão os
colegas (que serão os green belts). 'As instituições que implementam isso com qualidade têm mais de
50% da força de trabalho como 'green belt' e sabem usar as ferramentas para fazer o trabalho com
qualidade', aponta. Antes de implementar a metodologia do seis sigma, os executivos da Telefônica
também visitaram outras empresas para conhecer a experiência deles com esse processo de qualidade
JOÃO JOSÉ DE SOUZA
6.5 - Belgo-Mineira investe para formar Faixas-Pretas em Qualidade
Projeto Black Belt ou Seis Sigma capacita pessoas nas organizações especializadas em
resolver problemas. Nos Estados Unidos, estes profissionais são tão requisitados quanto os do mundo
digital.
Sabe como um faixa-preta resolve problemas sem aplicar um golpe de karatê sequer?
Fazendo perguntas. Mesmo que pareçam óbvias, elas podem ajudar e muito na condução de um trabalho
de investigação contribuindo decisivamente para a solução de problemas. O Black Belt (faixa-preta da
Qualidade) é então, antes de tudo, um questionador, um observador
curioso e atento da situação.
Foi para treinar especialistas em solução de problemas crônicos do processo produtivo
(contribuindo para a redução do percentual de defeitos e custos de fabricação) que a Belgo-Mineira vem
apostando, inicialmente, em um grupo de profissionais aos quais será confiada esta missão nas empresas.
O Projeto Black Belt ou Seis Sigma, como também é conhecido, foi criado pela
Motorola, nos Estados Unidos, na década de 80, e, em linhas gerais, trata-se de um método de obtenção
de resultados a partir de análises estatísticas. No Brasil, a Fundação de Desenvolvimento Gerencial
(FDG), de Belo Horizonte, é quem ministra os treinamentos.
O coordenador do projeto na Belgo-Mineira, Jocely Evaristo Alves, observa que o Black
Belt é o profissional que tem a capacidade de transformar informação em conhecimento. "Queremos
aumentar a capacidade crítica de nossos solucionadores de problemas", afirma ao comentar que a
proposta da Belgo-Mineira é tornar este projeto o mais difundido possível, não o restringindo a uma
casta de executivos da empresa. Para isso, novas turmas estão sendo montadas. A limitação, segundo ele
ocorre em função do alto custo do treinamento, entretanto, nada impede que o treinando de hoje seja o
instrutor de amanhã, atuando como multiplicador.
Da Belgo-Mineira Juiz de Fora estão participando Ivan Antônio da Silva, da Trefilaria,
Eduardo Pires da Costa, Planejamento da Produção, Marcelino Vieira Lopes, Aciaria e Fernando
Magalhães, Laminação. "É o melhor curso que já fiz em toda a minha vida e olha que o segundo está
bem lá atrás", compara Marcelino, entusiasmado com esta nova oportunidade profissional. Na verdade,
esta opinião é unânime. "As técnicas são fantásticas", concordam.
O entusiasmo é tanto e tão contagiante que já na apresentação dos primeiros resultados
do trabalho de curto prazo que cada Black Belt deve fazer, a platéia - formada pelo grupo de gerentes e
pelo diretor da empresa, Cláudio Horta - ficou impressionada pela forma como os resultados surgem tão
rapidamente, em função da metodologia adotada.
JOÃO JOSÉ DE SOUZA
"Os Black Belts terão papel importante, como parte de um time, em colocar a Belgo entre
as fornecedoras privilegiadas de aço no mercado mundial".
Black Belts: profissionais treinados para atingir metas (resolver problemas) por meio do
emprego de técnicas estatísticas como ferramentas analíticas.
Seis Sigma: é o instrumento de trabalho do black belt. O objetivo é capacitar a equipe de
pessoas da empresa para o uso de ferramentas - principalmente técnicas estatísticas – que colocarão o
exercício da análise em um patamar elevado, compatível com as metas cada vez mais desafiadoras que
devem ser atingidas pela organização. Sigma: Sigma é a unidade estatística usada para medir a
capacidade de um processo de funcionar sem falhas. Um produto ou serviço com nível Seis Sigma é
99,99966 perfeito. Escala Sigma: usada para medir o nível de qualidade associado a um processo.
Quanto maior o valor alcançado na escala sigma, melhor.
Processo de formação de Black Belts: os candidatos a Black Belts participam de um
curso com duração de quatro meses de treinamento (200 horas), sendo cada mês composto por uma
semana em sala de aula (50 horas) e três semanas de aplicação prática.
Projetos Práticos: Cada candidato a Black Belt desenvolve três projetos práticos(curto
prazo - seis meses, médio prazo - 12 meses e longo prazo - 18 meses) no decorrer do curso, sendo que
cada um deles deve resultar em: ganho econômico para a empresa igual a, no mínimo R$ 75 mil por ano
ou ganho em qualidade igual a, no mínimo, 50% ou ganho em produtividade igual a, no mínimo, 30%.
6.6 – Kodak economiza com o Seis Sigma
O engenheiro de processos Pedro Tchmola conseguiu economizar US$ 175 mil por ano
para a Kodak do Brasil sem grande investimento adicional. Com alguns meses de trabalho duro, uma boa
dose de criatividade e muita análise estatística, Tchmola percebeu uma redundância no controle de
qualidade da divisão Produtos para a Saúde, responsável pelos filmes para raio-X. Muitas vezes, o
trabalho era repetido sem resultados significativos. Com a redução do número de profissionais no setor e
a modernização de alguns equipamentos, Tchmola fez com que a quantidade de testes caísse 75%.
Pedro Tchmola é um black belt (faixa-preta). Faz parte de uma elite que nos últimos anos
vem ganhando espaço e poder nas empresas de todo o mundo e que, agora, estão prestes a se
transformar em coqueluche também no Brasil.
JOÃO JOSÉ DE SOUZA
7 – Conclusão
O presente trabalho apresentou os conceitos dessa importante metodologia de tratamento
de problemas. De forma alguma o leitor desta estará capacitado a realizar trabalhos do Progrma Seis
Sigma, mas com certeza terá a base de conhecimento necessária para um treinamento do programa.
Foram apresentadas as principais ferramentas estatísticas utilizadas na qualidade e o
princípio de utilização das mesmas pelo Programa Seis Sigma. Assim o leitor interessado na utilização do
programa, deverá participar de um dos cursos oferecidos no mercado para a formação de especialistas na
área, quer seja um “Green Belt” ou um “Black Belt”.
Este autor está participando da implantação do Programa Seis Sigma na Volkswagen do
Brasil, e juntamente com cerca de mais 60 colegas, partcipou do treinamento e formação de “Green
Belts”, ministrado pela FDG. Atualmente existem dezenas de trabalhos em andamento dentro da
companhia. Muitos já foram concluidos gerando não só mehorias no produto, como também um
considerável retorno financeiro.
Desde que aplicado de forma correta e duradoura, o Programa Seis Sigma tende a gerar
muitos frutos dentro das empresas, basta verificar os exmplos expostos no capítulo 6. Alí estão relatos
das vantagens obtidas com a utilização do Programa e das estimativas dos retornos financeiros
propiciados.
Na imprensa escrita, tanto em jornais como em revista, costumam surgir artigos relatando
as experiências das empresas na implantação do Programa Seis Sigma.
Mas nada melhor do que participar do programa, para sentir realmente quais são as suas
vantagens sobre as demais metodologias comumente utilizadas.
Uma sugestão para futuros estudos consiste na necessidade da avaliação da eficácia do
Programa Seis Sigma nas empresas, sendo necessário avaliar-se:
•
a porcentagem de pessoal treinado que continua a aplicar o método
•
análise da eficiência da aplicação e utlização das ferramentas
•
retorno financeiro médio por projeto conduzido
•
levantamento dos erros mais frequnetes
•
levantamento das dificuldades e barreiras encontradas no projeto
•
grau de melhoria dos processos e produtos
JOÃO JOSÉ DE SOUZA
Desta forma poderão ser detectadas falhas devido a problemas de utilização incorreta das
ferramentas, falta de profundidade nas análises dos problemas, pouco tempo de dedicação, determinação
incorreta das contramedidas e ainda um ineficaz acompanhamento das ações em implementação.
Os Gestores das empresas devem lembrar-se que não basta apenas treinar o seu pessoal
no Programa Seis Sigma, é necessário que a alta gerência da empresa esteja comprometida com ele e
apoie incondicionalmente o seu pessoal, caso contrário os projetos não terão sucesso. E certamente
quando forem analisadas as causas do fracasso, será mencionada a falta de eficácia do programa e ou
falta de capacidade do uncionário que comandou o projeto. Entretanto esta pode não ser toda a verdade,
pois fatores não analisados poderão ter influenciado no processo. Para resolver o problema fica uma
sugestão: que tal aplicar o Programa Seis Sigmas para verificar o que ocorreu e implementar as ações
necessárias?
JOÃO JOSÉ DE SOUZA
8 –Bibliografia
1. Juran, J. M. - Controle da Qualidade – Makron Books.Volume IX. S.Paulo, 1988
2. Juran, J. M. - Juran na liderança pela Qualidade – Livraria Pioneira Editora.
S.Paulo, 1989
3. Deming, W. Edwards - Qualidade: A revolução da Administração – Editora
Marques-Saraiva. S. Paulo, 1982.
4. Campos, Vicente F. – TQC – gerenciamento da rotina do trabalho – Bloch
Editores. Rio de Janeiro, 1994.
5. Werkema, Maria C. C. – As ferramentas da Qualidade no gerenciamento do
processo – Bloch Editores. Rio de Janeiro, 1995.
6. Helman, Horácio – Análise de falhas _ aplicação dos métodos FMEA - Bloch
Editores. Rio de Janeiro, 1995.
7. Aguiar, Silvio – Integração das ferramentas da Qualidade ao PDCA e ao
Programa Seis Sigma – Editora FDG. Belo Horizonte, 2002.
8. Treinamento Programa Seis Sigma – Green Belts Industrial – Editora FDG. Belo
Horizonte, 2002.
9. Harry, Mikel – The Breakthrough Management Strategy - The Breakthrough
Management Strategy – Broadway Books. New York, 2001.
10. Wemple, Julie D. – Six Sigma – S&W Associates Inc . Boston, 2000
11. Verza, Fernando – Consumer driven Six sigma – Ford Motor Company.
Detroit, 1995
12. Frater, Johnnie – Six Sigma Program – SigmaConsultants LLC. New York, 2000.
13. Programa Seis Sigma – Dana do Brasil – S. Paulo, 2002
JOÃO JOSÉ DE SOUZA
Download

Monografia - Universidade Santa Cecília