g
y
y
REV. DE CIÊNCIA & TECNOLOGIA, Piracicaba, v. 11, n. 22, p. 1-74, jul./dez. 2003.
REVISTA DE CIÊNCIA & TECNOLOGIA • 22
1
002302_C&T22.book Page 2 Tuesday, July 27, 2004 8:16 AM
INSTITUTO EDUCACIONAL PIRACICABANO
Presidente do Conselho Diretor
LUIZ ALCEU SAPAROLLI
Diretor Geral
ALMIR DE SOUZA MAIA
Vice-Diretor
GUSTAVO JACQUES DIAS ALVIM
UNIVERSIDADE METODISTA DE PIRACICABA
Reitor
GUSTAVO JACQUES DIAS ALVIM
Vice-reitor Acadêmico
SÉRGIO MARCUS PINTO LOPES
Vice-reitor Administrativo
ARSÊNIO FIRMINO DE NOVAES NETTO
EDITORA UNIMEP
CONSELHO DE POLÍTICA EDITORIAL
GUSTAVO JACQUES DIAS ALVIM (presidente)
SÉRGIO MARCUS PINTO LOPES (vice-presidente)
AMÓS NASCIMENTO
ANTÔNIO ROQUE DECHEN
BELARMINO CESAR GUIMARÃES DA COSTA
CLÁUDIA REGINA CAVAGLIERI
DENISE GIÁCOMO MOTTA
MARCO POLO MARCHESE
NELSON CARVALHO MAESTRELLI
NÚMERO 22 – VOLUME 11 – 2003
“Gestão de recursos produtivos em empresas”
COMISSÃO EDITORIAL
NELSON CARVALHO MAESTRELLI – presidente (Gestão da Produção)
KLAUS SCHÜTZER (Engenharia Mecânica)
LUIS AUGUSTO CONSULARO (Ciência da Computação)
NEWTON LIBÂNIO FERREIRA (Engenharia Química)
REGINA HELENA DE OLIVEIRA LINO FRANCHI (Matemática)
COMITÊ CIENTÍFICO
BERT LAUWERS (Katholieke Universiteit Leuven – Bélgica)
CARLOS ALBERTO GASPARETTO (Facens/Unicamp – Brasil)
CORNÉLIUS J. FOURIE (University of Stellenbosch – África do Sul)
ELSO KULJANIC (Udinc/University of Italy – Itália)
IRACEMA DE OLIVEIRA MORAES (Unicamp – Brasil)
NERI DOS SANTOS (UFSC – Brasil)
REINER ANDERL (Darmstatt University of Technology – Alemanha)
REUVEN KATZ (University of Michigan – Estados Unidos)
RICARDO LUIS DE FREITAS (PUC-Campinas – Brasil)
ROSEANA DA EXALTAÇÃO TREVISAN (Unicamp – Brasil)
EDITOR EXECUTIVO
HEITOR AMÍLCAR DA SILVEIRA NETO (MTb 13.787)
2
A REVISTA DE CIÊNCIA & TECNOLOGIA é uma publicação
semestral da Editora UNIMEP, que publica trabalhos que contribuam para o desenvolvimento científico nas áreas de Ciências
Exatas e Tecnologia e de Arquitetura e Urbanismo. Os textos são
selecionados por processo anônimo de avaliação por pares
(blind peer review) e a relação do corpo de referee é apresentado na última edição de cada ano. Veja as normas para publicação no final da revista. Os originais devem ser encaminhados
por e-mail ([email protected]) ou pelo Correio para Comissão Editorial da RC&T: UNIMEP – Campus Taquaral – Rod. do
Açúcar, km 156 – 13400-911 – Piracicaba/SP.
As opiniões expressas nos artigos, tanto os encomendados
como os enviados espontaneamente, são de responsabilidade dos seus autores.
Revista de Ciência & Tecnologia (Science and Technology Journal) is published twice a year by UNIMEP Press (São Paulo/Brazil), that publishes works that contribute to the scientific
development in the fields of Exacts Sciences, Technology,
Architecture and Urbanism. Manuscripts are selected through a
blind peer review process and the list of the referee body is presented in the year’s last edition. Editorial norms for submission
of articles can be requested to the Editor.
A Revista Ciência & Tecnologia é indexada por
Revista de Ciência & Tecnologia is indexed by
Periódica – Índice de Revistas Latino-americanas em Ciências (Unam).
EQUIPE TÉCNICA
SECRETÁRIA
Ivonete Savino
ASSITENTE ADMINISTRATIVO
Altair Alves da Silva
EDIÇÃO DE TEXTO EM PORTUGUÊS
Suzana Verissimo
REVISÃO DO INGLÊS
Cristina Paixão Lopes
BOLSISTA ATIVIDADE DA REVISTA
acadêmica Milene Fagundes Vidal
GRÁFICA UNIMEP
COORDENAÇÃO
Carlos Terra
EDITORAÇÃO ELETRÔNICA CAPA
Jorge Henrique dos Santos
EDITORAÇÃO ELETRÔNICA
Carla Cynthia Smanioto
REVISÃO GRÁFICA
Juraci Vitti
Impresso em Duplicadora Digital
ASSINATURAS E REDAÇÃO
EDITORA UNIMEP
www.unimep.br/editora
Rodovia do Açúcar, km 156
13400-911 – Piracicaba – SP
Tel./fax: (19) 3124-1620 / 1621
E-mail: [email protected]
REVISTA DE CIÊNCIA & TECNOLOGIA
V. 1 • N. 1 • 1991
Piracicaba, Editora UNIMEP
Semestral / Twice a year
1- Tecnologia – periódicos
CDU – 62 (05)
ISNN 0103-8575
002302_C&T22.book Page 3 Tuesday, July 27, 2004 8:16 AM
RC&T 22
Editorial
A IMPORTÂNCIA DA ENGENHARIA SIMULTÂNEA
E DA TEORIA DAS RESTRIÇÕES
Tornou-se um lugar comum, quando se trata de analisar a questão da competitividade industrial, a afirmação de que, “nas últimas décadas, tem crescido substancialmente a variedade ou mix dos produtos e serviços oferecidos pelas empresas, ao mesmo tempo em que a vida destes produtos e serviços, sob o aspecto
mercadológico, tem diminuído”.
Considerar ou não esse pressuposto pode definir a permanência de uma empresa ou negócio em um
mercado competitivo, caracterizado pela constante introdução e evolução tecnológica de produtos e serviços.
No entanto, oferecer produtos inovadores nas condições de custo competitivo, padrão de conformidade e rigoroso cumprimento de prazos exigidas pelos consumidores requer desdobramentos nos procedimentos internos das empresas, notadamente no âmbito da fabricação.
Desse modo, a utilização de técnicas modernas de gestão procura garantir que as empresas utilizem,
internamente, técnicas e procedimentos que garantam a concretização de suas estratégias produtivas, seja
qual for o produto fabricado ou o serviço prestado.
Pode-se, a partir das ponderações anteriores, considerar que o processo produtivo de cada número de
nossa Revista de Ciência & Tecnologia, seja analisado de forma análoga.
Assim, para garantir que nosso produto chegue à comunidade científica, a custos adequados, no padrão
de qualidade requerido e no momento mais oportuno, esta Comissão Editorial tem trabalhado com seriedade e profissionalismo, utilizando modernas práticas de gestão, de forma a atingir seus objetivos de desempenho.
A aplicação de duas das mais importantes técnicas de gestão surgidas nos últimos anos tem auxiliado
significativamente nosso trabalho. A utilização dos conceitos de Engenharia Simultânea aos processos de submissão, avaliação e editoração de artigos e a aplicação de fundamentos da Teoria das Restrições aos nossos
procedimentos internos, visando à identificação, redução e, eventualmente, eliminação de gargalos produtivos, permitiram que nossos ciclos produtivos fossem reduzidos, que o intervalo de tempo decorrido entre a
submissão de artigos e o fechamento de cada edição tenha diminuído e que as principais deficiências de nosso
trabalho, embora não eliminadas, estejam identificadas.
Todavia, esforços complementares são necessários para concretizar a mais importante característica das
organizações modernas e competitivas: a continuidade do trabalho, baseado na busca constante por melhorias, para atingir e manter os patamares de excelência exigidos por nosso mercado.
COMISSÃO EDITORIAL
REVISTA DE CIÊNCIA & TECNOLOGIA • 22
3
002302_C&T22.book Page 4 Tuesday, July 27, 2004 8:16 AM
4
002302_C&T22.book Page 5 Tuesday, July 27, 2004 8:16 AM
Sumário
Sumary
7
ESTUDO DOS MÉTODOS OTIMIZADOS DE APLICAÇÃO DE FLUIDOS DE CORTE NO
PROCESSO DE RETIFICAÇÃO
Study of Optimized Methods of Cutting Fluids Application in Grinding Process
RODRIGO EDUARDO CATAI (UNESP/SP), EDUARDO CARLOS BIANCHI (UNESP/SP), LEONARDO ROBERTO DA SILVA (CEFET/
MG), PAULO ROBERTO DE AGUIAR (UNESP/SP) & DANIEL CATAI (UNESP/SP)
19
CONCEITOS E APLICAÇÕES DE DATA MINING
Data Mining Concepts and Applications
HELOISA HELENA SFERRA (UNIMEP/SP) & ÂNGELA M. C. JORGE CORRÊA (UNIMEP/SP)
35
ANÁLISE DOS CUSTOS DE MANUTENÇÃO E DE NÃO-MANUTENÇÃO DE
EQUIPAMENTOS PRODUTIVOS
Cost Analysis of Maintenance and Non-Maintenance Policies for Productive Equipments
WILSON ROBERTO MARCORIN (UNIMEP/SP) & CARLOS ROBERTO CAMELLO LIMA (UNIMEP/SP)
43
MÉTODOS DE ENSAIO ACELERADO COMO ALTERNATIVA PARA OS DADOS DE
VIDA DE FORNECEDOR
Accelerated Test Methods as an Alternative to the Catalogue Life Data
PEDRO LUIS SASSERON (UNIMEP/SP) & ÁLVARO JOSÉ ABACKERLI (UNIMEP/SP)
49
O PROGRAMA SEIS SIGMA APLICADO A PROCESSOS ADMINISTRATIVOS
The Six Sigma Program Applied to Administrative Processes
JOÃO MARCOS ANDRIETTA (UNIMEP/SP) & PAULO AUGUSTO CAUCHICK MIGUEL (UNIMEP/SP)
57
METODOLOGIA PARA ANÁLISE DA GESTÃO DA CADEIA DE SUPRIMENTOS:
ESTRUTURA, PROCESSOS DE NEGÓCIOS E COMPONENTES DE GESTÃO
Supply Chain Management Analysis Methodology: structure, business processes and
management components
ALEXANDRE TADEU SIMON (UNIMEP/SP) & SÍLVIO ROBERTO IGNÁCIO PIRES (UNIMEP/SP)
REVISTA DE CIÊNCIA & TECNOLOGIA • 22
5
002302_C&T22.book Page 6 Tuesday, July 27, 2004 8:16 AM
RESENHA
67
Seeing the Whole mapping the extend value stream, de Daniel Jones &
James Womack
WILSON ANTONIO PIZZOL (UNIMEP/SP)
69
74
NORMAS PARA PUBLICAÇÃO
NOSSOS CONSULTORES 2003
6
002302_C&T22.book Page 7 Tuesday, July 27, 2004 8:16 AM
Estudo dos Métodos Otimizados de
Aplicação de Fluidos de Corte no
Processo de Retificação
Study of Optimized Methods of Cutting
Fluids Application in Grinding Process
RODRIGO EDUARDO CATAI
Unesp (Guaratinguetá, Brasil)
[email protected]
EDUARDO CARLOS BIANCHI
Unesp (Bauru, Brasil)
[email protected]
LEONARDO ROBERTO DA SILVA
Cefet (Belo Horizonte, Brasil)
[email protected]
PAULO ROBERTO DE AGUIAR
Unesp (Bauru, Brasil)
[email protected]
DANIEL CATAI
Unesp (Guaratinguetá, Brasil)
[email protected]
RESUMO Quando se deseja qualidade e precisão nas peças e baixos valores de rugosidade com uma boa viabilidade econômica, logo se pensa no processo de retificação, caracterizado pela interação dos grãos do rebolo com a superfície da
peça. Muitas vezes, um processo otimizado pode ser recomendado para se obter melhores resultados finais, tanto em
relação à peça como aos custos. Por meio da otimização do processo, podem-se prever possíveis lucros no setor industrial, pois menores tendem a ser o desgaste das ferramentas, as forças de corte e a quantidade de fluido exigida – o que é
interessante, porque o fluido representa uma grande parcela do custo final na retificação. Este trabalho apresenta uma
revisão literária sobre os fluidos de corte, as possíveis formas existentes para a otimização do processo, como por exemplo, o emprego da técnica de Mínima Quantidade de Lubrificação (MQL).
Palavras-chave RETIFICAÇÃO – OTIMIZAÇÃO – FLUIDOS DE CORTE – DEFLETORES – USINAGEM.
ABSTRACT Whenever precision and quality in samples are needed, with low rugosity and economic viability, the grinding
process should be used. An optimized process is often recommended to achieve better results in terms of pieces and costs.
Through the optimization process it is possible to foresee profits for the industrial sector, since the tools wearing, the cutting
forces and the quantity of demanded fluid tend to be reduced. This is interesting, because the fluid represents a great portion
of the final cost in the grinding process. The present paper presents a literature review on cutting fluids and ways through
which the grinding process can be optimized like through the use of Minimal Quantity of Lubricant (MQL).
Keywords GRINDING – OPTIMIZATION – CUTTING FLUIDS – DEFLECTORS – MACHINING.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
7
002302_C&T22.book Page 8 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
retificação é um processo de usinagem utilizado para a obtenção de tolerâncias estreitas (tolerâncias
dimensionais entre IT4 e IT6 e tolerâncias geométricas compatíveis) e valores reduzidos de rugosidade
(Ra de 0,2 a 1,6 µm) (Diniz et al., 2000). Neste processo, a peça é forçada contra o rebolo, gerando
cavacos que são removidos da superfície da peça (Gupta et al., 2001).
Durante a formação dos cavacos, grande parte da energia gerada é convertida em calor, causando altas
temperaturas na região de corte que podem causar danos térmicos às peças e comprometer sua integridade
superficial, com o surgimento de fissuras, distorções, tensões residuais elevadas e não-conformidades dimensionais (Kovacevic & Mohan, 1995).
O calor gerado na zona de retificação é dissipado através da peça, rebolo, cavaco e fluido (Kohli et al.,
1995). Com isso, a fim de minimizar as elevadas temperaturas geradas na região de corte, que podem danificar a peça, ou mesmo a ferramenta, e diminuir os custos com o desperdício de fluidos aplicados de maneira
ineficaz, torna-se imprescindível a otimização do processo de retificação. Isso se realiza com a escolha correta
do par fluido-ferramenta, a adoção correta dos parâmetros de corte e, principalmente, a utilização de sistemas otimizados de aplicação de fluidos. Já nos métodos convencionais de aplicação de fluidos de corte, a
energia neles armazenada durante a aplicação não é suficiente, na maioria dos casos, para vencer a força
centrífuga do rebolo ou penetrar na barreira de ar que o circunda quando em movimento.
É importante observar que, com os fluidos, as ferramentas e os parâmetros de corte ideais, bem
como um efetivo sistema de aplicação do fluido de corte, pode-se alcançar maiores velocidades de corte
mantendo a eficiência do processo, o que permite um aumento interessante na produtividade (Jackson
et al., 2001).
FLUIDOS DE CORTE
F. W. Taylor foi um dos primeiros a provar o grande auxílio que os líquidos poderiam trazer no corte
de metais. Em 1883, ele demonstrou que um jato de água aspergido na ferramenta, no cavaco e na superfície
da peça tornava possível o aumento da velocidade de corte em 30% a 40%. Foi essa constatação, feita por
Taylor e por outros pesquisadores, que impulsionou o estudo e o desenvolvimento de vários tipos de fluidos
de corte ao longo dos anos e, principalmente, nas últimas décadas (Silliman, 1992; Machado & Diniz,
2000).
Segundo Novaski & Dörr (1999), a utilização de uma quantidade cada vez menor de fluido na região
de corte, mas de modo a não comprometer a usinagem, tem grande importância no cotidiano das indústrias.
Os gastos com refrigeração representam, em média, 17% dos custos de manufatura, um valor expressivo, se
comparado aos destinados à ferramenta, que apresenta, em média, de 2 a 4%, além das despesas de manutenção do sistema e separação do cavaco do fluido de corte para uma posterior refundição.
De acordo com Baradie (1996), nas indústrias, somente mais recentemente a correta seleção e aplicação dos fluidos de corte ganhou maior importância. Quando necessário no processo de retificação, se o
fluido de corte for corretamente aplicado pode aumentar a produtividade e reduzir os custos, permitindo o
uso de maiores velocidades de corte, altas taxas de remoção e grandes profundidades de corte. Além disso,
uma efetiva aplicação possibilita aumentar a vida da ferramenta e a precisão dimensional e diminuir a rugosidade superficial da peça e a potência consumida.
Os fluidos de corte são parte integrante dos processos de fabricação de peças no contexto que reúne
máquinas ferramentas, ferramentas de corte, produção de peças e fluidos de corte (Runge & Duarte, 1990).
PRINCIPAIS FLUIDOS DE CORTE: CONSIDERAÇÕES
Fluidos a base de óleo contêm menor capacidade para dissipar o calor da zona de corte. Ou seja,
não são capazes de efetivamente refrigerar a peça, permitindo uma elevada geração de calor no processo e proporcionando condições desfavoráveis ao estado final do produto. A utilização de fluidos a
8
jul./dez. • 2003
002302_C&T22.book Page 9 Tuesday, July 27, 2004 8:16 AM
base de óleo com ferramentas superabrasivas de Nitreto Cúbico de Boro (CBN) mostra-se satisfatória,
porque esses rebolos possuem a característica de resistir a elevadas temperaturas, além de dissipar o
calor com facilidade (Bennett, 1982)
São listadas na tabela 1 algumas características dos principais tipos de fluidos usados nos processos de
retificação.
Tab. 1. Características dos fluidos (1 - ruim; 2 - bom; 3 - ótimo; 4 - excelente) (Webster, 1995).
SINTÉTICO
SEMI- SINTÉTICO
ÓLEO SOLÚVEL
ÓLEO MINERAL
Calor removido
4
3
2
1
Lubrificação
1
2
3
4
Manutenção
3
2
1
4
Filtrabilidade
4
3
2
1
Danos - Meio ambiente
4
3
2
1
Custo
4
3
2
1
Segundo Bennett (sd), as experiências com a utilização de rebolos de CBN mostraram que os fluidos de
corte a base de óleo são mais indicados para altas taxas de remoção de materiais. Já para médias e baixas
taxas de remoção, são mais recomendados os óleos sintéticos ou solúveis. Dessa forma, fica clara a necessidade do desenvolvimento tecnológico de novas tendências quanto à criação de novas formulações e de métodos de aplicação a respeito de tais fluidos.
Para Novaski & Rios (2002), as principais funções dos fluidos na usinagem são realizar a lubrificação da região de corte, reduzindo o atrito entre a peça e o rebolo, diminuir o desgaste e o consumo de
energia e proporcionar um melhor acabamento na peça final. Quanto à refrigeração, ela tem a função
de eliminar o calor sem permitir que ocorram alterações dimensionais nas peças, promover a expulsão
dos cavacos metálicos gerados na usinagem e, por fim, proteger máquinas e ferramentas contra a corrosão atmosférica.
A importância relativa de cada uma das funções dependerá, ainda, do material usinado, do tipo de ferramenta usada (geometria definida ou indefinida), das condições de usinagem, do acabamento superficial e
do controle dimensional exigido (Silva, 2000).
Segundo Motta & Machado (1995), é importante observar que os fluidos de corte só proporcionarão
um máximo desempenho, reduzirão custos e aumentarão a produção se ocorrer a escolha correta do tipo de
fluido, sendo que ele necessariamente precisará atender às condições específicas de usinagem que lhe serão
impostas.
De acordo com Runge & Duarte (1990), além das funções acima, os fluidos de corte devem ter, ainda,
algumas propriedades básicas, como propriedades anticorrosivas, antiespumantes, antioxidantes, compatibilidade com o meio, propriedades de lavagem, alta capacidade de absorção de calor, alta capacidade de umectação, boas propriedades antidesgaste, propriedades EP, estabilidade durante a estocagem e o uso, ausência de
odor forte ou desagradável, ausência de precipitados sólidos, viscosidade adequada, transparência etc.
É importante observar que não existe um único fluido com todas as propriedades acima. Os fluidos
comerciais buscam reunir as propriedades mais importantes para a operação de usinagem a ser desempenhada.
OTIMIZAÇÃO DO PROCESSO DE APLICAÇÃO DE FLUIDOS
A aplicação correta dos fluidos na região de corte, em plena interface peça-rebolo, num processo de
retificação, é algo difícil de ser realizado. Vários estudos foram realizados sobre quais seriam os parâmetros,
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
9
002302_C&T22.book Page 10 Tuesday, July 27, 2004 8:16 AM
ferramentas e processos ideais a fim de que, na zona de corte, ocorresse sempre a melhor lubrificação e
refrigeração possível da peça, evitando maiores danos térmicos e dimensionais a ela.
Para garantir a qualidade final das peças é preciso, sempre, contar com um eficiente método para a
aplicação dos fluidos de corte, além da utilização dos rebolos, fluidos e máquinas ideais para cada operação.
De acordo com Ebbrell et al. (1999), a aplicação correta dos fluidos na região de corte é de grande
importância, pois possibilita o aumento da capacidade de sua lubrificação e refrigeração e promove a remoção de cavaco mais facilmente. A aplicação correta promove menores dispersões dos fluidos na região de
corte, mas para isso é necessário levar em conta o tipo e o posicionamento do bocal, o que tem grande
influência no processo de corte.
O efeito do posicionamento do bocal em relação à peça e à ferramenta pode ser visto na figura 1,
levando-se em conta a rugosidade média aritmética (Ra) da peça retificada. Comparativamente, para a
posição angular de aplicação de fluido, obteve-se uma menor rugosidade na peça, devido, principalmente, à maior lubrificação/refrigeração efetiva dos grãos abrasivos da ferramenta. Isso acarreta menores danos e solicitações térmicas e maior rugosidade superficial da peça para a posição de aplicação tangencial, em que o efeito conjugado lubrificação/refrigeração foi de menor eficiência.
Fig. 1. Rugosidade em função do posicionamento do bocal (Ebbrell et al., 1999).
Utilização de Bicos Otimizados Arredondados
A utilização de bicos convencionais já não é mais adequada pois, devido ao crescimento do uso de
fluidos à base de água e de menor densidade, quando eles são aplicados, sofrem grande dispersão e se
perdem, em função da barreira de ar gerada em torno do rebolo pela sua elevada rotação. Essa barreira
de ar pode ser vencida, igualando-se a velocidade de saída do jato à velocidade periférica do rebolo.
Contudo, em razão do desenho incorreto dos bicos convencionais, o aumento da pressão da bomba
visando aumentar a velocidade de saída do fluido leva a um aumento da dispersão do jato, diminuindo
sua eficiência.
A figura 2 apresenta um bico tradicional (convencional) que, por ter uma ou duas paredes convexas,
propicia a separação do fluxo do fluido de saída, que é extremamente turbulento e de baixa pressão, dificultando a coerência do jato (Webster, 1995). Dessa forma, é para permitir a chegada eficaz do jato de fluido à
região de corte que bicos especiais vêm sendo desenvolvidos.
Segundo Webster (1995), um bico ideal teria formato arredondado e paredes internas côncavas, que
garantem uma maior coerência do jato, onde D [mm] é o diâmetro externo da tubulação de alimentação do
fluido e D [mm] é o diâmetro do orifício de saída de fluido (fig. 3).
10
jul./dez. • 2003
002302_C&T22.book Page 11 Tuesday, July 27, 2004 8:16 AM
Fig. 2. Bico tradicional (Webster, 1995).
Fig. 3. Bico especial arredondado que, por possuir superfície côncava, minimiza a queda de pressão e a turbulência ocasionada pela passagem e saída do fluido do bocal (Webster, 1995).
Por meio da utilização desse bico arredondado foi constatado que (Webster, 1995):
• a temperatura na região de corte diminuiu em relação aos processos com bicos tradicionais;
• a velocidade periférica do rebolo em relação ao jato do fluido é muito significativa para a refrigeração da
peça;
• a abertura geométrica dos bocais na entrada e saída e as superfícies internas devem ser bem estudadas,
pois têm grande importância na tentativa de diminuir a turbulência do fluido de corte no interior do bico;
• deve-se atribuir grande importância ao raio de contração, que expressa a razão entre os diâmetros de
entrada e saída do bocal, em que tal razão apresenta, de maneira significativa, a possibilidade da ocorrência de turbulência no bocal.
• com o aumento desse raio tem-se um aumento na velocidade do fluido e, assim, um maior número de
Reynolds, gerando, desse modo, uma região de turbulência graças à velocidade do fluido.
Utilização de Bicos Especiais com Espécie de Língua
Os métodos convencionais de aplicação de fluidos de corte no processo não são eficientes para remover o calor na região de retificação, pois não alcançam, efetivamente, a região de corte, dada a elevada rotação do rebolo, que gera um filme de ar em sua volta que acaba expulsando o fluido (Silliman, 1992). Para
minimizar esse problema, bicos especiais são necessários.
Para Silliman (1992), uma forma de evitar a camada de ar seria a utilização de bicos com uma espécie
de língua ao redor do rebolo, conforme se vê na figura 4. Os bicos devem ser ajustáveis a uma grande faixa de
tamanho de rebolos, contanto que a língua que deve ser conjugada ao bico também seja regulável. Os bicos
devem possuir ao menos 3/4 da largura do rebolo, porém não devem ultrapassar a sua extremidade em
nenhum ponto.
Utilização de Bicos Injetores com Elementos Condutores
Segundo Brinskmeier et al. (2001), outra forma de otimizar o processo é a utilização de bicos injetores
do tipo sapata com elementos condutores. Esses condutores devem ser confeccionados em acrílico e têm as
funções de direcionar melhor o fluxo do fluido e melhorar o preenchimento dos poros do rebolo. Na figura
5, vê-se a esquematização de bicos injetores com elementos condutores radiais retos, tangenciais, e sem eles.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
11
002302_C&T22.book Page 12 Tuesday, July 27, 2004 8:16 AM
Fig. 4. Bico especial, com uma espécie de língua ao redor do rebolo (Silliman, 1992).
Fig. 5. Disposição dos elementos condutores dentro dos bocais (Brinskmeier et al., 2001).
Nesse tipo de bico, as diferentes geometrias dos elementos condutores, associadas à velocidade de corte
e à vazão do fluido, influenciam as condições desfavoráveis de fluxo, como refluxos, separações de fluido e
turbulências. A figura 6 ilustra um exemplo da separação de fluxo ocorrida dentro do bico devido à não utilização dos elementos condutores. Neste caso, usou-se uma vazão de 20 l/min e uma velocidade de corte de 30
m/s. Nota-se, claramente, a separação de fluxo na região a (Brinskmeier et al., 2001).
Contudo, para a obtenção de um processo ideal (otimizado) para esses bicos, é necessária uma combinação adequada da vazão do fluido e da velocidade de corte, além da correta de disposição dos elementos
condutores no interior do bico, para se evitar a separação do fluxo.
Fig. 6. Linhas características de fluxo para uma vazão de Q = 20 litros/min e velocidade de corte de Vc =30 m/s (Brinskmeier et al., 2001).
12
jul./dez. • 2003
002302_C&T22.book Page 13 Tuesday, July 27, 2004 8:16 AM
Otimização pela Eliminação do Ar em Torno do Rebolo
Outra maneira de melhorar o processo é com o uso de defletores, placas defletoras ou sapatas refrigerantes, que têm a função de eliminar a cortina de ar formada ao redor do rebolo devido à sua rotação.
A formação de uma cortina de ar ao redor do rebolo dificulta e até evita a entrada de refrigerante na
zona de retificação. Para operações com elevadas velocidades de corte, o efeito dessa camada é ainda mais
forte, sendo que a velocidade e a pressão do ar diminuem exponencialmente com a diminuição da distância
radial em relação ao centro do rebolo. A figura 7 apresenta as respectivas velocidades e pressões do ar em
relação à distância radial, partindo da face do rebolo (Ramesh et al., 2001).
Fig. 7. Características da cortina de ar gerada por um rebolo com velocidade de corte entre 33m/s a 160m/s (Ramesh et al., 2001).
A figura 8 apresenta um exemplo de sapata refrigerante proposta por Ramesh et al. (2001). Ela cobre
cerca de 60º da superfície do rebolo. A porção superior é construída com um bloco constantemente carregado para raspagem da cortina de ar, sendo que a unidade possui três orifícios. O orifício superior tem a função de barrar a camada de ar esquerda-superior formada internamente. O inferior serve para gerar uma
camada refrigerante e possibilitar a entrada do fluido na zona de corte. Já o orifício mediano fornece o refrigerante que leva à formação de uma camada refrigerante ao redor do rebolo.
Reduzindo ou eliminando o efeito da camada de ar, principalmente quando se trabalha com retificações
de altas velocidades de corte, podem-se reduzir as forças de corte em até 60% e os valores da rugosidade, em até
20% (Ramesh et al., 2001).
Nas figuras 9 e 10, são apresentadas outras duas formas de atenuar ou até mesmo eliminar a camada de
ar gerada pela alta rotação do rebolo: através da utilização de placas defletoras, conforme a figura 9, ou por
meio de um sistema de defletores que expulsam o ar em alta velocidade que gira ao redor do rebolo e dificulta a aplicação correta do fluido na região de corte, visualizado na figura 10.
Fig. 8. Proposta de sapata refrigerante para atenuar os efeitos da camada de ar (Ramesh et al., 2001).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
13
002302_C&T22.book Page 14 Tuesday, July 27, 2004 8:16 AM
Fig. 9. Vistas frontal e superior, respectivamente, de uma placa defletora empregada no processo de retificação (Bellows,
1983).
Fig. 10. Ilustração de um sistema de defletores (Bianchi et al., 2002).
A Técnica da Mínima Quantidade de Lubrificante (MQL)
Comprovando-se a tendência de preocupação ambiental quando da utilização dos fluidos de corte nos
processos de usinagem, conforme relatado por vários pesquisadores e fabricantes de máquinas-ferramenta,
constata-se a grande ênfase dada à tecnologia ambiental, ou seja, a preservação do meio ambiente e a busca
da conformidade com a norma ISO 14000. Por outro lado, apesar das insistentes tentativas de eliminar completamente os fluidos de corte, em muitos casos a refrigeração ainda é essencial para que se obtenham vidas
econômicas de ferramentas e as qualidades superficiais requeridas. Isto é particularmente válido quando há
exigência de tolerâncias estreitas e alta exatidão dimensional e de forma, ou quando se trata de usinagem de
materiais críticos, de corte difícil. Isso faz da mínima quantidade de lubrificante uma alternativa interessante,
porque combina a funcionalidade da refrigeração com um consumo extremamente baixo de fluidos (geralmente < 80ml/h). Estas mínimas quantidades de óleo são suficientes em muitos casos, para reduzir o atrito
da ferramenta e ainda evitar as aderências de materiais. A minimização de fluido de corte tem adquirido
relevância nos últimos dez anos (Klocke et al., 1998 e Dörr & Sahm, 2000).
As limitações das operações a seco podem ser superadas, em muitos casos, através da introdução de sistemas de lubrificação em quantidades mínimas (Near-Dry machining - MQL) que agem com base no princípio de utilização total, sem resíduos, aplicando fluxos de lubrificantes de 10 até no máximo 100ml/h a uma
14
jul./dez. • 2003
002302_C&T22.book Page 15 Tuesday, July 27, 2004 8:16 AM
pressão de 4,0 a 6,0 kgf/cm2. O que importa é que, ainda assim, os cavacos sejam liberados praticamente
secos, evitando custos resultantes da reciclagem do fluido de corte. Nesta tecnologia a função de lubrificação
é assegurada pelo óleo e a de refrigeração principalmente pelo ar comprimido. Esta pequena quantidade de
fluido pode ser suficiente para reduzir o atrito no corte, diminuindo a tendência à aderência em materiais
com tais características. De sua comparação com a refrigeração convencional resultam numerosas vantagens
(Klocke & Eisenblätter, 1997; Young et al., 1997; Heisel et al., 1998; Schulz, 1999; Dörr, 1999 e Diniz,
1999).
Por outro lado, comparado com a técnica convencional, MQL causa custos adicionais para pressurizar
o ar e suportes tecnológicos, o quais são necessário no processo para superar as restrições tecnológicas da técnica MQL. Por exemplo, técnicas especiais para o transporte do cavaco podem ser necessárias, e talvez a produtividade seja reduzida devido ao impacto térmico nos componentes usinados. O vapor, a névoa e a fumaça
de óleo gerados durante o uso da mínima quantidade de lubrificante na usinagem podem ser considerados
subprodutos indesejáveis, pois contribuem para aumentar o índice de poluentes em suspensão no ar e tornou-se fator de preocupação, necessitando de um bom sistema de exaustão na máquina. Na pulverização é
utilizada uma linha de ar comprimido que funciona intermitentemente durante o processo. Essas linhas de ar
geram um barulho que geralmente ultrapassa os limites admitidos pela legislação (Machado & Diniz, 2000).
Com o conhecimento dos custos das usinagem úmidas e os das usinagens com MQL, foi feita uma comparação de custos dos investimentos e dos custos fixos e proporcionais anuais na BMW. A confrontação dos custos totais de investimento na linha tranfer, inclusive do equipamento para limpeza de cavacos, comprovou
vantagens financeiras de 22% na usinagem com a tecnologia MQL (Dörr & Sahm, 2000).
Esta técnica já é usada com sucesso há muitos anos em vários processos de corte, serramento e conformação de metais. As suas vantagens levam à previsão de que sua faixa de aplicações seja crescente, mas apesar
de tudo, as variáveis de influência a serem consideradas e os efeitos sobre o resultado do processo têm sido
matéria para apenas alguns poucos estudos. Nos sistemas de quantidade mínima são usados principalmente
fluidos de corte não solúveis em água, principalmente óleos minerais. Deve-se considerar que, devido às
quantidades muito pequenas de fluidos de corte usadas, os custos não deveriam impedir o uso de composições de alta tecnologia no campo dos óleos básicos e aditivos. Os materiais derivados de origem vegetal estão
sendo cada vez mais empregados. Estes óleos, inalados com a formação do aerossol, diminuem os riscos à
saúde (Heisel et al., 1998).
Heisel et al. (1998) apresentam um diagrama esquemático de um sistema de mínima quantidade de
lubrificação com o princípio de pressão descrito e os seus componentes ilustrados na figura 11. O know-how
desta tecnologia consiste na otimização do projeto do bocal.
Fig. 11.Diagrama esquemático de um sistema de Mínima Quantidade de Lubrificação (Heisel et al., 1998).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
15
002302_C&T22.book Page 16 Tuesday, July 27, 2004 8:16 AM
Os sistemas de mínima quantidade de lubrificação requerem espaço muito pequeno para sua instalação
nas máquinas, podendo escolher diversas posições para a sua fixação. Estes sistemas são facilmente integrados com as máquinas, possibilitando instalar válvulas de controle para uma melhor integração. Estas vantagens fazem da MQL um sistema flexível para aplicações na retificação e em outros processos de corte (Heisel
et al., 1998).
CONCLUSÕES
Em relação aos fluidos de corte, tem-se que os mesmos são de grande importância na retificação. Suas
principais características são a refrigeração e a lubrificação da região de corte. Os fluidos que contêm óleo em
maior proporção lubrificam mais e os que contêm água em maior quantidade refrigeram mais a interface
peça-rebolo.
As formas de aplicação dos fluidos devem ser estudadas para cada operação, desde o posicionamento
do bico de saída de fluido em relação à superfície da peça, o que influencia significativamente sua rugosidade
final, até seus diâmetros e formas internas e externas. Para bicos arredondados especiais, o ideal é que eles
possuam superfícies côncavas, a fim de minimizar a ocorrência de queda de pressão e turbulências ocasionadas durante a passagem e a saída do fluido de corte do bocal.
A otimização do processo por meio da confecção de bocais ou bicos especiais torna-se ainda mais
importante quando se trabalha com altas velocidades de corte, pois a camada de ar que é gerada em torno do
rebolo é mais forte, o que dificulta ainda mais a entrada do fluido na região de corte. Para evitar que essa
camada atrapalhe a correta incidência do fluido na região de corte, recomenda-se a utilização de defletores e/
ou sapatas refrigerantes, que impedem a ação do ar provindo da rotação do rebolo sobre o fluido de corte.
Reduzindo ou eliminando o efeito da camada de ar, além de se conseguir utilizar uma quantidade
menor de fluido no processo, principalmente quando se trabalha com retificações de altas velocidades de
corte, é possível diminuir as forças de corte em até 60% e a rugosidade, em até 20% (Ramesh et al., 2001).
Com a otimização do processo, pode se prever possíveis lucros no setor industrial, pois tendem a ser
menores o desgaste das ferramentas, as forças de corte e a quantidade de fluido exigida. Isso é interessante
porque o fluido representa uma grande parcela do custo final na retificação, devido, principalmente, aos gastos com seu descarte e manutenção.
REFERÊNCIAS BIBLIOGRÁFICAS
BARADIE, M.A.E. Cutting fluids: part I. Characterisation. Journal of Materials Processing Technology, Irlanda, 1996, 786-797.
BENNETT, B. Cutting fluids and superabrasives applications. AES Magazine, Cincinnati Milacron, 2. ed. 1-12, 1982.
BELLOWS, G. Low Stress Grinding – for quality production. Machining Process Series. 2 ed. Cincinnati, Ohio: Metcut Research
Associates Inc., 1983.
BIANCHI, E.C. et al. Otimização do processo de retificação pela análise da quantidade de fluido de corte aplicada. Bauru, Universidade Estadual Paulista, 2002. [Pedido de auxílio à pesquisa]
BRINKSMEIER, E. et al. Como a aplicação do fluido refrigerante pode ser melhorada na retificação. Revista Máquinas &
Metais, 429, 34-41, 2001.
DINIZ, A. E., Minimal Lubrification in the Drilling Process of Aluminum Silicion Alloy, 3rd International Machining & Grinding Conference, out./99, 683-697.
DINIZ, A.E. et al. Tecnologia da Usinagem dos Materiais. 2 ed. Campinas, Brasil: Artiliber, 2000.
DÖRR, J. New Perspectives in Dry Machining, In: Seminário International de Alta Tecnologia, 4, 1999, Piracicaba. “Inovações
Tecnológicas na Manufatura para o Ano 2000”.
DÖRR, J., SAHM, A. A Mínima Quantidade de Lubrificante Avaliada pelos Usuários. Máquinas e Metais, 418, p. 20-39, nov./
2000.
EBBRELL, S. et al. The effects of cutting fluid application methods on the grinding process. International Journal of Machine
Tools & Manufacture, School of Engineering, Liverpool John Moores University, Liverpool, jun./99.
GUPTA, R. et al. Optimization of grinding process parameters using enumeration method. Journal of Materials Processing Technology, 112 :63-64, 2001.
16
jul./dez. • 2003
002302_C&T22.book Page 17 Tuesday, July 27, 2004 8:16 AM
HEISEL, U. et al. A Técnica da Quantidade Mínima de Fluidos e sua Aplicação nos Processos de Corte, Revista Máquinas e
Metais, nº 386, Fev, 1998, 22-38.
JACKSON, M.J. et al. High-speed grinding with CBN grinding wheels – applications and future technology. Journal of Materials
Processing Technology, nº 110 : 78-88, 2001.
KLOCKE, F., EISENBLÄTTER, G., Dry Cutting. Annals of the CIRP, Vol. 46, No.2, 1997, pp. 519-526.
KLOCKE, F. et al. Clean Manufacturing Technologies - The Competitive Edge of Tomorrow?. The International Journal of
Manufacturing Science & Production, Vol.1, No.2, 1998, pp. 77-86.
KOHLI, S.P. et al. Energy partition for grinding with aluminum oxide and CBN abrasive wheels. ASME Journal of Engineering
for Industry, 117: 160-168, 1995.
KOVACEVIC, R.; MOHAN R. Effect of high speed grinding fluid on surface grinding performance. SME Technical Paper
MR95-213, In: First International Machining and Grinding Conference, Deaborn, Michigan : 919-931, 1995.
MACHADO, A.R.; DINIZ, A.E. Vantagens e desvantagens do uso de fluidos de corte. Revista Máquinas & Metais, 419: 134151, dez./00.
MOTTA, M.F.; MACHADO A.R. Fluidos de corte: tipos, funções, seleção, métodos de aplicação e manutenção. Revista
Máquinas & Metais, nº 356 : 44-56, set./95.
NOVASKI, O.; DÖRR, J. Usinagem quase a seco. Revista Máquinas & Metais, 406: 34-41, nov./99.
NOVASKI, O.; RIOS, M. Vantagens do uso de fluidos sintéticos na usinagem. Revista Metal Mecânica, nº 118 : 56-62, 2002.
RAMESH, K. et al. Coolant shoe development for high efficiency grinding. Journal of Materials Processing Technology, 114:
240-245, 2001.
RUNGE, P.R.F.; DUARTE, G.N. Lubrificantes nas Indústrias – produção, manutenção e controle. Cotia: Triboconcept Edições
Técnicas, 1990.
SCHULZ, H. Trends in Manufacturing Technology at the Threshold of the Millennium. 4º Seminário International de Alta Tecnologia - Inovações Tecnológicas na Manufatura para o Ano 2000. Unimep, ago/99.
SILLIMAN, J.D. (ed.). Cutting and Grinding Fluids: selection and application. 2 ed. Dearborn, Michigan: SME, 1992.
SILVA, E.J. Análise da influência dos tipos de fluido de corte e rebolo na retificação do aço SAE HVN-3. Unesp, Bauru: 2000.
[Dissertação de mestrado]
WEBSTER, J. Selection of coolant type and application technique in grinding. Supergrind, 1995, 205-218.
YOUNG, P. et al. Manufacturing and the Environment. The International Journal of Advanced Manufacturing Technology,
Vol.13, 1997, 488-493.
Dados dos autores
RODRIGO EDUARDO CATAI
Engenheiro mecânico e de Segurança do
Trabalho. Doutorando em Engenharia Mecânica/
Unesp, campus de Guaratinguetá
EDUARDO CARLOS BIANCHI
Professor doutor. Livre docente do Departamento
de Eng. Mecânica/Unesp, campus de Bauru
LEONARDO ROBERTO DA SILVA
Professor doutor do Departamento de Mecânica/
CEFET, Belo Horizonte
PAULO ROBERTO DE AGUIAR
Professor doutor. Livre docente do Departamento
de Eng. Elétrica/Unesp, campus de Bauru
DANIEL CATAI
Graduando em Engenharia Elétrica/UNESP,
campus de Guaratinguetá
Recebimento do artigo: 4/out./02
Consultoria: 11/nov./02 a 25/fev./03
Aprovado: 17/mar./03
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 7-18
17
002302_C&T22.book Page 18 Tuesday, July 27, 2004 8:16 AM
18
jul./dez. • 2003
002302_C&T22.book Page 19 Tuesday, July 27, 2004 8:16 AM
Conceitos e Aplicações de
Data Mining
Data Mining Concepts and Applications
HELOISA HELENA SFERRA
Universidade Metodista de Piracicaba (Piracicaba, Brasil)
[email protected]
ÂNGELA M. C. JORGE CORRÊA
Universidade Metodista de Piracicaba (Piracicaba, Brasil)
ajcorrea@unimep
RESUMO Atualmente, muito se fala em Data Mining, encontrando-se na literatura significativa variedade de estudos sobre
o tema. Este artigo tem como objetivo introduzir conceitos básicos dessa tecnologia a interessados que ainda estão iniciando
o estudo de Data Mining. Nesse contexto, o presente texto pretende apresentar alguns desses conceitos sobre as técnicas
que envolvem a descoberta de conhecimento em grandes conjuntos de dados, além de registrar algumas características de
um software específico para mineração de dados, o Clementine, da SPSS, bem como algumas aplicações realizadas nessa
ferramenta.
Palavras-chave MINERAÇÃO DE DADOS – DESCOBERTA DE CONHECIMENTO EM BASE DE DADOS – ANÁLISE EXPLORATÓRIA
DE DADOS – MODELOS ESTATÍSTICOS DE RELACIONAMENTO ENTRE VARIÁVEIS – CLEMENTINE/SPSS.
ABSTRACT Much is said about Data Mining nowadays and there is a significant variety of studies on the subject. This
paper’s aim is to introduce some of the technology’s basic concepts to those who are beginning their studies on Data
Mining. In such context, the present article presents some of the concepts related to the techniques involved in
knowledge discovery within large databases. Moreover, it presents some features of a specific software for Data Mining:
Clementine, from SPSS. The paper also indicates some applications for this tool’s use.
Keywords DATA MINING – KNOWLEDGE DISCOVERY IN DATABASES – EXPLORATORY ANALYSIS – STATISTICAL MODELS OF
RELATIONSHIP BETWEEN VARIABLES – CLEMENTINE/SPSS.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
19
002302_C&T22.book Page 20 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
rápida evolução dos recursos computacionais ocorrida nos últimos anos permitiu que, simultaneamente, fossem gerados grandes volumes de dados. Estima-se que a quantidade de informação no mundo dobra a cada 20 meses e que o tamanho e a quantidade dos bancos de dados
crescem com velocidade ainda maior (Dilly, 1999). O explosivo crescimento do volume de dados tem
gerado uma urgente necessidade de novas técnicas e ferramentas capazes de transformar, de forma
inteligente e automática, terabytes de dados em informações significativas e em conhecimento. Essas
informações, de grande valia para o planejamento, gestão e tomadas de decisão, estão, na verdade,
implícitas e/ou escondidas sob uma montanha de dados, e não podem ser descobertas ou, no mínimo,
facilmente identificadas utilizando-se sistemas convencionais de gerenciamento de banco de dados.
Em resposta a essa necessidade, surgiu o Data Mining (DM), também chamado de Mineração de
Dados.
Data Mining é uma tecnologia que emergiu da intersecção de três áreas: estatística clássica, inteligência
artificial e aprendizado de máquina, sendo a primeira a mais antiga delas. Observa-se que o Data Mining é
parte de um processo maior conhecido como KDD (Knowledge Discovery in Databases) – em português,
Descoberta de Conhecimento em Bases de Dados –, que, segundo Addrians & Zantinge (1996), permite a
extração não trivial de conhecimento previamente desconhecido e potencialmente útil de um banco de
dados. Esse conceito é enfatizado por Fayyad et al. (1996b), ao afirmar que é “o processo não trivial de identificação de padrões válidos, desconhecidos, potencialmente úteis e, no final das contas, compreensíveis em
dados”.
Nesse contexto, o presente artigo tem como finalidade apresentar conceitos sobre as principais
técnicas que envolvem a descoberta de conhecimento em grandes conjuntos de dados e relatar algumas características de um software específico para mineração de dados, o Clementine, da SPSS, bem
como aplicações realizadas nesta ferramenta. Assim, são mostrados o processo de descoberta de
conhecimento (KDD) e o Data Mining (DM), como parte desse processo, bem como suas técnicas e
as metodologias estatísticas que as fundamentam. Em seguida, são discutidas as características de uma
ferramenta de Data Mining, o Clementine, da SPSS, com a qual se desenvolve a aplicação relatada
neste texto.
DESCOBERTA DE CONHECIMENTO (KDD) E DATA MINING (DM)
Considere-se uma hierarquia de complexidade: se algum significado especial é atribuído a um
dado, ele se transforma em uma informação (ou fato). De acordo com Sade (1996), se uma norma
(ou regra) é elaborada, a interpretação do confronto entre o fato e a regra constitui um conhecimento.
O processo KDD é constituído de várias etapas, como ilustrado na figura 1, que são executadas de
forma interativa e iterativa. De acordo com Brachman & Anand (1996), as etapas são interativas porque
envolvem a cooperação da pessoa responsável pela análise de dados, cujo conhecimento sobre o domínio
orientará a execução do processo. Por sua vez, a iteração deve-se ao fato de que, com freqüência, esse processo não é executado de forma seqüencial, mas envolve repetidas seleções de parâmetros e conjunto de
dados, aplicações das técnicas de Data Mining e posterior análise dos resultados obtidos, a fim de refinar os
conhecimentos extraídos.
Dentre as várias etapas do processo KDD, a principal, que forma o núcleo do processo e que, muitas
vezes, confunde-se com ele, chama-se Data Mining.
20
jul./dez. • 2003
002302_C&T22.book Page 21 Tuesday, July 27, 2004 8:16 AM
Fig. 1. Visão geral das etapas que constituem o processo KDD (Fayyad et al., 1996b).
Esse processo tem início com o entendimento do domínio da aplicação e dos objetivos a serem atingidos. Em seguida, é realizado um agrupamento organizado da massa de dados alvo da descoberta. Como em
toda análise quantitativa, a qualidade dos dados é essencial para a obtenção de resultados confiáveis. Portanto, dados limpos e compreensíveis são requisitos básicos para o sucesso do Data Mining, como afirmam
Diniz & Louzada-Neto (2000). A limpeza dos dados (identificada na literatura como Data Cleaning) é realizada por meio de um pré-processamento, visando assegurar a qualidade dos dados selecionados. Destaca-se
que, segundo Mannila (1996), essa etapa pode tomar até 80% do tempo necessário para todo o processo,
devido às dificuldades de integração de bases de dados heterogêneas.
Os dados pré-processados devem passar por outra transformação, que os armazena adequadamente,
visando facilitar o uso das técnicas de Data Mining. Nessa fase, o uso de Data Warehouses expande-se consideravelmente, já que, nessas estruturas, as informações estão alocadas da maneira mais eficiente. Addrians &
Zantinge (1996) definem Data Warehouse como um depósito central de dados, extraído de dados operacionais, em que a informação é orientada a assuntos, não volátil e de natureza histórica. Devido a essas características, Data Warehouses tendem a se tornar grandes repositórios de dados extremamente organizados, facilitando a aplicação do Data Mining.
Prosseguindo no processo KDD, chega-se especificamente à fase de Data Mining. O objetivo principal
desse passo é a aplicação de técnicas de mineração nos dados pré-processados, o que envolve ajuste de modelos e/ou determinação de características nos dados. Em outras palavras, exige o uso de métodos inteligentes
para a extração de padrões ou conhecimentos dos dados.
É importante destacar que cada técnica de Data Mining utilizada para conduzir as operações de Mineração de Dados adapta-se melhor a alguns problemas do que a outros, o que impossibilita a existência de um
método de Data Mining universalmente melhor. Para cada problema particular, tem-se uma técnica particular. Portanto, o sucesso de uma tarefa de Data Mining está diretamente ligado à experiência e à intuição do
analista.
A etapa final do processo de mineração consiste no pós-processamento, que engloba a interpretação
dos padrões descobertos e a possibilidade de retorno a qualquer um dos passos anteriores. Assim, a informação extraída é analisada (ou interpretada) em relação ao objetivo proposto, sendo identificadas e apresentadas as melhores informações. Dessa forma, o propósito do resultado não consiste somente em visualizar, gráfica ou logicamente, o rendimento do Data Mining, mas, também, em filtrar a informação que será apresentada, eliminando possíveis ruídos (ou seja, padrões redundantes ou irrelevantes) que podem surgir no processo. Apresenta-se, a seguir, uma breve caracterização do processo de Data Mining.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
21
002302_C&T22.book Page 22 Tuesday, July 27, 2004 8:16 AM
DATA MINING
Data Mining, ou Mineração de Dados, pode ser entendido como o processo de extração de informações, sem conhecimento prévio, de um grande banco de dados e seu uso para tomada de decisões. É uma
metodologia aplicada em diversas áreas que usam o conhecimento, como empresas, indústrias e instituições
de pesquisa. Data Mining define o processo automatizado de captura e análise de grandes conjuntos de dados
para extrair um significado, sendo usado tanto para descrever características do passado como para predizer
tendências para o futuro.
Para encontrar respostas ou extrair conhecimento interessante, existem diversos métodos de Data
Mining disponíveis na literatura. Mas, para que a descoberta de conhecimentos seja relevante, é importante
estabelecer metas bem definidas. Essas metas são alcançadas por meio dos seguintes métodos de Data
Mining: Classificação, Modelos de Relacionamento entre Variáveis, Análise de Agrupamento, Sumarização,
Modelo de Dependência, Regras de Associação e Análise de Séries Temporais, conforme citação e definição
feita por Fayyad et al. (1996a). É importante ressaltar que a maioria desses métodos é baseada em técnicas
das áreas de aprendizado de máquina, reconhecimento de padrões e estatística. Essas técnicas vão desde as
tradicionais da estatística multivariada, como análise de agrupamentos e regressões, até modelos mais atuais
de aprendizagem, como redes neurais, lógica difusa e algoritmos genéticos.
Os métodos tradicionais de Data Mining são:
• Classificação: associa ou classifica um item a uma ou várias classes categóricas pré-definidas. Uma técnica
estatística apropriada para classificação é a análise discriminante. Os objetivos dessa técnica envolvem a
descrição gráfica ou algébrica das características diferenciais das observações de várias populações, além
da classificação das observações em uma ou mais classes predeterminadas. A idéia é derivar uma regra
que possa ser usada para classificar, de forma otimizada, uma nova observação a uma classe já rotulada.
Segundo Mattar (1998), a análise discriminante permite que dois ou mais grupos possam ser comparados, com o objetivo de determinar se diferem uns dos outros e, também, a natureza da diferença, de
forma que, com base em um conjunto de variáveis independentes, seja possível classificar indivíduos ou
objetos em duas ou mais categorias mutuamente exclusivas.
• Modelos de Relacionamento entre Variáveis: associa um item a uma ou mais variáveis de predição de valores
reais, consideradas variáveis independentes ou exploratórias. Técnicas estatísticas como regressão linear simples, múltipla e modelos lineares por transformação são utilizadas para verificar o relacionamento funcional
que, eventualmente, possa existir entre duas variáveis quantitativas, ou seja, constatar se há uma relação funcional entre X e Y. Observa-se, conforme Gujarati (2000), que o método dos mínimos quadrados ordinários, atribuído a Carl Friedrich Gauss, tem propriedades estatísticas relevantes e apropriadas, que tornaram
tal procedimento um dos mais poderosos e populares métodos de análise de regressão.
• Análise de Agrupamento (Cluster): associa um item a uma ou várias classes categóricas (ou clusters), em
que as classes são determinadas pelos dados, diversamente da classificação em que as classes são pré-definidas. Os clusters são definidos por meio do agrupamento de dados baseados em medidas de similaridade
ou modelos probabilísticos. A análise de cluster (ou agrupamento) é uma técnica que visa detectar a existência de diferentes grupos dentro de um determinado conjunto de dados e, em caso de sua existência,
determinar quais são eles. Nesse tipo de análise, segundo Pereira (1999), o procedimento inicia com o
cálculo das distâncias entre os objetos estudados dentro do espaço multiplano constituído por eixos de
todas as medidas realizadas (variáveis), sendo, a seguir, os objetos agrupados conforme a proximidade
entre eles. Na seqüência, efetuam-se os agrupamentos por proximidade geométrica, o que permite o
reconhecimento dos passos de agrupamento para a correta identificação de grupos dentro do universo
dos objetos estudados.
• Sumarização: determina uma descrição compacta para um dado subconjunto. As medidas de posição e
variabilidade são exemplos simples de sumarização. Funções mais sofisticadas envolvem técnicas de
visualização e a determinação de relações funcionais entre variáveis. As funções de sumarização são fre22
jul./dez. • 2003
002302_C&T22.book Page 23 Tuesday, July 27, 2004 8:16 AM
qüentemente usadas na análise exploratória de dados com geração automatizada de relatórios, sendo responsáveis pela descrição compacta de um conjunto de dados. A sumarização é utilizada, principalmente,
no pré-processamento dos dados, quando valores inválidos são determinados por meio do cálculo de
medidas estatísticas – como mínimo, máximo, média, moda, mediana e desvio padrão amostral –, no
caso de variáveis quantitativas, e, no caso de variáveis categóricas, por meio da distribuição de freqüência
dos valores. Técnicas de sumarização mais sofisticadas são chamadas de visualização, que são de extrema
importância e imprescindíveis para se obter um entendimento, muitas vezes intuitivo, do conjunto de
dados. Exemplos de técnicas de visualização de dados incluem diagramas baseados em proporções, diagramas de dispersão, histogramas e box plots, entre outros. Autores como Levine et al. (2000) e Martins
(2001), entre outros, abordam com grande detalhamento esses procedimentos metodológicos.
• Modelo de Dependência: descreve dependências significativas entre variáveis. Modelos de dependência
existem em dois níveis: estruturado e quantitativo. O nível estruturado especifica, geralmente em forma
de gráfico, quais variáveis são localmente dependentes. O nível quantitativo especifica o grau de dependência, usando alguma escala numérica. Segundo Padovani (2000), análises de dependência são aquelas
que têm por objetivo o estudo da dependência de uma ou mais variáveis em relação a outras, sendo procedimentos metodológicos para tanto a análise discriminante, a de medidas repetidas, a de correlação
canônica, a de regressão multivariada e a de variância multivariada.
• Regras de Associação: determinam relações entre campos de um banco de dados. A idéia é a derivação de
correlações multivariadas que permitam subsidiar as tomadas de decisão. A busca de associação entre
variáveis é, freqüentemente, um dos propósitos das pesquisas empíricas. A possível existência de relação
entre variáveis orienta análises, conclusões e evidenciação de achados da investigação. Uma regra de associação é definida como se X então Y, ou X ⇒ Y, onde X e Y são conjuntos de itens e X ∩ Y = ∅. Diz-se
que X é o antecedente da regra, enquanto Y é o seu conseqüente. Medidas estatísticas como correlação e
testes de hipóteses apropriados revelam a freqüência de uma regra no universo dos dados minerados.
Vários métodos para medir associação são discutidos por Mattar (1998), de natureza paramétrica e nãoparamétrica, considerando a escala de mensuração das variáveis.
• Análise de Séries Temporais: determina características seqüenciais, como dados com dependência no
tempo. Seu objetivo é modelar o estado do processo extraindo e registrando desvios e tendências no
tempo. Correlações entre dois instantes de tempo, ou seja, as observações de interesse, são obtidas em instantes sucessivos de tempo – por exemplo, a cada hora, durante 24 horas – ou são registradas por algum
equipamento de forma contínua, como um traçado eletrocardiográfico. As séries são compostas por quatro padrões: tendência, variações cíclicas, variações sazonais e variações irregulares. Há vários modelos
estatísticos que podem ser aplicados a essas situações, desde os de regressão linear (simples e múltiplos),
os lineares por transformação e regressões assintóticas, além de modelos com defasagem, como os autoregressivos (AR) e outros deles derivados. Uma interessante noção introdutória ao estudo de séries temporais é desenvolvida por Morettin & Toloi (1987).
Diante da descrição sumária de metodologias estatísticas aplicáveis ao procedimento de Mineração de
Dados, registra-se que, embora Hand (1998) afirme que o termo Data Mining possa trazer uma conotação
simplista para os estatísticos, Fayyad et al. (1996a) mostraram a relevância da estatística para o processo de
extração de conhecimentos, ao afirmar que essa ciência provê uma linguagem e uma estrutura para quantificar a incerteza resultante quando se tenta deduzir padrões de uma amostra a partir de uma população.
De acordo com Hand (1998), a estatística preocupa-se com a análise primária dos dados, no sentido de
que eles são coletados por uma razão particular ou por um conjunto de questões particulares a priori. Data
Mining, por outro lado, preocupa-se também com a análise secundária dos dados, num sentido mais amplo e
mais indutivo do que uma abordagem hipotético-dedutiva, freqüentemente considerada como o paradigma
para o progresso da ciência moderna. Assim, Data Mining pode ser visto como o descendente direto da estatística, já que são técnicas metodológicas complementares.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
23
002302_C&T22.book Page 24 Tuesday, July 27, 2004 8:16 AM
CLEMENTINE: UMA FERRAMENTA DE DATA MINING
Nos itens anteriores deste artigo, foram apresentados conceitos e técnicas para descoberta de conhecimentos em banco de dados. Esta sessão tem como objetivo discutir a utilização de uma ferramenta de Data
Mining e analisar sua aplicação em uma base de dados de natureza econômica. A ferramenta em questão é o
Clementine, da empresa SPSS Inc.
Todos os passos do processo de descoberta de conhecimento podem ser realizados pelo Clementine.
No entanto, segundo o manual do usuário (Clementine Users Guide, 2001), a metodologia indicada para ser
usada em conjunto com a ferramenta é o modelo CRISP-DM (Cross-Industry Standard Process for Data
Mining), que foi desenvolvido a partir da experiência de três empresas pioneiras no setor: a DaimlerChrysler,
que aplica análises de Data Mining em seus negócios desde 1996; a NCR, que provê soluções de Data
Warehouse; e a SPSS, que disponibiliza soluções baseadas no processo de mineração de dados desde 1990.
Essa metodologia é composta por seis fases, como ilustrado na figura 2.
Fig. 2. O modelo CRISP-Data Mining (CRISP-DM, 2001).
Como pode ser observada na figura 2, a seqüência das fases desse processo não é rígida. Voltar e ir
avante entre as diferentes fases é sempre necessário. Dessa forma, uma fase depende do resultado de outra,
ou da tarefa particular de uma fase que precisa ser executada na próxima etapa. O círculo externo simboliza
a natureza cíclica do processo de Data Mining. As fases desse processo são:
• Entendimento do Negócio (Business Understanding): visa o entendimento dos objetivos e requisitos do
projeto, do ponto de vista do negócio. Baseado no conhecimento adquirido, o problema de mineração
de dados é definido e um plano preliminar é projetado para alcançar os objetivos.
• Entendimento dos Dados (Data Understanding): inicia com uma coleção de dados e prossegue com atividades que visam buscar familiaridade, identificar problemas de qualidade, descobrir os primeiros discernimentos nos dados ou detectar subconjuntos interessantes para formar hipóteses da informação
escondida.
24
jul./dez. • 2003
002302_C&T22.book Page 25 Tuesday, July 27, 2004 8:16 AM
• Preparação dos Dados (Data Preparation): cobre todas as atividades de construção do dataset final. As
tarefas de preparação de dados são, provavelmente, desempenhadas várias vezes e sem qualquer ordem
prescrita. Essas tarefas incluem a seleção de tabelas, registros e atributos, bem como a transformação e
limpeza dos dados para as ferramentas de modelagem.
• Modelagem (Modelling): várias técnicas de modelagem são selecionadas e aplicadas, e seus parâmetros
são ajustados para valores ótimos. Geralmente, existem várias técnicas para o mesmo tipo de problema
de mineração de dados. Algumas delas têm requisitos específicos na formação de dados. Portanto, retornar à fase de preparação de dados é freqüentemente necessário.
• Avaliação (Evaluation): o modelo (ou modelos) construído na fase anterior é avaliado e os passos executados na sua construção são revistos, para se certificar que o modelo representa os objetivos do negócio.
Seu principal objetivo é determinar se existe alguma questão de negócio importante que não foi suficientemente considerada. Nesta fase, uma decisão sobre o uso dos resultados de mineração de dados deverá
ser obtida.
• Utilização ou Aplicação (Deployment): após a construção e avaliação do modelo (ou modelos), ele pode
ser utilizado de duas formas: em uma, o analista pode recomendar ações a serem tomadas baseando-se,
simplesmente, na visão do modelo e de seus resultados; na outra, o modelo pode ser aplicado a diferentes
conjuntos de dados.
A Interface do Clementine
O Clementine possui uma interface de programação visual que facilita a construção de modelos de
Data Mining para o processo de descoberta de conhecimento. A ferramenta oferece ricas facilidades para a
exploração e manipulação de dados, além de várias técnicas de modelagem e recursos gráficos, para a
visualização de dados. As operações são representadas em uma área de trabalho por nós (nodes) que, conectados, formam o fluxo de dados, chamado de streams, conforme ilustra a figura 3.
Fig. 3. A Interface de Programação Visual do Clementine.
1. Desktop ou
Área de trabalho
3. Paleta
de Modelos
Gerados
4. Botão de
Execução
2. Paleta de
Objetos
5. Report Window
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
6. Status Window
25
002302_C&T22.book Page 26 Tuesday, July 27, 2004 8:16 AM
A área de trabalho, ou desktop, também chamada de stream pane, é a área de construção e manipulação dos streams e dados. Em outras palavras, é a área de construção do modelo de Data Mining.
Os nós apresentam-se agrupados de acordo com seu tipo de funcionalidade na paleta de objetos localizada na parte inferior da área de trabalho do Clementine, que pode ser acessado e do qual é possível importar
dados, por meio das funcionalidades dos nós do grupo Source; manipular registros e campos, através do
grupo Record Ops; visualizar os dados a partir de gráficos contidos nos diversos nós do grupo Graphs; construir modelos por meio de uma variedade de técnicas de modelagem disponíveis no grupo Modelling; e avaliar os resultados com os recursos do grupo Output.
A paleta de modelos gerados, localizada à direita do leitor na área de trabalho, contém os resultados de
um modelo construído depois de executado. Para executar um modelo, basta clicar no botão de execução,
abaixo da paleta de modelos gerados. Ao se clicar no botão, todos os streams válidos são executados. O Report
Window, localizado abaixo da paleta de objetos, provê um feedback do progresso de várias operações, tal como
quando os dados estão sendo lidos. O Status Window, também abaixo da paleta de objetos, provê informação
sobre o que a aplicação está realizando no momento, bem como mensagens de pedido de retorno do usuário.
Aplicação
Visamos aqui mostrar algumas aplicações realizadas com a ferramenta em estudo. É importante destacar que o objetivo é mostrar como o Data Mining pode ser aplicado por meio dessa ferramenta e, não, fazer
marketing do Clementine.
Os dados utilizados para essa pesquisa foram fornecidos pelo Instituto Brasileiro de Geografia e Estatística (IBGE), em CD (microdados), e referem-se à Pesquisa Nacional por Amostra de Domicílios (PNAD)
do ano de 1999. É importante lembrar que essa massa de dados tem sua origem temporal no sistema de pesquisas domiciliares, que foi implantado progressivamente no Brasil a partir de 1967, com a criação da Pesquisa Nacional por Amostra de Domicílios, e tem por finalidade a produção de informações básicas para o
estudo do desenvolvimento socioeconômico do País (PNAD, 1999). Os dados encontram-se organizados e
disponíveis em CD-ROM, divididos em dois arquivos: um referente a pessoas e o outro, a domicílios.
O arquivo de pessoas contém, em síntese, informações sobre a identificação dos moradores, suas características gerais, educação, trabalho e rendimento, entre outras. O arquivo de domicílios possui, em resumo,
informações sobre características da unidade domiciliar. Os dados do presente estudo referem-se a pessoas
ocupadas em atividades agrícolas. As variáveis selecionadas para essa aplicação são: UF – Unidade da Federação; V0302-Sexo; V8005-Idade; V0404-Cor ou Raça; V0601-Sabe ler e escrever; V4703-Anos de Estudo; e
V4614-Rendimento Mensal Domiciliar.
O primeiro passo realizado para essa aplicação foi carregar os arquivos de Pessoas e Domicílios. Para
isso, utilizou-se o nó SAS1 da paleta Source (fig. 4). Em seguida, foi preciso ligar os arquivos, por meio do nó
Merge, já que são usadas variáveis dos dois arquivos. Em seguida, os dados foram separados em regiões, para
se ter clareza dos resultados em relação à Unidade da Federação a que pertencem. Para isso, foi utilizado o nó
Select, conforme ilustra a figura 5.
Fig. 4. Nó SAS.
1
O SAS (Statistical Analysis System) é um pacote para análises estatísticas compatível para aplicações no Clementine – SPSS.
26
jul./dez. • 2003
002302_C&T22.book Page 27 Tuesday, July 27, 2004 8:16 AM
Fig. 5. Nó Select para divisão em regiões.
Fig. 6. Nó Select para formar a região Centro-Oeste.
Para cada nó Select utilizado, foi selecionado o modo Include para incluir o resultado da condição
(Condition) que seleciona a Unidade da Federação (UF) correspondente a cada região, caso ela seja verdadeira. A figura 6 mostra as condições usadas para formar a região Centro-Oeste, constituída pelas seguintes
UFs: 50. Mato Grosso do Sul; 51. Mato Grosso; 52. Goiás; e 53. Distrito Federal.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
27
002302_C&T22.book Page 28 Tuesday, July 27, 2004 8:16 AM
Ao iniciar uma aplicação com o Clementine, não é preciso, necessariamente, saber o que se está procurando. É possível explorar os dados investigando diferentes relacionamentos até encontrar informações úteis.
Desse modo, para melhor entendimento das informações, foi realizada uma análise exploratória de dados
usando o nó Statistics da paleta Output (veja quadro correspondente).
Análise exploratória de dados, apenas com nó Statistics da paleta Output: resultados.
NORTE
STATISTICS FOR FIELD: RENDMENSALDOM
OCCURRENCES
MINIMUM
MAXIMUM
RANGE
MEAN
STANDARD DEVIATION
STANDARD ERROR OF THE MEAN
VARIANCE
MEDIAN
SUM
NORDESTE
STATISTICS FOR FIELD: RENDMENSALDOM
OCCURRENCES
MINIMUM
MAXIMUM
RANGE
MEAN
STANDARD DEVIATION
STANDARD ERROR OF THE MEAN
VARIANCE
MEDIAN
SUM
SUL
STATISTICS FOR FIELD: RENDMENSALDOM
OCCURRENCES
MINIMUM
MAXIMUM
RANGE
MEAN
STANDARD DEVIATION
STANDARD ERROR OF THE MEAN
VARIANCE
MEDIAN
SUM
SUDESTE
STATISTICS FOR FIELD: RENDMENSALDOM
OCCURRENCES
MINIMUM
MAXIMUM
RANGE
MEAN
STANDARD DEVIATION
STANDARD ERROR OF THE MEAN
VARIANCE
MEDIAN
SUM
28
=
=
=
=
=
=
=
=
=
=
1486
0.0000
9612.0
9612.0
522.59
807.40
20.945
651887.5
331.00
776570.0
=
=
=
=
=
=
=
=
=
=
14745
0.0000
9936.0
9936.0
311.06
353.92
2.9146
125259.0
236.00
4586630.0
=
=
=
=
=
=
=
=
=
=
5776
0.0000
17300.0
17300.0
633.63
913.36
12.018
834232.6
408.00
3659861.0
=
=
=
=
=
=
=
=
=
=
6927
0.0000
18000.0
18000.0
583.94
807.79
9.7057
652529.9
380.00
4044930.0
jul./dez. • 2003
002302_C&T22.book Page 29 Tuesday, July 27, 2004 8:16 AM
CENTRO-OESTE
STATISTICS FOR FIELD: RENDMENSALDOM
OCCURRENCES
=
3521
=
0.0000
MINIMUM
=
36700.0
MAXIMUM
RANGE
=
36700.0
=
624.40
MEAN
=
1242.1
STANDARD DEVIATION
20.932
STANDARD ERROR OF THE MEAN =
=
1542758.2
VARIANCE
MEDIAN
=
350.00
=2198522.0
SUM
Várias medidas estatísticas – como contagem, média, mínimo, máximo, amplitude, desvio padrão,
variância, soma e erro padrão da média – foram obtidas a partir do nó Statistics para a variável Renda Mensal
Domiciliar associada às pessoas ocupadas na agricultura em 1999, de forma a subsidiar uma análise exploratória do comportamento dessa variável nas grandes regiões geográficas do país.
A figura 7 apresenta a utilização do nó Build C5.0 para a Região Centro-Oeste. Esse nó utiliza o
algoritmo C5.02 para construir uma árvore de decisão ou um conjunto de regras (ruleset). Todas as opções
selecionadas para aplicação desse nó são ilustradas pela referida figura.
Para gerar uma árvore de decisão através do nó Build C5.0, são necessários uma ou mais variáveis de
entrada (In) e apenas um campo de saída (Out). Para selecionar essas variáveis foi usado o nó Type, conforme
ilustra a figura 8. O resultado obtido é apresentado na figura 9.
Fig. 7. Opções do nó Build C5.0.
O algoritmo de indução de regras capaz de produzir árvores de decisão compactas – rulesets, conjunto de regras. A versão anterior desse algoritmo foi chamada de C4.5 (Clementine Users Guide).
2
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
29
002302_C&T22.book Page 30 Tuesday, July 27, 2004 8:16 AM
Fig. 8. Nó Type.
Fig. 9. Árvore de decisão obtida com o nó Build C5.0.
A figura 9 apresenta informações sobre o número de observações usadas para gerar as ramificações da
árvore de decisão, bem como os níveis de certeza. Analisando os resultados obtidos pela árvore, é possível
visualizar a classificação da variável de saída (ou seja, variável de predição) Unidade da Federação (UF) na
região Centro-Oeste. Para melhor entendimento dos resultados obtidos, apresenta-se, a seguir, uma explicação do funcionamento das árvores de decisão. É importante ressaltar que esse exemplo é apenas ilustrativo e
seu objetivo é somente explicar um resultado obtido com a ferramenta de estudo.
Entendendo as Árvores de Decisão
Ao navegar pelos nós de uma árvore de decisão, é possível verificar uma lista de condições que definem
a divisão dos dados que foram descobertos pelo algoritmo no Clementine.
30
jul./dez. • 2003
002302_C&T22.book Page 31 Tuesday, July 27, 2004 8:16 AM
As árvores de decisão funcionam/trabalham recursivamente, dividindo os dados com base nos valores
dos campos de entrada. Os dados que foram divididos são denominados ramo, ou galho. O galho inicial
(também denominado raiz) engloba todos os registros. A raiz é dividida em subconjuntos, ou galhos filhos,
baseados no valor de um particular campo de entrada. Cada galho filho pode ser dividido, mais de uma vez,
em subgalhos, que podem ser divididos novamente, e assim por diante. No nível mais baixo da árvore,
encontram-se os galhos que não podem mais ser divididos, conhecidos como galhos terminais, ou folha.
O navegador da árvore de decisão mostra os valores de entrada que definem cada divisão, ou galho, e
um resumo do campo (ou variável) de saída para os registros da divisão. Para divisões baseadas em campos
numéricos, o galho é mostrado por uma linha, na forma:
nome_do_campo relação valor [resumo]
em que a relação é uma relação numérica. Por exemplo, um galho definido por valores maiores que 22
para a variável Idade aparecerá como:
idade =< 22 [resumo]
Para divisões baseadas em campos simbólicos, o galho é mostrado da seguinte forma:
nome_do_campo valor [resumo]
ou
nome_do_campo [valores] [resumo]
em que os valores são os da variável que define o galho. Por exemplo, um galho que inclui registros
onde o valor da variável Cor ou Raça3 pode ser 0 (indígena), 2 (branca) ou 4 (preta), deve ser representado
como:
cor 2 [resumo]
ou
cor [‘0’,’2’,’4’] [resumo]
Para galhos terminais, uma predição é também dada adicionando-se uma seta e o valor que foi previsto
para o final da condição da regra. Por exemplo, uma folha definida por Anos de Estudo =< 7, que prediz um
valor 7 para o campo de saída, a árvore mostrará:
AnosEstudo =< 7 [mode: 50] -> 50
O resumo para o galho é definido diferentemente para campos de saída simbólica e numérica. Para
árvores com campos de saída numérica, o resumo é o valor médio para o galho, e o efeito do galho, definido
como a diferença entre a média deste e a média para seus pais. Para árvores com campos de saída simbólica,
o resumo é a moda, ou seja, o valor mais freqüente para os registros no galho.
Após entendimento do funcionamento da árvore de decisão gerada por meio do Clementine, pode-se
chegar às seguintes conclusões ou regras:
1) se a variável Cor ou Raça for igual a indígena (0), a variável UF é Mato Grosso do Sul;
2) se a variável Cor ou Raça for branca (2), a variável UF é Goiás; porém, se a idade for menor ou igual
a 22 anos, a variável UF é Mato Grosso do Sul; e se a idade for maior que 22 anos, a variável UF é
Goiás;
3) se a variável Cor ou Raça for Preta (4), a variável UF é Mato Grosso do Sul;
4) se a variável Cor ou Raça for amarela (6), a variável UF é Mato Grosso do Sul; porém, se a variável
Anos de Estudo for menor ou igual a sete anos, a UF é Mato Grosso do Sul; e se a variável Anos de
Estudo for maior que sete anos, a variável UF é Distrito Federal;
5) se a variável Cor ou Raça for Parda (8), a variável UF é Goiás; e,
6) se a variável Cor ou Raça for ignorada, a UF também é Goiás.
A definição da variável como Cor ou Raça segue a classificação padrão da PNAD-IBGE, assim como suas categorias, definidas como branca,
preta, amarela, parda e indígena (conforme dicionário de dados, PNAD 1998, cd-ROM).
3
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
31
002302_C&T22.book Page 32 Tuesday, July 27, 2004 8:16 AM
Em síntese, de acordo com as regras mencionadas e com a figura 9, a UF da Região Centro-Oeste com
maior diversidade de pessoas de Cor ou Raça diferente é Goiás (UF igual a 52).
CONSIDERAÇÕES FINAIS
A idéia central deste artigo foi a de apresentar, de forma sucinta, os principais conceitos e técnicas
envolvidos na nova área interdisciplinar Data Mining. Além desses conceitos e técnicas, foram apresentadas
as características de um software específico para mineração de dados, o Clementine, da SPSS.
Destaca-se Data Mining como parte de um processo maior, denominado KDD, e que se refere ao meio
pelo qual padrões são extraídos e enumerados a partir dos dados, ou seja, ao uso de métodos inteligentes
para se extrair novos conhecimentos. Entendendo-se por métodos inteligentes a aplicação de alguma técnica
específica de Data Mining, neste artigo foi destacada a utilização de classificação por meio de árvores de decisão, com o apoio do software Clementine. Constata-se que todos os passos do processo de descoberta de
conhecimento podem ser realizados pelo Clementine. Uma grande vantagem dessa ferramenta é sua interface de programação visual, o que favorece a construção de modelos de Data Mining para o processo de descoberta de conhecimento e ainda oferece ricas facilidades para exploração e manipulação de dados, além de
várias técnicas de modelagem e recursos gráficos para visualização de dados.
A utilização de um software de Data Mining pode trazer descobertas inovadoras para estudiosos da
área econômica. Porém, deve ficar claro que nenhuma ferramenta de Data Mining trabalha por si só e elimina a necessidade de conhecimento e entendimento do negócio e a compreensão dos dados a serem minerados, nem mesmo substitui analistas e pesquisadores da área (ou gestores de negócios). Mas deve ficar claro
que o uso da ferramenta proporciona aos usuários meios para encontrar tesouros de informações que permitam detectar tendências e características disfarçadas, confirmar a necessidade de estudos de novas relações,
não necessariamente previstas pela teoria econômica ou que sejam indicativas de temas a serem pesquisados,
ou, ainda, reagir rapidamente a um evento que ainda pode estar por vir.
REFERÊNCIAS BIBLIOGRÁFICAS
ADDRIANS, P. & ZANTINGE, D. Data Mining. Inglaterra: Addison-Wesley, 1996.
BRACHNAD, R.J. & ANAND, T. The process of knowledge discovery in databases. In: FAYYAD, U.M. et al. Advances in Knowledge Discovery in Data Mining. Menlo Park: AAAI Press, 1996.
CLEMENTINE® 6.0 User’s Guide, Copyright © 2001 by SPSS Inc. Printed in the United States of America, 2001.
CRISP-DM: Cross Industry Standard Process Model for Data Mining. . Printed in the United States of America, 2001.
DILLY, R. Data Mining: an introduction. Belfast: Parallel Computer Centre, Queens University, 1999.
DINIZ, C.A. &LOUZADA-NETO, F. Data Mining: uma introdução. São Carlos: Associação Brasileira de Estatística, 2000.
FAYYAD, U.M. et al. The KDD Process for Extracting Useful Knowledge from Volumes of Data. In: ___. Advances in Knowledge Discovery in Data Mining. Menlo Park: AAAI Press, 1996a.
FAYYAD, U.M. et al. Advances in Knowledge Discovery and Data Mining. California: AAAI Press, 1996b.
GUJARATI, D.N. Econometria Básica. Trad. Ernesto Yoshita. São Paulo: Makron Books, 2000.
HAND, D.J. Data Mining: statistics and more? The American Statistician, England, 52 (2): 112-118, mai./98.
IBGE. Pesquisa Nacional por Amostras de Domicílios 1999. Rio de Janeiro: IBGE, 1999. CD-rom.
LEVINE, D.M. et al. Estatística: teoria e aplicações. Trad. Teresa C.P. de Souza. Rio de Janeiro: LTC Editora, 2000.
MANNILA, H. Data mining: machine learning, statistics and databases. International Conference on Statistics and Scientific
Database Management, Estocolmo, 8, 1996.
MARTINS, G.A. Estatística Geral e Aplicada. São Paulo: Atlas, 2001.
MATTAR, F.N. Pesquisa de Marketing. São Paulo: Atlas, 1998.
MORETTIN, P.A. & TOLOI, C.M. Séries Temporais. 2.ª ed. São Paulo: Atual, 1987.
PADOVANI, C.R. Estatística na Metodologia da Investigação Científica. Botucatu: UNESP, 1995.
PEREIRA, J.C.R. Análise de Dados Qualitativos. São Paulo: Edusp/Fapesp, 1999.
SADE, A.S. & SOUZA, J.M. Prospecção de Conhecimento em Bases de Dados Ambientais. Rio de Janeiro: UFRJ, 1996.
32
jul./dez. • 2003
002302_C&T22.book Page 33 Tuesday, July 27, 2004 8:16 AM
Dados dos autores
HELOISA HELENA SFERRA
Analista de Sistemas. Mestranda em Ciência de
Computação pela UNIMEP
ÂNGELA M. C. JORGE CORRÊA
Professora doutora do Grupo de Área em
Métodos Quantitativos (FCMNTI/UNIMEP) do
Mestrado em Administração e convidada do
Mestrado em Ciência da Computação/UNIMEP
Recebimento do artigo: 19/mar./03
Consultoria: 24/mar./03 a 18/dez./03
Aprovado: 18/dez./03
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 19-34
33
002302_C&T22.book Page 34 Tuesday, July 27, 2004 8:16 AM
34
jul./dez. • 2003
002302_C&T22.book Page 35 Tuesday, July 27, 2004 8:16 AM
Análise dos Custos de Manutenção
e de Não-manutenção de
Equipamentos Produtivos
Cost Analysis of Maintenance and Non-Maintenance
Policies for Productive Equipments
WILSON ROBERTO MARCORIN
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
CARLOS ROBERTO CAMELLO LIMA
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
RESUMO Nenhum estudo de implantação de programas de manutenção, em qualquer empresa, pode ser devidamente
efetuado sem se considerar os custos envolvidos. Eles são, na verdade, os fatores mais importantes a serem examinados
para se decidir entre diferentes programas de manutenção. Os custos envolvidos são fundamentais para a decisão de realizar, ou não, atividades de manutenção. A questão principal a discutir é a forma como os custos são analisados. Somente
quando os custos de um programa de manutenção são comparados com os custos gerais originados pela falta de manutenção é que se consegue persuadir os gerentes de empresas a implementá-los. Cabe mostrar que o dinheiro aplicado em
programas de manutenção é, na verdade, um investimento, que proporciona redução não somente nos custos de reparo
de máquinas, mas também nos de parada de máquinas. Este trabalho apresenta uma revisão de literatura sobre esses
aspectos, assim como uma análise dos custos envolvidos nos diferentes programas e ferramentas de manutenção, em termos de disponibilidade de máquina. Seus benefícios são comparados, também, aos custos decorrentes de reparo e parada
de máquina quando se adota uma política de não-manutenção.
Palavras-chave PROGRAMAS DE MANUTENÇÃO – CUSTOS DE MANUTENÇÃO – CUSTOS DE INDISPONIBILIDADE.
ABSTRACT Studies of maintenance programs cannot be implemented, in any company, if costs are not considered. In fact,
they are the most important issue to be examined when deciding among different maintenance programs. They are basic
to decide whether maintenance activities should be practiced or not. The main issue to be discussed is how costs should
be analysed. Only when the costs of a maintenance program are compared to the costs originated from the lack of
maintenance, it is possible to convince company managers to implement maintenance programs. Managers must be
convinced that the money applied on maintenance programs is, in fact, an investment that reduces not only repair costs
but also the machines’ downtime costs. This work offers a literature review on the subject as well as an analysis of costs
involved in different maintenance policies and tools. All these costs are analyzed in terms of machine availability and its
benefits. These costs are also compared to those of machine repair and machine downtime that result from a nonmaintenance policy.
Keywords MAINTENANCE PROGRAMS – MAINTENANCE COSTS – UNAVAILABILITY COSTS.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 35-42
35
002302_C&T22.book Page 36 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
busca incessante do lucro pelas empresas, focada em uma análise simplista de redução de custos e
aumento de produção, pode desviar a companhia do real caminho para sua sobrevivência no mercado. A via para manter-se e ganhar novos mercados está na qualidade e na produtividade. A busca da
qualidade e da produtividade passa por diversas questões, como as políticas de gestão da qualidade, a análise
do melhor sistema de produção, o treinamento, a manutenção da produção e outros fatores estratégicos. O
papel da manutenção mostra-se essencial na garantia tanto da qualidade quanto da produtividade empresarial.
A manutenção deve ser encarada como uma função estratégica na obtenção dos resultados da organização e deve estar direcionada ao suporte do gerenciamento e à solução de problemas apresentados na produção, lançando a empresa em patamares competitivos de qualidade e produtividade (Kardec & Nascif,
2001). Portanto, deve “ter em conta os objetivos da empresa” e ser gerida de modo a proporcionar à organização um grau de funcionalidade com um custo global otimizado (Souris, 1992). A política de manutenção
deve ser definida pela empresa segundo os seus objetivos organizacionais (Wireman, 1990), apresentando-se
como fator determinante do sucesso do planejamento da produção e, portanto, da produtividade do processo (Wireman, 1998).
Entretanto, a importância da função manutenção e a opção consciente de seu modelo nem sempre são
claras e levadas em consideração na análise das estratégias das organizações – e quando o são, acabam sendo
descartadas por uma análise incorreta dos custos envolvidos. O fator custo da manutenção, quando analisado
isoladamente, acaba inibindo as empresas a considerar em sua estratégia essa manutenção, relegando-a a uma
posição secundária ou, mesmo, a ser vista como um mal necessário.
Este trabalho pretende discutir esse tema, de modo a proporcionar maior clareza sobre a questão dos custos de manutenção e daqueles decorrentes de sua ausência ou ineficácia, de modo a fornecer mais subsídios para
a análise desses custos e uma tomada de decisão consciente sobre a estratégia de manutenção a adotar.
MANUTENÇÃO E QUALIDADE
Quando se fala em produção de peças por meio de máquinas e equipamentos, com qualquer nível de
automação, a qualidade do produto final é determinada, entre outros fatores, pelo desempenho do equipamento/máquina que o fabrica. Tradicionalmente, manutenção e qualidade têm sido analisadas separadamente, como identifica Ben-Daya (2002), que apresenta um modelo matemático que leva em consideração a
deterioração do equipamento no processamento da produção de lotes econômicos. Badía et al. (2002) discutem essa questão relacionando uma manutenção ineficaz com a necessidade de inspeções mais freqüentes, o
que eleva o custo do controle de qualidade.
A deterioração das condições ótimas do equipamento leva a desvios no processo e a queda de qualidade. Conforme Souris (1992), a busca pela qualidade do processo e do produto passa pela qualidade da
manutenção, sem a qual o montante investido em sistemas de gestão da qualidade pode ser inteiramente perdido. A qualidade da função manutenção pode evitar a deterioração das funções operacionais dos equipamentos, especialmente aquelas que levam a falhas ocultas, que resultam na incapacidade do processo. Apenas
uma manutenção adequada pode garantir que o processo não perderá sua capacidade devido a desvios provocados por problemas no equipamento. A manutenção é encarada como essencial também nos sistemas de
gestão da qualidade, como a ISO 9000 (Kardec & Nascif, 2001).
MANUTENÇÃO E PRODUTIVIDADE
De forma mais evidente do que a qualidade, a produtividade também depende do desempenho do equipamento. A redução da produtividade em função das paradas de máquinas é analisada no item “Manutenção
e Disponibilidade” deste trabalho sob a ótica da disponibilidade dos equipamentos de produção. Entretanto,
essa produtividade pode ser ainda mais afetada quando a falta de manutenção ou a manutenção ineficaz cau36
jul./dez. • 2003
002302_C&T22.book Page 37 Tuesday, July 27, 2004 8:16 AM
sam aumento dos tempos de produção pela redução do desempenho, mesmo não havendo uma parada efetiva do equipamento. Essa condição leva a empresa a buscar a origem da queda de produção em outros fatores, como ferramental, materiais e até operadores, elevando os custos operacionais. Pode-se dizer, portanto,
que uma política inadequada de manutenção traz custos adicionais relacionados à falta de produtividade –
desde as horas extras necessárias para cumprir a produção até perdas de contrato –, todos mensuráveis, além
de outras perdas não mensuráveis, como o desgaste da imagem da empresa (Kardec & Nascif, 2001).
MANUTENÇÃO E DISPONIBILIDADE
A redução do desempenho do equipamento, que traz a diminuição da qualidade e da produtividade,
pode ser evitada com políticas adequadas de manutenção que garantam a eficiência do equipamento. A falta
dessas políticas, além da redução da capacidade do processo, acarreta paradas efetivas do equipamento, reduzindo a sua disponibilidade. A disponibilidade dos equipamentos depende da confiabilidade e da manutenibilidade por eles apresentadas (Williams et al., 1994).
Apesar de os valores de confiabilidade e manutenibilidade serem, por definição, fatores intrínsecos do
equipamento e dependerem da concepção de seu projeto (SAE International, 1992), eles são afetados por
outros fatores, como treinamento dos mantenedores, disponibilidade de peças, limpeza e condição geral do
equipamento. Uma política adequada de manutenção deve, então, manter a capacidade e a disponibilidade
da máquina, evitando quebras (aumento de confiabilidade) e criando condições de uma intervenção corretiva
rápida e eficaz, quando a falha ocorrer (aumento da manutenibilidade).
CUSTOS DA FALTA DE MANUTENÇÃO
O que foi exposto até agora mostra alguns pontos em que a falta de uma política de manutenção gera
custos. Segundo Mirshawa & Olmedo (1993), os custos gerados pela função manutenção são apenas a ponta
de um iceberg. Essa ponta visível corresponde aos custos com mão-de-obra, ferramentas e instrumentos,
material aplicado nos reparos, custo com subcontratação e outros referentes à instalação ocupada pela equipe
de manutenção. Abaixo dessa parte visível do iceberg, estão os maiores custos, invisíveis, que são os decorrentes da indisponibilidade do equipamento.
O custo da indisponibilidade concentra-se naqueles decorrentes da perda de produção, da não-qualidade dos produtos, da recomposição da produção e das penalidades comerciais, com possíveis conseqüências
sobre a imagem da empresa (Mirshawa & Olmedo, 1993). Esses aspectos também foram tratados por Cattini (1992), quando aponta os custos ligados à indisponibilidade e deterioração dos equipamentos como conseqüência da falta de manutenção. Essa relação entre custo de manutenção, custo da indisponibilidade e produtividade foi estudada em modelo matemático apresentado por Chiu & Huang (1996), cuja conclusão
aponta para uma melhor relação custo-benefício quando a manutenção é tratada de forma preventiva, em
vez de situações de descontrole do processo produtivo pela falta de manutenção.
Tomando a manutenção como premissa para a redução dos custos da produção, deve-se definir a
melhor política a ser adotada para a otimização dos custos. Essa análise pode ser observada no gráfico clássico, mostrado na figura 1, que ilustra a relação entre o custo com manutenção preventiva e o custo da falha.
Entre os custos decorrentes da falha estão, basicamente, as peças e a mão-de-obra necessárias ao reparo e,
principalmente, o custo da indisponibilidade do equipamento.
O gráfico da figura 1 mostra que investimentos crescentes em manutenção preventiva reduzem os custos decorrentes das falhas – e, em conseqüência, diminuem o custo total da manutenção, em que se somam
os custos de manutenção preventiva com os custos de falha. Entretanto, o gráfico mostra também que, a partir do ponto ótimo em investimento com manutenção preventiva, mais investimentos trazem poucos benefícios para a redução dos custos da falha e acabam elevando o custo total. Essa questão foi estudada por Murty
& Naikan (1995), que trabalham os limites da disponibilidade e apresentam um modelo matemático para o
cálculo do ponto ótimo de disponibilidade, como mostrado no gráfico da figura 2.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 35-42
37
002302_C&T22.book Page 38 Tuesday, July 27, 2004 8:16 AM
Fig. 1. Gráfico custos versus nível de manutenção (Mirshawa & Olmedo, 1993).
Fig. 2. Gráfico lucro versus disponibilidade (Murty & Naikan, 1995).
O gráfico da figura 2 mostra que a busca por falha zero (100% de disponibilidade) requer gastos cada
vez maiores com manutenção, o que acarreta uma conseqüente redução do lucro da operação. Encontrar o
ponto ótimo de disponibilidade, em que o custo da manutenção proporciona um nível de disponibilidade
capaz de gerar máximo lucro à operação, é o grande desafio na gestão da manutenção, como afirma Cabrita
(2002). Para ele, a manutenção deve garantir a produtividade e o lucro dos negócios da empresa com o
menor custo possível.
É muito importante observar, na busca do ponto ótimo, que a política de manutenção a ser adotada deve levar em consideração aspectos como a importância do equipamento para o processo, o custo
do equipamento e de sua reposição, as conseqüências da falha do equipamento no processo, o ritmo de
produção e outros fatores que indicam que a política de manutenção não pode ser a mesma para todos
os equipamentos, mas deve ser diferenciada para cada um deles, na busca do ponto ótimo entre disponibilidade e custo.
POLÍTICAS BÁSICAS DE MANUTENÇÃO
Manutenção Corretiva
Embora possa parecer ausência de uma política de manutenção, a manutenção corretiva é uma alternativa que, aparentemente, coloca-se no extremo esquerdo inferior do gráfico da figura 1, apresentado no item
anterior. O problema dessa política não está em fazer intervenções corretivas, mas em que sua aplicação iso38
jul./dez. • 2003
002302_C&T22.book Page 39 Tuesday, July 27, 2004 8:16 AM
lada requer enormes estoques de peças para suportar as sucessivas quebras, tornando o trabalho imprevisível
e, portanto, sem um plano capaz de equacionar os custos. Entretanto, levando-se em consideração a importância do equipamento no processo, o seu custo e as conseqüências da falha, pode-se chegar à conclusão de
que qualquer outra opção que não a corretiva pode significar custos excessivos.
Em outras palavras, a manutenção corretiva é a melhor opção quando os custos da indisponibilidade
são menores do que os custos necessários para evitar a falha, condição tipicamente encontrada em equipamentos sem influência no processo produtivo.
Manutenção Preventiva
O termo manutenção preventiva é muito abrangente e deve significar um conjunto de ações que visam
prevenir a quebra. A manutenção preventiva está baseada em intervenções periódicas geralmente programadas segundo a freqüência definida pelos fabricantes dos equipamentos. Essa política, em muitos casos, leva a
desperdícios, pois não considera a condição real do equipamento.
O simples fato de a manutenção preventiva reduzir o risco de paradas não programadas devido a falhas
no equipamento já a coloca como uma opção melhor do que a manutenção corretiva em máquinas ligadas
diretamente ao processo. É importante ressaltar que ela possui alguns pontos a serem considerados. O primeiro é o fato de que a troca de um item por tempo de uso apenas pode ser considerada naqueles que sofrem
desgaste. Outro ponto, mesmo nos itens que sofrem desgaste, é a imprevisibilidade, ou seja, o ritmo de desgaste pode não ser uniforme e está sujeito a muitas variáveis.
Da mesma forma que é possível trocar uma peça ainda com muito tempo de vida, pode ocorrer
falha antes do tempo previsto. Essa imprevisibilidade requer estoques de peças de reposição, elevando
os custos relativos. Dohi et al. (2001) abordam a questão do custo do estoque e apresentam um modelo
matemático para otimizar a quantidade de mercadoria acumulada em aplicações de manutenção preventiva.
Além do estoque elevado para cobrir a imprevisibilidade das falhas, a manutenção preventiva apresenta
o inconveniente de intervenções muitas vezes desnecessárias, que reduzem a produtividade e elevam o custo
operacional total. No entanto, esse tipo de manutenção pode ser a melhor alternativa para equipamentos e/
ou peças que apresentam desgaste em ritmo constante e que representam um custo baixo, em comparação
com o custo da falha, podendo-se prever estoques adequados e seguros.
Manutenção Preditiva
A manutenção preditiva caracteriza-se pela medição e análise de variáveis da máquina que possam
prognosticar uma eventual falha. Com isso, a equipe de manutenção pode se programar para a intervenção e
aquisição de peças (custo da manutenção), reduzindo gastos com estoque e evitando paradas desnecessárias
da linha de produção (custo da indisponibilidade).
Por ser uma manutenção de acompanhamento, a preditiva exige uma mão-de-obra mais qualificada
para o trabalho e alguns aparelhos ou instrumentos de medição. Seu aparente alto custo é plenamente
recompensado por seus resultados, situando-se mais próximo do ponto ótimo da relação custo-benefício em
equipamentos cuja parada traz grandes prejuízos ao processo e em que o custo do estoque de equipamento/
peça também é elevado.
A manutenção preditiva situa-se, portanto, no ponto do gráfico de investimentos em manutenção com
o melhor retorno de disponibilidade com custos ainda compensadores (fig. 2). Aqui reside mais um dos mitos
da manutenção citado por Cattini (1992), que afirma que, apesar do conceito envolvido na manutenção preditiva, ela pode ser utilizada com investimentos menores do que se imagina. Uma análise mais profunda mostra que o custo pode variar muito, em função das ferramentas e dos métodos aplicados nas manutenções corretivas e preditivas. Ferramentas de gestão simples e baratas podem propiciar o emprego desses tipos de
manutenção, como será discutido adiante.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 35-42
39
002302_C&T22.book Page 40 Tuesday, July 27, 2004 8:16 AM
FERRAMENTAS PARA GERENCIAMENTO DA MANUTENÇÃO
Metodologia 5S
Esta é uma das mais poderosas ferramentas, essencial à obtenção de condições mais favoráveis à aplicação de técnicas mais avançadas. O 5S é o início de um processo de mudança de postura diante da função
manutenção. É, por si só, técnica suficiente para baixar os custos da manutenção e da indisponibilidade, consistindo em ferramenta preventiva. O 5S vem das iniciais das cinco palavras japonesas seiri, seiton, seiso, seiketsu e shitsuke, que correspondem aos cinco processos de transformação capazes de elevar a eficiência de
uma fábrica ao nível de primeira classe (Hirano, 1994).
Esses processos são, respectivamente, liberação da área (eliminação de itens desnecessários), organização, limpeza, padronização e disciplina. Apesar de se adequarem a toda a organização, esses processos têm
aplicação direta no chão de fábrica e na melhoria das condições de operação e manutenção das máquinas,
trazendo grande redução de custos, com a diminuição do desperdício e das falhas provocadas por excesso de
sujeira.
Manutenção Autônoma
Pode-se entender por manutenção autônoma aquela realizada pelos próprios operadores. Ela constituise em uma ferramenta muito eficaz de manutenção preventiva e preditiva, a um custo menor que o observado em outros instrumentos. Takahashi & Osada (1993) apresentam a manutenção autônoma como uma
forma de reduzir os custos com pessoal de manutenção e aumentar a vida útil do equipamento, concentrando-se, basicamente, em limpeza, lubrificação, reapertos e inspeção diária.
Hartmann (1992) coloca a redução de custos e de falhas e a melhora do equipamento como os principais benefícios da manutenção autônoma, enfatizando que a redução de custos é reflexo da eliminação de
pequenas paradas e da redução do tempo de reparo, devido ao envolvimento constante do operador.
RCM - Reliability-Centred Maintenance
Moubray (2000) apresenta RCM (Reliability-Centred Maintenance), ou Manutenção Centrada em
Confiabilidade, como uma filosofia de trabalho, como “um processo usado para determinar o que deve ser
feito para assegurar que qualquer ativo físico continue a fazer o que seus usuários querem que ele faça no seu
contexto operacional”. Ou seja, o RCM é uma metodologia que identifica, no contexto de cada operação,
quais as ações mais indicadas para a preservação das funções nela existentes. Como o nome diz, RCM trata a
manutenção por meio de um estudo de confiabilidade de cada sistema, trazendo para esta função um tratamento mais científico.
Nesse processo, cabe à manutenção identificar o índice da confiabilidade de cada equipamento e do
processo como um todo e como essa confiabilidade pode ser melhorada. Pela sua característica científica,
requer uma equipe de manutenção mais especializada para o desenvolvimento dos estudos de confiabilidade.
É a chamada Engenharia de Manutenção.
Novamente, aqui, os resultados compensam os custos. Um bom estudo de confiabilidade pode dar ao
sistema maior racionalidade na aplicação dos recursos destinados à manutenção e melhor controle do estoque de peças, das ordens de serviço e das paradas programadas. O RCM vem auxiliar na otimização do nível
de disponibilidade de máquinas e dos custos, na medida em que permite reduzir de 40% a 70% as
intervenções periódicas (Moubray, 2000).
Garbatov & Soares (2001) estudaram a opção de uso do RCM na redução de custos de manutenção
em estruturas flutuantes. Apesar de aplicados em uma área não industrial, seus cálculos mostraram que o
RCM diminui os custos na medida em que reduz o número de intervenções.
Mais aplicado à indústria, o estudo de Deshpande & Modak (2002) mostra, com uma análise de custos, como o RCM pode ser usado na otimização das intervenções preventivas, reduzindo o custo dos sistemas de operação e manutenção, uma vez que as paradas são programadas com base em um estudo mais
científico das probabilidades de falha. Smith (1993) também aborda a questão da redução de custos pela apli40
jul./dez. • 2003
002302_C&T22.book Page 41 Tuesday, July 27, 2004 8:16 AM
cação do RCM e mostra como o estudo de confiabilidade e as ações tomadas a partir dele permitiram às
companhias diminuir os gastos com manutenção preventiva com a implementação de sistemas redundantes.
Um estudo de caso de aplicação de RCM, apresentado por Pintelon et al. (1999), também mostra
reduções significativas nos custos da manutenção e da indisponibilidade em linhas de pintura com robôs.
TPM – Total Productive Maintenance
TPM, ou Manutenção Produtiva Total, é mais do que uma ferramenta de manutenção, é uma filosofia
de trabalho tida como missão da empresa na manutenção da produtividade (Fleming & França, 1997). O
TPM está baseado em alguns pilares, entre os quais estão melhorias específicas, manutenção autônoma,
manutenção planejada, manutenção da qualidade e treinamento. Pode-se perceber que outras ferramentas já
apresentadas neste trabalho também fazem parte da sustentação do TPM. Portanto, TPM não conflita com
outras ferramentas, mas as reúne em torno de uma filosofia de manutenção da produtividade. Fleming &
França (1997) discutem o uso da RCM como ferramenta na construção do pilar manutenção planejada.
Também salientam a redução dos custos de manutenção na aplicação do TPM, na medida em que permite
reduzir perdas e coloca o equipamento em condições ótimas de operação, em um processo de alta disponibilidade.
CONCLUSÃO
Todos os argumentos e citações apresentados têm por objetivo mostrar que a função manutenção deve
ser encarada como estratégica dentro da organização, e que pode e deve ser usada na redução dos custos
totais do processo de produção como investimento, e não como gasto adicional. Apesar de não citado neste
trabalho, caberia, ainda, uma discussão sobre as opções entre ter uma equipe de manutenção própria ou terceirizada, questão que também deve ser analisada sob um ponto de vista estratégico e de custos.
REFERÊNCIAS BIBLIOGRÁFICAS
BADÍA, F.G. et al. Optimal inspection and preventive maintenance of units with revealed and unrevealed failures. Reliability
Engineering System Safety, London, 78, 157-163, 2002.
BEN-DAYA, M. The economic production lot-sizing problem with imperfect production process and imperfect maintenance.
International Journal of Production Economics, New York, 76, 257-264, 2002.
CABRITA, G. A manutenção na indústria automotiva. Revista Manutenção, São Paulo, 20-26. mar./mai./02.
CATTINI, O. Derrubando os Mitos da Manutenção. São Paulo: STS Publicações e Serviços Ltda., 1992.
CHIU, H-N. & HUANG, B.S. The economic design of x control charts under a preventive maintenance policy. International
Journal of Quality & Reliability Management, Cambridge, 13 (1): 61-71, 1996.
DESHPANDE, V.S. & MODAK, J.P. Aplication of RCM to a medium scale industry. Reliability Engineering & System Safety,
London, 77, 31-43, 2002.
DOHI, T. et al. Optimal control of preventive maintenance schedule and safety stocks in an unreliable manufacturing enviroment. International Journal of Production Economics, New York, 74, 147-155, 2001.
FLEMING, P.V. & FRANÇA, S.R.R.O. Considerações sobre a implementação conjunta de TPM e MCC na indústria de processos. In: Anais do 12.º Congresso Brasileiro de Manutenção. São Paulo, 1997. CD-rom.
GARBATOV, Y. & SOARES, C.G. Cost and reliability based atrategies for fatigue maintenance planning of floating structures.
Reliability Engineering & System Safety, London, 73, 293-301, 2001.
HARTMANN, E.H. Succesfully Installing TPM in a Non-Japanese Plant. Pittsburgh, EUA: TPM Press, 1992.
HIRANO, H. 5S na Prática. São Paulo: Instituto IMAM, 1994.
KARDEC, A. & NASCIF, J.A. Manutenção – função estratégica. 2.ª ed. Rio de Janeiro: Qualitymark Editora Ltda., 2001.
MIRSHAWKA, V. & OLMEDO, N.C. Manutenção – combate aos custos na não-eficácia – a vez do Brasil. São Paulo: Editora
McGraw-Hill Ltda., 1993.
MOUBRAY, J. Manutenção Centrada em Confiabilidade (Reliability-Centered Maintenance – RCM). Trad. Kleber Siqueira. São
Paulo: Aladon, 2000.
MURTY, A.S.R. & NAIKAN, V.N.A. Availability and maintenance cost optimization of a production plant. International Journal of Quality & Reliability Management, Cambridge, 12 (2): 28-35, 1995.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 35-42
41
002302_C&T22.book Page 42 Tuesday, July 27, 2004 8:16 AM
PINTELON, L. et al. Case study: RCM – yes, no or maybe? Journal of Quality in Maintenance Engineering, Cambridge, 5 (3):
182-191, 1999.
SAE INTERNATIONAL. Reliability and Maintainability Guideline for Manufacturing Machinery and Equipment. EUA: Society
of Automotive Engineers, 1992.
SMITH, A.M. Reliability-Centered Maintenance. Boston: McGraw Hill, 1993.
SOURIS, J-P. Manutenção Industrial – custo ou benefício. Trad. Elizabete Batista. Lisboa: Lidel, 1992.
TAKAHASHI, Y & OSADA, T. Manutenção Produtiva Total. São Paulo: Instituto IMAM, 1993.
WILLIAMS, J.H. et al. Condition-based Maintenance and Machine Diagnostics. Londres: Chapman & Hall, 1994.
WIREMAN, T. Developing Performance Indicators for Managing Maintenance. Nova York: Industrial Press, 1998.
WIREMAN, T. World Class Maintenance Management. Nova York: Industrial Press, 1990.
Dados dos autores
WILSON ROBERTO MARCORIN
Assessor de Pós-venda das Indústrias Romi S.A.,
formado em Tecnologia Mecânica e mestrando
em Engenharia de Produção pela UNIMEP
CARLOS ROBERTO CAMELLO LIMA
Doutor e mestre em Engenharia Mecânica
(Unicamp), pós-doutorado em Engenharia e
Ciência dos Materiais (SUNY-State University of
New York) e professor da FEAU/UNIMEP
Recebimento do artigo: 15/abr./03
Consultoria: 25/nov./03 a 18/dez./03
Aprovado: 18/dez./03
42
jul./dez. • 2003
002302_C&T22.book Page 43 Tuesday, July 27, 2004 8:16 AM
Métodos de Ensaio Acelerado como
Alternativa para os Dados de Vida
de Fornecedor
Accelerated Test Methods as an Alternative
to the Catalogue Life Data
PEDRO LUIZ SASSERON
Indústrias Romi (Santa Bárbara d´Oeste, SP)
[email protected]
ALVARO JOSÉ ABACKERLI
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, SP)
[email protected]
RESUMO O tempo de vida dos componentes é um dado necessário para a determinação do prazo de garantia e o planejamento da manutenção de máquinas e equipamentos. Os catálogos dos fornecedores nem sempre trazem esta informação. Quando ela está disponível, é comum verificar que foi obtida em condições diversas daquelas de utilização no
campo, o que dificulta a conversão para a situação desejada. Existem diferentes métodos que visam determinar o tempo
de vida esperado para os componentes, entre eles o ensaio acelerado de vida. Este método consiste em executar os testes
dos componentes sob condições de stress (maior temperatura, tensão, corrente etc.), acelerando a ocorrência de falha, e
transpor os resultados para as condições desejadas. Neste trabalho, são analisados os dados de vida disponíveis nos catálogos de fornecedores, verificadas as dificuldades de sua utilização e propostos métodos de ensaio acelerado de vida, como
alternativa para a sua determinação.
Palavras-chave confiabilidade – ensaio acelerado – dados de vida.
ABSTRACT The information on the life time of components is necessary to determine both the warranty term and the
maintenance planning of machines and equipment. The supplier’s catalogs not always bring such information. When the
information is available, it’s common to see that it was obtained in different conditions from those of the user (in field),
making it difficult to convert it to the desired situation. There are different methods of determining the components’
expected lifetime, the accelerated life test being one of them. Such method consists of component testing under stress
conditions (higher temperature, voltage, current etc.), accelerating the failure occurrences, and transporting the results to
the user’s conditions. In this work, the life data available in the supplier’s catalogs are analyzed; the difficulties in their use
are verified, and the methods of accelerated life test are discussed as an alternative for its determination.
Keywords: RELIABILITY – ACCELERATED LIFE TEST – LIFE DATA.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 43-48
43
002302_C&T22.book Page 44 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
expectativa de vida dos componentes é um dado importante no desenvolvimento de um produto, seja
ele uma máquina ferramenta ou qualquer outro tipo de equipamento. Com os dados de vida, pode-se
calcular a confiabilidade dos conjuntos, individualmente, ou do equipamento todo, determinar o
prazo de garantia, estimar os custos com reposição de peças em garantia, elaborar listas de materiais sobressalentes e fornecer informações para a manutenção preventiva do equipamento, entre outras coisas.
O caminho natural para obtenção desses dados é o catálogo do fabricante, em que são encontradas as
características técnicas do componente a ser aplicado. Porém, nem sempre os dados de vida estão disponíveis,
e raramente eles são encontrados nas condições de utilização do equipamento. A maneira mais comum de
encontrar os dados é na forma de um número, representando o tempo de vida ou o número de operaçõeslimite dentro de condições específicas de aplicação. Alguns catálogos trazem gráficos mostrando a variação
do tempo de vida em relação a uma variável que nem sempre é a que se pretende estudar.
Diante da completa falta ou da escassez de dados de vida providos pelo fornecedor, torna-se necessário
encontrar alternativas para a sua obtenção. Uma delas envolve testes que sejam capazes de fornecer as informações dentro de limites aceitáveis de confiabilidade, podendo ser convertidos para as condições de utilização do equipamento no campo.
Entre os métodos de teste usuais, encontram-se o teste de uso nas condições de operação no campo e o
teste de uso contínuo, que pode representar uma aceleração em relação ao uso normal. Além desses, há o
ensaio acelerado de vida, com o componente sendo submetido a um nível elevado de corrente, temperatura,
tensão ou outra variável que acelera o aparecimento de falha. Neste trabalho, serão discutidos os métodos de
ensaio acelerado de vida como alternativa aos dados do fornecedor.
A NECESSIDADE DOS DADOS DE VIDA
Uma das aplicações dos dados de vida de componentes é a determinação do prazo de garantia da
máquina ou do equipamento. Em função dos ciclos de operação da máquina e do regime de trabalho
imposto aos componentes, pode-se determinar quanto tempo cada um deles levará para apresentar falha.
A existência de dados confiáveis é de suma importância para evitar grandes despesas dentro do período
de garantia. O envio de um assistente técnico a um cliente para diagnosticar um problema e substituir um
componente pode representar uma despesa elevada, especialmente quando implicam viagens aéreas, hospedagens etc. Em muitos casos, o valor das despesas é expressivamente superior ao do componente substituído.
Outra aplicação é a elaboração da lista de materiais sobressalentes para reposição indicados pelo fabricante da máquina ao cliente. O fato de o cliente ter à sua disposição os componentes passíveis de falha com
tempo previsto possibilita o planejamento da manutenção preventiva da máquina ou reduz o tempo de
manutenção corretiva, no caso de falha. A falta de precisão nos dados pode acarretar grande tempo de
máquina parada em caso de falha, principalmente devido ao tempo de aquisição do componente de reposição no mercado. Esse fato, embora não represente despesa para o fabricante do equipamento quando fora de
garantia, pode comprometer a sua imagem e a satisfação do cliente (Healy, 2002).
Além disso, os contratos de venda recentes tendem a ser mais exigentes em relação à especificação dos
dados de vida dos componentes empregados nos equipamentos, além da propensão ao aumento de seu
prazo de garantia. Essas tendências ressaltam a importância da qualidade dos dados de vida utilizados no
desenvolvimento do produto.
DADOS DISPONÍVEIS NOS CATÁLOGOS E QUALIDADE DA INFORMAÇÃO
Para escolha de um caso típico, foram analisados os componentes eletroeletrônicos usados em
máquinas-ferramenta, tomando-se como exemplo um relé. Esse componente está presente na grande maioria das máquinas e tem a função de comandar motores, válvulas e outros itens elétricos, estabelecendo o seu
estado operacional: ligado ou desligado.
44
jul./dez. • 2003
002302_C&T22.book Page 45 Tuesday, July 27, 2004 8:16 AM
Foram selecionados catálogos de grandes fabricantes mundiais de relés dos Estados Unidos (Aromat,
1997), Alemanha (Murrelektronik, 2000 e Phoenix, 2000), Itália (Finder, 2002) e Japão (Omron, 2000), e
deles coletados os dados disponíveis. Essas informações foram agrupadas por tipo de dados de cada fornecedor, sendo os dados típicos mostrados na tabela 1.
Pela tabela, nota-se que os catálogos do fornecedor A não trazem nenhum dado de vida dos relés.
Desse modo, não é possível fazer qualquer estimativa sobre a expectativa de vida deles, embora sejam esses os
dados disponíveis para o projeto, se utilizados os componentes deste fabricante.
Tab. 1. Expectativa de vida de relé.
FORNECEDOR
VIDA MECÂNICA
(OPERAÇÕES)
VIDA ELÉTRICA
CARGA RESISTIVA
(OPERAÇÕES)
VIDA ELÉTRICA
CARGA INDUTIVA
(OPERAÇÕES)
A
-
-
-
7
B
1,0 . 10
-
C
0,5 . 107
2,0 . 105
D
7
5
2,0 . 10
1,0 . 10
0,5 . 105
Pela tabela, observam-se os dados do fornecedor B, que informa em seus catálogos a vida mecânica do
relé. Entretanto, como se trata de um componente eletromecânico, na maioria dos casos, os dados fornecidos são insuficientes para o uso em projeto. Isso se deve ao fato de as falhas da parte elétrica do componente
aparecerem primeiro. O modo de falha elétrica é, em geral, cerca de duas ordens de grandeza menor do que
a mecânica, conforme se observa nos fornecedores C e D.
Verificando os dados do fornecedor C, nota-se uma vantagem em relação aos fornecedores A e B.
Além da informação de vida mecânica, o catálogo do fornecedor C apresenta, ainda, a de vida elétrica para
cargas resistivas. Apesar da melhoria nas informações, elas também são incompletas, considerando que a
maioria das cargas elétricas de máquinas são do tipo indutivo, como os motores e eletroválvulas.
Finalmente, observando os dados de vida do fornecedor D, é possível observar mais um avanço: além
das informações de vida mecânica e elétrica para cargas resistivas, aparece também a vida elétrica para cargas
indutivas. Agora, a restrição quanto ao uso das informações fica por conta das condições de temperatura, tensão e corrente.
Se os valores dessas variáveis estiverem dentro dos limites estabelecidos nos catálogos, os dados de vida
podem ser usados no projeto. Caso contrário, seria necessário fazer uma conversão para a situação desejada.
Porém, somente alguns catálogos trazem as curvas de conversão e, ainda assim, somente para a variável corrente.
Considerando que, em todos os casos, existem restrições quanto às aplicações das informações dos
catálogos, tornam-se necessárias alternativas para a obtenção dos dados de confiabilidade necessários. As
alternativas que serão discutidas na seqüência deste trabalho são os métodos de teste de vida.
AS TÉCNICAS DE TESTE
Existem várias maneiras de se obter os dados de vida de um componente por meio de testes. Entre elas,
serão discutidos o teste de uso nas condições normais de campo, o teste de aceleração pelo uso contínuo, os
ensaios acelerados qualitativos e os ensaios acelerados quantitativos.
O teste de vida normal, ou de campo, com os componentes trabalhando nas condições reais de
uso do equipamento, é a primeira alternativa descrita que pode fornecer os dados de vida dos componentes. Esse ensaio pode ser realizado em bancada ou no próprio campo, com o componente fazendo
parte do equipamento em uso normal. A grande limitação dessa opção é o tempo elevado para se obter
resultados.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 43-48
45
002302_C&T22.book Page 46 Tuesday, July 27, 2004 8:16 AM
Um segundo método, a aceleração por uso contínuo, consiste em testar continuamente um componente que, em regime normal, funcionaria durante um tempo bem menor. Por exemplo, se um equipamento
trabalha durante algumas horas por dia em alguns dias da semana, pode ser posto a operar em regime contínuo, 24 horas por dia e sete dias por semana. Quanto menor o tempo de uso normal do componente, maior
o fator de redução do tempo total de teste. Nesse caso, a limitação ocorre com produtos de uso intenso em
que não é possível uma redução significativa de tempo (Vassiliou & Mettas, 2002).
Os ensaios acelerados qualitativos – entre os quais estão os testes de tortura e os testes altamente acelerados – são realizados em pequenas amostras, em que o produto é submetido a um meio extremamente desfavorável, com níveis severos de stress. Se o produto sobrevive, é aprovado. O ensaio altamente acelerado de
vida pode ser usado para a revelação do provável modo de falha (Vassiliou & Mettas, 2002) e em algumas
fases do desenvolvimento de produto (Jawaid et al., 2002). Os dados obtidos normalmente não podem ser
extrapolados para condições reais de uso e não produzem um significativo número de MTBF (Mean Time
Between Failure) (Silverman, s/d).
Os ensaios quantitativos estimulam o produto a falhar em um teste de vida. Isso acontece aplicando-se
um nível de stress que excede as condições que o produto encontra em condições normais de uso. O tempo
até a falha, obtido sob essas condições, é então extrapolado para as condições de uso. O ensaio acelerado de
vida pode ser feito sob alta ou baixa temperatura, umidade, tensão, pressão, vibração etc., a fim de acelerar
ou estimular o mecanismo de falha. Deve-se ter o cuidado de não introduzir modos de falha que nunca ocorreriam sob condições de uso. Normalmente, o nível de stress deve cair fora dos limites de especificação do
produto, mas dentro dos limites do projeto (Vassiliou & Mettas, 2002).
O MÉTODO DE ENSAIO ACELERADO DE VIDA
Diante das possibilidades de determinação do tempo de vida discutidas, o ensaio acelerado de vida se
revela como adequado para quantificar o tempo até a falha de componentes, como alternativa aos dados de
catálogo. Para a discussão do método, é importante mostrar em que consiste esse teste, descrever os passos
para sua utilização e apresentar alguns casos em que está sendo aplicado.
Uma típica análise de dados de vida determina, por meio do uso de distribuições estatísticas, a distribuição de vida que descreve o tempo até a falha de um produto. Estatisticamente falando, deseja- se determinar a função densidade de probabilidade (Pdf) da distribuição de falha para as condições ou os níveis de uso
do produto. Para isso, podem ser usadas distribuições como Weibull, exponencial e lognormal.
Para os dados obtidos num ensaio acelerado de vida, entretanto, é necessário um método que permita
extrapolar as informações coletadas para se chegar a uma estimativa dos níveis característicos de uso. O relacionamento entre a função densidade probabilidade obtida num ensaio sob stress e a mesma função em condições de uso normal pode ser conseguido com os modelos Arrhenius, Eyring, Potência Inversa, TemperaturaUmidade etc.
A figura 1 ilustra a função densidade de probabilidade do tempo até a falha de um componente para
diferentes níveis de uso. Ela mostra as características da função para a condição normal de uso e para o ensaio
acelerado (Vassiliou & Mettas, 2002).
Um passo para a análise dos dados de um ensaio acelerado é a escolha da distribuição de vida apropriada. Essa escolha depende das características dos dados coletados, sendo comum se calcular os parâmetros para as várias distribuições e verificar qual delas representa melhor o conjunto de dados (Vassiliou &
Mettas, 2002).
Definida a distribuição de vida, outro passo é a determinação do modelo de extrapolação dessa distribuição, do nível de stress elevado para o nível de stress de uso normal, ou o que se deseja estudar. O modelo
mais adequado entre os já citados depende, principalmente, da variável cujo nível foi elevado nos testes,
como temperatura, umidade, potência etc.
46
jul./dez. • 2003
002302_C&T22.book Page 47 Tuesday, July 27, 2004 8:16 AM
Fig. 1. Função densidade de probabilidade em diferentes níveis de stress.
Outra questão na análise do ensaio acelerado é o carregamento de stress em função do tempo. O mais
comum é o carregamento constante ou não dependente do tempo. Esse tipo tem muitas vantagens sobre os
dependentes do tempo, como maior facilidade de trabalho, maior precisão e a consideração de que muitos
produtos trabalham em níveis constantes de stress. Nesta linha, é possível observar a existência de trabalhos
utilizando o planejamento de múltiplos níveis de stress constante (Tang & Yang, 2002).
Quando se trata de stress variável no tempo, temos a discussão em torno de modelos que utilizam o
step-stress test (Mettas & Vassiliou, 2002), com a distribuição de vida Weibull, e estudos de alternativas a essa
distribuição (Khamis & Higgins, 1999).
Entre as aplicações do ensaio acelerado de vida, o maior número de ocorrências está no desenvolvimento de produto para determinação da expectativa de vida de um equipamento, como um aparelho de
projeção de imagens (Douglass, 1998). Também são encontradas aplicações em módulos que incorporam
algum tipo de tecnologia utilizada em outros produtos, como circuitos híbridos (Bhakta et al., 2002).
Outra aplicação importante é a identificação e eliminação dos modos de falha de processos produtivos
de alguns equipamentos (Douglass & Sontheimer, 1998). É importante lembrar que, para determinação do
modo de falha, em muitos casos, o ensaio altamente acelerado também pode ser aplicado.
O setor espacial, que precisa de materiais com alta confiabilidade devido aos altos custos dos equipamentos envolvidos, também utiliza o teste acelerado de vida. Um caso específico é a aceleração por aumento
das radiações, para estudar o comportamento do componente quando submetido aos altos índices de radiação no espaço (Benedetto, 1997-2002).
CONCLUSÕES
Com base nos itens anteriores, pode-se dizer que as informações constantes nos catálogos de fornecedores são, geralmente, escassas ou incompletas quanto à expectativa de vida dos componentes. Esse fato nos
leva a buscar alternativas para obtenção desses dados.
Na discussão sobre os métodos de testes existentes, o ensaio acelerado de vida se apresenta como uma
alternativa interessante, principalmente pela possibilidade de os dados obtidos pela aceleração poderem ser
extrapolados para as condições de uso desejadas.
Finalmente, pode-se dizer que os casos existentes de aplicação desse método, especialmente no desenvolvimento de produtos, indicam a viabilidade de ele ser utilizado como alternativa à falta de dados de vida.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 43-48
47
002302_C&T22.book Page 48 Tuesday, July 27, 2004 8:16 AM
REFERÊNCIAS BIBLIOGRÁFICAS
AROMAT CORPORATION. Nais Relay Technical Data Book, EUA, 203-204, 1997.
BENEDETTO, J.M. et al. Amorphous Silicon Antifuse Programmable-Array-Logic Devices for High Reliability Space Applications. Colorado Springs, EUA: UTMC Microelectronics Systems, 1997-2002.
BHAKTA, S.D. et al. Accelerated tests to simulate metal migration in hybrid circuits. In: Proceedings of the Annual Reliability
and Maintainability Symposium. Seattle, Washington, EUA, 2002.
DOUGLASS, M. & SONTHEIMER, A. Identifying and eliminating digital light processing failure modes through accelerated
stress testing. Texas Instruments Technical Journal, Texas, 128-136, jul.-set./98.
DOUGLASS, M.R. Lifetime estimates and unique failure mechanisms of the Digital Micromirror Device (DMD). Proceedings
of the International Reliability Physics Symposium, Reno, 9-16, 1998.
FINDER COMPONENTES LTDA. Catálogo 2002/2003. Itália: Finder, 2002.
HEALY, J.D. Basic reliability. In: Tutorial Notes of the Annual Reliability and Maintainability Symposium. Seattle, Washington,
EUA, 2002.
JAWAID, S. et al. Reliability stress test method: impact on the new product introduction process, time to market, field reliability
impact and reliability assessment. In: Proceedings of the Annual Reliability and Maintainability Symposium. Seattle,
Washington, EUA, 2002.
KHAMIS, I.H. & HIGGINS, J.J. An alternative to the Weibull step-stress model. International Journal of Quality & Reliability
Management, Bradford, 16 (2): 158-165, 1999.
METTAS, A. & VASSILIOU, P. Modeling and analysis of time-dependent stress accelerated life data. In: Proceedings of the
Annual Reliability and Maintainability Symposium. Seattle, Washington, EUA, 2002.
MURRELEKTRONIK GmbH, Catalog, 3.7.38-3.7.39. Alemanha: Murrelektronik, 2000.
OMRON CORPORATION, Relays Catalog. Kyoto, Japão: Omron, 2000.
PHOENIX CONTACT, Interface Signal Converters. Alemanha: Phoenix, 2000.
SILVERMAN, M. Why HALT Cannot Produce a Meaningful MTBF Number and Why this Should Not Be a Concern. QualMark’s Santa Clara Accelerated Reliability Test Center. <http://www.qualmark.com/content/
ourlibrary_technicalpapers.html> (14/jan./02).
TANG, L.C. & YANG, G. Planning multiple levels constant stress accelerated life tests. In: Proceedings of the Annual Reliability
and Maintainability Symposium. Seattle, Washington, EUA, 2002.
VASSILIOU, P. & METTAS, A. Understanding accelerated life-testing analysis. In: Tutorial Notes of the Annual Reliability and
Maintainability Symposium. Seattle, Washington, EUA, 2002.
Dados dos autores
PEDRO LUIZ SASSERON
Graduado em Engenharia Elétrica pela EFEI e
pós-graduado em Marketing pela Unisal. Atua no
desenvolvimento de produtos nas Indústrias
Romi. Mestrando em Engenharia de Produção
na UNIMEP
ALVARO JOSÉ ABACKERLI
Graduado em Engenharia Mecânica pela EESC/
USP-São Carlos, onde também doutorou-se em
Metrologia. Pós-doutoramento no National
Physical Laboratory (Inglaterra) e no National
Institute of Standards and Technology (Estados
Unidos). Docente na graduação e de pósgraduação da UNIMEP
Recebimento do artigo: 15/abr./03
Consultoria: 25/nov./03 a 18/dez./03
Aprovado: 18/dez./03
48
jul./dez. • 2003
002302_C&T22.book Page 49 Tuesday, July 27, 2004 8:16 AM
O Programa Seis Sigma Aplicado
a Processos Administrativos
The Six Sigma Program Applied to Administrative Processes
JOÃO MARCOS ANDRIETTA
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
PAULO AUGUSTO CAUCHICK MIGUEL
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
RESUMO Nos últimos anos, muitas empresas de produtos e de serviços têm implantado programas de melhorias contínuas baseadas no Seis Sigma. O uso deste programa e das ferramentas de qualidade a ele associadas permitiu resultados
que merecem uma análise mais detalhada. As empresas que buscaram alcançar a melhoria contínua apoiadas no programa Seis Sigma reduziram custos com a eliminação de erros, diminuíram o tempo do ciclo de produção, aumentaram
a produtividade e aperfeiçoaram a qualidade do desenvolvimento de processos e produtos lançados no mercado. O presente trabalho expõe as várias fases da aplicação Seis Sigma, que também pode ser utilizado em processos administrativos,
e busca demonstrar os sucessos e os fracassos na etapa de implementação.
Palavras-chave ADMINISTRAÇÃO DE PROCESSOS – SEIS SIGMA – ESTATÍSTICA – DMAIC.
ABSTRACT In the last years many product and service companies have implanted continuous improvement programs
based on the Six Sigma Program. The use of such program and the quality techniques associated to it have brought results
that deserve a more detailed analysis. Companies that have attempted to reach continuous improvement through the Six
Sigma Program have reduced costs by eliminating mistakes, reduced the production cycle time, increased productivity
and improved the development quality of processes and products launched in the market. The work exposes the several
stages of the Six Sigma application, which can also be used in administrative processes, and shows the successes and
failures in the implementation phase.
Keywords PROCESSES MANAGEMENT – SIX SIGMA – STATISTICS – DMAIC.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 49-56
49
002302_C&T22.book Page 50 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
tualmente, diversas organizações estão aplicando o programa Seis Sigma em processos administrativos, em especial no segmento de serviços, como financeiras, administradoras de cartão de crédito,
varejistas e hospitais. Pelos resultados obtidos até o momento, as empresas que procuraram alcançar a
melhoria contínua nos processos administrativos apoiando-se no Seis Sigma reduziram custos por meio da
eliminação de erros, diminuíram o tempo dos ciclos de atividades, aumentaram a produtividade e melhoraram a qualidade dos processos (Watson, 2001).
As oportunidades de aprimoramento nos processos administrativos são as mais variadas: tempo excessivo de espera; perdas de negócios e vendas; erros de previsão; entregas incorretas; pagamentos fora dos prazos; cobranças indevidas; emissão de notas fiscais erradas; pedidos incorretos; estoques elevados; respostas
impróprias; liberações atrasadas de produtos; metas inconsistentes; erros de codificação; identificação incorreta de mercado e público alvo; dados impróprios de clientes etc.
Diante dessas oportunidades, a aplicação do programa Seis Sigma representa um poderoso recurso
para a eliminação de erros, a diminuição de desperdícios e a conquista de resultados que melhoram significativamente os processos.
O PROGRAMA SEIS SIGMA
Um programa Seis Sigma visa – de maneira estruturada – incrementar a qualidade por meio da melhoria contínua dos processos envolvidos na produção de um bem ou serviço, considerando todos os aspectos
importantes de um negócio. O objetivo do Seis Sigma é conseguir a excelência na competitividade pelo aprimoramento contínuo dos processos (Rotondaro et al., 2002).
Segundo Harry & Schroeder (1998), Seis Sigma é um processo de negócio que permite às empresas
ampliar seus lucros com a otimização das operações, o aumento da qualidade e a eliminação de defeitos, de
falhas e de erros, pois está relacionado à melhoria da lucratividade. As empresas que implementam o programa o fazem com a meta de melhorar seus lucros.
A integração e a participação de todos os níveis e funções da organização é o fator-chave para o sucesso
da implantação do programa Seis Sigma. Esse envolvimento completo, no entanto, não é suficiente. Outros
fatores de extrema importância são um sólido compromisso da alta administração e uma atitude pró-ativa,
organizada e sistemática em busca da satisfação das necessidades e dos objetivos dos clientes e da própria
organização.
Em resumo, pode-se dizer que o diferencial do Seis Sigma é que ele promove uma mudança na cultura
da empresa. Após sua implantação, a organização modifica seu posicionamento em relação aos problemas e à
forma de identificá-los e resolvê-los. Segundo Aguiar (2002), as principais mudanças obtidas com a implantação do Seis Sigma são:
• a atuação da empresa volta-se principalmente para o atendimento das necessidades dos clientes;
• todo projeto ou meta a ser desenvolvido deve trazer um retorno monetário, mesmo que mínimo;
• todos os funcionários devem buscar o aperfeiçoamento na condução de seu trabalho, além de procurar
eliminar operações que não agregam valor ao produto final;
• os problemas da empresa são considerados problemas de todos os seus funcionários;
• a forma de condução da solução de um problema é padronizada em todos os setores da empresa.
FATORES DETERMINANTES DO PROGRAMA
Os elementos-chave que suportam o programa Seis Sigma e asseguram uma adequada aplicação de
suas ferramentas e o êxito dessa iniciativa como estratégia de negócios são (Hahn, 2001):
• identificação dos elementos críticos para a qualidade (CTQ), relacionados com os clientes externos e
internos, pois um elemento do produto ou processo é considerado crítico quando seu impacto sobre os
requisitos do cliente, o desempenho, a qualidade e a confiabilidade são relevantes;
50
jul./dez. • 2003
002302_C&T22.book Page 51 Tuesday, July 27, 2004 8:16 AM
• avaliação dos erros de processos por meio da realização da Análise dos Modos e Efeitos das Falhas
(FMEA). Essa análise é usada para entender os tipos potenciais de falhas, o que pode causá-las e como
prevenir ou conter as suas conseqüências. FMEA é um procedimento utilizado para identificar modos
potenciais de falha e os efeitos dela resultantes, de forma a avaliar a causa-raiz e implantar medidas para
contê-la ou eliminá-la;
• identificação das variáveis críticas, por meio da utilização de Projetos de Experimentos (DOE). Os Projetos de Experimentos modelam os efeitos principais e as interações das variáveis consideradas. O enfoque
estatístico para a experimentação permite uma forma ordenada para coletar, analisar e interpretar dados
a fim de satisfazer os objetivos do estudo;
• realização de benchmarking permanente e estabelecimento sem ambigüidades dos objetivos a serem
alcançados.
Além dos elementos-chave mencionados, existem também alguns fatores que são determinantes para a
implementação e sustentação do programa. Pande et al. (2001) enumeram seis pontos-chave para se obter
êxito no Seis Sigma:
• foco genuíno sobre o cliente, que consiste na superação dos modismos e promessas sem nenhuma fundamentação estratégica de satisfazer as necessidades dos clientes e assegurar, por meio das medidas de
desempenho do programa Seis Sigma, a satisfação e os valores da clientela;
• gerenciamento dirigido por dados e fatos, que supõe a aplicação de uma rígida disciplina, destacando a
importância das medidas como suporte para avaliar o desempenho dos negócios e a aplicação de dados e
análises para construir e compreender as variáveis-chave que otimizam os resultados;
• foco em processo, gestão e melhoria, pois o Seis Sigma considera os processos como o centro das ações e o
veículo-chave para o sucesso. Portanto, o domínio sobre os processos é a maneira mais segura de garantir
a obtenção de vantagens competitivas que oferecem valor para os clientes;
• gestão proativa, que é o exercício do gerenciamento dinâmico, que define objetivos, determina prioridades, estabelece a prevenção de problemas e questiona a prática das diferentes atividades da empresa;
• colaboração e compartilhamento, que é a compreensão das necessidades dos usuários das etapas do processo e do fluxo, ou da cadeia de fornecimento desse processo, por todos que desenvolvem atividades na
empresa;
• busca da perfeição e tolerância ao fracasso, que é o equilíbrio entre a implementação de novas idéias e
métodos e o gerenciamento dos riscos até serem atingidos os objetivos do programa Seis Sigma. Hahn
(2000) afirma que a aplicação dos pontos-chave do Seis Sigma permite uma mudança de enfoque das
empresas em todos os elementos de desempenho, principalmente nas áreas de projeto de produto e de
operações comerciais.
O PROCESSO DE MELHORIA DMAIC
Existem duas práticas que também asseguram o desempenho Seis Sigma. A primeira é compreender os
CTQ (Critical to Quality), ou seja, os Requisitos Críticos para a Qualidade, que são os requisitos de desempenho definidos pelo cliente para um produto ou serviço. Um CTQ pode ser um atributo ou um processo articulado pelo cliente, e é fundamental para o sucesso de um produto ou serviço. O CTQ deve ser estabelecido
pelo cliente e ter as seguintes características: ser mensurável e ter a especificação com tolerância permissível.
A segunda prática que assegura o desempenho do programa é a utilização da metodologia do processo
de melhoria, mais conhecida como DMAIC, que significa definir, medir, analisar, melhorar e controlar.
Segundo Harry & Schroeder (2000), o método DMAIC é usado para aperfeiçoar processos existentes.
De acordo com Hahn (2000), cada etapa da metodologia significa uma ação:
• definir: é a definição clara e objetiva do projeto, com a compreensão dos CTQs e dos requisitos técnicos;
• medir: é a identificação das medidas-chave da eficiência e da eficácia;
• analisar: é a determinação das causas do problema que precisa de melhoria;
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 49-56
51
002302_C&T22.book Page 52 Tuesday, July 27, 2004 8:16 AM
• melhorar: é a soma das atividades relacionadas com a geração, seleção e implementação de soluções;
• controlar: é a ação de garantir que as melhorias se sustentem ao longo do tempo.
A metodologia de melhoria da qualidade, denominada DMAIC, deve contemplar, em suas etapas, que
a definição deve ser específica, mensurável, descreva o impacto sobre o negócio ou a atividade da empresa e
não conclua, prematuramente, as causas e soluções. A medição impõe a determinação de uma medida básica
da eficiência do processo e deve ter um plano de coleta de dados que assegure que a amostragem seja representativa e aleatória. A análise é considerada a etapa mais importante do ciclo DMAIC, pois determina e
valida a raiz do problema original, que é o alvo da busca de melhoria. A melhoria é conseguida com soluções
que eliminem, atenuem ou minimizem as causas do problema. O controle deve acontecer nos níveis tático e
estratégico e é garantido por meio de soluções e gráficos de estatística que alertam quando acontecerem
mudanças ou surgirem defeitos no processo.
A metodologia DMAIC suscita a necessidade de aplicação de alguns conceitos, como: na definição, o
problema é teórico e deve ser mensurável; na medição, é um problema prático e deve se apoiar em ferramentas estatísticas confiáveis; na análise, é um problema estatístico; na melhoria, é uma solução estatística; e no
controle, é uma solução prática que deve promover melhorias sustentáveis.
Na prática, o método DMAIC aborda, de maneira subliminar, alguns questionamentos básicos: na
definição, que processo interno se pretende melhorar para atender o CTQ do cliente externo ou interno?; na
medição, qual o estado atual do processo e quais as fontes de variações potenciais?; na análise, quais são as
poucas fontes de variações mais importantes do processo?; na melhoria, quais aperfeiçoamentos são necessários para melhorar a capacidade de um processo?; e no controle, como dominar os pontos vitais para manter
a capacidade de processo?
IMPLANTAÇÃO DO PROGRAMA
Para avaliar a necessidade da introdução do programa Seis Sigma em uma empresa, em primeiro lugar,
deve-se identificar e definir o desempenho estratégico atual da organização, seja em termos da empresa como
um todo, seja de uma unidade de negócios ou departamento. Deve-se procurar responder as seguintes perguntas (Watson, 2001):
• existe uma necessidade ou oportunidade de mudança crítica para o negócio que esteja baseada ou suportada em necessidades financeiras, competitivas ou culturais?
• é possível definir uma justificativa suficientemente sólida para aplicar o Seis Sigma ao negócio?
• os atuais sistemas de gerenciamento e de aperfeiçoamento de processos serão capazes de alcançar o nível
de melhoria essencial requerido para o êxito contínuo do negócio?
Dependendo das respostas a essas perguntas, a organização poderá estar pronta para explorar o caminho do Seis Sigma. Em geral, pode haver boas oportunidades para adotar essa filosofia e estratégia de negócios se as respostas forem afirmativas para as perguntas 1 e 2 e, especialmente, se a resposta para a pergunta
três for negativa. Um dos indicadores mais eficientes é o comportamento dos clientes. Se eles estão reclamando da qualidade ou da confiabilidade dos produtos ou da qualidade do trabalho ou dos serviços, a organização provavelmente precisa fazer uma ampla avaliação de sua situação.
A seguir, estão descritas algumas situações que podem servir como referencial para a implantação de
processos de qualidade e, em especial, do Seis Sigma (Perez-Wilson, 2000):
• perda de mercado;
• gastos exagerados;
• grandes perdas, como resultado da garantia que o cliente possui de devolução do produto ou serviço e de
indenizações;
• faturas não pagas no prazo devido a reclamações de clientes;
• peças ou serviços errados vindos dos fornecedores;
• relatórios de informações internas errôneas;
52
jul./dez. • 2003
002302_C&T22.book Page 53 Tuesday, July 27, 2004 8:16 AM
• previsões não-confiáveis;
• orçamentos freqüentemente superfaturados;
• problemas que sempre retornam, fazendo com que os mesmos consertos tenham de ser feitos repetidamente;
• projetos de produtos ou de serviços extremamente difíceis de serem produzidos ou fornecidos;
• taxas de sucata ou perdas muito altas ou incontroláveis;
• reparos no produto ou re-trabalho na prestação dos serviços aceitáveis como atividades normais no processo de trabalho.
Apesar de essa lista de situações ter sido elaborada, inicialmente, com base em processos produtivos
industriais, ela pode ser aplicada integralmente a empresas dedicadas à prestação de serviços (Hahn, 2000).
BENEFÍCIOS DO PROGRAMA
O principal benefício do programa Seis Sigma é minimizar custos, por meio da redução ou da eliminação de atividades que não agregam valor ao processo e da maximização da qualidade, para obter lucro em
níveis ótimos. Em segundo lugar, implementar o Seis Sigma em uma organização cria uma cultura interna de
indivíduos educados em um programa padronizado de caracterização, otimização e controle de processos,
definindo-se processo como a atividade repetitiva envolvida no fornecimento de um serviço ou na confecção
de um produto.
A otimização de processos faz com que eles sejam simplificados, reduzindo o número de passos e tornando-os mais rápidos e eficientes. Ao mesmo tempo, esses processos são otimizados para que não gerem
defeitos nem apresentem oportunidades de erros. A eliminação de defeitos gera duas conseqüências. Primeiro, diminui custos, porque defeitos tornam os produtos e serviços mais caros – e quanto mais caros eles
forem, menos provável será a possibilidade ou vontade das pessoas de comprá-los. Em segundo lugar, defeitos, erros e falhas desapontam os clientes, e clientela insatisfeita devolve os produtos ou não compra mais serviços.
Quanto maior o número de clientes insatisfeitos com produtos e serviços, maior a tendência de se perder espaço no mercado. Ao se perder parte do mercado, perde-se também parte da receita bruta. Se a receita
bruta diminui, a organização não consegue contratar ou manter seus funcionários. Sem funcionários e
receita, a empresa não se mantém mais no mercado (Perez-Wilson, 2000).
De um ponto de vista prático, é possível analisar os benefícios do Seis Sigma enumerando as histórias
de sucesso do programa, que está levando diversas empresas, tanto as proeminentes quanto as modestas, a
adotá-lo. (Pande et al., 2001).
O Seis Sigma pode ser aplicado a todos os processos e atividades econômicas. Nos processos administrativos, em especial na área de prestação de serviços e transações comerciais, existem determinadas etapas
que são intangíveis. Portanto, entendê-los melhor e determinar suas características, promover a otimização, o
controle e a eliminação de falhas e erros são benefícios possíveis com a implementação de um programa Seis
Sigma (Hahn, 2001). Por exemplo, gerar um orçamento é um processo administrativo, vender um produto
por telefone é um processo de serviço, assim como fazer um financiamento imobiliário é um processo de
transação comercial.
Determinados processos administrativos podem ter um número excessivo de etapas, causando, eventualmente, variações em seu resultado final. Daí a vantagem de aplicar o Seis Sigma visando diminuir ou eliminar a variação dos processos (Rotondaro et al., 2002).
Contudo, para alcançar e manter os benefícios do programa Seis Sigma em processos administrativos, a
metodologia DMAIC deve estar estruturada de modo a assegurar a manutenção das conquistas obtidas, pois
ela permite alcançar melhorias de performance elevada. Nos processos administrativos, é possível conseguir
os benefícios a seguir com a aplicação da metodologia (Aguiar, 2002).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 49-56
53
002302_C&T22.book Page 54 Tuesday, July 27, 2004 8:16 AM
Na fase Definir (Define), são identificados os projetos que se enquadram no programa Seis Sigma e que
serão desenvolvidos na empresa com o objetivo de satisfazer as expectativas dos clientes em termos de qualidade, preço e prazo de entrega. A habilidade da organização em atender a essa expectativa está intimamente
ligada à variação de seus processos, sejam eles processos produtivos, administrativos ou transacionais, como
os de serviços e de vendas. A variação de processos tem um impacto direto nos resultados financeiros da
empresa, em termos de custo, tempo de ciclo e número de defeitos, de falhas e de erros que afetam a satisfação do cliente. A identificação de projetos aos quais se aplica o Seis Sigma permite à organização reconhecer
como os seus processos afetam a lucratividade e definir quais processos são críticos para o negócio da
empresa.
A fase Medir (Measure) abrange ações relacionadas à mensuração do desempenho de processos e à
quantificação da variabilidade dos mesmos. Por meio de consenso entre os integrantes da equipe que trabalha
no programa Seis Sigma da empresa, são identificadas as Variáveis de Entrada de Processos-Chave (KPIVs) e
as Variáveis de Saída de Processos-Chave (KPOVs). Nessa fase, são utilizadas ferramentas básicas, como as
métricas Seis Sigma, a Análise de Sistemas de Medição (MSA), a Análise de Modos de Falha e Efeitos
(FMEA) e o Desdobramento da Função Qualidade (QFD).
Na fase Analisar (Analyse), são analisados os dados levantados relativos aos processos estudados, com o
objetivo principal de se conhecer as relações causais e as fontes de variabilidade e de desempenho insatisfatório desses processos, visando a sua melhoria. Nessa etapa, as ferramentas utilizadas incluem visualização de
dados, testes de hipótese, análise de correlação e regressão e análise de variância.
A fase Melhorar (Improve) consiste, fundamentalmente, no desenvolvimento de Projetos de Experimentos (DOE), com o objetivo de conhecer a fundo cada processo, por meio da mudança estrutural de níveis
das operações e dos diversos fatores associados. As informações obtidas com o DOE auxiliam a identificar os
ajustes necessários das variáveis-chaves para modificar e otimizar o referido processo.
Na fase Controlar (Control), são implementados diversos mecanismos para monitorar continuamente
o desempenho de cada processo. Entre as técnicas adotadas, destacam-se as cartas de controle, os planos de
controle, os testes de confiabilidade e os processos à prova de erros.
Por fim, a metodologia DMAIC é utilizada quando um processo existente não satisfaz as necessidades
ou objetivos do cliente ou apresenta um desempenho abaixo do esperado (Smith & Adams, 2000).
CONSIDERAÇÕES FINAIS
Este trabalho buscou enfatizar a eficácia e os benefícios obtidos com a implementação de um programa
Seis Sigma em processos administrativos. Foram relatadas a contribuição e as vantagens da utilização do Seis
Sigma, e o processo de melhoria denominado DMAIC, como modo de garantir as conquistas obtidas com o
programa. Houve a preocupação de demonstrar que o uso do programa Seis Sigma proporciona um significativo auxílio para a melhoria dos processos administrativos (Zinkgraf, 1998). Contudo, não foi possível evidenciar, com exemplos, os resultados financeiros obtidos pelos acionistas nem quantificar a satisfação dos
clientes das empresas que aplicaram o Seis Sigma em processos administrativos. Certamente, esta é a limitação do trabalho, que poderá ser corrigida em outras abordagens sobre o assunto.
REFERÊNCIAS BIBLIOGRÁFICAS
AGUIAR, S. Integração das Ferramentas de Qualidade ao PDCA e ao Programa Seis Sigma. Belo Horizonte: Editora de Desenvolvimento Gerencial, 2002.
HAHN, G.J. The Evolution of Six Sigma. Series Quality Engineering, Milwaukee, 12 (3), 317-326, mar./2000.
HAHN, G.J. Six Sigma: a practical perspective. In: Simposio Methodologia Seis Sigma 1. México, 2001.
HARRY, M. & SCHROEDER, R. Six Sigma: a breakthrough strategy for profitability. Nova York: Quality Progress, mai./98.
______. Six Sigma: the breakthrough management strategy revolutionizing the world´s top corporations. Nova York: Currency,
2000.
54
jul./dez. • 2003
002302_C&T22.book Page 55 Tuesday, July 27, 2004 8:16 AM
PANDE, P.S. et al. Estratégia Seis Sigma: como a GE, a Motorola e outras grandes empresas estão aguçando o seu desempenho.
Rio de Janeiro: Qualitymark, 2001.
PEREZ-WILSON, M. Seis Sigma: compreendendo o conceito, as implicações e os desafios. Rio de Janeiro: Qualitymark, 2000.
ROTONDARO, R.G. et al. Seis Sigma: estratégia gerencial para a melhoria de processos, produtos e serviços. São Paulo: Atlas,
2002.
SMITH, B. & ADAMS, E. Lean Sigma: advanced quality. In: Proceedings of the Annual Quality Congress of the American
Society for Quality, 54, Indianapolis. Indiana, 2000.
WATSON, G.H. Cycles of learning: observations of Jack Welch. ASQ Publication, Milwaukee, 1 (1): 45-58, 2001.
ZINKGRAF, S.A. An overview of operational excellence and Six Sigma in allied signal. In: Proceedings of the Annual Quality
Congress of the American Society for Quality, 52, Philadelphia. Pennsylvania, 1998.
Dados dos autores
JOÃO MARCOS ANDRIETTA
Diretor Industrial da Elastotec Artefatos de
Borracha. Mestrando em Engenharia de
Produção pela UNIMEP
PAULO AUGUSTO CAUCHICK MIGUEL
Engenheiro de Produção Mecânica, mestre em
Engenharia Mecânica pela Unicamp e PhD em
Manufacturing Engineering pela Universidade de
Birmingham. Professor da FEAU/UNIMEP
Recebimento do artigo: 15/abr./03
Consultoria: 25/nov./03 a 18/dez./03
Aprovado: 18/dez./03
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 49-56
55
002302_C&T22.book Page 56 Tuesday, July 27, 2004 8:16 AM
56
jul./dez. • 2003
002302_C&T22.book Page 57 Tuesday, July 27, 2004 8:16 AM
Metodologia para Análise da Gestão
da Cadeia de Suprimentos:
estrutura, processos de negócios e
componentes de gestão
Supply Chain Management Analysis Methodology: structure,
business processes and management components
ALEXANDRE TADEU SIMON
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
SÍLVIO ROBERTO IGNÁCIO PIRES
Universidade Metodista de Piracicaba (Santa Bárbara d´Oeste, Brasil)
[email protected]
RESUMO Observa-se no atual ambiente de negócios que a competição ocorre entre cadeias de suprimentos, e não mais
entre empresas isoladas. Nesse novo ambiente competitivo, o sucesso das empresas depende da sua habilidade em integrar e gerenciar os processos de negócio-chave, desde os fornecedores iniciais até o usuário final. A Gestão da Cadeia de
Suprimentos é uma estratégia para se alcançar essa integração. É uma nova e importante área no campo da pesquisa de
gestão, com pouca literatura disponível. Este trabalho tem por objetivos apresentar um entendimento mais amplo do
conceito de Gestão da Cadeia de Suprimentos e propor uma metodologia de apoio às empresas no entendimento e análise desse processo, baseada no modelo conceitual de Gestão da Cadeia de Suprimentos proposto por Cooper et al.
(1997). A metodologia é dividida em duas partes. A primeira, aqui apresentada, discute as principais etapas e questões
ligadas à implementação da Gestão da Cadeia de Suprimentos: estrutura, processos de negócios e componentes de gestão. A segunda, a ser desenvolvida em trabalhos futuros, trata da definição dos critérios para se analisar: 1. a estrutura da
cadeia de suprimentos (membros, dimensões estruturais e tipos de ligações de processos de negócio); 2. os processos de
negócios nas relações com clientes e fornecedores; e 3. os componentes de gestão da cadeia de suprimentos.
Palavras chave GESTÃO DA CADEIA DE SUPRIMENTOS – PROCESSOS DE NEGÓCIO – COMPONENTES DE GESTÃO
ABSTRACT In the present business environment, one can observe that competition occurs between supply chains, rather
than between autonomous entities. In this emerging competitive environment, the companies’ success depends on their
ability to integrate and manage the key-business processes from the suppliers to the final user. Supply chain management
is a strategy through which such an integration can be achieved. It is a new and important area in the field of management
research, with little literature on the subject. The purposes of the present article are to present a broader understanding of
the Supply Chain Management (SCM) concept, and to propose a methodology to support companies in the
understanding and analysis of such process. This methodology is based on the conceptual model of Supply Chain
Management proposed by Cooper et al. (1997) and can be divided into two parts. The first one, presented in this article,
encompasses the discussion of the main stages and critical questions related to the implementation of the Supply Chain
Management: the supply chain network structure, the business processes and the management components. The second
one, to be developed in a future work, deals with the definition of the criteria to analyse: 1. the supply chain network
structure - members, structural dimensions and types of links of business processes; 2. the business processes in the
relationship with clients and suppliers; and, 3. the management components of SCM.
Keywords SUPPLY CHAIN MANAGEMENT – BUSINESS PROCESSES – MANAGEMENT COMPONENTS.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 57-66
57
002302_C&T22.book Page 58 Tuesday, July 27, 2004 8:16 AM
INTRODUÇÃO
A
internacionalização da competição tem forçado as empresas industriais a buscar e implementar novas
fontes de vantagens competitivas. Dado que, na atualidade, a competição ocorre efetivamente entre
cadeias de suprimentos, e não entre empresas isoladas, a Gestão da Cadeia de Suprimentos (Supply
Chain Management – SCM) surge como uma nova fronteira a ser explorada. Pelo fato de ser um conceito
relativamente novo, ainda em fase de formação, há a necessidade de se construir uma teoria e desenvolver
ferramentas e métodos normativos para que sua prática seja bem sucedida.
Em função dessas considerações, dois objetivos se apresentam para este trabalho. O primeiro deles é
discutir o conceito de Gestão da Cadeia de Suprimentos (SCM) no âmbito mais completo e abrangente. O
segundo é propor, com base nesse conceito, uma metodologia para análise do processo de Gestão da Cadeia
de Suprimentos das empresas.
Essa metodologia se apóia no modelo conceitual de Gestão da Cadeia de Suprimentos proposto por
Cooper et al. (1997) e divide-se em duas etapas. A primeira, a ser exposta neste trabalho, propõe-se a discutir
os principais passos e as questões relativas à implementação da Gestão da Cadeia de Suprimentos: estrutura,
processos de negócios e componentes de gestão.
A segunda, a ser desenvolvida em trabalhos futuros, trata da definição dos critérios e parâmetros para
análise da estrutura da cadeia de suprimentos em relação aos membros componentes e dimensões estruturais,
dos processos de negócios que a empresa utiliza nas relações com clientes e fornecedores e, por fim, dos componentes de gestão da cadeia de suprimentos.
Para validação da metodologia, será realizada uma pesquisa de campo em empresas representativas do
setor de máquinas-ferramenta no Brasil, que, apesar de sua destacada importância, é pouco estudado quanto
a essas questões. Espera-se, com o desenvolvimento completo do trabalho, obter uma ferramenta que permita às empresas avaliar o nível em que se encontram em relação à gestão da cadeia de suprimentos para, a
partir daí, identificar e implementar ações que propiciem melhorias nesse processo.
GESTÃO DA CADEIA DE SUPRIMENTOS
Por ser um conceito relativamente novo, ainda em fase de formação, observa-se que não existe um consenso em relação à definição de Gestão da Cadeia de Suprimentos e, principalmente, quanto à compreensão
do seu real significado. Existem várias correntes e escolas, tendo cada uma o seu próprio entendimento e
definição. Isso pode estar gerando dificuldades não só em relação ao entendimento, mas também ao processo
de implantação do conceito. É, portanto, de fundamental importância que se construa uma teoria e se desenvolvam ferramentas e métodos normativos para a sua prática bem-sucedida (Lambert et al., 1998a, e Croom
et al., 2000).
Para compreensão do significado do conceito de Gestão da Cadeia de Suprimentos e sua abrangência,
Ganeshan & Harrison (2002) sugerem um raciocínio que passa pelo entendimento do escopo da Cadeia de
Suprimentos, por suas atividades e pelas funções que executam essas atividades:
Uma Cadeia de Suprimentos é uma rede de opções de facilidades e de distribuição que executa as
atividades de desenvolvimento de produtos, procurement de materiais, transformação desses
materiais em produtos intermediários e produtos acabados, e distribuição desses produtos acabados para os clientes. A cadeia de suprimentos é composta de membros e estes incluem todas as
empresas/organizações com as quais a empresa interage, direta ou indiretamente, através dos
seus fornecedores ou clientes, desde o ponto de origem até o ponto de consumo. As atividades
dentro de cada elo da cadeia de suprimentos são executadas, por exemplo, pelas funções de
marketing, distribuição, planejamento e compras que, tradicionalmente, operam independentemente. Estas funções têm seus próprios objetivos e estes geralmente são conflitantes. Isto resulta
no fato de que não há um planejamento único integrado para a organização (elo), e conseqüentemente para a cadeia como um todo. Portanto, há a necessidade de um mecanismo através do qual
estas diferentes funções possam ser integradas. A Gestão da Cadeia de Suprimentos é uma estratégia através da qual esta integração pode ser obtida.
58
jul./dez. • 2003
002302_C&T22.book Page 59 Tuesday, July 27, 2004 8:16 AM
Até recentemente, a Gestão da Cadeia de Suprimentos vinha sendo confundida com o conceito de
Gestão da Logística tanto por consultores quanto por acadêmicos e profissionais de empresas. Em 1998, o
Council of Logistics Management (CLM) enunciou uma definição modificada de logística: “A Logística é a
parte da cadeia de suprimentos que planeja, implementa e controla o fluxo e armazenagem eficientes e eficazes de produtos, serviços e informações correlatas do ponto de origem ao ponto de consumo, para atender às
necessidades dos clientes” (Lambert et al., 1998a, p. 3). Essa definição mostra, claramente, que a gestão da
logística é somente uma parte da SCM e que os dois termos não são sinônimos. Apesar disso, muitos artigos,
seminários e palestras sobre SCM ainda usam essa expressão como sinônimo de logística (Lambert et al.,
1998a).
Alguns autores, em trabalhos semelhantes, entendem Gestão da Cadeia de Suprimentos como sendo a
aplicação de determinadas práticas/ferramentas na gestão das relações externas e internas da empresa, como
Early Supplier Involvement (ESI), In-Plant Representatives, Electronic Data Interchange (EDI), Efficient Consumer Response (ECR), Outsourcing, Postponed Manufacturing, entre outras. Na realidade, essas são práticas/
ferramentas de apoio e, sem dúvida, sua aplicação é de fundamental importância para se obter sucesso na
Gestão da Cadeia de Suprimentos.
O termo Supply Chain Management (SCM) – Gestão da Cadeia de Suprimentos, é relativamente novo
na literatura, surgindo em 1982 (Oliver, 1982, apud Cristopher, 1994) (Croom et al., 2000). Por volta de
1990, os acadêmicos descreveram, pela primeira vez, a SCM, a partir de um ponto de vista teórico, para clarear a diferença em relação aos enfoques mais tradicionais para gerenciar o fluxo de materiais e o fluxo de
informações associado.
O uso original do termo enfatizava uma redução no inventário tanto dentro como entre empresas. Essa
perspectiva tem sido ampliada, e mesmo a palavra logística tem tido várias interpretações. Na verdade, há
uma necessidade de integração dos processos de negócios na cadeia de suprimentos que vai além da logística,
e é essa integração que é chamada de SCM.
“A gestão da cadeia de suprimentos é a integração e gestão dos processos de negócio-chave, a partir do
usuário final até os fornecedores iniciais, ou seja, através da cadeia de suprimentos, que provê produtos, serviços e informações que agregam valor para os clientes e outros colaboradores” (Lambert et al., 1998a, p. 5).
Essa definição de SCM baseia-se na definição desenvolvida pelos membros do International Center for Competitive Excellence, em 1994, e modificada em 1998 pelos membros do The Global Supply Chain Forum
(GSCF).
Ainda segundo o GSCF, a SCM representa uma nova maneira de gerenciar o negócio e as relações com
outros membros da cadeia de suprimentos, e seu objetivo é maximizar a competitividade e a lucratividade
para a empresa, bem como para a cadeia de suprimentos como um todo, incluindo o cliente final.
IMPLEMENTAÇÃO DA GESTÃO DA CADEIA DE SUPRIMENTOS
A seguir, são discutidos os principais passos e questões relativas à implementação da Gestão da Cadeia
de Suprimentos. Essa discussão é a primeira etapa do desenvolvimento de uma metodologia para análise
desse processo nas empresas e tem como base o modelo conceitual de Gestão da Cadeia de Suprimentos proposto por Cooper et al. (1997).
A partir da análise desse modelo, verifica-se que, para a implementação da SCM, são necessárias três
etapas fundamentais: conhecer a estrutura da cadeia de suprimentos; identificar os processos de negócios que
devem ser estabelecidos com cada um desses membros; e definir o nível de integração que se deve aplicar a
cada uma das ligações de processo.
Estrutura da cadeia de suprimentos
Para a gestão adequada da cadeia de suprimentos, é necessário, em primeiro lugar, conhecer e entender
como a sua estrutura está configurada. Lambert et al. (1998a) destacam três aspectos estruturais primários da
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 57-66
59
002302_C&T22.book Page 60 Tuesday, July 27, 2004 8:16 AM
cadeia: os membros; as dimensões estruturais; e os diferentes tipos de ligações (links) de processos através da
cadeia.
Essa etapa, portanto, está relacionada com a identificação dos membros da cadeia, com o conhecimento
das dimensões estruturais da cadeia e com a identificação dos tipos de ligações de processos.
Identificação dos membros da cadeia de suprimentos
Essa etapa requer atenção especial, pois a inclusão de todos os membros pode tornar a cadeia extremamente complexa e difícil de administrar. Integrar e gerenciar todas as ligações de processos com todos os
membros da cadeia de suprimentos pode se tornar contraproducente ou até mesmo impossível. A questão,
aqui, é identificar as bases para determinar quais membros são críticos para o sucesso da empresa e para a
cadeia como um todo, ou seja, quais membros receberão atenção gerencial e alocação de recursos.
Para tornar uma cadeia muito complexa mais gerenciável, recomenda-se, como uma primeira aproximação, separar os seus membros em primários e de apoio:
• membros primários: são todas as empresas autônomas ou unidades estratégicas de negócios que realmente desempenham atividades operacionais e/ou gerenciais nos processos de negócios concebidos para
produzir um produto específico para um determinado mercado ou cliente.
• membros de apoio: são empresas que simplesmente fornecem recursos, conhecimento, utilidades ou ativos para os membros primários da cadeia de suprimentos. Alguns exemplos são os bancos, que proporcionam os recursos financeiros, os proprietários de edificações que a empresa aluga para qualquer
fim, as indústrias que abastecem com máquinas e equipamentos, catálogos comerciais etc. São importantes, mas não participam diretamente dos processos de transformação de entradas em saídas e que agregam valor para o consumidor final.
Dimensões estruturais da rede da cadeia de suprimentos
São três, as dimensões estruturais essenciais e necessárias para se descrever, analisar e gerenciar uma
cadeia se suprimentos:
• estrutura horizontal: refere-se ao número de camadas (tiers) de fornecedores e clientes da cadeia de suprimentos (fornecedores de primeira camada, fornecedores de segunda camada etc.). Os fornecedores diretos da empresa são fornecedores de primeira camada (first tier supplier); os clientes diretos são clientes de
primeira camada (first tier customer). Os fornecedores do fornecedor direto são fornecedores de segunda
camada, os clientes do cliente direto são clientes de segunda camada, e assim por diante. A estrutura horizontal pode ser longa, com muitas camadas, ou curtas, com poucas camadas;
• estrutura vertical: refere-se ao número de fornecedores e clientes dentro de cada camada. Uma empresa
pode ter uma estrutura vertical estreita, com poucas companhias em cada nível de camada, ou uma estrutura vertical larga, com muitos fornecedores e/ou clientes em cada nível de camada;
• posição horizontal da empresa foco: refere-se à sua localização dentro da cadeia de suprimentos. Uma
empresa pode estar posicionada no início ou perto do início da cadeia (lado dos fornecedores), pode estar
no final ou próxima do final (lado dos clientes), ou em algum lugar entre esses dois extremos.
O aumento ou diminuição do número de fornecedores ou clientes afeta a estrutura da cadeia de suprimentos. O outsourcing e o follow sourcing, por exemplo, alteram a estrutura da cadeia de suprimentos. O
outsourcing pode tornar mais larga a estrutura vertical e aumentar o comprimento da cadeia de suprimentos,
influenciando a posição horizontal da empresa foco. O follow sourcing torna a estrutura vertical da cadeia
mais estreita.
Tipos de ligações (links) de processos
Os níveis de integração variam de ligação (link) para ligação e no tempo. Algumas ligações são mais críticas do que outras. Então, a tarefa de alocar recursos escassos entre as diferentes ligações de processos de
negócios por meio da cadeia de suprimentos é crucial. Quatro tipos diferentes de ligações de processos de
negócios são identificados entre os membros de uma cadeia de suprimentos:
60
jul./dez. • 2003
002302_C&T22.book Page 61 Tuesday, July 27, 2004 8:16 AM
• ligações de processos de negócios gerenciadas: são ligações em que a empresa foco integra um processo
com um ou mais clientes ou fornecedores;
• ligações de processos de negócios monitoradas: não são tão críticas para a empresa foco. No entanto, é
importante para a empresa foco que as ligações de processos sejam integradas e gerenciadas adequadamente entre outras empresas-membro. Então, a empresa foco, tão freqüentemente quanto for necessário,
simplesmente monitora ou audita como a ligação de processo é integrada e gerenciada;
• ligações de processos de negócios não-gerenciadas: são ligações em que a empresa foco não está ativamente envolvida nem são críticas o bastante para usar recursos para monitoramento;
• ligações de processos de negócios de não-membros: são ligações entre membros da empresa foco e nãomembros da cadeia de suprimentos.
Processos de Negócios
Segundo Davenport (1993), os Processos de Negócios podem ser entendidos como um conjunto de
atividades estruturadas, concebidas para produzir um resultado específico para um determinado cliente ou
mercado. É um arranjo específico de atividades de trabalho, com um começo, um fim e entradas e saídas claramente identificadas. Os processos de negócios da cadeia de suprimentos podem cruzar fronteiras intra e
interorganizacionais, independentemente da estrutura formal da empresa.
Hewitt (1994) cita que, em um estudo exploratório envolvendo 30 empresas, foram identificados
entre nove e 24 processos de negócios internos.
Em pesquisa realizada pelos membros do The Global Supply Chain Forum (Lambert et al., 1998a),
verificou-se que os executivos das companhias estudadas identificaram entre um e sete processos de negócios
internos. Constatou-se, também, que as empresas usavam nomes diferentes para processos similares e nomes
similares para processos diferentes, o que pode gerar ineficiências nas cadeias de suprimentos. Em função
dessas questões, observa-se que é necessário realizar mais pesquisas sobre o assunto, até para que possam ser
identificados, entre tantos, quais são os processos de negócios-chave que devem ser integrados e gerenciados
para o sucesso da gestão da cadeia de suprimentos.
Como ponto de partida, os membros do GSCF identificaram sete processos de negócios-chave (Cooper et al., 1997) e acrescentaram, posteriormente, o processo de negócio devoluções (Lambert et al., 1998b)
(Lambert & Cooper, 2000). Esses processos de negócios são descritos a seguir:
• gestão do relacionamento com clientes: envolve identificar mercados-alvo dos clientes-chave e, depois,
desenvolver e implementar programas com eles. O primeiro passo em direção da SCM integrada é identificar os clientes-chave ou grupos de clientes que a empresa entende como críticos para sua missão de
negócios e, então, estabelecer com eles acordos de produtos e serviços, especificando níveis de desempenho;
• serviços ao cliente: cria uma interface para o cliente usando sistemas de informação on-line com dados
atuais sobre o pedido, bem como a situação de produção e de distribuição. Esse processo também alimenta o cliente com informação em tempo real sobre datas prometidas de embarque e disponibilidade
do produto, por meio de interfaces com a produção e de operações de distribuição da organização;
• gestão da demanda: reconhece que o fluxo de materiais e produtos está entrelaçado com a demanda do
cliente, que é a maior fonte de variabilidade. Fazer previsões e reduzir a variabilidade são preocupaçõeschave desse processo. O processo de gestão da demanda precisa balancear as necessidades dos clientes
com a capacidade de suprimento da empresa. Parte da gestão da demanda envolve determinar o que e
quando os clientes vão comprar;
• order fulfillment: responde pela entrega precisa e no tempo correto dos pedidos dos clientes, com o objetivo de atender às datas das necessidades dos clientes. Para se ter um processo de order fulfillment eficaz, é
necessária a integração dos planos de manufatura, distribuição e transporte da empresa;
• gestão do fluxo de manufatura: está relacionada com fazer os produtos que os clientes querem. Isso significa que os processos de manufatura precisam ser mais flexíveis para responder às mudanças de mercado,
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 57-66
61
002302_C&T22.book Page 62 Tuesday, July 27, 2004 8:16 AM
e é necessário um esforço para ter o mix correto de produtos. É essencial ter flexibilidade para realizar
mudanças rápidas para acomodar a customização em massa. Os produtos devem ser processados just-intime;
• procurement: pode ser entendido como o processo de gestão de compras da empresa. É quase uma imagem especular do processo de order fulfillment do fornecedor, com praticamente as mesmas quantidades
de tarefas e de dados (Hammer, 2002). Focaliza no gerenciamento das relações com fornecedores estratégicos, em vez de no tradicional sistema de fazer cotação e comprar. O objetivo é apoiar o processo de gestão do fluxo de manufatura e desenvolvimento de novos produtos. Na gestão desse processo, a função de
compras pode desenvolver mecanismos de comunicação rápida, como o intercâmbio eletrônico de dados
(Electronic Data Interchange-EDI) e conexões via internet, para velozmente transferir as necessidades da
empresa para o fornecedor;
• desenvolvimento do produto e comercialização: são importantes na medida em que novos produtos são
uma parte crítica do sucesso da empresa. Clientes e fornecedores-chave precisam ser integrados ao processo de desenvolvimento do produto, para reduzir o time to market;
• retornos/devoluções: a gestão das devoluções como um processo de negócio oferece a oportunidade de se
atingir vantagem competitiva sustentável. Em muitos países, isso pode ser uma questão ambiental, mas
nem sempre o é. A gestão eficaz das devoluções permite identificar oportunidades de melhorias da produtividade e de projetos.
Em trabalhos mais recentes, outros processos de negócios-chave são identificados. Um deles é o Gerenciamento do Relacionamento com o Fornecedor (Lambert, 2002). Ele é quase uma imagem especular da Gestão do Relacionamento com Clientes, pois considera o fato de que há determinados fornecedores (chave) que
são mais importantes para o sucesso da empresa, seja pela tecnologia que incorporam ao produto, seja pelo
volume de fornecimento. Outro é o Gerenciamento do Relacionamento com Parceiros (Partner Relationship
Management-PRM) (Paduan, 2002). O PRM se ocupa do canal de distribuição. É um dos braços do comércio colaborativo, conceito que ganha cada vez mais força na economia movida a informação. A idéia é fazer
o fabricante e seus distribuidores compartilharem informações. A empresa fornece ao distribuidor dados
sobre como ela e seu setor operam. Em troca, o distribuidor a abastece com informações sobre o consumidor
final. O objetivo é obter a máxima eficiência no relacionamento com os canais de distribuição. Um conjunto
de tecnologias viabiliza o contato em tempo real e estrutura as informações trocadas entre as duas partes, possibilitando a rápida tomada de decisões. Aqui, vale destacar que, sendo o distribuidor um cliente, o PRM
pode e deve ser considerado como parte do processo de negócio Gestão do Relacionamento com Clientes.
Deve-se observar que o número crítico ou benéfico de processos de negócios para integrar e gerenciar
entre empresas varia de caso a caso.
Nível de Integração/Componentes de Gestão da Cadeia de Suprimentos
Há certos componentes de gestão que são comuns a todos os processos de negócios e membros da
cadeia de suprimentos. Acredita-se que esses componentes comuns de gestão sejam críticos e fundamentais
para a administração bem sucedida da cadeia de suprimentos, uma vez que eles representam e determinam
como cada ligação de processo é integrada e gerenciada. O nível de integração e gestão de uma ligação de
processo de negócio é função do número e do nível de componentes acrescentados à ligação. Assim, acrescentando mais componentes de gestão, ou aumentando o nível de cada componente, pode-se aumentar o
nível de integração da ligação do processo de negócio.
Com base nos componentes de gestão identificados em Cooper et al. (1997), na revisão adicional da
literatura e em entrevistas realizadas com oitenta gerentes de empresas, Lambert et al. (1998a) definiram
nove componentes de gestão da cadeia de suprimentos. Eles podem ser divididos em dois grupos, em função de suas diferenças e características específicas. O primeiro grupo, dos Componentes de Gestão Físicos
e Técnicos, inclui os componentes mais visíveis, tangíveis, mensuráveis e fáceis de mudar. O segundo, dos
Componentes de Gestão Gerenciais e Comportamentais, é menos tangível e visível e, geralmente, mais
62
jul./dez. • 2003
002302_C&T22.book Page 63 Tuesday, July 27, 2004 8:16 AM
difícil de acessar e alterar. Define o comportamento organizacional e influencia a maneira como os componentes físicos e técnicos podem ser implementados. A figura 1 mostra os dois grupos de componentes
de gestão.
Fig. 1. Componentes de Gestão da SCM (Lambert & Cooper, 2000).
Componentes de Gestão
Físicos e Técnicos
Gerenciais e Comportamentais
Métodos de Planejamento e Controle
Métodos de Gestão
Estrutura de trabalho
Estrutura de Poder e Liderança
Estrutura organizacional
Estrutura de Risco e Recompensa
Estrutura das facilidades de comunicação e
fluxo de informação
Cultura e Atitude
Estrutura das facilidades de fluxo de produto
Grupo 1: componentes de gestão físicos e técnicos
• métodos de planejamento e controle: refere-se às ferramentas e técnicas utilizadas pelas empresas para
auxiliar a execução dessas atividades específicas, isto é, as atividades de planejamento e controle;
• estrutura de trabalho: indica como a empresa executa suas tarefas e atividades. O nível de integração dos
processos pela cadeia de suprimentos é uma medida da estrutura organizacional;
• estrutura organizacional: pode se referir tanto à empresa individual como à cadeia de suprimentos;
• estrutura das facilidades de comunicação e fluxo de informações: o tipo de informação passada entre os
membros dos canais e a freqüência de atualização da informação é extremamente importante e tem uma
forte influência na eficiência da cadeia de suprimentos;
• estrutura das facilidades de fluxo de produtos: refere-se à estrutura de rede para a consecução das atividades de sourcing, manufatura e distribuição por toda a cadeia de suprimentos.
Grupo 2: componentes de gestão gerenciais e comportamentais
• métodos de gestão: incluem a filosofia corporativa e as técnicas de gestão;
• estrutura de poder e liderança: trata de questões relacionadas ao fato de que o exercício do poder, ou a
falta dele, pode afetar o nível de envolvimento de outros membros do canal;
• estrutura de risco e recompensa: considera que a antecipação de compartilhamento de riscos e recompensas pela cadeia afeta, no longo prazo, o envolvimento dos membros do canal;
• cultura e atitude: a compatibilidade da cultura corporativa entre os membros do canal não pode ser
subestimada. Misturar culturas e atitudes dos indivíduos consome tempo, mas é necessário num determinado nível para que o canal opere como uma cadeia. Os aspectos de cultura incluem como os empregados são valorizados e como eles são incorporados à gestão da empresa.
A partir dessas discussões, observa-se que gestão da cadeia de suprimentos apresenta uma série de desafios. Não são apenas desafios tecnológicos, mas também culturais, organizacionais e operacionais. Em relação
aos aspectos tecnológicos, é necessário considerar que a integração de múltiplos e diferenciados processos de
negócios suportados por tecnologias diferenciadas pode tornar-se impossível.
Com relação aos aspectos culturais, organizacionais e operacionais, deve-se ter claro que nem todas as
empresas estão preparadas para atuar de forma aberta e integrada com parceiros, trocando informações que
ainda são consideradas estratégicas. É necessário que haja uma grande interdependência entre todos os memREVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 57-66
63
002302_C&T22.book Page 64 Tuesday, July 27, 2004 8:16 AM
bros da cadeia, exigindo cada vez mais parcerias e cooperação mútuas. Para que a gestão da cadeia de suprimentos tenha sucesso, funcionando adequadamente, com processos interligados, é preciso mais do que tecnologia, mas, principalmente, abertura, confiança e disposição para compartilhar informações (Humphreys
et al., 2001, e Julka et al., 2002).
CONCLUSÕES
As empresas estão cada vez mais se conscientizando de que a competição se dá entre cadeias de suprimentos, e que a integração e o gerenciamento bem sucedidos dos processos de negócio-chave entre os membros dessa cadeia é que determinará o sucesso final das organizações. Essa integração e esse gerenciamento
são entendidos como Gestão da Cadeia de Suprimentos, uma nova maneira de administrar o negócio e as
relações com outros membros da cadeia de suprimentos.
Seu objetivo é maximizar a competitividade e a lucratividade para a empresa e para a cadeia de suprimentos como um todo. É um conceito relativamente novo, em fase de construção, ainda não muito bem
entendido e explorado, e que dá oportunidade a um amplo campo de pesquisa. A sua implementação apresenta desafios de ordem tecnológica, cultural, organizacional e operacional. É um assunto de destacada
importância e, portanto, não pode ser deixado ao acaso.
A definição de Gestão da Cadeia de Suprimentos desenvolvida pelos membros do The Global Supply
Chain Forum e o modelo conceitual de Gestão da Cadeia de Suprimentos proposto por Cooper et al. (1997)
apresentam-se como elementos facilitadores do entendimento do significado e da abrangência da SCM.
Além disso, o modelo proposto fornece uma visão bastante clara e lógica das etapas envolvidas no processo
de implantação da Gestão da Cadeia de Suprimentos nas empresas e apresenta uma base que pode servir
como ponto de partida para a construção de uma metodologia para análise da SCM.
REFERÊNCIA BIBLIOGRÁFICA
COOPER, M.C. et al. Supply chain management: more than a new name for logistics. The International Journal of Logistics
Management, Vedra Beach, 8 (1): 1-13, 1997.
CRISTHOFER, M. Logistics, the Strategic Issues. Londres: Chapman and Hall, 1994.
CROOM, S. et al. Supply chain management: an analytical framework for critical literature review. European Journal of Purchasing & Supply Management, Oxford, 6 (1), 2000.
DAVENPORT, T.H. Process Innovation – reengineering work through information technology. Boston: Harvard Business School
Press, 1993.
GANESHAM, R. & HARRISON, T.P. “An Introduction to Supply Chain Management”. <http://silmaril.smeal.psu.edu/misc/
supply_chain_intro.html> (19/dez./2002).
HAMMER, M. A empresa supereficiente. Exame/Harvard Business Review, São Paulo, edição especial, 18-29, abr./02.
HEWITT, F. Supply chain redesign. The International Journal of Logistics Management, Vedra Beach, 5 (2): 1-9, 1994.
HUMPHREYS, P. et al. An inter-organizational information system for supply chain management. International Journal of Production Economics, Amsterdan, 70 (3): 245-255, 2001.
JULKA, N. et al. Agent-based suppy chain management – 1: framework. Computers & Chemical Engineering, Oxford , 26 (12):
1.755-1.769, 2002.
LAMBERT, D.M. et al. Supply chain management: implementation issues and research opportunities. The International Journal
of Logistics Management, Vedra Beach, 9 (2): 1-19, 1998a.
LAMBERT, D.M. et al. Fundamentals of Logistics Management. Boston: Irwin/McGraw-Hill, 1998b.
LAMBERT, D.M. & COOPER, M.C. Issues in supply chain management. Industrial Marketing Management, New York, 29
(1): 65-83, 2000.
LAMBERT, D.M. Mapeando a supply chain. Tecnologística, São Paulo, 83: 30-39, out./02.
OLIVER, R. et al. Supply chain management: logistics catches up with strategy, Outlook, 1982, apud Christopher M. Logistics,
the Strategic Issues. Londres: Chapman and Hall, 1994.
PADUAN, R. E aí, parceiro? Exame, São Paulo, 36 (11): 80-82, mai./02.
64
jul./dez. • 2003
002302_C&T22.book Page 65 Tuesday, July 27, 2004 8:16 AM
Dados dos autores
ALEXANDRE TADEU SIMON
Engenheiro Mecânico pela Unesp, mestre em
Engenharia Mecânica pela Unicamp. Docente no
curso de Engenharia de Produção e Engenharia
de Alimentos da UNIMEP. Possui mais de
quarenta artigos publicados em revistas e
apresentados em congressos. Editor técnico da
Revista Máquinas e Metais desde 1987
SÍLVIO ROBERTO IGNÁCIO PIRES
Engenheiro de Produção pela UFSCar, mestre e
doutor em Engenharia de Produção pela EESCUSP e pós-doutorado em Supply Chain
Management pelo IMD, Suíça. Professor doutor
titular 3 do PPGEP/UNIMEP
Recebimento do artigo: 15/abr./03
Consultoria: 25/nov./03 a 18/dez./03
Aprovado: 18/dez./03
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 57-66
65
002302_C&T22.book Page 66 Tuesday, July 27, 2004 8:16 AM
66
jul./dez. • 2003
002302_C&T22.book Page 67 Tuesday, July 27, 2004 8:16 AM
Resenha
O MAPEAMENTO DO FLUXO DE VALOR ALÉM DA EMPRESA
SEEING THE WHOLE MAPPING THE EXTEND VALUE STREAM
de Daniel Jones & James Womack,
Massachusetts: Brookline, 2002, 97p., ISBN 0-9667843-5-9
WILSON ANTONIO PIZZOL
Aluno do Programa de Pós-Graduação em
Engenharia de Produção – UNIMEP/SBO.
Engenheiro industrial graduado pela
UNIMEP, 2001.
[email protected]
Neste livro, Daniel Jones e James Womack, também autores de The Machine that Changed the World e
Lean Thinking, não realizam apenas o complemento a Learning to See (Apreendendo a Enxergar), de John
Shook e Mike Rother (1998), mas sim a extensão da técnica Value Stream Mapping (Mapeamento do Fluxo
de Valor) por eles proposta, criando novos ícones para representar as atividades desempenhadas entre fornecedores e clientes, principalmente aquelas relacionadas ao fluxo de materiais e informações. Essas informações, uma vez transmitidas ou interpretadas de forma inadequada, são justamente as responsáveis pela geração de desperdícios.
O Mapeamento do Fluxo de Valor (MFV) é o processo prático de documentar o fluxo da cadeia de
valor, considerando todos os passos do processo de fabricação, tanto os que adicionam valor (transformam
ou modificam) como os que não adicionam valor (espera, movimentação, armazenagem etc.), desde a recepção da matéria-prima até a entrega ao cliente.
O MFV permite uma forma simples de visualização da cadeia de valor, composto pelo fluxo de processo, materiais e informações, ajudando a identificar desperdícios, bem como suas fontes. Uma vez pronto, o
MFV ajudará a tomar decisões sobre o fluxo representado, tornando-o mais lógico e simples, abordando os
conceitos e técnicas enxutas. Após realizado o MFV no Estado Atual, que tem por objetivo representar o
“mapa da situação atual” (a foto do hoje), deve-se partir para o mapeamento do Estado Futuro, o qual representará o mapeamento que pode tornar-se realidade em um curto espaço de tempo, demonstrando as
melhorias de possível implementação, baseadas nas observações realizadas no decorrer do mapeamento do
Estado Atual.
A técnica apresentada por Shook e Rother em Learning to See tem por objetivo realizar o mapeamento
“porta a porta” (do recebimento de matéria-prima até a expedição para o cliente final). Porém, vários pessoas
que empregaram a técnica passaram a questionar como se poderia expandir o escopo do MFV além da
planta, ou seja, desde a matéria-prima até o cliente final.
O conceito aplicado para se realizar o Mapeamento Estendido do Fluxo de Valor (MEFV) é o mesmo,
porém observando, dessa vez, desde o fornecedor de matéria-prima até o cliente final. Em qualquer nível de
mapeamento, estaremos simplesmente observando e anotando cada passo do processo, assim como a inforREVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 67-68
67
002302_C&T22.book Page 68 Tuesday, July 27, 2004 8:16 AM
mação e o material para cada família de produto. O MEFV exige a cooperação de vários departamentos e
divisões na empresa e mesmo entre empresas diferentes, e estas raramente pensam sobre o fluxo total de um
produto. Geralmente escondem informações, o que gera uma missão árdua para o gerente incumbido de sua
implementação.
O MEFV tem início na seleção da família de produtos, caracterizada pela similaridade do fluxo de processo ou equipamentos utilizados. Em um primeiro momento, os autores sugerem a seleção de uma família
simples, com o objetivo de manter um trabalho focado e despertar a consciência em seus participantes.
A aplicação do MEFV pressupõe a escolha de um líder para sua realização, nomeado por Jones e
Womack como “product line manager” (gerente da linha de produto). Tal membro deve possuir senso de responsabilidade para aumentar o lucro ou participação da empresa no mercado. Cada unidade de negócio ou
empresa envolvida no MEFV deverá eleger seu próprio líder, responsável por ajudar no levantamento de
dados para a construção do Estado Atual e pelo Plano de Ação a ser implementado.
Com a definição dos líderes, cabe iniciar o Mapeamento do Estado Atual em cada unidade ou
empresa, relatando o Fluxo de Processo, Material e Informação e, mais tarde, concentrando todas elas em
um único mapa do Estado Atual.
Pronto o MEFV, Jones e Womack sugerem o endereçamento das melhorias por meio de três níveis:
• Estado Futuro 1 – visa à eliminação dos desperdícios em cada unidade ou empresa, estabilizando o processo e simplificando o fluxo de informação;
• Estado Futuro 2 – introduz o Nivelamento da Produção e reabastecimento mais freqüentes entre unidades ou empresas, promovendo, desse modo, a redução do inventário em processo e de produto acabado;
• Estado Ideal – deve-se avaliar a viabilidade de centralização das atividades em um único local, desde a
matéria-prima até o produto acabado, reduzindo, assim, o transporte e o fluxo de informação.
O método apresentado por Jones e Womack torna clara a lógica dos desperdícios que ocorrem na
manufatura serem decorrentes de outros departamentos. Vejamos um exemplo: o Cliente Final dirige seus
pedidos ao departamento de Controle de Produção do Fornecedor A, este departamento adiciona um “fator
de segurança” à demanda solicitada e envia aos departamentos de Manufatura e Controle de Materiais; o
departamento de Controle de Materiais adiciona seu fator de segurança antes de mandar os pedidos ao fornecedor de matéria-prima, causando, assim, a amplificação da demanda originada pelo Cliente Final.
Realizado o MEFV, ele estabelecerá uma linguagem única entre a cadeia de clientes e fornecedores,
simplificando a forma de comunicação e o entendimento das oportunidades interdependentes relacionadas a
custo, qualidade, confiança e comunicação de problemas. Se a prática do MEFV for compartilhada com um
segundo nível de fornecedores, as vantagens competitivas podem se tornar ainda maiores, estendendo-se aos
diversos níveis da cadeia produtiva.
Sem dúvida, a dimensão adicional do Mapeamento Estendido da Cadeia de Valor é um grande desafio.
Porém, traz consigo o objetivo de inovar e compartilhar o conhecimento e a consciência, assim como a forma
de identificar sistematicamente oportunidades de eliminação de desperdícios em todo a cadeia de valor (de
fornecedores a cliente final). A aplicação do método de Jones e Womack, exposto em Seeing the Whole, ajudará a obter um estado futuro, a ser implementado com sucesso.
68
jul./dez. • 2003
002302_C&T22.book Page 69 Tuesday, July 27, 2004 8:16 AM
Revista de Ciência & Tecnologia
NORMAS PARA PUBLICAÇÃO
PRINCÍPIOS GERAIS
1. A REVISTA DE CIÊNCIA & TECNOLOGIA tem por objetivo publicar trabalhos que contribuam
para o desenvolvimento científico nas áreas de Ciências Exatas e Tecnologia e de Arquitetura e
Urbanismo.
2. Os temas podem ser apresentados através dos seguintes tipos de artigos:
•
ensaio: artigo teórico sobre determinado tema;
•
relato: artigo sobre pesquisa experimental concluída ou em andamento;
•
revisão de literatura: levantamento do estágio atual de determinado assunto e compilação crítica de dados experimentais e propostas teóricas recentes;
•
resenha: comentário crítico de livros e/ou teses;
•
carta: comentário a artigos relevantes publicados anteriormente.
3. Os artigos devem ser inéditos, sendo vedada sua publicação em outras revistas brasileiras. A publicação do mesmo artigo em revistas estrangeiras deverá contar com a autorização prévia da Comissão
Editorial da RC&T.
4. A aceitação do artigo depende dos seguintes critérios:
•
adequação ao escopo da revista;
•
qualidade científica, atestada pela Comissão Editorial e por processo anônimo de avaliação por
pares (peer review),1 com consultores não remunerados, especialmente convidados, cujos
nomes são divulgados na última edição de cada ano, como forma de reconhecimento;
•
cumprimento da presente Norma. Os autores serão sempre informados do andamento do processo
de avaliação e seleção dos artigos e os originais serão devolvidos nos casos de sua não aceitação.
5. Os artigos devem considerar como unidade padrão a página A4, com margens 2,5 cm, parágrafo
justificado, fonte Times New Roman, tamanho 12, digitada em espaço 1,5 e em editor Word for
Windows, sem qualquer formatação especial.
Os artigos devem ter as seguintes dimensões:
•
ensaio e relato: de 12 a 20 páginas-padrão, nelas incluídas todas as subdivisões dos capítulos,
figuras, tabelas e referências bibliográficas;
•
revisão de literatura: de 10 a 15 páginas-padrão, nelas incluídas todas as subdivisões dos capítulos, figuras, tabelas e referências bibliográficas;
•
resenha e carta: de 2 a 4 páginas-padrão.
6. Os artigos podem sofrer alterações editoriais não substanciais (reparagrafações, correções gramaticais e adequações estilísticas), que não modifiquem o sentido do texto. O(s) autor(es) será/ão
solicitados a revisar as mudanças eventualmente introduzidas. Se ultrapassado o prazo máximo de
oito meses em tal etapa, o(s) autor(es) será/ão consultado(s) a respeito do interesse em manter seu
trabalho submetido a tal processo de publicação.
7. Não há remuneração pelos trabalhos. Por artigo, o(s) autor(es) recebe(m) 10 (dez) separatas do
seu artigo. Ele(s) pode(m) ainda adquirir exemplares da revista com desconto de 30% sobre o
preço de capa, bem como a quantidade desejada de separatas, a preço de custo equivalente ao
número de páginas e de cópias delas.
1
Para maior detalhamento, v. item 11, “Etapas”.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 69-73
69
002302_C&T22.book Page 70 Tuesday, July 27, 2004 8:16 AM
8. Os artigos devem ser encaminhados pelo Correio para Editora UNIMEP - Campus Taquaral (Rod.
do Açúcar, km 156 – 13400-911 – Piracicaba, SP), através de ofício, do qual deve constar:
•
declaração de cessão dos direitos autorais para publicação na revista;
•
declaração de concordância com as Normas para Publicação da RC&T.
Dúvidas poderão ser tratadas pelos telefones (19) 3124-1620 / 1621 ou pelo e-mail [email protected].
ESTRUTURA
9. Cada artigo deve conter os seguintes elementos:
Identificação:
•
•
Nome do(s) autor(es);
Um breve currículo contendo informações sobre o(s) autor(es): titulação acadêmica, unidade e
instituição em que atua, endereço para correspondência, telefone, fax e e-mail;
•
Titulação acadêmica; função e origem (instituição e unidade) do(s) autor(es);
•
Título e, se for o caso, subtítulo: precisa(m) indicar claramente o conteúdo do texto e ser(em)
conciso(s) (título: no máximo 10 palavras; subtítulos: no máximo 15 palavras)
•
Subvenção: menção de apoio e financiamento eventualmente recebidos;
•
Agradecimentos, apenas se absolutamente indispensáveis.
Esses elementos devem ser apresentados em folha separada, pois contêm dados que não serão
divulgados aos consultores. Após a aceitação do artigo, os dados serão incluídos para publicação.
O texto deve conter:
•
Título e, se for o caso, subtítulo em português e inglês, qualquer que seja o idioma utilizado
dentre os determinados por estas normas, bem como os limites de palavras acima definidos;
•
Resumo em português e Abstract em inglês, qualquer que seja o idioma utilizado no texto dentre os determinados por estas normas. Conterão entre 150 a 200 palavras com a mesma formatação da página padrão acima definida;
•
Para fins de indexação, o(s) autor(es) deve indicar no mínimo três e no máximo seis palavraschave logo após a apresentação do Resumo, e, posteriormente ao Abstract, sua versão para o
inglês (keywords).
•
O texto pode ser escrito em português, inglês ou espanhol e deve estar subdividido em: INTRODUÇÃO, DESENVOLVIMENTO, CONCLUSÃO e REFERÊNCIAS BIBLIOGRÁFICAS. Cabe ao(s) autor(es)
criar os intertítulos para o seu trabalho: em letras maiúsculas e sem numeração. No caso de
Relatos, podem ter as seguintes seções: INTRODUÇÃO, METODOLOGIA (ou MATERIAIS E MÉTODOS), RESULTADOS, DISCUSSÕES, CONCLUSÕES, NOTAS e REFERÊNCIAS BIBLIOGRÁFICAS. No caso
de Resenhas, o texto deve conter todas as informações para identificação do livro comentado
(autor; título, tradutor, se houver; edição, se não for a primeira; local; editora; ano; total de
páginas; e título original, se houver). No caso de teses/dissertações, segue-se o mesmo princípio,
no que for aplicável, acrescido de informações sobre a instituição na qual tiver sido produzida.
DOCUMENTAÇÃO
10.O artigo poderá apresentar notas explicativas.1 Elas devem ser indicadas por numeração seqüencial sobrescrita e apresentadas no rodapé da página, com a mesma formatação da página padrão.
O artigo precisa apresentar as referências bibliográficas de acordo com a norma NBR 6.023/1989
da ABNT, em sua versão exemplificada abaixo, que consiste em fazer a citação da referência ao
longo do texto:
1
As notas explicativas devem ser apresentadas dessa forma.
70
jul./dez. • 2003
002302_C&T22.book Page 71 Tuesday, July 27, 2004 8:16 AM
Para se ter uma idéia do avanço nesta direção, até novembro de 1997, inúmeras empresas foram
certificadas conforme uma das normas de série ISO 9000 (Emmanuel, 1997). Entretanto, requisitos da
Qualidade, segundo Brederodes (1996), não estão somente restritos à esfera da ISO 9000.
As Referências Bibliográficas deverão ser apresentadas em ordem alfabética pelo sobrenome dos
autores.
I – Sobrenome do autor (maiúsculo), nome (minúsculo). Título da obra (itálico). Tradutor, edição,
cidade em que foi publicado: editora, ano de publicação. Ex.:
HOBSBAWM, E.J. Era dos Extremos: o breve século XX; 1914-1991. Trad. Marcos Santarrita, São
Paulo: Companhia das Letras, 1995.
Obs.: sendo 1.ª edição, esta não deve ser indicada.
II – Designação de parentes não pode abrir referência bibliográfica. Ex.:
JUNQUEIRA NETTO, P....
Sobrenome composto:
CASTELLO BRANCO, H. de,...
VILLA-LOBBOS, H.,...
III – Obras escritas por dois autores. Ex.:
ARANHA, M.L. de A. & MARTINS, M.H.P. Filosofando: introdução à Filosofia. São Paulo: Moderna, 1986.
IV – Obras escritas por três ou mais autores.
Coloca-se o nome do primeiro autor, seguido da expressão et al. Ex.:
PIRES, M.C.S. et al. Como fazer uma Monografia. 4.ª ed., São Paulo: Brasiliense, 1991.
Se houver um responsável pela obra (coordenador ou organizador):
GENTILI, P. (org.). Pedagogia da Exclusão: o neoliberalismo e a crise da escola pública. Petrópolis: Vozes, 1995.
V – Artigos de revistas e jornal.
Revista: sobrenome do autor (maiúsculo), prenome. Título do artigo, título do jornal (itálico),
local, volume (número/fascículo): páginas incursivas, ano.
Ex. com autor:
ZAMPRONHA, M.L.S. Música e semiótica. Arte, Unesp, Rio Claro, 6: 105-128, 1990.
Ex. sem autor:
Máquinas paradas braços cruzados. Atenção, Página Aberta, ano 2, (7): 10-17, 1996.
Jornal: sobrenome do autor (maiúsculo), prenome, título do artigo, título do jornal (itálico),
local, dia, mês, ano, número ou título do caderno, seção ou suplemento, página inicial-final.
Ex. com autor:
FRIAS FILHO, O. Peça de Calderón sintetiza teatro barroco. Folha de S.Paulo, São Paulo, 23/out./91, Ilustrada, p. 3.
Ex. sem autor:
Duas economias, duas moedas. Gazeta Mercantil, São Paulo, 31/jan./97, p. 7.
VI – Capítulo de um livro escrito por um único autor. Substituir o nome do autor depois do “in” por
um travessão de três toques. Ex.:
ECO, U. A procura do material. In: ______. Como se faz uma tese em ciências humanas, 4.ª ed. Lisboa: Presença,
1988.
VII – Autor do capítulo diferente do responsável pelo livro. Sobrenome do autor (maiúsculo) que realizou o capítulo, prenome. Título do capítulo. In (sobrenome do organizador do livro em maiúsculo),
nome, título do livro (itálico), edição, local de publicação, editora, data. Ex.:
COSTA, M. da. A educação em tempos de conservadorismo. In: GENTILI, P. Pedagogia da Exclusão: crítica ao neoliberalismo em educação em educação. Petrópolis: Vozes, 1995.
VIII – Enciclopédia e dicionário.
GRANDE ENCICLOPÉDIA DELTA LAROUSSE. Rio de Janeiro, Delta, 1974, v. 7, p. 2.960.
FERREIRA, A.B.H. Novo Dicionário da Língua Portuguesa. Rio de Janeiro: Nova Fronteira, 1975, p. 397.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 69-73
71
002302_C&T22.book Page 72 Tuesday, July 27, 2004 8:16 AM
IX – Fontes eletrônicas
A documentação de arquivos virtuais deve conter as seguintes informações, quando disponíveis:
•
sobrenome e nome do autor;
•
título completo do documento (entre aspas);
•
título do trabalho no qual está inserido (em itálico);
•
data (dia, mês e/ou ano) da disponibilização ou da última atualização;
•
endereço eletrônico (URL) completo (entre parênteses angulares);
•
data de acesso (entre parênteses).
Exemplos :
Site genérico
LANCASHIRE, I. Home page. Sept. 13, 1998. <http://www.chass.utoronto.ca:8080/~ian/index.html> (10/dez./98).
Artigo de origem impressa
COSTA, Florência. Há 30 anos, o mergulho nas trevas do AI-5. O Globo, 6.12.98. <http://www.oglobo.com.br> (6/dez./98).
Dados/textos retirados de CD-rom
ENCICLOPÉDIA ENCARTA 99. São Paulo: Microsoft, 1999. Verbete “Abolicionistas”. CD-rom.
Artigo de origem eletrônica
CRUZ, Ubirajara Buddin. “The Cranberries: discography”. The Cranberries: images. Feb./97. <http://
www.ufpel.tche.br/~bira/cranber/cranb_04.html> (12/jul./97).
OITICICA FILHO, Francisco. “Fotojornalismo, ilustração e retórica”. <http://www.transmidia.al.org.br/retoric.htm>
(6/dez./98).
Livro de origem impressa
LOCKE, John. A Letter Concerning Toleration. Translated by William Popple. 1689. <http://www.constitution.org/jl/
tolerati.htm>.
Livro de origem eletrônica
GUAY, Tim. A Brief Look at McLuhan's Theories. WEB Publishing Paradigms. <http://hoshi.cic.sfu.ca/~guay/Paradigm/McLuhan.html> (10/dez./98).
KRISTOL, Irving. Keeping Up With Ourselves. 30/jun/96. <http://www.english.upenn.edu/~afilreis/50s/kristolendofi.html> (7/ago./98).
Verbete
ZIEGER, Herman E. “Aldehyde”. The Software Toolworks Multimedia Encyclopedia. Vers. 1.5. Software Toolworks.
Boston: Grolier, 1992.
“Fresco”. Britannica Online. Vers. 97.1.1. Mar./97. Encyclopaedia Britannica. 29/mar./97. http://www.eb.com:180.
E-mail
BARTSCH, R. <[email protected]> “Normas técnicas ABNT - Internet”. 13/nov./98. Comunicação pessoal.
Comunicação sincrônica (MOOs, MUDs, IRC etc.)
ARAÚJO, Camila Silveira. Participação em chat no IRC #Pelotas. <http://www.ircpel.com.br> (2/set./97).
Lista de discussão
SEABROOK, Richard H. C. <[email protected]> “Community and Progress”. 22/jan./94. <[email protected]> (22/jan./94).
FTP (File Transfer Protocol)
BRUCKMAN, Amy. “Approaches to Managing Deviant Behavior in Virtual Communities”. <ftp://ftp.media.mit.edu/
pub/asb/papers/deviance-chi-94> (4/dez./94).
Telnet
GOMES, Lee. “Xerox's On-Line Neighborhood: A Great Place to Visit”. Mercury News. 3 May 1992. telnet
lamba.parc.xerox.com 8888, @go #50827, press 13 (5/dec./94).
Gopher
QUITTNER, Joshua. “Far Out: Welcome to Their World Built of MUD”. Newsday, 7/nov./93. gopher University of
Koeln/About MUDs, MOOs, and MUSEs in Education/Selected Papers/newsday (5/dec./94).
Newsgroup (Usenet)
SLADE, Robert. <[email protected]> “UNIX Made Easy”. 26 Mar.1996. <alt.books.reviews> (31/mar./96).
72
jul./dez. • 2003
002302_C&T22.book Page 73 Tuesday, July 27, 2004 8:16 AM
APRESENTAÇÃO
11.ETAPAS de encaminhamento dos artigos: (a) apresentação de três cópias impressas do artigo,
devidamente padronizado conforme estas Normas, para submissão à Comissão Editorial da
Revista e aos seus consultores, constando de uma delas os dados completos do(s) autor(es) e, das
outras duas, apenas o título da obra (sem identificação); fornecer também brevíssimo currículo
do(s) autor(es); (b) um dos membros da Comissão e dois nomes externos a ela são designados
como pareceristas, estes dois últimos por processo blind peer review; (c) recebidos de volta tais
pareceres, eles são analisados em outro encontro da Comissão, chegando-se a uma avaliação
final: “indicado para publicação”, “indicado com ressalvas” ou “recusado”; (d) em carta ao(s)
autor(es), são fundamentadas tais decisões e devolvidos os originais com anotações dos pareceristas; (e) se indicado para publicação “com ressalvas”, o artigo deve ser novamente submetido à
Editora: os trechos alterados devem ser realçados por cor ou sublinhados; essa nova versão será
entregue em papel (uma cópia) e em arquivo eletrônico, acompanhada do texto original apreciado
pelos pareceristas; (f) eventuais ilustrações devem ser encaminhadas separadamente, em seus respectivos arquivos eletrônicos em suas extensões originais; (g) antes da impressão, o(s) autor(es)
recebe(m) versão final do texto para análise.
12.As ILUSTRAÇÕES (tabelas, gráficos, desenhos, mapas e fotografias) necessárias à compreensão do
texto devem ser numeradas seqüencialmente com algarismos arábicos e apresentadas de modo a
garantir uma boa qualidade de impressão. Precisam ter título conciso, grafados em letras minúsculas. (a) TABELAS: editadas em Word ou Excel, com formatação necessariamente de acordo com as
dimensões da revista. Devem vir inseridas nos pontos exatos de suas apresentações ao longo do
texto; não podem ser muito grandes e nem ter fios verticais para separar colunas; (b) FOTOGRAFIAS: com bom contraste e foco nítido, sendo fornecidas em arquivos em extensão “tif ” ou “gif ”;
(c) GRÁFICOS e DESENHOS: incluídos nos locais exatos do texto. No caso de aprovação para publicação, essas ilustrações precisarão ser enviadas em separado, necessariamente em arquivos de seus
programas originais (p. ex., em Excel, CorelDraw, PhotoShop, PaintBrush etc.); (d) figuras, gráficos e mapas, caso sejam enviados para digitalização, devem ser preparados em tinta nanquim
preta. As convenções precisam aparecer em sua área interna.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 11, Nº 22 – pp. 69-73
73
002302_C&T22.book Page 74 Tuesday, July 27, 2004 8:16 AM
NOSSOS CONSULTORES
2003
Alexandre Tadeu Simon
Anselmo Eduardo Diniz
Antonio Batocchio
Antonio Carlos Giuliani
Cláudio Kirner
Daniel Weller
Eduardo Carlos Bianchi
Elisabete Stradiotto
Eugênio José Zoqui
Fernando Bernardi
Fernando Celso de Campos
Gilberto Martins
Iracema de Oliveira Moraes
José Antonio Arantes Salles
Klaus Schützer
Luis Augusto Consularo
Marcius Georgetti
Maria Helena Santin Campos Tavares
Marina Pires Vieira
Milton Vieira Jr.
Mônica Maria Gonçalves
Nádia Kassouf Pizzinatto
Nelson Carvalho Maestrelli
Newton Libânio Ferreira
Nivaldi Calonego Jr.
Nivaldo Lemos Coppini
Rafael Ferreira Alves
Regina Helena de Oliveira Lino Franchi
Reginaldo Teixeira Coelho
Rosângela Maria Vanalle
Sandra Maria Boscolo Brienza
Sílvio Roberto Ignácio Pires
Sônia Maria Malmonge
Sueli do Carmo Bettine
74
jul./dez. • 2003
Download

Conteúdo integral 1.46 MB