g
y
p
UNIVERSIDADE METODISTA DE PIRACICABA
Revista de Ciência & Tecnologia
Desenvolvimento do Produto: global e cooperativo
ISNN 0103-8575 • Piracicaba, SP • Volume 8 • Número 16 • P 1-141 • dezembro /2000
REVISTA DE CIÊNCIA & TECNOLOGIA • 15
1
g
y
p
UNIVERSIDADE METODISTA DE PIRACICABA
Reitor
ALMIR DE SOUZA MAIA
Vice-reitor Acadêmico
ELY ESER BARRETO CÉSAR
Vice-reitor Administrativo
GUSTAVO JACQUES DIAS ALVIM
EDITORA UNIMEP
CONSELHO DE POLÍTICA EDITORIAL
Almir de Souza Maia (presidente)
Antonio Roque Dechen
Cláudia Regina Cavaglieri
Elias Boaventura
Ely Eser Barreto César (vice-presidente)
Gislene Garcia Franco do Nascimento
Nancy Alfieri Nunes
Nivaldo Lemos Coppini
NÚMERO 16 – VOLUME 8 – 2000
Produzida em abril de 2001
COMISSÃO EDITORIAL
Nivaldo Lemos Coppini (presidente)
Angela M. C. Jorge Corrêa
Klaus Schützer
Maria Isabel Dantoro
Sônia Maria Malmonge
EDITOR EXECUTIVO
Heitor Amílcar da Silveira Neto (MTb 13.787)
SECRETÁRIA DA COMISSÃO EDITORIAL
acadêmica Flavia Paduan Bellani
A REVISTA DE CIÊNCIA & TECNOLOGIA é uma publicação semestral da Universidade Metodista de Piracicaba. Os textos são selecionados por processo
anônimo de avaliação por pares (peer review). Veja as normas para publicação no final da revista. Os originais devem ser encaminhados por e-mail ao
endereço [email protected] ou, pelo Correio, para: Comissão Editorial
da RC&T, a/c prof. Nivaldo Coppini, UNIMEP – Campus Santa Bárbara
d’Oeste – Rod. Santa Bárbara/Iracemápolis, km 01 – 13450-000 – Santa
Bárbara d’Oeste/SP.
As opiniões expressas nos artigos, tanto os encomendados como os
enviados espontaneamente, são de responsabilidade dos seus autores.
2
REVISTA DE CIÊNCIA & TECNOLOGIA (Science na Technology Journal) is published twice a year by Universidade Metodista de Piracicaba (São Paulo – Brazil).
It contains papers on scientific and technological
issues. Manuscripts are selected through a blind
peer review process. Editorial norms for submission
of articles can be requested to the Editor.
Aceita-se permuta / Exchange is desired.
A Revista Ciência & Tecnologia é indexada por
Revista de Ciência & Tecnologia is indexed by
Base de Dados do Centro de Informações Científicas e Tecnológicas (Comissão Nacional de Energia
Nuclear); Base de Dados do Ibge; Internacional Abstracts in Operations Research/IOR (University of Exeter);
Periódica – Incide de Revistas Latinoamericanas em
Ciencias (Unam); Subis (Sheffield Academic Press).
EQUIPE TÉCNICA
SECRETÁRIA
Ivonete Savino
ASSISTENTE ADMINISTRATIVO
Altair Alves da Silva
EDIÇÃO DE TEXTO
Milena de Castro
PREPARAÇÃO DE TEXTO
Nilson César de Sousa
CAPA
Genival Cardoso
IMPRESSÃO
Sitta Gráfica e Editora Ltda.
DTP E PRODUÇÃO
Gráfica UNIMEP • Impresso em
Duplicadora Digital Xerox Doutech 135
ASSINATURAS E REDAÇÃO
EDITORA UNIMEP
www.unimep.br/editora
Rodovia do Açúcar, km 156
13400-911 – Piracicaba – SP
Tel/fax: (19) 3124-1620
E-mail: [email protected]
REVISTA DE CIÊNCIA & TECNOLOGIA
V. 1 • N. 1 • 1991
Piracicaba, Editora UNIMEP
Semestral / Twice a year
1- Tecnologia – periódicos
CDU – 62 (05)
ISNN 0103-8575
Dezembro • 2000
g
y
p
RC&T 16
Editorial
DIVERSIDADE E DESENVOLVIMENTO DAS
CIÊNCIAS EXATAS E TECNOLÓGICAS
Uma publicação voltada para as Ciências Exatas e Tecnológicas apresenta grande riqueza no que se
refere à diversidade de assuntos que pode envolver. Essa riqueza, refletida nos artigos que a REVISTA DE CIÊNCIA & TECNOLOGIA apresenta no presente número, é parte fundamental da interdisciplinaridade e da transdisciplinaridade necessárias à principal proposta das Ciências Exatas e Tecnológicas: desenvolvimentos e
aplicações voltados para as mais diferentes áreas.
De forma mais específica para as áreas de interesse da Faculdade de Engenharia Mecânica e de Produção, o presente número da revista mostra que o ensino e a pesquisa nas áreas de Engenharia, especialmente
aquelas voltadas para a manufatura, vêm tendo cada vez mais foco em alguns campos: gerência de produção,
estratégias, automação, qualidade, projeto, novos materiais, meio ambiente, entre outros.
As tendências gerenciais apontam para o envolvimento do engenheiro em equipes de trabalho como
forma de consecução de objetivos estabelecidos dentro de estratégias competitivas. Estratégias como o uso de
máquinas de tridimensionais na medição de peças, com vistas a assegurar a qualidade especificada em projeto; como a utilização de sistemas ICAD, de modo a otimizar a documentação resultante da concepção de
produtos; e como o uso de controladores digitais, visando a automatizar e assegurar posicionamento em equipamentos de precisão.
Essas estratégias devem também prever a utilização de novos materiais, cujo desenvolvimento e produção acompanhem uma política ambiental que possibilite a gestão de recursos ambientais, tanto no plano regional como em âmbito global.
Nesse sentido, a REVISTA DE CIÊNCIA & TECNOLOGIA traz para o leitor um leque de artigos que privilegiam esses focos, importantes para a realidade de interdisciplinaridade e transdisciplinaridade das Ciências
Exatas e Tecnológicas.
Prof. Dr. MILTON VIEIRA JR.
Diretor da Faculdade de Engenharia da
Engenharia Mecânica da Produção/UNIMEP
REVISTA DE CIÊNCIA & TECNOLOGIA • 15
3
g
4
y
p
Dezembro • 2000
g
y
p
Sumário
9
PRODUCT ENGINEERING AND DESIGN USING GLOBAL
TEAMWORK STRUCTURES
Aplicação da Estrutura Times de Trabalho Globais na Engenharia de Produto
PROF. DR.-ING. REINER ANDERL
19
ASSESSING THE ALIGNMENT OF COMPETITIVE PRIORITIES
AND ACTION PLANS THROUGH THE USE OF QFD
Alinhamento entre Prioridades Competitivas e Planos de Ação Através do Uso do QFD
PAULO A. CAUCHICK MIGUEL, ROSÂNGELA M. VANALLE & ALCEU G. ALVES FILHO
31
ESTUDO E ESCOLHA DE METODOLOGIA PARA O PROJETO CONCEITUAL
Research and Choice of a Methology for the Conceptual Desing
FRANCISCO JOSÉ DE ALMEIDA
43
FONTES DE ERROS EM METROLOGIA A TRÊS COORDENADAS:
CONSIDERAÇÕES GERAIS
Error Sources in Coordinate Metrology: General Considerations
ROXANA M. MARTINEZ ORREGO, BENEDITO DI GIACOMO & ALVARO J. ABACKERLI
57
DESIGN OF A DIGITAL CONTROLLER FOR A SUB-MICROMETRIC
POSITIONING SYSTEM
Projeto de um Controlador Digital para um Sistema de Posicionamento Submicrométrico
WALTER LINDOLFO WEINGAERTNER, RICARDO COMPIANI TAVARES, CZESLAU BARCZAK & CARLOS A. MARTIN
REVISTA DE CIÊNCIA & TECNOLOGIA • 15
5
g
y
p
65
LÓGICA MODAL APLICADA A GRAFO A EVENTOS
Modal Logic Applied to Events Graph
JOSÉ CARLOS MAGOSSI
77
CARRETÉIS EM CARBONO VÍTREO E AMIDO PARA A UTILIZAÇÃO
EM GIROSCÓPIO A FIBRA ÓPTICA
Vitreous Carbon and Starch Spools for Utilization in Fiber Optic Gyroscopes
CYNTIA CRISTINA DE PAULA, ANDRÉ CÉSAR DA SILVA, ANTONIO GARCIA RAMOS,
MIRABEL CERQUEIRA REZENDE & EDSON COCCHIERI BOTELHO
85
VANADIUM RECOVERY BY LEACHING IN SPENT CATALYSTS
FOR SULFURIC ACID PRODUCTION
Recuperação do Vanádio Contido em Catalisadores Gastos
na Produção de Ácido Sulfúrico
JOSÉ LUÍS MAGNANI, GEORGE CURY KACHAN & NEWTON LIBANIO FERREIRA
91
RHEOLOGICAL BEHAVIOR OF PINEAPPLE AND MANGO PULPS:
EFFECT OF THE MEASURING SYSTEMS
Comportamento Reológico das Polpas de Abacaxi e Manga: Efeito do Sistema de Medidas
DANIELA HELENA PELEGRINE GUIMARÃES & CARLOS ALBERTO GASPARETTO
97
GESTÃO AMBIENTAL: UTILIZAÇÃO DE SISTEMA DE INFORMAÇÃO
GEOGRÁFICA (SIG) NA IMPLANTAÇÃO DE UM ZONEAMENTO
PARA ATIVIDADES INDUSTRIAIS NO MUNICÍPIO DE PIRACICABA
Environmental Management: Use of Geographic Information System (GIS) in the
Implementation of an Industrial District in Piracicaba
JOÃO MORENO & TAISE LITHOLDO
6
Dezembro • 2000
g
y
p
107
DO DEBATE CIENTÍFICO À POLÍTICA PÚBLICA: POLARIZAÇÃO
DAS DISCUSSÕES ACADÊMICAS ENTRE BIÓLOGOS NOS ANOS 70
E INSTRUMENTALIZAÇÃO ECONÔMICA DAS POLÍTICAS AMBIENTAIS
From Scientific Debate to the Public Policy: the Polarisation of Academic Discussions
Among Biologists in the 70’s and the Economic Instrumentation of Environmental Policies
ROSANA ICASSATTI CORAZZA
119
DISSERTAÇÕES
REVISTA DE CIÊNCIA & TECNOLOGIA • 15
7
g
8
y
p
Dezembro • 2000
g
y
p
Product Engineering and
Design Using Global
Teamwork Structures
Aplicação da Estrutura Times de Trabalho
Globais na Engenharia de Produto
PROF. DR.-ING. REINER ANDERL
Fachgebiet Datenverarbeitung in der Konstruktion
Technische Universität Darmstadt
[email protected]
ABSTRACT – Product engineering and design projects organized around the world following the sun, is a vision for the
improvement of the product development process. This method of product development has the advantage that tasks
can be worked on over 24 hours a day. The distribution of product development tasks enables companies to use the best
competence of experts all over the world and to meet the requirements of different markets closer. Therefore product
development processes are not only performed centralised at one location. Rather these development processes will be
performed around the world in order to create high quality products by lower costs and in shorter time. Due to the
increasing globalisation and internationalisation, the distribution of development tasks will become even more important
in the future. On the other hand partners in a distributed product development process have to manage challenges concerning the intensity of collaboration, the flow of information and the engineering and design knowledge as well as cultural differences. For the planning and optimisation of distributed development processes it is neccessary to apply
methods and tools for a virtual product development. The presentation will explain the new methods for cooperative virtual product development and will show how product data technology is being used. Conclusions will be given indicating
future trends in introducing cooperative virtual product development into industry.
Keywords: COOPERATIVE VIRTUAL PRODUCT DEVELOPMENT – DIGITAL MOCK-UP – PRODUCT DATA TECHNOLOGY –
DESIGN AROUND THE WORLD AROUND THE CLOCK.
RESUMO – A engenharia de produto e o desenvolvimento de projetos são hoje realizados mundialmente, o que impõe o
melhoramento do processo de desenvolvimento de produtos. Essa nova metodologia oferece a vantagem dos novos projetos poderem ser trabalhados 24 horas por dia. A distribuição de tarefas no desenvolvimento do produto permite que as
empresas procurem os melhores especialistas do mundo e atendam melhor os requisitos dos diferentes mercados. Portanto, o desenvolvimento de produto na era atual não é mais realizado de maneira centralizada em uma localidade, mas
realizado ao redor do mundo, de maneira a obter produtos de alta qualidade, com baixos custos e em tempos menores.
Devido ao crescimento da globalização e da internacionalização, a distribuição de tarefas se tornará cada vez mais importante. Por outro lado, os parceiros envolvidos no processo de desenvolvimento distribuído do produto necessitam gerenciar as mudanças relativas à intensidade da colaboração, ao fluxo de informações e à tecnologia envolvida na engenharia
e no projeto, assim como às diferenças culturais. Para o planejamento e otimização do processo de desenvolvimento distribuído é necessária a utilização de métodos e ferramentas para o desenvolvimento virtual do produto. Este artigo irá
apresentar os novos métodos para o desenvolvimento cooperativo e virtual do produto e mostrar como a tecnologia de
dados do produto pode ser usada. As conclusões indicarão as futuras tendências na introdução do desenvolvimento cooperativo e virtual de produtos na indústria.
Palavras-chave: DESENVOLVIMENTO VIRTUAL E COOPERATIVO DO PRODUTO – MODELO VIRTUAL DO PRODUTO – TECNOLOGIA DE DADOS DO PRODUTO – DESIGN AROUND THE WORLD AROUND THE CLOCK.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18
9
g
y
p
TRENDS IN PRODUCT
DEVELOPMENT
T
he rapid technological development of powerful information and communication technologies (ICT) has a major impact on enterprises
and on their business processes. Along with globalization and internationalization, information and communication technologies are changing the working
culture, the enterprise organization and the workflow. The main changes are:
• from a paper based working culture to a working
culture based on digital models;
• from 2d presentation based decisions to decisions based on virtual product development and
virtual manufacturing using the integrated product model and;
• from a tayloristic organization to a holistic organization based on product and process data management.
The changes are effecting each and every
enterprise and they are influencing their competitiveness with respect to the development and production of attractive and high quality products, fast
reaction to market requirements and efficient cooperation with partner and supplier enterprises (fig. 1).
To react to these challenges, the analyses of best in
class enterprises and best practice processes has
become an ongoing task.
Traditionally product development and production processes are managed through decisions
drawn on information available on various paper
documents. Such documents are e.g. technical
drawings, bills of materials, purchase orders and
many more. Most of these documents are standardized either based on international, national or company specific standards. These documents have
been defined for various purposes such as being an
information carrier, a communication and an
archiving media as well as a media for knowledge
presentation. Therefore each company has to manage the wide variety of its documents due to fulfill
the requirements of quality management standards
as defined by the ISO-standards 9.000 ff. Furthermore the work-flow organization of companies has
been defined based on the definition of such documents.
The introduction of computer technology in
technical departments of enterprises has been used
first to support the creation of these documents.
Computer technology, however, more and more
has automized the document creation process and
even goes beyond document creation by providing
digital models and in particular product models,
which represent products by a desciption of their
characteristic aspects such as geometry, functionality
and behaviour.
Fig. 1. Cooperative virtual product development.
10
Dezembro • 2000
g
y
p
The application of computer systems in the
product engineering and design process covers a
number of application software systems further on
called CAX-systems, where CA means “computer
aided” and X indicates the application domains such
as design, engineering, planning, manufacturing etc.
The integrated product model is a very important basis and prerequisite for the integration of application software systems. The integrated product
model is designed to represent all product data, which
are being described during the phases of the product
life cycle. An integrated product model is available
today either as the international standard ISO 10.303
“Product Data Representation and Exchange” (also
known as STEP, Standard for the Exchange of Product Model Data) or as IT-vendor specific implementations of integrated application systems.
Product development is based on product
engineering and design. Resulting from the requirements specification the functionality, the physical
and logical behavior of the product is defined. Engineering includes e.g. shape design and dimensioning, material definition and stability-, stress- and
durability analysis as well as the simulation and testing of the product’s physical and logical behavior.
The product development phase is strongly profiting from the application of information technology
(IT). Parameterized 3D-CAD, digital mock-up and
rapid prototyping technologies and more and more
cooperative design systems supporting concurrent
design and simultaneous engineering have strongly
improved the product development process.
An essential approach of the integrated product
model is the availability of product data including
product definition data, product representation data
and presentation data, a basic approach in the ICT(information and communication technologies)
based electronic business (fig. 2).
Product definition data include the set of information about a product covering all its administrative
and organizational data. Product representation data
include the set of information representing product
characteristics in a computer process able data structure. Product presentation data include the set of
information, which visualizes the product representation in graphical or alphanumerical form. The essential advantage is that modifications can be defined
using the product presentation but the changes
directly effect the product representation from where
the updates of the product presentations are generated quickly. This approach also guarantees the consistency of the various presentations. In case of
producing documents as presentations (such as technical drawings, part lists etc.) derived from representations the consistency of the documents due to
changes is automatically provided.
Fig. 2. Product definition data, product representation data and product presentation data.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18
11
g
y
p
The organization and the management methods for product development also change. This
change leads from a tayloristic organization to a
holistic organization based on project management.
This also includes the participation of cooperating
companies.
The holistic approach defines projects, which
integrate experts coming from various departments
and cooperating companies in project teams. This
leads to a matrix organization where engineers are
reporting to the department leader and the project
leader. The projects are defined to optimize a product development process with respect to reach the
optimal product quality, to meet the cost objectives
and to optimize the product development time. The
product development time has become one of the
most important success factors for the competitiveness of a company. It strongly influences the time to
production and the time to market.
Modern management methods for product
development understand engineering and design as
a process, which is part of a product creation
project. Such management methods are concurrent
design and simultaneous engineering. Both methods
are dedicated to meet the objectives of a holistic
understanding of the product creation process and
strongly require approaches, methods and tools for
cooperative virtual product development.
METHODS FOR VIRTUAL
PRODUCT DEVELOPMENT
A number of powerful application software
systems are being used for virtual product development. These application software systems require a
working style based on one or more digital models
ideally based on the integrated product model. That
is why this product development process is called
virtual product development.
In Virtual Product Development, the product
development process uses knowledge based CADapplications in early design phases for preliminary
design and in particular parametric 3D-CAD-systems for shape design. Besides the geometric product representation and the representation of the
product structure, 3D-CAD-systems also cover
product data such as material data, technology data
and so-called features. The information represented
in the integrated product model is used by successive application software systems for further processes (fig. 3).
Fig. 3. Overview of application software systems for Virtual Product Development.
12
Dezembro • 2000
g
y
p
Fig. 4. Process chains in virtual product development.
CAD-systems are often interfaced with Digital
Mock Up systems (DMU-systems). They use the
product structure and an approximation of the geometric representation and assess these data sets by
kinematic data. This enables an analysis of the kinematic behaviour of the product as well as the analysis of assembling and disassembling processes.
Physical product data typically are not represented
in DMU-systems.
Virtual prototypes contain physical product
data with respect to their application specific
domain, such as mechanics, electrics, electronics
and also logics (e.g. represented through software).
Virtual prototypes typically are using finite element
analysis systems (FEA-systems) and multi body simulation systems (MBS-systems). These systems are
used for the analysis and the simulation of the physical product behaviour.
The virtual product is a digital product model
covering the data sets generated through the application of the CAD-system, the DMU-system and
the virtual prototype system. The development of
virtual product analyses and simulation systems are
of interest in research. Such a research initiative has
been established as the iViP project (intelligent virtual product development /KRA-99/), where virtual
reality is used for simulating the products behaviour.
The Virtual Factory uses the principles of the
Virtual Product to analyse and to simulate the manu-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18
facturing, assembling and testing processes. Such
approaches are e.g. developed for the virtual machine
tool /Weck-1999/ and the virtual manufacturing process.
Besides these analysis and simulation tasks
other objectives have to be covered in a product
development process. Therefore so-called process
chains have been established with respect to support
successive application areas (fig. 4):
Such process chains use the product data generated through the engineering, development and
design process and interface successive application
systems. Such systems are technical product documentation (TPD-systems), computer aided planning
and NC-programming (CAP and NC-systems) and
enterprise resource planning (ERP-systems).
As virtual product development is not restricted
to only one discipline such as mechanics, more disciplines have also to be integrated which requires multidisciplinary cooperative product development and
design.
COOPERATION APPROACHES,
METHODS AND TOOLS
As cooperation becomes an issue for an innovative product development and design, cooperation approaches, methods and tools have to be
analyzed. With respect to the approaches, the the-
13
g
y
p
ory of product development and design leads to
two important management concepts for cooperation in the product development and design process. These concepts are concurrent design and
simultaneous engineering. Concurrent design and
simultaneous engineering are understood quite similar in the industrial environment. To clarify the
basic concepts of both methods, however, the two
methods are explained for their own. Typically
combinations of both methods are used in industrial
practice.
Concurrent design is dedicated to structure a
complex design task into subtasks and to execute the
subtasks concurrently by the engineering and design
team. This procedure uses methods of project and
process management such as task decomposition
and description, scheduling, milestone definition and
synchronization (fig. 5).
Other objectives of concurrent design are the
coordination of the collaborating engineers and
designers, the availability of the product and design
specifications for the team members as well as the
availability of the know how of successive processes
to perform design for x (DfX) which means design
for manufacture, assembling, testing etc.
While concurrent design is mainly dedicated
to the engineering and design process, simultaneous
engineering takes into account the whole product
creation process. In particular production planning
and production are part of simultaneous engineering. The approach is not to pass through the product creation process in a sequence of successive
activities but to organize the execution of the various activities simultaneously (fig. 6).
The approach of simultaneous engineering is
to allow the access to stable prerelease engineering
and design results at a point in time when the whole
engineering and design solution is not available, yet.
This approach is very important with respect to a
number of activities in the product creation process
e.g. with respect to develop product design and tool
design simultaneously. The advantage of simultaneous engineering is a much better coordination of
e.g. the development of the product and the necessary tools, which leads to significantly better products, faster time to production and lower costs.
Simultaneous engineering also requires the
methods of project and process management. The
collaboration mostly also involves several companies, which have to be integrated into the simultaneous engineering process. This requires intensive
communication and adequate management of the
collaboration.
Fig. 5. Concurrent design.
14
Dezembro • 2000
g
y
p
Fig. 6. Simultaneous engineering.
Often concurrent design and simultaneous
engineering methods involve engineers and designers who are locally distributed. Therefore methods
and tools of computer supported cooperative work
(CSCW) are needed. These methods and tools
allow the collaboration of engineering and design
teams even if the team members are distributed over
various locations. The CSCW methods allow the
establishment of tele-conferences enabled by computers and use methods that are typically distinguished in aware and unaware applications.
Examples of aware applications are e.g. distributed sketchpads and multimedia conferencing
methods. The distributed viewing software like a
distributed 3d-viewer is an example for such an
unaware CSCW application (fig. 7).
Fig. 7. Cooperative virtual product development using CSCW-tools.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18
15
g
y
p
Fig. 8. One cylinder test engine as approved in the cooperative design project.
In this context branch focused digital communication more and more is established through
so-called virtual private networks. The goal is to
enable new business opportunities and to increase
the competitiveness of participating enterprises.
Such virtual private networks are e.g. the ENX
(European Network Exchange) and the ANX
(Automotive Network Exchange, an US American
automotive initiative). These activities are dedicated to the automotive industry integrating also its
suppliers [ENX-00].
Taking into account concurrent design and
simultaneous engineering as well as distributed collaborative engineering and design it becomes obvious that the management of engineering and design
projects and processes is a key success factor for the
company’s competitiveness. Therefore application
software systems for the support of the management of engineering and design processes are of crucial importance. Such application software systems
are called product data management (PDM) systems and a major strategic task for companies is to
establish an efficient product data management.
A CASE STUDY
A case study, sponsored by BMW AG, was
performed to develop an innovative concept for a
one-cylinder test engine using cooperative development and design methods within team members
from the USA and Germany. In this case study the
potential of a 24 hours development has been anal-
16
ysed with respect to a reduction of the development
time, a reduction of development costs and an
improvement of the development and design quality. The case study was performed with team members coming from BMW AG (Munich), Technical
University Munich, Clemson University (USA) and
Technical University Darmstadt.
The team members worked at each location.
The task was to develop an efficient concept for the
one cylinder engine including a variable stroke.
The task was analysed and divided into several but well defined subtasks, which have been
worked on partially in parallel but mainly sequentially. The intermediate results have been exchanged
daily at noon between the team members in Germany and at 5 p.m. (local central European time)
between the team members in the USA and Germany using tele-conferencing techniques. 5 p.m.
central European time is equivalent to 9 p.m. US
east coast time. So the team members from Clemson used the results from the German teams and
continued the development and design work. At 9
p.m. central European time (1 p.m. US east coast
time) another tele-conference took place where the
daily milestone achievement was analysed and further decisions were drawn. A critical success factor
for a further proceeding was at any time the documentation of the results achieved. This documentation had to be available in digital form because
digital communication via the Internet and access to
results at any time has been of crucial importance.
Dezembro • 2000
g
y
p
At the beginning of the case study nobody
expected that the result of this 3-months project
would lead to more than a conceptual result. The
results and progress, however, were so convincing
that a complete 3D geometric model was created
(fig. 8) and a first prototype was built. These convincing results will further be used in successive
projects.
CONCLUSIONS
Cooperative virtual product development and
design is an increasing challenge for industrial companies. Due to the globalisation of markets and the
internationalisation of enterprises cooperative vir-
tual product design will make an intensive use of the
internet and intranet communication technologies
and will require more powerful cooperative development and design tools from the information technology industry. A strongly upcoming issue,
however, is the provision of secure and safe communication techniques. Development and design
results often contain new and innovative product
ideas that must be kept secretly until the property
rights or even patents are guaranteed for the enterprise. Therefore cryptographically coding and
decoding methods as well as authentification methods are of crucial importance for cooperative virtual
product design.
REFERENCES
[ENX-00] N.N. European Network Exchange, <www.enx.de>.
[ANX-00] N.N. Automotive Network Exchange, <www.anx.com>.
[GEN-99] SAUER, A. GEN –The Vision of 1995 heads towards Reality; Proceedings: Concurrent Multidisciplinary Engineering (CME). Bremen, 1999.
[KRA-99] KRAUSE, F.L.; TANG, T. & AHLE, U. Integrated Product Creation; Project Description IPK Fraunhofer Institute
Production Systems and Design Technology, 1999.
[ALTG-99], R.; LINDEMANN, U.; THOMSON, B.; GAUL, H.D.; GIERHARDT, H. & OTT, T. Investigation of Distributed
Product Development Processes. In: Proceedings of the 12th International Conference on Engineering Design,
München, 24.-26.08.1999/ Udo Lindemann, Herbert Birkhofer, Harald Meerkamm, Sándor Vanja (Hrsg.).
München: TU München, 1999, S. 3/1675-3/1678.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18
17
g
18
y
p
Dezembro • 2000
g
y
p
Assessing the Alignment
of Competitive Priorities
and Action Plans Through
*
the use of QFD
Alinhamento entre Prioridades Competitivas e
Planos de Ação Através do Uso do QFD
PAULO A. CAUCHICK MIGUEL
Universidade Metodista de Piracicaba
[email protected]
ROSÂNGELA M. VANALLE
Universidade Metodista de Piracicaba
[email protected]
ALCEU G. ALVES FILHO
Universidade Federal de São Carlos
[email protected]
ABSTRACT – This paper deals with the issue of strategic planning in which QFD is used to assessing the alignment
between manufacturing priorities and action plans through an exploratory case study. On the basis of manufacturing
competitive priorities obtained in a previous study, a quality matrix is applied to relate competitive priorities and action
plans. The case study is performed in an automotive industry supplier which produces brake systems. The results of the
QFD matrix is used to discuss the competitive priorities and verify the consistency with their action plans.
Keywords: COMPETITIVE PRIORITIES – QFD – QUALITY FUNCTION DEPLOYMENT – STRATEGIC PLANNING.
Resumo – Esse trabalho aborda o tema do planejamento estratégico no qual o QFD é usado para verificar o alinhamento
entre as prioridades de manufatura e planos de ação, através de um estudo de caso exploratório. Com base nas prioridades competitivas de manufatura, obtidas através de um estudo anterior, uma matriz da qualidade é elaborada para relacionar as prioridades competitivas com os planos de ação. O estudo de caso é realizado em um fornecedor da indústria
automotiva que produz sistemas de freio. O resultado da matriz de QFD é usado para discutir as prioridades competitivas
e verificar a consistência com os respectivos planos de ação.
Palavras-chave: PRIORIDADES COMPETITIVAS – QFD – DESDOBRAMENTO DA FUNÇÃO QUALIDADE – PLANEJAMENTO
ESTRATÉGICO.
*
Most part of the contents of this work was presented at the 11th Symposium on Quality Function Deployment, held in Novi, MI, USA, 12-18
June, 1999.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
19
g
y
p
INTRODUCTION
T
he process of formulating Manufacturing
Strategies has long been recognized as constituting an important gap in this area’s theoretical development. Leong et al. (1990), for instance,
pointed out the need for empirical studies aimed
at clarifying how organizations prepare their manufacturing strategies. Mills et al. (1995) argued
that perfecting processes for the development and
implementation of strategies is still a significant challenge for researchers and professionals.
Two principal factors account for the lack of
more systematic studies (both theoretical and
empirical) on Manufacturing Strategies formulation
processes: the as yet restricted dissemination of the
concepts concerning this area and, as a result, the
difficulties involved in finding organizations that
consciously and implicitly attempt to implement
Manufacturing Strategies. It must be admitted that
other approaches, such as Total Quality Management (TQM) and Computer Integrated Manufacturing (CIM), or even Lean Manufacturing, albeit a
part of manufacturing strategies, have been implemented more frequently and systematically by companies.
Systematization of formulation processes,
therefore, also requires a number of studies over a
long period of time, since there are numerous and
complex factors that condition and determine the
processes (both formal and informal) of formulation of strategies in companies, as well as the implementation of those strategies. These difficulties,
however, have not prevented the proposal of conceptual structures and methods for the formulation
of manufacturing strategies by several authors,
while continued efforts are directed at the study of
the “practice” of strategic manufacturing planning.
The basic objective of this work is to define a procedure to relate manufacturing strategies and programs (action plans) to achieve them. Moreover,
these programs should be prioritized. In order to
complete these tasks, QFD methodology is applied.
Although QFD has been applied for mainly product
development, it is applied here for analysing strategies and studying the QFD application as a potential
tool applied to strategic planning formulation. The
process were conducted based on a previous study,
20
through collected data of two autoparts companies.
The main methods and conceptual structures proposed for manufacturing strategy processes in the
literature are briefly reviewed as well, followed by
the QFD proposed application.
APPROACHES TO
MANUFACTURING
STRATEGY FORMULATION
There appears to be a consensus in the literature about the importance of formulation and
implementation of Manufacturing Strategies for
companies, which aim to base corporate strategy on
the search for competitive advantages. Most of the
literature has focused on the “content” of manufacturing strategies, i.e. competitive strategies, areas of
decision, and programs/action plans for development of competitive strategies in manufacturing.
On the other hand, the “process” of formulating
manufacturing strategies has received less attention
and still merits deeper study. Some of the most significant contributions on this process are highlighted below.
Mills et al. (1995) seek to enumerate and discuss the different factors that may influence the process of Manufacturing Strategy formulation and,
hence, the project of the formulation process, based
on a conceptual structure where this process is contingent on the model of the Manufacturing Strategy
“content” adopted. In other words, how a company
envisions its competitive strategies and the manufacturing decision areas, the qualities required to
achieve the desired results of the process, the company’s internal and external context. These two latter aspects are based on the strategy process modes
(entrepreneurial, planning, ideological, adaptive, or
grass roots – generative), cultural factors and competitive forces that are present in the company’s
market structure.
Four aspects listed by Platts (1994) for the
process of manufacturing strategy formulation are
part of this broader structure: point of entry (what
leads a company to implement the process of preparing its manufacturing strategies?), participation
(who participates in the process?), procedure (auditing, action plans and implementation), and the
project and process management (how the imple-
Dezembro • 2000
g
y
p
mentation project and processes should be managed). Of these aspects, the present study covers
manufacturing strategy procedure. A brief description of the principal methods listed in the literature
for manufacturing strategy formulation is given
below.
The Hill Approach
The Hill approach (Hill, 1993) consists of a
five-step procedure. The first step involves understanding the organization’s long-term corporate
goals in light of the future manufacturing strategy
contribution toward those goals. Each company
goal is different in nature and emphasis, reflecting
the character of the economy, markets, opportunities, and the preferences of those involved.
The second step consists of understanding
how the organization’s marketing strategy has been
developed to attain corporate goals, identifying the
product and service markets that must be satisfied
by the manufacturing strategy. Additionally, characteristics of those products and services, such as the
extent, mix and volume that manufacturing are
required to supply, should be identified.
The third step is to evaluate how different
products will “qualify” in their respective markets
and how they will be order winners in relation to
their competitors. The task of a manufacturing
strategy is to provide the criteria needed to qualify a
company’s products to get orders from the market
more and better than the functions of its competitors’ manufacturing does. To qualify, a company
must be as good as its competitors. To get orders, it
must be better than its competitors. Qualifying is no
less important than getting orders – they are two
different things. Both are essential if the company
wishes to maintain its market position and grow.
The fourth step establishes the most suitable
process to manufacture these products (choice of
process). Its objective is to define a set of structural
manufacturing characteristics that are mutually consistent and suited to how the company wishes to
compete. In other words, manufacturing must
chose from a number of process alternatives to
manufacture its products.
The fifth step, which consists of non-process
manufacturing characteristics, must provide the
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
infrastructure needed to support the manufacture of
these products. It covers the procedures, systems,
controls, work structure, organizational structure,
and others involved in non-process aspects of manufacturing.
The objective of using this structure is to produce a Manufacturing Strategy for a business (steps
4 and 5). In every instance, this includes a review of
both existing and new products. Moreover, this
review is based on current and future market expectations, since manufacturing must provide support
for the product (i.e. aftersale services) throughout its
lifecycle and not just part of it.
This methodology is not restricted to a simple
sequential progression of step 1 through 5,
although, during the formulation process, the
emphasis does move in that direction. Conversely,
Hill (1993) sees the process as interactive, while
managers alternate between an understanding of
the organization’s long-term strategic needs and the
specific development of resources required to support the strategy. In this interactive process, identification of the competitive factors of step 3 is seen as
critical. In this step any divergence between what
the organizational strategy demands and what manufacturing can supply comes to light.
The Platts-Gregory Approach
The Platts-Gregory approach (Voss, 1992)
contains a theoretical contribution for a better
understanding of the elements of a process of strategy formulation, generating a prescriptive model for
manufacturing strategy. An analytical and rational
process structure is adopted that provides an auditing methodology to enable companies to develop
their manufacturing strategies.
The auditing procedure aims, through a logical procedure, to lead the user to identify the objectives of manufacturing, its current performance
levels, and the changes that will be required. The
procedure is divided into three steps:
The step 1 develops an understanding of the
organization’s market position. This is done by evaluating the company opportunities in and threats
from its competitive environment. Specifically, it
seeks to identify market demand factors (characteristics, quality, delivery, flexibility and price) and
21
g
y
p
compare them with the level of performance
achieved (how manufacturing responds to these factors to meet market demands).
The objective of the second step is to evaluate
manufacturing capabilities (facilities, capacity, scope
of the process, processes, human resources, quality
and control policies, suppliers and new products).
Its purpose is to identify current manufacturing
practices and evaluate the extent to which these
practices help the company achieve the kind of performance that has been indicated in step 1 as being
important.
Step 3 deals with the development of new
manufacturing strategies. It involves reevaluation of
the different options available to the organization
and selection of those that best meet the criteria
identified in the two previous steps.
The audit can be done using worksheets for
each stage of the process (such as the need to review
manufacturing strategy, selection of product families
that are the most significant ones for the business,
identification of important competitive criteria,
identification of areas where fragility contributes to
unsatisfactory performance or vulnerability, identification of opportunities and threats, developing
alternatives to form the basis of a new strategy). The
worksheets also permit tracing strategic choices and
action plans; the logic and data of the analytical part
of the process are stored and can be reviewed periodically to check if the strategy basis is still adequate.
The Slack Approach
Slack (1991) states that there are several ways
of grouping together the stages of strategic formulation and that the procedures tend to follow a like
pattern and to share a common philosophy, known
as the gap methodology, which consists of four
steps.
The first step consists of establishing manufacturing objectives. The starting point for any functional strategy is to examine its role in improving
competitiveness as a whole. The competitive strategy must be translated into manufacturing objectives, which should result in a clear set of objectives
for the competitive performance of each product or
group of products, and a vision of the future that
distinguishes between the manufacturing function’s
22
capacities that will need to be developed and those
that could require development.
The objectives should be determined by consumer needs. The customers define what is important for manufacturing. Their needs must be
translated by manufacturing strategy directly to the
shop floor level. Customer priorities should be manufacturing priorities, and customer concerns should
be manufacturing preoccupation. This means evaluating the relative importance of each of the objectives of manufacturing performance. Some type of
scale of relative importance must be established to
aid this process. This is done based on the customer
point of view, where the relative importance of each
performance objective can be indicated for each
product or group of products. The performance
objectives can be classified as “order winners”,
“qualifiers”, and “less important”. An operation will
normally require use of a more discriminating scale
to judge the relative importance of the competitive
sectors, i.e. it will have to divide each category into
three, representing strong, average and weak positions.
The second step should evaluate the real performance achieved by the manufacturing function.
Within a strategic context, performance measurements (price, quality, flexibility, reliability of delivery,
time) only take on any degree of significance when
they are compared against competitor performance.
Each performance objective must be placed in
a relative position on some kind of scale. This scale
must indicate, for each performance objective,
whether the performance is better, the same, or
worse than that of its major competitors. However,
again, more rather than less discrimination is often
useful. Slack (1991) proposes a nine-point scale.
The third step consists of prioritization
through the importance/performance gap. It is the
gap between the classification of the importance of
each performance objective and the classification of
the performance of that objective that is the guide to
the establishment of priorities. The priority for
improvement that should be given to each competitive factor can be evaluated based on its importance
and its performance. This can be done through an
importance-performance matrix that, as its name
denotes, positions each competitive factor accord-
Dezembro • 2000
g
y
p
ing to its scores or classifications within these criteria. The matrix considers the two scales that should
be developed in steps 1 and 2. The “importance”
scale indicates how customers see the relative
importance of each performance objective, while
the “performance” scale classifies each performance
objective against the levels achieved by the competition.
It must be kept in mind, however, that no
scale is static – both scales classify the positions in
relation to a dynamic external standard. Customer
preferences change as the market develops and the
economic environment is altered. Hence, in the
same way, it is highly improbable that the competitors remain immobile.
The importance/performance matrix is
divided into four zones. These zones locate the performance of each competitive priority. By means of
this location, it is possible to make a comparison
between the importance and the performance of the
objectives. This serves as an important guide to indicate which, among the several aspects of performance, requires improvement and how urgent such
improvement is. It does not, however, indicate how
performance should be improved.
The fourth step consists of the development
of action plans. The entire operational staff should
be involved in and responsible for the creation of a
set of imaginative and practical action plans. A useful approach is to examine the influence that each
area of activity has on each performance objective.
Starting with the highest priority of the performance objectives, this means asking what contributions toward improvement could derive from
changes in operation process technology, in the
operation’s organization, in the development of its
human resources and in its supply chain, in terms of
both information and material flow.
Slack (1991) also states that often lack of success comes in the state of implementation, which is
the most difficult one. A schedule for implementation must be established, as well as a list of general
issues, the solutions to which will be used to establish the basic plan for implementation. The issues to
be considered are: “when is the best moment to
start?”, “where, within the organization, could
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
improvement begin?”, “at what speed should the
program be developed?”, and “how should the process of improvement as a whole be coordinated?”
The procedures for formulation described
herein are, generally speaking, representative of
those available in the literature, although they
present different emphases. One example of this is
that: while the Hill (1993) methodology emphasizes the development of a manufacturing strategy
based on the point of view of competitive consumer
factors, Platts-Gregory (Voss, 1992) makes a comparison between what the market wants and the
performance of manufacturing. Hence, it is similar
to the importance/performance matrix developed
by Slack (1991).
QFD APPLICATION IN
STRATEGIC PLANNING –
A BRIEF REVIEW
QFD has been applied in a wide range of subjects; not only for developing products and services
but also for defining organizational structures (e.g.
see Jacobs & Dygert, 1997; and Hales, 1998). QFD
can also be used in strategic planning, although
there are differences when applying it to developing
manufacturing strategy and resolving manufacturing strategic issues. Table 1 highlights these differences.
Further discussion regarding table 1 can be
found in Crowe & Cheng (1996). However, it is
worth mentioning that the authors argue that in the
product design process, customers’ requirements
and preferences are somewhat more static in nature,
whereas in competitive business environment, the
competitive priorities are more dynamic. In some
cases such an affirmation is not entirely true, i.e.
there are industrial sectors where the product design
process must be very dynamic such as in the computing and software industries.
Figure 1 illustrates the three phases of strategic planning through the use of QFD, as suggested
by Crowe & Cheng (1996). These phases are: functional strategies, manufacturing priorities, action
plans, and detailed tasks.
23
g
y
p
Tab. 1. Fundamental differences between product design and strategic planning (Crowe & Cheng, 1996).
PRODUCT DESIGN
STRATEGIC PLANNING
Input data
Number of translation phases
Information nature
Translation data
Evaluation scale
Team members
Output
Project risk
Customers' requirements
Four clearly defined phases
Static
Easy to define and quantify
Specific target values for each design attribute
Implementation engineers
Corporate and business strategy
Multiple phases
Dynamic
Difficult to define and qualify
Strategic objectives and goals
Top management, functional level managers and implementation engineers
Specific process for manufacturing the
Manufacturing initiatives, tactical policies and detail tasks
product
Generally lower
Generally higher
Fig. 1. Manufacturing strategic planning (adapted from Crowe & Cheng, 1996).
As discussed by Crowe & Cheng (1996), in
the first stage all functional level strategies are realised and they become the whats for the next stage.
In the second stage, all parallel functional level strategies are their potential customers. For example,
marketing requirements can be an input to the QFD
matrix and the output would be a set of manufacturing priorities to fulfill the requirements. In the
third stage, broad manufacturing priorities are
translated into detailed action plans for implementation. The last stage is identifying specific tasks to realise the plans. As can be seen in figure 1, the
structure of the house of quality is also different
from that used in product design.
24
Other authors mention that QFD has been
successfully applied in strategic planning. It can be
cited the work of Maddux et al. (1991), Lyman et
al. (1994), Lu & Kuei (1995), and Lowe & Ridgway (1997). Next section presents an exercise of a
QFD application to relate competitive priorities and
action plans.
QFD APPLICATION IN
STRATEGIC PLANNING –
A CASE STUDY
It is relatively well-known that organisations
must define their corporate strategies in order to be
competitive in the current fierce economic environment. Some authors have stated that there is a gap
Dezembro • 2000
g
y
p
between corporate strategy and manufacturing. To
extent this, many companies do not have explicit
manufacturing strategies even though the importance of such strategies is appreciated. To extend
this yet further, there should be an effective way to
deploy their corporate strategies into manufacturing
strategies, and the manufacturing strategies into
programmes. Many approaches have been proposed for manufacturing strategic planning, but few
systematic methodologies have been developed.
Quality Function Deployment (QFD) can be used
as a systematic tool to apply for both strategic formulation and to deploy them into manufacturing
strategies. This section examines an exploratory
study in which QFD is used to strategic planning
formulation. A QFD matrix is used to relate the
manufacturing strategies and programmes to
achieve them.
As mentioned earlier, companies do not have
a precise definition of their manufacturing strategies
even though the importance of such strategies is recognised. The main objective of this study was to
develop the application of QFD methodology in
order to relate the company stated manufacturing
strategies with its programs (action plans). Subsequent aim was to compare the achieved results to a
previous work carried out by Vanalle & Alves Filho
(1997). This work (Vanalle & Alves Filho, 1997)
also served as source of data from the companies.
The process resulted in the matrix of quality presented later. The matrix was used to quantify the
relative importance of company programs the manufacturing priorities fulfill.
The study has been conducted with two companies named here “A” and “B”. Company “A” is the
one where the analysis were performed while company “B” is the competitor used for comparative
purpose. Company “A” supplies brake systems for
Chrysler (export), Ford and General Motors (for
both export and local market), and other automotive manufacturers (e.g. VW). Approximately half
of the company’s turnover comes from contracts
with the US big three companies. The company has
two plants which produces brake discs, callipers,
servo cylinders, wheel and cylinders, brake assembly, and air compressors for heavy vehicles (buses
and lorries), and ABS brake systems. Besides the
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
Brazilian plants there are one in the USA (the company is there since 1981 but the plant is more
recent), and another one in Argentina (since 1991).
Both companies are within the automotive sector;
they supply to the OEM in Brazil and abroad, e.g.
General Motors, Volkswagen, Fiat, Scania, Volvo,
Ford (USA), Chrysler, Toyota, and others. They also
supplies to aftermarket. Table 2 shows information
about the two companies.
Tab. 2. Profile of the companies.
COMPANY
"A" (STUDIED
COMPANY)
Annual Turnover
(million US$)
Approximate Number
of Employees
Year of foundation
Market share
Export Sales
Domestic Sales
COMPANY "B"
(COMPETITOR)
221
100
2000
800
1945
35%
35%
65%
1950
60%
10%
90%
Traditionally, QFD has been applied to product development by translating customer requirements to critical design characteristics, component
characteristics, process control characteristics, and
operational instruction (considering here as the
four-stage approach presented by Hauser & Clausing 1988). However, when QFD is used in strategic
planning, there is a different perception of these
concepts. Broad manufacturing priorities should be
translated into programs or action plans for implementation. This is the third stage identified by
Crowe & Cheng (1996) as four stages of QFD
exercise for manufacturing strategic planning.
Descriptors collected from company “A” for analyzing manufacturing priorities criteria were:
• low price;
• reactive to market (mix);
• reactive to customer orders;
• fast design changes;
• fast product distribution;
• reliable product distribution;
• production technology updating;
• customer service department;
• consistent quality (conformity);
• high quality products.
They can be grouped into the broad manufacturing priorities defined by Hayes & Wheelwright
25
g
y
p
(1984): cost, services, flexibility, and quality, becoming the first level in the quality table (see table 3).
The company representatives also weighted the
manufacturing priorities criteria using a rate of
importance, as can also be seen in table 3. Note that
the criteria were ranked from cost (5) to quality (2).
This rank implies that cost are the most important
priority and quality the least. The company representative, who has a good knowledge and understanding of the process, provided the rates. Is must
be mentioned that quality is the least important priority since company “A” has already achieved a reasonably high level quality either in its products or in
its quality system. For instance, the commitment of
company “A” with quality system certification can be
traced back to 1986, when it received Ford Q1 certificate. The company initiated the ISO 9000 certification in the beginning of 90’s and the first plant was
certified in October 1992. For QS 9000 certification,
the previous ISO 9000 experience allowed a more
smoothly process since the company has already had
its own approach to QS 9000 process of certification
(Cauchick Miguel, 1998a, 1998b).
Tab. 3. Quality table for manufacturing priorities.
LEVEL 1
LEVEL 2
IMPORTANCE
Cost
Flexibility
Services
Quality
Low price
Reactive to market (mix)
Reactive to customer orders
Fast design changes
Fast product distribution
Good customer relation
Reliable product distribution
Product technology updating
Manufacturing technology updating
Customer service department
Consistent quality (conformity)
High quality products
5
5
4
3
3
3
3
3
3
2
2
2
The next step, applying the conventional
approach, the manufacturing priorities would have
to be translated into detailed action plans for implementation. However, this was not the case in this
study, since these plans were available, i.e. the studied company has already implemented a number of
action plans (programs). Generally speaking, companies do not have clearly stated what their manufacturing priorities are, so that they usually implement a
26
number of action plans in various company functional areas. This study intends to check the consistency of the implemented programs (action plans)
regarding the manufacturing priorities in addition
to understanding the interaction between programs
and manufacturing priorities. Some of the action
plans took in place were:
• labour training;
• work automation;
• flexible manufacturing systems;
• computerized information system for manufacturing;
• production and inventory control;
• performance measuring system;
• statistical process control;
• quality control circles;
• improved capacity of new products introduction.
Having both information, i.e. the set of the
manufacturing priorities and the group of programs, the matrix of quality can be constructed.
This matrix is shown in figure 2. The relation
between the manufacturing priorities and programs
were identified. They were ranked as strong (9),
moderate (3) and weak (1). Relationship which do
not apply were left in blank.
With all the ‘whats’ and ‘hows’ defined and
recorded in the matrix, it was attempted to determine other factors related to manufacturing priorities: the currently company position regarding the
priorities, the competitor position, and the quality
plan. After considering the most important sales
point, the rate of improvement was calculated as
well as the absolute and relative weight. It is important mentioning that for the sake of simplicity, the
roof of the quality matrix was omitted in this study.
In the bottom part of the quality matrix,
benchmarking data were used as well. The comparison was made based on data of a direct competitor,
named here company “B” (see table 2).
The complete matrix of quality (fig. 2) reveals
which programs are the most important, i.e. the
design issues related to manufacturing priorities. In
redesign the programs, the focus should be on these
issues. In addition, detailed tasks related to these
issues should also be contemplated. Considerations
may also be given to other factors which are directly
related.
Dezembro • 2000
g
y
p
Fig. 2. Relating competitive priorities and action plans through a quality matrix.
As mentioned before, some of the company
data was obtained from a previous empirical study
conducted by Vanalle & Alves Filho (1997). They
work on defining the manufacturing priorities and
relate them to the action plans. Therefore it is useful
and relevant to compare the results when using a
speculative study and a more precise one through
the application of QFD.
DISCUSSION
The application discussed here demonstrates
the power of QFD as a systematic and structured
framework when formulating manufacturing priorities and determining their relation with programs.
Comparing the obtained results with the empirical
study carried out by Vanalle & Alves Filho (1997), it
can be seen common points found out on both
study. The manufacturing priorities are equal and in
the same order. Actually, this is not a significant
achievement since part of the data were common.
However, due to the fact that raw data were used,
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
there are differences when conducting the study
using QFD, i.e. the investigation framework is distinct when considering the data as the voice of customer collection.
The studied company considers ‘quality’ as
the last important priority. This can be explained
due to the fact that this company has already
achieved high quality standards for its products and
services. For example, the company commitment to
quality can be traced back to 1986, when it received
Ford Q1 certificate. The company initiated the ISO
9000 certification in the beginning of 90’s and was
certified in October 1992, which is a quite good
achievement since there were only 96 certified companies in Brazil. Additionally, it was the fourth company to comply with QS 9000 in Latin America (in
March 1998). The previous quality experience
allowed a more smoothly process towards QS 9000
certification.
The sequence of company priorities (cost,
flexibility, services, and quality) is in agreement with
27
g
y
p
the cone sand model (see figure 3), proposed by Ferdows & De Meyer (1990). The idea is that the
company should build the priorities using the
sequence suggested in figure 3, i.e. quality, services,
flexibility, and finally cost. Although there are controversial discussion regarding this model (see e.g.
Wassenhove & Corbett, 1993; and Alves Filho et
al., 1995), the studied company structure is in
accordance to some extent to part of the literature
of strategic planning.
Fig. 3. Cone sand model of priorities (Ferdows & De Meyer,
1990).
C
F
S
Q
C - Cost
F - Flexibility
S - Service
Q - Quality
When comparing the performance of company “A” with the competitor, company “B”, the
QFD results are also consistent with the reality of
the these companies in the market. It is known by
the authors, based on the literature (Vanalle & Alves
Filho, 1997), that the performance of the studied
company is similar to the competitor in costs but
company “A” performance is much better in terms
of quality. The performance in quality is reflected by
the sequence of manufacturing priorities, i.e. for
company “A” quality is the last priority, while for
company “B” it is the first one. Some performance
indicators also point out this statement, as shown in
table 4.
Regarding programs, they can be evaluated
and prioritized according to the results from the
matrix of quality. The programs with higher importance, i.e. absolute and relative weight, were: ‘performance measuring system’, ‘manufacturing
computing information’, and ‘production and
inventory control’. Once again, when comparing
the results with the empirical study, QFD application is effective. For instance, ‘performance measuring system’, which consist of performance measures
for cost, quality and productivity, are those provided
by the company as a way to evaluate and benchmark its performance. In the priority ‘cost’, which
has a high level of importance, the company performance rating is not good (1, in a scale from 1 to 5,
being 5 the most highest rate). Moreover, the com-
28
petitor rate is better than the studied company, in
contrast with the reality in the market (similar performance as stated earlier in this text). However, it is
clear the company concern to measuring cost factors through indicators such as:
• R&D investment as a percentage of turnover;
• investment in equipment as a percentage of turnover;
• cost of the rejected part over total manufacturing part cost;
• cost of the reworded part over total manufacturing part cost.
The program ‘production and inventory control’ is also related to ‘cost’ since an effective and
efficient stock control represents low inventory and,
as a consequence, lower costs. The program ‘manufacturing computing information’ is aligned with
the second most important priority: ‘flexibility’.
Data information available on line and in real time
usually represent flexibility in terms of reaction to
customer orders (volume) and, in a certain way,
reaction to market (mix).
Tab. 4. Quality performance indicators.
COMPANY "A"
Use of SPC in the shop
98
floor (%)
Scrap (%)
0,8
Supplier qualification (%)
20
Training (hours/
more than 200
employee/year)
Quality System
ISO 9001, QS 9000,
Certification
EAQF, VDA 6
Quality Costs System
Extensive
COMPANY "B"
40
1,5
0
between 100
and 200
ISO 9001, QS
9000
Basic
CONCLUDING REMARKS
Undoubtedly, QFD is a powerful methodology to help with complex decisions. It can be customised to the particulars of problems. This is
especially true when dealing with information system, e.g. strategic planning. QFD can lead the users
through complex decisions, providing a structured
view of fuzzy issues. Of the many new tools currently available to support decision-making process,
QFD may offer many advantages over them.
Based on the results of the QFD exercise, this
exploratory study can be regarded as successful in
Dezembro • 2000
g
y
p
order to analyse the potentialities of QFD on the
subject of strategic planning. One of the better
advantages is to prioritise the action plans (programs). This is very important for developing countries due to the rather constant economic changes.
However, this exploratory study was not specifically
designed for the purpose of QFD implementation
so that some difficulties have arisen. Some of the dif-
ficulties were regarded to the interpretation of the
voice of customer, usage of alternative mechanisms
to extract customer data (e.g. interviews), and the
necessary top management company commitment
when applying QFD. Further work will concentrate
in a complete QFD application in a cosmetic division of a large corporation in order to developing its
strategic planning.
REFERENCES
ALVES FILHO, A.G; VANALLE, R.M. & PIRES, S.R.I. Sobre as Prioridades de Manufatura: compatibilidade e seqüência para
implantação. Revista Gestão & Produção, 2 (2): 173-180, 1995.
CAUCHICK MIGUEL, P.A. A Case Study on QS 9000 Certification in a Brazilian Company. Proceedings of CSME - Canadian
Society for Mechanical Engineering Forum, pp. 185-192, Toronto, 1998a.
_________________. Brazilian Quality in a Nutshell. Quality World, 24 (11): 38-44, 1998b.
CROWE, T.J. & CHENG, C. Using Quality Function Deployment in Manufacturing Strategic Planning. International Journal
of Operations & Production Management, 6 (4): 35-48, 1996.
FERDOWS, K. & DE MEYER, A. Lasting Improvements in Manufacturing Performance: In Search of a New Theory. Journal
of Operations Management, 9 (2), 1990.
HALES, R.F. Quality Function Deployment as a Decision Making Tool. <http://www.proactdev.compages/decide.htm>, 1st.
December, 1998.
HAUSER, J.R. & CLAUSING, D. The House of Quality. Harvard Business Review, (3): 63-73, May-June/1988.
JACOBS, R.A. & DYGERT, C.B. A Non-traditional Use of Quality Function Deployment. Transactions from the Ninth Symposium on Quality Function Deployment, pp. 105-118, Novi, 1997.
HAYES, R.H. & WHEELWRIGHT, S.C. Restoring our Competitive Edge - Competing through Manufacturing. New York:
John Willey & Sons Inc., 1984.
HILL, T.J. Manufacturing Strategy: Text and Cases. New York: Irwin, 1993.
LEONG, G.K. et al. Research in the Process and Content of Manufacturing Strategy. OMEGA, International Journal of MGMT
Sci, 18 (2), 1990.
LU, M.H. & KUEI, C. Strategic Marketing Planning: A Quality Function Deployment Approach. International Journal of Quality and Reliability Management, 12 (6): 85-96, 1995.
LYMAN, D.; BUESINGER, R.F. & KEATING, J.P. QFD in Strategic Planning. Quality Digest, pp. 45-52, May issue, 1994.
MADDUX, G.A., AMOS, R.W. & WYSKIDA, A.R. Organizations Can Apply Quality Function Deployment as Strategic Planning Tool. Industrial Engineering, pp. 33-37, September issue, 1991.
MILLS, J.; PLATTS, K. & GREGORY, M. A Framework for the Design of Manufacturing Strategy Process: A Contingency
Approach. Int. Journal of Operations & Production Management, 15 (4), 1995.
PLATTS, K.W. Characteristics of Methodologies for Manufacturing Strategy Formulation. Computer Integrated Manufacturing
Systems, 7 (2), 1992.
PLATTS, K.W. & GREGORY, M.J. A Manufacturing Audit Approach to Strategy Formulation. In: VOSS, C.A., Manufacturing
Strategy - Process and Content. London: Chappman & Hall, 1992.
SLACK, N. Manufacturing Advantage: Achieving Competitive Manufacturing Operations. London: Mercyr, 1991.
VANALLE, R.M. & ALVES FILHO, A.G. Manufacturing Strategy: A Case Study on the Brazilian Automotive Suppliers. Proceedings of San Diego Conference, San Diego, 1997.
WASSENHOVE, L.N. & CORBETT, C.J. Trade-offs? What Trade-offs? Competence and Competitiveness in Manufacturing
Strategy, California Management Review, Summer, 1993.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30
29
g
30
y
p
Dezembro • 2000
g
y
p
Estudo e Escolha de
Metodologia para o
Projeto Conceitual
Research and Choice of a Methology for the Conceptual Design
FRANCISCO JOSÉ DE ALMEIDA
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este trabalho apresenta a fase de Projeto Conceitual, situada no processo de projeto, e a caracteriza, apontando para a necessidade de sistematizar os procedimentos envolvidos em tal fase inicial do projeto. Apresenta, na
seqüência, um comparativo entre várias metodologias de projeto conceitual existentes, discorrendo sobre as características de cada uma delas, suas vantagens e desvantagens relativas. Realça, entre elas, as voltadas à informatização ou passíveis de serem informatizadas, visando à sistematização necessária e a automação da fase de Projeto Conceitual.
Palavras-chave: METODOLOGIA DE PROJETO CONCEITUAL – SISTEMATIZAÇÃO DO PROJETO CONCEITUAL – MÉTODO DE
PROJETO SISTEMÁTICO.
ABSTRACT – This work presents and characterizes the Conceptual Design phase, within the design process, pointing to
the necessity of to become systematic the envolved procedures of this initial phase of the design process. It presents too
the various conceptual design methodologies proposed, explaing the characteristics of each one, its related advantages
and disadvantages. This work rises up those methodologies that can be automatizated into a computational system, aiming to the necessary systemation and Conceptual Design phase automation.
Keywords: CONCEPTUAL DESIGN METHODOLOGY – DESIGN THEORY AND METHODOLOGY – SYSTEMATIC DESIGN
METHOD.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 31-42
31
g
y
p
INTRODUÇÃO
O
Projeto Conceitual é a fase inicial do processo
de projeto de um produto e, como será explicitado a seguir, exige a aplicação da inteligência. Essa fase do projeto deve ser sistematizada,
visando-se à aplicação do computador, para que seja
possibilitada sua integração com as demais fases do
projeto do produto, bem como a integração do processo global de projeto com as demais fases de produção de um produto, o planejamento de fabricação
e a fabricação propriamente dita.
Esta integração de todas as fases envolvidas na
produção é decididamente necessária, pois no
mundo atual, altamente competitivo, o time to
market deve ser reduzido o máximo possível, para
que as empresas mantenham a sua competitividade
e sua sobrevida no mercado. Com a integração de
todas as fases de produção de um produto – projeto,
planejamento, fabricação –, pode-se aplicar os conceitos da engenharia simultânea mais aprofundadamente, obtendo-se a desejada redução do time to
market. Paralelamente, tal integração das fases de
produção do produto é implementada através de
sistemas computacionais, devido ao grande volume
de dados envolvidos, à sua organização necessária e
à necessidade de meios e sistemas de controle rápidos e eficientes sobre o processo como um todo.
Com base nesse panorama, a fase de projeto
conceitual, de modo a se poder integrá-la às fases
posteriores, deve ser sistematizada – organizada e
seqüenciada – para que se possa liberá-la da exigência da genialidada humana, possibilitando o uso de
um sistema computacional integrado.
Neste trabalho serão apresentadas várias
metodologias de projeto conceitual, caracterizandoas e relacionando-se suas vantagens e desvantagens.
Entre as várias metodologias, serão realçadas as passíveis de serem implementadas em computador,
portanto, sistematizadas, visando a um posterior trabalho de integração no processo de produção como
um todo de um produto.
PROJETO CONCEITUAL
Área específica da engenharia mecânica, a
engenharia do produto cuida do processo de projeto (design process), que pode ser definido, segundo
Welch & Dixon (1992:11) como: "a transformation
32
between different states of information or knowledge
(...) is therefore a series of transformations that solve
a design problem by moving from a initial known
state of knowledge to a final desired state of knowledge”.
Segundo Pahl & Beitz (1996: 40), Hundal
(1990: 243) e VDI 2221 (1987), citada por Hundal
& Langholtz (1992: 2), o processo de projeto pode
ser dividido nas seguintes quatro etapas: a) clarificação das necessidades (clarification of the tasks); b)
projeto conceitual (conceptual design); c) projeto
preliminar (embodiment design); e d) projeto detalhado (detail design) (fig. 1). A atuação de computadores progride dentro do processo de projeto no
sentido inverso das fases deste (Klein, 1992: 149).
Fig. 1. Fases do Projeto (Pahl & Beitz, 1996).
Numa visão similar, segundo Fiod (1993),
o processo de projeto engloba as fases de: a) planejamento; b) concepção; c) projeto preliminar,
e d) projeto detalhado (fig. 2). A primeira fase,
Planejamento, envolve as atividades de estudo da
seqüência a ser obedecida no processo de projeto.
Como o autor cita, sempre deve-se planejar um trabalho antes de iniciar sua execução, afim de se
poder controlar o encaminhamento dentro do processo, corrigindo possíveis desvios de rota, e verificando-se o sucesso do mesmo ao seu final. A fase de
Concepção é reservada para a especificação exata
Dezembro • 2000
g
y
p
da necessidade e para a obtenção sistemática de possíveis soluções para a necessidade levantada. As
demais fases envolvem a escolha e geração de uma
solução técnica e o detalhamento desta até a geração
de desenhos para a fabricação.
Fig. 2. Fases do Projeto (Fiod, 1993: 88).
Planejamento
como as de Tecnologia, de Ciências, de Psicologia, de Estética, de Sociologia, de História e de
Planejamento (Nadin & Novak, 1987: 149) (fig.
4).
Fig. 4. Inter-disciplinariedade do Projeto Conceitual (Nadim
& Novak, 1987: 149).
Ci ncias
Tecnologia
An lise Funcional
Planejamento
Concep o
ICAD
Projeto
Preliminar
CAD/CAE
Psicologia
Projeto
Conceitual
Hist ria
Est tica
Sociologia
Projeto
Detalhado
CAD
Especificamente, a etapa do Projeto Conceitual (conceptual design) pode ser definida como:
“The conceptual process ‘begins’ with questions and
‘ends’ with detailed specifications usable by current
systematic synthesis techniques” (O’Shaughnessy &
Sturges, 1992: 283, fig. 3).
Fig. 3. Fase de Projeto Conceitual.
Outra definição bem parecida pode ser
encontrada em Welch & Dixon (1992: 11): “is the
initial and most abstract stage of the design process
starting with required functions (what the design is to
do without saying how the design is to do it) and
resulting in concepts (preliminary system configurations)”.
Como apresentado nessas definições, esta fase
exige grande capacidade inventiva e de adaptação do
projetista, motivo pelo qual é a última etapa em que
chega o computador. Esse processo é eminentemente
criativo, além de exigir do projetista/engenheiro o
conhecimento de várias disciplinas diferentes, tais
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42
Assim, o Projeto Conceitual pode ser visto
como a conjunção de criatividade e desmetodização, envolvendo várias linhas de raciocínio e uma
grande quantidade de informações inter-disciplinares. Dessa forma, é visível a grande complexidade
de tal fase do processo de projeto e a sua inter-disciplinariedade.
No Projeto Conceitual, são manipuladas e tratadas informações dispersas, muitas oriundas do
raciocínio do próprio projetista e, portanto, não formalizadas (Durkin & Durkin, 1998). Devido isso,
há a necessidade de vasto uso de criatividade por
parte do projetista, o que, em conclusão, significa
que há grande influência dessa capacidade criadora
na qualidade final do projeto. Além disso, pode-se
constatar serem necessários dois tipos de conhecimento pelo projetista: o conhecimento das soluções
técnicas (como fazer); e o conhecimento do processo de projeto (como proceder). Assim, durante a
concepção, o projetista utiliza toda sua capacidade
intelectual e diversificação de conhecimentos, lançando mão constantemente de sua experiência pessoal e criatividade.
Nessa fase, lança-se mão da abstração – ou a
colocação do problema em termos genéricos, representados por um ou mais verbos, representando a
ação desejada, e um substantivo, representando o
objeto da ação –, o que permite vislumbrar outros
pontos de vista e outras soluções, além de se ter uma
visão mais global do problema; isso permite ainda
33
g
y
p
vislumbrar outras soluções para o problema. Pahl &
Beitz (1996) colocam tal tema em termos de “generalização”, afirmando ser preciso expressar o problema a resolver em forma de uma solução neutra.
Segundo a VDI 2221 (1987), são vantagens
da sistematização: poder-se obter e examinar mais
encadeamentos de soluções parciais; poder-se analisar mais variantes de soluções; e obter-se mais
modelos e protótipos. Na prática, todos os passos
envolvidos na fase de Projeto Conceitual são interligados e o processo é fortemente iterativo e interativo.
Para finalizar, deve-se realçar que grande é a
importância da fase inicial de projeto no custo e no
sucesso do produto final. Decisões tomadas nessa
fase apresentam grande dificuldade, e proporcional
alto custo, para serem alteradas nas fases posteriores
do desenvolvimento de um produto (Ulmann,
1997: 8, fig. 5).
Fig. 5. Influência do Projeto no Custo de Manufatura
(Ulmann, 1997: 8).
Ao sistematizar o processo de Projeto Conceitual, obtém-se uma maior eficiência e velocidade de
desenvolvimento. Ao se incluir o computador nessa
fase, acelera-se ainda mais o processo de planejamento e desenvolvimento de produtos, o que é
necessidade essencial no mercado competitivo de
hoje em dia. Exemplos da introdução de sistema
computacionais no projeto de produtos, com suas
vantagens constatadas, são os sistemas de CAD/
CAM atuais. Deve-se frisar, porém, que esses sistemas de CAD atualmente tão disseminados agem e
auxiliam principalmente nas fases tediosas e repetitivas do projeto, e não na fase de projeto conceitual.
34
METODOLOGIA DE
PROJETO CONCEITUAL
Várias metodologias de Projeto Conceitual
têm surgido ultimamente, principalmente devido à
constatação de sua importância para a implementação de Sistemas Inteligentes de Projeto Auxiliado
por Computador (Intelligent Computer Aided
Design System). Ao lado destas, podem ser reconhecidas metodologias de projeto já clássicas, formadas
sem considerações acerca de sua implementação em
ambientes computacionais. Finalmente, há metodologias de Projeto Conceitual que são propostas de
adaptações de algumas metodologias clássicas para
sua transferência para sistemas computacionais.
Entre os trabalhos relacionados a este tema,
alguns principais devem ser citados, com suas respectivas propostas de metodologias para Projeto
Conceitual.
Suh (1990) propõe um Modelo Axiomático.
Nesse modelo, a principal importância recai nos
requisitos funcionais do projeto, ou seja, os requisitos de aplicabilidade do produto a ser projetado,
baseados diretamente nas necessidades externadas
pelo futuro consumidor. Este método apóia-se em
dois princípios básicos: o Axioma da Independência
– os requisitos devem ser independentes entre si – e
o Axioma da Informação – deve-se minimizar o
conteúdo das informações disponíveis em relação
aos requisitos, reduzindo-as às essenciais. Suh
(1990) ainda propõe oito regras a serem obedecidas
pelo projetista na busca de um Projeto Conceitual
de boa qualidade. Estas regras são, de maneira geral,
baseadas em critérios de senso comum aliados a
conhecimentos de engenharia.
Ainda segundo Suh (1990), o processo de
projeto conta com três passos: a) definição do problema, através da definição de seus requisitos funcionais; b) processo criativo de concepção e idealização;
e c) processo analítico de avaliação da solução. Num
resumo geral, este método parte de informações
abstratas (requisitos funcionais) e busca concretizálas em um produto final, sistematizando as ações e
os procedimentos. O método propõe a substituição
da intuição e experimentação desordenada por axiomas ou leis, citadas acima.
Hoover, Rinderle e Finger (1991) realçam a
necessidade da abstração nas primeiras etapas, afir-
Dezembro • 2000
g
y
p
mando que esse procedimento simplifica o problema, facilitando a busca das soluções.
Por sua vez, Yoshikawa (1989), em trabalho
extenso, relaciona e apresenta três escolas de
Metodologia de Projeto: a) a escola semântica; b) a
escola sintática; e c) a escola historicista. Segundo
ele, na escola semântica só há fluxos de energia, de
matéria e de sinal. A solução do problema é um sistema técnico – encadeamento logicamente estruturado
de funções técnicas e sub-funções – representado pela
transformação de energia, matéria ou sinal. Na
escola semântica, a função global, que representa o
problema inicial, é subdividida em sub-funções
mais simples, iterativamente, até se identificarem
fenômenos físicos a elas relacionados. Assim, permite-se que, através da catalogação de efeitos físicos conhecidos, soluções reais sejam encontradas.
Alguns desses catálogos de efeitos físicos podem
ser encontrados em Koller (1985) e Roth (1982),
citados por Fiod (1993).
Ainda segundo Yoshikawa (1989), a escola
sintática preocupa-se mais com os aspectos de procedimento do projetista na busca da solução ou
soluções do que com o objeto de projeto em si.
Autores que seguem essa escola seriam Asimow
(1968), Woodson (1966) e Pahl & Beitz (1996),
através da reunião que estes fazem do aspecto metodológico do projeto e do aspecto funcional do produto no modelo que propõem, associado à
proposição de hierarquia entre funções e sub-funções encontrada em seus trabalhos, e da defesa do
uso de um procedimento sistemático.
Finalmente, ainda segundo Yoshikawa (1989),
a escola historicista dá importância maior para o
conhecimento envolvido no projeto, exigindo que
todo o conhecimento esteja disponível para o projetista no momento do desenvolvimento das soluções.
Asimow (1968) foi um dos primeiros autores
a buscar sistematizar o processo de projeto, visando
à obtenção de melhores projetos de forma mais sistêmica. Segundo sua visão, as fases primárias do
projeto, aquelas relacionadas ao desenvolvimento
da idéia do produto, englobam, partindo-se da
Necessidade Primitiva: a) Estudo de Exeqüibilidade;
b) Projeto Preliminar, e c) Projeto Detalhado (fig. 6).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42
Fig. 6. Fases Primárias de um Projeto (Asimow, 1968: 23).
Segundo Asimow (1968: 24), o Estudo de
Exeqüibilidade objetiva a consecução de um conjunto de soluções úteis para os problemas do projeto. Ainda segundo o mesmo autor, no Estudo
de Exequibilidade há três estágios: o primeiro
consta da análise da situação na qual acha-se
encaixado o problema; o segundo, da síntese de
soluções possíveis; o terceiro, da avaliação das
soluções e, caso haja algumas soluções aceitáveis,
também da decisão sobre qual seja a melhor (Asimow, 1968: 64) (fig. 7).
Este mesmo autor baseia a busca de soluções
em catálogos de princípios físicos (Asimow, 1968:
75-80).
Outro autor que deve ser citado, podendo
ser igualmente considerado um dos precursores
da escola sintática, é Woodson (1966). Ele define
as etapas de Estudo de Possibilidade, Estudo Preliminar, Projeto Detalhado e Revisão para o projeto mecânico (fig. 8) e subdivide a primeira etapa
em Análise da Necessidade, Exploração dos Sistemas Envolvidos, Síntese das Alternativas de Soluções, Determinação da Viabilidade Física, Análise
Econômica, Análise da Disponibilidade Financeira (fig. 9).
Na linha de metodologias voltadas ou adaptadas, ou ainda passíveis de serem informatizadas,
podemos citar Roth (1982), Koller (1985), estes
citados por Fiod (1993), e VDI 2221 (1987), que
35
g
y
p
já “preparam” uma metodologia de projeto passível de informatização. Nesse rol, já citada, podese incluir a metodologia proposta por Pahl &
Beitz (1996). Estes autores, inclusive, propõem as
bases para se desenvolver um Sistema de Projeto
Auxiliado por Computador, aplicado à fase de
Projeto Conceitual.
Fig. 9. Estrutura do Projeto – Estudo de Viabilidade (Woodson, 1966: 26).
Fig. 7. Estudo de Exeqüibilidade (Asimow, 1968: 32)
(simplificado).
Fig. 8. Fases do Projeto (Woodson, 1966: 24-25).
Estudo de
Viabilidade
• Para validar a necessidade e produzir uma série de
soluções possíveis
Estudo
Preliminar
• Para qualificar os parâmetros de forma a obter a
solução ótima
Projeto
Detalhado
• Para transformar a melhor solução em uma descrição para a manufatura
Revisão
• Para produzir um projeto otimizado, baseado na
experiência obtida com um sistema fabricado/testado
A VDI 2221 (1987) sugere a divisão do Projeto Conceitual e da busca de soluções em duas
fases. Na fase I, procede-se ao estudo do problema a
ser solucionado. Segundo Pahl & Beitz (1996),
deve-se gerar uma lista de requisitos do produto,
podendo-se classificá-los em requisitos “obrigatórios” e “desejáveis”, estes últimos caracterizados
com grande, média, ou pequena importância. Devese dividir os aspectos estudados em aspectos quantitativos e aspectos qualitativos, sempre buscando
quantificar os requisitos.
36
Na fase II, fase de concepção, deve-se definir a
função que representa o problema, através de um
verbo – ação – e um substantivo – objeto da ação –
(“cortar” “grama”), anexando-se as condições marginais, tais como tamanho, peso, percurso desejado
e outros. Pode-se definir a função global como uma
“caixa preta”, na qual de um lado entram as grandezas “sinal” (signal) – s, “energia” (energy) – e, e
“matéria” (material) – m – e, do outro, saem as mesmas grandezas, porém modificadas pela função global. Na seqüência dessa fase, divide-se a função
global em funções parciais até se alcançarem os
princípios físicos, levantados através de pesquisa
bibliográfica, da análise de sistemas técnicos, da análise de sistemas naturais conhecidos, de analogias, de
medições e de experiências com modelos. O
seqüenciamento dos princípios físicos deve obedecer compatibilidade entre as características de saída
de um princípio físico e as características de entrada
do princípio físico subseqüente.
Ainda segundo a VDI 2221 (1987), em
seguida lança-se mão da Matriz Morfológica, possibilitando-se trocar as funções parciais entre soluções, combinando-as de formas diferentes e
obtendo-se maior número de soluções, ou soluções
variantes. A solução global é obtida associando-se
Dezembro • 2000
g
y
p
princípios físicos viáveis em sub-soluções realizáveis
e estas, por sua vez, na solução global (fig. 10).
Fig. 10.Modelo de Desenvolvimento da VDI 2221 (Cross,
1996: 30).
Problema Global
Sub-problemas
Problemas individuais
Solu e s individuais
Sub-solu e s
Solu o global
O Método proposto por Roth (1982), relacionado em Fiod (1993), denominado Método da
Estrutura de Funções Genéricas, relaciona quatro
operações genéricas, a saber: “conduzir” (channel) –
mudança de lugar, “armazenar” (store) – constância
de uma certa quantidade em determinado tempo,
“transformar” (change) – mudança de forma de
apresentação – e “unir” (connect). Esta última, para
grandezas iguais, pode ser “aditiva” – juntar quantidade – e “distributiva” – separar quantidade. Para
grandezas diferentes, ela pode ser “aditiva” – aplicação de uma quantidade do tipo Y sobre uma quantidade do tipo X – e “distributiva” – separar de uma
quantidade do tipo Y uma quantidade do tipo X.
O mesmo método relaciona três grandezas
genéricas: “matéria”, “energia” e “sinal”, o que vem
ao encontro das idéias de Pahl & Beitz (1996) e
outros. A combinação de uma operação genérica
com uma grandeza genérica resulta em uma Função
Genérica. Nesse seu trabalho, o autor relaciona 220
verbos técnicos.
Por sua vez, o método proposto por Koller
(1985), também relacionado em Fiod (1993) – ou
Método de Projeto Orientado Físico-Algoritmicamente –, define doze operações básicas, sem relacionálas a nenhuma grandeza. Esse relacionamento,
segundo aquele autor, deve ser feito apenas durante
o projeto de um produto específico. As operações
são ordenadas duas a duas, cada qual com sua
inversa, a saber: “emitir/absorver” (absorv/emit),
“transmitir/isolar” (channel/isolate), “agrupar/dis-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42
persar” (collect/scatter), “guiar/não guiar” (conduct/
insulate), “transformar/retro-transformar” (change/
change back), “ampliar/reduzir” (increase/decrease),
“mudar direção/mudar direção” (change direction/
change direction), “retificar/oscilar” (rectify/oscillate),
“ligar/interromper” (couple/interrupt), “misturar/separar” (join/separate), “juntar/dividir” (assemble/divide) e
“acumular/desacumular” (store/empty).
Segundo Fiod (1993), Koller (1985) procura
as soluções para as funções elementares escolhendo
um efeito e um portador de efeito no catálogo previamente cadastrado – por exemplo, efeito: Lei de
Hooke; portador do efeito: mola. A diversidade das
soluções vem devido aos diferentes efeitos e portadores de efeitos que podem ser utilizados.
Uma metodologia que busca englobar partes
das anteriores pode ser encontrada em Pahl &
Beitz (1996). Não deixando de ser altamente interativo, esse método (de Projeto Sistemático) iniciase logo após o estudo da tarefa, definindo os
seguintes passos: a) clarificação do problema (clarification of the task), com elaboração da lista de
requisitos; b) abstração para identificar os problemas essenciais (abstract to identify the essential
problems), colocando o problema em termos de
verbo-objeto; c) estabelecimento das estruturas
funcionais (establish function structures), definindo
a função global e dividindo-a em subfunções até se
obter as funções elementares através da subdivisão
contínua das funções parciais; d) busca dos princípios de solução (search for solution principles to
fulfil the sub-functions), com a aplicação do
método da variação dos efeitos e uso de catálogos;
e) combinação dos princípios de solução para
remontagem da função global (combine solution
principles to fulfil the overall function), lançando
mão da recombinação da Matriz Morfológica
(VDI 2221, 1987: 39); f) seleção das combinações
viáveis (select suitable combinations), com base na
lista de requisitos; g) definição das variantes conceituais (firm up into concept variants); e h) avaliação técnica e econômica das variantes conceituais
(evaluate concept variants against technical and
economic criteria) (fig. 11).
37
g
y
p
Fig. 11. Fases do Projeto Conceitual (Pahl & Beitz, 1996: 58).
Pahl & Beitz (1996) relacionam cinco funções
geralmente válidas para as transformações de três
grandezas básicas, “sinal”, “energia” e “matéria”, as
mesmas da VDI-2221 (1987). Essas funções gerais
são: transformar (change), conectar (connect), conduzir (channel) e armazenar (store). Pahl e Beitz (1996)
traçam eles mesmos um paralelo entre as suas funções
geralmente válidas, as operações genéricas de Roth
(1982) e as operações básicas de Koller (1985), ambas
relatadas em Fiod (1993), conforme a tabela 1.
Numa comparação com metodologias anteriores citadas, Pahl e Beitz (1996) englobam várias delas
e identificam-se claramente com a de Suh (1990) e
VDI-2221 (1987).
Essa Metodologia do Projeto Sistemático é a
base para o trabalho desenvolvido por Fiod (1993).
Nele o autor propõe uma metodologia sistemática
para o Projeto Conceitual, lançando mão das doze
operações básicas de Koller (1985), por ele citado
(tab. 1). O autor apresenta um Sistema para Auxílio
ao Projeto Conceitual Sistemático, que dirige o usuário pelas fases de projeto propostas, visando, principalmente, a tornar a qualidade da solução tanto
quanto possível independente da inspiração, porém
sem prescindir da criatividade e inventividade.
Nesse sistema computacional, a metodologia de
projeto proposta apóia-se firmemente numa base de
conhecimentos composta de princípios físicos e
componentes mecânicos.
Tab. 1. Comparação de Funções Geralmente Válidas (Pahl & Beitz, 1996: 27).
OPERAÇÕES BÁSICAS DE KOLLER
OPERAÇÕES GENÉRICAS
FUNÇÕES GERALMENTE VÁLIDAS DE
(1985) / FIOD (1993)
DE ROTH (1982)
PAHL E BEITZ (1996: 68)
chance / change back
transformar / retro-transformar
change direction
mudar direção
change (type)
Change
mudar/transformar
increase / decrease
ampliar / reduzir
couple / interrupt
ligar / interromper
join / separate
unir(misturar) / separar
assemble / divide
montar(juntar) / dividir
channel / isolate
transmitir / isolar
collect / scatter
agrupar / dispersar
rectify / oscillate
retificar / oscilar
conduct / insulate
conduzir(guiar)/separar(não-guiar)
absorb / emit
absorver / emitir
store / empty
acumular / esvaziar(desacumular)
38
vary (magnitude)
Connect
conectar
connect (number)
channel
conduzir
channel (place)
store
armazenar
store (time)
Dezembro • 2000
g
y
p
A seqüência de ações para o Projeto Conceitual proposta por Fiod (1993) engloba as fases de: a)
estudo da tarefa; b) montagem da lista de requisitos;
c) divisão em sub-tarefas, partindo da função principal e funções secundárias, até se obter a estrutura de
funções elementares, passando pelas funções parciais;
d) associação de efeitos de soluções, com uso de catálogos; e) desenvolvimento de funções parciais, considerando a análise de compatibilidade entre funções
elementares; f) síntese de sistemas técnicos, analisando-se a compatibilidade entre funções parciais e
avaliação dos sistemas obtidos, e g) concepção de sistema técnico, obtendo-se o resultado, ou solução do
problema inicialmente proposto (fig. 12).
Os estágios do processo de projeto, segundo
Cross (1996: 45-46), no seu denominado Modelo
Simétrico Problema/Solução, fortemente baseado
na VDI 2221 (1987) são apresentados na figura 13.
Fig. 12.Metodologia de Projeto Conceitual (Fiod, 1993:
93).
Fig. 13. Modelo Simétrico Problema/Solução (Cross, 1996:
46).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42
Cross (1996) lança mão do Método da
Matriz Morfológica, similar ao de VDI 2221
(1987), com pequena variação: considerar cada
linha da matriz como uma sub-função, atrelada
diretamente a um componente. Cada coluna da
Matriz Morfológica, para cada linha, contém os
componentes que podem executar a sub-função respectiva. Esse enfoque, aliás, é muito próximo ao de
Pahl e Beitz (1996), haja vista que tanto um quanto
outro não chegam a atingir o nível de definição de
princípios físicos. A que se realçar que este método
traz no seu bojo grande motivação sistemática,
citando o autor textualmente o uso de procedimentos sistemáticos (systematic procedures) (Cross,
1996: 31).
Como pode ser verificado, enquanto alguns
autores dão maior ênfase às fases de avaliação,
outros conferem maior enfoque às fases de geração de soluções. Todos, porém, apresentam vários
pontos em comum, principalmente no que diz
respeito à seqüência sistemática de procedimentos
para a obtenção de soluções para problemas que
não sejam atreladas somente à capacidade mental
do projetista.
Um último autor a ser citado é Ulmann
(1997), que propõe uma seqüência própria para a
fase de Projeto Conceitual (fig. 14). Os passos propostos por Ulmann (1997), tendo-se anteriormente
especificado a necessidade e efetuado o planejamento do processo de projeto, são: a) encontrar a
função global que exprime a necessidade a ser solucionada, através de generalização do problema e sua
abstração; b) decompor a função global em subfunções, com base em sistemas já conhecidos e/ou nas
várias funções que a solução deve cumprir; c) desenvolver conceitos para cada função, apoiado em uma
base de dados, e d) combinar conceitos. Na seqüência, Ulmann (1997) sugere a avaliação dos conceitos
identificados.
O mesmo autor sugere uma lista de funções
mecânicas típicas de projeto (tab. 2) e cita como
fontes para idéias conceituais as patentes, os livros
de referência, os especialistas e o brainstorming.
39
g
y
p
Fig. 14. Fase de Projeto Conceitual (Ulmann, 1997: 141).
Tab. 2. Funções Mecânicas Típicas de Projeto (Ulmann,
1997: 145).
Transformar (change)
Aumentar/diminuir
(Increase/decrease)
Acoplar/interromper (couple/interrupt)
Unir/Separar (join/separate)
Montar/desmontar
(assemble/disassemble)
Conduzir ou guiar (channel or guide)
Retificar (rectify)
Conduzir (conduct)
Absorver/eliminar (absorb/remove)
Armazenar (store)
Verificar (verify)
Dirigir (drive)
Posicionar (position)
Libertar (release)
Dissipar (dissipate)
Orientar (orient)
Localizar (locate)
Coletar (collect)
Proteger (secure)
Mover (move)
Converter (convert)
Tranformar (transform)
Transladar (translate)
Rotacionar (rotate)
Iniciar/cessar (start/stop)
Levantar (lift)
Segurar (hold)
Limpar (clear)
Suportar (support)
Suprir (supply)
CONCLUSÃO
Através da apresentação deste pequeno painel, pode-se concluir que a sistematização da etapa
do Projeto Conceitual ainda está em seu iníco no
plano internacional. Mesmo hoje em dia, apesar das
desvantagens inerentes desse procedimento, a qualidade de um projeto, definida na fase de projeto conceitual, é função da genialidade do projetista, que
utiliza seus conhecimentos e raciocínio lógico sem se
preocupar muito em sistematizar tais pensamentos.
Vários trabalhos, porém, como os aqui apresentados, propõem uma sistematização do processo de
projeto conceitual, e uma posterior implementação
em um sistema computacional, os chamados sistemas auxiliados por computador inteligente, um tipo
40
de sistema especialista. Na verdade, os chamados
Sistemas Especialistas estão atualmente ainda na fase
de desenvolvimento, sem ter atingido a etapa de
aplicação comercial. Verificam-se apenas alguns poucos Sistemas Baseados em Conhecimento disponíveis comercialmente e, mesmo assim, com aplicação
limitada. Grandes pesquisas ainda são necessárias
para prover programas de computador que efetivamente auxiliem o projetista, o ser humano, em sua
tarefa de conceber o projeto. A substituição do projetista nesta tarefa é de efetivação ainda mais difícil.
Grandes esforços, porém, têm sido destinados a esta
área de pesquisa, o que sugere a sua importância.
Além das dificuldades inerentes ao processo
de transferir conhecimentos para o computador, há
a necessidade de melhor conhecer e entender o processo de Projeto Conceitual desenvolvido dentro da
mente do projetista. Esta área, intimamente ligada à
anterior, tem sido objeto de atenção de muitos pesquisadores.
Na engenharia mecânica, uma das poucas áreas
não totalmente dominadas é a da metodologia de
projeto e da aplicação da computação nas fases iniciais do projeto. Apesar do grande direcionamento
de esforços internacionais para estas áreas, o que
reforça sua importância como campo de pesquisa
atual, apresenta-se ainda em franco desenvolvimento,
sem conhecimentos totalmente sedimentados.
Por tratar-se de área estratégica no domínio
do conhecimento de projeto, e na aceleração do
desenvolvimento deste conhecimento, deve ter sua
importância devidamente sublinhada e não pode
prescindir de investimentos em qualquer sociedade
que se interesse em participar da comunidade internacional como proprietária de conhecimentos.
Dezembro • 2000
g
y
p
A situação brasileira, como de costume, apresenta-se atrasada alguns anos em relação aos centros
mais desenvolvidos internacionalmente. Porém, por
tratar-se de área ainda em desenvolvimento, esta
situação pode e deve ser alterada.
REFERÊNCIAS BIBLIOGRÁFICAS
ANDERSSON, K. Vocabulary for conceptual design. IFIP Transactions B: Computer Applications in Technology B18, pp. 157171, 1994.
ASIMOW, M. Introdução ao Projeto. Trad. José Wanderley Coêlho Dias. São Paulo, Editora Mestre Jou, 1968.
CHAKRABARTI, A. & BLIGH, T.P. Approach to functional synthesis of mechanical design concepts: theory, applications, and
emerging research issues. Artificial Intelligence for Engineering Design, Analysis and Manufacturing: AIEDAM, v.
10, n.o 4, pp. 313-331, 1996.
CROSS, N. Engineering Design Methods. Chichester, John Wiley & Sons, 1996.
DIXON, J.R. Design Engineering. New York, McGraw-Hill, 1966.
DIXON, J.R. & CORRADO, P. Engineering Design & Design for Manufacturing: a structured approach. Field Stone Publishers,
1999
DURKIN, J. & DURKIN, J. Expert Systems – design and development. New York, Prentice Hall, 1998.
ERTAS, A. & JONES, J.C. The Engineering Design Process. New York, John Wiley & Sons, Inc., 1996.
EVBUOMWAN, N.F.O. & SIVALOGANATHAN, S. Generation of conceptual designs within Design Function Deployment.
Methodologies, Tecniques and Tools for Design Development American Society of Mechanical Engineers, Petroleum Division – PD, New York, v. 64, n.o 5, pp. 61-66, 1994.
FIOD Neto, M. Desenvolvimento de Sistema Computacional para Auxiliar a Concepção de Produtos Industriais. Florianópolis,
Universidade Federal de Santa Catarina, 1993. Tese (Doutorado).
FIOD Neto, M & BACK, N. Análise Crítica de Métodos de Projeto, Visando ao Desenvolvimentode um Sistema CAD para
Concepção de Produtos. Revista Brasileira de Ciências Mecânicas, v. 17, n.o 4, pp. 387-393, 1995.
__________. Assessment of product conception: a critical review. Revista Brasileira de Ciências Mecânicas, v. 17, n.o 1, pp. 109115, 1995.
HOOVER, S.P.; RINDERLE, J. R. & FINGER, S. Models and abstractions in design. Proceedings of the International Conference on Engineering Design – ICED’91, Zurich, pp. 46-57, 1991.
HUNDAL, M.S. A Systematic Method for Developing Function Structures, solutions and concept variants. Mechanism and
Machine Theory, v. 25, n.o 3, pp. 243-256, 1990.
__________. A methodical procedure for search of solutions from function structures. Proceedings of The International Conference of Engineering Design – ICED’91, Zurich, pp. 9-16, 1991.
HUNDAL, M.S. & LANGHOLTZ, L.D. Computer-aided conceptual design: an application of X windows, with C. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 1-9, 1992.
KLEIN, S. An example of knowledge-based decision making when selecting standard components: shaft-hub connections. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 149-156,
1992.
MANTYLA, M.; FINGER, S. & TOMIYAMA, T. Knowlwdge Intensive Cad – v. 1. Kluwer Academic Publishers, 1996.
__________. Knowledge Intensive Cad – v. 2. Kluwer Academic Publishers, 1997.
NADIN, M. & NOVAK, M. MIND: a design machine – conceptual framework. In: HAGEN, P.J.W. ten; TOMIYAMA, T. Intelligent CAD Systems I. Berlim, Springer-Verlag, 1988.
O’HAUGHNESSY, K. & STURGES Jr. R.H. A systematic approach to conceptual eengineering design. Proceedings of the 3th
International Conference on Design Theory and Methodology, New York, ASME, pp. 283-291, 1992.
PAHL, G. & BEITZ, W. Engineering Design – a systematic approach. Translated by Ken Wallace and Lucienne Blessing. Berlin,
Springer Verlag, 1996.
PAPALAMBROS, P.Y. & WILDE, D.J. Principles of Optimal Design: modeling and computation. New York, Cambridge University Press, 2000.
PITTS, G. Techniques in Engineering Design. London, McGrawHill Book Company, 1973.
PUGH, S. Total Design: integrated methods for sucessful product engineering. Wokingham, Addison Wesley, 1995.
PUGH, S.; CLAUSING, D. & ANDRADE, R. Creating Innovative Products Using Total Design: the living legacy of Stuart Pugh.
Addison-Wesley Pub Co., 1996.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42
41
g
y
p
SILVA, J.B.A; BACK, N. & LEAL, L.C.M. SIPE – um sistema CAE para o projeto de eixo-árvore de máquinas ferramentas.
Anais do X COBEM, Rio de Janeiro, Associação Brasileira de Ciências Mecânicas/Projeto de Engenharia Mecânica-COPPE, pp. 351-354, 1989.
SUH, N.P. The Principles of Design. New York, Oxford University Press, 1990.
TAKEDA, H. & TOMIYAMA, T.; YOSHIKAWA, H. A logical and computable framework for reasoning in design. Proceedings
of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 167-174, 1992.
TOMIYAMA, T. & YOSHIKAWA, H. Extended General Design Theory. In: YOSHIKAWA, H. & WARMAN, E.A. Design
Theory for CAD. Amsterdam, North-Holland, 1987.
ULMANN, D.G. The Mechanical Design Process. New York, McGraw Hill College Div, 1997.
VDI-GKE (Verein Deutscher Ingenieure – professional engineers’ body). VDI Guideline 2221, systematic approach to the design
of technical systems and products. Dusserdorf, VDI Verlag, 1987.
WELCH, R.V. & DIXON, J.R. Representing function, behavior and structure during conceptual design. Proceedings of the 3th
International Conference on Design Theory and Methodology, New York, USA, ASME, pp. 11-18, 1992.
WOODSON, T.T. Introduction to Engineering Design. New York, Mc-Graw Hill Book Company, 1966.
YOSHIKAWA, H. Design Philosophy: the state of the art. CIRP Annals, v. 38, n.o 2, pp. 579-586, 1989.
YOSHIKAWA, H. General Design Theory as a Formal Theory of Design. In: YOSHIKAWA, H. e GOSSARD D. Intelligent
CAD, I. Amsterdam, North-Holland, 1990.
YOSHIKAWA, H.; ARBAB, F. & TOMIYAMA, T. Intelligent CAD, III. Amsterdam, North-Holland, 1991.
42
Dezembro • 2000
g
y
p
Fontes de Erros
em Metrologia a
Três Coordenadas:
considerações gerais
Error Sources in Coordinate Metrology: general considerations
ROXANA M. MARTINEZ ORREGO
Universidade Metodista de Piracicaba
[email protected]
BENEDITO DI GIACOMO
Escola de Engenharia de São Carlos (EESC-USP)
[email protected]
ALVARO J. ABACKERLI
Universidade Metodista de Piracicaba
[email protected]
RESUMO - Ao longo das últimas quatro décadas, o uso da metrologia a três coordenadas incrementou-se, significativamente, em todos os ramos da indústria. As máquinas de medir a três coordenadas (MM3C) são instrumentos versáteis,
que possibilitam aplicações gerais e reduzem o tempo das avaliações dimensionais, necessárias para definir as características principais de peças manufaturadas. Dessa forma, elas proporcionam uma infra-estrutura metrológica muito mais
modesta, porém ideal para os sistemas integrados de manufatura. Do ponto de vista metrológico, as propriedades mais
cobiçadas das máquinas de medir a três coordenadas – sua flexibilidade e versatilidade – as tornam, entretanto, instrumentos extremamente complexos quando se trata de avaliar seu desempenho metrológico e, mais ainda, quando se tenta
definir a rastreabilidade de suas medições e expressar adequadamente sua incerteza de medição. O desempenho metrológico das MM3C tem sido, desde o início, objeto de estudo de numerosas instituições e centros de pesquisa em todo o
mundo, assim como dos próprios fabricantes dessas máquinas. Neste trabalho, são apresentadas e discutidas as principais
fontes de erros e incertezas das máquinas de medir a três coordenadas, com base nos resultados de uma ampla pesquisa
bibliográfica sobre o estado da arte da calibração e a rastreabilidade de tais máquinas.
Palavras-chave: MÁQUINAS DE MEDIR – ERROS – INCERTEZA DE MEDIÇÃO – CALIBRAÇÃO.
ABSTRACT - In last four decades, the use of coordinate metrology increased, significantly, in all industry branches. Coordinate measuring machines (CMM) are versatile instruments, that facilitate general applications and reduce the time of
the dimensional evaluations necessary to define the main characteristics of manufactured pieces. This way, they provide a
much more modest metrological infrastructure, ideal for the integrated manufacture systems. However, of a metrological
point of view, the more coveted properts of the coordinate measuring machines – its flexibility and versatility – turn
them, extremely, complex instruments when the goal is the evaluation of its volumetric performance and, stiller, when its
measurements traceability should be defined and the measurement uncertainty appropriately expressed. Since the beginning, the CMM volumetric performance has been studied by numerous institutions and research centers all over the
world, as well as by the proper machines manufacturers. In this work, the main sources of errors and uncertainties of
coordinate measuring machines are presented and discussed, with base on the results of a wide bibliographical research
on the state of the art of coordinates measuring machines calibration and traceability.
Keywords: COORDINATE MEASURING MACHINE – ERROR – MEASUREMENT UNCERTAINTY – CALIBRATION.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
43
g
y
p
INTRODUÇÃO
A
A crescente exigência de produtos de alta
qualidade, e com alto grau de diferenciação,
foi a principal característica do mercado consumidor nas últimas décadas do século XX. Essa
demanda aqueceu a competição industrial e acelerou o desenvolvimento de sistemas de manufatura
automatizados, tornando-os muito mais flexíveis,
capazes de realizar processos de fabricação curtos e
rápidos, com menor custo e com melhor qualidade.
No âmbito da indústria metal mecânica, a
busca pela qualidade também está diretamente relacionada às avaliações dimensionais, que definem, em
grande parte, as características principais dos produtos. Paralelamente à automatização das máquinas
ferramentas, surge a necessidade de desenvolver
meios de medição que não limitem a efetividade dos
novos sistemas de manufatura, ou seja, que permitam realizar as inspeções de forma fácil e rápida, mas
ainda fornecendo resultados confiáveis.
É nesse contexto que aparece a indústria das
máquinas de medir a três coordenadas. A primeira
máquina de medir por coordenadas foi introduzida
na indústria em 1959, por Ferranti, Ltd. of
Dalkeith, na Escócia. Para este fabricante havia
ficado claro que os instrumentos de medição convencionais, encarregados até então pela inspeção
das peças produzidas, não acompanhavam o ritmo
de produção de suas novas máquinas automatizadas. Apesar de não pertencer ao ramo de equipamentos de medição, inventou uma “máquina de
medir” como um produto para completar sua família de máquinas ferramentas controladas numericamente (Phillips, 1995).
A máquina da Ferranti apresentava um desenho original baseado em um mínimo de restrições
cinemáticas, mas que ainda permitiam o alinhamento
de seus elementos móveis. Ela oferecia uma resolução
de 0,012 mm e possuía um curso muito pequeno
(254 mm) na direção Z. As leituras eram feitas só nas
direções X e Y (610 mm e 381 mm, respectivamente). A máquina usava uma sonda rígida para estabelecer os pontos de inspeção. Segundo Ferranti, ela
estava desenhada para inspecionar as peças com uma
acuracidade de 0,025 mm.
44
De início, os fabricantes de instrumentos de
medição não reconheceram o potencial oferecido
por essa iniciativa de Ferranti; no entanto, seu uso
revolucionou os métodos de inspeção de peças
manufaturadas, minimizando o tempo de medição e
os requisitos relacionados à qualificação do pessoal
de inspeção. De fato, em poucos anos surgiu um
mercado para essa invenção, que levou ao desenvolvimento da indústria de máquinas de medir a três
coordenadas, que oferece, hoje em dia, máquinas em
diferentes configurações mecânicas (ver fig. 1), capazes de realizar as mais diferentes tarefas de medição.
Entretanto, nem mesmo o grande entusiasmo
despertado pela universalidade das MM3C evitou
a preocupação pela sua acuracidade. Apesar de seu
muito particular princípio de medição, o desempenho metrológico de uma MM3C depende, como
ocorre com qualquer outro instrumento, de seus
erros de medição.
Em geral, todos os autores estudados concordam com a extrema complexidade da análise dos erros
de uma MM3C e de suas respectivas fontes. São muitas as variáveis envolvidas na análise, incluindo a
própria configuração mecânica da máquina, cujas
estruturas mais comuns são chamadas de tipo
“ponte móvel”, “ponte fixa”, “cantilever”, “braço
horizontal” e “pórtico” (Ni & Wäldele, 1995). A
figura 1 apresenta cinco destas configurações.
Todas as configurações infringem o princípio de
Abbé, principal postulado da metrologia dimensional
(Journal for Instrumental Information, 1890), pois
geralmente as escalas estão localizadas fora da linha
de medição, o que introduz o efeito de possíveis
movimentos angulares não desejados, mas presentes
durante a movimentação dos eixos das máquinas.
O grande número de variáveis envolvidas na
análise do desempenho metrológico de MM3C e a
sua variedade constituem a principal causa do atraso
significativo no processo da especificação do seu
desempenho (Emery, 1965; CIRP STC “Me”
Working Party on 3DU, 1978; e Productions Points,
1983), de modo que não existe, ainda hoje, um
acordo internacional sobre os critérios e os métodos
para a sua calibração.
Dezembro • 2000
g
y
p
Fig. 1. Configurações de Máquinas de Medir a Três Coordenadas
CARACTERIZANDO UMA
MÁQUINA DE MEDIR
A TRÊS COORDENADAS
Uma Máquina de Medir a Três Coordenadas,
independentemente de qual seja sua estrutura mecânica, é a representação física de um sistema de coordenadas cartesiano. A máquina define a geometria
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
de uma peça através de pontos coordenados (Xi, Yi,
Zi), dispersos discretamente sobre a sua superfície.
Os eixos cartesianos são simulados, geralmente, por um conjunto de guias e mancais aerostáticos e com ajuda de escalas optoeletrônicas. Para
obter os pontos sobre a superfície das peças é usada
uma sonda de medição.
45
g
y
p
No entanto, o conhecimento dos pontos
coordenados não é suficiente para avaliar os parâmetros das peças (diâmetros, distâncias, ângulos
etc.). é necessário que a máquina tenha associado
um programa computacional com algoritmos matemáticos adequados para ajustar os pontos coordenados às geometrias – usualmente chamadas de
geometrias substitutas – que modelam a peça
medida. As características ou parâmetros principais
das geometrias substitutas ou da sua combinação
são comparadas, então, às dimensões e tolerâncias
do projeto da peça. A figura 2 ilustra a natureza das
medições com uma MM3C.
Os efeitos das diferentes fontes de erros presentes em uma MM3C se combinam das mais
diversas formas e se refletem, diretamente, nos pontos coordenados que definem as geometrias substitutas. É exatamente essa particularidade que torna
extremamente complexa a análise dos erros e da
incerteza de medição de qualquer tipo de máquina de
medir, pois cada ponto coordenado é influenciado de
forma diferente.
Na literatura, os erros de uma máquina de
medir a três coordenadas são agrupados geralmente, segundo as suas fontes (Hocken, 1980; Burdekin & Voutsadopoulos, 1981; Harvie, 1986; Di
Giacomo, 1986; De Nijs et al., 1988; Weekers &
Schellenkens, 1995; e Schellenkens & Rosielle,
1998). Observando tal critério, no presente trabalho
agrupam-se os erros nos sete grupos resumidos a
seguir:
1. erros em função de imperfeições da geometria da
máquina, resultantes da manufatura, da montagem e do desgaste de seus componentes, que
introduzem graus de liberdade não desejados, e
erros resultantes de forças estáticas, como o próprio peso dos componentes móveis das máquinas, que introduzem deformações elásticas;
2. erros do sistema de medição ou sonda, encarregado de definir os pontos coordenados através
do contato com a superfície de uma peça;
3. erros relacionados aos algoritmos matemáticos,
que definem as geometrias substitutas, e com
sua respectiva implementação computacional
(software) (Hocken et al., 1993);
4. erros relacionados com a estratégia de medição:
número de pontos e dispersão destes sobre a
superfície da peça;
5. erros derivados da influência das propriedades
da peça a ser medida: principalmente de erros
de forma, rugosidade e peso;
6. erros devidos às deformações induzidas na
máquina pelas variações e os gradientes de temperatura;
7. e erros dinâmicos devido a vibrações.
Fig. 2.
46
Dezembro • 2000
g
y
p
Os erros dos três primeiros grupos são erros
próprios ou intrínsecos das MM3C e a influência
deles se manifesta das mais diversas formas. Os
erros dos grupos 4, 5, 6 e 7, por sua vez, independem das MM3C, pois derivam de condições externas a elas, tais como: a temperatura ambiental, a
escolha pelo operador de uma estratégia de medição, vibrações externas provocadas pelo funcionamento de outras máquinas etc.
De todos esses erros, os que mais influenciam
a acuracidade das máquinas de medir a três coordenadas são os pertencentes aos grupos 1, 2 e 6
(Hocken, 1980 e 1993). Nesse ponto coincidem
todos os autores estudados. Cabe então discutir
alguns aspectos relevantes relacionados às fontes de
erros, que afetam o resultado das medições realizadas com as MM3C.
fig. 3). Três destes erros são de translação: um erro
de escala ou posição e dois erros de retilineidade. Os
outros três são erros angulares ou de rotação infinitesimais, chamados de ROLL, PITCH e YAW, cujos
efeitos são amplificados pela presença de braços de
Abbe. Além dos 18 erros paramétricos, há três
outros não-paramétricos, que são os erros de ortogonalidade entre os eixos da máquina, totalizando
21 erros geométricos.
A combinação dos 21 erros geométricos de
uma MM3C gera o que se convencionou chamar
de erro volumétrico. A forma geral do erro volumétrico para qualquer ponto espacial no volume de
trabalho de uma máquina de medir a três coordenadas é dada pela expressão (Di Giacomo, 1986):
ERROS GEOMÉTRICOS
onde Exi, Eyi e Ezi representam a combinação dos
erros geométricos que influenciam em cada uma das
três direções preferenciais.
As MM3C usadas diretamente na linha de
produção apresentam, freqüentemente, erros geométricos de grandezas próximas às das tolerâncias
atuais de uma grande variedade de peças (Hocken
et al., 1993). A natureza sistemática dos erros geométricos permite sua correção ou compensação
através de programas computacionais, o que
melhora de forma expressiva a acuracidade das
máquinas (Hocken et al., 1977; Zhang et al., 1985;
Belforte et al., 1987; Sartori, 1995; Kunzmann et
al., 1995; e Martinez Orrego, 1999).
Ao longo de todos estes anos, os erros mais
estudados têm sido os erros geométricos, pertencentes
ao primeiro grupo, pois sua contribuição para a acuracidade das máquinas é considerada a mais significativa de todas (Peggs, 1990; e Hocken et al., 1993).
Os elementos móveis das máquinas de medir
a três coordenadas são desenhados como corpos
rígidos: com restrições cinemáticas para 5 de seus 6
graus de liberdade e com movimento em uma única
direção.
Em uma máquina de medir com três eixos
têm-se, então, para cada eixo da máquina, 6 erros
geométricos, chamados também de erros paramétricos, devido à sua dependência com a posição (ver
Ev i =
Ex i + Ey i + Ez i
(1)
Fig. 3. Erros geométricos de uma máquina de medir a três coordenadas (Martinez Orrego, 1999).
A) 6 erros geométricos do carro com movimento de translação pura na direção Y;
B) 3 erros angulares -a k o – devido à falta de ortogonalidade entre os eixos perpendiculares à direção k.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
47
g
y
p
ERROS DEVIDO AO PESO DOS
COMPONENTES DA MÁQUINA
Fig. 4. Sonda do tipo touch – trigger (Phillips, 1995).
O movimento contínuo dos carros encarregados de posicionar o ponto de prova no volume de
trabalho de uma máquina de medir desloca o centro
de gravidade de sua estrutura, provocando variações dos estados de deformação dela. Por exemplo,
a variação da posição e da grandeza dos esforços
internos das guias, provocada pelo peso dos carros
em movimento, pode modificar os erros geométricos da máquina (Hocken, 1980; e Cardoza, 1995).
Os efeitos dos erros induzidos pelo peso próprio dos componentes das máquinas de medir
podem ser, se não eliminados, pelo menos minimizados através de desenhos e materiais capazes de fornecer maior rigidez à estrutura das máquinas. É comum
o uso de técnicas de protensão e das técnicas de apoio
de Airy para minimizar as deflexões sofridas pelas
vigas ou guias muito longas (Trumpold, 1984; Cardoza, 1995; e Kunzmann et al., 1995).
ERROS DO SISTEMA
DE MEDIÇÃO OU SONDA
A sonda é o sistema de medição encarregado
de tomar os pontos coordenados sobre a superfície
da peça que está sendo medida pela MM3C. Inicialmente, dispunha-se somente de sondas rígidas: esferas, cones, discos e cilindros. Com o passar do tempo,
desenvolveram-se sondas com mecanismos eletromecânicos, como o bem conhecido touch-trigger, que
agilizaram e ampliaram o uso das máquinas de medir.
Uma sonda do tipo touch-trigger funciona
como um interruptor elétrico: quando a ponta da
sonda faz contato com a superfície da peça, fecha-se
ou abre-se um circuito (por exemplo, fechando ou
abrindo um contato mecânico) e envia-se um pulso
elétrico ao sistema de controle que imediatamente lê
a posição indicada pelas três escalas da máquina. A
figura 4 mostra a estrutura de uma sonda desse tipo.
Em princípio, o desenho da sonda touch-trigger restringe todos os movimentos da ponta de prova.
Dessa forma, sua posição com respeito ao corpo da
sonda é sempre conhecida. Qualquer desvio ou distorção dessa posição inicial são interpretados, então,
como um ponto de medição (Van Vliet & Schellekens, 1998).
48
As sondas do tipo touch-trigger são as mais
usadas nas MM3C mas, geralmente, quando avaliadas, apresentam um padrão de três lóbulos que provoca um erro, freqüentemente, da mesma ordem de
grandeza das tolerâncias da peça. Pesquisas mais
recentes, variando parâmetros como o comprimento e a orientação da haste usada na sonda,
demonstraram que o valor desses erros pode equivaler várias vezes à tolerância desejada para medição
(Hocken et al., 1993). Entretanto, outras famílias
mais modernas de sondas touch-trigger têm princípios de funcionamento baseados em cristais piezelétricos, que lhes conferem melhores características
funcionais, apresentando erros (padrão de lóbulos)
não perceptíveis no nível de incerteza das MM3C.
Outro tipo de sonda diz respeito àquelas que
utilizam princípios ópticos ou optoeletrônicos (triangulação, reflexão, processamento de imagens etc.)
para determinar os pontos coordenados. As sondas
ópticas não fazem contato com a superfície das
Dezembro • 2000
g
y
p
peças e isso possibilita a medição de peças sensíveis
ao contato ou de peças especialmente finas, cuja
medição por contato requer esforços adicionais (Ni
& Wäldele, 1995). Os erros sistemáticos devido à
sonda, seja seu princípio de medição por contato ou
óptico, podem ser, eventualmente e sob condições
bastante específicas, modelados e compensados
através de programas computacionais (Estler et al.,
1996; Estler et al., 1997; e Pahk et al., 1996 e
1998).
ERROS DERIVADOS DOS
PROGRAMAS COMPUTACIONAIS
Os programas computacionais associados a
uma MM3C, basicamente, armazenam os pontos
coordenados e determinam as geometrias substitutas através de algoritmos matemáticos que definem
formas geométricas, como ponto, reta, plano, círculo, cilindro e cone, além de suas possíveis combinações: intersecção de dois planos, distância entre
centros etc.
Os fabricantes desenvolvem e utilizam diferentes algoritmos matemáticos para definir as geometrias substitutas (mínimos quadrados, mínimo
círculo circunscrito, máximo círculo inscrito etc.) e
os implementam em programas computacionais,
sem que existam ainda especificações, internacionalmente aceitas, para estabelecer a sua integridade
(Krecji, 1995).
Em 1986, Porta & Wäldele do PhysikalischTechnische Bundesanstalt (PTB) relataram os resultados da primeira fase de um projeto da Commission of the European Communities sobre testes
realizados com os algoritmos matemáticos para calcular reta, plano, círculo, cilindro e cone, usados por
12 programas diferentes de MM3C. Nesses testes
foi usado um conjunto de pontos coordenados
simulados para cada uma das geometrias. Os resultados fornecidos pelos diferentes programas,
usando os pontos simulados, foram então comparados com os calculados por um programa de referência desenvolvido pelo PTB. As diferenças aí
encontradas foram atribuídas aos algoritmos usados
e à sua respectiva implementação, e não à limitada
acuracidade dos computadores, mostrando, assim,
que os programas computacionais não estão livres
de erros.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
A implementação dos algoritmos é um fator
importante. A maioria dos problemas de ajustes de
geometrias não é linear. Isso obriga a usar técnicas
recursivas para estabelecer os parâmetros corretos,
mas tais técnicas geralmente são lentas e, portanto,
muitos programadores terminam usando aproximações lineares para agilizar os cálculos, o que pode
levar a resultados incorretos (Hocken et al., 1993; e
Phillips, 1995).
Em 1988, alertou-se para o fato de que certos
algoritmos usados nos programas de MM3C para
definir erros de forma e posição não calculavam os
parâmetros destes erros segundo o estabelecido pela
norma ANSI Y14.5: Dimensioning and Tolerancing
Standard. O problema principal reside na interpretação geométrica das definições contidas nessa
norma, que não estão baseadas no uso de ajustes
por mínimos quadrados. No caso de um furo, por
exemplo, especifica-se o maior círculo inscrito e no
caso de um cilindro, o menor cilindro circunscrito;
porém, como a maioria das MM3C define as geometrias usando o ajuste por mínimos quadrados, os
programas não fornecem, em muitos casos, os resultados mais adequados (Hocken et al., 1993).
A International Standard Organization (ISO)
desenvolve, atualmente, uma norma com métodos
de teste para elementos substitutos definidos usando
mínimos quadrados (Krecji, 1995).
ERROS DERIVADOS DA
ESTRATÉGIA DE MEDIÇÃO
Nos dias de hoje, a estratégia para medir uma
peça é determinada pela experiência do operador
da MM3C. Ele escolhe qual característica será
medida primeiro, onde colocar os sistemas de coordenadas da peça para facilitar a medição, qual
opção do programa usar para medir os parâmetros
da peça e, sobretudo, quantos pontos tomar e como
dispersá-los sobre a superfície dela.
Entre todas essas escolhas, as que mais afetam
o resultado da medição são as duas últimas: o
número de pontos e a localização destes sobre a
superfície da peça. Esses dois fatores estão interligados, diretamente, com a efetividade das aproximações feitas na implementação dos algoritmos
escolhidos para definir as geometrias. O grau de
concordância das aproximações implementadas
49
g
y
p
com os valores matematicamente corretos depende
da natureza da aproximação e do grupo particular
de pontos analisados. As aproximações podem funcionar bem para muitas medições, mas também
podem provocar erros consideráveis, quando analisada uma quantidade diferente de pontos coordenados ou quando estes são distribuídos de forma
diferente sobre a superfície da peça (Hocken et al.,
1993; Weckenmann et al., 1995; Phillips, 1995; e
Weckenmann et al., 1998).
Do ajuste de geometrias por mínimos quadrados, a partir de um número insuficiente de pontos
coordenados e de uma inadequada distribuição desses pontos, pode-se obter resultados muito diferentes dos reais. Por exemplo, segundo Coy (1990), no
cálculo de erros de formas, os resultados podem ser
cinco vezes maiores que os verdadeiros. Situações
similares acontecem na medição de todas as geometrias, apesar da existência de procedimentos de
medição (“técnica de reversão”) que, se aplicados,
permitem reduzir esses erros (Estler, 1985; Hocken
et al., 1977; e Evans et al., 1996). Entretanto, tais
técnicas não só requerem um número grande de
pontos, o que aumenta o tempo de medição, mas
também uma rigorosa capacitação do operador da
máquina de medir.
Por outro lado, sabe-se que os erros causados
pelo número inadequado de pontos são, na maioria
dos casos, muito menores quando se utilizam 50 ou
mais pontos para definir a geometria (Hocken et al.,
1993). Contudo, no processo de inspeção, deseja-se
medir as peças o mais rápido possível, o que implica
que a maioria dos usuários de MM3C medem as
características das peças tomando o mínimo de pontos possíveis.
Nos últimos anos, o objetivo principal de
vários trabalhos de pesquisa tem sido a busca do
mínimo de pontos necessários para descrever adequadamente cada geometria, segundo o algoritmo
(mínimos quadrados, minimax etc.) usado para
determinar seus parâmetros principais e considerando também sua distribuição sobre a superfície da
peça (Caskey et al. 1991; Odayappan, 1992; Bourdet et al., 1993; Machireddy, 1993; Phillips et al.,
1994; Weckenmann et al., 1995; e Edgeworth &
Wilhelm, 1999). Odayappan (1992) propõe um
número de pontos mínimo a quatro dos algoritmos
50
mais usados pelas MM3C para medir círculos:
mínimos quadrados, minimax, mínimo círculo circunscrito e máximo inscrito. A recomendação feita
neste trabalho considera, inclusive, o número de
lóbulos da peça.
De tudo o que foi exposto anteriormente,
pode-se concluir serem necessários maiores volumes
de dados para evitar os erros causados pela quantidade indevida de pontos e a sua distribuição. Isso
requer o desenvolvimento de MM3C mais rápidas,
de modo a compensar o aumento do tempo de medição (Hocken et al., 1993). Por outro lado, para evitar
que as decisões a respeito da escolha do critério de
avaliação e da quantidade de pontos e sua distribuição sejam tomadas pelos operários de forma intuitiva
e baseada na experiência, são necessários sistemas
inteligentes, capazes de analisar a geometria a ser
medida e decidir o algoritmo, a quantidade de pontos
e a distribuição mais apropriada para a medição
(Hocken 1993; e Weckenmann et al., 1995).
INFLUÊNCIAS DAS
PROPRIEDADES DA
PEÇA A SER MEDIDA
Toda peça manufaturada é geometricamente
imperfeita; nela estão presentes os efeitos das falhas
do processo de sua manufatura. Quando se fixa a
peça no desempeno de uma MM3C, podem ocorrer outras distorções, que, juntamente com suas
imperfeições geométricas e seu acabamento superficial, podem levar a uma interpretação incorreta dos
resultados da medição de determinada característica. Os erros causados pelas imperfeições da peça
estão diretamente relacionados com as características da estratégia de medição e, principalmente, com
aqueles aspectos, discutidos anteriormente, associados ao número de pontos tomados e à distribuição
deles sobre a superfície da peça (Hocken et al.,
1993; e Phillips, 1995).
O peso das peças também influencia o resultado das medições com MM3C. A posição e a montagem da peça no desempeno causam deformações
na estrutura da máquina, cuja forma e grandeza
dependem do tipo e do tamanho da própria
MM3C. Como ocorre com as deformações causadas pelo peso próprio dos componentes móveis da
máquina, as deformações causadas pelo peso das
Dezembro • 2000
g
y
p
peças se transformam em modificações dos pontos
coordenados (Cardoza, 1995). A rigidez do desempeno e dos elementos estruturais das máquinas é,
portanto, um fator determinante da grandeza desses
erros, mas, em geral, existem algumas formas de
evitá-los ou diminuí-los.
A influência da rugosidade da superfície das
peças pode ser diminuída pelo uso de uma ponta
com diâmetro adequado. Existem estudos que vinculam o tamanho do diâmetro da ponta da sonda
ao valor de cut-off (um dos parâmetros adotados na
medição de rugosidade) para estabelecer o limite
máximo de números de pontos necessários a uma
medição precisa dos erros de forma (Anbari &
Trumpold, 1989). Para eliminar a influência do peso
da peça nos resultados da medição, podem ser usadas diferentes “técnicas de reversão” (Estler, 1985; e
Evans et al., 1996).
ERROS INDUZIDOS
TERMICAMENTE
Embora os efeitos térmicos em uma MM3C
sejam muito menores do que em máquinas-ferramentas, em razão da ausência de forças de corte e
de motores potentes (Hocken, 1980), a segunda
fonte de erros mais importante em uma máquina de
medir são as mudanças e os gradientes de temperatura. Segundo Bryan (1995), a compensação, via
programa computacional, dos erros geométricos
torna as MM3C tão precisas quanto os instrumentos usados para levantar seus mapas de erros. O
limite dessa correção é a repetibilidade, cuja causa1
mais relevante são as mudanças de temperatura.
Mesmo que, na maioria das vezes, as MM3C
sejam usadas em ambientes com temperatura controlada (20ºC), a temperatura ambiente e, conseqüentemente, a temperatura da máquina e da peça a
ser medida podem variar. Essas variações derivam
de diversas fontes e provocam os chamados erros
térmicos, que, segundo Hocken (1993), podem ser
do tipo e grandeza daqueles resultantes das imperfeições da geometria da máquina.
As principais fontes de erros térmicos para
MM3C estão resumidas a seguir:
1 Existem outras causas para a repetibilidade: histerese, sujeira, vibrações, variações no fornecimento de ar etc.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
influência do ambiente → depende da existência ou não de um sistema de controle de temperatura. A temperatura ambiente pode variar em
função da presença de lâmpadas acessas, da temperatura externa e da proximidade do calor
gerado por outras máquinas ou instrumentos;
pessoas → o calor das pessoas próximas à
máquina e a manipulação desta e das peças sem
o devido isolamento térmico provocam variações de temperatura na peça e na máquina;
memória térmica → quando ocorre uma
mudança no ambiente, cada elemento de um
sistema de medição necessita de um período de
tempo diferente para “esquecer” as condições
ambientais anteriores. Os elementos estruturais
de uma MM3C, suas escalas e as peças a serem
medidas por ela podem ser de materiais diferentes e, portanto, possuem coeficientes de expansão térmica também diferentes. Isso significa que
elas entram em equilíbrio térmico com o ambiente em intervalos de tempo diferentes, durante
os quais modificam temporariamente suas respectivas geometrias;
calor gerado pela própria MM3C → de forma
geral, as MM3C geram um mínimo de calor
interno (Hocken, 1980; e Bryan, 1995). O uso
de mancais aerostáticos elimina a maior parte
dos atritos e os motores usados nas máquinas
automatizadas não são potentes.
O calor gerado por essas fontes é de dois
tipos: temperaturas uniformes diferentes de 20ºC e
temperaturas não uniformes (Bryan, 1995; e Vieira
Sato, 1998).
Das fontes anteriormente enunciadas, a única
que pode gerar temperaturas uniformes é o ambiente.
O padrão de comprimento é definido para uma
temperatura de referência de 20ºC. Portanto, os elementos das máquinas, as escalas e as peças fabricadas de materiais com coeficientes de expansão
térmica diferentes têm suas dimensões definidas para
essa temperatura e, quando submetidos a outras temperaturas, se expandem de formas diferentes, provocando os denominados erros de expansão diferencial
(nominal differential expansion-UNDE). Os erros de
expansão diferencial podem ser quase que totalmente
corrigidos e existem procedimentos gerais normalizados para a sua correção (ANSI/ASME Standard
51
g
y
p
B89.6.2, 1973; e ANSI/ASME B89.4.1 – itens 3.1,
3.2, 4.1 e 4.2, 1997).
Entretanto, os coeficientes de expansão térmica usados nos cálculos são, geralmente, valores
tabelados que não correspondem exatamente aos
coeficientes atuais. As diferenças são causadas por
variações inevitáveis dos materiais, sofridas durante
o processo de fabricação de qualquer peça. Os efeitos dessas diferenças são considerados no cálculo da
incerteza da expansão diferencial (uncertainty of
nominal differential expansion-UNDE), definida
pela ANSI/ASME Standard B89.6.2 de 1973 como
a soma das incertezas da expansão nominal da peça
e do padrão (escala).
As outras três fontes de erros térmicos mencionadas geram temperaturas não uniformes: gradientes e variações de temperatura. Qualquer mudança
na temperatura do ambiente altera as dimensões da
estrutura da máquina e de suas escalas, assim como
da peça. No entanto, as mudanças de temperatura
ocorridas no espaço imediato ao redor da máquina
e da peça são chamadas de gradientes térmicos ou
efeitos estáticos (Bryan, 1995) e causam expansões
significativamente diferentes nas diversas partes de
cada um dos elementos da máquina e da peça.
Mudanças grandes e rápidas de temperatura
provocam flexões nos elementos das máquinas em
razão de a resposta nas partes finas ser mais rápida
do que nas partes grossas. O uso de sistemas de controle de temperatura que façam circular o ar rapidamente, como também de materiais suficientemente
homogêneos quanto a suas propriedades de expansão térmica minimiza ou permite controlar de certa
forma os efeitos dos gradientes de temperatura
(Bryan, 1995; e Genest, 1997). Porém, segundo a
ANSI/ASME Standard B89.6.2 - 1973, revisada em
1979, não existe uma formulação geral para estimar
os efeitos desses gradientes.
A análise das variações de temperatura é
muito mais complexa do que a dos gradientes.
Vieira Sato (1998) define as variações de temperatura como a diferença do gradiente de temperatura
em determinado ponto da máquina ou da peça com
relação ao gradiente do estado inicial, quando todo
o sistema está à temperatura ambiente. Contudo,
sabe-se que, quando uma máquina opera a temperaturas diferentes de 20ºC, tais correções não elimi-
52
nam 100% dos erros térmicos. O índice de erro
térmico (thermal error index–TEI), definido na
norma anteriormente mencionada, proporciona
uma estimativa do erro térmico geral como sendo
uma porcentagem do erro total permitido.
Segundo Balsamo et al. (1990), a compensação dos erros térmicos com programas computacionais faz sentido, somente, quando é requerida uma
grande acuracidade. Esse autor define e resume as
condições ambientais “razoáveis”, que minimizam
os efeitos térmicos presentes em uma medição com
MM3C:
1. temperatura média igual a 20ºC;
2. variação de temperatura menor que ± 2ºC;
3. gradiente de temperatura ao longo de qualquer
direção menor que 2ºC/m;
4. variações de temperatura no tempo que proporcionem condições “quase estacionárias”.
Erros Dinâmicos
Nas máquinas de medir a três coordenadas, os
efeitos dinâmicos são menores porque as forças
envolvidas na medição são muito pequenas e, geralmente, os movimentos são lentos (Hocken, 1980).
Na prática, entretanto, reconhece-se que a acuracidade das MM3C é especialmente sensível às vibrações externas e internas (Ni, 1995). Fora do
laboratório, várias fontes de vibrações podem afetar
as MM3C; entre as mais comuns encontram-se as
máquinas-ferramentas, os compressores de ar, equipamentos de ventilação, rodovias e ferrovias. A
forma mais efetiva de minimizar o efeito das vibrações nas MM3C é controlar suas próprias fontes,
isolando-as. Por exemplo, pode-se aumentar a distância entre uma máquina-ferramenta e a máquina
de medir, ou isolar a máquina-ferramenta em sua
base. Mas isso nem sempre é possível e, usualmente,
apesar de ser menos eficiente, isola-se a MM3C,
apoiando-a em suportes com isolamento externo de
vibração (Ni, 1995).
Mesmo assim, é impossível obter uma fundação totalmente isenta da influência das vibrações.
Torna-se então necessário garantir que o resíduo
ainda presente das vibrações esteja sob os critérios
do fabricante da máquina de medir. Algumas normas técnicas internacionais sugerem testes para analisar as vibrações nas MM3C (ver, entre outras, BS
Dezembro • 2000
g
y
p
6808 – Part 3, 1989; e ANSI/ASME B89.4.1,
1997).
Por outro lado, sabe-se que as sondas usadas
nas MM3C são, especialmente, sensíveis a influências dinâmicas (inclusive quando a velocidade de
movimentação é baixa), embora pouco tenha sido
publicado a respeito. Algumas pesquisas bastante
recentes estudam as limitações das sondas em relação ao seu comportamento sob influências dinâmicas (Van Vliet & Schllekens, 1996) e propõem
modelos que possibilitam, em certa medida, a compensação dos erros resultantes dessas limitações
(Weekers & Schellekens, 1995; e Mu & Ngoi,
1999).
OUTROS FATORES QUE
AFETAM O DESEMPENHO
DAS MM3C
A umidade, a pressão atmosférica, o sistema
que fornece a energia elétrica, assim como a qualidade do ar comprimido, todos esses são fatores
externos cujo comportamento também influencia o
desempenho das MM3C. Em geral, para todos eles
existem especificações que, se respeitadas, eliminam
ou, pelo menos, diminuem em grande parte os seus
efeitos sobre o desempenho das máquinas de medir.
CONCLUSÕES
O estudo da literatura existente sobre MM3C
mostrou que não existem até o momento procedimentos internacionalmente aceitos, por usuários e
fabricantes, para avaliar o seu desempenho metrológico. Em geral, ainda não é possível estabelecer uma
cadeia metrológica para fins de rastreabilidade,
requisito esse de importância vital para que se tenha
confiabilidade nas medições executadas. As especificações e normas existentes (ver, entre outras, VDI/
VDE 2.617, 1986-1989; JIS B 7.440, 1987;
CMMA, 1989; BS 6.808, 1989; ISO/CD 10.360-2,
1993; e ANSI/ASME B89.4.1, 1997) propõem Testes de Desempenho baseados na medição de artefatos-padrão em um número limitado de posições
dentro do volume de trabalho de uma máquina.
Os parâmetros de avaliação obtidos a partir
desses testes fornecem informação sobre alguns
aspectos da capacidade de uma máquina de medir,
mas, de forma muito geral ou conservadora, sobre-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
estimando na maioria das vezes os seus erros. Além
disso, tais testes garantem rastreabilidade somente
para as condições de avaliação em que são realizados e para peças idênticas ao padrão utilizado.
Qualquer mudança das condições do teste – por
exemplo, na orientação da peça no volume de trabalho – impede a rastreabilidade, assim como as
variações na geometria das peças implicam diretamente uma ausência de vínculo com a cadeia de
dimensões rastreáveis.
Na literatura, a abordagem metrologicamente
correta para estabelecer a rastreabilidade das medidas feitas com máquinas de medir a três coordenadas ao metro padrão é chamada de “princípio do
comparador”. Esse princípio pressupõe a medição
de uma peça idêntica às peças que serão inspecionadas, nas mesmas condições e do mesmo modo em
que se realiza a inspeção (Swyt, 1995; e Piratelli,
1998). Porém, é impraticável dispor de uma peçapadrão para cada peça possível de ser medida em
uma MM3C.
Na busca de uma alternativa viável para a aplicação do “princípio do comparador”, surgiram pesquisas envolvendo modelos matemáticos, cuja
implementação é chamada de Máquina Virtual de
Medir a Três Coordenadas. A partir dos erros volumétricos das máquinas, eles tentam simular o seu
comportamento metrológico em diferentes operações de medição (Kunzmann, 1993; Schwenke et
al., 1994; e Cardoza, 1995). As propostas mais interessantes dessa abordagem diferem, principalmente,
no método utilizado para calibrar os erros individuais
da máquina de medir e no modelo que os combina
para gerar seu mapa de erros volumétricos.
Finalmente, nenhuma das propostas estudadas, especificadas em normas ou não, para a avaliação do desempenho metrológico de MM3C
mostra, de forma explícita, o cálculo da incerteza de
medição das diferentes medições. Na prática, tanto
os fabricantes como os usuários utilizam os mais
variados critérios para avaliar o desempenho e a
incerteza das MM3C (Knapp et al., 1991; e Swyt
1995). Isso permite concluir que existem ainda muitas lacunas no desenvolvimento técnico-científico
relativo às formas de testes para essas máquinas, a
partir das quais seja possível extrair as características
53
g
y
p
que determinam seu desempenho e garantem sua
rastreabilidade.
Agradecimentos
Os autores agradecem à FAPESP pelo suporte
financeiro (94/5765-2; 96/5961-1).
REFERÊNCIAS BIBLIOGRÁFICAS
ANBARI, N. & TRUMPOLD, H. The influence of surface roughness in dependence of the probe ball radius measuring the actual
size. CIRP Sc. Tech. Comm. Report (Surface Metrology), 1989.
ANSI/ASME B89.4.1 (formerly ANSI/ASME B89.1.12M): Methods for performance evaluation of coordinate measuring machines, 1997.
ANSI/ASME Standard B89.6.2: Temperature and Humidity Environment for Dimensional Inspection, 1973.
BALSAMO, A.; MARQUES, D. & SARTORI, S. A method for thermal deformation corrections of CMMs. Annals of the CIRP,
1990.
BELFORTE, G.S. et al. Coordinate Measuring Machines and Machine Tools Selfcalibration and Error Correction. Annals of
the CIRP, 36 (1), 1987.
BOSCH, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995.
BOURDET, P.; LARTIGUE, C. & LEVEAUX, F. Effects of data point distribution and mathematical model on finding the bestfit sphere to data. Precision Engineering, 15 (3): 150-157, July 1993.
BRYAN, J.B. Temperature Fundamentals. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel
Dekker, Inc., 1995.
BS 6808 Parts 1-3: British Standard – Coordinate Measuring Machines, 1989.
BURDEKIN, M. & VOUTSADOPOULOS, C. Computer aided calibration of the geometric errors of multi-axis coordinate
measuring machines. Proc. Instn. Mech. Engrs., 195: 231-239, 1981.
CARDOZA, J.A.S. Máquinas Virtuais de Medir a Três Coordenadas. São Carlos, 1995. [Tese de doutorado, EESC/USP].
CASKEY, G. et al. Sampling Techniques for Coordinate Measuring Machines. Proc. of the NSF Conference, 1991.
CIRP STC “Me” Working Party on 3D.A proposal for defining and specifying the dimensional uncertainty of multi-axis measuring machines. Annals of the CIRP, 27 (2), 1978.
CMMA-Coordinate Measuring Machines Manufacturing Association. CMMA - Accuracy Specification for Coordinate Measuring Machines, London, 1989.
COY, J. Sampling error for co-ordinate measurement. Proceedings of the 28thInternational MATADOR Conference, pp. 481489, Manchester, April 1990.
De NIJS, PRé-NOME et al. Modeling of a coordinate measuring machine for the analysis of its dynamic behavior. Annals of the
CIRP, 37 (1), 1988.
Di GIACOMO, B. Computer aided calibration and hybrid compensation of geometric errors in coordinate measuring machines. Manchester, 1986. [Ph.D. Thesis, Institute of Science and Technology/University of Manchester].
EDWORTH, R. & WILHELM, R.G. Adaptive sampling for coordinate metrology. Precision Engineering, 23: 144-154, 1999.
EMERY, J. K. Dimensional Metrology Standardization. Mechanical Engineering, 40-45, 1965.
ESTLER, W.T. Calibration and use of optical straightedges in the metrology of precision machines, Optical Engineering, 24 (3):
372-379, May/June 1985.
ESTLER, W.T. et al. Practical Aspects of touch-trigger probe error compensation. Precision Engineering, 21: 1-17, 1997.
____________. Error compensation for CMM touch-trigger probes. Precision Engineering, 19: 85-97, 1996.
EVANS, C.; HOCKEN, R. & ESTLER, W.T. Self-Calibration: Reversal, Redundancy, Error Separation and “Absolute Testing”.
Annals of the CIRP, 45 (2), 1996.
GENEST, D. Thermal Effects: understanding their causes can minimize their influence on precision measurement. Mfg.The
Brown&Sharpe Publication of Precision Measurement, v. 4, issue 2, 1997.
HARVIE, A. Factors affecting component measurement on coordinate measuring machine. Precision Engineering, 18 (1): 1318, 1986.
HOCKEN, R. Technology of Machine Tool, v. 5: Machine Tool Accuracy. Lawrence Livermore Laboratory/Univ. of California,
1980.
HOCKEN, R.; RAJA, J. & BABU, U. Sampling Issues in Coordinate Metrology. Mfg. Rev., Dec. 1993.
HOCKEN, R. et al. Three Dimensional Metrology. Annals of the CIRP, 26 (2): 403-408, 1977.
ISO/CD 10.360-2: Methods for the Assessment of the Performance and Verification of Co-ordinate Measuring Machines, 1993.
JIS B 7440: Test Code for Accuracy of Coordinate Measuring Machines, 1987.
54
Dezembro • 2000
g
y
p
KNAPP, W.; TSCHUDI, U. & BUCHER, A. Comparison of Different Artifacts for Interim coordinate measuring machine checking: a report from the Swiss Standard Committee. Precision Engineering, 13 (4): 277-281, 1991.
KRECJI, J.V. Application Software. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker,
Inc., 1995.
KUNZMANN, H.; TRAPET, E. & WäLDELE, F. Concept for the Traceability of Measurements with Coordinate Measuring
Machines. 7th Int. Precision Eng. Seminar, Kobe, 1993.
KUNZMANN, H; WäLDELE, F & NI, J. Accuracy Enhancement. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995.
MACHIREDDY, R.K.; HARI, J. & HOCKEN, R. Sampling Techniques for Measurement of the Plane-Surface Using a Coordinate Measuring Machine. National. Des. Engrg. Conference. ASME, 1993.
MARTINEZ ORREGO, R.M. Um método de calibração direta para máquinas de medir a três coordenadas. São Carlos, 1999.
[Tese de doutorado, EESC/USP].
MU, Y.H. & NGOI, K.A. Dynamic Error Compensation of Coordinate Measuring Machines for High-Speed Measurement.
Int. J. of Advanced manufacturing Technology, 5 (11): 810-814, 1999.
NI, J. Environmental Control. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc.,
1995.
NI, J. & WäLDELE, F. Coordinate Measuring Machines. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New
York: Marcel Dekker, Inc., 1995.
ODAYAPPAN, O. Development of Methodologies for Measurement of circles on a Coordinate Measuring Machine. Charlotte,
1992. [Master Thesis, UNC Charlotte].
PAHK, H.; KIM, J. & LEE, K. Integrated compensation system for errors introduced by measurement probe and machine geometry in commercial CMMs. International Journal of Machine Tools Manufacturer, 36 (9): 1.045-1.058, 1996.
PAHK, H.J.; BURDEKIN, M. & PEGGS, G.N. Development of Virtual Measuring Machine Incorporating Probe Error. Proceedings of the Institution of Mechanical Engineers, part B: Journal of Engineering Manufacture, 212 (issue B7):
533-548, 1998.
PEGGS, G.N. Traceability for co-ordinate measurement technology. 27th International MATADOR Conference, Manchester,
pp. 463-468, 1990.
PHILLIPS, S.D. Performance Evaluations. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel
Dekker, Inc., 1995.
PHILLIPS, S.D. et al. A Study on the Interaction of Form Error and Sampling Strategy for Spheres. NIST Journal of Research,
1994.
PIRATELLI, A. Método para avaliação do desempenho de máquinas de medir a três coordenadas através de planejamento de
experimento. São Carlos, 1998. [Tese de doutorado, EESC/USP].
PORTA, C. & WäLDELE, F. Testing of three coordinate measuring machine evaluation algorithms. Report EUR 10909 EN,
CEC, 1986.
PRODUCTIONS POINT: Performance Evaluation of coordinate measuring machines. Precision Engineering, 5 (3), July/1983.
SARTORI, S. Geometric error measurement and compensation of machines. Annals of the CIRP, 44 (2), 1995.
SCHELLEKENS, P. & ROSIELLE, N. Design for precision: currents status and trends. Annals of the CIRP, 47 (1): 557-586,
1998.
SCHWENKE, H. et al. Experience with the Error Assessment of Coordinate Measurements by Simulations, Proceedings of the
3rd International Conference on Ultraprecision in Manufacturing Engineering. Aachen, pp. 370-373, 1994.
SWYT, D.A. The international standard of length. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York:
Marcel Dekker, Inc., 1995.
TRUMPOLD, H. Grundlagen der Längenprüftechnik-Eine Einführung. Fachb. Leipzig, 1984.
VAN VLIET, W.P. & SCHELLEKENS, P.H.J. Accuracy Limitations of Fast Mechanical Probing. Annals of the CIRP, 45 (1): 483487, 1996.
______________. Development of a fast mechanical probe for coordinate measuring machines. Precision Engineering, 22 (3):
141-152, 1998.
VDI/VDE 2617 Parts 1-4: Accuracy of Coordinate Measuring Machine. Düsseldorf, 1986-89.
VIEIRA SATO, D.P. Uma contribuição ao modelo de sintetização de erros em máquinas ferramentas. São Carlos, 1998. [Tese de
doutorado, EESC/USP].
WECKENMANN, A. et al. Functionality-oriented evaluation and sampling strategy in coordinate metrology. Precision Engineering, 17: 244-252, 1995.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56
55
g
y
p
_________________. The Influence of Measurement Strategy on the Uncertainty of CMM-Measurements. Annals of the CIRP,
47 (1): 451-454, 1998.
WEEKERS, W.G. & SCHELLENKENS, P.H.J. Assessment of Dynamics Errors of CMMs for fast Probing. Annals of the CIRP,
44 (1): 469-474, 1995.
ZHANG, G. et al. Error compensation of coordinate measuring machines. Annals of the CIRP, 34 (1): 445-448, 1985.
56
Dezembro • 2000
g
y
p
Design of a Digital
Controller for a
Sub-micrometric
Positioning System
Projeto de um Controlador Digital para um
Sistema de Posicionamento Submicrométrico
WALTER LINDOLFO WEINGAERTNER
Universidade Federal de Santa Catarina
[email protected]
RICARDO COMPIANI TAVARES
Universidade Federal de Santa Catarina
[email protected]
CZESLAU BARCZAK
Universidade Federal de Santa Catarina
[email protected]
CARLOS A. MARTIN
Universidade Federal de Santa Catarina
[email protected]
RESUMO – Neste artigo é proposto o projeto de um controlador digital de alta resposta dinâmica, projetado para o controle de posição de um sistema de posicionamento submicrométrico. Tal sistema posicionador simulado é constituído de
uma mesa guiada por mancais de molas (flexural spring guides), acionada por um atuador piezelétrico (piezoelectric actuator) e com extensômetros dispostos em ponte para o sensoreamento de sua posição linear. A discretização do sistema de
posicionamento submicrométrico, compreendendo o atuador piezelétrico e seus subsistemas mecânicos e eletrônicos, foi
executada com sucesso. A resposta dinâmica da planta e do grampeador de ordem zero (zero-order hold) foi muito boa,
com uma sobrepassagem (overshoot) menor em aproximadamente 20%, comparada com a resposta dinâmica do controlador e da planta contínuos no tempo. O projeto do controlador PD (Proporcional-Derivativo) discreto resultou em
um sistema com desempenho dinâmico excelente e com tempo de resposta e tempo de estabilização bem menores do
que os resultados obtidos pela discretização do sistema contínuo.
Palavras-chave: CONTROLADOR DIGITAL – POSICIONAMENTO SUBMICROMÉTRICO – DISCRETIZAÇÃO – ATUADOR PIEZELÉTRICO – CONTROLADOR PD.
ABSTRACT – This paper concerns a digital controller design for position control of a sub-micrometric system of high
dynamic response. The system is assembled on a table with flexural spring guides driven by a piezoelectric actuator, and
with extensometers for linear position measurement. The discretization of the sub-micrometric positioning system
through the piezoelectric actuator, and its mechanical sub-system was successfully performed. The dynamic response of
the plant with zero-order hold was very good, with an overshoot of less than 20%, same as response of the continuous
system. The design of a PD discreet controller resulted in a even better dynamic performance, with rise and settling times
less than those obtained with the discretization of the continuous system.
Keywords: DIGITAL CONTROLLER – SUB-MICROMETRIC POSITIONING – DISCRETIZATION – PIEZOELECTRIC ACTUATOR – PD
CONTROLLER.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64
57
g
y
p
INTRODUCTION
T
his paper presents the digital controller design
for a sub-micrometric positioning system with
a single translation axis, using a piezoelectric
actuator and flexural spring guides, directly driven.
The design of the controller was based in two
methods:
i) design of a digital controller by discretization of
the continuous system;
ii) design of a digital controller by discretization in
time (discret PID controller in z-plane).
The piezoelectric actuator used in the sub-micrometric positioning is a P-172 of Physik Instrumente.
The P-172 have four extensometers for the sub-micrometric positioning feedback control of the table. The
following list provides technical data of P-172.
List 1. Technical data of P-172.
Technical characteristics
P-172
Nominal Voltage
–1000 V
Maximum Operational Voltage
–1500 V
Pole
negative
Maximum Expansion Strength
1000 N
Maximum Contraction Strength
100 N
Nominal Expansion (-1000 V)
20 µm
Maximum Expansion (-1500 V)
30 µm
Rigidity
35 N/µm
Electric Capacitance
38 nF
Ressonance Frequency
9 kHz
Thermal Dilatabilty Coeficient
0.4 µm/K
Weight
0.08 N
The positioning system have the following
characteristics, which must be satisfied by the controller:
• precision of positioning ± 50 nm;
• resolution 0.1 µm;
• settling time maximum 10 ms;
• rise time maximum 0.5 ms.
58
DESIGN OF THE
CONTINUOUS CONTROLLER
The sub-micrometric positioning system
model was established considering the piezoelectric
actuator with its electronics, and the mechanics,
resulting in the following system transfers functions
(Ogata, 1998; Tavares, 1995; e Troncoso et al.,
1994).
The transfer function of the piezoelectric
actuator with its electronics is given by:
K ⋅ ω 2 n1
G(s) 1 = -------------------------------------------s
2
s + 2ξ 1 ω n1 + ω n1
(1).
From the references (Tavares, 1995; Troncoso
et al., 1994; Lutrell et al., 1987) one may consider
that the natural frequency ωn1 is 5.03 x 104 rad/s,
the damping ratio ξ1 is 0.7, and the gain K is 1 x
103 µm/V. Entering the values in equation (1),
results:
6
2.53x10
G ( s ) 1 = -------------------------------------------------------------2
4
9
s + 7.04x10 s + 2.5x10
(2).
The positioning system mechanics transfer
function is defined by:
2
ω n2
G ( s ) 2 = --------------------------------------2
2
s + 2ξ 2 ω 2 + ω 2
(3).
Where, from Tavares (1995), one obtaIn:
ωn2 = 2 x 104 rad/s;
ξ2 = 0.08.
Entering the values in equation (3), results:
8
4x10
G ( s ) 2 = -----------------------------------------------------2
3
8
s + 3.2x10 s + 4x10
(4).
The figure 1 shows the block diagram of the
continuous system.
Making G(s)=G(s)1 . G(s)2 (5), results:
Dezembro • 2000
g
y
p
15
1.01 × 10
G ( s ) = ----------------------------------------------------------------------------------------------------------------------------------------------------4
4 3
9 2
13
18
s + 7.36 × 10 s + 3.16 × 10 s + 3.64 × 10 s + 1.01 × 10
(6).
Fig. 1. Block diagram of the positioner feedback control
The figure 2 shows the step response of the
system and figure 3 show a Bode Diagram (or frequency response) of the continuous system.
Fig. 2. Step Response of the System.
-3
1.8
x 10
1.6
1.4
The sub-micrometric positioning system showed a excellent rise time of 0.25 ms, less than the
specified 0.50 ms. The system showed a settling
time is 5 ms, less than the specified 10 ms. The gain
margin is 60dB, corroborating the excellent dynamics of the sub-micrometric positioning system.
The sub-micrometric positioning system showed initially a overshoot of 70%, however the system stabilized rapidly.
1.2
CONTINUOUS PLANT
DISCRETIZATION
1
0.8
This item will present the discreet transfer
function of the plant for the sub-micrometric positioning system, with the selection and analysis of
zero-order hold (ZOH) continuous in time. A discretization of the continuous transfer function G(s),
according to Franklin (1998), Bishop (1997) and
Ogata (1995), will then made.
0.6
0.4
0.2
0
0
1
2
3
4
5
-3
x 10
Fig. 3. Frequency Response of the System.
SELECTION AND ANALYSIS
OF ZERO-ORDER HOLD Goz(s)
INFLUENCE
Gain dB
0
-100
By the aproximation gived by equation (6)
with sampling time T = 0.0001s = 0.1 ms, results:
-200
2
10
10
3
4
10
Frequency ( rad/sec)
10
5
10
6
Phase deg
0
-180
-360
10
2
10
3
4
10
Frequency ( rad/sec)
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64
10
5
10
6
2⁄T
G oz ( S ) = ------------------s+2⁄T
(7),
2
---------------0.0001
20000
G oz ( S ) = ------------------------- ⇒ G oz ( S ) = ----------------------2
s + 20000
s + ---------------0.0001
(8).
59
g
y
p
Fig. 4. Block diagram of the continuous system with Goz(s).
Fig. 5. Root Locus of the system with.
dynamics, since this pole tends to negative infinit.
The gain margin of system is 60 dB (fig. 6).
Goz(s)Goz(s)
The figure 7 presents the step response of the
sub-micrometric positioner. The overshoot of the
system with Goz(s) is the approximately 12% less
than the continuous system response without zeroorder hold (fig. 2). The rise time with Goz(s) is 3 ms.
The inclusion of zero-order hold Goz(s) in the continuous system increased he dynamic performance of
the sub-micrometric positioner.
Fig. 7. Step response of the sub-micrometric positioner
with Goz(s).
Fig. 6. Bode Diagrams of the system with.
PLANT DISCRETIZATION
The sub-micrometric positioner with zeroorder hold Goz(s) is represented in figure 4.
The figures 5 and 6 show the results of system
simulation. The figure 5 indicates that additional
pole of the zero-order hold not affect the sytem
60
The Tustin’s bilinear aproximation was used
to obtain the discreet transfer function of the G’(z)
plant. The value of G’(z) was obtained from the
continuous system G(s). The transfer function for
the sub-micrometric positioner G(s) is:
Dezembro • 2000
g
y
p
15
1.01 × 10
G ( s ) = ----------------------------------------------------------------------------------------------------------------------------------------------------4
4 3
9 2
13
18
s + 7.36 × 10 s + 3.16 × 10 s + 3.64 × 10 s + 1.01 × 10
(9).
From this equation, was obtained the discret transfer function G’(z).
–1
3
–2
–3
–4
1 × 10 ( 0.07 + 0.27z + 0.41z + 0.27z + 0.07z )
G′ ( z ) = ------------------------------------------------------------------------------------------------------------------------------------–1
–2
–3
–4
1 – 86z + 0.76z + 0.02z + 0.17z
(10).
THE ZERO-ORDER
HOLD DISCRETIZATION
The discreet transfer function of Goz(s) is generated by Tustin’s bilinear transformation, resulting in the
discreet time function Goz(z). Therefore:
–1
0.33 + 0.33z
G oz ( Z ) = ----------------------------------–1
1 – 0.33z
(11).
DISCRET TRANSFER FUNCTION OF THE PLANT
G(z) WITH ZERO-ORDER HOLD Goz(s)
With discreet transfer functions of the zero-order hold and of the plant, Goz(z) and of G’(z) respectively, developed in Plant Discretization and The Zero-Order Hold Discretization, is possible to determinate
the discreet transfer function of the sub-micrometric positioner system G(z). G(z) is the produt of Goz(z) and
G’(z), as in (12).
According to figure 8, G(z) = Goz(z) .G’(z)(12).
Substituting both Goz(z) and G’(z) in the equation (12), results In:
–1
–3
–1
–2
–3
–4
1 × 10 ( 007 + 0.27z + 0.41z + 0.27z + 0.07z )
0.33 + 0.33z
- ⋅ -------------------------------------------------------------------------------------------------------------------------------------G ( z ) = ---------------------------------–1
–1
–2
–3
–4
1 – 0.33z
1 – 0.86z + 0.76z + 0.02z + 0.17z
(13).
Developind the above expression, results in (14):
–5
–4 –1
–4 –2
–4 –3
–4 –4
–5 –5
2.31 × 10 + 1.12 × 10 z + 2.21 × 10 z + 2.21 × 10 z + 1.12 × 10 z + 2.31 × 10 z
G ( z ) = ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------–1
–2
–3
–4
–5
1 – 1.19z + 1.04z – 0.23z + 0.16z – 0.06z
Figures 9 and 10 show the step response and frequency response diagrams of the discreet sub-micrometric positioner system simulation, using G(z).
Fig. 8. Block diagram of the discret system.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64
61
g
y
p
Fig. 9. Step response of the discreet system.
positioner system’s dynamics. The figure 11 shows the
system and digital controller squematic diagram.
PROPORTIONALDERIVATIVE CONTROLLER (PD)
D(z) = KP + KD (1 – z–1) (15) the proportional-derivative controller is described by, where KP
is the proportional gain and KD is the derivative
gain, resulting:
( K P + K D )z – K D
D ( z ) = -----------------------------------------z
Fig. 10. Frequency response of the discreet system.
(16).
Algebraically working the equation (16),
results In:
k(z – a)
D ( z ) = ------------------z
(17), with 0 ≤ a ≤ 1.
Comparing equations (16) and (17), results In:
k = KP + KD
and
KD
-.
a = -------------------KP + KD
Transforming the equation (17) to negative
powers from z, results:
D(z) = k (1 – az-1)
The discreet system presented an overshoot of
20% less than the continuous system. The design specifications are attained when the discret system is settling in
stationary state in k = 70. The gain margin is 20 dB.
DESIGN THE PID
DISCREET CONTROLLER
With the discreet transfer function of the system
G(z) given by (14), a discreet controller was designed,
whith the purpose of improving the sub-micrometric
(18).
The figures 12 and 13 show the step response and frequency response diagrams of the system with a proportional derivative controller (PD),
having KP = 0.5 and KD = 0.5 resulting in a = 1.
Figure 12 indicates that the system’s overshoot is, approximately, one thousand times less
than the continuous system. The digital controller
PD increased the system’s dynamics.
The figure 13 shows a Bode diagram frequency response of the sub-micrometric positioning
system with the digital controller. A gain margin of
80 dB was considered excellent.
Fig. 11. Bock diagram of the discreet positioner system with digital controller.
62
Dezembro • 2000
g
y
p
Fig. 12. Step response of the discreet system and controller.
Fig. 13. Frequency response of the discreet and controller.
CONCLUSIONS
The discretization of a sub-micrometric positioning system assembled with a PZT, its electronics
and the mechanical sub-system, continuous in time,
was performed with success. The dynamic response
of the plant G(z) with the zero-order hold Goz(z)
was very good, with an overshoot 20% less than the
continuous system response.
The proportional-derivative (PD) discreet
controller design resulted in the system with dynamic performance even better, with rise and settling
times less than those obtained with the discretization of the continuous system Goz(z) without controller. The overshoot is approximaly one thousand
times less than the continuous system. This resulted
in better positioning precision of the sub-micrometric positioning system.
Agradecimentos
Os autores agradecem ao apoio financeiro do
CNPq (bolsa de doutorado) para a realização
deste trabalho.
REFERENCES
BISHOP, R.H. Modern Control Systems. Analysis & Design: Using MATLAB and SIMULYNK. Menlo Park: Addison-Wesley,
1997.
FRANKLIN, G.F. et al. Feedbak Control of Dynamic Systems, 3rd ed. Reading: Addison-Wesley, 1994.
___________. Digital Control of Dynamic Systems, 3rd. ed. Reading: Addison-Wesley, 1998.
LEVINE, W.S. (org). The Control Handbook. Boca Raton: CRC Press, 1996.
LUTTRELL, D.E. & DOWN, T.A. Development of a High Speed System to Control Dynamics Behaviour of Mechanical
Structures. Precision Engineering, 9 (4), Surrey, UK, Butterworth Scientific Ltd., October/1987.
OGATA, K. Discrete-Time Control Systems, 2nd ed., Englewood Cliffs, NJ Prentice-Hall, 1995.
OGATA, K.. System Dynamics, 3rd. ed., Englewood Cliffs, NJ, Prentice-Hall, 1998.
TAVARES, Ricardo C. Projeto de um Posicionador Submicrométrico para Litografia Óptica. Florianópolis, 1995. [Dissertação
de mestrado, Pós-Graduação em Engenharia Mecânica/UFSC].
TRONCOSO, L.S. et al. Sistema Activo de Estabilizacion Aplicado à la Holografia Electronica. Laboratório de Metrologia e
Automatização, Departamento de Engenharia Mecânica/UFSC. Anales VI Congresso Nacional de Ingenieria
Mecànica. Santiago, 1994.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64
63
g
64
y
p
Dezembro • 2000
g
y
p
Lógica Modal Aplicada
a Grafo a Eventos
Modal Logic Applied to Events Graph
JOSÉ CARLOS MAGOSSI
Universidade Metodista de Piracicaba e
Faculdade de Tecnologia de Americana (CEETEPS)
[email protected]
RESUMO – O objetivo deste texto é mostrar uma aplicação de um sistema lógico modal, denominado sistema lógico NK,
na modelagem de grafos a eventos (classe particular de redes de Petri). Esses modelos lógicos de grafos a eventos aplicamse, por sua vez, em análise de especificações de sistemas dinâmicos a eventos discretos. Dada uma especificação (descrição
de alguma restrição do sistema), utiliza-se das ferramentas advindas do sistema lógico NK, particularmente o método
tableau analítico, para verificar se a especificação é satisfeita ou não no sistema modelado. Após noções sobre grafo a
eventos, sistema lógico NK e a relação entre eles, um exemplo simples é exposto ao final. A principal característica deste
texto consiste em explicar o processo de modelagem de grafo a eventos por meio de fórmulas do sistema lógico NK de
maneira sucinta, sem abusar de demonstrações, esperando, com isso, que o estudante iniciante possa adquirir algum
conhecimento em questões que envolvam lógica e grafo a eventos.
Palavras-chave: LÓGICA MODAL – TABLEAUX – REDES DE PETRI – GRAFO A EVENTOS – SISTEMAS DINÂMICOS – EVENTOS
DISCRETOS.
ABSTRACT – The objective of this paper is to show how we can apply modal logic, named NK-logical system, to events
graphs (particularly class of Petri nets). Those events graphs logical models are applied in turn to the verification of specification of discrete event dynamic systems. Given an specification (a description of a certain system constraint), we are
able to use tools taken from the NK-logical system (especially analytic tableau) to verifies if the specification is satisfiable
or not in the modeled system. After showing notions of events graph, NK-logical system and the relation between them,
we present in the end a simple example. Our aim is to explain the events graph modeling process in a direct way rather
than through many proofs. We hope with this that beginners will be able to get some knowledge on logic and eventsgraph related matters.
Keywords: MODAL LOGIC – TABLEAUX – PETRI NETS – EVENTS GRAPH – DYNAMIC SYSTEM – DISCRETE EVENT.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
65
g
y
p
INTRODUÇÃO
E
ste texto tem por objetivo explicar o processo
de modelagem de grafo a eventos via lógica
modal. Tais modelos aplicam-se em sistemas
de manufatura, automação industrial etc. Como as
aplicações desses modelos lógicos são direcionadas a
sistemas dinâmicos, num primeiro momento, é feito
um breve relato sobre sistemas dinâmicos e análise
de verificações em sistemas dinâmicos a eventos discretos. Na seqüência, são abordados grafos a eventos, o sistema lógico NK, a relação entre eles e, ao
final, faz-se uma aplicação a sistemas dinâmicos a
eventos discretos.
Sistemas Dinâmicos
Um sistema pode ser descrito como um aglomerado de coisas; ele é dinâmico se houver uma
evolução delas com o passar do tempo. Os sistemas
dinâmicos podem ser divididos em duas classes:
contínuos e discretos (Cassandras, 1993). Os sistemas contínuos são aqueles cuja evolução é medida
em função de componentes contínuos (como o
tempo) e sistemas discretos têm a sua evolução
medida em função de componentes discretos. Um
sistema caracterizado, por exemplo, pelo fluxo de
óleo em uma tubulação será um sistema contínuo se
a quantidade de fluído for o fator de sua evolução.
Já um sistema de montagem de peças, em uma
fábrica de cadeiras, será discreto se o número de
cadeiras montadas for o fator de sua evolução.
Entre os sistemas dinâmicos discretos estão aqueles
cuja dinâmica é dirigida pela ocorrência de eventos
discretos, chamados sistemas dinâmicos a eventos
discretos (SDED) (Baccelli et al., 1991 e Cohen et
al., 1989).
A ocorrência de um evento pode ser entendida como o acontecimento de uma situação declarativa, ou seja, algo que pode ser identificado como
ocorrido, ou não ocorrido, como sim, ou não. Um
evento é um acontecimento instantâneo, que não
tem tempo, apenas caracteriza um marco entre o
acontecer e o não acontecer. Exemplos de eventos
bastante simples: ligar a chave de uma máquina,
desligar a chave de uma máquina, aberto ou
fechado, quebrado ou não quebrado etc. Sistemas
cuja dinâmica é dirigida pela ocorrência de eventos
são muito difundidos atualmente, por conta da
66
quantidade de situações nas quais predomina o
caráter discreto, como no caso de redes de computadores, sistemas de manufaturas, automação industrial etc. Em resumo, qualquer sistema envolvendo
uma quantidade discreta de componentes, de tal
forma que a evolução seja medida em função da
ocorrência de eventos discretos, é denominado sistema dinâmico a eventos discretos.
Uma questão importante relacionada aos
modelos de SDED é a capacidade deles de desempenhar tarefas que sirvam para verificar especificações do sistema. A verificação de especificações em
sistemas dinâmicos significa analisar se determinada
condição (restrição ao sistema) é satisfeita ou não no
sistema. Por exemplo, um SDED que representa
uma seqüência de máquinas numa fábrica com a
seguinte restrição: a máquina de número 4 não
pode iniciar suas operações antes que as máquinas
de números 1, 2 e 3 tenham terminado suas tarefas.
Esse é um caso de restrição, que pode representar,
entre outros, uma fábrica de cadeiras em que a
máquina 4 faz a montagem final da cadeira e a
máquinas 1, 2 e 3 fazem o assento, a base e o
encosto, respectivamente.
O processo de verificação de especificações
consiste na análise da satisfação ou não de certa
especificação do sistema, tendo um modelo como
base. No exemplo citado, independentemente da
ferramenta escolhida para a modelagem, deve-se
contemplar a restrição, sob pena de se ter cadeiras
sem encosto, cadeiras sem assento etc. No entanto,
algumas especificações podem não estar tão explícitas e só no decorrer do processo de manufatura (ou
automação) se percebe que alguma condição tem de
ser satisfeita. Por isso, o desenvolvimento de ferramentas capazes de fazer análise é muito útil e difundido atualmente.
O estudo aqui apresentado fundamenta-se,
para as aplicações práticas, na análise de sistemas
dinâmicos a eventos discretos. Nesse processo, devese primeiramente definir o processo de modelagem
do sistema dinâmico, ou seja, a linguagem utilizada
para descrever os sistemas dinâmicos envolvidos, e, a
partir daí, fazer a análise de verificações.
Existem muitas maneiras de se modelar sistemas dinâmicos; a utilizada neste trabalho fundamenta-se em grafo a eventos. O sistema lógico NK (a
Dezembro • 2000
g
y
p
ser exibido) servirá de ferramenta de análise de
verificações, partindo de modelos via grafo a eventos.
um grafo a eventos, com dois lugares e três transições. Os lugares são denotados por p1 e p2. As transições são denotadas por t1, t2 e t3.
Fig. 1. Grafo a eventos.
DESENVOLVIMENTO
Os modelos baseados em redes de Petri foram
desenvolvidos por C.A. Petri, em 1962, e podem ser
encontrados em textos de Peterson (1981), Murata
(1989) e Cassandras (1993). Desde então, muito se
tem desenvolvido no que diz respeito a redes de
Petri, principalmente pela versatilidade de análise
que essa técnica matemática de representação de sistemas permite, incluindo a modelagem de sistemas
paralelos, não determinísticos, assíncronos, concorrentes etc. Este trabalho se interessa por uma classe
particular de redes de Petri, denominada Grafo a
Eventos, útil na modelagem de sistemas a eventos
discretos (Cassandras, 1993; Peterson, 1981; e
Murata, 1989).
No presente estudo, os grafos a eventos
podem ser vistos como constituídos de cinco elementos fundamentais: um conjunto de lugares, um
conjunto de transições, um conjunto de arcos, uma
marcação inicial e uma temporização. Os lugares
são utilizados para representar o estado do sistema e
as condições que habilitam as ocorrências dos eventos. As transições estão associadas aos eventos. Em
grafos a eventos temporizados, as ocorrências de
eventos relacionam-se aos disparos das transições.
Costuma-se rotular um tipo de evento pelo nome
da transição correspondente.
Para que uma transição dispare,1 algumas
condições devem ser satisfeitas. As informações
referentes a essas condições estão contidas nos lugares do grafo. Alguns deles são vistos como entrada
da transição e a eles estão associadas as condições
exigidas para que a transição se torne habilitada a
disparar. Outros lugares são vistos como saída de
uma transição e a eles se relacionam condições que
serão afetadas com o disparo da transição. Transições, lugares e relações entre eles constituem os
componentes básicos de um grafo a eventos. A
figura 1 mostra uma típica representação gráfica de
1 O disparo de uma transição representa a ocorrência do evento associado à transição, cujo nome é o nome da transição.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
A transição t1 recebe o nome de transição de
entrada da rede (ou do grafo a eventos) ou transição
de entrada do lugar p1; a transição de saída da rede é
indicada por t3, que também é a transição de saída
do lugar p2. Os arcos indicam as relações entre lugares e transições. Por exemplo, a realização da ação
representada pela transição t2 está associada às
informações contidas no lugar p1. Por outro lado, as
informações contidas no lugar p2 serão alteradas
assim que ocorrer a ação designada em t2. As
marcações no lugar p1 representam a condição de
habilitação da transição t2 (simbolizada pela ficha •)
e o tempo de espera gasto antes da habilitação da
transição t2 (simbolizado pela barra ). Essas marcações constituem parametrizações e são formalmente
representadas como pares (n,t), em que n representa
a condição de habilitação e t, o tempo de espera. A
definição formal de um grafo a eventos é dada a
seguir.
Definição 1: Um grafo a eventos é uma quíntupla
<P, T, A, w, X>, de tal forma que:
• P é um conjunto finito de lugares;
• T é um conjunto finito de transições;
• A é um conjunto de arcos, o qual é um subconjunto de (P × T) ∪ (T × P);
• w é uma função peso, w: A → {1};
¥ X é uma parametrização, ou seja, uma função
X: P→N×N.
O processo dinâmico de um grafo a eventos é
exemplificado na figura 2.
67
g
y
p
Fig. 2. Processo dinâmico.
Grafo A
Grafo B
Na figura 2, a transição t2 do grafo a eventos
A está habilitada a disparar, devendo aguardar uma
unidade de tempo antes do disparo. Após o disparo,
a transição t2 consome uma ficha e passa esta ao
lugar p2 (como mostra o grafo a eventos B). O cará-
ter dinâmico em um grafo a eventos é determinado
pela circulação das fichas.
De modo geral, uma transição habilitada consumirá tantas fichas quantos forem os lugares de sua
chegada e distribui tantas fichas quantos forem os
lugares de sua saída (Cassandras, 1993). A figura 3
ilustra tal procedimento.
Na figura 3, a seqüência (Grafo A)→(Grafo
B)→(Grafo C) determina a evolução dinâmica do
grafo a eventos. No Grafo A, a transição t4 está
habilitada, ou seja, os lugares p1, p2 e p3 fornecem
condições para que o evento associado à transição t4
ocorra. Essas condições são representadas pela
ocorrência de fichas em todos os lugares de entrada
de t4. Assim, após a espera de uma unidade de
tempo (condição em p3), a transição t4 torna-se apta
a disparar.
Fig. 3. Comportamento dinâmico de um grafo a eventos.
Grafo C
68
Dezembro • 2000
g
y
p
Depois do disparo, tem-se o grafo B, em que
uma ficha é consumida de cada lugar de entrada de
t4 e uma ficha é distribuída para cada lugar de saída
de t4.2 No grafo B, a transição t4 ainda continua
habilitada, ou seja, o evento associado à transição t4
pode ocorrer a qualquer momento. Após o disparo
da transição t4 no grafo B, é consumida uma ficha de
cada lugar de entrada de t4 e distribuída uma ficha
para cada lugar de saída de t4. Nota-se que as barras
representando unidades de tempo não se deslocam
no decorrer do processo, e sim permanecem onde
são alocadas no modelo inicial. O grafo C indica a
situação depois do disparo da transição t4 no grafo B
e do consumo de uma unidade de tempo. Já no
grafo C, a transição t4 não está habilitada. Em B e em
C, as transições t5 e t6 estão habilitadas.
Em resumo, partindo de um sistema dinâmico
a eventos discretos, um grafo a eventos é uma ferramenta que se adapta à sua modelagem.
Fig. 4. Processo de Modelagem.
associada ao evento “atendimento do paciente”.
Note que se essa transição estiver habilitada significa
que o paciente na sala de espera pode ser atendido.
Assim que ele for atendido, a transição deixa de estar
habilitada. O lugar p2 representa o médico. Se nesse
lugar houver uma ficha, então o médico está ocioso;
caso contrário, está atendendo. O lugar p3 representa
a sala de consultas. Uma barra indica o tempo dispensado para o atendimento. O lugar p4 é a saída e as
condições para possíveis contatos com as secretárias
dos médicos. A transição t3 estará habilitada sempre
que a consulta terminar, fazendo com que o médico
volte a ficar ocioso, dando margem a que um outro
paciente, do lugar p1, seja atendido. A figura 6 traz
uma possível seqüência de um consultório, com o
dinamismo do grafo a eventos.
Fig. 5. Grafo a eventos do exemplo 1.
Sistema
Dinâmico
Modelo via grafo a eventos
O exemplo seguinte é simples, com preocupação voltada à elucidação do processo de modelagem,
e não à resolução de problemas de grande porte.
Exemplo 1: Pretende-se analisar o fluxo de pacientes juntamente com a disponibilidade de um médico
em um consultório. Espera-se responder perguntas
tais como:
i) Quantos pacientes foram atendidos em um
determinado período de tempo?
ii) Quando determinado paciente será atendido?
Um modelo que forneça essas respostas com
precisão será projetado, utilizando-se para isso um
grafo a eventos (ver fig. 5).
No grafo a eventos da figura 5, o lugar p1
representa os pacientes na sala de espera, aguardando
serem chamados para a consulta. A transição t2 está
2
A situação de consumo e distribuição de fichas é diferente quando
se trata de redes de Petri (não de grafo a eventos), pois nelas a função
peso pode ser diferente de um. Então, o consumo e a distribuição de
fichas relacionam-se diretamente com a função peso de cada arco
(Cassandras, 1993).
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
A seqüência da figura 6 mostra que dois pacientes estão na sala de espera enquanto o médico está
ocioso (grafo A). No grafo B, o primeiro paciente é
atendido e o médico deixa de estar ocioso (sai uma
ficha do lugar p1 e do lugar p2), entra uma ficha no
lugar p3 (o médico está atendendo o paciente). Uma
unidade de tempo é requerida para o lugar p3 (tempo
de demora da consulta). Ainda em B, a transição t3
está habilitada, o que significa que a secretária está
pronta para receber o paciente após a consulta. Já no
grafo C, o paciente deixa a sala de consultas, habilita
a transição t4 (saída do consultório) e habilita a transição t2 (um novo paciente pode ser atendido), pois
uma ficha é colocada no lugar p2 (indicando que o
médico está ocioso). Tal esquema caracteriza o processo dinâmico desse grafo a eventos que modela o
problema do consultório médico.
69
g
y
p
Fig. 6. Evolução dinâmica do grafo do exemplo 1.
Partindo de uma simples simulação, possível
nesse exemplo, verifica-se que o gráfico 1, no plano
de 2 dimensões, representa o comportamento dos
disparos da transição t4, ou seja, a trajetória dos disparos e seus tempos correspondentes. Nesse gráfico,
a abscissa representa os disparos das transições e a
ordenada, o tempo de disparo das transições. A
cada transição do grafo a eventos pode-se associar
um conjunto de informações disponíveis sobre as
ocorrências de eventos relacionados a essa transição.
Esse conjunto será chamado pelo nome da transição. Por exemplo, se “tj” é o nome de uma transição, então tj representa, num gráfico de duas
dimensões, o conjunto de informações disponíveis
sobre as ocorrências de eventos relacionados a essa
transição. Esse elemento tj descreve o comportamento dinâmico da trajetória de disparos associada
à transição de nome “tj” (Cohen et al., 1989).
Esse gráfico responde às perguntas iniciais do
exemplo 1. O ponto (3,4) pode, no caso, ser lido
como:
• o terceiro disparo da transição t4 ocorreu, no
mínimo, no instante 4; ou
• no instante 4 ocorreram, no máximo, três disparos.
Assim, para saber quantos pacientes foram
atendidos num determinado período de tempo, é
necessária uma simples análise do gráfico. Do
mesmo modo, é possível, por esse gráfico, visualizar
70
quando o n-ésimo paciente será atendido. A descrição da trajetória de transições de um grafo a
eventos em um gráfico de duas dimensões nem
sempre é uma tarefa simples e imediata - detalhes
mais sofisticados podem ser encontrados em Cohen
et al. (1989), Baccelli et al. (1991) e Magossi (1998).
No entanto, para o grafo a eventos da figura
5, não é tão difícil visualizar a trajetória da transição
t4 num gráfico de duas dimensões. Nota-se que, ao
se acrescentar uma ficha no lugar p1, a transição t2
ficará habilitada. Após o disparo da transição t2, o
lugar p2 terá uma ficha e uma barra (representando
uma unidade de tempo). Isso acarretará uma
demora de uma unidade de tempo antes que a transição t3 dispare. O disparo de t3 acarreta a inclusão
de uma ficha no lugar p3, habilitando a transição t4.
Assim, a cada ficha colocada em p1, sai uma ficha
em t4 com o atraso de uma unidade.
Verifica-se, então, que o primeiro disparo
ocorre no mínimo em 2 unidades de tempo, uma
referente ao 0-ésimo disparo, e outra referente ao
primeiro disparo. Ou seja, o 0-ésimo disparo
ocorre, no mínimo, em uma unidade de tempo; o
primeiro disparo ocorre, no mínimo, em 2 unidades
de tempo (a primeira, que já existia, mais uma); o
segundo disparo ocorre, no mínimo, em 3 unidades
de tempo; o terceiro disparo ocorre, no mínimo,
em 4 unidades de tempo; e assim sucessivamente.
Dezembro • 2000
g
y
p
Grafico 1. Trajetória da transição t4 do exemplo 1.
Sistema lógico NK
Nessa seção, apresenta-se o sistema lógico que
será utilizado para modelar grafo a eventos. Inicialmente, há uma apresentação da lógica NK e dos
métodos de demonstração, adotados na análise de
sistemas dinâmicos. Segue-se explicitando a maneira
de descrever grafo a eventos via lógica NK.
A lógica modal proposicional NK será apresentada do ponto de vista dos tableaux analíticos.
Há grande variedade de sistemas modais na literatura. Revisões compreensivas são dadas por Hughes
& Cresswell (1968 e 1984) e por Fitting (1983). O
sistema proposto nesse trabalho foi desenvolvido
visando especificamente a modelagem de grafo a
eventos. Avalia-se que pode ser facilmente estendido, de modo a descrever sistemas mais complexos. O ponto de vista dos tableaux analíticos,
difundido por Smullyan (1968) e, posteriormente,
empregado por Bell & Machover (1977) e Fitting
(1983 e 1990), constitui uma alternativa à apresentação de um sistema lógico através de axiomas. Sua
principal vantagem é a simplicidade no desenvolvimento das provas de uma fórmula válida. Basicamente, o método do tableau é uma prova por
refutação, ou seja, tenta-se falsear a fórmula que se
deseja provar e, caso isso resulte em contradição,
deduz-se que a fórmula é válida. A seguir, são apresentados os principais elementos do sistema lógico
NK e algumas de suas propriedades.
A linguagem da lógica modal proposicional
NK tem um alfabeto consistindo de:
a) variáveis proposicionais - letras minúsculas x, y,
z, p, q, r, ...;
b) conectivos - G, D, ¬, →;
c) sinais de pontuação - (e);
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
d) constante lógica - ⊥.
Observação: os conectivos G e D são operadores modais. Eles têm comportamentos semelhantes aos dos operadores modais clássicos de
necessidade (Fitting, 1983), a menos que se apliquem a um único mundo possível acessível, ao
passo que os operadores modais clássicos aplicam-se
a infinitos mundos possíveis acessíveis. Os conectivos ¬ e → são a negação e a condicional clássicas,
respectivamente.
O conjunto F das fórmulas da linguagem é
definido como segue:
i) qualquer variável proposicional pertence a F;
ii) se X e Y pertencem a F, então (X → Y) também
pertence a F;
iii) se X pertence a F, então ¬X, GX e DX também
pertencem a F;
iv) só é fórmula o que advém das condições i), ii) e
iii) acima descritas.
A semântica de uma lógica modal estende,
usualmente, a semântica da lógica proposicional
clássica através da definição de um conjunto W,
comumente denominado conjunto dos mundos
possíveis, e uma (ou mais) relações entre seus elementos. Ao se interpretar a lógica, diz-se que uma
fórmula é verdadeira ou não num mundo possível,
sendo admissível que essa fórmula seja verdadeira
num mundo e falsa em outro, na mesma interpretação ou modelo. O que distingue uma lógica modal
de outra é o tipo de relação admissível entre os elementos de W. Na lógica NK, serão consideradas
duas relações binárias R e S, satisfazendo à propriedade: para todo w∈W, existem w', w'', w''' únicos e
distintos tais que wRw', wSw'', w''Rw''' e w'Sw'''.
Essas relações permitem estabelecer uma correspondência biunívoca entre qualquer W admissível e o conjunto Z2 dos pares ordenados de inteiros.
Conseqüentemente, os elementos de W serão associados a pares ordenados de inteiros: W = {w(i,j)
(i,j) ∈ Z2}.
Mais rigorosamente, um modelo proposicional modal para NK é uma quadra <W,R,S,V>,
onde W é um conjunto de mundos possíveis, V é
uma função valoração de F×W em {t,f} e R e S são
relações binárias em W, de tal forma que as seguintes
condições sejam satisfeitas, para quaisquer fórmulas
X e Y:
71
g
y
p
a) se X for uma variável proposicional, V(X,w)=t
ou V(X,w)=f, mas não ambos;3
b) V((¬X),w)=t sse V(X,w)=f;
c) V((X→Y),w)=t sse V(X,w)=f ou V(Y,w)=t;
d) V(DX,w) = t sse para w' ∈ W tal que wSw' temse V(X,w')=t;
e) V(GX,w) = t sse para w'∈ W tal que wRw' temse V(X,w')=t;
Diz-se que uma fórmula X é verdadeira em
um modelo se é verdadeira em cada mundo desse
modelo, e é válida se verdadeira em todos os modelos (notação: |=X se X é válida).
Sejam S um conjunto de fórmulas e X uma
fórmula qualquer. Diz-se que X é conseqüência
lógica de S (em símbolos, S|=X) se X é válida em
cada modelo em que todos os membros de S são
válidos.
Uma fórmula assinalada é uma fórmula X precedida dos símbolos “T” ou “F”. Intuitivamente, a
fórmula TX comporta-se como X e a fórmula FX
como ¬X. As fórmulas assinaladas permitem a classificação de todas as fórmulas da lógica proposicional
clássica em dois tipos: fórmulas do tipo α e fórmulas
do tipo β. As fórmulas do tipo α são aquelas com
comportamento conjuntivo (com componentes α1 e
α2) e as do tipo β são as que se comportam disjuntivamente (com componentes β1 e β2). Um exemplo de
fórmula do tipo α é F(X→Y), cujos componentes são
TX e FY. Outros exemplos são F(X∨Y) e T(X∧Y).
Um exemplo de fórmula do tipo β é T(X→Y), cujos
componentes são FX e TY. Também são exemplos
T(X∨Y) e F(X∧Y) (Smullyan, 1968).
Os tableaux analíticos são procedimentos de
prova elaborados em forma de árvores binárias. As
árvores contêm sempre um número finito de ramos.
Cada ramo, por sua vez, é constituído de um conjunto de nós, de tal forma que em cada nó ocorra
uma fórmula assinalada da lógica e a cada nó esteja
associado um mundo (i,j). O objetivo de uma prova
tableau é verificar se uma dada fórmula X da lógica é
ou não válida. Para tanto, inicia-se o tableau falseando
X e prossegue-se aplicando regras de extensão de
ramos. A impossibilidade de falsear a fórmula X é
caracterizada pela ocorrência de contradições em
todos os ramos do tableau, denotando assim que X
3
V(X,w) pode ser lido como o valor verdade da fórmula X no
mundo w.
72
é uma fórmula válida. Se algum ramo não contiver
contradições entre suas fórmulas, então existe a possibilidade de falsear a fórmula; portanto, X não é
válida.
Para o desenvolvimento de uma prova tableau,
procede-se segundo as seguintes regras clássicas de
extensão de ramos:
i) quando uma fórmula de tipo α ocorrer num
ramo de um tableau, deve-se acrescentar a esse
ramo suas duas componentes;
ii) quando ocorrer uma fórmula de tipo β, deve-se
proceder uma bifurcação no tableau, cada novo
ramo iniciado por uma das componentes da fórmula.
Diz-se que as fórmulas do tipo TGX e FGX
são de tipo ν com componentes TX e FX, respectivamente; e as fórmulas do tipo TDX e FDX são de
tipo π com componentes TX e FX, respectivamente.
Em função da sua natureza modal, essas fórmulas
não se reduzem aos tipos descritos anteriormente. As
regras de extensão de ramos para os casos não clássicos (modais) são as seguintes:
iii) quando uma fórmula de tipo ν ocorre num
ramo de um tableau num mundo (i,j), sua componente deve ser escrita no mesmo ramo no
mundo (i-1,j);
iv) quando uma fórmula de tipo π ocorre num
ramo de um tableau num mundo (i,j), sua componente deve ser escrita no mesmo ramo no
mundo (i,j-1).
Um ramo de um tableau é dito fechado se
ocorrem no mesmo ramo e para o mesmo mundo
as fórmulas TX e FX. Um tableau é fechado se
todos os seus ramos são fechados. Um ramo é dito
completo se nele não existe nenhuma fórmula para
a qual se possa aplicar uma das regras acima. Um
tableau é completado se todos os seus ramos são
completos ou fechados.
Sejam S um conjunto de fórmulas não assinaladas e X uma fórmula não assinalada. Um tableau
para X, usando S como um conjunto de afirmações
globais, significa um tableau começado por FX, e de
tal forma que a fórmula TZ pode ser adicionada em
qualquer ponto do tableau para qualquer Z∈S e
qualquer mundo (i,j). Diz-se que X é dedutíveltableaux a partir de S (em símbolos, S|–dtX) se e
somente se existir um tableau fechado para X
Dezembro • 2000
g
y
p
usando S como um conjunto de afirmações globais.
A lógica NK, definida dessa maneira, é um sistema
modal proposicional correto e completo no sentido
forte4 (Magossi, 1998).
Seja o seguinte exemplo de tableau para o sistema lógico NK. Ele mostra que existe um tableau
fechado para a fórmula DGA→GDA, indicando
que esta é válida.
(1) F(DGA→GDA)
(2) TDGA
(3) FGDA
(4) TGA
(5) TA
(6) FDA
(7) FA
(i,j)
(i,j)
(i,j)
(i,j-1)
(i-1,j-1)
(i-1,j)
(i-1,j-1)
regra α em 1
regra α em 1
regra π em 2
regra ν em 4
regra ν em 3
regra π em 6
Essa fórmula indica a equivalência entre uma
transição qualquer t0 e a disjunção (representada
pelo ∨ grande) de todas as transições que chegam
em t0, acompanhadas dos G’s e D’s cujos expoentes
representam o número de fichas (m) e o número de
unidades de tempo (d) para cada transição que
chega em t0.
Exemplo 2: Seja o grafo a eventos, descrito na figura
8, para um sistema a eventos discretos.
Fig. 8. Grafo a eventos do exemplo 2.
Fórmulas da Lógica NK associadas a
um Grafo a Eventos
Nessa seção, é apresentado o procedimento
de modelagem de um grafo a eventos. Ele permite o
desenvolvimento de sistemas de fórmulas da lógica
NK associadas a um grafo a eventos. Objetiva-se
mostrar que todo grafo a eventos pode ser modelado por um sistema de fórmulas da lógica NK.
Na figura 7, o par (m,d) representa uma parametrização do grafo a eventos, ou seja, m é a condição de habilitação da transição (fichas) e d é o
tempo de espera (barras).
Fig. 7. Descrição na lógica NK de um grafo a eventos.
As equações associadas a esse grafo a eventos
são:
x1↔u∨Gx2
x2↔GDu∨Dx1
y↔x2∨GD2y
Aplicações em sistemas dinâmicos a
eventos discretos
As fórmulas associadas ao grafo a eventos da
figura 7 são dadas por:
k
mj dj
t0 ↔ V G D tj
j = 1
Usualmente, define-se G0D0ti como simplesmente ti.
4 Correção e completude no sentido forte significa que S| X se e
–dt
somente se S|=X.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
Essa seção traz uma aplicação do sistema
lógico NK na verificação de especificações em sistemas dinâmicos a eventos discretos. Como é clássico
na literatura de trabalhos envolvendo lógica e problemas de automação, se uma especificação (apropriadamente descrita como uma fórmula da lógica)
for conseqüência lógica do conjunto de fórmulas
que define (modela) o sistema dinâmico, então a
especificação será satisfeita (Manna & Pnuelli, 1979
e 1992). Isso significa que, na linguagem da lógica,
sempre que as fórmulas do sistema dinâmico forem
verdadeiras a especificação também o será.
Isso garante legitimidade, pois impede o caso
de as fórmulas do sistema serem verdadeiras e a
73
g
y
p
especificação falsa. Em outras palavras, seja Γ o conjunto de fórmulas da lógica NK, que descreve o sistema dinâmico em questão, e X a fórmula da lógica
que descreve a especificação. A especificação será
satisfeita se e somente se X for conseqüência lógica
de Γ, ou seja, se todo modelo de Γ for também
modelo de X.
Assim, o problema de verificação de especificações se resume em, dado o grafo a eventos que
representa o sistema dinâmico a eventos discretos,
associar a ele um conjunto Γ de fórmulas da lógica
NK e relacionar à especificação a ser verificada uma
fórmula X da lógica NK. Procede-se, então, verificando se X é conseqüência lógica de Γ:
• em caso afirmativo, conclui-se que a especificação é satisfeita;
• em caso negativo, conclui-se que a especificação
não é satisfeita.
Para determinar se uma especificação X é
conseqüência lógica de um conjunto Γ de fórmulas
que representa um grafo a eventos é necessária a elaboração de um algoritmo baseado em tableaux que
efetivamente determine se X é ou não conseqüência
lógica de Γ (Magossi, 1998 e Magossi & Santos
Mendes, 1998).
A seguir, é mostrado um exemplo de especificação que é satisfeita juntamente com sua resolução
algorítmica via tableaux.
Exemplo 2: Seja o exemplo referente à figura 5.
Para esse sistema, pode-se escrever as seguintes
fórmulas da lógica NK:
t2↔(t1∨Gt3)
t3↔Dt2
t4↔t3
Além dessas, as seguintes fórmulas devem
valer para qualquer transição:5
ti→Dti
Gti→ti,
para i = 0, 1,...4.
Essas fórmulas descrevem um grafo a eventos
em um sistema a eventos discretos através da lógica
modal NK. Supõe-se que se deseja verificar que, no
5 Essas fórmulas caracterizam a linearidade do sistema. Ver Magossi
(1998); Magossi & Santos Mendes (1998); Cohen et al. (1989); e
Baccelli et al. (1991).
74
grafo a eventos da figura 5, descrito acima, um
tempo de espera estipulado para a transição t1 não
acarretará uma espera na saída do sistema, ou seja,
na transição t4. Essa condição pode ser expressa
pela fórmula Dt1→t4 (Magossi, 1998).
A verificação de que a especificação é satisfeita
por intermédio de tableaux analíticos resume-se em
mostrar que a fórmula X=(Dt1→t4) é conseqüência
lógica do conjunto Γ={Dt2↔t3, t3↔t4, t2↔
(t1∨Gt3), Gti→ti, ti→Dti}. Esta, por sua vez, estabelecerá que não existe modelo no qual as fórmulas do
conjunto Γ sejam verdadeiras e a fórmula X=
(Dt1→t4) seja falsa. Isso implica o fato de que a especificação será sempre satisfeita quando as fórmulas
que definem o sistema (grafo a eventos) o forem.
Para tal verificação, utiliza-se o método
tableaux. Ao se desenvolver o tableaux, as fórmulas
de Γ podem ser adicionadas em qualquer nó da
árvore, pois são entendidas como verdadeiras em
qualquer modelo. Ver Magossi (1998), e Magossi
& Santos Mendes (1998).
Essa árvore é construída como segue. Inicia-se
por falsear a especificação a ser verificada; nesse
caso, a especificação é descrita pela fórmula
Dt1→t4. Na seqüência, são aplicadas regras de
extensão de ramos à fórmula do nó de origem, qual
seja, F(Dt1→t4). A essa fórmula aplica-se a regra
clássica α, cuja extensão produz as fórmulas dos
dois nós seguintes, TDt1 e Ft4, respectivamente.
Como essa regra é clássica, não se muda de mundo,
representados os mundos por pares (i,j). À fórmula
TDt1 deve-se aplicar uma regra não clássica (modal)
π, cuja extensão é a fórmula Tt1 no mundo (i,j-1). A
fórmula (t3→t4) é uma fórmula do conjunto Γ,6 e
pode ser adicionada em qualquer ponto do tableau,
desde que sinalizada por T. Assim, acrescenta-se
T(t3→t4). A regra a ser aplicada a essa fórmula é
uma regra clássica β, que produz como extensões
dois ramos, o da esquerda, com a fórmula Ft3, e o
da direita, com a fórmula Tt4. Como a fórmula
T(t3→t4) foi acrescentada no mundo (i,j), as extensões, por serem clássicas, não ocasionam mudança
de mundo.
6
Note que a fórmula t3↔t4 equivale a (t3→t4)∧(t4→t3).
Dezembro • 2000
g
y
p
FDt1→t4
TDt1
Ft4
Tt1
T(t3→t4)
(i,j)
(i,j)
Ft3
T(Dt2→t3)
FDt2
Ft2
T(t2→t3)
FDt1
(i,j-1)
(i,j)
(i,j-1)
(i,j-1)
Tt2
O tableau continua desse modo, até que todas
as fórmulas tenham sofrido a aplicação de alguma
regra tableau de extensão de ramos (clássica ou não
clássica). E nesse tableau, como todos os ramos produziram contradição (ocorrência no mesmo (i,j) de
FX e TX para alguma fórmula X), o tableau é dito
fechado. Portanto, a fórmula X=(Dt1→t4) é conseqüência lógica do conjunto Γ. Logo, não existe um
modelo em que as fórmulas de Γ sejam verdadeiras
e a fórmula Dt1→t4 seja falsa, ou seja, a especificação X é satisfeita.
CONCLUSÃO
Introduziu-se neste trabalho uma lógica
modal, denominada lógica modal NK, apropriada
para modelagem de grafo a eventos. Suas principais
características são a simplicidade e uma completa
correspondência com grafos a eventos. Considerese um sistema a eventos discretos, para o qual se
conhece um grafo a eventos que modela seu comportamento. É possível para esse sistema escrever
um conjunto de fórmulas da lógica NK, completamente equivalente ao sistema dinâmico modelado.
Tt3
(i,j)
(i,j)
(i,j)
(i,j-1)
(i,j)
Tt4
(i,j)
(i,j)
(i,j-1)
O problema de verificação pode, então, ser tratado
através da metodologia dos tableaux analíticos,
método de prova em lógica, utilizado para a lógica
NK. Escreve-se uma nova fórmula, correspondente
à especificação que se quer verificar, e tenta-se mostrar que essa fórmula é conseqüência lógica do conjunto de fórmulas que descreve o sistema.
Essa abordagem abre caminho para um problema interessante, o de se modelar não somente
grafo a eventos, mas redes de Petri. Ela permite também investigar problemas de síntese de controladores, os quais têm sido estudados em Magossi (1998).
O problema de síntese de controladores pode ser
colocado da seguinte maneira: dado um grafo a
eventos com um conjunto de transições ditas de
“entrada” e com um conjunto de transições de
“saída”, projetar um novo grafo a eventos (controlador), tendo como entradas a saída do sistema dado
e como saídas as entradas do sistema dado, tal que
uma certa especificação, não atendida pelo sistema
original, seja satisfeita pelo sistema em “malha
fechada”.
REFERÊNCIAS BIBLIOGRÁFICAS
BACCELLI, F.L. et al. Synchronization and Linearity: an Algebra for Discrete Event Systems. New York: John Wiley and Sons,
1991.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76
75
g
y
p
BELL, J.L. & MACHOVER, M. A Course in Mathematical Logic. Amsterdan: North Holland Publishing Company, 1977.
CASSANDRAS, C.G. Discrete Event Systems: Modeling and Performance Analysis. Boston: Aksen Associates Incorporated
Publishers, 1993.
COHEN,G. et al. Algebraic tools for performance evaluation of discrete event systems. Proceedings of the IEEE. 77 (1): 39-58,
1989.
FITTING, Melvin. First-Order Logic and Automated Theorem Proving. 2.a ed. New York: Springer-Verlag, 1990.
_____________. Proof Methods for Modal and Intuitionistic Logics. Dordrecht: D. Reidel Publishing Co., 1983.
HUGHES,G.E. & CRESSWELL, M.J. A Companion to Modal Logic. London: Methuen and Co. Ltd., 1984.
_____________. An Introduction to Modal Logic. London: Methuen and Co. Ltd., 1968.
MAGOSSI, J.C. Análise e Síntese de Sistemas Dinâmicos a Eventos Discretos via Lógica Modal. Campinas, 1998. [Tese de Doutorado, DCA/FEEC, Unicamp].
MAGOSSI, J.C. & SANTOS-MENDES, R. Modal Logic Based Algorithms for the Verification of Specifications in Discrete
Event Systems. IV Workshop on Discrete Event Systems, Aug./26-28, Cagliary, Italy, 1998.
______________. Verificações de Especificações em Sistemas Dinâmicos a Eventos Discretos via Lógica Modal. Proceedings of
XII Brazilian Automatic Control Conference-XII CBA, Sep./14-18, Uberlândia, v. III, pp. 931-936, 1998.
MANNA, Z. & PNUELLI, A.. The Modal Logic of Programs. Proc. 6th Int. Colloq. Aut. Lang. Prog: Lec. Notes in Comp. Sci.,
Berlin, 71: 385-409, 1979.
______________. The Temporal Logic of Reactive and Concurrent Systems: Specification. New York: Springer-Verlag, 1992.
MURATA,T. Petri Nets: Properties, analysis and applications. Proceedings of the IEEE, 77: 541-580, 1989.
PETERSON, J.L. Petri Net Theory and the Modeling of Systems. Englewood Cliffs, NJ: Prentice-Hall, 1981.
SMULLYAN, Raymond. First Order Logic. Berlin/Heidelberg: Springer-Verlag, 1968.
76
Dezembro • 2000
g
y
p
Carretéis em Carbono
Vítreo e Amido para a
Utilização em Giroscópio
a Fibra Óptica
Vitreous Carbon and Starch Spools for
Utilization in Fiber Optic Gyroscopes
CYNTIA CRISTINA DE PAULA
CTA/Instituto de Estudos Avançados
Instituto Tecnológico de Aeronáutica (ITA)
[email protected]
ANDRÉ CÉSAR DA SILVA
CTA/Instituto de Estudos Avançados
[email protected]
ANTONIO GARCIA RAMOS
CTA/Instituto de Estudos Avançados
[email protected]
MIRABEL CERQUEIRA REZENDE
CTA/Instituto de Estudos Avançados
[email protected]
EDSON COCCHIERI BOTELHO
Instituto Tecnológico de Aeronáutica (ITA)
[email protected]
RESUMO – O presente artigo aborda o projeto e a obtenção de carretéis de apoio ao enrolamento de bobinas de fibra
óptica utilizadas em giroscópios, com dois diferentes materiais: carbono vítreo e amido, visando à otimização do desempenho do sensor como um todo. Esse desempenho é particularmente afetado pela dilatação térmica do carretel de
suporte da bobina de fibra óptica. A eliminação do suporte é uma alternativa para a redução de tal problema. O amido
foi escolhido por ser solúvel em água, permitindo a obtenção de uma bobina de fibra óptica auto-sustentável. Embora
essa seja a condição ideal, em algumas aplicações há a necessidade de um suporte permanente que auxilie na fixação. Para
essa finalidade, o carbono vítreo foi obtido e caracterizado quanto à sua massa específica (1,54 g/cm3), ao seu coeficiente
de dilatação térmica (2.10-6°C-1) e a sua resistividade elétrica (62,08 µ.Ω.m). Esses resultados estão de acordo com trabalhos anteriores sobre carbono vítreo. Uma comparação das diferentes alternativas de carretéis permanentes para a construção da bobina do giroscópio a fibra óptica revela que o carbono vítreo é o mais adequado para esta aplicação.
Palavras-chave: GIROSCÓPIO A FIBRA ÓPTICA – CARBONO VÍTREO – RESINA FURFURÍLICA – AMIDO.
ABSTRACT – This article addresses the project and fabrication of spools to aid the winding and support of optical fibers
used in gyroscopes, in order to improve its performance as a whole. The materials studied are vitreous carbon and starch.
Gyro performance is particularly affected the spool thermal expansion. Elimination of the spool is an alternative for the
reduction of this effect. Starch is soluble in water, making it possible to build a self-supported coil. Although this is the
ideal situation, in some applications a spool is needed for fixation of the coil. For these cases, vitreous carbon is characterized for specific mass (1.54 g/cm3), thermal expansion coefficient (2 × 10–6ºC–1) and electrical resistivity (62.08 mΩm).
These results agree with previous works on vitreous carbon. A comparison between different alternatives for the permanent spool for the gyro fiber coil reveals that vitreous carbon is the most adequate for this application.
Keywords: FIBER OPTIC GYROSCOPE – VITREOUS CARBON – FURFURYLIC RESIN – STARCH.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84
77
g
y
p
INTRODUÇÃO
O
giroscópio é um dispositivo que mede a velocidade angular a que é submetido seu referencial próprio em relação a um referencial
inercial. O sistema composto por três giroscópios e
três sensores de aceleração é conhecido por plataforma inercial. O veículo equipado com esse sistema
é capaz de se orientar e de se posicionar no espaço.
Tal capacidade é desejável em veículos lançadores de
satélites, além de muito importante em aviões em
cruzeiro nos instantes em que perdem o auxílio de
navegação externo (Almeida, 1996).
O giroscópio que utiliza um interferômetro a
fibra óptica possui uma configuração básica conhecida como interferômetro de Sagnac (Carrara,
1988). Esse tipo de sensor a fibra óptica tem fornecido, nos últimos anos, uma boa solução para aplicações que necessitam de alta resolução de medida
de velocidade angular, principalmente, por apresentarem características de alta sensibilidade, imunidade a interferências eletromagnéticas, tamanho e
peso reduzidos. Sensores de rotação a fibra óptica
são utilizados em aeronaves, veículos espaciais, satélites, mísseis, navios, brocas petrolíferas e em automóveis (Berg, 1994).
Um dos componentes fundamentais em um
giroscópio a fibra óptica (GFO) é a bobina óptica
(Almeida, 1997). Suas características norteiam detalhes relevantes do sistema. Para se chegar à confecção de um GFO, para aplicações específicas, é
necessária a formulação de várias alternativas para a
bobina óptica. Isso pode ser feito por meio da fabricação de carretéis de apoio para o enrolamento da
bobina de fibra óptica, com diversas geometrias e
diferentes materiais (De Paula, 1999).
A figura 1 mostra a configuração mínima do
circuito óptico com os componentes principais de
um GFO (Barbosa, 1998). Como pode ser observado, esse sensor a fibra tem o eixo de sensibilidade
perpendicular ao plano das espiras da bobina, não
são detectadas rotações em torno de eixos paralelos
ao plano das espiras. Por isso, diz-se que o GFO é
um sensor de um grau de liberdade (Almeida,
1998).
78
Fig. 1. “Configuração mínima” de circuito óptico com os
componentes principais do giroscópio, mostrando
a posição da bobina de fibra óptica.
A utilização de um carretel auto-sustentável é a
condição ideal para a aplicação em GFO, por não
apresentar um suporte com coeficiente de dilatação
térmica diferente do coeficiente da fibra óptica, pois
considera-se a primeira camada de fibra como o
suporte para as demais. Outra vantagem na utilização
desse tipo de suporte é a eliminação da massa associada
ao carretel. Essa redução de massa vem atender à
crescente necessidade de compactação de tais sensores, em especial nas atividades aeroespaciais. Entretanto, esse sistema apresenta uma desvantagem
devido à configuração, pois em certos casos a bobina
deve ser fixada rigidamente e a ausência de um
suporte mecânico dificulta tal fixação.
A figura 2 mostra uma bobina de fibra óptica
auto-sustentável (fig. 2a) e uma bobina de fibra óptica
enrolada sobre um suporte de amido (fig. 2b) (De
Paula, 1999).
Quando houver necessidade de um suporte
permanente para a bobina de fibra óptica, as condições desejáveis para o carretel são: baixa massa específica, pois a redução de massa do sensor aumenta a
capacidade de carga útil dos veículos equipados
com este sistema, em especial para aplicações aeroespaciais; baixo coeficiente de dilatação térmica,
com o objetivo de reduzir a deformação na fibra
óptica quando houver aumento de temperatura; e
baixa resistividade elétrica, para evitar o acúmulo de
eletricidade estática, prejudicial à eletrônica de alta
sensibilidade presente no circuito óptico, em especial na fonte óptica (De Paula, 1999).
Dezembro • 2000
g
y
p
Fig. 2. Uma bobina de fibra óptica auto-sustentável (a) e bobina de fibra óptica enrolada sobre um suporte de amido (b).
(b)
(a)
Dentro desse conceito, o carbono vítreo
encontra-se em uma posição vantajosa em relação a
outros materiais, pois é constituído essencialmente
de átomos de carbono, que têm a peculiar característica de se ligar indefinidamente entre si, podendo
dar origem a uma enorme quantidade de combinações, com estruturas que podem ser alteradas mediante
certas condições de processamento. Esse material é
classificado como material carbonoso de origem
polimérica, devido à utilização de resinas termorrígidas, fenólicas e furfurílicas, como principal matériaprima, apresentando características físicas, térmicas
e elétricas, em especial, que se aproximam das condições desejáveis para os carretéis, descritas anteriormente (Taylor, 1977; e De Paula, 1999).
Sendo assim, o presente artigo aborda a
obtenção de carretéis de carbono vítreo e amido
com vistas à produção de bobinas de fibra óptica.
Os materiais obtidos foram caracterizados por
ensaios de resistividade elétrica pelo método dos
quatro pontos, massa específica aparente, determinação dos encolhimentos linear e volumétrico e da
perda de massa do precursor do carbono vítreo
durante o tratamento térmico, rugosidade superficial, dureza e por análise de microscopia óptica.
nido com 57 HRc. O dimensionamento das espessuras da parede do molde foi calculado em função da
pressão específica a ser aplicada na obtenção do carretel (Agostinho, 1977). Este ensaio foi realizado em
uma prensa hidráulica modelo Imperial 2000.
Fig. 3. Molde para compactação do amido.
A figura 4 ilustra o suporte em amido utilizado no enrolamento da bobina de fibra óptica.
Fig. 4. Suporte em amido.
MATERIAIS E MÉTODOS
Carretel Auto-sustentável
Para a obtenção de bobinas auto-sustentáveis, o
material escolhido como suporte temporário foi o
amido de milho em pó, conformado em um molde
adequado por meio de um sistema de prensagem.
Para a confecção do molde (fig. 3), foi utilizado aço
com alta porcentagem de carbono, temperado e reve-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84
79
g
y
p
O enrolamento da fibra óptica sobre o
suporte em amido foi realizado em uma máquina
bobinadora de fibra óptica (fig. 5) (De Paula, 1999).
Fig. 5. Esquema da máquina bobinadora de fibra óptica.
Essa máquina bobinadora é automatizada e o
comprimento de fibra enrolada sobre o suporte foi
monitorado por meio de um software desenvolvido
na linguagem LabVIEW. Sobre cada camada de fibra
óptica enrolada sobre o carretel de amido há uma
camada de spray lacquer (produto para proteção de
superfícies sob análise metalográfica), com a função
de colar as espiras entre si.
No final do processo, o amido é dissolvido em
água e o resultado final é a bobina de fibra óptica
auto-sustentável.
CARRETEL DE
CARBONO VÍTREO
Os carretéis de carbono vítreo foram obtidos
a partir da polimerização e carbonização da resina
furfurílica, sintetizada pela indústria Cersa. A viscosidade da resina furfurílica utilizada neste trabalho
foi de 3.000 mPa.s a 25ºC. Não foram utilizadas
viscosidades superiores, pois sabe-se que a qualidade
do material polimerizado é prejudicada pelas dificuldades de manipulação da resina no preenchimento dos moldes e de retirada das bolhas de ar,
durante a centrifugação. Para que ocorra a polimerização da resina furfurílica, devem ser adicionados
2,5% do catalisador ácido paratolueno-sulfônico
80
(APTS). Em seguida, a resina foi centrifugada a
3.000 rpm, durante 40 minutos, em uma centrífuga
MSE, modelo GF8, e transferida para moldes adequados ao formato desejado do produto final
obtido. Após a transferência da resina para o molde,
o material foi colocado à temperatura ambiente por
24 horas, sendo em seguida transferido para uma
estufa (Fanen, modelo 315SE) a 60ºC, por duas
horas. A conclusão do ciclo foi realizada à temperatura de 80ºC, mantendo o material por mais duas
horas nessa condição (Botelho, 2000).
Após curado, o material passou por um tratamento térmico de até 1.000˚C. Nos tratamentos
térmicos de carbonização foi utilizado um aparato
composto de um forno tubular monofásico Lindberg, com resistência espiral de Kanthal tipo A (até
1.300ºC) e tubo de Mulita com acabamento vitrificado, com 70 mm de diâmetro interno. Esse tratamento foi realizado sob atmosfera de Nitrogênio. A
tabela 1 mostra o ciclo do tratamento térmico utilizado na obtenção das bobinas de carbono vítreo.
Tab. 1. Ciclo do tratamento térmico de carbonização.
TEMPERATURA FINAL (˚C) TAXA DE AQUECIMENTO (˚C/H)
200 ± 20
700 ± 70
1000 ± 100
10
5,4
10
CARACTERIZAÇÃO
As medidas de resistividade elétrica, das amostras tratadas à temperatura máxima de 1.000ºC,
foram realizadas pelo método dos quatro pontos,
utilizando-se um equipamento desenvolvido no
Laboratório de Materiais Carbonosos Estruturais do
CTA. Os valores de resistividade elétrica (ρe) foram
obtidos utilizando-se corpos-de-prova de carbono
vítreo com dimensões de 60 mm x 10 mm x 2 mm.
A massa específica aparente foi calculada a
partir do quociente da massa pelo volume dos carretéis. A implicação disso é que a massa específica aparente é um valor médio que inclui os poros
presentes no material. A massa das amostras já na
forma de carretéis, após o tratamento térmico, foi
determinada por uma balança analítica e o volume
foi obtido por meio de um cálculo realizado no aplicativo computacional Autocad, após o modelamento em sólido com as mesmas dimensões.
Dezembro • 2000
g
y
p
Os valores dos encolhimentos linear e volumétrico e da perda de massa da resina durante o tratamento térmico foram obtidos a partir das medidas
do comprimento, da largura, da espessura e da
massa do material inicial e final. As análises de rugosidade foram realizadas em um rugosímetro Perthometer Perthen, tipo 58 P-Mahr, ponteira mecânica
FRW-750. Os diagramas de perfis de rugosidade
obtidos nas análises forneceram os parâmetros de
rugosidade máxima (Rmax), média (RZ) e aparente
(Ra), que é a média de todas as alturas entre picos e
vales da superfície do material.
As análises de dureza foram realizadas em um
medidor de microdureza digital. O equipamento
utilizado fornece o cálculo final de dureza Vickers
(HV). A escolha pela medida de dureza Vickers
deve-se à precisão obtida, embora exija uma preparação cuidadosa do material a ser ensaiado, de
modo a tornar nítida a impressão.
A técnica de microscopia óptica foi utilizada
para caracterizar as amostras de resina polimerizada
e do carbono vítreo obtido. A textura das amostras
de resina furfurílica polimerizada com o ácido paratoluenosulfônico e do carbono vítreo depende, principalmente, do processo de preparação da resina.
forma de carretel. Os valores encontrados foram:
encolhimento linear (∆L) = 22%; encolhimento
volumétrico (∆V) = 58%; e perda de massa (∆M)
= 37% – valores estes próximos aos encontrados na
literatura especializada (Rezende, 1991).
O controle de ∆L, ∆V e ∆M faz-se necessário
para a obtenção em série de carretéis que atendam
às dimensões finais necessárias ao ajuste no GFO.
O carbono vítreo obtido é caracterizado e os
resultados comparados com materiais utilizados
nesse tipo de aplicação, ou seja, o alumínio e a poliamida (fig. 7).
RESULTADOS E DISCUSSÃO
A tabela 2 compara os valores obtidos quanto
ao coeficiente de dilatação térmica (α, obtido da literatura), à massa específica aparente (d), à resistividade elétrica (ρe), rugosidade aparente (Ra), dureza
(HV) e, assim como a deformação térmica na fibra
óptica devido ao suporte (Beer, 1989), com variação
de temperatura de 1°C (δTemp) e a tensão de tração
exercida pelo carretel (Beer, 1989), com variação de
temperatura de 1°C (τ), do carbono vítreo (CV) com
a poliamida 6 (PA6) e o alumínio (Al).
Na caracterização do carbono vítreo obtido
foram utilizados corpos-de-prova retangulares e em
forma de carretéis. A figura 6 mostra os corpos-deprova utilizados no presente trabalho.
Fig. 6. Corpos-de-prova utilizados na caracterização do
carbono vítreo obtido.
Fig. 7. Carretéis fabricados: (a) carbono vítreo, (b) alumínio, (c) poliamida.
Tab. 2. Comparação dos resultados obtidos.
CARRETEL →
CARBONO ALUMÍNIO POLIAMIDA
PROPRIEDADES ↓
VÍTREO
Para a determinação da perda de massa da
resina furfurílica carbonizada para a obtenção do
carbono vítreo foram utilizados corpos-de-prova na
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84
α [°C-1]
d [g/cm3]
ρe [µΩ.m]
Ra [µm]
HV
δTemp [µm]
τ [MPa]
2 10-6
1,54
62,08
1,356
404,1
0,143
0,105
24 10-6
1,10
380
0,260
68,0
2,213
1,690
99 10-6
2,77
1016
0,530
7,7
9,760
7,127
81
g
y
p
A tabela 3 mostra a influência da variação de
1ºC de temperatura sobre a fibra óptica, utilizandose o carretel auto-sustentável.
Tab. 3. Resultados obtidos para carretel auto-sustentável.
CARRETEL →
AUTO-SUSTENTÁVEL
PROPRIEDADES ↓
[µm]
[MPa]
δTemp
τ
0,054
0
δTemp = deformação térmica na fibra óptica
devido à dilatação do suporte, com variação de temperatura de 1°C;
τ = tensão de tração exercida pelo carretel resultante da variação de temperatura de 1°C.
Como pode ser observado na tabela 2, a
massa específica aparente do carretel de CV é maior
que a massa específica aparente do carretel de PA,
porém, inferior à do carretel de Al. A partir da análise do coeficiente de dilatação térmica, observou-se
que o CV apresenta resultado inferior ao dos outros
materiais, característica esta de extrema importância
para esse tipo de aplicação, que necessita de um
material que apresente a mínima deformação térmica possível. Correlacionando-se os valores de
massa específica com os de coeficiente de dilatação
térmica, pode-se concluir que, apesar da massa específica do CV ser superior à da PA, os carretéis de CV
mostram-se mais adequados ao uso em GFO.
Além disso, observou-se que o carbono vítreo
obtido possui menor resistividade elétrica quando
comparado ao alumínio e à poliamida (materiais
estes que se encontram entre os de menor condutibilidade de eletricidade). Essa característica é necessária para se evitar o acúmulo de eletricidade
estática, prejudicial à eletrônica de alta sensibilidade
presente no circuito óptico do GFO.
Apesar da rugosidade do carretel de carbono
vítreo ser superior em relação à rugosidade das
outras amostras (como evidenciado na tab. 2), a
superfície obtida ainda mostra-se adequada para ser
aplicada na preparação de bobinas para GFO, pois
sabe-se que o diâmetro do núcleo da fibra óptica é
de 5 µm (Almeida, 1997) e apenas rugosidades
acima desse valor poderão causar micro distorções,
interferindo no circuito óptico. Além disso, o perfil
82
de rugosidade do carretel de carbono vítreo pode
ser melhorado com um processo de polimento.
Deve-se evidenciar que a dureza de carretéis
para aplicação em GFO não é uma questão limitante, mas sabe-se que materiais mais duros favorecem a obtenção de superfícies mais adequadas a tal
tipo de aplicação, pois essas superfícies podem apresentar menores valores de rugosidade quando devidamente polidas e serem menos susceptíveis à
deformação localizada, devido à compressão da
fibra óptica ou de outro elemento de fixação mecânica. Sendo assim, o valor médio de dureza do carbono vítreo preenche os requisitos desejados de um
material com potencial para esse tipo de aplicação.
A figura 8 (a) apresenta a fotomicrografia
representativa de diferentes amostras de resina furfurílica polimerizada e a figura 8 (b) mostra a fotomicrografia representativa do carbono vítreo
obtido, na qual pode ser identificada a presença de
macroporos. No material carbonizado foi observado um decréscimo no tamanho dos poros, devido
ao encolhimento volumétrico da matriz polimérica
durante o tratamento térmico de carbonização. A
observação da presença desses vazios deve-se, principalmente, ao processo de preparação da resina.
Sabendo-se que o diâmetro médio da fibra óptica é
de 200 µm (Almeida, 1997), a presença desses
macroporos no carbono vítreo, de tamanhos inferiores a 20 µm, não provoca danos ao enrolamento da
fibra óptica.
CONCLUSÕES
No caso em que há a necessidade de uma fixação rígida da bobina, um suporte mecânico permanente para o enrolamento se torna indispensável.
Sendo assim, a utilização do carbono vítreo é a alternativa mais viável, pois fornece um baixo valor de
deformação térmica na fibra óptica (0,143 µm)
quando comparado aos carretéis de alumínio e de
poliamida 6, considerando-se as mesmas condições,
com variação de 1ºC de temperatura. Outra característica considerada adequada no caso da utilização
de carretéis de carbono vítreo é a massa específica
volumétrica ser igual a 1,54 g/cm3 e a resistividade
elétrica média ser de 62,8 µΩ.m, propriedades satisfatórias para a aplicação em GFO.
Dezembro • 2000
g
y
p
Fig. 8. (a) Fotomicrografia óptica da resina furfurílica polimerizada (100x); (b) fotomicrografia óptica do carbono vítreo
(1.000x).
(a)
A obtenção de uma bobina auto-sustentável
mostrou ser outra alternativa viável, sendo um processo mais econômico se comparado com a utilização do carbono vítreo. No entanto, um estudo mais
aprofundado deve ser realizado para se poder garantir a total eficiência da obtenção dessas bobinas.
(b)
Agradecimentos
Os autores agradecem à FAPESP; à empresa
Cersa S.A. pelo fornecimento da resina furfurílica utilizada; e ao Dr. José Maria Marlet, cujas
idéias auxiliaram na obtenção dos carretéis
auto-sustentáveis.
REFERÊNCIAS BIBLIOGRÁFICAS
ALMEIDA, J.C.J. Técnicas de processamento de sinais em girômetros a fibra óptica para sistemas de navegação inercial. [Dissertação de mestrado, Universidade de Campinas, Campinas, 1996].
ALMEIDA, V. Caracterização de bobinas para interferômetros de Sagnac. São José dos Campos, 1997. [Trabalho de graduação,
Instituto Tecnológico de Aeronáutica].
ALMEIDA, V. Aplicação de dispositivo multifuncional a óptica integrada em interferômetro de Sagnac a fibra óptica birrefringente. São José dos Campos, 1998. [Dissertação de mestrado, Instituto Tecnológico de Aeronáutica].
AGOSTINHO, O.L. & RODRIGUES, A.C.S. Princípios de Engenharia de Fabricação Mecânica. São Paulo: Edgar Blücher,
1977.
BARBOSA, C.L. Fonte óptica de baixa coerência temporal com cavidade externa a fibra. São Paulo, 1998. [Tese de doutorado,
Universidade de São Paulo].
BERG, R. All fiber gyroscope. In: BURNS, William. Optical fiber rotation sensing, San Diego: Academic Press, 1994.
BEER, F.P. & JOHNSTON R. Resistência dos Materiais. São Paulo: McGraw-Hill, 1989.
BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Rheological analysis of the phenolic and furfuryl resins used in the
carbon materials processing, materials, Research, v. 3, n.º 2, pp. 19-23, (2000).
BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Porosity control in glassy carbon by rheological study of the furfuryl
resin, Carbon, 2000. [No prelo].
BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Rheological studies applied in the processing and characterization of
carbon/carbon composites, Journal of Advanced Materials, 2000. [No prelo].
CARRARA, S. Drift reduction in optical fiber gyroscope. Stanford, 1988. [Tesis of Doctoral, University of Stanford].
PAULA, C. Fabricação de carretéis de apoio em carbono vítreo e amido para a utilização em giroscópio a fibra óptica. São José
dos Campos, 1999. [Trabalho de graduação, Escola de Engenharia Industrial].
REZENDE, M.C. Produção de carbono vítreo em escala de laboratório, a partir da resinas furfurílica e fenólica. São Paulo,
1991. [Tese de doutorado, Universidade de São Paulo].
TAYLOR, R.E. & KLINE, D.E. Internal friction and elastic modulus behavior of vitreous carbon from 4 K to 570 K. Carbon,
n.º 5, 1967, p. 607.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84
83
g
84
y
p
Dezembro • 2000
g
y
p
Vanadium Recovery by
Leaching in Spent
Catalysts for Sulfuric
Acid Production
Recuperação do Vanádio Contido em
Catalisadores Gastos na Produção de Ácido Sulfúrico
JOSÉ LUÍS MAGNANI
Escola Politécnica da USP
[email protected]
GEORGE CURY KACHAN
Escola Politécnica da USP
e-mail@aultor
NEWTON LIBANIO FERREIRA
Universidade Metodista de Piracicaba
[email protected]
RESUMO – As fábricas de ácido sulfúrico precisam, periodicamente, de substituição de catalisador, seja em razão do
desenvolvimento de catalisadores mais avançados, seja para remoção de grânulos fraturados, poeira e catalisador danificado por exposição à umidade. Esse material retirado do conversor não pode ser simplesmente descartado, porque contém vanádio. As autoridades regulamentadoras do uso do meio ambiente especificam claramente as condições de
armazenagem do material. Dessa forma, ocupam-se áreas industriais às vezes extremamente necessárias para outros usos.
O objetivo desse trabalho é estudar a lixiviação desse material para reduzir seu conteúdo em vanádio, de forma a poder
descartá-lo com segurança. Foi desenvolvido um projeto fatorial de experimento, contemplando as variáveis: tamanho
de partícula, temperatura, concentração de ácido sulfúrico e intensidade de agitação. Os resultados mostram grande
influência do tamanho de partícula sobre o conteúdo residual de vanádio. A temperatura apresenta menor influência.
Esses fatos indicam que a difusão intrapartícula é a etapa controladora da velocidade do processo. Adicionalmente, foi
proposto processo de lixiviação e operado em escala de bancada. Foram comparados os resultados obtidos com aqueles
previstos, com boa concordância. Realizou-se também estimativa de investimento para a implantação de pequena unidade, para lixiviação de 14 toneladas diárias. O custo de investimento foi avaliado em US$ 195.000,00.
Palavras- chave: VANÁDIO – CATALISADOR GASTO – LIXIVIAÇÃO – ÁCIDO SULFÚRICO.
ABSTRACT – Sulfuric acid plants often need catalyst replacement in order to cope with process improvements, removal of
broken pellets, dust and moisture damaged particles. This removed material can not be discarded because has high
amounts of vanadium. According to the Brazilian Environmental Authority this material must be stored under specified
conditions. This situation requires large storing areas potentially useful for other applications. The purpose of this work is
to study the catalyst leaching in order to reduce its vanadium content so that it can be safely disposed. Factorial experimental design was used and the process variables studied were particle size, temperature, acid concentration and agitation
intensity. Results showed strong dependency between remaining vanadium content and particle size. Temperature has
shown lesser influence. The latter indicates an intra particle diffusion controlled process. As an aftermath a leaching process was developed together with a model. Bench scale experiments showed good match with process calculated values.
Estimated investment for a small plant (14 ton./day) is US$ 195.000,00.
Keywords: VANADIUM – SPENT CATALYST – LEACHING – SULFURIC ACID.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90
85
g
y
p
INTRODUCTION
T
he overall sulfuric acid of Brazil is 4.9 Mtpy.
According to ANDA (1998), 80% of the acid
is used in fertilizer production, either in direct
application (mixing with phosphate concentrate) or
in phosphoric acid production used itself to produce ammonium phosphate, diammonium phosphates and triple super-phosphates.
In the 70’s under the Plano Nacional de Fertilizantes (set of actions issued by the Brazilian Government to increase the national fertilizer
production) the installed sulfuric acid production
capacity underwent a dramatic increase in order to
cope with the needs of Brazilian agricultural production. In the 80’s the existing plants underwent
process improvement with production capacity
increase and also the change of the absorption process from single to double step.
The single step absorption shows yields of
98% while double absorption process shows yields
of 99.5% plus. This reduction in sulfur consumption does not justify the necessary capital investments but the non converted sulfur is primarily
discarded to atmosphere as sulfur dioxide. So the
main task is to reduce the equivalent sulfur dioxide
emission from 2% to 0.5-0.4%.
In the single step absorption process the sulfur
dioxide is converted to sulfur trioxide in four catalytic beds. The key concept of the double step
absorption process is to make an intermediate
absorption of the sulfur trioxide before the gases are
allowed to enter the fourth catalytic conversion
stage.
The revamping of existing plants with the
change from single to double absorption demanded
the catalyst replacement for other types which yields
less pressure drops. This pressure drop reduction in
the reactor is necessary to overcome the pressure
drop increase due to the new absorption system
composed of heat exchangers and the absorption
tower itself. If the overall pressure drop is kept in
the previous figure there is no need of modify or
replace the gas compressing units (Sanders et al.,
1982).
The spent and replaced catalyst can not be
discarded due to its high Vanadium content.
86
Even though the catalyst type is not changed
there is always the need of its replacement. The
unavoidable vibration of the beds caused by the gas
flux, the thermal dilatation and also the rust deposit
cause dust production and deposit in the beds. This
increases the pressure drop in the reactor causing an
operational problem. In the maintenance shutdown
the catalyst must screened in order to remove this
dust.
When the one or more tubes of the heat
boiler show leakage the water vapor mixes with the
gases and reacts with the catalyst damaging it. The
damaged catalyst is easily identified by its blue or
green color in contrast with the normal yellow. It is
also replaced in the maintenance shutdown.
Some countries send the spent catalyst to the
vanadium mining facilities where it is mixed with
the ore in its normal processing lines. This is not the
case of Brazil, where the spent catalyst is stored and
kept in conditions dictated by the Environmental
Authorities. The problem is not solved although it is
kept under control but the used areas place a new
economic issue.
The international standard for vanadium
effluents was 900 mg/l maximum (Vanadium was
one of the heavy metals detected in Minamata Bay).
In 1985 this limit was increased to 2.400 mg/l in the
State of California (Social Security, Environmental
Health, 1985).
According to Azhikima (1991) the major
troubles of spent catalyst processing units are the
investment, high cost feedstock’s and also the arising of other potential environmental problems due
to other effluent generation.
The main goal of this work is to obtain process conditions that allow vanadium extraction so
that the remaining material may be considered inert
with low plant investment, low price feedstock and
no hazardous effluent generation.
Among several leaching agents, the sulfuric
acid under temperatures below 60ºC is compatible
with low price plastic and also low price feedstock
(the sulfuric acid itself), low amounts of alkaline
agent (caustic soda, soda ash or even limestone).
Reducing agent may be the sulfur dioxide.
By means of sulfuric acid leaching, Vanadium
is reduced from 5+ to 4+ so that it can be dissolved
Dezembro • 2000
g
y
p
in the form of oxy-sulfate (VOSO4). This occurs in a
wide pH range and redox potential as showed by
Rhodes (1968). Besides its function in reducing pH,
sulfuric acid also reacts in the Vanadium solubilization so that its concentration may influence the
leaching.
2. the flask was kept under agitation and temperature
control (New Brunswick shaker) for two hours;
3. 3 g of material in the desired mesh added;
4. after 15 min, withdraw the material by filtration;
5. Vanadium content determined by atomic
absorption spectrofotometry (Perkin Elmer 503
standard procedures).
EXPERIMENTAL
The sample of spent catalyst, used in this
experimental procedures, have been collected during annual Copebrás shutdown in 1994, by means
of sorting 20 lots of material taken at random.
The leaching study was carried with the factorial experimental design in order to determine the
influence of each process variable, their interaction
and setup the phenomenological relationships.
The main resistances to leaching are:
RESULTS
The results are shown in table 1. Variance
analysis of these results (tab. 2) shows that the residual vanadium content depends on:
• material size (mesh);
• leaching temperature;
• interaction between these two variables;
• does not depend on the sulfuric acid concentration;
• does not depend on the agitation speed;
• this can be seen easily in figure 1.
1. kinetic of the process;
2. intra-particle mass transfer;
3. mass transfer from particle surface to surrounding media.
Table 1: VANADIUM
run
size
(number) (mesh)
CONTENT AFTER LEACHING.
temperature
speed acidity vanadium
(°C)
(rpm)
(%)
(ppm)
So, the variables that affect those resistances are:
1
65
25
100
1
1110
1. sulfuric acid concentration, since it plays the role
of reactant it influences the kinetic. Tested
values: 1% and 10%;
2
65
25
100
10
1110
3
65
25
200
1
1110
4
65
25
200
10
1120
2. agitation speed: acts in the mass transfer from
particle to surrounding media. Tested values:
100 rpm and 200 rpm;
5
65
55
100
1
1080
6
65
55
100
10
1090
7
65
55
200
1
1120
3. particle size: intra-particle mass transfer. Tested
values: 35 mesh and 65 mesh;
8
65
55
200
10
1100
9
35
25
100
1
1290
4. Temperature: overall action. Tested values:
25ºC and 55ºC.
10
35
25
100
10
1300
11
35
25
200
1
1310
12
35
25
200
10
1280
13
35
55
100
1
1170
14
35
55
100
10
1220
15
35
55
200
1
1190
16
35
55
200
10
1210
The factorial experimental design was carried
by means of standard experimental assays sorted at
random described as follows:
1. in a 250 mL flask 50 mL of solution with the
desired pH and reducing agent (sodium tiosulfate) enough to obtain the final redox potential
of 400 mV;
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90
87
g
y
Table 2: ANALYSIS
OF VARIANCE : VANADIUM CONTENT
AFTER LEACHING.
Degrees of
Source
freedon
A)size (mesh)
1
B)tempera1
ture
C)speed
1
(rpm)
D)acidity
1
Interaction
1
AxB
Interaction
1
AxC
Interaction
1
AxD
Interaction
1
BxC
Interaction
1
BxD
Interaction
1
CxD
Residuals
5
TOTAL
15
PREDICTED
p
Table 4: EQUIPMENTS LIST
Item
Total
square
79806
Mean
square
79806
Variance
ratio
337,87
1
12656
12656
53,58
3
306
306
1,30
4
156
156
0,66
5
6806
6806
28,81
6
156
156
0,66
7
156
156
0,66
8
156
156
0,66
9
10
306
306
1,30
11
506
506
2,14
12
1181
102194
236
6813
1,00
2
13
Tag
B01
Description
Sump pump, PVC or poliethylene
Centrifugal pump, 5 m3/h, poliethyB02A/B
lene
Centrifugal pump, 5 m3/h, poliethyB03A/B
lene
B04
Sump pump, PVC or poliethylene
Centrifugal pump, 3 m3/h, poliethyB05A/B
lene
Centrifugal pump, 3 m3/h, poliethyB06A/B
lene
Rotary reactor, 1m3, phenolic resin
BT01
linned carbon steel
Discharge vessel, 1m3, phenolic
C01
resin linned carbon steel
FP01
Press filter, 12 m2, poliethylene
FP02
Press filter, 3 m2, poliethylene
Agiteted vessel, 3m3, phenolic
TQ01
resin linned carbon steel
Agiteted vessel, 3m3, phenolic
TQ02
resin linned carbon steel
Agiteted vessel, 0.35m3, phenolic
TQ3/4/5/6
resin linned carbon steel
Table 3:
AND OBSERVED VANADIUM CONTENT
Observed Predicted Diference
value
value
(%)
Stream
Filtered from the first
(ppm)
leaching
35000
34780
0,63
Filtered from the
pH4.0 precipitation
(ppm)
2500
2500
0,00
Filtered from the
second leaching
(ppm)
3900
3812
2,31
Filtered from the first
(ppm)
washing
7700
7868
-2,14
Filtered from the
second washing
(ppm)
6000
6160
-2,60
Filtered from the third
(ppm)
washing
1800
1865
-3,49
Filtered from the forth
(ppm)
washing
2200
2241
-1,83
Cake after leaching
(ppm)
2100
2234
-6,00
Precipitated solid
(g)
26,7
28,8
-7,29
Vanadium in the
precipitated cake
(%)
20,1
18,8
6,91
88
Dezembro • 2000
g
y
p
Fig. 1. Vanadium content after leaching.
Fig. 2.
Material Balance: 1000 Kg of spent catalyst (values in Kg).
stream
1
2
3
solids
0
0
0
water
60
34
94
0
147 2524 2377 476 3000 479
V(solid)
0
0
0
31
28,8
V(liquid)
0
0
0
0
0
4
5
1000 153
6
7
8
9
10
11
12
13
14
15
16
17
18
0
0
970
0
970
0
970
0
970
0
970
0
970
0
435
476
435
476
435
476
435
476
435
0
1,1
0
1,1
0
1,1
0
1,1
0
34,8 5,94 6,56 11,4 4,49 3,42 3,75 2,68 2,93 1,87 2,04 0,98 1,07
0
0
0
1,1
0
1,1
19
figura 2
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90
89
g
y
p
DISCUSSION
This results indicates that the dominant resistance of the process is the intra-particle diffusion
because:
1. if the dominant resistance was the mass transfer
from the particle surface to the surrounding
media, the residual vanadium content would be
dependant on the agitation speed;
2. if the kinetic was the slowest step, the final result
would depend on the sulfuric acid concentration, because it is a reactant;
3. the intra-particle diffusion is strongly influenced
by the particle dimension; it is also influenced by
temperature because it affects the diffusion coefficients, exactly as was shown by the variance
analysis.
The material with moisture is easily disrupted
to the mesh 65. This dimension showed a good
equilibrium approach in 15 minutes (fig. 1), in all
experiments.
To make the material balance, we need know
the cakes humidity. Complementary experiments
made possible to determine the equilibrium moisture of 49% in several filtration cakes which shows
that the counter current leaching (with two stages
with 20 minutes of residence time each) followed
by washing (four stages), as shown in figure 2, give
the desired result. Extracted vanadium is precipitated by pH increase, so that the solution can be
recycled.
This process has been conducted in bench
scale. The Vanadium content showed no significant
variation after 6 cycles so that steady state condition
were achieved.
Observed figures showed good match with
that predicted (fig. 2), as seen in table 3.
The match between predicted and observed
values allowed the proposal of a flowsheet of the
process as seen in figure 3 and the list of equipments
(tab. 4).
The investment estimate for a small plant with
capacity of processing 600 kg/h is US$ 195,000.00.
CONCLUSIONS
The spent sulfuric acid production catalysts
can be leached with sulfuric acid to reduce its Vanadium content so that they can safely be disposed as
inert materials.
Leaching velocity, showed to be influenced by
particle dimensions and temperature and does not
depend on the sulfuric acid concentration nor agitation speed. This behavior can be explained by the
fact that the slowest step of this process is the intraparticle diffusion and the reaction kinetics and also
that the mass transfer from the particle to the surrounding media are minor resistances.
Counter current leaching followed by washing allows the reaching of desired spent catalyst contents to disposal. Produced liquor can be recycled
after vanadium precipitation at pH 4.0. Bench scale
experiments showed good match between predicted (see fig. 2) and measured values.
Estimated investment for a small capacity production unit (600 kg/h) is US$ 195,000.00.
REFERENCES
ANDA-Associação Nacional para a Difusão de Adubos e Corretivos Agrícolas. Anuário Estatístico Setor de Fertilizantes, São
Paulo, 1997.
AZHIKINA, Y.V. Status and thrust of research on recycling spent vanadium catalysts in sulfuric acid production. Zhurnal Prikladoi Khimii, v. 64, n. 5, pp. 1.105-1.107, 1991.
Gmelins Handbuch der Anorganishen Chemie. Weinhein-Bergstrasse, Verlag Chemie, 1968. v. 48, p. 498.
SANDERS, U.H.; FISHER, H.; ROTHE, U. & KOLA, R. Sulphur Dioxide and Sulfuric Acid. London: The British Sulphur
Corporation Ltd., 1982.
State of California. Department of Health Services. Minimum Standards for Management of Hazardous and Extremely Hazardous Wastes. In: Social Security (Title 22), Environmental Health (Chapter 30).
90
Dezembro • 2000
g
y
p
Rheological Behavior of
Pineapple and Mango
Pulps: effect of the
measuring systems
Comportamento Reológico das Polpas de
Abacaxi e Manga: efeito do sistema de medidas
CARLOS ALBERTO GASPARETTO
Unicamp
[email protected]
DANIELA HELENA PELEGRINE GUIMARÃES
Unicamp
[email protected]
ABSTRACT – The rheological behavior of whole pulps of Pérola variety pineapple (Ananas comusus L. merr) and Keitt variety mango (mangífera indica L.), both at 30˚C, using the Haake Rotovisco RV-20 rotational rheometer was studied. Two
different measuring systems were empolyed: concentric cylinders (ZA30) and parallel plates. The diameters of parallel
plates were 45 mm (PQ45) and 30 mm (PQ30), both with gaps of 0.5 and 1.0 mm. The PQ45 measuring system with gap
of 0.5 mm produced the highest shear rates, up to 900s-1 and showed better performance in describing the behavior of
both pulps. The resulting rheograms were adjusted with the model of Mizrahi-Berk (M-B) having three constants. Samples
showed pseudoplastic behavior for both measuring systems employed. The geometry of those measuring systems greatly
affected the rheological response of both pineapple and mango pulps thus influencing the quality of rheological model fitting. No thixotropy was detected.
Keywords: PINEAPPLE – MANGO – PULP – RHEOMETRY – PSEUDOPLASTIC.
RESUMO – Neste trabalho experimental foram analisados, em reômetro rotacional Haake Rotovisco RV-20, as polpas
integrais de abacaxi Pérola (Ananas comusus L. merr) e manga Keitt (mangífera indica L.) à temperatura de 30ºC. Os
ensaios foram conduzidos com dois sistemas de medida: cilindros concêntricos (ZA30) e placas paralelas com diâmetros
de 45 mm (PQ45) e de 30 mm (PO), ambas com espaçamento de 0,5 e 1,0 mm. O sistema de medida PQ45 com distância entre placas de 0,5 mm produziu as maiores taxas de deformação, até 900s-1 e foi o que melhor descreveu o comportamento das duas polpas. Aos reogramas obtidos foi ajustado o modelo de Mizrahi-Berk (M-B). Observou-se que as duas
polpas apresentam comportamento pseudoplástico para todos os sistemas ensaiados, e que a geometria dos sistemas de
medidas exerce grande influência nos parâmetros reológicos e também na qualidade do ajuste do modelo reológico. Não
foi detectada tixotropia durante os ensaios.
Palavras-chave: ABACAXI – MANGA – POLPA – REOMETRIA – PSEUDOPLÁSTICO.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96
91
g
y
p
INTRODUCTION
P
ineapple and mango are known as two
appreciable tropical fruits, due both to its pleasant aroma and flavor, and its nutritional
value, with high caloric, vitamins and mineral salts
contents (Donato & Carraro, 1995). Because of
these factors, pineapple and mango are among tropical fruits of great commercial importance (Cunha
et al., 1994).
One way of placing these products into the
market, increasing its shelf life and avoiding the losses due to its appearance effects, is processing them
into juices and nectars (Queiroz, 1998). To handling
these products in the food industry the pulp is submitted to a complete industrialization process. For
such industrial processes to be technical and economically feasible, it is important the knowledge of
physical-chemical properties from which the rheological behavior is one of the most important (Ibarz
et al., 1996).
Among the many factors influencing the rheological behavior of fruit pulps, the measuring systems’ geometry is one of the most important,
having great influence on rheological parameters
definition that describe the fruit pulps, because these
materials are non-newtonians (Pelegrine, 1999).
Most certainly, the difficulty found in the
reproduction of rheological experimental data from
literature can be explained because different measuring systems are used. Smith & Park (1984) said
that when a non-newtonian fluid is tested using
concentric cylinder viscometres, an error exists,
related to the magnitude of the gap between the cup
and the bob. According to these authors, the error
Fig. 1 - Searle rotational rheometer.
92
value tends to zero, when the ratio between the
radii of two cylinders approaches unity. From this, it
can be concluded the importance of the measuring
system used in any rheological test, allowing future
data comparison and reproduction.
The rheological behavior determined through
rotational rheometer is based on torque determination, necessary to maintain constant rotational
speed of a body that is immersed or in contact with
the fluid. This type of rheometer can present several
configurations, depending on the geometry of the
rotational bodies. In this way, the rotational rheometers can be of concentric cylinders, parallel plates,
cone and plate or others (Schramm, 1981).
The main advantages on rotational rheometer
is that this equipment allows a continuous measuring of the relationship between shear rate and shear
stress, also allowing the analysis of time dependent
fluids. Such equipments maintain a constant rotational speed corresponding to certain shear rate; the
shear stress is obtained through torque measurement (Barnes, 1989). The shear rate and shear stress
depend on the radius of the cylinder. In concentric
cylinders, one of them rotates at a certain angular
speed, while the other remains static. There are two
types of concentric cylinders rheometer: Searle and
Couette. In the fist one, the inner cylinder (cup)
rotate while the bob remains static; in Couette rheometer the bob is the movable cylinder. Setting down
several angular speeds for the rotational cylinder
and detecting the torque in the measuring cylinder,
the rheological curves can be obtained, for certain
fluid. Searle and Couette systems are illustrated in
figures 1 and 2.
Fig. 2 - Couette rotational rheometer.
Dezembro • 2000
g
y
p
The parallel plates measuring system is constituted of two plates, separated by a gap. The gap
between the plates can be adjusted, and therefore
different shear rates can be obtained; larger shear
rates are reached with plates of larger diameter and
smaller gap between them.
Fig. 4. ZA-30 measuring system with view of the cup and
the bob.
MATERIAL AND METHODS
Preparation of Pulps
The pulps were produced in pilot plant from
fruits with similar degree of ripeness, as standardized
with a penetration texturometer. The fruits were
washed, peeled and its stales discarded. Then the fruits
were passed through finishers with screen of 1.6 mm.
Finally, the pulp was plate frozen to -20˚C for storage.
The phyical-chemical characteristics of pineapple and
mango pulps are summarized in table 1.
Fig. 5. PQ-30 measuring system.
Tab. 1. Pysical-chemical characteristics of pulps.
pH
Soluble Solids (ºBrix)
Pectin (w/w %)
Insoluble solids (w/w %)
MANGO
PINEAPPLE
4.47
16.60
0.98
1.08
3.50
13.30
0.082
0.54
Rheological Measurements
The rheological properties of the samples were
determined at 30˚C with the Haake Rotovisco (model
RV-20) rotational rheometer, using the concentric
cylinders (ZA30, fig. 3 and 4) and parallel plates
(PQ30 and PQ45, fig. 5, 6, 7 and 8) systems. The gaps
used for both plate diameters were 0.5 and 1.0 mm.
Fig. 3. ZA-30 measuring system with view of the group
cup/bob.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96
Fig. 6. PQ-30 measuring system.
93
g
y
p
Fig. 7. PQ-45 measuring system.
τ
1/2
– K 0M = K M ⋅ γ̇
nM
(1)
where:
τ = shear stress;
.
γ = shear rate
KM = consistency index;
nM = behavior index;
K0M = squared root of Mizrahi-Berk yield stress.
For each curve fitting it was analyzed the
determination coefficient (R2) and the qui-square
(χ2) paramethers, for each measuring systems.
RESULTS AND DISCUSSIONS
Fig. 8. PQ-45 measuring system.
Rheograms
Figures from 9 to 11 show the average results
for shear rate versus shear stress data for each experimental situation. Figures 12 and 13 show average
data plus adjusted model to each pulp. The rheogramas obtained for all samples and systems did not
show thyxotropic effects.
Fig. 9. Mean shear stress X shear rate data for PQ - 30
system.
The time lenght of run, for each experiment
was programmed to be accomplished in 6 minutes.
During the two initial minutes the shear rate was
maintained constant at its maximum value, depending on the measuring system and, during the two
subsequent minutes, the shear rate varied in a decreasing way until a minimum value near 0 s-1, and the
last two minutes were for speeding up the shear rate
back to its maximum. During the descending speeds, 20 points of shear rate versus shear stress were
obtained as well as another 20 points for the ascending rates, resulting in a total of 40 points. If the
fluid is not thixoprotic, the value of shear stress considered for a shear rate is taken as the arithmetic
mean between descending and ascending rates.
The experiments were conducted with three
repetitions and the resulting shear stress was the
average of the three experiments. Each set of data
was adjusted to the Mizrahi-Berk (M-B) model,
represented by the following equation:
94
Fig. 10. Mean shear stress X shear rate data for PQ - 45
system.
Dezembro • 2000
g
y
p
Fig. 11.Mean shear stress X shear rate data for ZA - 30
system.
Tab. 2. Rheological parameters of the Mizhari-Berk model for
pineapple pulp.
PQ30
gap=
0,5mm
PQ45
gap=
0,5 mm
PQ30
gap=
1,0 mm
PQ45
gap=
1,0 mm
ZA30
K0M -0.24747
KM 1.80389
nM 0.12100
K0M 2.19800
KM 2.16045
nM 0.10367
2.05297
0.60412
0.55712
0.2496
0.49357
0.19918
0.06600
0.0361
0.19712
0.38469
0.53155
0.6545
0.52318
0.24747
0.14083
0.1123
0.42550
0.14189
0.04192
0.0242
0.08961
0.10757
0.09527
0.1092
χ2
0.11917
0.02061
0.03572
0.01877
0.0143
R2
0.75510
0.92903
0.85700
0.92643
0.9365
Tab. 3. Rheological parameters of the Mizhari-Berk model for
mango pulp.
Fig. 12. Mizrahi-Berk adjustment for pineapple pulp.
PQ30
gap=
0,5mm
PQ45
gap=
0,5 mm
PQ30
gap=
1,0 mm
PQ45
gap=
1,0 mm
ZA30
0.89149
0.48144
1.14022
0.86608
0.87008
1.46921
1.59808
1.70527
1.69185
2.04231
0.24246
0.23560
0.22654
0.23396
0.22018
0.17380
0.07963
0.46351
0.09570
0.15453
0.13743
0.05955
0.40334
0.07975
0.13500
0.01142
0.00421
0.03020
0.00587
0.00827
χ2
0.00752
0.00106
0.03473
0.00200
0.00330
R2
0.99841
0.99982
0.99001
0.99958
0.99926
K0M
KM
nM
K0M
KM
nM
CONCLUSIONS
Fig. 13. Mizrahi-Berk adjustment for mango pulp.
Rheological Parameters
Tables 2 and 3 present the pulp’s rheological
parameters obtained by Mizhari-Berk adjustment
model, through the software Origin 3.5.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96
Regarding the observations referring to the
measuring systems used, it can be concluded that
all the measuring systems detected the pseudoplasticity of the pulps used. From tables 2 and 3, it
can be observed the behavior index smaller than 1
for all the cases, concluding that both pineapple
and mango pulps present pseudoplastic characteristics. For mango, it can be observed (tab. 3) that
the pseudoplasticity varied very little with the
different measuring systems used. From table 2 it
can be observed that PQ30 system is the less
appropriate because shows very poor statistical
parameters. Although the fittings with ZA30 and
PQ45 presented satisfactory results, the PQ45 system’ results for larger shear rates at 0.5 mm gap,
produced better results, mainly if the fluid has low
viscosity. So the rheological parameters obtained
with this measuring system presented better reliability and it is to be recommended for materials
having the same characteristics as the pineapple
and mango pulps.
95
g
y
p
REFERENCES
BARNES, H.A.; HUTTON, J.F. & WALTERS, K. An Introduction to Rheology. New York: Elsevier Publishers, 1989.
CUNHA, G.A.P. et al. Manga para Exportação: aspectos técnicos da produção. Frupex-Manual de Exportação de Frutas. Brasília, 1994, pp. 8-13.
DONATO, M. & CARRARO, A.F. An illustrated guide for importers. FRUPEX – Manual de Exportação de Frutas. Brasília,
1995, pp. 6-7, 16-17.
IBARZ, A. et al. Rheology of clarified passion fruit juices. Fruit Processing, 6: 330-333, 1996.
PELEGRINE, D.H. Comportamento Reológico das Polpas de Manga e Abacaxi. [Dissertação de Mestrado. Campinas: Unicamp, 1999].
QUEIROZ, A.J. et al. Influência dos Sólidos Suspensos na Reologia do Suco de Abacaxi. Congresso Brasileiro de Sistemas Particulados, 14, Uberlândia, 1996.
SCHRAMM, Gebhard. Introduction to pratical viscometry. Germany, Gebrueder Haake, 1981.
SMITH, R.E. & PARK, A. Effect of gap errors in rotacional concentric cylinder viscometers. Journal of Rheology, 28: 155-160,
1984.
96
Dezembro • 2000
g
y
p
Gestão Ambiental:
utilização de Sistema de
Informação Geográfica
(SIG) na implantação de
um zoneamento para
atividades industriais no
*
1
município de piracicaba
Environmental Management: use of Geographic Information System
(GIS) in the implementation of an industrial district in piracicaba
JOÃO MORENO
Universidade Metodista de Piracicaba
[email protected]
TAISE LITHOLDO
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Visa-se propor um procedimento metodológico que resgate um conjunto de fatores e subfatores avaliativos, no
que concerne à localização de empreendimentos industriais – contexto de gestão ambiental do território –, na aplicação de
um Sistema de Informação Geográfica (SIG) como instrumento de importância para garantir a viabilidade ambiental. O presente trabalho presta-se, assim, a utilizar dados e caracterização física do município de Piracicaba na busca de áreas ambientalmente apropriadas a atividades industriais, propiciando compreender a capacidade de suporte do ambiente.
Palavras-chave: GESTÃO AMBIENTAL – SISTEMA DE INFORMAÇÃO GEOGRÁFICA (SIG) – PRODUÇÃO DO TERRITÓRIO.
ABSTRACT – The main objective of this work is to present a methodological procedure that considers geophysical parameters from a Geographic Information System (GIS), to evaluate different possibilities for industrial district location. This
procedure tries to guarantee the environmental sustainability of the district implementation. The case analyzed is the
country of Piracicaba, where a prospective study aims to consider the carry capacity of the environment.
Keywords: ENVIRONMENTAL MANAGEMENT – GEOGRAPHIC INFORMATION SYSTEM (GIS) – TERRITORIAL PLANING.
1
*
Projeto de pesquisa SEAC 189-09/98 (parte), realizado com o apoio da Universidade Metodista de Piracicaba-PIBIC/CNPq.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106
97
g
y
p
INTRODUÇÃO
ORDENAMENTO TERRITORIAL
A
Sistematização no Controle da
Degradação Ambiental – uma
variável de sustentabilidade
gestão ambiental assume ênfase como instrumental básico para o desenvolvimento sustentado em ecossistemas territoriais, ou seja,
possibilita apropriar o conhecimento indispensável
à realização do planejamento ambiental do território, repousando-se sobre novos conceitos relativos à
organização dos espaços. No passado, a ciência
urbana concentrou-se numa imagem particular do
desenvolvimento espacial, evidenciado por Gottdiener (1993) como sendo a “forma confinada de
cidade”. No presente, chama a atenção para uma
“reconceituação”, pois os padrões de organização
espacial mudaram.
Nesse aspecto, o fenômeno de mudança da
organização espacial do território adquire uma
escala de valor complexo nesse século XXI, no que
tange aos limites de conhecimentos – o homem
ingressa em uma nova dimensão de busca de conceitos relativos à organização dos territórios. Portanto, uma regênese do espaço – a busca de um
novo estágio de estabilidade no ecossistema antrópico –, a sustentabilidade.
Isso posto, pode-se dizer que a gestão do território como instrumento preventivo da degradação
ambiental e de correção das conseqüências econômicas impostas ao meio ambiente será tratada aqui,
valendo-se de uma experiência metodológica proposta pelo Washington County Planning Comission
and the Overal Economic Development Committee
Program Staff, em conjunto com o Washington
County Industrial Development Agency e publicada
no County Industrial Sites, Commissioner’s Office,
Washington County, Pennsylvania, 1971 – EUA
(Tommasi, 1994). Nesse sentido, objetiva-se propor
um procedimento que resgate um conjunto de fatores e subfatores avaliativos, no que concerne à localização de empreendimentos industriais – contexto
de gestão ambiental do território –, na aplicação de
um Sistema de Informação Geográfica (SIG) como
instrumento de importância para garantir a viabilidade ambiental.
O presente trabalho presta-se, desse modo, a
utilizar dados e caracterização física do município de
Piracicaba na busca de áreas ambientalmente apropriadas a atividades industriais, propiciando compreender a capacidade de suporte do ambiente e, assim,
minimizando os efeitos impactantes sobre o meio.
98
Em síntese, ordenar o território deve ser
entendido como o resultado de um conjunto de
ações que, respeitando a capacidade de suporte e a
sua vocação natural – aptidões –, consiste em compatibilizar as necessidades humanas relativas à ocupação e ao uso do solo (ver fig. 1).
Fig.1. Gestão ambiental: sustentabilidade do território/
ordenamento territorial – princípios: uso e ocupação.
Entretanto, com o rápido desenvolvimento
tecnológico e de reprodução territorial, assiste-se a
uma intensa exploração da natureza e de seus recursos, o que tem possibilitado o esgotamento dessa
capacidade. Cavalcanti (1996) aponta esse quadro
ao dizer que o desenvolvimento não pode mais ser
tratado como sinônimo de crescimento. A natureza
se desenvolve, os ecossistemas evoluem e atingem
suas fases de clímax. Nada cresce indefinidamente
na natureza física. Uma bola de neve pode expandirse exponencialmente, mas o resultado disso é sempre
Dezembro • 2000
g
y
p
um desastre. Por detrás da evolução e do desenvolvimento dos sistemas naturais existe a homeostase
pondo cobro aos absurdos expansionistas.
Do ponto de vista físico, a possibilidade de crescimento precisa ser definida de acordo com a capacidade de suporte do ecossistema territorial. Nesse
sentido, desenvolvimento não pode significar necessariamente aumento contínuo. Surge então uma
variável, o conceito de sustentabilidade ambiental –
“desenvolvimento sustentável”, que vem resgatar o
sentido de homeóstase.2 Pode-se então, mesmo que
em síntese, fazer o resgate desse conceito. O termo
“desenvolvimento sustentável” tem o desdobramento do que se chamou de “ecodesenvolvimento”,
empregado por Maurice Strong, em 1973, partindo
do conceito básico emergido da Conferência de Estocolmo, em 1972, designado na época como “abordagem do ecodesenvolvimento” (Sachs, 1993).
Portanto, optar pela sustentabilidade do ambiente
quer dizer adotar usos no ordenamento do território
que não esgotem a conservação do capital natural para
futuras gerações. Uma sociedade sustentável, como
destaca Cavalcanti (1997), centra-se no reconhecimento de limites biofísicos colocados, incontornavelmente, pela biosfera no processo econômico – a
economia obrigando-se a operar em sintonia com os
princípios da natureza –, destacando que “a natureza
deve ser a referência para a escolha da escala ótima das
atividades econômicas.” Nesse sentido, é possível perceber, em tese, que valores culturais podem ensejar
diferentes ocupações territoriais. Logo, estabelecer
relação de produção equilibrada – homem versus
natureza – é implementar ações que resgatem a qualidade ambiental e a qualidade de vida no território.
Isso posto, entende-se que uma orientação
quanto à conservação do capital natural para futuras
gerações constitui ou representa uma questão ética
fundamental para o alcance da sustentabilidade do
território.
Na determinação de cenários potenciais para
instalação de atividades industriais faz-se necessário
estabelecer critérios de indução e de restrição à ocu-
pação do território – fatores ambientais. Para tanto,
há que se resgatar a compreensão das características
físicas – pedologia, declividade, geologia e uso do
solo –, elementos balizadores na indução e adequação espacial do território às atividades industriais. Já
as variáveis socioeconômicas, em que se fundamenta
a definição dos fatores socioeconômicos de desenvolvimento industrial, são aqui representadas pela distância à obtenção de serviços básicos de mão-de-obra e
infra-estrutura com relação ao território urbanizado.
BANCO DE DADOS – SIG: IDRISI – O primeiro
passo para a realização do presente trabalho foi
estruturar a base cartográfica digital. As informações
relativas às curvas de nível, infra-estrutura (rede viária) e rede hidrográfica (rios) das cartas do IBGE,
em escala 1:50.000, foram digitalizadas em planos
de informação individuais, usando o software Tosca
2.12 e o Cartalinx 1.04 – versões para ambiente
Windows, desenvolvidas pela Clark University.
O segundo passo consiste em eleger os cruzamentos dos planos de informações descritos, formando, dessa maneira, um banco de dados digitais
editados pelo sistema Idrisi, agora em formato raster, com uma resolução de pixel de 30x30 m, o que
vem compatibilizar o cruzamento das informações
com a imagem de satélite utilizada na apropriação
do uso do solo. Mediante esse banco de dados criado,
desenvolve-se então os objetivos propostos. A áreaobjeto desse trabalho é o município de Piracicaba,
pelo fato de ser uma região complexa e de interesses
difusos (Hidrovia etc.) na apropriação do território. A
figura 2 representa esse objeto de análise, cujo limite
está expresso em coordenadas UTM.3
Pode-se, então, com base na caracterização
ambiental da área em estudo, como em Tommasi
(1994), passar à definição de critérios ambientais
ponderados, permeando assim a prospecção –
cenários espaciais – de áreas potenciais cujos fatores ambientais passem a expressar condições favoráveis à localização de atividades industriais nesse
território.
2 “Propriedade auto-reguladora de um sistema ou organismo que permite manter o estado de equilíbrio de suas variáveis essenciais ou de seu
meio ambiente”, segundo definição de Aurélio B. H. Ferreira (1986).
3 No Brasil, o sistema de projeção cartográfica Universal Transversa
de Mercator (UTM) é utilizado como padrão para mapas; nele, as
distâncias são corretamente representadas (Crosta, 1993).
CONSTRUCTO
Potencialidade na Localização
de Atividades Industriais no Território
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106
99
g
y
p
Fig. 2. Imagem representativa da localização geográfica da região de estudo – município de Piracicaba.
RESULTADOS E DISCUSSÃO
Fatores Físicos de Indução-Avaliativos
Os fatores físicos, no que tange à indução
industrial, são representados pelas cartas temáticas:
pedologia, geologia, declividade e uso do solo
(banco de dados gerado no sistema Idrisi).
Na avaliação das ponderações, buscou-se verificar a adequabilidade ou a aptidão de cada fator
físico, propiciando valorar cada um deles, com vistas a possibilitar um grau de menor risco ambiental
– impacto e degradação. Assim, uma maior ponderação pôde indicar maior aptidão do fator físico ao
sustentar a implantação industrial. A tabela 1 aponta
essas ponderações. Entretanto, se faz necessário
considerar critérios restritivos à ocupação, objetivando estabelecer proteção aos recursos hídricos e
áreas de relevância ambiental, tais como:
1. o estabelecido pela Portaria Ministerial número
124/1980, proibindo a instalação de qualquer
atividade industrial a menos de 200 m de qualquer corpo d’água (Cetesb, 1994);
2. a exclusão de áreas com declividade maior ou
igual a 45º, conforme determinado pelo Código
Florestal, Lei Federal número 4.771 – alterado
pelas Leis 7803/89 e 7875/89;
3. exclusão de áreas de várzea, conforme indicado
pela Resolução Conama número 004/85 (Cetesb,
1994).
100
Outro fator restritivo se aporta no sentido de
oferecer proteção a áreas de recarga de aqüíferos contra poluição de resíduos industriais – risco de contaminação. Nesse aspecto, foram incluídas áreas de
intercessão de solos classificados como “Areia Quartzosa” e a formação geológica “Botucatu-Pirambóia”.
Para isso, foi gerado um cenário de indução dos fatores físicos – capacidade de uso industrial – segundo os
fatores físicos (imagem representativa; ver fig. 3), partindo-se de imagens binárias – itens 1 a 3 (as áreas restritivas receberam identificador 0, indicando restrição
de ocupação; as demais áreas receberam identificador
1 – áreas possíveis de ocupação).
Logo, pelo processo overlay de multiplicação
do sistema Idrisi, obtém-se as áreas indicadas nesse
cenário: capacidade de uso industrial, resultando da
ordenação pontuada pela tabela 1, que representa
uma escala de ocupação espacial pelas atividades
industriais. A esse processo, procede-se a eliminação
dos potenciais abaixo de 100 (cem), os quais representam um indicativo muito baixo de ocupação
industrial.
Outro fator importante em termos de metodologia foi o de excluir áreas menores do que 20 ha,
por serem consideradas não representativas, no
âmbito do planejamento regional, à instalação de
zonas industriais. Esse processo foi obtido pelos
módulos do sistema Idrisi: group, area e reclass.
Dezembro • 2000
g
y
p
Tab. 1. Ponderação: fatores físicos.
FATORES DE
CATEGORIAS
INDUÇÃO
Pedologia
Declividade
Uso do Solo
Geologia
ATRIBUTOS
Latossolo Roxo
5
Latossolo Verm. Escuro
5
Latossolo Verm. Amarelo
5
Terra Roxa Estruturada
5
Terra Roxa Est. Latossólica
5
Brunizens
5
Terra Roxa Est. Pod.
4
Pod. Vermelho Amarelo
4
Pod. Verm. Escuro
4
Areia Quartzosa
3
Solo Litólico
2
Planossolos
0
Podzol
0
Cambissolos
0
Solo Aluvial
0
Solo Gleizado
0
Extração Pedra
0
Planície de Inundação
0
Área Urbanizada
0
0 - 3%
5
3 - 6%
3
6 - 10%
2
> 10%
1
Cana de Açúcar
5
Solo Exposto
5
Pasto
5
Vegetação Paludosa
0
Vegetação Arbórea
0
Vegetação Nativa
0
Água
0
Urbano
0
Serra Geral
5
Formação Irati
5
Holoceno
4
Grupo Tubarão
3
Grupo Bauru
3
Formação. Corumbataí
3
Botucatu Pirambóia
2
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106
Tab. 2. Pontuações resultantes: cenário de indução dos
fatores físicos.
ÁREA
ÁREA
DE
PONTUAÇÕES COMBINAÇÕES
O
CUPADA
R
ELATIVA
ATRIBUTOS
(HA)
(%)
625
400
375
300
250
240
225
200
180
150
125
120
100
Subtotal
outros
Restritivo
Urbano
Total
5. 5. 5. 5
1283.04
5. 5. 4. 4
102.87
5. 5. 5. 3
3034.98
5. 5. 4. 3
1205.01
5. 5. 5. 2
1385.37
5. 4. 4. 3
49.23
5. 5. 3. 3
1983.33
5. 5. 4. 2
1493.01
5. 4. 3. 3
2380.23
5. 5. 3. 2
1248.84
5. 5. 5. 1
92.61
5. 4. 3. 2
3944.07
5. 5.4.1 / 5.5.2.2
289.26
-----18491.85
-----11918.52
-----78805.62
-----9904.14
-----119120,13
1.11
0.08
2.5
1.01
1.2
0.04
1.7
1.25
2.0
1.05
0.07
3.31
0.2
15.52
10.00
66.17
8.31
100.00
Observa-se, pelas informações contidas na figura
3 e na tabela 2, a intercessão das categorias mais favoráveis de todos os fatores físicos, ou seja, daquelas que
receberam uma ponderação 5 em seus atributos.
Todavia, salienta-se que esse processo de multiplicação pode levar a resultados muito variados de
pontuações, sendo que a alteração de apenas um dos
fatores de indução pode modificar completamente a
pontuação dessa região de análise. Por conseguinte, a
ordenação desse cenário apresenta coerência com a
metodologia adotada.
Fatores socioeconômicos de
indução industrial – Ponderação
Sabe-se que quanto maior a infra-estrutura
existente, maiores as possibilidades de indução na
apropriação de áreas potenciais. Nesse sentido,
torna-se necessário ponderar tais fatores. A tabela 3
demonstra essa relação.
O cenário “capacidade de uso industrial”,
segundo os fatores socioeconômicos (fig. 4), é construído no sistema Idrisi pelo módulo overlay de multiplicação, partindo-se da imagem de ponderação
(conforme tabela 3) – módulo distance (superfícies de
distâncias); módulo extract (distâncias médias de cada
área potencial a rodovias, ferrovias e área urbana).
101
g
y
p
Fig. 3. Capacidade de uso industrial: cenário segundo os fatores físicos/CIND-A.
Tab. 3. Ponderação: cenário de indução dos fatores socioeconômicos.
INTERVALO DE
FATORES
DISTÂNCIAS – (KM) ATRIBUTOS
Rodovias / Ferrovia
Área Urbana
0 ≤ Dm * ≤ 1.5
1.5 ≤ Dm ≤ 2.5
2.5 ≤ Dm ≤ 3.5
Dm ≥ 3.5
0 ≤ Dm ≤ 5.0
5.0 ≤ Dm ≤ 8.0
8.0 ≤ Dm ≤ 12.0
Dm ≥ 12.0
5
4
2
1
5
4
2
1
* D = Distância média
m
As pontuações desse cenário, conforme demonstra a tabela 4, variam de 2 a 25.
Portanto, as variáveis socioeconômicas apontam as facilidades de obtenção de, por exemplo,
mão-de-obra, serviços básicos, escoamento da produção etc. Essa constatação pode ser visualizada
pela concentração de infra-estrutura junto às áreas
de maiores pontuações, conforme é demonstrado
na figura 4. Esse cenário atesta com clareza que a
ocupação do território a ser procedida envolve
estruturas e equipamentos adequados a cada função
específica de reprodutividade espacial.
Entretanto, há que se estabelecer uma “trilogia” de produção territorial (ou seja, capacidade de
investimentos): o homem, a sua política e a econo-
102
mia dela derivada, que, por seu turno, retorna ao
homem, redirecionando-o.
POTENCIALIDADE AMBIENTAL
DE INDUÇÃO INDUSTRIAL –
ASSOCIAÇÃO
A potencialidade para indução de ocupação
territorial, no que concerne às atividades industriais,
foi considerada até aqui de duas maneiras: (a) pelos
fatores físicos, os quais expressam a realidade natural
do ambiente; (b) pelos fatores socioeconômicos, que
caracterizam as oportunidades de infra-estrutura presentes no território. Contudo, o potencial ambiental,
significativo e indicativo de sustentabilidade do
ambiente, deverá ter como arcabouço a identificação
das ameaças e oportunidades ambientais decorrentes
da implantação do zoneamento de uso industrial.
As ameaças constituem prováveis passivos
ambientais futuros associados à presença de cada
estrutura e equipamentos previstos. Uma ameaça
ambiental é, portanto, fator impeditivo das ações
antrópicas corretas e, conseqüentemente, precisa ser
avaliada e mensurada. Nesse sentido, ao discorrer
sobre zoneamento ambiental e segurança nacional,
Machado (1992) afirma que o desenvolvimento com
preocupação ecológica deve entrosar-se com as estratégias de segurança da nação, pois viver em segurança
não implica necessariamente antinomia com viver
saudavelmente e em harmonia com a natureza.
Dezembro • 2000
g
y
p
Fig. 4. Capacidade de uso industrial: cenário segundo os fatores socioeconômicos/CIND-E.
Tab. 4. Pontuações resultantes: cenário de indução dos
fatores socioeconômicos.
ÁREA
ÁREA
PONTUAÇÕES CDEOMBINAÇÕES
O
CUPADA
R
ELATIVA
ATRIBUTOS
(HA)
(%)
25
20
16
8
4
2
Subtotal
outros
Restritivo
Urbano
Total
5. 5
5. 4
4. 4
4. 2
2. 2 / 4. 1
2. 1
--------------------------
1283.04
3230.46
1983.33
11656.53
289.26
49.23
18491.85
11918.52
78805.62
9904.14
119120,13
1.1
2.7
1.7
9.8
0.2
0.02
15.52
10.00
66.17
8.31
100.00
O resgate de uma compreensão maior do
que se evidenciou anteriormente – trilogia de produção territorial – permite perceber que as ações
do ser humano podem ou não comprometer o
equilíbrio dos ecossistemas, elevando ou degradando a qualidade de vida. Logo, compartilhar do
pensamento de Machado (1992) é recuperar essa
racionalidade, quando se evidencia que, “com a
adoção de implementos técnicos necessários e a
aplicação de regras econômicas realmente humanas”, é possível alcançar a sustentabilidade ambiental do território.
A figura 5 aponta um caminho a ser delineado
como princípio de gestão do território, visando prever qualquer efeito ambiental que possa reduzir tais
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106
ameaças, uma vez que, com base em suas ocorrências, poderão ser desencadeadas reações adversas
em todo o território, e resultar em impactos negativos, levando à insustentabilidade ambiental.
Procedeu-se, então, à associação desses cenários. O primeiro passo foi estabelecer hipótese de
valoração, tanto no âmbito ambiental como no socioeconômico. A tabela 5 demonstra tal hipótese e o
atributo assumido no sistema Idrisi, módulo reclass,
para a reclassificação das imagens (figuras 3 e 4).
Portanto, a identificação de áreas com potencial
para indução de atividades industriais requer uma avaliação conjunta dos fatores físicos e socioeconômicos
na espacialização desse zoneamento no território. Os
cenários representados pelas figuras 3 e 4 trazem informações relevantes à implementação de políticas de
desenvolvimento regional, pois resgatam o que preceitua a lei: “opção por áreas que favoreçam a instalação
de infra-estrutura e serviços básicos necessários ao seu
funcionamento e segurança; manutenção, em seu
entorno, de anéis verdes capazes de proteger as zonas
circunvizinhas contra possíveis efeitos residuais e acidentes” (Machado, 1992).
O segundo passo foi fazer o cruzamento desses cenários através do módulo crosstab do sistema
Idrisi. O cenário resultante (fig. 6) apresenta as
potencialidades ambiental e socioeconômica, de
forma associada. Esse cenário potencializa tomadas
de decisões quanto à escolha adequada ao empreendedor, possibilitando minimizar ou evitar gastos
futuros com medidas mitigadoras de poluição e de
impactos ambientais.
103
g
y
p
Tab. 5. Hipótese adotada para reclassificação dos blocos
potenciais.
BLOCOS CLASSIFICAÇÃO BLO- ATRIBUTO
FATORES POTENCIAIS
COS POTENCIAIS
Físicos
Sócio
Econômico
400 a 625
Muito Alto
5
375 a 400
Alto
4
225 a 375
Médio
3
120 a 225
Baixo
2
100 a 120
Muito Baixo
1
20 a 25
Muito Alto
5
16 a 20
Alto
4
8 a 16
Médio
3
4 a 8
Baixo
2
2 a 4
Muito Baixo
1
Fig. 5. Gestão do território: reprodutividade ambiental/
uso e ocupação do solo.
Nesse sentido, o zoneamento ambiental
representado na figura 6 resgata o princípio colocado pela “Política Nacional do Meio Ambiente
(art. 9.º, IV), que regula o licenciamento de atividades efetivas ou potencialmente poluidoras, como
também o é o zoneamento ambiental (art. 9.o, II)”
(Machado, 1992). Por conseguinte, tomando-se a
hipótese adotada para a classificação dos potenciais
Médio, Alto e Muito Alto, as somas dessas dimensões nos cenários CIND-A e CIND-E, respectivamente, somam 6507.45 ha, 3137.85 ha e 1283.04
ha, correspondendo a 5.46%, 2.63% e 1.11% da
área total estudada.
Pelo gráfico 1, é possível ser percebida essa
relação presente no território, o que vem indicar um
baixo potencial ambiental de uso do solo a atividades industriais. Entretanto, há que ser notado um
médio potencial de infra-estrutura presente, fundamentando a hipótese acima adotada, como parâmetro de indicativo de sustentabilidade. Isso vem
confirmar a relevância da metodologia de associação dos fatores físicos aos socioeconômicos.
Portanto, consideradas as facilidades estruturais, pode-se avaliar as produções antrópicas no que
tange ao planejamento territorial, ou seja, regiões
com vocações ambientais diversas que podem estar
sendo subaproveitadas.
Gráfico 1. Potencialidade relativa blocos – cenários.
CONSIDERAÇÕES FINAIS
A análise empregada mostrou-se adequada
aos objetivos propostos. Com auxílio dos módulos
de apoio à decisão do Idrisi, pôde-se verificar mais
objetivamente que, com a distribuição espacial das
104
Dezembro • 2000
g
y
p
potencialidades, é possível definir locais menos vulneráveis a esse tipo de ocupação e uso do solo.
As alternativas de análise para a gestão do território, ensejando o planejamento de localização de
atividades industriais, encontram nos módulos de
apoio à decisão, presentes no software, a geração
rápida de outros cenários, com a incorporação de
outras variáveis e na implementação de diferentes
formas de associação dos fatores envolvidos.
O geoprocessamento pode ser útil na preservação ambiental do território, propiciando maior
eficiência, flexibilidade e grau de complexidade no
tratamento dos dados ou das hipóteses predefinidas, apontando contribuições valiosas para as políticas de desenvolvimento regional. Esse processo
chega a um diagnóstico das vocações do espaço
territorial a ser ordenado, o que contribui para o
desempenho ambiental com vistas à sustentabilidade, apontando:
• os efeitos ambientais identificáveis ou previsíveis
– impactos –, afetando positiva ou negativamente o desempenho ambiental do território
em que se manifestam;
• a qualidade ambiental do território áreas prioritárias para o desenvolvimento de atividades
industriais, favorecendo o melhor aproveitamento das aptidões naturais;
• as áreas em que a instalação de atividades econômicas possa representar riscos de degradação
do meio ambiente e, conseqüentemente, perdas
das funções ambientais, podendo acarretar custos adicionais na recuperação da qualidade de
vida e ambiental.
GESTÃO AMBIENTAL
VALORES ESPACIAIS
SISTEMA DE INFORMAÇÃO
INSTITUIÇÕES: GOVERNAMENTAIS E ONGS
ATIVIDADES HUMANAS
DESENVOLVIMENTO REGIONAL
COM QUALIDADE AMBIENTAL
Dessa forma, considera-se o uso de tal ferramenta de apoio à decisão imprescindível ao processo
de gestão do território, pois ela contribui para a busca
de uma sociedade mais sustentável do ponto de vista
ambiental, apresentando um arcabouço para tomadas de decisões no âmbito político-regional.
Fig. 6. Zoneamento ambiental – potencialidade de uso industrial. Uso e ocupação do solo.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106
105
g
y
p
REFERÊNCIAS BIBLIOGRÁFICAS
ALMEIDA, L.T. Política Ambiental: uma análise econômica. Campinas: Editora, 1998.
BRESSAN, D. Gestão Racional da Natureza. São Paulo: Hucitec, 1996.
BUCKLEY, R. International trade, investment and environmental regulation. Na environmental management perspective. Journal of World Trade, 27 (4): 101-148, agosto/93.
CAVALCANTI, C. Condicionantes biofísicos da economia e suas implicações quanto à noção do desenvolvimento sustentável.
In: RIBEIRO, A.R. et al. Economia do Meio Ambiente: teoria, políticas e a gestão de espaços regionais. Campinas:
Unicamp, pp. 61-82, 1996.
CAVALCANTI, C. (org.). Meio ambiente, desenvolvimento sustentável e políticas públicas. São Paulo/Recife: Cortez/Fundação
Joaquim Nabuco, 1997.
CETESB. Legislação Federal: controle da poluição ambiental. Série documentos, 1994.
EASTMAN, J.R. Idrisi for windows: version 2.0/tutorial exercises. Worcester: Clark University, 1997.
FREDA, K. Integrated environmental iformation and decision support systems. IFIP transactions B: Computer Support for Environmental Impact Assesment, b-16, pp. 269-288, 1994.
GOTTDIENER M., A produção social do espaço urbano. São Paulo: Edusp, 1993.
GUIMARÃES, R.P. O novo padrão de desenvolvimento para o Brasil: inter-relação do desenvolvimento industrial e agrícola
com o meio ambiente. In: VELLOSO, J.P.R. (org.). A ecologia e o novo padrão de desenvolvimento no Brasil. São
Paulo: Nobel, pp. 19-52, 1992.
HARVEY, D. Condição pós-moderna. São Paulo: Loyola, 1993.
JAIN, D.K.; TIM, U.S. & JOLLY, R. Spatial decision support systems for planning sustainable livestock production. Computer,
Environment and Urban Systems, 19 (1): pp. 57-75, 1995.
MACHADO, P.A.L. Direito ambiental brasileiro. São Paulo: Malheiros, 1992.
MORENO, J. Análise da organização e dinâmica das condições ambientais e urbanas face a uma nova ordem econômica: Piracicaba e seu entorno. São Carlos, 2000. [Tese de Doutorado, Centro de Recursos Hídricos e Ecologia Aplicada,
EESC/USP].
PLANTENBERG, C.M. & AB’SABER, A. (orgs.). Previsão de impactos. São Paulo: Edusp, 1994.
SACHS, I. Estratégias de transição para o século XXI: desenvolvimento e meio ambiente. São Paulo: Nobel, 1993.
SASSEN, S. As cidades na economia mundial. São Paulo: Studio Nobel, 1998.
TOMMASI, L.R. Estudo de impacto ambiental. São Paulo: Cetesb/Terragraph Artes e Informática, 1994.
106
Dezembro • 2000
g
y
p
Do Debate Científico
à Política Pública:
polarização das
discussões acadêmicas
entre biólogos nos anos
70 e instrumentalização
econômica das políticas
ambientais
From Scientific Debate to the Public Policy:
the Polarisation of Academic Discussions Among Biologists in the
70’s and the Economic Instrumentation of Environmental Policies
ROSANA ICASSATTI CORAZZA
Unicamp
[email protected]
RESUMO – Os cientistas se preocupam freqüentemente com o uso do conhecimento que criam ou organizam pelos gestores de política pública. De fato, a informação científica tem assumido um papel expressivo na concepção dos processos
decisórios. A questão central, neste artigo, é identificar e interpretar as contribuições de dois campos científicos para o
ambientalismo moderno: a biologia e a economia. Ambas são consideradas relevantes não apenas para o desenvolvimento do debate acadêmico, mas especialmente por provocar o renascimento da preocupação com questões ambientais
e pelo fato de organizar um conjunto de instrumentos para capacitar a intervenção pública. As maiores contribuições dos
biólogos, segundo a argumentação desenvolvida neste artigo, estão na difusão do tema malthusiano da escassez e das
novas teses sobre poluição e mau uso da tecnologia. Reputamos aos economistas o melhoramento de um conjunto de
ferramentas, particularmente as ecotaxas, para a implementação de políticas ambientais.
Palavras-chave: CONHECIMENTO CIENTÍFICO – HISTÓRIA DO AMBIENTALISMO – HISTÓRIA DA CIÊNCIA– POLÍTICA AMBIENTAL.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
107
g
y
p
ABSTRACT – Scientists are often concerned about the use of the knowledge they create or organise by policy-makers.
Indeed, scientific information has assumed an expressive role in the devising of the decision-making process. The central
issue in this paper is to identify and interpret the contributions of two scientific fields to modern environmentalism: biology and economics. Both fields are regarded as relevant not only to the development of the academic debate, but especially by bringing about the rebirth of the environmental concern and by framing a set of instruments to enable public
intervention. To the standpoint we support in this paper, the major biologists’s contributions are in the spreading out of
the Malthusian theme of scarcity and the new ones of the pollution and the harmful use of technology. We repute to the
economists the improvement of the set of tools, especially with further studies on eco-taxation, for the achievement of
environmental policies.
Keywords: SCIENTIFIC KNOWLEDGE – ENVIRONMENTALISM HISTORY – SCIENCE HISTORY – ENVIRONMENTAL POLICY.
INTRODUÇÃO
O
lugar que ocupam as questões pertencentes à
pauta ambiental nas agendas acadêmicas,
políticas e empresariais não é mero indicador
do status privilegiado que o ambientalismo moderno
logrou alcançar ao longo das três últimas décadas em
nossas sociedades ocidentais. Tampouco os sofisticados instrumentos de política ambiental, criados pela
engenhosidade dos economistas do meio ambiente,
ou os equipamentos de controle ambiental, aperfeiçoados pela evolução do conhecimento científico e
pela incorporação da eletrônica, são apenas ferramentas à disposição das autoridades públicas para
regulamentar as atividades contaminantes do meio
ambiente.
O envolvimento de diferentes setores da sociedade na discussão dos problemas ambientais e suas
conseqüentes contribuições para a criação de um
marco de política ambiental com características próprias são aspectos dos mais notáveis do processo
que metamorfoseou o ambientalismo moderno
desde o final da década de 60. Basta lembrar que,
enquanto as derivações de política ambiental do
chamado “renascimento do ambientalismo” do fim
dos anos 60 – cujo traço fundamental era o catastrofismo, clamavam pela necessidade de se deter o crescimento, que segundo alguns atingia seus limites, a
palavra de ordem de toda política ambiental –, a
partir de meados dos anos 80, passou a ser a busca
de um desenvolvimento sustentado. Durante esse
período, o ambientalismo sofreu mudanças tão radicais, assumindo feições tão diversas dos primeiros
traços de seu “renascimento”, que é difícil reconstruir sua complexa trajetória até os dias atuais.
108
Este artigo é o resultado de um esforço de
compreensão dessas mudanças, de modo que sua
contribuição assume a forma de um relato e de algumas reflexões. O relato se concentra na articulação
de fatos notáveis do ambientalismo recente, pelo
envolvimento de personagens e questões que lhe
foram insignes. Ele constitui o substrato de reflexões
cujo argumento central é a idéia de que uma transformação particular, identificada no bojo desse
debate nos anos 70, delineou uma das principais
características do ambientalismo de nossos dias.
Trata-se do fenômeno da ampla divulgação do
debate ambientalista recente junto ao público leigo,
que o tornou, finalmente, um debate público.
Sustenta-se, assim, a idéia de que, partindo-se
das reflexões iniciais dos biólogos norte-americanos
dos anos 60 (entre os quais destacamos Rachel Carson, Garrett Hardin e Paul Ehrlich) e das contribuições dos economistas (como William Baumol e
Wallace Oates, que retomam as contribuições de
Pigou, dos anos 20) para a política ambiental na
década de 70, questões particulares relativas à proteção do meio ambiente atingem a esfera pública em
dois sentidos: o da sensibilização do público em geral
e o da informação e instrumentalização das políticas
públicas, em particular das políticas ambientais.
BIÓLOGOS AMERICANOS
DOS ANOS 60: catastrofistas
neomalthusianos ou
“renascimento e divulgação
do debate ambientalista”
A divulgação do debate ambientalista, isto é, o
domínio de certos aspectos do conteúdo científico
do debate ambientalista pelo público leigo pode
parecer trivial às gerações nascidas depois dos anos
Dezembro • 2000
g
y
p
60 ou 70. No entanto, o transbordamento da discussão científica sobre causas e conseqüências da
degradação ambiental dos muros da academia para
os fóruns públicos é praticamente tão recente
quanto essas próprias gerações.
Ainda que possamos sempre nos lembrar de
manifestações anteriores acerca da preocupação
com a preservação do meio ambiente, veremos que
dirigir o nosso olhar para as manifestações mais
recentes nos auxilia a compreender aspectos centrais do ambientalismo moderno. Entre as manifestações anteriores, ressaltamos as de natureza
pragmática, como aquelas voltadas à destruição do
meio natural que inspiraram o Movimento Conservacionista Norte-Americano na virada do século, ou
teórica, como as dirigidas ao estudo do problema da
escassez, desenvolvidas pelos economistas clássicos
ingleses (Ricardo e Malthus, entre outros).
Sem esquecer, portanto, dessas raízes mais distantes do movimento ambientalista, o final dos anos
60 é referido por muitos autores, como Rees
(1985), Pepper (1986) e McCormick (1992),
enquanto marco do renascimento do ambientalismo moderno. A principal razão disso é a retomada da questão dos efeitos do crescimento
populacional sobre a disponibilidade dos recursos
naturais, trabalhada no ensaio clássico de Malthus,
An Essay on the Principle of Population, publicado
pela primeira vez em 1798. A tese foi retomada inicialmente em debates acadêmicos pelos biólogos
americanos, entre os quais se destacam Garrett Hardin, da Universidade da Califórnia, Paul Ehrlich, da
Universidade de Stanford e Barry Commoner, da
Universidade de Washington.
Deve-se em grande parte a esses biólogos a
inclusão, na agenda acadêmica e na ordem do dia,
dos debates científicos daqueles temas que seriam
posteriormente discutidos em fóruns públicos. Vejamos agora quais eram esses temas, como eles foram
tratados pelos biólogos americanos e, ainda, como
deixam de ser debatidos apenas no âmbito estrito da
academia, chegando aos fóruns públicos. Começaremos com Hardin, pela importância de sua influência
sobre outros autores e sobre a formulação das temáticas que estiveram na gênese do ambientalismo
moderno.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
Em seu propalado artigo “The Tragedy of the
Commons”, publicado na revista Science, em
dezembro de 1968, Hardin tratou o problema da
degradação das áreas de uso comum, cuja destruição resultava dessa característica, ou seja, da abertura ao uso de todos, sem que ninguém incorresse
em custos. Para se ter uma idéia da importância
desse trabalho de Hardin, para efeito do que tentamos demonstrar neste artigo, ele lançou mão de
dois expedientes que favoreceram extremamente a
divulgação de seu pensamento fora dos muros da
academia. Em primeiro lugar, o fato de tê-lo publicado não em uma revista especializada, de circulação estritamente acadêmica, mas em uma revista de
divulgação científica que atingia grande número de
leitores, inclusive leigos interessados em ciência. Em
segundo, por ter utilizado uma linguagem não científica, valendo-se de recursos alegóricos ou metafóricos, de compreensão mais universal.
Assim, para ilustrar o mecanismo que leva à
tragédia as áreas de uso comum, o autor recorre a
uma alegoria sobre criadores de gado. Inicialmente,
o uso comum de determinada área permite um
balanço equilibrado entre oferta e demanda de
capim: a razão entre o forrageio, ou pastagem, e o
crescimento do capim é constante e igual a um, de
maneira que o sistema se mantém em equilíbrio. A
seguir, um criador percebe que, acrescentando um
animal ao pasto, ele pode aumentar seus lucros.
Como esse acréscimo de lucro envolve a diminuição
da quantidade de capim disponível para os animais
pertencentes a todos os criadores, segue que o
ganho do criador que acrescenta um animal ao
pasto se dá às custas dos demais. Hardin observa
que, do ponto de vista desse criador, se ele não
introduzir esse animal a mais, outros poderiam fazêlo e, nesse caso, seria seu o “prejuízo”. Acrescentar
um animal torna-se, então, a única atitude razoável
ou racional a se tomar. Impelidos, contudo, pela
mesma lógica, todos os outros criadores também
introduzirão mais um animal. Como o pasto não
tem capacidade de produzir capim suficiente para
atender à demanda resultante, a conseqüência é que
a área é levada à destruição e os criadores – todos
eles – à ruína.
A alegoria dos criadores de gado nas áreas
comuns serve, para Hardin, de ilustração da pressão
109
g
y
p
populacional sobre os recursos naturais. A conclusão de que a “ruína é o destino para o qual todos os
homens caminham, cada um em defesa de seus próprios interesses numa sociedade que acredita na
liberdade das áreas comuns”, ou ainda que “a liberdade numa área comum traz a ruína de todos”
(Hardin, 1968: 162) é a expressão verbal direta e
inegável da preocupação desse biólogo neomalthusiano com o problema da liberdade de escolhas individuais na determinação do tamanho das famílias. A
crença de que toda atitude tomada por um indivíduo na busca de seu bem-estar contribui para o
bem-estar de toda a sociedade é um legado do pensamento liberal de Adam Smith. Hardin sustentava
que se a humanidade quisesse fazer algum progresso
no sentido de lidar com o problema populacional,
seria necessário “exorcizar o espírito de Smith do
campo da demografia” (Hardin, 1968: 162). E afirmava não existir uma solução técnica para o problema do crescimento populacional, mas apenas
soluções morais e éticas, sobretudo coercitivas. Essa
assertiva tem antecedentes na interpretação de Hardin da teoria da evolução de Darwin, levando-o a
afirmar que, em matéria de controle populacional,
“a consciência é auto-eliminativa”.1
Hardin também aborda a poluição como um
caso semelhante aos “commons”, ou áreas comuns,
com a diferença de que, desta vez, não se trata de
retirar, mas de colocar alguma coisa na natureza
(por exemplo, os mais variados tipos de detritos,
efluentes tóxicos, resíduos químicos e lixo radioativo). Se, quanto às áreas comuns, a solução dada
por Hardin se refere à privatização, ou ao fim da
apropriação comunal dos recursos, no caso da
poluição (segundo ele, nada mais do que um problema derivado do crescimento populacional), a
saída estaria na “mudança de valores ou idéias de
1
“É um erro pensar que é possível controlar a reprodução da humanidade pelo apelo à consciência. (...) O argumento é direto e darwiniano. A população varia. Confrontadas com apelos para reduzir a
natalidade, algumas pessoas responderão indubitavelmente mais do
que outras. Aquelas que tiverem mais filhos produzirão uma parcela
maior da próxima geração com relação àquela mais ‘consciente’. A
diferença se acentuará, geração após geração” (HARDIN, 1968:
162). É surpreendente o raciocínio de Hardin, que nos leva ao erro
lógico de supor que filhos de famílias numerosas sempre tendem a
gerar, eles próprios, muitos filhos. A “consciência” (ou a falta dela)
seria, no entendimento de Hardin, um fator antes herdado que
aprendido. Observado o fenômeno da transição demográfica, que
ocorre mesmo em bolsões de miséria, essa suposição do autor não
parece resistir a uma comprovação histórica.
110
moralidade”, com a adoção de leis coercitivas ou,
ainda, de taxação. Parece haver, portanto, um paralelismo muito grande entre as soluções apontadas
por Hardin e as propostas vigorosamente defendidas pelos economistas a partir dos anos 70.2
Estudando as raízes do ambientalismo
moderno, Pepper (1986) analisa outra alegoria do
autor, de 1974, e ressalta seus traços neomalthusianos. Nela, somos confrontados com uma situação
na qual dez homens em um bote salva-vidas, com
suprimentos para apenas dez pessoas, encontram
náufragos, que pedem socorro. De acordo com a
proposição de Hardin, partilhar os suprimentos,
ainda que pelo salvamento de apenas mais um
homem, significa que todos morreriam de fome. A
idéia de Hardin ilustrada nessa alegoria é a de como
o conceito da “capacidade de suporte” impossibilita
o exercício da partilha de recursos.3
Mais uma vez, a mensagem de Hardin é clara:
a pressão sobre os recursos naturais é de ordem
estritamente populacional. Em face desse problema,
trata-se antes de um pragmatismo arrazoado, e não
de egoísmo, a decisão pela não partilha dos recursos. Segundo Pepper, esse foi um argumento fortemente empregado pelos opositores das políticas de
ajuda humanitária a países do Terceiro Mundo. Para
reforçar a sua análise, Pepper cita uma frase do próprio Hardin, de que “qualquer nação que toma para
si o direito de produzir mais bebês também deve
assumir a responsabilidade de cuidar deles” (Pepper,
1986: 20). Hardin foi, por quase cinco décadas, um
líder contestador do crescimento populacional.
Mais recentemente, em seu livro Living Within
Limits: ecology, economics, and population taboos,
o autor voltou a atacar o que chama de “mania de
2
Entre essas propostas, convém ressaltar no momento o uso de instrumentos de política ambiental que favoreçam a definição clara dos
direitos de propriedade sobre os recursos naturais e a prática da taxação.
3 “Capacidade de suporte” é uma medida da disponibilidade de
recursos naturais renováveis de uso comum. Conceito emprestado da
agricultura, carrying capacity baseia-se na hipótese de que o uso do
recurso deve ser limitado pelo nível no qual a produtividade do
recurso é sustentável ao longo do tempo, não engendrando nenhuma
mudança significativa no meio ambiente. Segundo Rees (1985), o
conceito tem sido usado (por Mc Harg e Odum, por exemplo) na
tentativa de estabelecer limites para assentamentos humanos em
determinadas regiões. A autora ressalta que, em quaisquer aplicações,
é difícil estabelecer um conceito simples, único e absoluto para carrying capacity e que as estimativas dependem do objetivo da análise,
da maneira específica com que os recursos são utilizados e dos
padrões de vida assumidos como necessários para o usuário.
Dezembro • 2000
g
y
p
crescimento” (growthmania), seja ele econômico,
seja populacional.4
Por sua vez, Pepper salienta ainda a importância do pensamento de Hardin sobre o de Ehrlich,
autor que viria a influenciar profundamente o
debate público e, sobretudo, o debate político sobre
o tema população-meio ambiente. O argumento de
Ehrlich, de o crescimento populacional ter originado toda a crise ambiental, fora emprestado da
obra de Hardin, ensejando a proposição do “crescimento zero”. De acordo com Pepper, para Ehrlich
já era tarde demais (início dos anos 70) para que
medidas restritivas voluntárias pudessem ser tomadas, e sua proposta política era o uso de métodos
coercitivos ao crescimento populacional desenfreado.
Posteriormente, outro biólogo americano, Barry
Commoner, chamou essa proposição de “novo barbarismo da ética do bote salva-vidas” (Pepper, 1986:
20).
Em seu livro The Population Bomb, de 1968,
Ehrlich retoma o tema do crescimento populacional,
revelando-se, tal como Hardin, um neomalthusiano.5 Ele alerta que nenhuma mudança comportamental ou tecnológica poderia salvar a humanidade
de uma catástrofe ecológica, a não ser a tomada de
sérias medidas de controle populacional. Ainda no
final dos anos 60, Ehrlich trava com Commoner um
debate a respeito da deterioração ambiental que se
tornou muito conhecido. Commoner era contrário à
idéia do controle do crescimento populacional por
meio de formas coercitivas (sugestão de Ehrlich),
não apenas por acreditar que o avanço do processo
de industrialização transformaria a sociedade de
forma a reduzir a taxa de natalidade, mas, principalmente, porque atribuía os problemas ambientais
mais graves a tecnologias “defeituosas”, cujos efeitos
abrangeriam o crescimento maciço do uso de materiais sintéticos, produtos descartáveis, detergentes,
pesticidas etc.6
Commoner defendia que alguns dos riscos
ambientais mais perigosos são invisíveis, chamando
a atenção para a poluição atmosférica e hídrica, a
4 Garrett Hardin, Living Within Limits: ecology, economics, and
population taboos. New York: Oxford University Press, 1993.
5 De acordo com McCormick (1992), esse livro tornou-se, dentro da
área de meio ambiente, um dos mais vendidos de todos os tempos.
6 Nesse último caso, aliás, é notável também a obra de Rachel Carson, Silent Spring.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
contaminação dos alimentos e a radiação nuclear.
Não era, pois, a temática populacional que Commoner tratava em seu livro de 1971, The Closing
Circle: nature, man and technology, mas a da poluição, introduzida, assim, no debate ambiental. Refutando a tese de que o crescimento populacional
seria o fator preponderante na degradação ambiental e argumentando que esta continuaria a se manifestar ainda que aquele fosse controlado, o autor
advertia o aumento dos níveis de poluição no pósguerra, cuja magnitude não poderia, em sua opinião, explicar-se apenas pela intensificação do crescimento populacional. Tampouco a razão estaria
estritamente no aumento da atividade econômica
em si, ou no fato da crescente população consumir
progressivamente mais, e sim em como esse crescimento havia sido alcançado, sob a influência de
determinado conjunto de tecnologias. Segundo
Commoner, a maioria dos problemas graves de
poluição, se não era datada dos anos pós-guerra,
havia pelo menos piorado muito desde então.
No debate entre os dois autores, Ehrlich
denunciava o caráter limitado da abordagem de
Commoner, argumentando que este reduzia a crise
ambiental ao problema da poluição. McCormick
(1992) comenta, por outro lado, que a avaliação de
Ehrlich era ela própria restrita, na medida em que
reduzia a problemática ambiental à questão isolada
do crescimento populacional. Em uma entrevista
publicada em 1973 pela revista The Ecologist, Ehrlich admitia ter “mudado o tom” de seu discurso
após os debates, estudos de novos dados e reflexões.
Esclarecia que a grande ênfase reservada à questão
populacional em seu livro de 1968 devia-se ao fato
de esta lhe parecer o problema mais negligenciado
naquele momento e que a obra também explorava,
em detalhes, outros aspectos da deterioração ambiental, como os efeitos do uso do DDT.
Lamentava, então, o debate com Commoner,
dizendo-se de acordo com o biólogo da Universidade
de Washington quanto aos “erros tecnológicos”. Na
sua visão, um tanto mais moderada em 1973, existiriam muitos fatores determinantes da deterioração
ambiental e Commoner teria sido hábil em chamar a
atenção para alguns deles, especialmente importantes: o mau uso da tecnologia, causando impactos
negativos sobre o meio ambiente, e os problemas do
111
g
y
p
uso de fertilizantes químicos, da poluição em geral e
da contaminação nuclear. Dizia ser um engano superestimar um dos fatores, como o erro tecnológico ou
o consumismo. Ainda assim, continuava a apontar
obstinadamente o risco do crescimento populacional,
embora deixasse de propor o controle coercitivo,
passando a acreditar na possibilidade de sua contenção espontânea, em conseqüência do movimento de
liberação das mulheres (Pole, 1973: 23).
Holden (1972), que estudou o debate entre os
dois acadêmicos norte-americanos, ressalta que, na
visão dos cientistas naturais e sociais da época,
ambos estavam radicalizando seus argumentos. De
fato, de um lado, Ehrlich se revelava um verdadeiro
“Jeremias”,7 com sua alarmante visão catastrofista;
de outro, Commoner subtraía de sua abordagem
quaisquer traços de preocupação com a problemática populacional vis-à-vis a escassez dos recursos.
Radicalizações à parte, as figuras desses biólogos
foram, de qualquer maneira, centrais no delineamento das questões que se tornaram o primeiro
foco do debate ambientalista moderno. Além disso,
o fato de eles se mostrarem tão radicais pode justamente ter concorrido para que suas opiniões extravasassem os limites dos discursos científicos,
ganhando especial apelo junto à opinião pública e às
autoridades governamentais.
Podemos dizer, então, que talvez tenham sido
justamente suas principais contribuições: definir os
temas genéticos do ambientalismo moderno, tornar
público o debate ambientalista (para o que também
contribuiu a discussão sobre os limites do crescimento) e, finalmente, lançar as idéias-forças de um
pensamento de política ambiental (com intervenção
das autoridades públicas no controle dos problemas
ambientais, principalmente por meio de taxação).
Tais idéias foram desenvolvidas na década seguinte
por economistas também norte-americanos.
década anterior, a discussão dos problemas ambientais assumiu nos anos 70 contornos de um debate
polarizado entre o pessimismo e o otimismo. As
posições de Hardin e Ehrlich eram evidentemente
pessimistas.
Quanto à polêmica sobre os limites do crescimento, a crença amplamente difundida desde o
final dos anos 60 foi a de que havia um desequilíbrio entre a disponibilidade de recursos essenciais
para o desenvolvimento e que sua crescente
demanda futura se chocava com a idéia do progresso tecnológico prover instrumentos para a superação dos limites.8 A posição pessimista pode ser
visualizada em uma série de livros publicados na
época, como Small is Beautiful: economics as if people mattered, de Schumacher (1973), e Limits to
Growth, de Meadows et al. (1972). Essas publicações, em particular a segunda, preconizavam que,
na melhor das hipóteses, a escassez de recursos seria
a maior barreira ao desenvolvimento econômico
(principalmente para as economias do Terceiro
Mundo) e, na pior delas, que a completa exaustão
de estoques causaria o colapso total da sociedade no
início do século XXI (Rees, 1990: 30).
Sem dúvida, o final dos anos 60 e início dos
70 foi um período de intensa reflexão sobre as relações entre meio ambiente e crescimento econômico.
Em 1968, o economista italiano Aurélio Peccei reuniu em Roma um grupo de cientistas, industriais,
economistas, educadores e políticos para estudar os
fundamentos da crise pela qual passava a civilização.
De acordo com a avaliação do grupo, conhecido
como Clube de Roma, o problema se manifestava
em vários aspectos, como a expansão urbana, a
perda de fé nas instituições, a rejeição dos valores
tradicionais, a deterioração econômica e os danos
ambientais, identificados como componentes que
OS LIMITES DO CRESCIMENTO:
uma polêmica multidisciplinar
e política nos anos 70 ou
“polarização de um debate
social e político”
8
Relançada com vigor no meio acadêmico e
divulgada junto ao público leigo desde o final da
7
Um dos profetas que escreveram o Apocalipse.
112
“À medida que o número de novos Jeremias proliferava, o mesmo
ocorria com as hostes de seus críticos. (...) havia duas posições analiticamente distintas no que diz respeito `a natureza do problema ambiental:
pessimismo e otimismo. Por esta definição os ambientalistas eram pessimistas e os críticos do movimento, otimistas. Os dois lados diferiam
quanto às projeções sobre recursos naturais, alimentos, poluição e
população; a crítica mais comum aos ambientalistas era de que eram
alarmistas, uma visão contida numa frase freqüentemente citada
sobre o livro Limits to Growth: The Computer That Printed Out
WOLF!” (McCormick, 1992: 91). Ou seja: “O computador que
‘imprimiu’: ‘É o lobo!’”, em referência ao falso alarme do carneirinho
na fábula popular.
Dezembro • 2000
g
y
p
interagiam de maneira muito complexa para serem
tratados isoladamente.
Por conta dessa compreensão inicial – interação complexa de variáveis –, o Clube de Roma convidou J. W. Forrester, pesquisador do MIT (pioneiro
na utilização do computador), para que desenvolvesse um modelo de dinâmica de sistemas com o
objetivo de compreender integradamente o problema. Pronto em meados de julho de 1970, o
modelo World I identificava os componentes específicos do problema e sugeria uma metodologia para a
sua análise. Mais um modelo foi desenvolvido logo
em seguida e, por fim, Forrester montou uma equipe
de cientistas do MIT, liderada por Dennis Meadows,
para criar uma nova versão – o World III –, cujos
resultados foram publicados em Limits to Growth
(McCormick, 1992: 87).
Redigido por Meadows e seus colegas, Limits
to Growth é considerado um marco do pensamento
neomalthusiano, no final do século XX, por explorar, entre outras, as duas variáveis centrais da tese de
Malthus sobre a escassez: o crescimento populacional e a disponibilidade limitada de recursos. Em
World III, a equipe de Forrester-Meadows identificou cinco determinantes limitadores do crescimento: população, produção agrícola, recursos
naturais, produção industrial e poluição (Meadows
et al., 1972). Com base na aplicação desse modelo,
os pesquisadores do MIT concluíram que:
1. mantidas as tendências verificadas das cinco
variáveis, os limites do crescimento seriam atingidos em 100 anos. A partir daí, previam uma
queda súbita e incontrolável na população e na
capacidade industrial;
2. havia a possibilidade de evitar a catástrofe e atingir um estado de equilíbrio econômico-ecológico através do planejamento;
3. essa possibilidade deveria obrigatoriamente ser
colocada em prática imediatamente.
O tom de Limits to Growth é, uma vez mais,
o crescimento exponencial, dessa vez tanto populacional quanto econômico, responsável pela pressão
sobre os recursos naturais, a oferta de alimentos e a
qualidade do meio ambiente. Os resultados seriam a
exaustão dos recursos naturais, a fome e o crescimento dos efeitos deletérios da poluição sobre a
qualidade ambiental. Tais resultados foram utiliza-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
dos, na época, como fundamento para a proposta de
“crescimento zero”, formulada pelo Clube de Roma
e coerente com a visão da equipe do MIT sobre o
caráter insuperável dos limites ao crescimento.
Essa equipe ressaltava que os fatores que poderiam representar uma contratendência (principalmente o avanço tecnológico) seriam insuficientes e
ineficazes para evitar a tragédia antevista pelos resultados do seu estudo. Segundo o Relatório Meadows,
como também ficou conhecido o livro Limits to Growth, “o otimismo tecnológico é a reação mais
comum e perigosa às nossas descobertas a partir do
modelo do mundo. A tecnologia pode amenizar os
sintomas de um problema sem afetar as causas subjacentes (...) [e], desse modo, desviar a atenção do problema mais fundamental – o problema do
crescimento num sistema finito” (Meadows et al.,
1972: 159).
McCormick traça um paralelo interessante
entre as posições de Hardin e do Relatório Meadows sobre a questão da tecnologia: ambos não
acreditavam que ela pudesse oferecer soluções ao
problema do impacto do crescimento populacional
sobre a disponibilidade de recursos. Hardin argumentava que a solução passava pela coerção do
comportamento humano por meio de leis (idéia,
aliás, compartilhada por Ehrlich). Já a equipe de
Meadows também julgava, juntamente com o
Clube de Roma, que a crise ambiental não poderia
ser enfrentada sem esforços especiais para deter a
explosão populacional no Terceiro Mundo.
A chama do debate é alimentada pela deflagração da crise do petróleo, em 1973, ilustrando a
gravidade da situação pela elevação dos preços do
recurso. Ainda que, como reconhecem Rees (1990)
e Fisher (1990), a crise tenha sido de fato provocada
pelo sucesso da articulação da Organização dos Países Exportadores de Petróleo (OPEP) em uma operação de corte da oferta de petróleo, e não pela
escassez do produto, pode-se dizer que esse
momento marca historicamente a passagem da preocupação com a escassez de recursos do plano das
idéias e da academia para o da política global.9
9
O acontecimento é ilustrado pela percepção dos países do “mundo
desenvolvido” (que haviam aumentado ao longo da década anterior a
sua dependência, com relação à importação de minerais essenciais, do
“mundo menos desenvolvido”) da ameaça representada pela possibilidade de crescimento do poder econômico e político dos países produtores através do controle da oferta daqueles minerais (Rees, 1990: 30).
113
g
y
p
Outro personagem importante no debate do
início dos anos 70 é John Maddox, editor da revista
britânica de divulgação científica Nature e considerado uma espécie de porta-estandarte dos críticos
dos catastrofistas (McCormick, 1992: 94). Em seu
livro The Dommsay Syndrome (A Síndrome do Apocalipse, 1972), ele dirige uma ácida crítica a Ehrlich
e outros, que chama de “profetas do apocalipse”,
denunciando-os pela divulgação de “profecias pseudocientíficas”. Aponta que “o seu erro mais comum
é supor que vai suceder sempre o pior” e os acusa
de ignorância dos “meios de que se podem valer as
instituições sociais e as aspirações humanas para
solucionar os problemas mais desalentadores”
(Maddox, 1974: 7). Por conta da oposição de
Maddox ao Limits to Growth, Pepper (1986), com
base em O’Riordan, classifica-o de “otimista tecnológico”.
As interpretações de Herrera (1974) e
O’Riordan (1976) também constituíram respostas
às avaliações pessimistas de Meadows e do Clube de
Roma.10 Rees (1990) restringe os otimistas aos
defensores da idéia de que as forças do mercado e as
mudanças tecnológicas e sociais interagiriam no sentido da superação dos limites. Pepper (1986) e
McCormick (1992) citam os estudos críticos ao
Limits to Growth elaborados por Sandbach e
O’Riordan. O primeiro apontava, entre outras coisas, o fato de o livro subestimar os efeitos do progresso tecnológico na superação dos limites ao
crescimento, ao passo que o segundo a acusava de
predeterminação cataclísmica e falta de rigor científico. Pepper enfatiza também a crítica de Golub e
Townsent, referindo-se ao Clube de Roma como
representante de industriais defensores de que insti10
McCormick (1992) indica a equipe de Sussex, da qual participavam Christopher Freeman e Keith Pavitt, como autora da crítica mais
abrangente ao Limits to Growth, principalmente pela análise da fragilidade metodológica dos modelos World. Além do mais, o grupo de
Sussex acusava a equipe do MIT de um relativo desprezo pela economia e pela sociologia. Ainda segundo McCormick (1992: 92), apesar
das críticas, a equipe de Sussex reconheceu a importância do trabalho
do grupo de Meadows pelo êxito em trazer a público novamente a
questão população-recursos. A própria equipe de Sussex propôs também a sua interpretação do problema dos limites, conhecida na obra
Global 2000. Embora Pepper (1986: 23) compare Global 2000 ao
Limits to Growth, tanto no tom quanto nos resultados, o primeiro
enfatizava os limites políticos e sociais do crescimento vis-à-vis os limites físicos, chamava a atenção para o conteúdo do crescimento e a
questão distributiva e apontava a subestima do grupo do MIT das
potencialidades do progresso técnico e das mudanças políticas e sociais
(McCormick, 1992: 93).
114
tuições internacionais exercessem controle sobre os
países, principalmente os do Terceiro Mundo, influenciando nas questões nacionais e impondo restrições
às ações locais (Pepper, 1986: 24).
O equívoco fundamental comum a todas as
análises catastrofistas, explicitado no trabalho de
Herrera, consiste na concepção de recursos minerais como estoques fixos e imutáveis (Herrera,
1974: 29). Realmente, é interessante notar a recorrência das análises em que o tema dos recursos naturais é tratado sem que se sublinhe o caráter
dominantemente histórico do próprio conceito.
Essas avaliações tendem, segundo Herrera, a deixar
de lado o fato de aquilo que é compreendido como
um recurso natural variar conforme o contexto histórico e as condições tecnológicas de sua exploração.
Integrante do grupo de Bariloche (equipe
latino-americana mobilizada para fazer uma crítica
ao Limits to Growth), Herrera demonstrou, em primeiro lugar, que a catástrofe prevista por modelos
como esse último já era realidade para grande parte
da humanidade, principalmente para a maior parcela dos habitantes dos países subdesenvolvidos. Em
segundo lugar, mostrou que não existe uma única
solução para os problemas colocados por esses
modelos, porque as mudanças na organização da
sociedade e o progresso científico e tecnológico possibilitam graus de liberdade muito maiores para
lidar com tais situações (Herrera, 1974: 13).
No mesmo trabalho, Herrera ressalta que as
soluções colocadas por esses modelos guardam uma
estreita vinculação com o contexto socioeconômico
e político de seus proponentes. Não seria por acaso
que, entre os principais problemas identificados –
crescimento explosivo populacional e contaminação ambiental advinda de padrões insustentáveis de
consumo -, o primeiro merecesse um controle prioritário e voltado principalmente para os povos do
mundo subdesenvolvido, ao passo que o segundo,
mais concernente com a vida nos países desenvolvidos, merecesse apenas um tratamento complementar (Herrera, 1974: 12).
A crítica, de cunho político e social, de Herrera e do Grupo de Bariloche ao trabalho da equipe do
MIT é partilhada por outros estudiosos do ambientalismo moderno, entre eles, O’Riordan, que adjetiva
Dezembro • 2000
g
y
p
o discurso catastrofista de “arrogante e elitista”
(O’Riordan, 1977: 8). Ele analisa as “soluções éticas” propostas, por exemplo, por Hardin como um
subterfúgio para sustentar ações moralmente injustificáveis, como a recusa da doação de auxílios humanitários às nações do Terceiro Mundo. Quanto aos
trabalhos sobre a capacidade de suporte dos ecossistemas, produzidos por Ehrlich, O’Riordan comenta
ser um estudo que, “em mãos erradas, torna-se justificação ‘apolítica’ para frear a imigração, restringir o
crescimento populacional e reduzir o desenvolvimento urbano” (O’Riordan, 1977: 9).
OS ECONOMISTAS E SUAS
CONTRIBUIÇÕES PARA A
POLÍTICA AMBIENTAL NOS
ANOS 70 OU “OTIMISMO
UTILITARISTA NA POLÍTICA
AMBIENTAL”
A década de 70 também concentrou um
movimento de retomada de conceitos desenvolvidos anteriormente pela teoria econômica, de reformulação de antigos instrumentos de política
ambiental e de concepção de outras ferramentas, de
modo a operacionalizar a intervenção das autoridades públicas na realidade econômica e ambiental das
nações. Uma intensa produção de textos econômicos foi ensejada pela crítica aos apologistas do crescimento zero, com a tônica na capacidade e na
eficiência das ciências econômicas no enfrentamento da crise ambiental. Esses textos podem ser
agrupados em duas frentes: uma delas explora a
questão dos recursos naturais, com base na economia dos recursos naturais, e a outra se volta ao problema da poluição, valendo-se da economia do
meio ambiente.11
No caso da crítica sobre o problema dos
recursos naturais, a manifestação mais representativa seja talvez a de Solow, Prêmio Nobel de Economia em 1987, justamente por suas contribuições às
teorias de crescimento econômico. Em seu artigo
“The economics of resources or the resources of
economics”, publicado na American Economic
11 É oportuno lembrar que, desde meados dos anos 80, ambas as disciplinas têm se renovado, seja pela incorporação das dimensões mais
complexas dos problemas ambientais transfronteiriços, seja pela integração de novos desenvolvimentos teóricos e metodológicos da própria ciência econômica.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
Review, em 1974, Solow sustenta que a economia
dispõe de ferramentas para ultrapassar o obstáculo
da insuficiência de recursos ao crescimento econômico. Retomando o arrazoamento do precursor da
economia dos recursos naturais, Harold Hotelling,
ele se refere particularmente à eficiência do sistema
de preços, desenhado pela mão invisível do mercado, em proporcionar a melhor alocação dos
recursos. Mostra-se ainda seguro quanto às possibilidades de encontrar substitutos para os materiais à
medida que eles se tornem raros, posição que marca
a sua fé na propriedade de ampla substituição entre
o que se convencionou chamar de capital natural e
capital feito pelo homem.
Quanto ao problema da poluição, a crítica
dos economistas do meio ambiente fundamenta-se
no desenvolvimento de uma abordagem particular
sobre a natureza dos problemas ambientais e na
proposição de instrumentos econômicos de política ambiental para intervenção e correção desses
problemas. A natureza dos problemas ambientais é
dada por sua característica externa ao sistema econômico, ou seja, os problemas ambientais se originam do fato dos chamados bens ambientais não
terem preço no mercado. Em outras palavras, não
há mercados para bens como a qualidade do ar ou
da água, ou mesmo para certas características de
ativos ambientais, como sua beleza paisagística.
Apesar da possibilidade de os indivíduos usufruírem desses bens, não existem direitos de propriedade bem definidos sobre eles (são os commons,
de Hardin).
Deriva daí o não cômputo dos custos da utilização dos bens ambientais nos cálculos privados e,
por isso, os economistas afirmam que os custos
ambientais são “externalizados” pelos agentes econômicos. Desde The Economics of Welfare, de
Pigou (1920), diz-se que ocorre uma externalidade
negativa (jargão econômico usado para designar os
efeitos negativos da atividade produtiva no meio
ambiente) quando os benefícios da utilização dos
bens ambientais são apropriados privadamente
enquanto os seus custos são socializados. Com base
nessa acepção sobre a natureza dos problemas econômicos, a economia do meio ambiente deriva suas
proposições na forma de instrumentos de intervenção. O mais conhecido instrumento é a taxação, ou
115
g
y
p
ecotaxa,12 procedimento que, grosso modo, atribui
um valor a ser pago pelo poluidor de acordo com o
chamado princípio do poluidor-pagador, partindo
de cálculos de valoração econômica dos danos
ambientais.13
Os textos inseridos na economia do meio
ambiente se dedicam, em grande medida, a comparar
os instrumentos de política ambiental, ditos econômicos, com aqueles convencionalmente empregados,
ditos de comando-e-controle, particularmente no que
diz respeito à sua eficiência econômica (menor custo
de implementação) e aos seus efeitos sobre a distribuição de renda, a competitividade de firmas e países, a
mudança tecnológica etc.14
Além das ecotaxas, outros instrumentos econômicos para implementação de políticas ambientais são as permissões negociáveis em mercados, os
sistemas de tarifa pela coleta de lixo e os de consignação conhecidos como embalagens retornáveis
(OCDE, 1997). Como exemplos de instrumentos
de comando-e-controle, citamos as normas e os
padrões de emissões, entre eles, os limites aplicados
pelos organismos de controle ambiental a certas
indústrias, voltados à emissão de gases poluentes,
como o gás carbônico ou os óxidos de nitrogênio
(OCDE, 1997).
Embora tenham influenciado muito marginalmente as políticas ambientais nos anos 70, sendo preteridos aos instrumentos convencionais de comando-econtrole, os instrumentos econômicos passam a ter
um apelo crescente junto aos formuladores dessas
políticas no decorrer das décadas de 80 e 90 (OCDE,
1997). Eles chegam a ser sugeridos, em 1987, pela
Comissão Mundial para Meio Ambiente e Desenvolvimento (autora de Nosso Futuro Comum), como
12 Há ainda outros instrumentos econômicos, entre eles, as permissões negociáveis em mercados e os subsídios. Cf. esses e outros instrumentos, e uma avaliação sobre seu uso, em OCDE (1997).
13 A valoração econômica, tanto dos ativos ambientais quanto dos
danos causados pelas atividades antrópicas ao meio ambiente, desenvolve conceitos e metodologias indispensáveis ao cálculo das ecotaxas
e de outros “preços” para bens ambientais. É uma área muito dinâmica e com desenvolvimento bastante expressivo nas ciências econômicas, nas duas últimas décadas.
14 Atualmente, também se faz referência a um terceiro tipo de instrumento, híbrido, que estaria entre as duas categorias anteriores. Pouco
estudados ainda, fazem parte dessa categoria os acordos voluntários
entre industriais pela redução do impacto ambiental de suas atividades e os contratos entre a indústria regulamentada e o órgão regulamentador.
116
ferramentas fundamentais ao alcance da sustentabilidade do desenvolvimento (CMMAD/ONU, 1991).
DISCUSSÃO FINAL
O ambientalismo moderno retomou, no final
dos anos 60 e princípio da década seguinte, o tema
malthusiano do crescimento restringido pela disponibilidade de recursos. Ampliou, contudo, o escopo
do debate, revelando aspectos insidiosos da crise
ambiental, como o problema da poluição e de
outras contaminações “invisíveis”, derivadas de certas opções tecnológicas, incluindo o uso de pesticidas e da energia nuclear. Mais do que isso, no
entanto, trouxe a discussão ao foro público. A polarização do debate, nos anos 70, opôs as visões catastrofistas a posições otimistas. Os defensores do
“crescimento zero” tiveram suas idéias criticadas,
em grande parte, devido à insatisfação daqueles que
se preocupavam com o futuro do Terceiro Mundo,
cujo crescimento populacional despertava, mais do
que os modos afluentes de consumo no mundo
desenvolvido, a preocupação ambientalista.
Até então, as causas dos problemas ambientais
eram atribuídas ao descontrole do crescimento
populacional e à tecnologia; a correção desses problemas passava, por sugestão dos biólogos norteamericanos da equipe de Meadows e do Clube de
Roma, pela coerção dos comportamentos, principalmente os reprodutivos. Era assim, de acordo
com Hardin, que a escassez de recursos e a poluição, derivados diretamente do crescimento populacional, seriam solucionados por leis ou pela taxação.
Desde a década de 20, os economistas possuíam
os elementos teóricos e operacionais, segundo
diziam, para enfrentar a crise ambiental. Mas foi no
transcorrer do debate dos anos 70 que suas contribuições para a política ambiental ganharam força.
Os elementos teóricos envolviam uma compreensão
particular da natureza do problema ambiental: a
não pertinência dos ativos ambientais ao sistema de
mercado (externalidade). Os elementos operacionais sugeridos pelos economistas para a solução dos
problemas ambientais consistiam em instrumentos
que buscavam integrar esses ativos ao sistema econômico, sendo a taxação o exemplo por excelência.
Num contraponto com as idéias dos biólogos
americanos do final da década de 60, podemos
Dezembro • 2000
g
y
p
advogar que aquelas desenvolvidas pelos economistas apresentam, ao mesmo tempo, uma continuidade e um rompimento. Continuidade, desde que
formalizam a proposição da taxação (também feita
por Hardin), na verdade, apresentada no passado
pela teoria econômica.15 E rompimento porque,
por trás dessa proposição, subsiste a crença na possibilidade de superação dos limites do crescimento.
Considerando biólogos e economistas, dois
dos principais grupos de debatedores dentro do
ambientalismo moderno, e aos quais dedicamos as
reflexões deste artigo, é justo atribuir-lhes a responsabilidade por um legado nessa área. Aos biólogos
americanos caberia o mérito pela sensibilização do
público em geral (extrapolando o debate da academia), por terem retomado as problemáticas do crescimento populacional e da poluição, valendo-se de
15
A formalização, inclusive matemática, dos instrumentos de política
ambiental, com destaque para as ecotaxas, datam, a propósito, da
década de 70.
veículos especiais (revistas de divulgação científica) e
de uma linguagem não-científica (metáforas e alegorias). Aos economistas americanos, por sua vez, a
responsabilidade pela instrumentalização das políticas ambientais, através da criação dos instrumentos
econômicos de gestão ambiental.
Envolver o grande público e alcançar fóruns
transdisciplinares de debate são idiossincrasias do
ambientalismo moderno, trazidas no bojo de uma
rica evolução ao longo desses últimos 30 anos.
Outra característica particular do ambientalismo
dos nossos dias é a incorporação, pelas políticas
ambientais, do uso de instrumentos econômicos
para gestão das riquezas naturais. Este artigo recorreu às mais diversas fontes, de artigos originais a textos de historiadores do ambientalismo, na tentativa
de recuperar alguns momentos que fizeram um
pouco da história dessa evolução, a qual parece
ainda estar longe de ser inteiramente contada.
REFERÊNCIAS BIBLIOGRÁFICAS
BARDE, J. & GERELLI, E. Économie et politique de l’environnement. Paris: Presses Universitaires de France, 1977.
CMMAD/ONU Nosso futuro comum. 2.ª ed. Rio de Janeiro: Fundação Getúlio Vargas, 1991.
FISHER, Anthony C. Resource and environmental economics. New York: Cambridge University Press, 1990.
HARDIN, G. The tragedy of the commons, Science, 162 (3.859): 1.243-1.248, 1968.
HERRERA, A.O. Los recursos minerales y los límites del crecimiento económico. Buenos Aires: Siglo Ventuno Editores, 1974.
HOLDEN, C. Ehrlich versus Commoner: an environmental fallout, Science, 177 (4.045): 245-247, 1972.
HOTELLING, H. The economis of exhaustible resources, The Journal of Political Economy, 39 (2): 137-75, 1931.
MADDOX, John. El sindrome del fin del mundo. Barcelona: Barral Editores, 1974.
McCORMICK, John. Rumo ao paraíso: a história do movimento ambientalista. Rio de Janeiro: Relume-Dumará, 1992.
MEADOWS, D.H. et al. The limits to growth: a report for the Club of Rome’s project on the predicament of mankind. New
York: The New American Library Inc., 1972.
OCDE. Évaluer les instruments économiques des politiques de l’environnement. Paris: Les Éditions de l’OCDE, 1997.
O’RIORDAN, T. Environmental ideologies, Environment and Planning A, 9: 3-14, 1977.
PEPPER, D. The roots of modern environmentalism. London: Routledge, 1986.
POLE, N. An enterview with Paul Ehrlich, The Ecologist, 3 (1): 18-24, 1973.
REES, J. Natural resources: allocation, economics and policy. London: Routledge, 1990.
ROSENBERG, Nathan. Tecnología y economía. Barcelona: G. Gilli, 1979.
SANDBACH, F. The rise and fall of the limits to growth debate, Social Studies of Science, 8: 495-520, 1978.
SOLOW, R. The economics of resources or the resources of economics, American Economic Review, 64 (2): 1-14, 1974.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118
117
g
118
y
p
Dezembro • 2000
g
y
p
Dissertações
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
119
g
y
p
MINIMIZAÇÃO DE DESCARTE DE AREIAS
DE FUNDIÇÃO
Foudry Sand Discard Minimization
FRANCISCO AUGUSTO D´ELBOUX
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: GILBERTO MARTINS
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este trabalho nasceu da constatação de que pouca atenção tem sido despendida na divulgação e exploração
dos limites para a reutilização da areia dentro do próprio processo de fundição. Grande parte da literatura a respeito de
areias de fundição é voltada a pesquisas sobre seu aproveitamento como insumo em outros processos. O trabalho consiste em um estudo de alternativas visando a minimização do descarte de areia de fundição, originada durante o processo
de obtenção de peças fundidas. Incluímos, também, um breve histórico do desenvolvimento da fundição, assim como a
descrição de alguns dos principais processos e dos tipos de aglomerantes e aditivos utilizados nas areias de fundição. São
ainda apresentadas algumas caracterizações dos resíduos de areias de uma fundição de porte médio, localizada no interior
de São Paulo e discutida a toxicidade de alguns dos metais pesados passíveis de serem encontrados nas areias. Algumas
medidas técnicas com vistas à redução do emprego de areia são apresentadas e discutidas, entre as quais, o aumento da
eficiência do sistema de recuperação de areia, a utilização racional do volume de areia no molde, o eficiente sistema de
saída de gases dos machos/moldes, a correta compatibilização das peças com o tamanho das caixas de moldagem e a
redução da espessura dos machos com os artifícios de alívios internos. São também relatadas experiências conduzidas na
referida empresa com o objetivo de aumentar o índice de utilização da areia recuperada nos próprios processos de
macharia e moldagem. Os resultados ambientais e econômicos da implementação de todas as medidas analisadas, que
possibilitaram uma redução no descarte de areia, são apresentados e discutidos.
Palavras-chave: AREIA DE FUNDIÇÃO – RECUPERAÇÃO DE AREIA – MINIMIZAÇÃO DE RESÍDUOS DE AREIA.
ABSTRACT – The main motivation for the development of this work was the realization of the fact that little effort has
been spent on the publishing and exploitation of the limits if the reutilization of the foundry sand within the casting process itself. Most of the literature about foundry sand reuse focuses on the possibilities of using this solid waste as input for
other processes. This work presents a study to minimize the discarding of foundry sand originated from the casting process. To facilitate the analysis, a brief description of some of the main foundry processes as well as types of binders and
additives used have been included. The caracterization of some of the solid waste from a medium size foundry plant
located in the state of São Paulo is presented and the potential harm for the human health due to the most probable heavy
metals present in these sands are discussed. The efficiency of the sand reclaiming systems, the rational use of the volume
of mould sand, the efficent system of core/mold gas vent, the correct parts and flasks size compatibility, the core thickness
reduction and addition of internal relief are some of the measures discussed in the work to minimize the use of sand.
Some experiments to evaluate the influence of the increase in the reutilization of reclaimed sand in the coremaking and
molding process on the quality of the parts, performed in the referred plant are also described and analyzed, both in
terms of the reduction of waste generation and in economical terms.
Keywords: FOUNDRY SAND – RECLAIMING SAND – FOUNDRY SAND MINIMIZATION.
120
Dezembro• 2000
g
y
p
AS INCERTEZAS DAS MEDIÇÕES:
PONTOS CRÍTICOS E SIMPLIFICAÇÕES
PARA A METROLOGIA DIMENSIONAL
NA INDÚSTRIA
Uncertainty of measurement: critical poinsts and simplifications to its application in industrial dimensional metrology
LUÍS GONZAGA DE LIMA
Universidade Metodista de Piracicaba
ORIENTADOR: ALVARO JOSÉ ABACKERLI
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Os erros e as incertezas das medições têm sido objeto de interesses da comunidade científica durante todo esse
século, culminando na sua necessidade para as atividades diárias da indústria na virada do novo milênio. Com vistas a
atender a essa necessidade, inúmeras organizações internacionais criaram diretrizes para orientar o tratamento de incertezas nos diferentes ramos da ciência e da tecnologia. Entretanto, pela complexidade inerente à discussão das incertezas,
algumas vezes seus conceitos não são claros, tampouco as condições de contorno necessárias à abordagem correta de
alguns problemas. Esse é o caso das aplicações industriais em que as condições ideais estabelecidas pelas normas, além da
fundamentação teórica de vários conceitos, não podem ser garantidas na sua totalidade. Para auxiliar o melhor entendimento da expressão das incertezas, alguns de seus conceitos são apresentados neste trabalho, buscando-se esclarecimentos particularizados que facilitem sua aplicação em algumas atividades industriais. Um procedimento simplificado para
cálculo da incerteza em problemas da metrologia industrial mecânica também é proposto, buscando-se soluções mais
simples que sejam orientadas pelos documentos normativos e não impliquem perdas de qualidade dos resultados. No
procedimento apresentado, as etapas são desenvolvidas passo a passo, de modo a permitir seu uso imediato pelo pessoal
técnico da indústria, incluindo ainda alguns estudos de caso que permitem verificar sua adequação ao Guia para a Expressão da Incerteza de Medição (ABNT/INMETRO, 1998).
Palavras-chave: INCERTEZA – CALIBRAÇÃO – MEDIÇÃO – METROLOGIA.
ABSTRACT – The discussion of uncertainty and errors on measurement have taken the attention of the scientific community all way through this century, turning into a basic need for industrial activities for the new millennium. As an answer
to this basic need, international organizations have published documents and standards to guide the user through the
expression of uncertainty in different areas of science and technology. However, the natural complexity expression
makes thing difficult in industrial applications where some basic concepts are not clear, or even the theoretical constraints
can not be fully maintained. To help its better understanding, some important concepts and their practical implications
are presented in this work. Additionally, a simplified procedure for the uncertainty evaluation in dimensional metrology is
presented, to help industrial technicians to widen their knowledge and spread the evaluation of uncertainties in daily
activities. It is important to point out that, despite its reduced form, the proposal has full conceptual compliance to
national and international standards, particulary with the Guide to the Expression of Uncertainty in Measurement (ISO,
1995). Moreover, the proposed step by step procedure is followed by case in which one can note that no lost of quality in
results is obtained due to the proposed simplifications.
Keywords: UNCERTAINTY – CALIBRATION – MEASUREMENT – METROLOGY.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
121
g
y
p
AVALIAÇÃO DOS CUSTOS DE FALHAS
EXTERNAS (REPAROS EM GARANTIA)
Assesment of External Quality Costs (Warranty)
SILMAR PONTEL
Universidade Metodista de Piracicaba
ORIENTADOR: PAULO AUGUSTO CAUCHICK MIGUEL
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Apesar de o assunto sobre custos da qualidade não ser recente, esse tema ainda não é muito difundido no Brasil. Este trabalho apresenta uma revisão bibliográfica sobre os custos da qualidade, iniciando com um histórico do desenvolvimento dos custos da qualidade, seguido das definições e exemplos de suas categorias, que tradicionalmente se
dividem em custos de avaliação, prevenção e falhas (internas e externas). Também é apresentada uma metodologia para
levantamento dos custos da qualidade, em que são descritos os estágios de coleta e análise de custos da qualidade, na categoria de falhas externas. A aplicação da metodologia é feita por meio de um estudo de caso voltado aos custos com reparos em garantia numa empresa do setor metalúrgico, na região de Campinas. Conclui-se que a análise dos custos de
falhas externas é uma ferramenta gerencial necessária, tendo em vista os gastos decorrentes, no caso apresentado, de
reparos em garantia. Desse modo, acredita-se que as empresas que almejam aprimorar sua competitividade no mercado
globalizado atual devem coletar e analisar tais custos.
Palavras-chave: CUSTOS DE QUALIDADE – CUSTOS DE FALHAS EXTERNAS – CUSTOS EM GARANTIA.
ABSTRACT – Although the subject of Quality Costs is not recent, it is not widespread in Brazil. This work presents a literature survey beginning with a historical description of quality costs, followed by definition and example of its categories
which divide them into appraisal, prevention, and failures (internal and external). It is also presented a methodology to
collect quality costs by describing the stages of collection and analysis of costs of external failures. The application of the
methodology is performed through a case study on costs of warranty in a company within the mechanical sector in the
region of Campinas. It is concluded that the analysis of costs of external failures is a necessary management tool faced
with the expenditures of warranty in the presented case study. In this sense, it is believed that companies which aim to
improve competitiveness in the current global market should collect and analise such costs.
Keywords: QUALITY COSTS – EXTERNAL FAILURE COSTS – WARRANTY COSTS.
122
Dezembro• 2000
g
y
p
DESENVOLVIMENTO DE UM SISTEMA
ESPECIALISTA PARA A OTIMIZAÇÃO DO
PROCESSO DE USINAGEM
Development of an Expert System for Option the Process
ELESANDRO ANTONIO BAPTISTA
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: NIVALDO LEMOS COPPINI
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Apresenta-se o desenvolvimento de um sistema especialista para a otimização do processo de usinagem, baseado
no Intervalo de Máxima Eficiência (IME), e demais restrições do processo e do cenário produtivo envolvido. Foi utilizada
a metodologia para determinar as condições de corte em ambiente fabril, por meio de ensaios para a obtenção da vida da
ferramenta de corte e, conseqüentemente, dos demais elementos necessários à construção do IME. Como resultado, foi
obtida a velocidade de corte otimizada. Todas as variáveis do processo, que o influenciam, foram consideradas na otimização. O sistema possui dois diferentes modos de aplicação: o interativo, comandado pelo usuário, e o completamente
automático, cuja aplicação é possível dentro do conceito de fábrica virtual. O sistema foi submetido à verificação em laboratório e a exemplos de aplicações em ambiente fabril. Em ambos os casos, os resultados permitem concluir que o Tool
Optimization Expert System (TOES), nome atribuído ao sistema, atende aos requisitos para os quais foi desenvolvido.
Dessa forma, pode substituir ou apoiar um especialista humano na complexa tarefa de otimização do processo de usinagem em ambiente fabril.
Palavras-chave: SISTEMA ESPECIALISTA – OTIMIZAÇÃO – USINAGEM – INTERVALO DE MÁXIMA EFICIÊNCIA.
ABSTRACT —It is presented an expert system development to optimise the cutting process, based on the Maximum Efficiency
Interval (MEI). It was considered all the process constraints involved, and the environment scenary. Cutting condition determination was proposed to be in shop floor, and consists in tests realization to obtain the cutting tool life coeficients. All process paraeters
were considereted. The system allows two diferents application modes: interactive and fully automatic, both could be used in virtual enterprises concept. The system was tested in laboratory and shop floor conditions. It allows to conclude that the Tool Optimization Expert System (TOES, the name of the developed system) met the inicial requirements. Thus, the system can replace or aid
a human expert in complex tasks of cutting process optimization, in industrial environment.
Keywords: EXPERT SYSTEM – OPTIMIZATION – MACHINING – MAXIMUM EFICIENCE INTERVAL.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
123
g
y
p
REENGENHARIA DOS PROCESSOS DE
NEGÓCIOS: UM ESTUDO DE CASO
Business Process Reengineering: A Case Study
CRISTIANO DE JESUS
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: JOSÉ ANTÔNIO ARANTES SALLES
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Tecnologia da informação é uma importante ferramenta de suporte para alcançar competitividade em um
ambiente que exige agilidade e capacidade de mudanças rápidas. Contudo, a base computacional não é tudo. Questões
como cultura, recursos humanos, gerenciamento, sistemas de desempenho, qualidade e estratégia da manufatura não
podem ser descartadas. A aplicação sistemática da tecnologia compreendida em uma estratégia organizacional é fundamental para obter resultados satisfatórios em um ambiente de competição global. Este trabalho apresenta uma discussão
sobre reengenharia de processos de negócios com a da tecnologia da informação como recurso viabilizador da mudança
da forma de trabalhar de modo a obter competitividade.
Palavras-chave: GESTÃO DE NEGÓCIOS – REENGENHARIA DOS PROCESSOS DE NEGÓCIOS – SISTEMAS ERP – TECNOLOGIA DA
INFORMAÇÃO.
ABSTRACT – Information Technology is an important support tool to achieve the competitiveness in a environment
which claims nimbleness and capability to adapt to rapid changes. Nevertheless, the computational base is not all. Issues
such as culture, human assets, management approach, performance systems, quality and manufacturing strategy should
not be neglect. The systematic application of the technology comprised in an organizational strategy is fundamental for
obtaining satisfactory results in a global competition environment. This work presents a discussion regarding business
process reengineering with information technology as a resource which enables the changes of working to increase the
competitiveness level.
Keywords: BUSINESS MANAGEMENT – BUSINESS PROCESS REENGINEERING – ERP SYSTEMS – INFORMATION TECHNOLOGY.
124
Dezembro• 2000
g
y
p
TREINAMENTO & DESENVOLVIMENTO:
TENDÊNCIAS E INOVAÇÕES NA
PEQUENA EMPRESA
Training and Development: tendencies
and innovations at small companies
NEÓFITA MARIA DE OLIVEIRA
Universidade Metodista de Piracicaba
ORIENTADORA: ROSÂNGELA MARIA VANALLE
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este trabalho analisa a existência e o grau de inovação nas políticas de treinamento da pequena empresa e as
tendências desse mecanismo que estão sendo adotadas por esse segmento empresarial. Inicialmente, discute-se conceitos
do termo, seguido de um estudo evolutivo sobre a importância que o treinamento tem assumido no contexto empresarial. Atenção especial é dada aos fatores que contribuíram para mudanças do paradigma treinamento. Utilizou-se como
método de pesquisa o estudo exploratório, com investigação in loco – estudo de caso, mediante entrevista com uso de
questionário estruturado. Foi constado, nos estudos sobre as empresas inovadoras e com considerável margem competitiva, que a pequena empresa em geral não tem alterado suas políticas de treinamento, no sentido de utilizá-las como fator
diferencial competitivo. Apesar disso, os resultados deste estudo apontam que o novo cenário competitivo, aliado às exigências (impostas pelo mercado global) por produtos de maior qualidade, levou tal empresa a atualizar e inovar algumas
das modalidades de incentivos ao desenvolvimento de sua mão-de-obra, com a introdução, nos programas de treinamento, de um maior número de cursos, palestras e/ou seminários.
Palavras-chave: TENDÊNCIAS DO TREINAMENTO – COMPETITIVIDADE – PEQUENA EMPRESA.
ABSTRACT – This work analyzes the existence and the degree of innovation in the politics of training of the small company and the trends of this mechanism that are being adopted for this enterprise path. Initially, one argues concepts of the
term, followed of a evolutionary study on the importance that the training was assuming in the enterprise context. Special attention is given for the factors that had contributed for changes of the paradigm training. It was used as research
method an inquiry study, by local investigation – case study, by means of interview with the use of a questionnaire previously structured. It can be translated of the results that the small company has not been altering its The results point that
even so the small company has not modified its politics of training in the direction to be used of this mechanism as competitive distinguishing factor, as consisted in the studies on the innovative companies and with considerable competitive
margin, the new competitive scene, ally the requirements for products of bigger quality imposed by the global market,
took these companies to bring up to date and to innovate some of the modalities of incentives to the development of its
man power, where a bigger number of courses, lectures and/or seminaries had been being introduced in the programs of
training.
Keywords: TENDENCIES OF THE TRAINING – COMPETITIVENESS – SMALL COMPANY.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
125
g
y
p
ÉTICA E POLÍTICA AMBIENTAL:
CONTRIBUIÇÕES DA ÉTICA AMBIENTAL
ÀS POLÍTICAS E INSTRUMENTOS
DE GESTÃO AMBIENTAL
Environmental Ethics and Policy: Contribution of the
Environmental Ethics for the Policies and environmental management instruments
ROBERTA GRAF
Universidade Metodista de Piracicaba
ORIENTADOR: PAULO JORGE MORAES FIGUEIREDO
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Partindo do estudo da crise socioambiental da atualidade, conclui-se que a humanidade atravessa, na verdade,
uma crise sistêmica e complexa, abrangendo os problemas ecológicos, sociais, éticos, econômicos e políticos. As políticas
e os instrumentos de gestão ambiental são respostas à crise e procuram disciplinar as atividades humanas no que se refere
às suas influências e aos impactos socioambientais. Essa dissertação pretende fazer uma avaliação das políticas e dos instrumentos de gestão ambiental existentes, com enfoque na realidade brasileira, sob algumas óticas da ética ambiental, particularmente da ecologia profunda e da ecologia social. Além disso, a dissertação aponta encaminhamentos para as
políticas e os instrumentos considerados mais adequados à sustentabilidade socioambiental, ou à reversão da crise. O
cenário atual é de um capitalismo globalizado, marcado pelo fortalecimento e internacionalização dos mercados e pelo
enfraquecimento geral do poder público e dos canais democráticos de participação política, principalmente quanto às
demandas sociais e ecológicas. Nesse contexto, políticas e instrumentos de gestão ambiental se encontram especialmente
marginalizados. Tornaram-se urgentes a popularização da educação e da ética ambiental pelas sociedades, de forma que
haja um engajamento concreto do poder público, das organizações sociais, das instituições privadas, da ciência e da tecnologia tanto na formulação de políticas e instrumentos de gestão ambiental adequados como na aplicação das boas potencialidades dos já existentes. Os encaminhamentos considerados mais adequados à sustentabilidade socioambiental na
dissertação são: a prevenção de influências ambientais (ao invés da remediação); o enfoque sistêmico (ao invés do pontual); a integração da economia à ecologia, com mudanças significativas dos padrões de produção e consumo; o enfoque
na reprodutividade a longo prazo (dos equilíbrios ecológicos e das atividades humanas, ao invés da produtividade); a
igualdade social e a participação social ampla; a cooperação (entre indivíduos, instituições e países) e as formas comunitárias de gestão; o abandono da visão antropocêntrica, utilitarista e tecnicista, em favor de estilos de vida que priorizem a
qualidade de vida, através da integração das atividades humanas à natureza e da justiça social.
Palavras-chave: ÉTICA AMBIENTAL
SOCIAL – ECONOMIA ECOLÓGICA.
– POLÍTICA AMBIENTAL – GESTÃO AMBIENTAL – ECOLOGIA PROFUNDA – ECOLOGIA
ABSTRACT – From an analysis of the contemporary socio-environmental crisis, we conclude that humanity is truly facing
a systematic and complex crisis with ecological, social, ethic, economic and political ramifications. The policies and
instruments of environmental management are a response to this crisis, setting limits on those activities that influence or
impact the environment. This dissertation evaluates the existing policies and instruments for environmental management, focusing on Brazilian reality through the prism of Environmental Ethics, specifically Deep Ecology and Social Ecology. This dissertation also indicates directions for those policies and instruments considered the most adequate to socioenvironmental sustainability and to reverse the crisis. The present day scenario is one of globalized capitalism, characterized by the internationalization and the strengthening of markets and by the general weakening of the State and democratic channels of political participation, principally in terms of social and ecological demands. Within this context, the
126
Dezembro• 2000
g
y
p
policies and instruments of environmental management are particularly set aside. Mass Environmental Education and
Ethics within society become urgent issues, in order that the State, social organizations, private institutions and scientific
and technological bodies come to play a major role in the making of adequate policies and instruments of environmental
management, as well as in the realization of whatever positive potentialities already existing. This dissertation recommends the following principles as those most adequate for socio-environmental sustainability: * the prevention, rather
than the remediation of environmental influences; * a systemic, rather than a fragmented, point of view; * the integration
of Economics and Ecology, with significant changes in patterns of production and consumption; * emphasis on long term
reproductivity (with respect to ecological equilibrium and human activities), in preference to productivity; * ample social
equality and participation; * cooperation among individuals, institutions, countries, and participatory forms of management within the community; * the abandonment of an anthropocentric, utilitarian and technicist point of view, in favor
of life styles that promote quality of life, through the integration of human activities with nature and the social justice.
Keywords: ENVIRONMENTAL ETHICS – ENVIRONMENTAL POLICY – ENVIRONMENTAL MANAGEMENT – DEEP ECOLOGY –
SOCIAL ECOLOGY – ECOLOGICAL ECONOMICS.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
127
g
y
p
ÓLEOS LUBRIFICANTES MINERAIS:
UMA ANÁLISE DAS POTENCIALIDADES
DA REUTILIZAÇÃO
Mineral Lubricant oils: An analysis Reutilization Potentialities
GUSTAVO MORINI FERREIRA GÂNDARA
Universidade Metodista de Piracicaba
[email protected]
ORIENTADORA: NÁDIA KASSOUF PIZZINATTO
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este trabalho aborda as alternativas de destino dos óleos lubrificantes usados e as conseqüentes implicações de
cada uma delas sob diversos aspectos, com ênfase nos aspectos econômicos e nos processos produtivos. São comparadas
as sistemáticas adotadas no Brasil e as utilizadas nos Estados Unidos e em países da Europa. O re-refino do óleo lubrificante usado é a alternativa melhor discutida neste trabalho, tendo por base pesquisa bibliográfica e estudo de casos em
duas rerrefinadoras. Ao final, é proposta nova metodologia de coleta de óleos lubrificantes usados, priorizando os aspectos regionais como forma de viabilizar o empreendimento dos que atuam no setor.
Palavras-chave: RERREFINO – ÓLEO LUBRIFICANTE – SISTEMA DE COMERCIALIZAÇÃO – PETRÓLEO.
ABSTRACT – This theasis approaches the theme of the alternatives of destiny of the used lubricating oils and the consequent implications of each one in relation to several aspects, with emphasis in the economic aspects and in the productive
processes, comparing the systematic ones adopted in Brazil with the the systematic adopted in another countries of
Europe and USA. The alternative of destiny of the used lubricating oil more discussed in the theasis is the re-refining process. The study is based on bibliographical research and in study of cases in two re-refining companies. It proposes, at the
end, new methodology of collection of used lubricating oils, prioritizing the regional aspects, as form of making possible
the enterprise of those who works in this area.
Keywords: RE-REFINING – LUBRICATING OIL – TRADE SYSTEM – COAL OIL.
128
Dezembro• 2000
g
y
p
ANÁLISE DA GESTÃO DA CADEIA DE
SUPRIMENTOS EM UMA EMPRESA
DE COMPUTADORES
Analysis of the Supply Chain Management in
a Computer Manufacturing Company
PAULO HENRIQUE PARRA
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: SÍLVIO ROBERTO IGNÁCIO PIRES
Universidade Metodista de Piracicaba
[email protected]
RESUMO – A competição mundial tem se acirrado significativamente com o processo da globalização. Na resfera industrial, vem provocando o surgimento de novos desafios, e também de novas oportunidades, na forma de se organizar e
gerenciar a produção. A Gestão da Cadeia de Suprimentos (Supply Chain Management – SCM) emerge, nesse contexto,
como uma nova e promissora fronteira no desenvolvimento de vantagens competitivas. Por sua vez, em função da característica própria da velocidade das inovações tecnológicas, a indústria de computadores relaciona-se com uma série de
fatores que dificultam uma gestão mais eficaz da cadeia de suprimentos. Nesse contexto, este trabalho apresenta um
estudo de caso, em uma empresa multinacional fabricante de computadores, cujo foco é a análise da sua cadeia de suprimentos, de suas estratégias e da influência imposta à cadeia de fornecimento. Também é feito um relato das implicações
negativas de algumas estratégias adotadas pela empresa e a indicação de elementos-chave de um aprimoramento futuro.
Palavras-chave: INDÚSTRIA DE INFORMÁTICA – GLOBALIZAÇÃO – GESTÃO DA CADEIA DE SUPRIMENTOS
CADEIA DE FORNECIMENTO – ESTRATÉGIA COMPETITIVA – PARCERIA.
– GESTÃO DA
ABSTRACT – Competition in the world has significantly increased with the globalization process. This competitive environment has been stimulating the grow of competitive strategies among corporations and also creating new productions
organization forms. In this direction, Supply Chain Management (SCM) has emerged as a new frontier for the development of competitive advantages. Also, due to a unique characteristic of technology innovation speed, the computer
industry shows a lot of factors that make difficult to achieve efficiency in the supply chain management. In this context,
this work shows a case study in a computer manufacturer, that focus the analysis in the supply chain management, their
strategies and the influences in the Inbound Chain. Also was presented a report of the negative implications caused by the
adoption of some strategies for this manufacturer, indicating in the end the key elements for a future improvement.
Keywords: INFORMATICS INDUSTRY – GLOBALIZATION – SUPPLY CHAIN MANAGEMENT – INBOUND CHAIN MANAGEMENT
– COMPETITIVE STRATEGY – PARTNERSHIP.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
129
g
y
p
ANÁLISE DE MODELOS DE MELHORIA
NO DESENVOLVIMENTO DE SOFTWARE
Analysis of improvement models in software development
GUILHERME AUGUSTO SPIEGEL GUALAZZI
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: NÉOCLES ALVES PEREIRA
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este trabalho tem por objetivo a análise de modelos gerenciais de desenvolvimento de software, com vistas a
permitir que organizações interessadas possam utilizá-los em suas atividades. Tem também por objetivo organizar um trabalho preliminar que introduza o tema de forma acessível a estudantes de graduação em engenharia de produção, em
ciência da computação e cursos similares. São apresentados cinco casos de utilização de modelos de melhoria de desenvolvimento de software, relatados através de pesquisas realizadas por três instituições norte-americanas e duas organizações brasileiras; neles serão analisados diversos aspectos de melhoria em tais utilizações. Os resultados dos casos
apresentados indicam que esses modelos contribuem positivamente para a melhoria de processos de desenvolvimento de
software, principalmente os relatos referentes aos EUA, demonstrando grandes chances de êxito em empresas nacionais,
principalmente com relação a um dos modelos considerados, denominado CMM (Capability Maturity Model).
Palavras-chave: QUALIDADE – SOFTWARE – MODELO DE MATURIDADE – DESENVOLVIMENTO DE SOFTWARE.
ABSTRACT: This work aims an analysis of managerial models of software development, in order to enable that interested
organizations can use them in their activities. It has for objective to organize a preliminary text that introduces the theme
in a accessible way to graduation students in production engineering, in computation science and other similar courses.
Five cases of use of improvement models of software development are presented, reported by research accomplished by
three North American institutions, and two Brazilian organizations. Several concerning improvement aspects of this cases
are analyzed. The results of the presented cases indicate that the models contribute positively to the improvement of software development processes, mainly in the US cases, demonstrating great chances of success in Brasilian companies,
mainly those cases related to the CMM (Capability Maturity Model).
Keywords: QUALITY – SOFTWARE – MATURITY MODEL – SOFTWARE DEVELOPMENT.
130
Dezembro• 2000
g
y
p
INTEGRANDO O QFD COM A ISO 9001:
2000 EM UMA INDÚSTRIA DE
CERÂMICAS ELETRÔNICAS
Integrating QFD and ISO 9001:
2000 in a Company of Electronic Ceramics
JOSÉ CELSO SOBREIRO DIAS
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: PAULO AUGUSTO CAUCHICK MIGUEL
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Nesses últimos anos, a qualidade tem ocupado um papel determinante na competitividade dos negócios. Através de constantes transformações, está conseguindo novos espaços, atingindo novas áreas e atividades nas organizações,
ficando evidente que a busca pela qualidade é o melhor caminho para enfrentar os desafios em um mercado cada vez
mais globalizado. Nesse cenário, o desenvolvimento alcançado pelas cerâmicas eletrônicas, utilizadas na construção de
pára-raios, cumpre seu papel no universo tecnológico. Entretanto, para conviver com um cenário globalizado deve-se
buscar a otimização dos custos e a confiabilidade no sistema da qualidade em organizações que produzem tais equipamentos. Por isso, a aplicação de uma metodologia adequada para aquisição, inspeção e controle das matérias-primas,
aplicadas nas cerâmicas eletrônicas, é de extrema importância para a consolidação de um sistema de gestão da qualidade.
Um fator que contribui para o caráter evolutivo desse conceito é a revisão 2000 da série ISO 9000, fundamentada nos
princípios da gestão da qualidade, destacando o foco no cliente e a melhoria contínua. A implementação desse novo sistema poderá trazer benefícios em favor da eficiência, do controle gerencial e da gestão de negócios. Este texto relaciona
funções de trabalho frente aos requisitos normativos da série ISO/DIS 9001: 2000, tendo como instrumento de aplicação
o QFD (Quality Function Deployment). O QFD foi utilizado no sentido de estruturar o desenvolvimento da metodologia proposta; o modelo conceitual apresentado trabalha as informações necessárias, arranjadas numa série de matrizes
inter-relacionadas. A proposta principal deste trabalho é identificar as funções de trabalho mais relevantes e quais os requisitos normativos da série ISO/DIS 9001: 2000 que causam maior impacto sobre essas funções de trabalho, constituindo-se,
assim, a base da metodologia proposta. A metodologia mostra-se útil, prática e viável, sendo possível sua aplicação em
todas as empresas e também nos seus diversos os setores.
Palavras-chave: DESDOBRAMENTO DA FUNÇÃO QUALIDADE – FUNÇÕES DE TRABALHO – QUALIDADE ASSEGURADA – ISO/DIS
9001: 2000.
ABSTRACT – In the last years, quality has performed a decisive role in the business competitiveness. Through constant
transformations, quality has get new areas and activities in the organizations. It becomes evident that the search for quality is the better way to face the challenges in a global competitive market. In this scenario, the development of electronic
ceramics applied for construction of surge arresters perform its role within the technological universe. However, in order
to take part in a global scenario, the optimization of costs and reliability of quality systems from companies which produce such equipment should be aimed. In this context, the application of a suitable methodology for acquiring, inspecting
and controlling of raw materials applied to electronic ceramics is of paramount importance to consolidate a quality management system. A factor which contributes for the evolution of this concept is the year 2000 revision of ISO 9000 series,
which is centered in the principles of quality management, emphasizing the customer focus and continuous improvement. The implementation of this new system enables to bring benefits in favour of efficiency, management control and
business management. This work deals with job functions related to the ISO/DIS 9001:2000 requirements using QFD as
an integrative tool. QFD (Quality Function Deployment), known was applied as a structure for the development of this
proposal. The conceptual model deals with the necessary information organised in a series of inter-related matrices. The
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
131
g
y
p
main proposal of this work is to identify the most relevant job functions besides the ISO/DIS 9001:2000 requirements
which cause more impact on these job functions, as a basis of the proposed methodology. The methodology is shown
useful, practice and viable, being possible its application in all the companies and also applicable in all the sections of those
companies.
Keywords: QUALITY FUNCTION DEPLOYMENT (QFD) – JOB FUNCTION – QUALITY ASSURANCE – ISO/DIS 9001:2000.
132
Dezembro• 2000
g
y
p
ESTUDO DE CASO PARA A IMPLANTAÇÃO
DE “MANUFATURA CLASSE MUNDIAL”
E PROPOSTA DE CONCEITO
PARA “EMPRESA CLASSE MUNDIAL”
Case study for Word Class Manufacturing and a
Word Class Enterprise Concept Proposal
JOSÉ CLÁUDIO MACEDO CARDOSO
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: MILTON VIEIRA JR.
Universidade Metodista de Piracicaba
[email protected]
RESUMO – O objetivo deste trabalho é sugerir um conceito de Empresa Classe Mundial para indústria de autopeças,
comentando sua forma de gestão e as inter-relações e características de suas diversas áreas, focando mais detalhadamente
a área de manufatura. Também será apresentado um estudo de caso em que é analisada a transformação de uma planta
para usinagem de blocos e cabeçotes para motores diesel em Manufatura de Classe Mundial, discorrendo brevemente
sobre as principais técnicas utilizadas nesse processo e os resultados obtidos.
Palavras-chave: MANUFATURA CLASSE MUNDIAL – MANUFATURA ENXUTA – EMPRESA CLASSE MUNDIAL.
ABSTRACT – The goal of this work is to suggest an “World Class Enterprise” concept for auto parts industry discoursing
on about its management system the interrelations and characteristics of its several areas with a focus in the manufacturing area. Also, it will be presented a case study where it is analyzed the transformation of a diesel engine blocks and heads
machining plant in “ World Class Manufacturing” telling briefly about the main techniques used in this process and the
results achieved.
Keywords: WORLD CLASS MANUFACTURING – LEAN MANUFACTURING – WORLD CLASS ENTERPRISE.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
133
g
y
p
QUALIDADE DE VIDA NO TRABALHO:
UM ESTUDO EM UMA EMPRESA
DO SETOR DE AUTOPEÇAS
Quality of working life: a case etudy
on the automotive e suppliers
WALDIR RECHZIEGEL
Universidade Metodista de Piracicaba
ORIENTADORA: ROSÂNGELA MARIA VANALLE
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Este estudo analisa a qualidade de vida no trabalho em uma empresa do setor de autopeças da região de Campinas-SP, bem como suas políticas de recursos humanos. O maior objetivo é examinar a satisfação dos funcionários com a
qualidade de vida no trabalho e as principais políticas de recursos humanos adotadas por uma empresa de autopeças para
enfrentar a intensificação da competitividade que se instalou durante a última década. A satisfação é um processo de
ordem psicossocial essencial para a cultura e clima das empresas. A metodologia utilizada é o estudo de caso de caráter
exploratório e descritivo. Para a coleta de dados realizou-se uma pesquisa de campo através de questionários, sendo
dados avaliados pela análise descritiva e pela de correspondência múltipla. Os resultados obtidos sobre as políticas de
recursos humanos da empresa revelam que elas se assemelham com o modelo de gestão estratégica de recursos humanos.
O estudo leva à conclusão de que há elevada satisfação dos funcionários com a qualidade de vida no trabalho e que isso é
resultado do conjunto de políticas e práticas de recursos humanos adotadas pela empresa, as quais exercem uma influência positiva na competitividade da empresa.
Palavras-chave: QUALIDADE DE VIDA NO TRABALHO – RECURSOS HUMANOS – SATISFAÇÃO – AUTOPEÇAS.
ABSTRACT – This work analyzes the quality of working life and the human resources policies in an autoparts company in
the region of Campinas-SP. The main objective of the study is to assess the satisfaction of the employees with the quality
of working life and the main human resources policies adopted by an autoparts company, to face the competitiveness
intensification settled during this decade. The satisfaction is a psychosocial process that is essential for the culture and climate of the companies. The methodology used is the case study of exploratory and descriptive character. For the data
collection a field research was done through questionnaires and the data were analyzed by descriptive and multiple correspondences analysis. The results obtained reveal that the company human resources policies are similar to the model of
strategic human resources management. The study shows that there is a high satisfaction level among the employees with
the quality of working life. It also shows that this satisfaction is the result of the combination of human resources policies
and practices adopted by the company, which ends up exerting a positive influence in the company competitiveness.
Keywords: QUALITY OF WORKING LIFE – HUMAN RESOURCES – SATISFACTION – AUTOPARTS.
134
Dezembro• 2000
g
y
p
IMPLEMENTAÇÃO DO JUST-IN-TIME
EM UMA EMPRESA FABRICANTE
DE ARMAÇÕES DE ÓCULOS
Implementation of Just-in-time within an eyeglass
frame manufacturing company
MOACIR PEREIRA
Universidade Metodista de Piracicaba
[email protected]
ORIENTADOR: SÍLVIO ROBERTO IGNÁCIO PIRES
Universidade Metodista de Piracicaba
[email protected]
RESUMO – Atualmente, em um mercado globalizado, no qual as mudanças ocorrem de maneira rápida, as empresas
devem ser flexíveis para manufaturar uma gama de diferentes produtos a baixos custos e com altos níveis de qualidade.
O Just-in-time é um sistema que visa a um programa de produção consistente, estimulando a produtividade, eliminando
estoques ociosos e melhorando a qualidade do produto. Um dos elementos deste sistema é o Kaban, um meio de informação que tem como objetivo programar e controlar a produção, reduzir e controlar o estoque. O presente trabalho
relata o processo de implementação do Kaban em uma empresa metalúrgica, viabilizando a redução dos estoques e
aumentando a responsabilidade dos operadores na produção de cada componente da produção.
Palavras-chave: JUST-IN-TIME – KABAN – PRODUTIVIDADE – ESTUDO DE CASO.
ABSTRACT – Nowadays, in a globalized market, where changes happen fastly, companies should be flexible to manufacture a range of different products at low costs and with high quality level. Just-in-time is a system, which aims at a consistent production, stimulating productivity, eliminating idle stocks and improving product quality. Kaban is one of the
elements of the system, and it is an information method whose objective is to program production, reduce and control
stocks. This work deals with the Kaban implemetation process in a metallurgical company, allowing stocks reduction and
increasing the operators responsability when producing each compnent of the finished product.
Keywords: JUST-IN-TIME – KABAN – PRODUTIVITY – CASE STUDY.
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135
135
g
136
y
p
Dezembro• 2000
g
y
p
Revista de Ciência & Tecnologia
NORMAS PARA PUBLICAÇÃO
PRINCÍPIOS GERAIS
1. A REVISTA DE CIÊNCIA & TECNOLOGIA
tem por objetivo publicar trabalhos que contribuam para o desenvolvimento científico e tecnológico nas áreas de Ciências Exatas, Engenharia,
Tecnologia e Arquitetura e Urbanismo.
2. Os temas podem ser apresentados através dos
seguintes tipos de artigos:
•
ensaio: artigo teórico sobre determinado
tema;
•
relato: artigo sobre pesquisa experimental
concluída ou em andamento;
•
revisão de literatura: levantamento do estágio
atual de determinado assunto e compilação
crítica de dados experimentais e propostas
teóricas recentes;
•
resenha: comentário crítico de livros e/ou
teses;
•
carta: comentário a artigos relevantes publicados anteriormente.
3. Os artigos devem ser inéditos, sendo vedada sua
publicação em outras revistas brasileiras. A
publicação do mesmo artigo em revistas estrangeiras deverá contar com a autorização prévia
da Comissão Editorial da RC&T.
4. A aceitação do artigo depende dos seguintes critérios:
•
adequação ao escopo da revista;
•
qualidade científica ou tecnológica avaliada
pela Comissão Editorial e por processo anônimo de avaliação por pares (peer review), com
consultores não remunerados, especialmente
convidados, cujos nomes são divulgados anualmente, como forma de reconhecimento;
•
cumprimento da presente Norma. Os autores
serão sempre informados do andamento do
processo de avaliação e seleção dos artigos e
os originais serão devolvidos nos casos de sua
não aceitação.
5. Os artigos devem considerar como unidade
padrão a página A4, com margens 2,5 cm, pará-
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 137-140
grafo justificado, fonte Times New Roman,
tamanho 12, digitada em espaço 1,5 e em editor
Word 97 for Windows, sem qualquer formatação especial.
Os artigos devem ter as seguintes dimensões:
•
ensaio e relato: de 12 a 20 páginas-padrão,
nelas incluídas todas as subdivisões dos capítulos, figuras, tabelas e referências bibliográficas;
•
revisão de literatura: de 10 a 15 páginaspadrão, nelas incluídas todas as subdivisões
dos capítulos, figuras, tabelas e referências
bibliográficas;
•
resenha e carta: de 2 a 4 páginas-padrão.
6. Os artigos podem sofrer alterações editoriais
não substanciais (reparagrafações, correções gramaticais e adequações estilísticas), que não
modifiquem o sentido do texto. O autor será
solicitado a revisar as mudanças eventualmente
introduzidas.
7. Não há remuneração pelos trabalhos. O autor
de cada artigo recebe gratuitamente 3 (três)
exemplares da revista; no caso de artigo assinado por mais de um autor, são entregues 5
(cinco) exemplares. O(s) autor(es) pode(m)
ainda comprar outros exemplares com desconto
de 30% sobre o preço de capa.
8. Os artigos devem ser encaminhados pelo Correio para:
Comissão Editorial da RC&T
A/c: prof. Nivaldo Lemos Coppini
Unimep – Campus Santa Bárbara d’Oeste
Km 1, Rod. Santa Bárbara d’Oeste/Iracemápolis
CEP:13450-000 – Santa Bárbara d’Oeste
através de ofício, do qual deve constar:
•
declaração de cessão dos direitos autorais para
publicação na revista;
•
declaração de concordância com as Normas
para Publicação da RC&T.
Opcionalmente, os artigos e as declarações
poderão ser encaminhadas através de arquivos “atachados” para o e-mail [email protected].
137
g
y
p
ESTRUTURA
SÕES, CONCLUSÕES, NOTAS e REFERÊNCIAS BIBLIOGRÁFICAS. No caso de
Resenhas, o texto deve conter todas as informações para identificação do livro comentado
(autor; título, tradutor, se houver; edição, se
não for a primeira; local; editora; ano; total
de páginas; e título original, se houver). No
caso de teses/dissertações, segue-se o mesmo
princípio, no que for aplicável, acrescido de
informações sobre a instituição na qual tiver
sido produzida.
9. Cada artigo deve conter os seguintes elementos:
Identificação:
•
•
Nome do(s) autor(es);
Telefone, e-mail e endereço do(s) autor(es)
para contato;
•
Titulação acadêmica; função e origem (instituição e unidade) do(s) autor(es);
•
Título e, se for o caso, subtítulo: precisa(m)
indicar claramente o conteúdo do texto e
ser(em) conciso(s) (título: no máximo 10
palavras; subtítulos: no máximo 15 palavras)
•
Subvenção: menção de apoio e financiamento
eventualmente recebidos;
•
Agradecimentos, apenas se absolutamente
indispensáveis.
Esses elementos devem ser apresentados em
folha separada, pois contêm dados que não serão
divulgados aos consultores. Após a aceitação do
artigo, os dados serão incluídos para publicação.
O texto deve conter:
•
Título e, se for o caso, subtítulo em português
e inglês, qualquer que seja o idioma utilizado
dentre os determinados por estas normas,
bem como os limites de palavras acima definidos;
•
Resumo em português e Abstract em inglês,
qualquer que seja o idioma utilizado no texto
dentre os determinados por estas normas.
Conterão entre 150 a 200 palavras com a
mesma formatação da página padrão acima
definida;
•
Para fins de indexação, o autor deve indicar
no mínimo três e no máximo seis palavraschave logo após a apresentação do Resumo, e,
posteriormente ao Abstract, sua versão para o
inglês (keywords).
•
O texto pode ser escrito em português, inglês
ou espanhol e deve estar subdividido em:
INTRODUÇÃO, DESENVOLVIMENTO,
CONCLUSÃO e REFERÊNCIAS BIBLIOGRÁFICAS. Cabe ao autor criar os intertítulos para o seu trabalho: em letras maiúsculas e
sem numeração. No caso de Relatos, podem
ter as seguintes seções: INTRODUÇÃO,
METODOLOGIA (ou MATERIAIS E
MÉTODOS), RESULTADOS, DISCUS-
138
DOCUMENTAÇÃO
10. O artigo poderá apresentar notas explicativas.1
Elas devem ser indicadas por numeração
seqüencial sobrescrita e apresentadas no rodapé
da página, com a mesma formatação da página
padrão. O artigo precisa apresentar as referências bibliográficas de acordo com a norma NBR
6.023/1989 da ABNT, em sua versão exemplificada abaixo, que consiste em fazer a citação da
referência ao longo do texto:
Para se ter uma idéia do avanço nesta direção,
até novembro de 1997, inúmeras empresas
foram certificadas conforme uma das normas de
série ISO 9000 (Emmanuel, 1997). Entretanto,
requisitos da Qualidade, segundo Brederodes
(1996), não estão somente restritos à esfera da
ISO 9000.
As Referências Bibliográficas deverão ser
apresentadas em ordem alfabética pelo sobrenome
dos autores.
I– Sobrenome do autor (maiúsculo), nome (minúsculo). Título da obra (itálico). Tradutor, edição,
cidade em que foi publicado: editora, ano de
publicação. Ex.:
HOBSBAWM, E.J. Era dos Extremos: o breve século XX;
1914-1991. Trad. Marcos Santarrita, São
Paulo: Companhia das Letras, 1995.
Obs.: sendo 1.ª edição, esta não deve ser indicada.
II– Designação de parentes não pode abrir referência bibliográfica. Ex.:
JUNQUEIRA NETTO, P....
Sobrenome composto:
CASTELLO BRANCO, H. de,...
1
As notas explicativas devem ser apresentadas desta forma.
Dezembro • 2000
g
y
p
VILLA-LOBBOS, H.,...
III– Obras escritas por dois autores. Ex.:
ARANHA, M.L. de A. & MARTINS, M.H.P. Filosofando:
introdução à Filosofia. São Paulo: Moderna,
1986.
IV– Obras escritas por três ou mais autores.
Coloca-se o nome do primeiro autor, seguido da
expressão et al. Ex.:
PIRES, M.C.S. et al. Como fazer uma Monografia. 4.ª ed.,
São Paulo: Brasiliense, 1991.
Se houver um responsável pela obra (coordenador ou organizador):
GENTILI, P. (org.). Pedagogia da Exclusão: o neoliberalismo
e a crise da escola pública. Petrópolis: Vozes,
1995.
V– Artigos de revistas e jornal.
Revista: sobrenome do autor (maiúsculo),
prenome. Título do artigo, título do jornal (itálico),
local, volume (número/fascículo): páginas incursivas, ano.
Ex. com autor:
ZAMPRONHA, M.L.S. Música e semiótica. Arte, Unesp,
Rio Claro, 6: 105-128, 1990.
Ex. sem autor:
Máquinas paradas braços cruzados. Atenção, Página Aberta,
ano 2, (7): 10-17, 1996.
COSTA, M. da. A educação em tempos de conservadorismo.
In: GENTILI, P. Pedagogia da Exclusão: crítica
ao neoliberalismo em educação em educação.
Petrópolis: Vozes, 1995.
VII– Enciclopédia e dicionário.
GRANDE ENCICLOPÉDIA DELTA LAROUSSE. Rio de
Janeiro, Delta, 1974, v. 7, p. 2.960.
FERREIRA, A.B.H. Novo Dicionário da Língua Portuguesa.
Rio de Janeiro: Nova Fronteira, 1975, p. 397.
VIII– Fontes eletrônicas
A documentação de arquivos virtuais deve conter as
seguintes informações, quando disponíveis:
•
sobrenome e nome do autor;
•
título completo do documento (entre aspas);
•
título do trabalho no qual está inserido (em
itálico);
•
data (dia, mês e/ou ano) da disponibilização
ou da última atualização;
•
endereço eletrônico (URL) completo (entre
parênteses angulares);
•
data de acesso (entre parênteses).
Exemplos :
Site genérico
LANCASHIRE, I. Home page. Sept. 13, 1998. <http://
www.chass.utoronto.ca:8080/~ian/
index.html> (10/dez./98).
Jornal: sobrenome do autor (maiúsculo), prenome, título do artigo, título do jornal (itálico),
local, dia, mês, ano, número ou título do caderno,
seção ou suplemento, página inicial-final.
Ex. com autor:
Artigo de origem impressa
FRIAS FILHO, O. Peça de Calderón sintetiza teatro barroco.
Folha de S.Paulo, São Paulo, 23/out./91, Ilustrada, p. 3.
ENCICLOPÉDIA ENCARTA 99. São Paulo: Microsoft,
1999. Verbete “Abolicionistas”. CD-rom.
Ex. sem autor:
Duas economias, duas moedas. Gazeta Mercantil, São Paulo,
31/jan./97, p. 7.
VI– Capítulo de um livro escrito por um único
autor. Substituir o nome do autor depois do “in”
por um travessão de três toques. Ex.:
ECO, U. A procura do material. In: ________. Como se faz
uma tese em ciências humanas, 4.ª ed. Lisboa:
Presença, 1988.
VII– Autor do capítulo diferente do responsável
pelo livro. Sobrenome do autor (maiúsculo) que
realizou o capítulo, prenome. Título do capítulo. In (sobrenome do organizador do livro em
maiúsculo), nome, título do livro (itálico), edição, local de publicação, editora, data. Ex.:
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 137-140
COSTA, Florência. Há 30 anos, o mergulho nas trevas do
AI-5. O Globo, 6.12.98. <http://
www.oglobo.com.br> (6/dez./98).
Dados/textos retirados de CD-rom
Artigo de origem eletrônica
CRUZ, Ubirajara Buddin. “The Cranberries: discography”.
The Cranberries: images. Feb./97. <http://
www.ufpel.tche.br/~bira/cranber/
cranb_04.html> (12/jul./97) .
OITICICA FILHO, Francisco. “Fotojornalismo, ilustração e
retórica”. <http://www.transmidia.al.org.br/
retoric.htm> (6/dez./98).
Livro de origem impressa
LOCKE, John. A Letter Concerning Toleration. Translated
by William Popple. 1689. <http://www.constitution.org/jl/tolerati.htm>.
Livro de origem eletrônica
GUAY, Tim. A Brief Look at McLuhan's Theories. WEB
Publishing Paradigms. <http://hoshi.cic.sfu.ca/
~guay/Paradigm/McLuhan.html> (10/dez./
98).
139
g
y
p
KRISTOL, Irving. Keeping Up With Ourselves. 30/jun/96.
<http://www.english.upenn.edu/~afilreis/
50s/kristol-endofi.html> (7/ago./98).
Verbete
ZIEGER, Herman E. “Aldehyde”. The Software Toolworks
Multimedia Encyclopedia. Vers. 1.5. Software
Toolworks. Boston: Grolier, 1992.
“Fresco”. Britannica Online. Vers. 97.1.1. Mar./97. Encyclopaedia Britannica. 29/mar./97. http://
www.eb.com:180.
E-mail
BARTSCH, R. <[email protected]> “Normas técnicas
ABNT – Internet”. 13/nov./98. Comunicação
pessoal.
Comunicação sincrônica (MOOs, MUDs, IRC etc.)
ARAÚJO, Camila Silveira. Participação em chat no IRC
#Pelotas. <http://www.ircpel.com.br> (2/
set./97).
lista de discussão
SEABROOK, Richard H. C. <[email protected]> “Community and Progress”. 22/jan./94. <[email protected]>
(22/
jan./94).
FTP (File Transfer Protocol)
BRUCKMAN, Amy. “Approaches to Managing Deviant
Behavior in Virtual Communities”. <ftp://
ftp.media.mit.edu/pub/asb/papers/deviancechi-94> (4/dez./94).
Telnet
GOMES, Lee. “Xerox's On-Line Neighborhood: A Great
Place to Visit”. Mercury News. 3 May 1992.
telnet lamba.parc.xerox.com 8888, @go
#50827, press 13 (5/dec./94).
Gopher
QUITTNER, Joshua. “Far Out: Welcome to Their World
Built of MUD”. Newsday, 7/nov./93. gopher
University of Koeln/About MUDs, MOOs,
and MUSEs in Education/Selected Papers/
newsday (5/dec./94).
Newsgroup (Usenet)
SLADE, Robert. <[email protected]> “UNIX Made
Easy”. 26 Mar.1996. <alt.books.reviews>
(31/mar./96).
APRESENTAÇÃO
11. O encaminhamento de artigos passa por várias
ETAPAS:
•
Apresentar três (3) cópias paginadas para
apreciação prévia, dispostas pelas normas. Se
aceito preliminarmente pela Comissão Edito-
140
rial, o artigo é submetido à apreciação por
processo anônimo de avaliação por pares
(peer review), sendo posteriormente devolvido ao autor para eventual revisão.
•
Após a revisão, deve-se apresentar uma via do
texto impressa e outra em disquete, com
arquivo gravado no formato Word 97 for
Windows. Encaminhar também via do texto
definitivo em papel, destacando as correções
efetuadas com base nas alterações sugeridas
pelos consultores, para facilitar a conferência.
O trecho corrigido deverá ser grifado com
tinta vermelha, ou marcado com cor vermelha da fonte através do editor de texto, ou
ainda marcado com caneta “hidrocor destaca
texto”. Concluído o processo de editoração, o
autor recebe uma prova final que lhe será submetida à aprovação.
•
Caso o artigo seja vetado pela Comissão Editorial, é encaminhada justificativa ao(s) autor(es)
juntamente com a devolução do texto original.
12. As ILUSTRAÇÕES (tabelas, gráficos, desenhos,
mapas e fotografias) necessárias à compreensão
do texto devem ser numeradas seqüencialmente
com algarismos arábicos e apresentadas, de modo
a garantir uma boa qualidade de impressão. Precisam ter título conciso, grafado em minúsculas.
13. TABELAS devem ser editadas em Word 97 for
Windows ou Excel. Sua formatação precisa estar
de acordo com as dimensões da revista. Devem
vir inseridas nos pontos exatos de suas apresentações ao longo do texto.
14. GRÁFICOS e DESENHOS, além da inclusão
nos locais exatos do texto (cópia impressa e disquete), precisam ser enviados em seus arquivos
originais em separado (p.ex.: Excel, CorelDraw,
PhotoShop, PaintBrush etc.).
15. As FOTOGRAFIAS devem oferecer bom contraste e foco nítido e precisam ser fornecidas em
arquivos em formato “tif” ou “gif”.
16. Outras informações poderão ser conseguidas
através da secretaria da Comissão Editorial da
RC&T pelos telefones (19) 430-1767 ou 4301770 ou ainda através do e-mail [email protected].
Dezembro • 2000
g
y
p
Revista de Ciência & Tecnologia
CORPO DE CONSULTORES
ARQUITETURA E URBANISMO
João Moreno (UNIMEP)
Renata Faccini de Camargo (UNIMEP)
CIÊNCIAS ECONÔMICAS
Antônio Carlos Sacilotto (UNIMEP)
Angela Maria C. Jorge Correa (UNIMEP)
ENGENHARIA CIVIL
Sueli do Carmo Bettine(PUC)
ENGENHARIA DE ALIMENTOS
Tais Lacerda (UNIMEP)
Carlos Alberto Gasparetto (Unicamp)
ENGENHARIA DE PRODUÇÃO
Alceu Gomes Filho (UFSCar)
Edjar Martins Telles (USP)
Felipe Araujo Calarge (UNIMEP)
Gilberto Martins (UNIMEP)
Jefferson Ozone Mortatti (USP)
João Alberto Camarotto (UFSCar)
José Antonio Arantes Salles (UNIMEP)
José Arnaldo Barra Montevechi (EFEI)
José Luiz Duarte Ribeiro (UFRGS)
Luis Carlos da Cunha Colombo (UNIMEP)
Luiz César Carpinetti (USP)
Milton Vieira Júnior (UNIMEP)
Mitsuo Serikawa (UNIMEP)
Nelson Carvalho Maestrelli (UNIMEP)
Neócles Alves Pereira (UNIMEP)
Nivaldo Lemos Coppini (UNIMEP)
Paulo C. Miguel (UNIMEP)
Paulo Corrêa Lima (Unicamp)
Paulo Jorge Moraes Figueiro (UNIMEP)
Rosângela Maria Vanalle (UNIMEP)
Sílvio Roberto Ignácio Pires (UNIMEP)
ENGENHARIA ELÉTRICA
Afonso de Oliveira Alonso (Unicamp)
Álisson Rocha Machado (UFU)
Álvaro José Abackerli (UNIMEP)
Anselmo Eduardo Diniz (Unicamp)
REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16
Antonio Batocchio (Unicamp)
Benedito de Moraes Purquério (USP)
Benedito Di Giacomo (USP)
Carlos Alberto Gasparetto (Unicamp)
Eduardo Vila Gonçalves Filho (USP)
ENGENHARIA MECÂNICA
Francisco José de Almeida (UNIMEP)
Klaus Schützer (UNIMEP)
Marco Stipkovic Filho (USP)
Olivio Novaski (Unicamp)
Reginaldo Texeira Coelho (USP)
Rosalvo Tiago Ruffino (USP)
Roseana da Exaltação Trevisan (Unicamp)
Roxana Maria Martinez Orrego (UNIMEP)
Waldir Luiz Ribeiro Gallo (Unicamp)
Yaro Burian Júnior (Unicamp)
FÍSICA
Ana Elisa Vives Carneiro (UNIMEP)
Antônio Ludovico Beraldo (Unicamp)
Aparecido dos Reis Coutinho (UNIMEP)
Lorival Fante Júnior (UNIMEP)
Maria Guiomar Carneiro Tornazello (UNIMEP)
Milton Grecchi (UNIMEP)
MATEMÁTICA, ESTATÍSTICA E COMPUTAÇÃO
Angela M.C. Jorge Corrêa (UNIMEP)
Armando M. Infante (Unicamp)
Frankilina Maria Bragion de Toledo (FMEP)
Maria Cristina Aranda Batocchio (Unicamp)
Maria de Fátima Nepomucemo (UNIMEP)
Maria Imaculada Monte Bello (UNIMEP)
Nelson Nepomuceno (UNIMEP)
Waldo Luis de Lucca (UNIMEP)
QUÍMICA E ENGENHARIA QUÍMICA
Ana Célia Ruggiero (Unimep)
Ines Joekes (Unicamp)
Sandra Maria Boscolo Brienza (Unimep)
Sônia Maria Malmonge (Unimep)
141
Download

Revista de Ciência & Tecnologia