g y p UNIVERSIDADE METODISTA DE PIRACICABA Revista de Ciência & Tecnologia Desenvolvimento do Produto: global e cooperativo ISNN 0103-8575 • Piracicaba, SP • Volume 8 • Número 16 • P 1-141 • dezembro /2000 REVISTA DE CIÊNCIA & TECNOLOGIA • 15 1 g y p UNIVERSIDADE METODISTA DE PIRACICABA Reitor ALMIR DE SOUZA MAIA Vice-reitor Acadêmico ELY ESER BARRETO CÉSAR Vice-reitor Administrativo GUSTAVO JACQUES DIAS ALVIM EDITORA UNIMEP CONSELHO DE POLÍTICA EDITORIAL Almir de Souza Maia (presidente) Antonio Roque Dechen Cláudia Regina Cavaglieri Elias Boaventura Ely Eser Barreto César (vice-presidente) Gislene Garcia Franco do Nascimento Nancy Alfieri Nunes Nivaldo Lemos Coppini NÚMERO 16 – VOLUME 8 – 2000 Produzida em abril de 2001 COMISSÃO EDITORIAL Nivaldo Lemos Coppini (presidente) Angela M. C. Jorge Corrêa Klaus Schützer Maria Isabel Dantoro Sônia Maria Malmonge EDITOR EXECUTIVO Heitor Amílcar da Silveira Neto (MTb 13.787) SECRETÁRIA DA COMISSÃO EDITORIAL acadêmica Flavia Paduan Bellani A REVISTA DE CIÊNCIA & TECNOLOGIA é uma publicação semestral da Universidade Metodista de Piracicaba. Os textos são selecionados por processo anônimo de avaliação por pares (peer review). Veja as normas para publicação no final da revista. Os originais devem ser encaminhados por e-mail ao endereço [email protected] ou, pelo Correio, para: Comissão Editorial da RC&T, a/c prof. Nivaldo Coppini, UNIMEP – Campus Santa Bárbara d’Oeste – Rod. Santa Bárbara/Iracemápolis, km 01 – 13450-000 – Santa Bárbara d’Oeste/SP. As opiniões expressas nos artigos, tanto os encomendados como os enviados espontaneamente, são de responsabilidade dos seus autores. 2 REVISTA DE CIÊNCIA & TECNOLOGIA (Science na Technology Journal) is published twice a year by Universidade Metodista de Piracicaba (São Paulo – Brazil). It contains papers on scientific and technological issues. Manuscripts are selected through a blind peer review process. Editorial norms for submission of articles can be requested to the Editor. Aceita-se permuta / Exchange is desired. A Revista Ciência & Tecnologia é indexada por Revista de Ciência & Tecnologia is indexed by Base de Dados do Centro de Informações Científicas e Tecnológicas (Comissão Nacional de Energia Nuclear); Base de Dados do Ibge; Internacional Abstracts in Operations Research/IOR (University of Exeter); Periódica – Incide de Revistas Latinoamericanas em Ciencias (Unam); Subis (Sheffield Academic Press). EQUIPE TÉCNICA SECRETÁRIA Ivonete Savino ASSISTENTE ADMINISTRATIVO Altair Alves da Silva EDIÇÃO DE TEXTO Milena de Castro PREPARAÇÃO DE TEXTO Nilson César de Sousa CAPA Genival Cardoso IMPRESSÃO Sitta Gráfica e Editora Ltda. DTP E PRODUÇÃO Gráfica UNIMEP • Impresso em Duplicadora Digital Xerox Doutech 135 ASSINATURAS E REDAÇÃO EDITORA UNIMEP www.unimep.br/editora Rodovia do Açúcar, km 156 13400-911 – Piracicaba – SP Tel/fax: (19) 3124-1620 E-mail: [email protected] REVISTA DE CIÊNCIA & TECNOLOGIA V. 1 • N. 1 • 1991 Piracicaba, Editora UNIMEP Semestral / Twice a year 1- Tecnologia – periódicos CDU – 62 (05) ISNN 0103-8575 Dezembro • 2000 g y p RC&T 16 Editorial DIVERSIDADE E DESENVOLVIMENTO DAS CIÊNCIAS EXATAS E TECNOLÓGICAS Uma publicação voltada para as Ciências Exatas e Tecnológicas apresenta grande riqueza no que se refere à diversidade de assuntos que pode envolver. Essa riqueza, refletida nos artigos que a REVISTA DE CIÊNCIA & TECNOLOGIA apresenta no presente número, é parte fundamental da interdisciplinaridade e da transdisciplinaridade necessárias à principal proposta das Ciências Exatas e Tecnológicas: desenvolvimentos e aplicações voltados para as mais diferentes áreas. De forma mais específica para as áreas de interesse da Faculdade de Engenharia Mecânica e de Produção, o presente número da revista mostra que o ensino e a pesquisa nas áreas de Engenharia, especialmente aquelas voltadas para a manufatura, vêm tendo cada vez mais foco em alguns campos: gerência de produção, estratégias, automação, qualidade, projeto, novos materiais, meio ambiente, entre outros. As tendências gerenciais apontam para o envolvimento do engenheiro em equipes de trabalho como forma de consecução de objetivos estabelecidos dentro de estratégias competitivas. Estratégias como o uso de máquinas de tridimensionais na medição de peças, com vistas a assegurar a qualidade especificada em projeto; como a utilização de sistemas ICAD, de modo a otimizar a documentação resultante da concepção de produtos; e como o uso de controladores digitais, visando a automatizar e assegurar posicionamento em equipamentos de precisão. Essas estratégias devem também prever a utilização de novos materiais, cujo desenvolvimento e produção acompanhem uma política ambiental que possibilite a gestão de recursos ambientais, tanto no plano regional como em âmbito global. Nesse sentido, a REVISTA DE CIÊNCIA & TECNOLOGIA traz para o leitor um leque de artigos que privilegiam esses focos, importantes para a realidade de interdisciplinaridade e transdisciplinaridade das Ciências Exatas e Tecnológicas. Prof. Dr. MILTON VIEIRA JR. Diretor da Faculdade de Engenharia da Engenharia Mecânica da Produção/UNIMEP REVISTA DE CIÊNCIA & TECNOLOGIA • 15 3 g 4 y p Dezembro • 2000 g y p Sumário 9 PRODUCT ENGINEERING AND DESIGN USING GLOBAL TEAMWORK STRUCTURES Aplicação da Estrutura Times de Trabalho Globais na Engenharia de Produto PROF. DR.-ING. REINER ANDERL 19 ASSESSING THE ALIGNMENT OF COMPETITIVE PRIORITIES AND ACTION PLANS THROUGH THE USE OF QFD Alinhamento entre Prioridades Competitivas e Planos de Ação Através do Uso do QFD PAULO A. CAUCHICK MIGUEL, ROSÂNGELA M. VANALLE & ALCEU G. ALVES FILHO 31 ESTUDO E ESCOLHA DE METODOLOGIA PARA O PROJETO CONCEITUAL Research and Choice of a Methology for the Conceptual Desing FRANCISCO JOSÉ DE ALMEIDA 43 FONTES DE ERROS EM METROLOGIA A TRÊS COORDENADAS: CONSIDERAÇÕES GERAIS Error Sources in Coordinate Metrology: General Considerations ROXANA M. MARTINEZ ORREGO, BENEDITO DI GIACOMO & ALVARO J. ABACKERLI 57 DESIGN OF A DIGITAL CONTROLLER FOR A SUB-MICROMETRIC POSITIONING SYSTEM Projeto de um Controlador Digital para um Sistema de Posicionamento Submicrométrico WALTER LINDOLFO WEINGAERTNER, RICARDO COMPIANI TAVARES, CZESLAU BARCZAK & CARLOS A. MARTIN REVISTA DE CIÊNCIA & TECNOLOGIA • 15 5 g y p 65 LÓGICA MODAL APLICADA A GRAFO A EVENTOS Modal Logic Applied to Events Graph JOSÉ CARLOS MAGOSSI 77 CARRETÉIS EM CARBONO VÍTREO E AMIDO PARA A UTILIZAÇÃO EM GIROSCÓPIO A FIBRA ÓPTICA Vitreous Carbon and Starch Spools for Utilization in Fiber Optic Gyroscopes CYNTIA CRISTINA DE PAULA, ANDRÉ CÉSAR DA SILVA, ANTONIO GARCIA RAMOS, MIRABEL CERQUEIRA REZENDE & EDSON COCCHIERI BOTELHO 85 VANADIUM RECOVERY BY LEACHING IN SPENT CATALYSTS FOR SULFURIC ACID PRODUCTION Recuperação do Vanádio Contido em Catalisadores Gastos na Produção de Ácido Sulfúrico JOSÉ LUÍS MAGNANI, GEORGE CURY KACHAN & NEWTON LIBANIO FERREIRA 91 RHEOLOGICAL BEHAVIOR OF PINEAPPLE AND MANGO PULPS: EFFECT OF THE MEASURING SYSTEMS Comportamento Reológico das Polpas de Abacaxi e Manga: Efeito do Sistema de Medidas DANIELA HELENA PELEGRINE GUIMARÃES & CARLOS ALBERTO GASPARETTO 97 GESTÃO AMBIENTAL: UTILIZAÇÃO DE SISTEMA DE INFORMAÇÃO GEOGRÁFICA (SIG) NA IMPLANTAÇÃO DE UM ZONEAMENTO PARA ATIVIDADES INDUSTRIAIS NO MUNICÍPIO DE PIRACICABA Environmental Management: Use of Geographic Information System (GIS) in the Implementation of an Industrial District in Piracicaba JOÃO MORENO & TAISE LITHOLDO 6 Dezembro • 2000 g y p 107 DO DEBATE CIENTÍFICO À POLÍTICA PÚBLICA: POLARIZAÇÃO DAS DISCUSSÕES ACADÊMICAS ENTRE BIÓLOGOS NOS ANOS 70 E INSTRUMENTALIZAÇÃO ECONÔMICA DAS POLÍTICAS AMBIENTAIS From Scientific Debate to the Public Policy: the Polarisation of Academic Discussions Among Biologists in the 70’s and the Economic Instrumentation of Environmental Policies ROSANA ICASSATTI CORAZZA 119 DISSERTAÇÕES REVISTA DE CIÊNCIA & TECNOLOGIA • 15 7 g 8 y p Dezembro • 2000 g y p Product Engineering and Design Using Global Teamwork Structures Aplicação da Estrutura Times de Trabalho Globais na Engenharia de Produto PROF. DR.-ING. REINER ANDERL Fachgebiet Datenverarbeitung in der Konstruktion Technische Universität Darmstadt [email protected] ABSTRACT – Product engineering and design projects organized around the world following the sun, is a vision for the improvement of the product development process. This method of product development has the advantage that tasks can be worked on over 24 hours a day. The distribution of product development tasks enables companies to use the best competence of experts all over the world and to meet the requirements of different markets closer. Therefore product development processes are not only performed centralised at one location. Rather these development processes will be performed around the world in order to create high quality products by lower costs and in shorter time. Due to the increasing globalisation and internationalisation, the distribution of development tasks will become even more important in the future. On the other hand partners in a distributed product development process have to manage challenges concerning the intensity of collaboration, the flow of information and the engineering and design knowledge as well as cultural differences. For the planning and optimisation of distributed development processes it is neccessary to apply methods and tools for a virtual product development. The presentation will explain the new methods for cooperative virtual product development and will show how product data technology is being used. Conclusions will be given indicating future trends in introducing cooperative virtual product development into industry. Keywords: COOPERATIVE VIRTUAL PRODUCT DEVELOPMENT – DIGITAL MOCK-UP – PRODUCT DATA TECHNOLOGY – DESIGN AROUND THE WORLD AROUND THE CLOCK. RESUMO – A engenharia de produto e o desenvolvimento de projetos são hoje realizados mundialmente, o que impõe o melhoramento do processo de desenvolvimento de produtos. Essa nova metodologia oferece a vantagem dos novos projetos poderem ser trabalhados 24 horas por dia. A distribuição de tarefas no desenvolvimento do produto permite que as empresas procurem os melhores especialistas do mundo e atendam melhor os requisitos dos diferentes mercados. Portanto, o desenvolvimento de produto na era atual não é mais realizado de maneira centralizada em uma localidade, mas realizado ao redor do mundo, de maneira a obter produtos de alta qualidade, com baixos custos e em tempos menores. Devido ao crescimento da globalização e da internacionalização, a distribuição de tarefas se tornará cada vez mais importante. Por outro lado, os parceiros envolvidos no processo de desenvolvimento distribuído do produto necessitam gerenciar as mudanças relativas à intensidade da colaboração, ao fluxo de informações e à tecnologia envolvida na engenharia e no projeto, assim como às diferenças culturais. Para o planejamento e otimização do processo de desenvolvimento distribuído é necessária a utilização de métodos e ferramentas para o desenvolvimento virtual do produto. Este artigo irá apresentar os novos métodos para o desenvolvimento cooperativo e virtual do produto e mostrar como a tecnologia de dados do produto pode ser usada. As conclusões indicarão as futuras tendências na introdução do desenvolvimento cooperativo e virtual de produtos na indústria. Palavras-chave: DESENVOLVIMENTO VIRTUAL E COOPERATIVO DO PRODUTO – MODELO VIRTUAL DO PRODUTO – TECNOLOGIA DE DADOS DO PRODUTO – DESIGN AROUND THE WORLD AROUND THE CLOCK. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18 9 g y p TRENDS IN PRODUCT DEVELOPMENT T he rapid technological development of powerful information and communication technologies (ICT) has a major impact on enterprises and on their business processes. Along with globalization and internationalization, information and communication technologies are changing the working culture, the enterprise organization and the workflow. The main changes are: • from a paper based working culture to a working culture based on digital models; • from 2d presentation based decisions to decisions based on virtual product development and virtual manufacturing using the integrated product model and; • from a tayloristic organization to a holistic organization based on product and process data management. The changes are effecting each and every enterprise and they are influencing their competitiveness with respect to the development and production of attractive and high quality products, fast reaction to market requirements and efficient cooperation with partner and supplier enterprises (fig. 1). To react to these challenges, the analyses of best in class enterprises and best practice processes has become an ongoing task. Traditionally product development and production processes are managed through decisions drawn on information available on various paper documents. Such documents are e.g. technical drawings, bills of materials, purchase orders and many more. Most of these documents are standardized either based on international, national or company specific standards. These documents have been defined for various purposes such as being an information carrier, a communication and an archiving media as well as a media for knowledge presentation. Therefore each company has to manage the wide variety of its documents due to fulfill the requirements of quality management standards as defined by the ISO-standards 9.000 ff. Furthermore the work-flow organization of companies has been defined based on the definition of such documents. The introduction of computer technology in technical departments of enterprises has been used first to support the creation of these documents. Computer technology, however, more and more has automized the document creation process and even goes beyond document creation by providing digital models and in particular product models, which represent products by a desciption of their characteristic aspects such as geometry, functionality and behaviour. Fig. 1. Cooperative virtual product development. 10 Dezembro • 2000 g y p The application of computer systems in the product engineering and design process covers a number of application software systems further on called CAX-systems, where CA means “computer aided” and X indicates the application domains such as design, engineering, planning, manufacturing etc. The integrated product model is a very important basis and prerequisite for the integration of application software systems. The integrated product model is designed to represent all product data, which are being described during the phases of the product life cycle. An integrated product model is available today either as the international standard ISO 10.303 “Product Data Representation and Exchange” (also known as STEP, Standard for the Exchange of Product Model Data) or as IT-vendor specific implementations of integrated application systems. Product development is based on product engineering and design. Resulting from the requirements specification the functionality, the physical and logical behavior of the product is defined. Engineering includes e.g. shape design and dimensioning, material definition and stability-, stress- and durability analysis as well as the simulation and testing of the product’s physical and logical behavior. The product development phase is strongly profiting from the application of information technology (IT). Parameterized 3D-CAD, digital mock-up and rapid prototyping technologies and more and more cooperative design systems supporting concurrent design and simultaneous engineering have strongly improved the product development process. An essential approach of the integrated product model is the availability of product data including product definition data, product representation data and presentation data, a basic approach in the ICT(information and communication technologies) based electronic business (fig. 2). Product definition data include the set of information about a product covering all its administrative and organizational data. Product representation data include the set of information representing product characteristics in a computer process able data structure. Product presentation data include the set of information, which visualizes the product representation in graphical or alphanumerical form. The essential advantage is that modifications can be defined using the product presentation but the changes directly effect the product representation from where the updates of the product presentations are generated quickly. This approach also guarantees the consistency of the various presentations. In case of producing documents as presentations (such as technical drawings, part lists etc.) derived from representations the consistency of the documents due to changes is automatically provided. Fig. 2. Product definition data, product representation data and product presentation data. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18 11 g y p The organization and the management methods for product development also change. This change leads from a tayloristic organization to a holistic organization based on project management. This also includes the participation of cooperating companies. The holistic approach defines projects, which integrate experts coming from various departments and cooperating companies in project teams. This leads to a matrix organization where engineers are reporting to the department leader and the project leader. The projects are defined to optimize a product development process with respect to reach the optimal product quality, to meet the cost objectives and to optimize the product development time. The product development time has become one of the most important success factors for the competitiveness of a company. It strongly influences the time to production and the time to market. Modern management methods for product development understand engineering and design as a process, which is part of a product creation project. Such management methods are concurrent design and simultaneous engineering. Both methods are dedicated to meet the objectives of a holistic understanding of the product creation process and strongly require approaches, methods and tools for cooperative virtual product development. METHODS FOR VIRTUAL PRODUCT DEVELOPMENT A number of powerful application software systems are being used for virtual product development. These application software systems require a working style based on one or more digital models ideally based on the integrated product model. That is why this product development process is called virtual product development. In Virtual Product Development, the product development process uses knowledge based CADapplications in early design phases for preliminary design and in particular parametric 3D-CAD-systems for shape design. Besides the geometric product representation and the representation of the product structure, 3D-CAD-systems also cover product data such as material data, technology data and so-called features. The information represented in the integrated product model is used by successive application software systems for further processes (fig. 3). Fig. 3. Overview of application software systems for Virtual Product Development. 12 Dezembro • 2000 g y p Fig. 4. Process chains in virtual product development. CAD-systems are often interfaced with Digital Mock Up systems (DMU-systems). They use the product structure and an approximation of the geometric representation and assess these data sets by kinematic data. This enables an analysis of the kinematic behaviour of the product as well as the analysis of assembling and disassembling processes. Physical product data typically are not represented in DMU-systems. Virtual prototypes contain physical product data with respect to their application specific domain, such as mechanics, electrics, electronics and also logics (e.g. represented through software). Virtual prototypes typically are using finite element analysis systems (FEA-systems) and multi body simulation systems (MBS-systems). These systems are used for the analysis and the simulation of the physical product behaviour. The virtual product is a digital product model covering the data sets generated through the application of the CAD-system, the DMU-system and the virtual prototype system. The development of virtual product analyses and simulation systems are of interest in research. Such a research initiative has been established as the iViP project (intelligent virtual product development /KRA-99/), where virtual reality is used for simulating the products behaviour. The Virtual Factory uses the principles of the Virtual Product to analyse and to simulate the manu- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18 facturing, assembling and testing processes. Such approaches are e.g. developed for the virtual machine tool /Weck-1999/ and the virtual manufacturing process. Besides these analysis and simulation tasks other objectives have to be covered in a product development process. Therefore so-called process chains have been established with respect to support successive application areas (fig. 4): Such process chains use the product data generated through the engineering, development and design process and interface successive application systems. Such systems are technical product documentation (TPD-systems), computer aided planning and NC-programming (CAP and NC-systems) and enterprise resource planning (ERP-systems). As virtual product development is not restricted to only one discipline such as mechanics, more disciplines have also to be integrated which requires multidisciplinary cooperative product development and design. COOPERATION APPROACHES, METHODS AND TOOLS As cooperation becomes an issue for an innovative product development and design, cooperation approaches, methods and tools have to be analyzed. With respect to the approaches, the the- 13 g y p ory of product development and design leads to two important management concepts for cooperation in the product development and design process. These concepts are concurrent design and simultaneous engineering. Concurrent design and simultaneous engineering are understood quite similar in the industrial environment. To clarify the basic concepts of both methods, however, the two methods are explained for their own. Typically combinations of both methods are used in industrial practice. Concurrent design is dedicated to structure a complex design task into subtasks and to execute the subtasks concurrently by the engineering and design team. This procedure uses methods of project and process management such as task decomposition and description, scheduling, milestone definition and synchronization (fig. 5). Other objectives of concurrent design are the coordination of the collaborating engineers and designers, the availability of the product and design specifications for the team members as well as the availability of the know how of successive processes to perform design for x (DfX) which means design for manufacture, assembling, testing etc. While concurrent design is mainly dedicated to the engineering and design process, simultaneous engineering takes into account the whole product creation process. In particular production planning and production are part of simultaneous engineering. The approach is not to pass through the product creation process in a sequence of successive activities but to organize the execution of the various activities simultaneously (fig. 6). The approach of simultaneous engineering is to allow the access to stable prerelease engineering and design results at a point in time when the whole engineering and design solution is not available, yet. This approach is very important with respect to a number of activities in the product creation process e.g. with respect to develop product design and tool design simultaneously. The advantage of simultaneous engineering is a much better coordination of e.g. the development of the product and the necessary tools, which leads to significantly better products, faster time to production and lower costs. Simultaneous engineering also requires the methods of project and process management. The collaboration mostly also involves several companies, which have to be integrated into the simultaneous engineering process. This requires intensive communication and adequate management of the collaboration. Fig. 5. Concurrent design. 14 Dezembro • 2000 g y p Fig. 6. Simultaneous engineering. Often concurrent design and simultaneous engineering methods involve engineers and designers who are locally distributed. Therefore methods and tools of computer supported cooperative work (CSCW) are needed. These methods and tools allow the collaboration of engineering and design teams even if the team members are distributed over various locations. The CSCW methods allow the establishment of tele-conferences enabled by computers and use methods that are typically distinguished in aware and unaware applications. Examples of aware applications are e.g. distributed sketchpads and multimedia conferencing methods. The distributed viewing software like a distributed 3d-viewer is an example for such an unaware CSCW application (fig. 7). Fig. 7. Cooperative virtual product development using CSCW-tools. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18 15 g y p Fig. 8. One cylinder test engine as approved in the cooperative design project. In this context branch focused digital communication more and more is established through so-called virtual private networks. The goal is to enable new business opportunities and to increase the competitiveness of participating enterprises. Such virtual private networks are e.g. the ENX (European Network Exchange) and the ANX (Automotive Network Exchange, an US American automotive initiative). These activities are dedicated to the automotive industry integrating also its suppliers [ENX-00]. Taking into account concurrent design and simultaneous engineering as well as distributed collaborative engineering and design it becomes obvious that the management of engineering and design projects and processes is a key success factor for the company’s competitiveness. Therefore application software systems for the support of the management of engineering and design processes are of crucial importance. Such application software systems are called product data management (PDM) systems and a major strategic task for companies is to establish an efficient product data management. A CASE STUDY A case study, sponsored by BMW AG, was performed to develop an innovative concept for a one-cylinder test engine using cooperative development and design methods within team members from the USA and Germany. In this case study the potential of a 24 hours development has been anal- 16 ysed with respect to a reduction of the development time, a reduction of development costs and an improvement of the development and design quality. The case study was performed with team members coming from BMW AG (Munich), Technical University Munich, Clemson University (USA) and Technical University Darmstadt. The team members worked at each location. The task was to develop an efficient concept for the one cylinder engine including a variable stroke. The task was analysed and divided into several but well defined subtasks, which have been worked on partially in parallel but mainly sequentially. The intermediate results have been exchanged daily at noon between the team members in Germany and at 5 p.m. (local central European time) between the team members in the USA and Germany using tele-conferencing techniques. 5 p.m. central European time is equivalent to 9 p.m. US east coast time. So the team members from Clemson used the results from the German teams and continued the development and design work. At 9 p.m. central European time (1 p.m. US east coast time) another tele-conference took place where the daily milestone achievement was analysed and further decisions were drawn. A critical success factor for a further proceeding was at any time the documentation of the results achieved. This documentation had to be available in digital form because digital communication via the Internet and access to results at any time has been of crucial importance. Dezembro • 2000 g y p At the beginning of the case study nobody expected that the result of this 3-months project would lead to more than a conceptual result. The results and progress, however, were so convincing that a complete 3D geometric model was created (fig. 8) and a first prototype was built. These convincing results will further be used in successive projects. CONCLUSIONS Cooperative virtual product development and design is an increasing challenge for industrial companies. Due to the globalisation of markets and the internationalisation of enterprises cooperative vir- tual product design will make an intensive use of the internet and intranet communication technologies and will require more powerful cooperative development and design tools from the information technology industry. A strongly upcoming issue, however, is the provision of secure and safe communication techniques. Development and design results often contain new and innovative product ideas that must be kept secretly until the property rights or even patents are guaranteed for the enterprise. Therefore cryptographically coding and decoding methods as well as authentification methods are of crucial importance for cooperative virtual product design. REFERENCES [ENX-00] N.N. European Network Exchange, <www.enx.de>. [ANX-00] N.N. Automotive Network Exchange, <www.anx.com>. [GEN-99] SAUER, A. GEN –The Vision of 1995 heads towards Reality; Proceedings: Concurrent Multidisciplinary Engineering (CME). Bremen, 1999. [KRA-99] KRAUSE, F.L.; TANG, T. & AHLE, U. Integrated Product Creation; Project Description IPK Fraunhofer Institute Production Systems and Design Technology, 1999. [ALTG-99], R.; LINDEMANN, U.; THOMSON, B.; GAUL, H.D.; GIERHARDT, H. & OTT, T. Investigation of Distributed Product Development Processes. In: Proceedings of the 12th International Conference on Engineering Design, München, 24.-26.08.1999/ Udo Lindemann, Herbert Birkhofer, Harald Meerkamm, Sándor Vanja (Hrsg.). München: TU München, 1999, S. 3/1675-3/1678. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 9-18 17 g 18 y p Dezembro • 2000 g y p Assessing the Alignment of Competitive Priorities and Action Plans Through * the use of QFD Alinhamento entre Prioridades Competitivas e Planos de Ação Através do Uso do QFD PAULO A. CAUCHICK MIGUEL Universidade Metodista de Piracicaba [email protected] ROSÂNGELA M. VANALLE Universidade Metodista de Piracicaba [email protected] ALCEU G. ALVES FILHO Universidade Federal de São Carlos [email protected] ABSTRACT – This paper deals with the issue of strategic planning in which QFD is used to assessing the alignment between manufacturing priorities and action plans through an exploratory case study. On the basis of manufacturing competitive priorities obtained in a previous study, a quality matrix is applied to relate competitive priorities and action plans. The case study is performed in an automotive industry supplier which produces brake systems. The results of the QFD matrix is used to discuss the competitive priorities and verify the consistency with their action plans. Keywords: COMPETITIVE PRIORITIES – QFD – QUALITY FUNCTION DEPLOYMENT – STRATEGIC PLANNING. Resumo – Esse trabalho aborda o tema do planejamento estratégico no qual o QFD é usado para verificar o alinhamento entre as prioridades de manufatura e planos de ação, através de um estudo de caso exploratório. Com base nas prioridades competitivas de manufatura, obtidas através de um estudo anterior, uma matriz da qualidade é elaborada para relacionar as prioridades competitivas com os planos de ação. O estudo de caso é realizado em um fornecedor da indústria automotiva que produz sistemas de freio. O resultado da matriz de QFD é usado para discutir as prioridades competitivas e verificar a consistência com os respectivos planos de ação. Palavras-chave: PRIORIDADES COMPETITIVAS – QFD – DESDOBRAMENTO DA FUNÇÃO QUALIDADE – PLANEJAMENTO ESTRATÉGICO. * Most part of the contents of this work was presented at the 11th Symposium on Quality Function Deployment, held in Novi, MI, USA, 12-18 June, 1999. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 19 g y p INTRODUCTION T he process of formulating Manufacturing Strategies has long been recognized as constituting an important gap in this area’s theoretical development. Leong et al. (1990), for instance, pointed out the need for empirical studies aimed at clarifying how organizations prepare their manufacturing strategies. Mills et al. (1995) argued that perfecting processes for the development and implementation of strategies is still a significant challenge for researchers and professionals. Two principal factors account for the lack of more systematic studies (both theoretical and empirical) on Manufacturing Strategies formulation processes: the as yet restricted dissemination of the concepts concerning this area and, as a result, the difficulties involved in finding organizations that consciously and implicitly attempt to implement Manufacturing Strategies. It must be admitted that other approaches, such as Total Quality Management (TQM) and Computer Integrated Manufacturing (CIM), or even Lean Manufacturing, albeit a part of manufacturing strategies, have been implemented more frequently and systematically by companies. Systematization of formulation processes, therefore, also requires a number of studies over a long period of time, since there are numerous and complex factors that condition and determine the processes (both formal and informal) of formulation of strategies in companies, as well as the implementation of those strategies. These difficulties, however, have not prevented the proposal of conceptual structures and methods for the formulation of manufacturing strategies by several authors, while continued efforts are directed at the study of the “practice” of strategic manufacturing planning. The basic objective of this work is to define a procedure to relate manufacturing strategies and programs (action plans) to achieve them. Moreover, these programs should be prioritized. In order to complete these tasks, QFD methodology is applied. Although QFD has been applied for mainly product development, it is applied here for analysing strategies and studying the QFD application as a potential tool applied to strategic planning formulation. The process were conducted based on a previous study, 20 through collected data of two autoparts companies. The main methods and conceptual structures proposed for manufacturing strategy processes in the literature are briefly reviewed as well, followed by the QFD proposed application. APPROACHES TO MANUFACTURING STRATEGY FORMULATION There appears to be a consensus in the literature about the importance of formulation and implementation of Manufacturing Strategies for companies, which aim to base corporate strategy on the search for competitive advantages. Most of the literature has focused on the “content” of manufacturing strategies, i.e. competitive strategies, areas of decision, and programs/action plans for development of competitive strategies in manufacturing. On the other hand, the “process” of formulating manufacturing strategies has received less attention and still merits deeper study. Some of the most significant contributions on this process are highlighted below. Mills et al. (1995) seek to enumerate and discuss the different factors that may influence the process of Manufacturing Strategy formulation and, hence, the project of the formulation process, based on a conceptual structure where this process is contingent on the model of the Manufacturing Strategy “content” adopted. In other words, how a company envisions its competitive strategies and the manufacturing decision areas, the qualities required to achieve the desired results of the process, the company’s internal and external context. These two latter aspects are based on the strategy process modes (entrepreneurial, planning, ideological, adaptive, or grass roots – generative), cultural factors and competitive forces that are present in the company’s market structure. Four aspects listed by Platts (1994) for the process of manufacturing strategy formulation are part of this broader structure: point of entry (what leads a company to implement the process of preparing its manufacturing strategies?), participation (who participates in the process?), procedure (auditing, action plans and implementation), and the project and process management (how the imple- Dezembro • 2000 g y p mentation project and processes should be managed). Of these aspects, the present study covers manufacturing strategy procedure. A brief description of the principal methods listed in the literature for manufacturing strategy formulation is given below. The Hill Approach The Hill approach (Hill, 1993) consists of a five-step procedure. The first step involves understanding the organization’s long-term corporate goals in light of the future manufacturing strategy contribution toward those goals. Each company goal is different in nature and emphasis, reflecting the character of the economy, markets, opportunities, and the preferences of those involved. The second step consists of understanding how the organization’s marketing strategy has been developed to attain corporate goals, identifying the product and service markets that must be satisfied by the manufacturing strategy. Additionally, characteristics of those products and services, such as the extent, mix and volume that manufacturing are required to supply, should be identified. The third step is to evaluate how different products will “qualify” in their respective markets and how they will be order winners in relation to their competitors. The task of a manufacturing strategy is to provide the criteria needed to qualify a company’s products to get orders from the market more and better than the functions of its competitors’ manufacturing does. To qualify, a company must be as good as its competitors. To get orders, it must be better than its competitors. Qualifying is no less important than getting orders – they are two different things. Both are essential if the company wishes to maintain its market position and grow. The fourth step establishes the most suitable process to manufacture these products (choice of process). Its objective is to define a set of structural manufacturing characteristics that are mutually consistent and suited to how the company wishes to compete. In other words, manufacturing must chose from a number of process alternatives to manufacture its products. The fifth step, which consists of non-process manufacturing characteristics, must provide the REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 infrastructure needed to support the manufacture of these products. It covers the procedures, systems, controls, work structure, organizational structure, and others involved in non-process aspects of manufacturing. The objective of using this structure is to produce a Manufacturing Strategy for a business (steps 4 and 5). In every instance, this includes a review of both existing and new products. Moreover, this review is based on current and future market expectations, since manufacturing must provide support for the product (i.e. aftersale services) throughout its lifecycle and not just part of it. This methodology is not restricted to a simple sequential progression of step 1 through 5, although, during the formulation process, the emphasis does move in that direction. Conversely, Hill (1993) sees the process as interactive, while managers alternate between an understanding of the organization’s long-term strategic needs and the specific development of resources required to support the strategy. In this interactive process, identification of the competitive factors of step 3 is seen as critical. In this step any divergence between what the organizational strategy demands and what manufacturing can supply comes to light. The Platts-Gregory Approach The Platts-Gregory approach (Voss, 1992) contains a theoretical contribution for a better understanding of the elements of a process of strategy formulation, generating a prescriptive model for manufacturing strategy. An analytical and rational process structure is adopted that provides an auditing methodology to enable companies to develop their manufacturing strategies. The auditing procedure aims, through a logical procedure, to lead the user to identify the objectives of manufacturing, its current performance levels, and the changes that will be required. The procedure is divided into three steps: The step 1 develops an understanding of the organization’s market position. This is done by evaluating the company opportunities in and threats from its competitive environment. Specifically, it seeks to identify market demand factors (characteristics, quality, delivery, flexibility and price) and 21 g y p compare them with the level of performance achieved (how manufacturing responds to these factors to meet market demands). The objective of the second step is to evaluate manufacturing capabilities (facilities, capacity, scope of the process, processes, human resources, quality and control policies, suppliers and new products). Its purpose is to identify current manufacturing practices and evaluate the extent to which these practices help the company achieve the kind of performance that has been indicated in step 1 as being important. Step 3 deals with the development of new manufacturing strategies. It involves reevaluation of the different options available to the organization and selection of those that best meet the criteria identified in the two previous steps. The audit can be done using worksheets for each stage of the process (such as the need to review manufacturing strategy, selection of product families that are the most significant ones for the business, identification of important competitive criteria, identification of areas where fragility contributes to unsatisfactory performance or vulnerability, identification of opportunities and threats, developing alternatives to form the basis of a new strategy). The worksheets also permit tracing strategic choices and action plans; the logic and data of the analytical part of the process are stored and can be reviewed periodically to check if the strategy basis is still adequate. The Slack Approach Slack (1991) states that there are several ways of grouping together the stages of strategic formulation and that the procedures tend to follow a like pattern and to share a common philosophy, known as the gap methodology, which consists of four steps. The first step consists of establishing manufacturing objectives. The starting point for any functional strategy is to examine its role in improving competitiveness as a whole. The competitive strategy must be translated into manufacturing objectives, which should result in a clear set of objectives for the competitive performance of each product or group of products, and a vision of the future that distinguishes between the manufacturing function’s 22 capacities that will need to be developed and those that could require development. The objectives should be determined by consumer needs. The customers define what is important for manufacturing. Their needs must be translated by manufacturing strategy directly to the shop floor level. Customer priorities should be manufacturing priorities, and customer concerns should be manufacturing preoccupation. This means evaluating the relative importance of each of the objectives of manufacturing performance. Some type of scale of relative importance must be established to aid this process. This is done based on the customer point of view, where the relative importance of each performance objective can be indicated for each product or group of products. The performance objectives can be classified as “order winners”, “qualifiers”, and “less important”. An operation will normally require use of a more discriminating scale to judge the relative importance of the competitive sectors, i.e. it will have to divide each category into three, representing strong, average and weak positions. The second step should evaluate the real performance achieved by the manufacturing function. Within a strategic context, performance measurements (price, quality, flexibility, reliability of delivery, time) only take on any degree of significance when they are compared against competitor performance. Each performance objective must be placed in a relative position on some kind of scale. This scale must indicate, for each performance objective, whether the performance is better, the same, or worse than that of its major competitors. However, again, more rather than less discrimination is often useful. Slack (1991) proposes a nine-point scale. The third step consists of prioritization through the importance/performance gap. It is the gap between the classification of the importance of each performance objective and the classification of the performance of that objective that is the guide to the establishment of priorities. The priority for improvement that should be given to each competitive factor can be evaluated based on its importance and its performance. This can be done through an importance-performance matrix that, as its name denotes, positions each competitive factor accord- Dezembro • 2000 g y p ing to its scores or classifications within these criteria. The matrix considers the two scales that should be developed in steps 1 and 2. The “importance” scale indicates how customers see the relative importance of each performance objective, while the “performance” scale classifies each performance objective against the levels achieved by the competition. It must be kept in mind, however, that no scale is static – both scales classify the positions in relation to a dynamic external standard. Customer preferences change as the market develops and the economic environment is altered. Hence, in the same way, it is highly improbable that the competitors remain immobile. The importance/performance matrix is divided into four zones. These zones locate the performance of each competitive priority. By means of this location, it is possible to make a comparison between the importance and the performance of the objectives. This serves as an important guide to indicate which, among the several aspects of performance, requires improvement and how urgent such improvement is. It does not, however, indicate how performance should be improved. The fourth step consists of the development of action plans. The entire operational staff should be involved in and responsible for the creation of a set of imaginative and practical action plans. A useful approach is to examine the influence that each area of activity has on each performance objective. Starting with the highest priority of the performance objectives, this means asking what contributions toward improvement could derive from changes in operation process technology, in the operation’s organization, in the development of its human resources and in its supply chain, in terms of both information and material flow. Slack (1991) also states that often lack of success comes in the state of implementation, which is the most difficult one. A schedule for implementation must be established, as well as a list of general issues, the solutions to which will be used to establish the basic plan for implementation. The issues to be considered are: “when is the best moment to start?”, “where, within the organization, could REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 improvement begin?”, “at what speed should the program be developed?”, and “how should the process of improvement as a whole be coordinated?” The procedures for formulation described herein are, generally speaking, representative of those available in the literature, although they present different emphases. One example of this is that: while the Hill (1993) methodology emphasizes the development of a manufacturing strategy based on the point of view of competitive consumer factors, Platts-Gregory (Voss, 1992) makes a comparison between what the market wants and the performance of manufacturing. Hence, it is similar to the importance/performance matrix developed by Slack (1991). QFD APPLICATION IN STRATEGIC PLANNING – A BRIEF REVIEW QFD has been applied in a wide range of subjects; not only for developing products and services but also for defining organizational structures (e.g. see Jacobs & Dygert, 1997; and Hales, 1998). QFD can also be used in strategic planning, although there are differences when applying it to developing manufacturing strategy and resolving manufacturing strategic issues. Table 1 highlights these differences. Further discussion regarding table 1 can be found in Crowe & Cheng (1996). However, it is worth mentioning that the authors argue that in the product design process, customers’ requirements and preferences are somewhat more static in nature, whereas in competitive business environment, the competitive priorities are more dynamic. In some cases such an affirmation is not entirely true, i.e. there are industrial sectors where the product design process must be very dynamic such as in the computing and software industries. Figure 1 illustrates the three phases of strategic planning through the use of QFD, as suggested by Crowe & Cheng (1996). These phases are: functional strategies, manufacturing priorities, action plans, and detailed tasks. 23 g y p Tab. 1. Fundamental differences between product design and strategic planning (Crowe & Cheng, 1996). PRODUCT DESIGN STRATEGIC PLANNING Input data Number of translation phases Information nature Translation data Evaluation scale Team members Output Project risk Customers' requirements Four clearly defined phases Static Easy to define and quantify Specific target values for each design attribute Implementation engineers Corporate and business strategy Multiple phases Dynamic Difficult to define and qualify Strategic objectives and goals Top management, functional level managers and implementation engineers Specific process for manufacturing the Manufacturing initiatives, tactical policies and detail tasks product Generally lower Generally higher Fig. 1. Manufacturing strategic planning (adapted from Crowe & Cheng, 1996). As discussed by Crowe & Cheng (1996), in the first stage all functional level strategies are realised and they become the whats for the next stage. In the second stage, all parallel functional level strategies are their potential customers. For example, marketing requirements can be an input to the QFD matrix and the output would be a set of manufacturing priorities to fulfill the requirements. In the third stage, broad manufacturing priorities are translated into detailed action plans for implementation. The last stage is identifying specific tasks to realise the plans. As can be seen in figure 1, the structure of the house of quality is also different from that used in product design. 24 Other authors mention that QFD has been successfully applied in strategic planning. It can be cited the work of Maddux et al. (1991), Lyman et al. (1994), Lu & Kuei (1995), and Lowe & Ridgway (1997). Next section presents an exercise of a QFD application to relate competitive priorities and action plans. QFD APPLICATION IN STRATEGIC PLANNING – A CASE STUDY It is relatively well-known that organisations must define their corporate strategies in order to be competitive in the current fierce economic environment. Some authors have stated that there is a gap Dezembro • 2000 g y p between corporate strategy and manufacturing. To extent this, many companies do not have explicit manufacturing strategies even though the importance of such strategies is appreciated. To extend this yet further, there should be an effective way to deploy their corporate strategies into manufacturing strategies, and the manufacturing strategies into programmes. Many approaches have been proposed for manufacturing strategic planning, but few systematic methodologies have been developed. Quality Function Deployment (QFD) can be used as a systematic tool to apply for both strategic formulation and to deploy them into manufacturing strategies. This section examines an exploratory study in which QFD is used to strategic planning formulation. A QFD matrix is used to relate the manufacturing strategies and programmes to achieve them. As mentioned earlier, companies do not have a precise definition of their manufacturing strategies even though the importance of such strategies is recognised. The main objective of this study was to develop the application of QFD methodology in order to relate the company stated manufacturing strategies with its programs (action plans). Subsequent aim was to compare the achieved results to a previous work carried out by Vanalle & Alves Filho (1997). This work (Vanalle & Alves Filho, 1997) also served as source of data from the companies. The process resulted in the matrix of quality presented later. The matrix was used to quantify the relative importance of company programs the manufacturing priorities fulfill. The study has been conducted with two companies named here “A” and “B”. Company “A” is the one where the analysis were performed while company “B” is the competitor used for comparative purpose. Company “A” supplies brake systems for Chrysler (export), Ford and General Motors (for both export and local market), and other automotive manufacturers (e.g. VW). Approximately half of the company’s turnover comes from contracts with the US big three companies. The company has two plants which produces brake discs, callipers, servo cylinders, wheel and cylinders, brake assembly, and air compressors for heavy vehicles (buses and lorries), and ABS brake systems. Besides the REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 Brazilian plants there are one in the USA (the company is there since 1981 but the plant is more recent), and another one in Argentina (since 1991). Both companies are within the automotive sector; they supply to the OEM in Brazil and abroad, e.g. General Motors, Volkswagen, Fiat, Scania, Volvo, Ford (USA), Chrysler, Toyota, and others. They also supplies to aftermarket. Table 2 shows information about the two companies. Tab. 2. Profile of the companies. COMPANY "A" (STUDIED COMPANY) Annual Turnover (million US$) Approximate Number of Employees Year of foundation Market share Export Sales Domestic Sales COMPANY "B" (COMPETITOR) 221 100 2000 800 1945 35% 35% 65% 1950 60% 10% 90% Traditionally, QFD has been applied to product development by translating customer requirements to critical design characteristics, component characteristics, process control characteristics, and operational instruction (considering here as the four-stage approach presented by Hauser & Clausing 1988). However, when QFD is used in strategic planning, there is a different perception of these concepts. Broad manufacturing priorities should be translated into programs or action plans for implementation. This is the third stage identified by Crowe & Cheng (1996) as four stages of QFD exercise for manufacturing strategic planning. Descriptors collected from company “A” for analyzing manufacturing priorities criteria were: • low price; • reactive to market (mix); • reactive to customer orders; • fast design changes; • fast product distribution; • reliable product distribution; • production technology updating; • customer service department; • consistent quality (conformity); • high quality products. They can be grouped into the broad manufacturing priorities defined by Hayes & Wheelwright 25 g y p (1984): cost, services, flexibility, and quality, becoming the first level in the quality table (see table 3). The company representatives also weighted the manufacturing priorities criteria using a rate of importance, as can also be seen in table 3. Note that the criteria were ranked from cost (5) to quality (2). This rank implies that cost are the most important priority and quality the least. The company representative, who has a good knowledge and understanding of the process, provided the rates. Is must be mentioned that quality is the least important priority since company “A” has already achieved a reasonably high level quality either in its products or in its quality system. For instance, the commitment of company “A” with quality system certification can be traced back to 1986, when it received Ford Q1 certificate. The company initiated the ISO 9000 certification in the beginning of 90’s and the first plant was certified in October 1992. For QS 9000 certification, the previous ISO 9000 experience allowed a more smoothly process since the company has already had its own approach to QS 9000 process of certification (Cauchick Miguel, 1998a, 1998b). Tab. 3. Quality table for manufacturing priorities. LEVEL 1 LEVEL 2 IMPORTANCE Cost Flexibility Services Quality Low price Reactive to market (mix) Reactive to customer orders Fast design changes Fast product distribution Good customer relation Reliable product distribution Product technology updating Manufacturing technology updating Customer service department Consistent quality (conformity) High quality products 5 5 4 3 3 3 3 3 3 2 2 2 The next step, applying the conventional approach, the manufacturing priorities would have to be translated into detailed action plans for implementation. However, this was not the case in this study, since these plans were available, i.e. the studied company has already implemented a number of action plans (programs). Generally speaking, companies do not have clearly stated what their manufacturing priorities are, so that they usually implement a 26 number of action plans in various company functional areas. This study intends to check the consistency of the implemented programs (action plans) regarding the manufacturing priorities in addition to understanding the interaction between programs and manufacturing priorities. Some of the action plans took in place were: • labour training; • work automation; • flexible manufacturing systems; • computerized information system for manufacturing; • production and inventory control; • performance measuring system; • statistical process control; • quality control circles; • improved capacity of new products introduction. Having both information, i.e. the set of the manufacturing priorities and the group of programs, the matrix of quality can be constructed. This matrix is shown in figure 2. The relation between the manufacturing priorities and programs were identified. They were ranked as strong (9), moderate (3) and weak (1). Relationship which do not apply were left in blank. With all the ‘whats’ and ‘hows’ defined and recorded in the matrix, it was attempted to determine other factors related to manufacturing priorities: the currently company position regarding the priorities, the competitor position, and the quality plan. After considering the most important sales point, the rate of improvement was calculated as well as the absolute and relative weight. It is important mentioning that for the sake of simplicity, the roof of the quality matrix was omitted in this study. In the bottom part of the quality matrix, benchmarking data were used as well. The comparison was made based on data of a direct competitor, named here company “B” (see table 2). The complete matrix of quality (fig. 2) reveals which programs are the most important, i.e. the design issues related to manufacturing priorities. In redesign the programs, the focus should be on these issues. In addition, detailed tasks related to these issues should also be contemplated. Considerations may also be given to other factors which are directly related. Dezembro • 2000 g y p Fig. 2. Relating competitive priorities and action plans through a quality matrix. As mentioned before, some of the company data was obtained from a previous empirical study conducted by Vanalle & Alves Filho (1997). They work on defining the manufacturing priorities and relate them to the action plans. Therefore it is useful and relevant to compare the results when using a speculative study and a more precise one through the application of QFD. DISCUSSION The application discussed here demonstrates the power of QFD as a systematic and structured framework when formulating manufacturing priorities and determining their relation with programs. Comparing the obtained results with the empirical study carried out by Vanalle & Alves Filho (1997), it can be seen common points found out on both study. The manufacturing priorities are equal and in the same order. Actually, this is not a significant achievement since part of the data were common. However, due to the fact that raw data were used, REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 there are differences when conducting the study using QFD, i.e. the investigation framework is distinct when considering the data as the voice of customer collection. The studied company considers ‘quality’ as the last important priority. This can be explained due to the fact that this company has already achieved high quality standards for its products and services. For example, the company commitment to quality can be traced back to 1986, when it received Ford Q1 certificate. The company initiated the ISO 9000 certification in the beginning of 90’s and was certified in October 1992, which is a quite good achievement since there were only 96 certified companies in Brazil. Additionally, it was the fourth company to comply with QS 9000 in Latin America (in March 1998). The previous quality experience allowed a more smoothly process towards QS 9000 certification. The sequence of company priorities (cost, flexibility, services, and quality) is in agreement with 27 g y p the cone sand model (see figure 3), proposed by Ferdows & De Meyer (1990). The idea is that the company should build the priorities using the sequence suggested in figure 3, i.e. quality, services, flexibility, and finally cost. Although there are controversial discussion regarding this model (see e.g. Wassenhove & Corbett, 1993; and Alves Filho et al., 1995), the studied company structure is in accordance to some extent to part of the literature of strategic planning. Fig. 3. Cone sand model of priorities (Ferdows & De Meyer, 1990). C F S Q C - Cost F - Flexibility S - Service Q - Quality When comparing the performance of company “A” with the competitor, company “B”, the QFD results are also consistent with the reality of the these companies in the market. It is known by the authors, based on the literature (Vanalle & Alves Filho, 1997), that the performance of the studied company is similar to the competitor in costs but company “A” performance is much better in terms of quality. The performance in quality is reflected by the sequence of manufacturing priorities, i.e. for company “A” quality is the last priority, while for company “B” it is the first one. Some performance indicators also point out this statement, as shown in table 4. Regarding programs, they can be evaluated and prioritized according to the results from the matrix of quality. The programs with higher importance, i.e. absolute and relative weight, were: ‘performance measuring system’, ‘manufacturing computing information’, and ‘production and inventory control’. Once again, when comparing the results with the empirical study, QFD application is effective. For instance, ‘performance measuring system’, which consist of performance measures for cost, quality and productivity, are those provided by the company as a way to evaluate and benchmark its performance. In the priority ‘cost’, which has a high level of importance, the company performance rating is not good (1, in a scale from 1 to 5, being 5 the most highest rate). Moreover, the com- 28 petitor rate is better than the studied company, in contrast with the reality in the market (similar performance as stated earlier in this text). However, it is clear the company concern to measuring cost factors through indicators such as: • R&D investment as a percentage of turnover; • investment in equipment as a percentage of turnover; • cost of the rejected part over total manufacturing part cost; • cost of the reworded part over total manufacturing part cost. The program ‘production and inventory control’ is also related to ‘cost’ since an effective and efficient stock control represents low inventory and, as a consequence, lower costs. The program ‘manufacturing computing information’ is aligned with the second most important priority: ‘flexibility’. Data information available on line and in real time usually represent flexibility in terms of reaction to customer orders (volume) and, in a certain way, reaction to market (mix). Tab. 4. Quality performance indicators. COMPANY "A" Use of SPC in the shop 98 floor (%) Scrap (%) 0,8 Supplier qualification (%) 20 Training (hours/ more than 200 employee/year) Quality System ISO 9001, QS 9000, Certification EAQF, VDA 6 Quality Costs System Extensive COMPANY "B" 40 1,5 0 between 100 and 200 ISO 9001, QS 9000 Basic CONCLUDING REMARKS Undoubtedly, QFD is a powerful methodology to help with complex decisions. It can be customised to the particulars of problems. This is especially true when dealing with information system, e.g. strategic planning. QFD can lead the users through complex decisions, providing a structured view of fuzzy issues. Of the many new tools currently available to support decision-making process, QFD may offer many advantages over them. Based on the results of the QFD exercise, this exploratory study can be regarded as successful in Dezembro • 2000 g y p order to analyse the potentialities of QFD on the subject of strategic planning. One of the better advantages is to prioritise the action plans (programs). This is very important for developing countries due to the rather constant economic changes. However, this exploratory study was not specifically designed for the purpose of QFD implementation so that some difficulties have arisen. Some of the dif- ficulties were regarded to the interpretation of the voice of customer, usage of alternative mechanisms to extract customer data (e.g. interviews), and the necessary top management company commitment when applying QFD. Further work will concentrate in a complete QFD application in a cosmetic division of a large corporation in order to developing its strategic planning. REFERENCES ALVES FILHO, A.G; VANALLE, R.M. & PIRES, S.R.I. Sobre as Prioridades de Manufatura: compatibilidade e seqüência para implantação. Revista Gestão & Produção, 2 (2): 173-180, 1995. CAUCHICK MIGUEL, P.A. A Case Study on QS 9000 Certification in a Brazilian Company. Proceedings of CSME - Canadian Society for Mechanical Engineering Forum, pp. 185-192, Toronto, 1998a. _________________. Brazilian Quality in a Nutshell. Quality World, 24 (11): 38-44, 1998b. CROWE, T.J. & CHENG, C. Using Quality Function Deployment in Manufacturing Strategic Planning. International Journal of Operations & Production Management, 6 (4): 35-48, 1996. FERDOWS, K. & DE MEYER, A. Lasting Improvements in Manufacturing Performance: In Search of a New Theory. Journal of Operations Management, 9 (2), 1990. HALES, R.F. Quality Function Deployment as a Decision Making Tool. <http://www.proactdev.compages/decide.htm>, 1st. December, 1998. HAUSER, J.R. & CLAUSING, D. The House of Quality. Harvard Business Review, (3): 63-73, May-June/1988. JACOBS, R.A. & DYGERT, C.B. A Non-traditional Use of Quality Function Deployment. Transactions from the Ninth Symposium on Quality Function Deployment, pp. 105-118, Novi, 1997. HAYES, R.H. & WHEELWRIGHT, S.C. Restoring our Competitive Edge - Competing through Manufacturing. New York: John Willey & Sons Inc., 1984. HILL, T.J. Manufacturing Strategy: Text and Cases. New York: Irwin, 1993. LEONG, G.K. et al. Research in the Process and Content of Manufacturing Strategy. OMEGA, International Journal of MGMT Sci, 18 (2), 1990. LU, M.H. & KUEI, C. Strategic Marketing Planning: A Quality Function Deployment Approach. International Journal of Quality and Reliability Management, 12 (6): 85-96, 1995. LYMAN, D.; BUESINGER, R.F. & KEATING, J.P. QFD in Strategic Planning. Quality Digest, pp. 45-52, May issue, 1994. MADDUX, G.A., AMOS, R.W. & WYSKIDA, A.R. Organizations Can Apply Quality Function Deployment as Strategic Planning Tool. Industrial Engineering, pp. 33-37, September issue, 1991. MILLS, J.; PLATTS, K. & GREGORY, M. A Framework for the Design of Manufacturing Strategy Process: A Contingency Approach. Int. Journal of Operations & Production Management, 15 (4), 1995. PLATTS, K.W. Characteristics of Methodologies for Manufacturing Strategy Formulation. Computer Integrated Manufacturing Systems, 7 (2), 1992. PLATTS, K.W. & GREGORY, M.J. A Manufacturing Audit Approach to Strategy Formulation. In: VOSS, C.A., Manufacturing Strategy - Process and Content. London: Chappman & Hall, 1992. SLACK, N. Manufacturing Advantage: Achieving Competitive Manufacturing Operations. London: Mercyr, 1991. VANALLE, R.M. & ALVES FILHO, A.G. Manufacturing Strategy: A Case Study on the Brazilian Automotive Suppliers. Proceedings of San Diego Conference, San Diego, 1997. WASSENHOVE, L.N. & CORBETT, C.J. Trade-offs? What Trade-offs? Competence and Competitiveness in Manufacturing Strategy, California Management Review, Summer, 1993. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 19-30 29 g 30 y p Dezembro • 2000 g y p Estudo e Escolha de Metodologia para o Projeto Conceitual Research and Choice of a Methology for the Conceptual Design FRANCISCO JOSÉ DE ALMEIDA Universidade Metodista de Piracicaba [email protected] RESUMO – Este trabalho apresenta a fase de Projeto Conceitual, situada no processo de projeto, e a caracteriza, apontando para a necessidade de sistematizar os procedimentos envolvidos em tal fase inicial do projeto. Apresenta, na seqüência, um comparativo entre várias metodologias de projeto conceitual existentes, discorrendo sobre as características de cada uma delas, suas vantagens e desvantagens relativas. Realça, entre elas, as voltadas à informatização ou passíveis de serem informatizadas, visando à sistematização necessária e a automação da fase de Projeto Conceitual. Palavras-chave: METODOLOGIA DE PROJETO CONCEITUAL – SISTEMATIZAÇÃO DO PROJETO CONCEITUAL – MÉTODO DE PROJETO SISTEMÁTICO. ABSTRACT – This work presents and characterizes the Conceptual Design phase, within the design process, pointing to the necessity of to become systematic the envolved procedures of this initial phase of the design process. It presents too the various conceptual design methodologies proposed, explaing the characteristics of each one, its related advantages and disadvantages. This work rises up those methodologies that can be automatizated into a computational system, aiming to the necessary systemation and Conceptual Design phase automation. Keywords: CONCEPTUAL DESIGN METHODOLOGY – DESIGN THEORY AND METHODOLOGY – SYSTEMATIC DESIGN METHOD. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 31-42 31 g y p INTRODUÇÃO O Projeto Conceitual é a fase inicial do processo de projeto de um produto e, como será explicitado a seguir, exige a aplicação da inteligência. Essa fase do projeto deve ser sistematizada, visando-se à aplicação do computador, para que seja possibilitada sua integração com as demais fases do projeto do produto, bem como a integração do processo global de projeto com as demais fases de produção de um produto, o planejamento de fabricação e a fabricação propriamente dita. Esta integração de todas as fases envolvidas na produção é decididamente necessária, pois no mundo atual, altamente competitivo, o time to market deve ser reduzido o máximo possível, para que as empresas mantenham a sua competitividade e sua sobrevida no mercado. Com a integração de todas as fases de produção de um produto – projeto, planejamento, fabricação –, pode-se aplicar os conceitos da engenharia simultânea mais aprofundadamente, obtendo-se a desejada redução do time to market. Paralelamente, tal integração das fases de produção do produto é implementada através de sistemas computacionais, devido ao grande volume de dados envolvidos, à sua organização necessária e à necessidade de meios e sistemas de controle rápidos e eficientes sobre o processo como um todo. Com base nesse panorama, a fase de projeto conceitual, de modo a se poder integrá-la às fases posteriores, deve ser sistematizada – organizada e seqüenciada – para que se possa liberá-la da exigência da genialidada humana, possibilitando o uso de um sistema computacional integrado. Neste trabalho serão apresentadas várias metodologias de projeto conceitual, caracterizandoas e relacionando-se suas vantagens e desvantagens. Entre as várias metodologias, serão realçadas as passíveis de serem implementadas em computador, portanto, sistematizadas, visando a um posterior trabalho de integração no processo de produção como um todo de um produto. PROJETO CONCEITUAL Área específica da engenharia mecânica, a engenharia do produto cuida do processo de projeto (design process), que pode ser definido, segundo Welch & Dixon (1992:11) como: "a transformation 32 between different states of information or knowledge (...) is therefore a series of transformations that solve a design problem by moving from a initial known state of knowledge to a final desired state of knowledge”. Segundo Pahl & Beitz (1996: 40), Hundal (1990: 243) e VDI 2221 (1987), citada por Hundal & Langholtz (1992: 2), o processo de projeto pode ser dividido nas seguintes quatro etapas: a) clarificação das necessidades (clarification of the tasks); b) projeto conceitual (conceptual design); c) projeto preliminar (embodiment design); e d) projeto detalhado (detail design) (fig. 1). A atuação de computadores progride dentro do processo de projeto no sentido inverso das fases deste (Klein, 1992: 149). Fig. 1. Fases do Projeto (Pahl & Beitz, 1996). Numa visão similar, segundo Fiod (1993), o processo de projeto engloba as fases de: a) planejamento; b) concepção; c) projeto preliminar, e d) projeto detalhado (fig. 2). A primeira fase, Planejamento, envolve as atividades de estudo da seqüência a ser obedecida no processo de projeto. Como o autor cita, sempre deve-se planejar um trabalho antes de iniciar sua execução, afim de se poder controlar o encaminhamento dentro do processo, corrigindo possíveis desvios de rota, e verificando-se o sucesso do mesmo ao seu final. A fase de Concepção é reservada para a especificação exata Dezembro • 2000 g y p da necessidade e para a obtenção sistemática de possíveis soluções para a necessidade levantada. As demais fases envolvem a escolha e geração de uma solução técnica e o detalhamento desta até a geração de desenhos para a fabricação. Fig. 2. Fases do Projeto (Fiod, 1993: 88). Planejamento como as de Tecnologia, de Ciências, de Psicologia, de Estética, de Sociologia, de História e de Planejamento (Nadin & Novak, 1987: 149) (fig. 4). Fig. 4. Inter-disciplinariedade do Projeto Conceitual (Nadim & Novak, 1987: 149). Ci ncias Tecnologia An lise Funcional Planejamento Concep o ICAD Projeto Preliminar CAD/CAE Psicologia Projeto Conceitual Hist ria Est tica Sociologia Projeto Detalhado CAD Especificamente, a etapa do Projeto Conceitual (conceptual design) pode ser definida como: “The conceptual process ‘begins’ with questions and ‘ends’ with detailed specifications usable by current systematic synthesis techniques” (O’Shaughnessy & Sturges, 1992: 283, fig. 3). Fig. 3. Fase de Projeto Conceitual. Outra definição bem parecida pode ser encontrada em Welch & Dixon (1992: 11): “is the initial and most abstract stage of the design process starting with required functions (what the design is to do without saying how the design is to do it) and resulting in concepts (preliminary system configurations)”. Como apresentado nessas definições, esta fase exige grande capacidade inventiva e de adaptação do projetista, motivo pelo qual é a última etapa em que chega o computador. Esse processo é eminentemente criativo, além de exigir do projetista/engenheiro o conhecimento de várias disciplinas diferentes, tais REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42 Assim, o Projeto Conceitual pode ser visto como a conjunção de criatividade e desmetodização, envolvendo várias linhas de raciocínio e uma grande quantidade de informações inter-disciplinares. Dessa forma, é visível a grande complexidade de tal fase do processo de projeto e a sua inter-disciplinariedade. No Projeto Conceitual, são manipuladas e tratadas informações dispersas, muitas oriundas do raciocínio do próprio projetista e, portanto, não formalizadas (Durkin & Durkin, 1998). Devido isso, há a necessidade de vasto uso de criatividade por parte do projetista, o que, em conclusão, significa que há grande influência dessa capacidade criadora na qualidade final do projeto. Além disso, pode-se constatar serem necessários dois tipos de conhecimento pelo projetista: o conhecimento das soluções técnicas (como fazer); e o conhecimento do processo de projeto (como proceder). Assim, durante a concepção, o projetista utiliza toda sua capacidade intelectual e diversificação de conhecimentos, lançando mão constantemente de sua experiência pessoal e criatividade. Nessa fase, lança-se mão da abstração – ou a colocação do problema em termos genéricos, representados por um ou mais verbos, representando a ação desejada, e um substantivo, representando o objeto da ação –, o que permite vislumbrar outros pontos de vista e outras soluções, além de se ter uma visão mais global do problema; isso permite ainda 33 g y p vislumbrar outras soluções para o problema. Pahl & Beitz (1996) colocam tal tema em termos de “generalização”, afirmando ser preciso expressar o problema a resolver em forma de uma solução neutra. Segundo a VDI 2221 (1987), são vantagens da sistematização: poder-se obter e examinar mais encadeamentos de soluções parciais; poder-se analisar mais variantes de soluções; e obter-se mais modelos e protótipos. Na prática, todos os passos envolvidos na fase de Projeto Conceitual são interligados e o processo é fortemente iterativo e interativo. Para finalizar, deve-se realçar que grande é a importância da fase inicial de projeto no custo e no sucesso do produto final. Decisões tomadas nessa fase apresentam grande dificuldade, e proporcional alto custo, para serem alteradas nas fases posteriores do desenvolvimento de um produto (Ulmann, 1997: 8, fig. 5). Fig. 5. Influência do Projeto no Custo de Manufatura (Ulmann, 1997: 8). Ao sistematizar o processo de Projeto Conceitual, obtém-se uma maior eficiência e velocidade de desenvolvimento. Ao se incluir o computador nessa fase, acelera-se ainda mais o processo de planejamento e desenvolvimento de produtos, o que é necessidade essencial no mercado competitivo de hoje em dia. Exemplos da introdução de sistema computacionais no projeto de produtos, com suas vantagens constatadas, são os sistemas de CAD/ CAM atuais. Deve-se frisar, porém, que esses sistemas de CAD atualmente tão disseminados agem e auxiliam principalmente nas fases tediosas e repetitivas do projeto, e não na fase de projeto conceitual. 34 METODOLOGIA DE PROJETO CONCEITUAL Várias metodologias de Projeto Conceitual têm surgido ultimamente, principalmente devido à constatação de sua importância para a implementação de Sistemas Inteligentes de Projeto Auxiliado por Computador (Intelligent Computer Aided Design System). Ao lado destas, podem ser reconhecidas metodologias de projeto já clássicas, formadas sem considerações acerca de sua implementação em ambientes computacionais. Finalmente, há metodologias de Projeto Conceitual que são propostas de adaptações de algumas metodologias clássicas para sua transferência para sistemas computacionais. Entre os trabalhos relacionados a este tema, alguns principais devem ser citados, com suas respectivas propostas de metodologias para Projeto Conceitual. Suh (1990) propõe um Modelo Axiomático. Nesse modelo, a principal importância recai nos requisitos funcionais do projeto, ou seja, os requisitos de aplicabilidade do produto a ser projetado, baseados diretamente nas necessidades externadas pelo futuro consumidor. Este método apóia-se em dois princípios básicos: o Axioma da Independência – os requisitos devem ser independentes entre si – e o Axioma da Informação – deve-se minimizar o conteúdo das informações disponíveis em relação aos requisitos, reduzindo-as às essenciais. Suh (1990) ainda propõe oito regras a serem obedecidas pelo projetista na busca de um Projeto Conceitual de boa qualidade. Estas regras são, de maneira geral, baseadas em critérios de senso comum aliados a conhecimentos de engenharia. Ainda segundo Suh (1990), o processo de projeto conta com três passos: a) definição do problema, através da definição de seus requisitos funcionais; b) processo criativo de concepção e idealização; e c) processo analítico de avaliação da solução. Num resumo geral, este método parte de informações abstratas (requisitos funcionais) e busca concretizálas em um produto final, sistematizando as ações e os procedimentos. O método propõe a substituição da intuição e experimentação desordenada por axiomas ou leis, citadas acima. Hoover, Rinderle e Finger (1991) realçam a necessidade da abstração nas primeiras etapas, afir- Dezembro • 2000 g y p mando que esse procedimento simplifica o problema, facilitando a busca das soluções. Por sua vez, Yoshikawa (1989), em trabalho extenso, relaciona e apresenta três escolas de Metodologia de Projeto: a) a escola semântica; b) a escola sintática; e c) a escola historicista. Segundo ele, na escola semântica só há fluxos de energia, de matéria e de sinal. A solução do problema é um sistema técnico – encadeamento logicamente estruturado de funções técnicas e sub-funções – representado pela transformação de energia, matéria ou sinal. Na escola semântica, a função global, que representa o problema inicial, é subdividida em sub-funções mais simples, iterativamente, até se identificarem fenômenos físicos a elas relacionados. Assim, permite-se que, através da catalogação de efeitos físicos conhecidos, soluções reais sejam encontradas. Alguns desses catálogos de efeitos físicos podem ser encontrados em Koller (1985) e Roth (1982), citados por Fiod (1993). Ainda segundo Yoshikawa (1989), a escola sintática preocupa-se mais com os aspectos de procedimento do projetista na busca da solução ou soluções do que com o objeto de projeto em si. Autores que seguem essa escola seriam Asimow (1968), Woodson (1966) e Pahl & Beitz (1996), através da reunião que estes fazem do aspecto metodológico do projeto e do aspecto funcional do produto no modelo que propõem, associado à proposição de hierarquia entre funções e sub-funções encontrada em seus trabalhos, e da defesa do uso de um procedimento sistemático. Finalmente, ainda segundo Yoshikawa (1989), a escola historicista dá importância maior para o conhecimento envolvido no projeto, exigindo que todo o conhecimento esteja disponível para o projetista no momento do desenvolvimento das soluções. Asimow (1968) foi um dos primeiros autores a buscar sistematizar o processo de projeto, visando à obtenção de melhores projetos de forma mais sistêmica. Segundo sua visão, as fases primárias do projeto, aquelas relacionadas ao desenvolvimento da idéia do produto, englobam, partindo-se da Necessidade Primitiva: a) Estudo de Exeqüibilidade; b) Projeto Preliminar, e c) Projeto Detalhado (fig. 6). REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42 Fig. 6. Fases Primárias de um Projeto (Asimow, 1968: 23). Segundo Asimow (1968: 24), o Estudo de Exeqüibilidade objetiva a consecução de um conjunto de soluções úteis para os problemas do projeto. Ainda segundo o mesmo autor, no Estudo de Exequibilidade há três estágios: o primeiro consta da análise da situação na qual acha-se encaixado o problema; o segundo, da síntese de soluções possíveis; o terceiro, da avaliação das soluções e, caso haja algumas soluções aceitáveis, também da decisão sobre qual seja a melhor (Asimow, 1968: 64) (fig. 7). Este mesmo autor baseia a busca de soluções em catálogos de princípios físicos (Asimow, 1968: 75-80). Outro autor que deve ser citado, podendo ser igualmente considerado um dos precursores da escola sintática, é Woodson (1966). Ele define as etapas de Estudo de Possibilidade, Estudo Preliminar, Projeto Detalhado e Revisão para o projeto mecânico (fig. 8) e subdivide a primeira etapa em Análise da Necessidade, Exploração dos Sistemas Envolvidos, Síntese das Alternativas de Soluções, Determinação da Viabilidade Física, Análise Econômica, Análise da Disponibilidade Financeira (fig. 9). Na linha de metodologias voltadas ou adaptadas, ou ainda passíveis de serem informatizadas, podemos citar Roth (1982), Koller (1985), estes citados por Fiod (1993), e VDI 2221 (1987), que 35 g y p já “preparam” uma metodologia de projeto passível de informatização. Nesse rol, já citada, podese incluir a metodologia proposta por Pahl & Beitz (1996). Estes autores, inclusive, propõem as bases para se desenvolver um Sistema de Projeto Auxiliado por Computador, aplicado à fase de Projeto Conceitual. Fig. 9. Estrutura do Projeto – Estudo de Viabilidade (Woodson, 1966: 26). Fig. 7. Estudo de Exeqüibilidade (Asimow, 1968: 32) (simplificado). Fig. 8. Fases do Projeto (Woodson, 1966: 24-25). Estudo de Viabilidade • Para validar a necessidade e produzir uma série de soluções possíveis Estudo Preliminar • Para qualificar os parâmetros de forma a obter a solução ótima Projeto Detalhado • Para transformar a melhor solução em uma descrição para a manufatura Revisão • Para produzir um projeto otimizado, baseado na experiência obtida com um sistema fabricado/testado A VDI 2221 (1987) sugere a divisão do Projeto Conceitual e da busca de soluções em duas fases. Na fase I, procede-se ao estudo do problema a ser solucionado. Segundo Pahl & Beitz (1996), deve-se gerar uma lista de requisitos do produto, podendo-se classificá-los em requisitos “obrigatórios” e “desejáveis”, estes últimos caracterizados com grande, média, ou pequena importância. Devese dividir os aspectos estudados em aspectos quantitativos e aspectos qualitativos, sempre buscando quantificar os requisitos. 36 Na fase II, fase de concepção, deve-se definir a função que representa o problema, através de um verbo – ação – e um substantivo – objeto da ação – (“cortar” “grama”), anexando-se as condições marginais, tais como tamanho, peso, percurso desejado e outros. Pode-se definir a função global como uma “caixa preta”, na qual de um lado entram as grandezas “sinal” (signal) – s, “energia” (energy) – e, e “matéria” (material) – m – e, do outro, saem as mesmas grandezas, porém modificadas pela função global. Na seqüência dessa fase, divide-se a função global em funções parciais até se alcançarem os princípios físicos, levantados através de pesquisa bibliográfica, da análise de sistemas técnicos, da análise de sistemas naturais conhecidos, de analogias, de medições e de experiências com modelos. O seqüenciamento dos princípios físicos deve obedecer compatibilidade entre as características de saída de um princípio físico e as características de entrada do princípio físico subseqüente. Ainda segundo a VDI 2221 (1987), em seguida lança-se mão da Matriz Morfológica, possibilitando-se trocar as funções parciais entre soluções, combinando-as de formas diferentes e obtendo-se maior número de soluções, ou soluções variantes. A solução global é obtida associando-se Dezembro • 2000 g y p princípios físicos viáveis em sub-soluções realizáveis e estas, por sua vez, na solução global (fig. 10). Fig. 10.Modelo de Desenvolvimento da VDI 2221 (Cross, 1996: 30). Problema Global Sub-problemas Problemas individuais Solu e s individuais Sub-solu e s Solu o global O Método proposto por Roth (1982), relacionado em Fiod (1993), denominado Método da Estrutura de Funções Genéricas, relaciona quatro operações genéricas, a saber: “conduzir” (channel) – mudança de lugar, “armazenar” (store) – constância de uma certa quantidade em determinado tempo, “transformar” (change) – mudança de forma de apresentação – e “unir” (connect). Esta última, para grandezas iguais, pode ser “aditiva” – juntar quantidade – e “distributiva” – separar quantidade. Para grandezas diferentes, ela pode ser “aditiva” – aplicação de uma quantidade do tipo Y sobre uma quantidade do tipo X – e “distributiva” – separar de uma quantidade do tipo Y uma quantidade do tipo X. O mesmo método relaciona três grandezas genéricas: “matéria”, “energia” e “sinal”, o que vem ao encontro das idéias de Pahl & Beitz (1996) e outros. A combinação de uma operação genérica com uma grandeza genérica resulta em uma Função Genérica. Nesse seu trabalho, o autor relaciona 220 verbos técnicos. Por sua vez, o método proposto por Koller (1985), também relacionado em Fiod (1993) – ou Método de Projeto Orientado Físico-Algoritmicamente –, define doze operações básicas, sem relacionálas a nenhuma grandeza. Esse relacionamento, segundo aquele autor, deve ser feito apenas durante o projeto de um produto específico. As operações são ordenadas duas a duas, cada qual com sua inversa, a saber: “emitir/absorver” (absorv/emit), “transmitir/isolar” (channel/isolate), “agrupar/dis- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42 persar” (collect/scatter), “guiar/não guiar” (conduct/ insulate), “transformar/retro-transformar” (change/ change back), “ampliar/reduzir” (increase/decrease), “mudar direção/mudar direção” (change direction/ change direction), “retificar/oscilar” (rectify/oscillate), “ligar/interromper” (couple/interrupt), “misturar/separar” (join/separate), “juntar/dividir” (assemble/divide) e “acumular/desacumular” (store/empty). Segundo Fiod (1993), Koller (1985) procura as soluções para as funções elementares escolhendo um efeito e um portador de efeito no catálogo previamente cadastrado – por exemplo, efeito: Lei de Hooke; portador do efeito: mola. A diversidade das soluções vem devido aos diferentes efeitos e portadores de efeitos que podem ser utilizados. Uma metodologia que busca englobar partes das anteriores pode ser encontrada em Pahl & Beitz (1996). Não deixando de ser altamente interativo, esse método (de Projeto Sistemático) iniciase logo após o estudo da tarefa, definindo os seguintes passos: a) clarificação do problema (clarification of the task), com elaboração da lista de requisitos; b) abstração para identificar os problemas essenciais (abstract to identify the essential problems), colocando o problema em termos de verbo-objeto; c) estabelecimento das estruturas funcionais (establish function structures), definindo a função global e dividindo-a em subfunções até se obter as funções elementares através da subdivisão contínua das funções parciais; d) busca dos princípios de solução (search for solution principles to fulfil the sub-functions), com a aplicação do método da variação dos efeitos e uso de catálogos; e) combinação dos princípios de solução para remontagem da função global (combine solution principles to fulfil the overall function), lançando mão da recombinação da Matriz Morfológica (VDI 2221, 1987: 39); f) seleção das combinações viáveis (select suitable combinations), com base na lista de requisitos; g) definição das variantes conceituais (firm up into concept variants); e h) avaliação técnica e econômica das variantes conceituais (evaluate concept variants against technical and economic criteria) (fig. 11). 37 g y p Fig. 11. Fases do Projeto Conceitual (Pahl & Beitz, 1996: 58). Pahl & Beitz (1996) relacionam cinco funções geralmente válidas para as transformações de três grandezas básicas, “sinal”, “energia” e “matéria”, as mesmas da VDI-2221 (1987). Essas funções gerais são: transformar (change), conectar (connect), conduzir (channel) e armazenar (store). Pahl e Beitz (1996) traçam eles mesmos um paralelo entre as suas funções geralmente válidas, as operações genéricas de Roth (1982) e as operações básicas de Koller (1985), ambas relatadas em Fiod (1993), conforme a tabela 1. Numa comparação com metodologias anteriores citadas, Pahl e Beitz (1996) englobam várias delas e identificam-se claramente com a de Suh (1990) e VDI-2221 (1987). Essa Metodologia do Projeto Sistemático é a base para o trabalho desenvolvido por Fiod (1993). Nele o autor propõe uma metodologia sistemática para o Projeto Conceitual, lançando mão das doze operações básicas de Koller (1985), por ele citado (tab. 1). O autor apresenta um Sistema para Auxílio ao Projeto Conceitual Sistemático, que dirige o usuário pelas fases de projeto propostas, visando, principalmente, a tornar a qualidade da solução tanto quanto possível independente da inspiração, porém sem prescindir da criatividade e inventividade. Nesse sistema computacional, a metodologia de projeto proposta apóia-se firmemente numa base de conhecimentos composta de princípios físicos e componentes mecânicos. Tab. 1. Comparação de Funções Geralmente Válidas (Pahl & Beitz, 1996: 27). OPERAÇÕES BÁSICAS DE KOLLER OPERAÇÕES GENÉRICAS FUNÇÕES GERALMENTE VÁLIDAS DE (1985) / FIOD (1993) DE ROTH (1982) PAHL E BEITZ (1996: 68) chance / change back transformar / retro-transformar change direction mudar direção change (type) Change mudar/transformar increase / decrease ampliar / reduzir couple / interrupt ligar / interromper join / separate unir(misturar) / separar assemble / divide montar(juntar) / dividir channel / isolate transmitir / isolar collect / scatter agrupar / dispersar rectify / oscillate retificar / oscilar conduct / insulate conduzir(guiar)/separar(não-guiar) absorb / emit absorver / emitir store / empty acumular / esvaziar(desacumular) 38 vary (magnitude) Connect conectar connect (number) channel conduzir channel (place) store armazenar store (time) Dezembro • 2000 g y p A seqüência de ações para o Projeto Conceitual proposta por Fiod (1993) engloba as fases de: a) estudo da tarefa; b) montagem da lista de requisitos; c) divisão em sub-tarefas, partindo da função principal e funções secundárias, até se obter a estrutura de funções elementares, passando pelas funções parciais; d) associação de efeitos de soluções, com uso de catálogos; e) desenvolvimento de funções parciais, considerando a análise de compatibilidade entre funções elementares; f) síntese de sistemas técnicos, analisando-se a compatibilidade entre funções parciais e avaliação dos sistemas obtidos, e g) concepção de sistema técnico, obtendo-se o resultado, ou solução do problema inicialmente proposto (fig. 12). Os estágios do processo de projeto, segundo Cross (1996: 45-46), no seu denominado Modelo Simétrico Problema/Solução, fortemente baseado na VDI 2221 (1987) são apresentados na figura 13. Fig. 12.Metodologia de Projeto Conceitual (Fiod, 1993: 93). Fig. 13. Modelo Simétrico Problema/Solução (Cross, 1996: 46). REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42 Cross (1996) lança mão do Método da Matriz Morfológica, similar ao de VDI 2221 (1987), com pequena variação: considerar cada linha da matriz como uma sub-função, atrelada diretamente a um componente. Cada coluna da Matriz Morfológica, para cada linha, contém os componentes que podem executar a sub-função respectiva. Esse enfoque, aliás, é muito próximo ao de Pahl e Beitz (1996), haja vista que tanto um quanto outro não chegam a atingir o nível de definição de princípios físicos. A que se realçar que este método traz no seu bojo grande motivação sistemática, citando o autor textualmente o uso de procedimentos sistemáticos (systematic procedures) (Cross, 1996: 31). Como pode ser verificado, enquanto alguns autores dão maior ênfase às fases de avaliação, outros conferem maior enfoque às fases de geração de soluções. Todos, porém, apresentam vários pontos em comum, principalmente no que diz respeito à seqüência sistemática de procedimentos para a obtenção de soluções para problemas que não sejam atreladas somente à capacidade mental do projetista. Um último autor a ser citado é Ulmann (1997), que propõe uma seqüência própria para a fase de Projeto Conceitual (fig. 14). Os passos propostos por Ulmann (1997), tendo-se anteriormente especificado a necessidade e efetuado o planejamento do processo de projeto, são: a) encontrar a função global que exprime a necessidade a ser solucionada, através de generalização do problema e sua abstração; b) decompor a função global em subfunções, com base em sistemas já conhecidos e/ou nas várias funções que a solução deve cumprir; c) desenvolver conceitos para cada função, apoiado em uma base de dados, e d) combinar conceitos. Na seqüência, Ulmann (1997) sugere a avaliação dos conceitos identificados. O mesmo autor sugere uma lista de funções mecânicas típicas de projeto (tab. 2) e cita como fontes para idéias conceituais as patentes, os livros de referência, os especialistas e o brainstorming. 39 g y p Fig. 14. Fase de Projeto Conceitual (Ulmann, 1997: 141). Tab. 2. Funções Mecânicas Típicas de Projeto (Ulmann, 1997: 145). Transformar (change) Aumentar/diminuir (Increase/decrease) Acoplar/interromper (couple/interrupt) Unir/Separar (join/separate) Montar/desmontar (assemble/disassemble) Conduzir ou guiar (channel or guide) Retificar (rectify) Conduzir (conduct) Absorver/eliminar (absorb/remove) Armazenar (store) Verificar (verify) Dirigir (drive) Posicionar (position) Libertar (release) Dissipar (dissipate) Orientar (orient) Localizar (locate) Coletar (collect) Proteger (secure) Mover (move) Converter (convert) Tranformar (transform) Transladar (translate) Rotacionar (rotate) Iniciar/cessar (start/stop) Levantar (lift) Segurar (hold) Limpar (clear) Suportar (support) Suprir (supply) CONCLUSÃO Através da apresentação deste pequeno painel, pode-se concluir que a sistematização da etapa do Projeto Conceitual ainda está em seu iníco no plano internacional. Mesmo hoje em dia, apesar das desvantagens inerentes desse procedimento, a qualidade de um projeto, definida na fase de projeto conceitual, é função da genialidade do projetista, que utiliza seus conhecimentos e raciocínio lógico sem se preocupar muito em sistematizar tais pensamentos. Vários trabalhos, porém, como os aqui apresentados, propõem uma sistematização do processo de projeto conceitual, e uma posterior implementação em um sistema computacional, os chamados sistemas auxiliados por computador inteligente, um tipo 40 de sistema especialista. Na verdade, os chamados Sistemas Especialistas estão atualmente ainda na fase de desenvolvimento, sem ter atingido a etapa de aplicação comercial. Verificam-se apenas alguns poucos Sistemas Baseados em Conhecimento disponíveis comercialmente e, mesmo assim, com aplicação limitada. Grandes pesquisas ainda são necessárias para prover programas de computador que efetivamente auxiliem o projetista, o ser humano, em sua tarefa de conceber o projeto. A substituição do projetista nesta tarefa é de efetivação ainda mais difícil. Grandes esforços, porém, têm sido destinados a esta área de pesquisa, o que sugere a sua importância. Além das dificuldades inerentes ao processo de transferir conhecimentos para o computador, há a necessidade de melhor conhecer e entender o processo de Projeto Conceitual desenvolvido dentro da mente do projetista. Esta área, intimamente ligada à anterior, tem sido objeto de atenção de muitos pesquisadores. Na engenharia mecânica, uma das poucas áreas não totalmente dominadas é a da metodologia de projeto e da aplicação da computação nas fases iniciais do projeto. Apesar do grande direcionamento de esforços internacionais para estas áreas, o que reforça sua importância como campo de pesquisa atual, apresenta-se ainda em franco desenvolvimento, sem conhecimentos totalmente sedimentados. Por tratar-se de área estratégica no domínio do conhecimento de projeto, e na aceleração do desenvolvimento deste conhecimento, deve ter sua importância devidamente sublinhada e não pode prescindir de investimentos em qualquer sociedade que se interesse em participar da comunidade internacional como proprietária de conhecimentos. Dezembro • 2000 g y p A situação brasileira, como de costume, apresenta-se atrasada alguns anos em relação aos centros mais desenvolvidos internacionalmente. Porém, por tratar-se de área ainda em desenvolvimento, esta situação pode e deve ser alterada. REFERÊNCIAS BIBLIOGRÁFICAS ANDERSSON, K. Vocabulary for conceptual design. IFIP Transactions B: Computer Applications in Technology B18, pp. 157171, 1994. ASIMOW, M. Introdução ao Projeto. Trad. José Wanderley Coêlho Dias. São Paulo, Editora Mestre Jou, 1968. CHAKRABARTI, A. & BLIGH, T.P. Approach to functional synthesis of mechanical design concepts: theory, applications, and emerging research issues. Artificial Intelligence for Engineering Design, Analysis and Manufacturing: AIEDAM, v. 10, n.o 4, pp. 313-331, 1996. CROSS, N. Engineering Design Methods. Chichester, John Wiley & Sons, 1996. DIXON, J.R. Design Engineering. New York, McGraw-Hill, 1966. DIXON, J.R. & CORRADO, P. Engineering Design & Design for Manufacturing: a structured approach. Field Stone Publishers, 1999 DURKIN, J. & DURKIN, J. Expert Systems – design and development. New York, Prentice Hall, 1998. ERTAS, A. & JONES, J.C. The Engineering Design Process. New York, John Wiley & Sons, Inc., 1996. EVBUOMWAN, N.F.O. & SIVALOGANATHAN, S. Generation of conceptual designs within Design Function Deployment. Methodologies, Tecniques and Tools for Design Development American Society of Mechanical Engineers, Petroleum Division – PD, New York, v. 64, n.o 5, pp. 61-66, 1994. FIOD Neto, M. Desenvolvimento de Sistema Computacional para Auxiliar a Concepção de Produtos Industriais. Florianópolis, Universidade Federal de Santa Catarina, 1993. Tese (Doutorado). FIOD Neto, M & BACK, N. Análise Crítica de Métodos de Projeto, Visando ao Desenvolvimentode um Sistema CAD para Concepção de Produtos. Revista Brasileira de Ciências Mecânicas, v. 17, n.o 4, pp. 387-393, 1995. __________. Assessment of product conception: a critical review. Revista Brasileira de Ciências Mecânicas, v. 17, n.o 1, pp. 109115, 1995. HOOVER, S.P.; RINDERLE, J. R. & FINGER, S. Models and abstractions in design. Proceedings of the International Conference on Engineering Design – ICED’91, Zurich, pp. 46-57, 1991. HUNDAL, M.S. A Systematic Method for Developing Function Structures, solutions and concept variants. Mechanism and Machine Theory, v. 25, n.o 3, pp. 243-256, 1990. __________. A methodical procedure for search of solutions from function structures. Proceedings of The International Conference of Engineering Design – ICED’91, Zurich, pp. 9-16, 1991. HUNDAL, M.S. & LANGHOLTZ, L.D. Computer-aided conceptual design: an application of X windows, with C. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 1-9, 1992. KLEIN, S. An example of knowledge-based decision making when selecting standard components: shaft-hub connections. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 149-156, 1992. MANTYLA, M.; FINGER, S. & TOMIYAMA, T. Knowlwdge Intensive Cad – v. 1. Kluwer Academic Publishers, 1996. __________. Knowledge Intensive Cad – v. 2. Kluwer Academic Publishers, 1997. NADIN, M. & NOVAK, M. MIND: a design machine – conceptual framework. In: HAGEN, P.J.W. ten; TOMIYAMA, T. Intelligent CAD Systems I. Berlim, Springer-Verlag, 1988. O’HAUGHNESSY, K. & STURGES Jr. R.H. A systematic approach to conceptual eengineering design. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 283-291, 1992. PAHL, G. & BEITZ, W. Engineering Design – a systematic approach. Translated by Ken Wallace and Lucienne Blessing. Berlin, Springer Verlag, 1996. PAPALAMBROS, P.Y. & WILDE, D.J. Principles of Optimal Design: modeling and computation. New York, Cambridge University Press, 2000. PITTS, G. Techniques in Engineering Design. London, McGrawHill Book Company, 1973. PUGH, S. Total Design: integrated methods for sucessful product engineering. Wokingham, Addison Wesley, 1995. PUGH, S.; CLAUSING, D. & ANDRADE, R. Creating Innovative Products Using Total Design: the living legacy of Stuart Pugh. Addison-Wesley Pub Co., 1996. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16– pp. 31-42 41 g y p SILVA, J.B.A; BACK, N. & LEAL, L.C.M. SIPE – um sistema CAE para o projeto de eixo-árvore de máquinas ferramentas. Anais do X COBEM, Rio de Janeiro, Associação Brasileira de Ciências Mecânicas/Projeto de Engenharia Mecânica-COPPE, pp. 351-354, 1989. SUH, N.P. The Principles of Design. New York, Oxford University Press, 1990. TAKEDA, H. & TOMIYAMA, T.; YOSHIKAWA, H. A logical and computable framework for reasoning in design. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, ASME, pp. 167-174, 1992. TOMIYAMA, T. & YOSHIKAWA, H. Extended General Design Theory. In: YOSHIKAWA, H. & WARMAN, E.A. Design Theory for CAD. Amsterdam, North-Holland, 1987. ULMANN, D.G. The Mechanical Design Process. New York, McGraw Hill College Div, 1997. VDI-GKE (Verein Deutscher Ingenieure – professional engineers’ body). VDI Guideline 2221, systematic approach to the design of technical systems and products. Dusserdorf, VDI Verlag, 1987. WELCH, R.V. & DIXON, J.R. Representing function, behavior and structure during conceptual design. Proceedings of the 3th International Conference on Design Theory and Methodology, New York, USA, ASME, pp. 11-18, 1992. WOODSON, T.T. Introduction to Engineering Design. New York, Mc-Graw Hill Book Company, 1966. YOSHIKAWA, H. Design Philosophy: the state of the art. CIRP Annals, v. 38, n.o 2, pp. 579-586, 1989. YOSHIKAWA, H. General Design Theory as a Formal Theory of Design. In: YOSHIKAWA, H. e GOSSARD D. Intelligent CAD, I. Amsterdam, North-Holland, 1990. YOSHIKAWA, H.; ARBAB, F. & TOMIYAMA, T. Intelligent CAD, III. Amsterdam, North-Holland, 1991. 42 Dezembro • 2000 g y p Fontes de Erros em Metrologia a Três Coordenadas: considerações gerais Error Sources in Coordinate Metrology: general considerations ROXANA M. MARTINEZ ORREGO Universidade Metodista de Piracicaba [email protected] BENEDITO DI GIACOMO Escola de Engenharia de São Carlos (EESC-USP) [email protected] ALVARO J. ABACKERLI Universidade Metodista de Piracicaba [email protected] RESUMO - Ao longo das últimas quatro décadas, o uso da metrologia a três coordenadas incrementou-se, significativamente, em todos os ramos da indústria. As máquinas de medir a três coordenadas (MM3C) são instrumentos versáteis, que possibilitam aplicações gerais e reduzem o tempo das avaliações dimensionais, necessárias para definir as características principais de peças manufaturadas. Dessa forma, elas proporcionam uma infra-estrutura metrológica muito mais modesta, porém ideal para os sistemas integrados de manufatura. Do ponto de vista metrológico, as propriedades mais cobiçadas das máquinas de medir a três coordenadas – sua flexibilidade e versatilidade – as tornam, entretanto, instrumentos extremamente complexos quando se trata de avaliar seu desempenho metrológico e, mais ainda, quando se tenta definir a rastreabilidade de suas medições e expressar adequadamente sua incerteza de medição. O desempenho metrológico das MM3C tem sido, desde o início, objeto de estudo de numerosas instituições e centros de pesquisa em todo o mundo, assim como dos próprios fabricantes dessas máquinas. Neste trabalho, são apresentadas e discutidas as principais fontes de erros e incertezas das máquinas de medir a três coordenadas, com base nos resultados de uma ampla pesquisa bibliográfica sobre o estado da arte da calibração e a rastreabilidade de tais máquinas. Palavras-chave: MÁQUINAS DE MEDIR – ERROS – INCERTEZA DE MEDIÇÃO – CALIBRAÇÃO. ABSTRACT - In last four decades, the use of coordinate metrology increased, significantly, in all industry branches. Coordinate measuring machines (CMM) are versatile instruments, that facilitate general applications and reduce the time of the dimensional evaluations necessary to define the main characteristics of manufactured pieces. This way, they provide a much more modest metrological infrastructure, ideal for the integrated manufacture systems. However, of a metrological point of view, the more coveted properts of the coordinate measuring machines – its flexibility and versatility – turn them, extremely, complex instruments when the goal is the evaluation of its volumetric performance and, stiller, when its measurements traceability should be defined and the measurement uncertainty appropriately expressed. Since the beginning, the CMM volumetric performance has been studied by numerous institutions and research centers all over the world, as well as by the proper machines manufacturers. In this work, the main sources of errors and uncertainties of coordinate measuring machines are presented and discussed, with base on the results of a wide bibliographical research on the state of the art of coordinates measuring machines calibration and traceability. Keywords: COORDINATE MEASURING MACHINE – ERROR – MEASUREMENT UNCERTAINTY – CALIBRATION. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 43 g y p INTRODUÇÃO A A crescente exigência de produtos de alta qualidade, e com alto grau de diferenciação, foi a principal característica do mercado consumidor nas últimas décadas do século XX. Essa demanda aqueceu a competição industrial e acelerou o desenvolvimento de sistemas de manufatura automatizados, tornando-os muito mais flexíveis, capazes de realizar processos de fabricação curtos e rápidos, com menor custo e com melhor qualidade. No âmbito da indústria metal mecânica, a busca pela qualidade também está diretamente relacionada às avaliações dimensionais, que definem, em grande parte, as características principais dos produtos. Paralelamente à automatização das máquinas ferramentas, surge a necessidade de desenvolver meios de medição que não limitem a efetividade dos novos sistemas de manufatura, ou seja, que permitam realizar as inspeções de forma fácil e rápida, mas ainda fornecendo resultados confiáveis. É nesse contexto que aparece a indústria das máquinas de medir a três coordenadas. A primeira máquina de medir por coordenadas foi introduzida na indústria em 1959, por Ferranti, Ltd. of Dalkeith, na Escócia. Para este fabricante havia ficado claro que os instrumentos de medição convencionais, encarregados até então pela inspeção das peças produzidas, não acompanhavam o ritmo de produção de suas novas máquinas automatizadas. Apesar de não pertencer ao ramo de equipamentos de medição, inventou uma “máquina de medir” como um produto para completar sua família de máquinas ferramentas controladas numericamente (Phillips, 1995). A máquina da Ferranti apresentava um desenho original baseado em um mínimo de restrições cinemáticas, mas que ainda permitiam o alinhamento de seus elementos móveis. Ela oferecia uma resolução de 0,012 mm e possuía um curso muito pequeno (254 mm) na direção Z. As leituras eram feitas só nas direções X e Y (610 mm e 381 mm, respectivamente). A máquina usava uma sonda rígida para estabelecer os pontos de inspeção. Segundo Ferranti, ela estava desenhada para inspecionar as peças com uma acuracidade de 0,025 mm. 44 De início, os fabricantes de instrumentos de medição não reconheceram o potencial oferecido por essa iniciativa de Ferranti; no entanto, seu uso revolucionou os métodos de inspeção de peças manufaturadas, minimizando o tempo de medição e os requisitos relacionados à qualificação do pessoal de inspeção. De fato, em poucos anos surgiu um mercado para essa invenção, que levou ao desenvolvimento da indústria de máquinas de medir a três coordenadas, que oferece, hoje em dia, máquinas em diferentes configurações mecânicas (ver fig. 1), capazes de realizar as mais diferentes tarefas de medição. Entretanto, nem mesmo o grande entusiasmo despertado pela universalidade das MM3C evitou a preocupação pela sua acuracidade. Apesar de seu muito particular princípio de medição, o desempenho metrológico de uma MM3C depende, como ocorre com qualquer outro instrumento, de seus erros de medição. Em geral, todos os autores estudados concordam com a extrema complexidade da análise dos erros de uma MM3C e de suas respectivas fontes. São muitas as variáveis envolvidas na análise, incluindo a própria configuração mecânica da máquina, cujas estruturas mais comuns são chamadas de tipo “ponte móvel”, “ponte fixa”, “cantilever”, “braço horizontal” e “pórtico” (Ni & Wäldele, 1995). A figura 1 apresenta cinco destas configurações. Todas as configurações infringem o princípio de Abbé, principal postulado da metrologia dimensional (Journal for Instrumental Information, 1890), pois geralmente as escalas estão localizadas fora da linha de medição, o que introduz o efeito de possíveis movimentos angulares não desejados, mas presentes durante a movimentação dos eixos das máquinas. O grande número de variáveis envolvidas na análise do desempenho metrológico de MM3C e a sua variedade constituem a principal causa do atraso significativo no processo da especificação do seu desempenho (Emery, 1965; CIRP STC “Me” Working Party on 3DU, 1978; e Productions Points, 1983), de modo que não existe, ainda hoje, um acordo internacional sobre os critérios e os métodos para a sua calibração. Dezembro • 2000 g y p Fig. 1. Configurações de Máquinas de Medir a Três Coordenadas CARACTERIZANDO UMA MÁQUINA DE MEDIR A TRÊS COORDENADAS Uma Máquina de Medir a Três Coordenadas, independentemente de qual seja sua estrutura mecânica, é a representação física de um sistema de coordenadas cartesiano. A máquina define a geometria REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 de uma peça através de pontos coordenados (Xi, Yi, Zi), dispersos discretamente sobre a sua superfície. Os eixos cartesianos são simulados, geralmente, por um conjunto de guias e mancais aerostáticos e com ajuda de escalas optoeletrônicas. Para obter os pontos sobre a superfície das peças é usada uma sonda de medição. 45 g y p No entanto, o conhecimento dos pontos coordenados não é suficiente para avaliar os parâmetros das peças (diâmetros, distâncias, ângulos etc.). é necessário que a máquina tenha associado um programa computacional com algoritmos matemáticos adequados para ajustar os pontos coordenados às geometrias – usualmente chamadas de geometrias substitutas – que modelam a peça medida. As características ou parâmetros principais das geometrias substitutas ou da sua combinação são comparadas, então, às dimensões e tolerâncias do projeto da peça. A figura 2 ilustra a natureza das medições com uma MM3C. Os efeitos das diferentes fontes de erros presentes em uma MM3C se combinam das mais diversas formas e se refletem, diretamente, nos pontos coordenados que definem as geometrias substitutas. É exatamente essa particularidade que torna extremamente complexa a análise dos erros e da incerteza de medição de qualquer tipo de máquina de medir, pois cada ponto coordenado é influenciado de forma diferente. Na literatura, os erros de uma máquina de medir a três coordenadas são agrupados geralmente, segundo as suas fontes (Hocken, 1980; Burdekin & Voutsadopoulos, 1981; Harvie, 1986; Di Giacomo, 1986; De Nijs et al., 1988; Weekers & Schellenkens, 1995; e Schellenkens & Rosielle, 1998). Observando tal critério, no presente trabalho agrupam-se os erros nos sete grupos resumidos a seguir: 1. erros em função de imperfeições da geometria da máquina, resultantes da manufatura, da montagem e do desgaste de seus componentes, que introduzem graus de liberdade não desejados, e erros resultantes de forças estáticas, como o próprio peso dos componentes móveis das máquinas, que introduzem deformações elásticas; 2. erros do sistema de medição ou sonda, encarregado de definir os pontos coordenados através do contato com a superfície de uma peça; 3. erros relacionados aos algoritmos matemáticos, que definem as geometrias substitutas, e com sua respectiva implementação computacional (software) (Hocken et al., 1993); 4. erros relacionados com a estratégia de medição: número de pontos e dispersão destes sobre a superfície da peça; 5. erros derivados da influência das propriedades da peça a ser medida: principalmente de erros de forma, rugosidade e peso; 6. erros devidos às deformações induzidas na máquina pelas variações e os gradientes de temperatura; 7. e erros dinâmicos devido a vibrações. Fig. 2. 46 Dezembro • 2000 g y p Os erros dos três primeiros grupos são erros próprios ou intrínsecos das MM3C e a influência deles se manifesta das mais diversas formas. Os erros dos grupos 4, 5, 6 e 7, por sua vez, independem das MM3C, pois derivam de condições externas a elas, tais como: a temperatura ambiental, a escolha pelo operador de uma estratégia de medição, vibrações externas provocadas pelo funcionamento de outras máquinas etc. De todos esses erros, os que mais influenciam a acuracidade das máquinas de medir a três coordenadas são os pertencentes aos grupos 1, 2 e 6 (Hocken, 1980 e 1993). Nesse ponto coincidem todos os autores estudados. Cabe então discutir alguns aspectos relevantes relacionados às fontes de erros, que afetam o resultado das medições realizadas com as MM3C. fig. 3). Três destes erros são de translação: um erro de escala ou posição e dois erros de retilineidade. Os outros três são erros angulares ou de rotação infinitesimais, chamados de ROLL, PITCH e YAW, cujos efeitos são amplificados pela presença de braços de Abbe. Além dos 18 erros paramétricos, há três outros não-paramétricos, que são os erros de ortogonalidade entre os eixos da máquina, totalizando 21 erros geométricos. A combinação dos 21 erros geométricos de uma MM3C gera o que se convencionou chamar de erro volumétrico. A forma geral do erro volumétrico para qualquer ponto espacial no volume de trabalho de uma máquina de medir a três coordenadas é dada pela expressão (Di Giacomo, 1986): ERROS GEOMÉTRICOS onde Exi, Eyi e Ezi representam a combinação dos erros geométricos que influenciam em cada uma das três direções preferenciais. As MM3C usadas diretamente na linha de produção apresentam, freqüentemente, erros geométricos de grandezas próximas às das tolerâncias atuais de uma grande variedade de peças (Hocken et al., 1993). A natureza sistemática dos erros geométricos permite sua correção ou compensação através de programas computacionais, o que melhora de forma expressiva a acuracidade das máquinas (Hocken et al., 1977; Zhang et al., 1985; Belforte et al., 1987; Sartori, 1995; Kunzmann et al., 1995; e Martinez Orrego, 1999). Ao longo de todos estes anos, os erros mais estudados têm sido os erros geométricos, pertencentes ao primeiro grupo, pois sua contribuição para a acuracidade das máquinas é considerada a mais significativa de todas (Peggs, 1990; e Hocken et al., 1993). Os elementos móveis das máquinas de medir a três coordenadas são desenhados como corpos rígidos: com restrições cinemáticas para 5 de seus 6 graus de liberdade e com movimento em uma única direção. Em uma máquina de medir com três eixos têm-se, então, para cada eixo da máquina, 6 erros geométricos, chamados também de erros paramétricos, devido à sua dependência com a posição (ver Ev i = Ex i + Ey i + Ez i (1) Fig. 3. Erros geométricos de uma máquina de medir a três coordenadas (Martinez Orrego, 1999). A) 6 erros geométricos do carro com movimento de translação pura na direção Y; B) 3 erros angulares -a k o – devido à falta de ortogonalidade entre os eixos perpendiculares à direção k. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 47 g y p ERROS DEVIDO AO PESO DOS COMPONENTES DA MÁQUINA Fig. 4. Sonda do tipo touch – trigger (Phillips, 1995). O movimento contínuo dos carros encarregados de posicionar o ponto de prova no volume de trabalho de uma máquina de medir desloca o centro de gravidade de sua estrutura, provocando variações dos estados de deformação dela. Por exemplo, a variação da posição e da grandeza dos esforços internos das guias, provocada pelo peso dos carros em movimento, pode modificar os erros geométricos da máquina (Hocken, 1980; e Cardoza, 1995). Os efeitos dos erros induzidos pelo peso próprio dos componentes das máquinas de medir podem ser, se não eliminados, pelo menos minimizados através de desenhos e materiais capazes de fornecer maior rigidez à estrutura das máquinas. É comum o uso de técnicas de protensão e das técnicas de apoio de Airy para minimizar as deflexões sofridas pelas vigas ou guias muito longas (Trumpold, 1984; Cardoza, 1995; e Kunzmann et al., 1995). ERROS DO SISTEMA DE MEDIÇÃO OU SONDA A sonda é o sistema de medição encarregado de tomar os pontos coordenados sobre a superfície da peça que está sendo medida pela MM3C. Inicialmente, dispunha-se somente de sondas rígidas: esferas, cones, discos e cilindros. Com o passar do tempo, desenvolveram-se sondas com mecanismos eletromecânicos, como o bem conhecido touch-trigger, que agilizaram e ampliaram o uso das máquinas de medir. Uma sonda do tipo touch-trigger funciona como um interruptor elétrico: quando a ponta da sonda faz contato com a superfície da peça, fecha-se ou abre-se um circuito (por exemplo, fechando ou abrindo um contato mecânico) e envia-se um pulso elétrico ao sistema de controle que imediatamente lê a posição indicada pelas três escalas da máquina. A figura 4 mostra a estrutura de uma sonda desse tipo. Em princípio, o desenho da sonda touch-trigger restringe todos os movimentos da ponta de prova. Dessa forma, sua posição com respeito ao corpo da sonda é sempre conhecida. Qualquer desvio ou distorção dessa posição inicial são interpretados, então, como um ponto de medição (Van Vliet & Schellekens, 1998). 48 As sondas do tipo touch-trigger são as mais usadas nas MM3C mas, geralmente, quando avaliadas, apresentam um padrão de três lóbulos que provoca um erro, freqüentemente, da mesma ordem de grandeza das tolerâncias da peça. Pesquisas mais recentes, variando parâmetros como o comprimento e a orientação da haste usada na sonda, demonstraram que o valor desses erros pode equivaler várias vezes à tolerância desejada para medição (Hocken et al., 1993). Entretanto, outras famílias mais modernas de sondas touch-trigger têm princípios de funcionamento baseados em cristais piezelétricos, que lhes conferem melhores características funcionais, apresentando erros (padrão de lóbulos) não perceptíveis no nível de incerteza das MM3C. Outro tipo de sonda diz respeito àquelas que utilizam princípios ópticos ou optoeletrônicos (triangulação, reflexão, processamento de imagens etc.) para determinar os pontos coordenados. As sondas ópticas não fazem contato com a superfície das Dezembro • 2000 g y p peças e isso possibilita a medição de peças sensíveis ao contato ou de peças especialmente finas, cuja medição por contato requer esforços adicionais (Ni & Wäldele, 1995). Os erros sistemáticos devido à sonda, seja seu princípio de medição por contato ou óptico, podem ser, eventualmente e sob condições bastante específicas, modelados e compensados através de programas computacionais (Estler et al., 1996; Estler et al., 1997; e Pahk et al., 1996 e 1998). ERROS DERIVADOS DOS PROGRAMAS COMPUTACIONAIS Os programas computacionais associados a uma MM3C, basicamente, armazenam os pontos coordenados e determinam as geometrias substitutas através de algoritmos matemáticos que definem formas geométricas, como ponto, reta, plano, círculo, cilindro e cone, além de suas possíveis combinações: intersecção de dois planos, distância entre centros etc. Os fabricantes desenvolvem e utilizam diferentes algoritmos matemáticos para definir as geometrias substitutas (mínimos quadrados, mínimo círculo circunscrito, máximo círculo inscrito etc.) e os implementam em programas computacionais, sem que existam ainda especificações, internacionalmente aceitas, para estabelecer a sua integridade (Krecji, 1995). Em 1986, Porta & Wäldele do PhysikalischTechnische Bundesanstalt (PTB) relataram os resultados da primeira fase de um projeto da Commission of the European Communities sobre testes realizados com os algoritmos matemáticos para calcular reta, plano, círculo, cilindro e cone, usados por 12 programas diferentes de MM3C. Nesses testes foi usado um conjunto de pontos coordenados simulados para cada uma das geometrias. Os resultados fornecidos pelos diferentes programas, usando os pontos simulados, foram então comparados com os calculados por um programa de referência desenvolvido pelo PTB. As diferenças aí encontradas foram atribuídas aos algoritmos usados e à sua respectiva implementação, e não à limitada acuracidade dos computadores, mostrando, assim, que os programas computacionais não estão livres de erros. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 A implementação dos algoritmos é um fator importante. A maioria dos problemas de ajustes de geometrias não é linear. Isso obriga a usar técnicas recursivas para estabelecer os parâmetros corretos, mas tais técnicas geralmente são lentas e, portanto, muitos programadores terminam usando aproximações lineares para agilizar os cálculos, o que pode levar a resultados incorretos (Hocken et al., 1993; e Phillips, 1995). Em 1988, alertou-se para o fato de que certos algoritmos usados nos programas de MM3C para definir erros de forma e posição não calculavam os parâmetros destes erros segundo o estabelecido pela norma ANSI Y14.5: Dimensioning and Tolerancing Standard. O problema principal reside na interpretação geométrica das definições contidas nessa norma, que não estão baseadas no uso de ajustes por mínimos quadrados. No caso de um furo, por exemplo, especifica-se o maior círculo inscrito e no caso de um cilindro, o menor cilindro circunscrito; porém, como a maioria das MM3C define as geometrias usando o ajuste por mínimos quadrados, os programas não fornecem, em muitos casos, os resultados mais adequados (Hocken et al., 1993). A International Standard Organization (ISO) desenvolve, atualmente, uma norma com métodos de teste para elementos substitutos definidos usando mínimos quadrados (Krecji, 1995). ERROS DERIVADOS DA ESTRATÉGIA DE MEDIÇÃO Nos dias de hoje, a estratégia para medir uma peça é determinada pela experiência do operador da MM3C. Ele escolhe qual característica será medida primeiro, onde colocar os sistemas de coordenadas da peça para facilitar a medição, qual opção do programa usar para medir os parâmetros da peça e, sobretudo, quantos pontos tomar e como dispersá-los sobre a superfície dela. Entre todas essas escolhas, as que mais afetam o resultado da medição são as duas últimas: o número de pontos e a localização destes sobre a superfície da peça. Esses dois fatores estão interligados, diretamente, com a efetividade das aproximações feitas na implementação dos algoritmos escolhidos para definir as geometrias. O grau de concordância das aproximações implementadas 49 g y p com os valores matematicamente corretos depende da natureza da aproximação e do grupo particular de pontos analisados. As aproximações podem funcionar bem para muitas medições, mas também podem provocar erros consideráveis, quando analisada uma quantidade diferente de pontos coordenados ou quando estes são distribuídos de forma diferente sobre a superfície da peça (Hocken et al., 1993; Weckenmann et al., 1995; Phillips, 1995; e Weckenmann et al., 1998). Do ajuste de geometrias por mínimos quadrados, a partir de um número insuficiente de pontos coordenados e de uma inadequada distribuição desses pontos, pode-se obter resultados muito diferentes dos reais. Por exemplo, segundo Coy (1990), no cálculo de erros de formas, os resultados podem ser cinco vezes maiores que os verdadeiros. Situações similares acontecem na medição de todas as geometrias, apesar da existência de procedimentos de medição (“técnica de reversão”) que, se aplicados, permitem reduzir esses erros (Estler, 1985; Hocken et al., 1977; e Evans et al., 1996). Entretanto, tais técnicas não só requerem um número grande de pontos, o que aumenta o tempo de medição, mas também uma rigorosa capacitação do operador da máquina de medir. Por outro lado, sabe-se que os erros causados pelo número inadequado de pontos são, na maioria dos casos, muito menores quando se utilizam 50 ou mais pontos para definir a geometria (Hocken et al., 1993). Contudo, no processo de inspeção, deseja-se medir as peças o mais rápido possível, o que implica que a maioria dos usuários de MM3C medem as características das peças tomando o mínimo de pontos possíveis. Nos últimos anos, o objetivo principal de vários trabalhos de pesquisa tem sido a busca do mínimo de pontos necessários para descrever adequadamente cada geometria, segundo o algoritmo (mínimos quadrados, minimax etc.) usado para determinar seus parâmetros principais e considerando também sua distribuição sobre a superfície da peça (Caskey et al. 1991; Odayappan, 1992; Bourdet et al., 1993; Machireddy, 1993; Phillips et al., 1994; Weckenmann et al., 1995; e Edgeworth & Wilhelm, 1999). Odayappan (1992) propõe um número de pontos mínimo a quatro dos algoritmos 50 mais usados pelas MM3C para medir círculos: mínimos quadrados, minimax, mínimo círculo circunscrito e máximo inscrito. A recomendação feita neste trabalho considera, inclusive, o número de lóbulos da peça. De tudo o que foi exposto anteriormente, pode-se concluir serem necessários maiores volumes de dados para evitar os erros causados pela quantidade indevida de pontos e a sua distribuição. Isso requer o desenvolvimento de MM3C mais rápidas, de modo a compensar o aumento do tempo de medição (Hocken et al., 1993). Por outro lado, para evitar que as decisões a respeito da escolha do critério de avaliação e da quantidade de pontos e sua distribuição sejam tomadas pelos operários de forma intuitiva e baseada na experiência, são necessários sistemas inteligentes, capazes de analisar a geometria a ser medida e decidir o algoritmo, a quantidade de pontos e a distribuição mais apropriada para a medição (Hocken 1993; e Weckenmann et al., 1995). INFLUÊNCIAS DAS PROPRIEDADES DA PEÇA A SER MEDIDA Toda peça manufaturada é geometricamente imperfeita; nela estão presentes os efeitos das falhas do processo de sua manufatura. Quando se fixa a peça no desempeno de uma MM3C, podem ocorrer outras distorções, que, juntamente com suas imperfeições geométricas e seu acabamento superficial, podem levar a uma interpretação incorreta dos resultados da medição de determinada característica. Os erros causados pelas imperfeições da peça estão diretamente relacionados com as características da estratégia de medição e, principalmente, com aqueles aspectos, discutidos anteriormente, associados ao número de pontos tomados e à distribuição deles sobre a superfície da peça (Hocken et al., 1993; e Phillips, 1995). O peso das peças também influencia o resultado das medições com MM3C. A posição e a montagem da peça no desempeno causam deformações na estrutura da máquina, cuja forma e grandeza dependem do tipo e do tamanho da própria MM3C. Como ocorre com as deformações causadas pelo peso próprio dos componentes móveis da máquina, as deformações causadas pelo peso das Dezembro • 2000 g y p peças se transformam em modificações dos pontos coordenados (Cardoza, 1995). A rigidez do desempeno e dos elementos estruturais das máquinas é, portanto, um fator determinante da grandeza desses erros, mas, em geral, existem algumas formas de evitá-los ou diminuí-los. A influência da rugosidade da superfície das peças pode ser diminuída pelo uso de uma ponta com diâmetro adequado. Existem estudos que vinculam o tamanho do diâmetro da ponta da sonda ao valor de cut-off (um dos parâmetros adotados na medição de rugosidade) para estabelecer o limite máximo de números de pontos necessários a uma medição precisa dos erros de forma (Anbari & Trumpold, 1989). Para eliminar a influência do peso da peça nos resultados da medição, podem ser usadas diferentes “técnicas de reversão” (Estler, 1985; e Evans et al., 1996). ERROS INDUZIDOS TERMICAMENTE Embora os efeitos térmicos em uma MM3C sejam muito menores do que em máquinas-ferramentas, em razão da ausência de forças de corte e de motores potentes (Hocken, 1980), a segunda fonte de erros mais importante em uma máquina de medir são as mudanças e os gradientes de temperatura. Segundo Bryan (1995), a compensação, via programa computacional, dos erros geométricos torna as MM3C tão precisas quanto os instrumentos usados para levantar seus mapas de erros. O limite dessa correção é a repetibilidade, cuja causa1 mais relevante são as mudanças de temperatura. Mesmo que, na maioria das vezes, as MM3C sejam usadas em ambientes com temperatura controlada (20ºC), a temperatura ambiente e, conseqüentemente, a temperatura da máquina e da peça a ser medida podem variar. Essas variações derivam de diversas fontes e provocam os chamados erros térmicos, que, segundo Hocken (1993), podem ser do tipo e grandeza daqueles resultantes das imperfeições da geometria da máquina. As principais fontes de erros térmicos para MM3C estão resumidas a seguir: 1 Existem outras causas para a repetibilidade: histerese, sujeira, vibrações, variações no fornecimento de ar etc. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 influência do ambiente → depende da existência ou não de um sistema de controle de temperatura. A temperatura ambiente pode variar em função da presença de lâmpadas acessas, da temperatura externa e da proximidade do calor gerado por outras máquinas ou instrumentos; pessoas → o calor das pessoas próximas à máquina e a manipulação desta e das peças sem o devido isolamento térmico provocam variações de temperatura na peça e na máquina; memória térmica → quando ocorre uma mudança no ambiente, cada elemento de um sistema de medição necessita de um período de tempo diferente para “esquecer” as condições ambientais anteriores. Os elementos estruturais de uma MM3C, suas escalas e as peças a serem medidas por ela podem ser de materiais diferentes e, portanto, possuem coeficientes de expansão térmica também diferentes. Isso significa que elas entram em equilíbrio térmico com o ambiente em intervalos de tempo diferentes, durante os quais modificam temporariamente suas respectivas geometrias; calor gerado pela própria MM3C → de forma geral, as MM3C geram um mínimo de calor interno (Hocken, 1980; e Bryan, 1995). O uso de mancais aerostáticos elimina a maior parte dos atritos e os motores usados nas máquinas automatizadas não são potentes. O calor gerado por essas fontes é de dois tipos: temperaturas uniformes diferentes de 20ºC e temperaturas não uniformes (Bryan, 1995; e Vieira Sato, 1998). Das fontes anteriormente enunciadas, a única que pode gerar temperaturas uniformes é o ambiente. O padrão de comprimento é definido para uma temperatura de referência de 20ºC. Portanto, os elementos das máquinas, as escalas e as peças fabricadas de materiais com coeficientes de expansão térmica diferentes têm suas dimensões definidas para essa temperatura e, quando submetidos a outras temperaturas, se expandem de formas diferentes, provocando os denominados erros de expansão diferencial (nominal differential expansion-UNDE). Os erros de expansão diferencial podem ser quase que totalmente corrigidos e existem procedimentos gerais normalizados para a sua correção (ANSI/ASME Standard 51 g y p B89.6.2, 1973; e ANSI/ASME B89.4.1 – itens 3.1, 3.2, 4.1 e 4.2, 1997). Entretanto, os coeficientes de expansão térmica usados nos cálculos são, geralmente, valores tabelados que não correspondem exatamente aos coeficientes atuais. As diferenças são causadas por variações inevitáveis dos materiais, sofridas durante o processo de fabricação de qualquer peça. Os efeitos dessas diferenças são considerados no cálculo da incerteza da expansão diferencial (uncertainty of nominal differential expansion-UNDE), definida pela ANSI/ASME Standard B89.6.2 de 1973 como a soma das incertezas da expansão nominal da peça e do padrão (escala). As outras três fontes de erros térmicos mencionadas geram temperaturas não uniformes: gradientes e variações de temperatura. Qualquer mudança na temperatura do ambiente altera as dimensões da estrutura da máquina e de suas escalas, assim como da peça. No entanto, as mudanças de temperatura ocorridas no espaço imediato ao redor da máquina e da peça são chamadas de gradientes térmicos ou efeitos estáticos (Bryan, 1995) e causam expansões significativamente diferentes nas diversas partes de cada um dos elementos da máquina e da peça. Mudanças grandes e rápidas de temperatura provocam flexões nos elementos das máquinas em razão de a resposta nas partes finas ser mais rápida do que nas partes grossas. O uso de sistemas de controle de temperatura que façam circular o ar rapidamente, como também de materiais suficientemente homogêneos quanto a suas propriedades de expansão térmica minimiza ou permite controlar de certa forma os efeitos dos gradientes de temperatura (Bryan, 1995; e Genest, 1997). Porém, segundo a ANSI/ASME Standard B89.6.2 - 1973, revisada em 1979, não existe uma formulação geral para estimar os efeitos desses gradientes. A análise das variações de temperatura é muito mais complexa do que a dos gradientes. Vieira Sato (1998) define as variações de temperatura como a diferença do gradiente de temperatura em determinado ponto da máquina ou da peça com relação ao gradiente do estado inicial, quando todo o sistema está à temperatura ambiente. Contudo, sabe-se que, quando uma máquina opera a temperaturas diferentes de 20ºC, tais correções não elimi- 52 nam 100% dos erros térmicos. O índice de erro térmico (thermal error index–TEI), definido na norma anteriormente mencionada, proporciona uma estimativa do erro térmico geral como sendo uma porcentagem do erro total permitido. Segundo Balsamo et al. (1990), a compensação dos erros térmicos com programas computacionais faz sentido, somente, quando é requerida uma grande acuracidade. Esse autor define e resume as condições ambientais “razoáveis”, que minimizam os efeitos térmicos presentes em uma medição com MM3C: 1. temperatura média igual a 20ºC; 2. variação de temperatura menor que ± 2ºC; 3. gradiente de temperatura ao longo de qualquer direção menor que 2ºC/m; 4. variações de temperatura no tempo que proporcionem condições “quase estacionárias”. Erros Dinâmicos Nas máquinas de medir a três coordenadas, os efeitos dinâmicos são menores porque as forças envolvidas na medição são muito pequenas e, geralmente, os movimentos são lentos (Hocken, 1980). Na prática, entretanto, reconhece-se que a acuracidade das MM3C é especialmente sensível às vibrações externas e internas (Ni, 1995). Fora do laboratório, várias fontes de vibrações podem afetar as MM3C; entre as mais comuns encontram-se as máquinas-ferramentas, os compressores de ar, equipamentos de ventilação, rodovias e ferrovias. A forma mais efetiva de minimizar o efeito das vibrações nas MM3C é controlar suas próprias fontes, isolando-as. Por exemplo, pode-se aumentar a distância entre uma máquina-ferramenta e a máquina de medir, ou isolar a máquina-ferramenta em sua base. Mas isso nem sempre é possível e, usualmente, apesar de ser menos eficiente, isola-se a MM3C, apoiando-a em suportes com isolamento externo de vibração (Ni, 1995). Mesmo assim, é impossível obter uma fundação totalmente isenta da influência das vibrações. Torna-se então necessário garantir que o resíduo ainda presente das vibrações esteja sob os critérios do fabricante da máquina de medir. Algumas normas técnicas internacionais sugerem testes para analisar as vibrações nas MM3C (ver, entre outras, BS Dezembro • 2000 g y p 6808 – Part 3, 1989; e ANSI/ASME B89.4.1, 1997). Por outro lado, sabe-se que as sondas usadas nas MM3C são, especialmente, sensíveis a influências dinâmicas (inclusive quando a velocidade de movimentação é baixa), embora pouco tenha sido publicado a respeito. Algumas pesquisas bastante recentes estudam as limitações das sondas em relação ao seu comportamento sob influências dinâmicas (Van Vliet & Schllekens, 1996) e propõem modelos que possibilitam, em certa medida, a compensação dos erros resultantes dessas limitações (Weekers & Schellekens, 1995; e Mu & Ngoi, 1999). OUTROS FATORES QUE AFETAM O DESEMPENHO DAS MM3C A umidade, a pressão atmosférica, o sistema que fornece a energia elétrica, assim como a qualidade do ar comprimido, todos esses são fatores externos cujo comportamento também influencia o desempenho das MM3C. Em geral, para todos eles existem especificações que, se respeitadas, eliminam ou, pelo menos, diminuem em grande parte os seus efeitos sobre o desempenho das máquinas de medir. CONCLUSÕES O estudo da literatura existente sobre MM3C mostrou que não existem até o momento procedimentos internacionalmente aceitos, por usuários e fabricantes, para avaliar o seu desempenho metrológico. Em geral, ainda não é possível estabelecer uma cadeia metrológica para fins de rastreabilidade, requisito esse de importância vital para que se tenha confiabilidade nas medições executadas. As especificações e normas existentes (ver, entre outras, VDI/ VDE 2.617, 1986-1989; JIS B 7.440, 1987; CMMA, 1989; BS 6.808, 1989; ISO/CD 10.360-2, 1993; e ANSI/ASME B89.4.1, 1997) propõem Testes de Desempenho baseados na medição de artefatos-padrão em um número limitado de posições dentro do volume de trabalho de uma máquina. Os parâmetros de avaliação obtidos a partir desses testes fornecem informação sobre alguns aspectos da capacidade de uma máquina de medir, mas, de forma muito geral ou conservadora, sobre- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 estimando na maioria das vezes os seus erros. Além disso, tais testes garantem rastreabilidade somente para as condições de avaliação em que são realizados e para peças idênticas ao padrão utilizado. Qualquer mudança das condições do teste – por exemplo, na orientação da peça no volume de trabalho – impede a rastreabilidade, assim como as variações na geometria das peças implicam diretamente uma ausência de vínculo com a cadeia de dimensões rastreáveis. Na literatura, a abordagem metrologicamente correta para estabelecer a rastreabilidade das medidas feitas com máquinas de medir a três coordenadas ao metro padrão é chamada de “princípio do comparador”. Esse princípio pressupõe a medição de uma peça idêntica às peças que serão inspecionadas, nas mesmas condições e do mesmo modo em que se realiza a inspeção (Swyt, 1995; e Piratelli, 1998). Porém, é impraticável dispor de uma peçapadrão para cada peça possível de ser medida em uma MM3C. Na busca de uma alternativa viável para a aplicação do “princípio do comparador”, surgiram pesquisas envolvendo modelos matemáticos, cuja implementação é chamada de Máquina Virtual de Medir a Três Coordenadas. A partir dos erros volumétricos das máquinas, eles tentam simular o seu comportamento metrológico em diferentes operações de medição (Kunzmann, 1993; Schwenke et al., 1994; e Cardoza, 1995). As propostas mais interessantes dessa abordagem diferem, principalmente, no método utilizado para calibrar os erros individuais da máquina de medir e no modelo que os combina para gerar seu mapa de erros volumétricos. Finalmente, nenhuma das propostas estudadas, especificadas em normas ou não, para a avaliação do desempenho metrológico de MM3C mostra, de forma explícita, o cálculo da incerteza de medição das diferentes medições. Na prática, tanto os fabricantes como os usuários utilizam os mais variados critérios para avaliar o desempenho e a incerteza das MM3C (Knapp et al., 1991; e Swyt 1995). Isso permite concluir que existem ainda muitas lacunas no desenvolvimento técnico-científico relativo às formas de testes para essas máquinas, a partir das quais seja possível extrair as características 53 g y p que determinam seu desempenho e garantem sua rastreabilidade. Agradecimentos Os autores agradecem à FAPESP pelo suporte financeiro (94/5765-2; 96/5961-1). REFERÊNCIAS BIBLIOGRÁFICAS ANBARI, N. & TRUMPOLD, H. The influence of surface roughness in dependence of the probe ball radius measuring the actual size. CIRP Sc. Tech. Comm. Report (Surface Metrology), 1989. ANSI/ASME B89.4.1 (formerly ANSI/ASME B89.1.12M): Methods for performance evaluation of coordinate measuring machines, 1997. ANSI/ASME Standard B89.6.2: Temperature and Humidity Environment for Dimensional Inspection, 1973. BALSAMO, A.; MARQUES, D. & SARTORI, S. A method for thermal deformation corrections of CMMs. Annals of the CIRP, 1990. BELFORTE, G.S. et al. Coordinate Measuring Machines and Machine Tools Selfcalibration and Error Correction. Annals of the CIRP, 36 (1), 1987. BOSCH, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. BOURDET, P.; LARTIGUE, C. & LEVEAUX, F. Effects of data point distribution and mathematical model on finding the bestfit sphere to data. Precision Engineering, 15 (3): 150-157, July 1993. BRYAN, J.B. Temperature Fundamentals. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. BS 6808 Parts 1-3: British Standard – Coordinate Measuring Machines, 1989. BURDEKIN, M. & VOUTSADOPOULOS, C. Computer aided calibration of the geometric errors of multi-axis coordinate measuring machines. Proc. Instn. Mech. Engrs., 195: 231-239, 1981. CARDOZA, J.A.S. Máquinas Virtuais de Medir a Três Coordenadas. São Carlos, 1995. [Tese de doutorado, EESC/USP]. CASKEY, G. et al. Sampling Techniques for Coordinate Measuring Machines. Proc. of the NSF Conference, 1991. CIRP STC “Me” Working Party on 3D.A proposal for defining and specifying the dimensional uncertainty of multi-axis measuring machines. Annals of the CIRP, 27 (2), 1978. CMMA-Coordinate Measuring Machines Manufacturing Association. CMMA - Accuracy Specification for Coordinate Measuring Machines, London, 1989. COY, J. Sampling error for co-ordinate measurement. Proceedings of the 28thInternational MATADOR Conference, pp. 481489, Manchester, April 1990. De NIJS, PRé-NOME et al. Modeling of a coordinate measuring machine for the analysis of its dynamic behavior. Annals of the CIRP, 37 (1), 1988. Di GIACOMO, B. Computer aided calibration and hybrid compensation of geometric errors in coordinate measuring machines. Manchester, 1986. [Ph.D. Thesis, Institute of Science and Technology/University of Manchester]. EDWORTH, R. & WILHELM, R.G. Adaptive sampling for coordinate metrology. Precision Engineering, 23: 144-154, 1999. EMERY, J. K. Dimensional Metrology Standardization. Mechanical Engineering, 40-45, 1965. ESTLER, W.T. Calibration and use of optical straightedges in the metrology of precision machines, Optical Engineering, 24 (3): 372-379, May/June 1985. ESTLER, W.T. et al. Practical Aspects of touch-trigger probe error compensation. Precision Engineering, 21: 1-17, 1997. ____________. Error compensation for CMM touch-trigger probes. Precision Engineering, 19: 85-97, 1996. EVANS, C.; HOCKEN, R. & ESTLER, W.T. Self-Calibration: Reversal, Redundancy, Error Separation and “Absolute Testing”. Annals of the CIRP, 45 (2), 1996. GENEST, D. Thermal Effects: understanding their causes can minimize their influence on precision measurement. Mfg.The Brown&Sharpe Publication of Precision Measurement, v. 4, issue 2, 1997. HARVIE, A. Factors affecting component measurement on coordinate measuring machine. Precision Engineering, 18 (1): 1318, 1986. HOCKEN, R. Technology of Machine Tool, v. 5: Machine Tool Accuracy. Lawrence Livermore Laboratory/Univ. of California, 1980. HOCKEN, R.; RAJA, J. & BABU, U. Sampling Issues in Coordinate Metrology. Mfg. Rev., Dec. 1993. HOCKEN, R. et al. Three Dimensional Metrology. Annals of the CIRP, 26 (2): 403-408, 1977. ISO/CD 10.360-2: Methods for the Assessment of the Performance and Verification of Co-ordinate Measuring Machines, 1993. JIS B 7440: Test Code for Accuracy of Coordinate Measuring Machines, 1987. 54 Dezembro • 2000 g y p KNAPP, W.; TSCHUDI, U. & BUCHER, A. Comparison of Different Artifacts for Interim coordinate measuring machine checking: a report from the Swiss Standard Committee. Precision Engineering, 13 (4): 277-281, 1991. KRECJI, J.V. Application Software. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. KUNZMANN, H.; TRAPET, E. & WäLDELE, F. Concept for the Traceability of Measurements with Coordinate Measuring Machines. 7th Int. Precision Eng. Seminar, Kobe, 1993. KUNZMANN, H; WäLDELE, F & NI, J. Accuracy Enhancement. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. MACHIREDDY, R.K.; HARI, J. & HOCKEN, R. Sampling Techniques for Measurement of the Plane-Surface Using a Coordinate Measuring Machine. National. Des. Engrg. Conference. ASME, 1993. MARTINEZ ORREGO, R.M. Um método de calibração direta para máquinas de medir a três coordenadas. São Carlos, 1999. [Tese de doutorado, EESC/USP]. MU, Y.H. & NGOI, K.A. Dynamic Error Compensation of Coordinate Measuring Machines for High-Speed Measurement. Int. J. of Advanced manufacturing Technology, 5 (11): 810-814, 1999. NI, J. Environmental Control. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. NI, J. & WäLDELE, F. Coordinate Measuring Machines. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. ODAYAPPAN, O. Development of Methodologies for Measurement of circles on a Coordinate Measuring Machine. Charlotte, 1992. [Master Thesis, UNC Charlotte]. PAHK, H.; KIM, J. & LEE, K. Integrated compensation system for errors introduced by measurement probe and machine geometry in commercial CMMs. International Journal of Machine Tools Manufacturer, 36 (9): 1.045-1.058, 1996. PAHK, H.J.; BURDEKIN, M. & PEGGS, G.N. Development of Virtual Measuring Machine Incorporating Probe Error. Proceedings of the Institution of Mechanical Engineers, part B: Journal of Engineering Manufacture, 212 (issue B7): 533-548, 1998. PEGGS, G.N. Traceability for co-ordinate measurement technology. 27th International MATADOR Conference, Manchester, pp. 463-468, 1990. PHILLIPS, S.D. Performance Evaluations. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. PHILLIPS, S.D. et al. A Study on the Interaction of Form Error and Sampling Strategy for Spheres. NIST Journal of Research, 1994. PIRATELLI, A. Método para avaliação do desempenho de máquinas de medir a três coordenadas através de planejamento de experimento. São Carlos, 1998. [Tese de doutorado, EESC/USP]. PORTA, C. & WäLDELE, F. Testing of three coordinate measuring machine evaluation algorithms. Report EUR 10909 EN, CEC, 1986. PRODUCTIONS POINT: Performance Evaluation of coordinate measuring machines. Precision Engineering, 5 (3), July/1983. SARTORI, S. Geometric error measurement and compensation of machines. Annals of the CIRP, 44 (2), 1995. SCHELLEKENS, P. & ROSIELLE, N. Design for precision: currents status and trends. Annals of the CIRP, 47 (1): 557-586, 1998. SCHWENKE, H. et al. Experience with the Error Assessment of Coordinate Measurements by Simulations, Proceedings of the 3rd International Conference on Ultraprecision in Manufacturing Engineering. Aachen, pp. 370-373, 1994. SWYT, D.A. The international standard of length. In: Bosch, J.A. Coordinate Measuring Machines and Systems. New York: Marcel Dekker, Inc., 1995. TRUMPOLD, H. Grundlagen der Längenprüftechnik-Eine Einführung. Fachb. Leipzig, 1984. VAN VLIET, W.P. & SCHELLEKENS, P.H.J. Accuracy Limitations of Fast Mechanical Probing. Annals of the CIRP, 45 (1): 483487, 1996. ______________. Development of a fast mechanical probe for coordinate measuring machines. Precision Engineering, 22 (3): 141-152, 1998. VDI/VDE 2617 Parts 1-4: Accuracy of Coordinate Measuring Machine. Düsseldorf, 1986-89. VIEIRA SATO, D.P. Uma contribuição ao modelo de sintetização de erros em máquinas ferramentas. São Carlos, 1998. [Tese de doutorado, EESC/USP]. WECKENMANN, A. et al. Functionality-oriented evaluation and sampling strategy in coordinate metrology. Precision Engineering, 17: 244-252, 1995. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 43-56 55 g y p _________________. The Influence of Measurement Strategy on the Uncertainty of CMM-Measurements. Annals of the CIRP, 47 (1): 451-454, 1998. WEEKERS, W.G. & SCHELLENKENS, P.H.J. Assessment of Dynamics Errors of CMMs for fast Probing. Annals of the CIRP, 44 (1): 469-474, 1995. ZHANG, G. et al. Error compensation of coordinate measuring machines. Annals of the CIRP, 34 (1): 445-448, 1985. 56 Dezembro • 2000 g y p Design of a Digital Controller for a Sub-micrometric Positioning System Projeto de um Controlador Digital para um Sistema de Posicionamento Submicrométrico WALTER LINDOLFO WEINGAERTNER Universidade Federal de Santa Catarina [email protected] RICARDO COMPIANI TAVARES Universidade Federal de Santa Catarina [email protected] CZESLAU BARCZAK Universidade Federal de Santa Catarina [email protected] CARLOS A. MARTIN Universidade Federal de Santa Catarina [email protected] RESUMO – Neste artigo é proposto o projeto de um controlador digital de alta resposta dinâmica, projetado para o controle de posição de um sistema de posicionamento submicrométrico. Tal sistema posicionador simulado é constituído de uma mesa guiada por mancais de molas (flexural spring guides), acionada por um atuador piezelétrico (piezoelectric actuator) e com extensômetros dispostos em ponte para o sensoreamento de sua posição linear. A discretização do sistema de posicionamento submicrométrico, compreendendo o atuador piezelétrico e seus subsistemas mecânicos e eletrônicos, foi executada com sucesso. A resposta dinâmica da planta e do grampeador de ordem zero (zero-order hold) foi muito boa, com uma sobrepassagem (overshoot) menor em aproximadamente 20%, comparada com a resposta dinâmica do controlador e da planta contínuos no tempo. O projeto do controlador PD (Proporcional-Derivativo) discreto resultou em um sistema com desempenho dinâmico excelente e com tempo de resposta e tempo de estabilização bem menores do que os resultados obtidos pela discretização do sistema contínuo. Palavras-chave: CONTROLADOR DIGITAL – POSICIONAMENTO SUBMICROMÉTRICO – DISCRETIZAÇÃO – ATUADOR PIEZELÉTRICO – CONTROLADOR PD. ABSTRACT – This paper concerns a digital controller design for position control of a sub-micrometric system of high dynamic response. The system is assembled on a table with flexural spring guides driven by a piezoelectric actuator, and with extensometers for linear position measurement. The discretization of the sub-micrometric positioning system through the piezoelectric actuator, and its mechanical sub-system was successfully performed. The dynamic response of the plant with zero-order hold was very good, with an overshoot of less than 20%, same as response of the continuous system. The design of a PD discreet controller resulted in a even better dynamic performance, with rise and settling times less than those obtained with the discretization of the continuous system. Keywords: DIGITAL CONTROLLER – SUB-MICROMETRIC POSITIONING – DISCRETIZATION – PIEZOELECTRIC ACTUATOR – PD CONTROLLER. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64 57 g y p INTRODUCTION T his paper presents the digital controller design for a sub-micrometric positioning system with a single translation axis, using a piezoelectric actuator and flexural spring guides, directly driven. The design of the controller was based in two methods: i) design of a digital controller by discretization of the continuous system; ii) design of a digital controller by discretization in time (discret PID controller in z-plane). The piezoelectric actuator used in the sub-micrometric positioning is a P-172 of Physik Instrumente. The P-172 have four extensometers for the sub-micrometric positioning feedback control of the table. The following list provides technical data of P-172. List 1. Technical data of P-172. Technical characteristics P-172 Nominal Voltage –1000 V Maximum Operational Voltage –1500 V Pole negative Maximum Expansion Strength 1000 N Maximum Contraction Strength 100 N Nominal Expansion (-1000 V) 20 µm Maximum Expansion (-1500 V) 30 µm Rigidity 35 N/µm Electric Capacitance 38 nF Ressonance Frequency 9 kHz Thermal Dilatabilty Coeficient 0.4 µm/K Weight 0.08 N The positioning system have the following characteristics, which must be satisfied by the controller: • precision of positioning ± 50 nm; • resolution 0.1 µm; • settling time maximum 10 ms; • rise time maximum 0.5 ms. 58 DESIGN OF THE CONTINUOUS CONTROLLER The sub-micrometric positioning system model was established considering the piezoelectric actuator with its electronics, and the mechanics, resulting in the following system transfers functions (Ogata, 1998; Tavares, 1995; e Troncoso et al., 1994). The transfer function of the piezoelectric actuator with its electronics is given by: K ⋅ ω 2 n1 G(s) 1 = -------------------------------------------s 2 s + 2ξ 1 ω n1 + ω n1 (1). From the references (Tavares, 1995; Troncoso et al., 1994; Lutrell et al., 1987) one may consider that the natural frequency ωn1 is 5.03 x 104 rad/s, the damping ratio ξ1 is 0.7, and the gain K is 1 x 103 µm/V. Entering the values in equation (1), results: 6 2.53x10 G ( s ) 1 = -------------------------------------------------------------2 4 9 s + 7.04x10 s + 2.5x10 (2). The positioning system mechanics transfer function is defined by: 2 ω n2 G ( s ) 2 = --------------------------------------2 2 s + 2ξ 2 ω 2 + ω 2 (3). Where, from Tavares (1995), one obtaIn: ωn2 = 2 x 104 rad/s; ξ2 = 0.08. Entering the values in equation (3), results: 8 4x10 G ( s ) 2 = -----------------------------------------------------2 3 8 s + 3.2x10 s + 4x10 (4). The figure 1 shows the block diagram of the continuous system. Making G(s)=G(s)1 . G(s)2 (5), results: Dezembro • 2000 g y p 15 1.01 × 10 G ( s ) = ----------------------------------------------------------------------------------------------------------------------------------------------------4 4 3 9 2 13 18 s + 7.36 × 10 s + 3.16 × 10 s + 3.64 × 10 s + 1.01 × 10 (6). Fig. 1. Block diagram of the positioner feedback control The figure 2 shows the step response of the system and figure 3 show a Bode Diagram (or frequency response) of the continuous system. Fig. 2. Step Response of the System. -3 1.8 x 10 1.6 1.4 The sub-micrometric positioning system showed a excellent rise time of 0.25 ms, less than the specified 0.50 ms. The system showed a settling time is 5 ms, less than the specified 10 ms. The gain margin is 60dB, corroborating the excellent dynamics of the sub-micrometric positioning system. The sub-micrometric positioning system showed initially a overshoot of 70%, however the system stabilized rapidly. 1.2 CONTINUOUS PLANT DISCRETIZATION 1 0.8 This item will present the discreet transfer function of the plant for the sub-micrometric positioning system, with the selection and analysis of zero-order hold (ZOH) continuous in time. A discretization of the continuous transfer function G(s), according to Franklin (1998), Bishop (1997) and Ogata (1995), will then made. 0.6 0.4 0.2 0 0 1 2 3 4 5 -3 x 10 Fig. 3. Frequency Response of the System. SELECTION AND ANALYSIS OF ZERO-ORDER HOLD Goz(s) INFLUENCE Gain dB 0 -100 By the aproximation gived by equation (6) with sampling time T = 0.0001s = 0.1 ms, results: -200 2 10 10 3 4 10 Frequency ( rad/sec) 10 5 10 6 Phase deg 0 -180 -360 10 2 10 3 4 10 Frequency ( rad/sec) REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64 10 5 10 6 2⁄T G oz ( S ) = ------------------s+2⁄T (7), 2 ---------------0.0001 20000 G oz ( S ) = ------------------------- ⇒ G oz ( S ) = ----------------------2 s + 20000 s + ---------------0.0001 (8). 59 g y p Fig. 4. Block diagram of the continuous system with Goz(s). Fig. 5. Root Locus of the system with. dynamics, since this pole tends to negative infinit. The gain margin of system is 60 dB (fig. 6). Goz(s)Goz(s) The figure 7 presents the step response of the sub-micrometric positioner. The overshoot of the system with Goz(s) is the approximately 12% less than the continuous system response without zeroorder hold (fig. 2). The rise time with Goz(s) is 3 ms. The inclusion of zero-order hold Goz(s) in the continuous system increased he dynamic performance of the sub-micrometric positioner. Fig. 7. Step response of the sub-micrometric positioner with Goz(s). Fig. 6. Bode Diagrams of the system with. PLANT DISCRETIZATION The sub-micrometric positioner with zeroorder hold Goz(s) is represented in figure 4. The figures 5 and 6 show the results of system simulation. The figure 5 indicates that additional pole of the zero-order hold not affect the sytem 60 The Tustin’s bilinear aproximation was used to obtain the discreet transfer function of the G’(z) plant. The value of G’(z) was obtained from the continuous system G(s). The transfer function for the sub-micrometric positioner G(s) is: Dezembro • 2000 g y p 15 1.01 × 10 G ( s ) = ----------------------------------------------------------------------------------------------------------------------------------------------------4 4 3 9 2 13 18 s + 7.36 × 10 s + 3.16 × 10 s + 3.64 × 10 s + 1.01 × 10 (9). From this equation, was obtained the discret transfer function G’(z). –1 3 –2 –3 –4 1 × 10 ( 0.07 + 0.27z + 0.41z + 0.27z + 0.07z ) G′ ( z ) = ------------------------------------------------------------------------------------------------------------------------------------–1 –2 –3 –4 1 – 86z + 0.76z + 0.02z + 0.17z (10). THE ZERO-ORDER HOLD DISCRETIZATION The discreet transfer function of Goz(s) is generated by Tustin’s bilinear transformation, resulting in the discreet time function Goz(z). Therefore: –1 0.33 + 0.33z G oz ( Z ) = ----------------------------------–1 1 – 0.33z (11). DISCRET TRANSFER FUNCTION OF THE PLANT G(z) WITH ZERO-ORDER HOLD Goz(s) With discreet transfer functions of the zero-order hold and of the plant, Goz(z) and of G’(z) respectively, developed in Plant Discretization and The Zero-Order Hold Discretization, is possible to determinate the discreet transfer function of the sub-micrometric positioner system G(z). G(z) is the produt of Goz(z) and G’(z), as in (12). According to figure 8, G(z) = Goz(z) .G’(z)(12). Substituting both Goz(z) and G’(z) in the equation (12), results In: –1 –3 –1 –2 –3 –4 1 × 10 ( 007 + 0.27z + 0.41z + 0.27z + 0.07z ) 0.33 + 0.33z - ⋅ -------------------------------------------------------------------------------------------------------------------------------------G ( z ) = ---------------------------------–1 –1 –2 –3 –4 1 – 0.33z 1 – 0.86z + 0.76z + 0.02z + 0.17z (13). Developind the above expression, results in (14): –5 –4 –1 –4 –2 –4 –3 –4 –4 –5 –5 2.31 × 10 + 1.12 × 10 z + 2.21 × 10 z + 2.21 × 10 z + 1.12 × 10 z + 2.31 × 10 z G ( z ) = ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------–1 –2 –3 –4 –5 1 – 1.19z + 1.04z – 0.23z + 0.16z – 0.06z Figures 9 and 10 show the step response and frequency response diagrams of the discreet sub-micrometric positioner system simulation, using G(z). Fig. 8. Block diagram of the discret system. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64 61 g y p Fig. 9. Step response of the discreet system. positioner system’s dynamics. The figure 11 shows the system and digital controller squematic diagram. PROPORTIONALDERIVATIVE CONTROLLER (PD) D(z) = KP + KD (1 – z–1) (15) the proportional-derivative controller is described by, where KP is the proportional gain and KD is the derivative gain, resulting: ( K P + K D )z – K D D ( z ) = -----------------------------------------z Fig. 10. Frequency response of the discreet system. (16). Algebraically working the equation (16), results In: k(z – a) D ( z ) = ------------------z (17), with 0 ≤ a ≤ 1. Comparing equations (16) and (17), results In: k = KP + KD and KD -. a = -------------------KP + KD Transforming the equation (17) to negative powers from z, results: D(z) = k (1 – az-1) The discreet system presented an overshoot of 20% less than the continuous system. The design specifications are attained when the discret system is settling in stationary state in k = 70. The gain margin is 20 dB. DESIGN THE PID DISCREET CONTROLLER With the discreet transfer function of the system G(z) given by (14), a discreet controller was designed, whith the purpose of improving the sub-micrometric (18). The figures 12 and 13 show the step response and frequency response diagrams of the system with a proportional derivative controller (PD), having KP = 0.5 and KD = 0.5 resulting in a = 1. Figure 12 indicates that the system’s overshoot is, approximately, one thousand times less than the continuous system. The digital controller PD increased the system’s dynamics. The figure 13 shows a Bode diagram frequency response of the sub-micrometric positioning system with the digital controller. A gain margin of 80 dB was considered excellent. Fig. 11. Bock diagram of the discreet positioner system with digital controller. 62 Dezembro • 2000 g y p Fig. 12. Step response of the discreet system and controller. Fig. 13. Frequency response of the discreet and controller. CONCLUSIONS The discretization of a sub-micrometric positioning system assembled with a PZT, its electronics and the mechanical sub-system, continuous in time, was performed with success. The dynamic response of the plant G(z) with the zero-order hold Goz(z) was very good, with an overshoot 20% less than the continuous system response. The proportional-derivative (PD) discreet controller design resulted in the system with dynamic performance even better, with rise and settling times less than those obtained with the discretization of the continuous system Goz(z) without controller. The overshoot is approximaly one thousand times less than the continuous system. This resulted in better positioning precision of the sub-micrometric positioning system. Agradecimentos Os autores agradecem ao apoio financeiro do CNPq (bolsa de doutorado) para a realização deste trabalho. REFERENCES BISHOP, R.H. Modern Control Systems. Analysis & Design: Using MATLAB and SIMULYNK. Menlo Park: Addison-Wesley, 1997. FRANKLIN, G.F. et al. Feedbak Control of Dynamic Systems, 3rd ed. Reading: Addison-Wesley, 1994. ___________. Digital Control of Dynamic Systems, 3rd. ed. Reading: Addison-Wesley, 1998. LEVINE, W.S. (org). The Control Handbook. Boca Raton: CRC Press, 1996. LUTTRELL, D.E. & DOWN, T.A. Development of a High Speed System to Control Dynamics Behaviour of Mechanical Structures. Precision Engineering, 9 (4), Surrey, UK, Butterworth Scientific Ltd., October/1987. OGATA, K. Discrete-Time Control Systems, 2nd ed., Englewood Cliffs, NJ Prentice-Hall, 1995. OGATA, K.. System Dynamics, 3rd. ed., Englewood Cliffs, NJ, Prentice-Hall, 1998. TAVARES, Ricardo C. Projeto de um Posicionador Submicrométrico para Litografia Óptica. Florianópolis, 1995. [Dissertação de mestrado, Pós-Graduação em Engenharia Mecânica/UFSC]. TRONCOSO, L.S. et al. Sistema Activo de Estabilizacion Aplicado à la Holografia Electronica. Laboratório de Metrologia e Automatização, Departamento de Engenharia Mecânica/UFSC. Anales VI Congresso Nacional de Ingenieria Mecànica. Santiago, 1994. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 57-64 63 g 64 y p Dezembro • 2000 g y p Lógica Modal Aplicada a Grafo a Eventos Modal Logic Applied to Events Graph JOSÉ CARLOS MAGOSSI Universidade Metodista de Piracicaba e Faculdade de Tecnologia de Americana (CEETEPS) [email protected] RESUMO – O objetivo deste texto é mostrar uma aplicação de um sistema lógico modal, denominado sistema lógico NK, na modelagem de grafos a eventos (classe particular de redes de Petri). Esses modelos lógicos de grafos a eventos aplicamse, por sua vez, em análise de especificações de sistemas dinâmicos a eventos discretos. Dada uma especificação (descrição de alguma restrição do sistema), utiliza-se das ferramentas advindas do sistema lógico NK, particularmente o método tableau analítico, para verificar se a especificação é satisfeita ou não no sistema modelado. Após noções sobre grafo a eventos, sistema lógico NK e a relação entre eles, um exemplo simples é exposto ao final. A principal característica deste texto consiste em explicar o processo de modelagem de grafo a eventos por meio de fórmulas do sistema lógico NK de maneira sucinta, sem abusar de demonstrações, esperando, com isso, que o estudante iniciante possa adquirir algum conhecimento em questões que envolvam lógica e grafo a eventos. Palavras-chave: LÓGICA MODAL – TABLEAUX – REDES DE PETRI – GRAFO A EVENTOS – SISTEMAS DINÂMICOS – EVENTOS DISCRETOS. ABSTRACT – The objective of this paper is to show how we can apply modal logic, named NK-logical system, to events graphs (particularly class of Petri nets). Those events graphs logical models are applied in turn to the verification of specification of discrete event dynamic systems. Given an specification (a description of a certain system constraint), we are able to use tools taken from the NK-logical system (especially analytic tableau) to verifies if the specification is satisfiable or not in the modeled system. After showing notions of events graph, NK-logical system and the relation between them, we present in the end a simple example. Our aim is to explain the events graph modeling process in a direct way rather than through many proofs. We hope with this that beginners will be able to get some knowledge on logic and eventsgraph related matters. Keywords: MODAL LOGIC – TABLEAUX – PETRI NETS – EVENTS GRAPH – DYNAMIC SYSTEM – DISCRETE EVENT. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 65 g y p INTRODUÇÃO E ste texto tem por objetivo explicar o processo de modelagem de grafo a eventos via lógica modal. Tais modelos aplicam-se em sistemas de manufatura, automação industrial etc. Como as aplicações desses modelos lógicos são direcionadas a sistemas dinâmicos, num primeiro momento, é feito um breve relato sobre sistemas dinâmicos e análise de verificações em sistemas dinâmicos a eventos discretos. Na seqüência, são abordados grafos a eventos, o sistema lógico NK, a relação entre eles e, ao final, faz-se uma aplicação a sistemas dinâmicos a eventos discretos. Sistemas Dinâmicos Um sistema pode ser descrito como um aglomerado de coisas; ele é dinâmico se houver uma evolução delas com o passar do tempo. Os sistemas dinâmicos podem ser divididos em duas classes: contínuos e discretos (Cassandras, 1993). Os sistemas contínuos são aqueles cuja evolução é medida em função de componentes contínuos (como o tempo) e sistemas discretos têm a sua evolução medida em função de componentes discretos. Um sistema caracterizado, por exemplo, pelo fluxo de óleo em uma tubulação será um sistema contínuo se a quantidade de fluído for o fator de sua evolução. Já um sistema de montagem de peças, em uma fábrica de cadeiras, será discreto se o número de cadeiras montadas for o fator de sua evolução. Entre os sistemas dinâmicos discretos estão aqueles cuja dinâmica é dirigida pela ocorrência de eventos discretos, chamados sistemas dinâmicos a eventos discretos (SDED) (Baccelli et al., 1991 e Cohen et al., 1989). A ocorrência de um evento pode ser entendida como o acontecimento de uma situação declarativa, ou seja, algo que pode ser identificado como ocorrido, ou não ocorrido, como sim, ou não. Um evento é um acontecimento instantâneo, que não tem tempo, apenas caracteriza um marco entre o acontecer e o não acontecer. Exemplos de eventos bastante simples: ligar a chave de uma máquina, desligar a chave de uma máquina, aberto ou fechado, quebrado ou não quebrado etc. Sistemas cuja dinâmica é dirigida pela ocorrência de eventos são muito difundidos atualmente, por conta da 66 quantidade de situações nas quais predomina o caráter discreto, como no caso de redes de computadores, sistemas de manufaturas, automação industrial etc. Em resumo, qualquer sistema envolvendo uma quantidade discreta de componentes, de tal forma que a evolução seja medida em função da ocorrência de eventos discretos, é denominado sistema dinâmico a eventos discretos. Uma questão importante relacionada aos modelos de SDED é a capacidade deles de desempenhar tarefas que sirvam para verificar especificações do sistema. A verificação de especificações em sistemas dinâmicos significa analisar se determinada condição (restrição ao sistema) é satisfeita ou não no sistema. Por exemplo, um SDED que representa uma seqüência de máquinas numa fábrica com a seguinte restrição: a máquina de número 4 não pode iniciar suas operações antes que as máquinas de números 1, 2 e 3 tenham terminado suas tarefas. Esse é um caso de restrição, que pode representar, entre outros, uma fábrica de cadeiras em que a máquina 4 faz a montagem final da cadeira e a máquinas 1, 2 e 3 fazem o assento, a base e o encosto, respectivamente. O processo de verificação de especificações consiste na análise da satisfação ou não de certa especificação do sistema, tendo um modelo como base. No exemplo citado, independentemente da ferramenta escolhida para a modelagem, deve-se contemplar a restrição, sob pena de se ter cadeiras sem encosto, cadeiras sem assento etc. No entanto, algumas especificações podem não estar tão explícitas e só no decorrer do processo de manufatura (ou automação) se percebe que alguma condição tem de ser satisfeita. Por isso, o desenvolvimento de ferramentas capazes de fazer análise é muito útil e difundido atualmente. O estudo aqui apresentado fundamenta-se, para as aplicações práticas, na análise de sistemas dinâmicos a eventos discretos. Nesse processo, devese primeiramente definir o processo de modelagem do sistema dinâmico, ou seja, a linguagem utilizada para descrever os sistemas dinâmicos envolvidos, e, a partir daí, fazer a análise de verificações. Existem muitas maneiras de se modelar sistemas dinâmicos; a utilizada neste trabalho fundamenta-se em grafo a eventos. O sistema lógico NK (a Dezembro • 2000 g y p ser exibido) servirá de ferramenta de análise de verificações, partindo de modelos via grafo a eventos. um grafo a eventos, com dois lugares e três transições. Os lugares são denotados por p1 e p2. As transições são denotadas por t1, t2 e t3. Fig. 1. Grafo a eventos. DESENVOLVIMENTO Os modelos baseados em redes de Petri foram desenvolvidos por C.A. Petri, em 1962, e podem ser encontrados em textos de Peterson (1981), Murata (1989) e Cassandras (1993). Desde então, muito se tem desenvolvido no que diz respeito a redes de Petri, principalmente pela versatilidade de análise que essa técnica matemática de representação de sistemas permite, incluindo a modelagem de sistemas paralelos, não determinísticos, assíncronos, concorrentes etc. Este trabalho se interessa por uma classe particular de redes de Petri, denominada Grafo a Eventos, útil na modelagem de sistemas a eventos discretos (Cassandras, 1993; Peterson, 1981; e Murata, 1989). No presente estudo, os grafos a eventos podem ser vistos como constituídos de cinco elementos fundamentais: um conjunto de lugares, um conjunto de transições, um conjunto de arcos, uma marcação inicial e uma temporização. Os lugares são utilizados para representar o estado do sistema e as condições que habilitam as ocorrências dos eventos. As transições estão associadas aos eventos. Em grafos a eventos temporizados, as ocorrências de eventos relacionam-se aos disparos das transições. Costuma-se rotular um tipo de evento pelo nome da transição correspondente. Para que uma transição dispare,1 algumas condições devem ser satisfeitas. As informações referentes a essas condições estão contidas nos lugares do grafo. Alguns deles são vistos como entrada da transição e a eles estão associadas as condições exigidas para que a transição se torne habilitada a disparar. Outros lugares são vistos como saída de uma transição e a eles se relacionam condições que serão afetadas com o disparo da transição. Transições, lugares e relações entre eles constituem os componentes básicos de um grafo a eventos. A figura 1 mostra uma típica representação gráfica de 1 O disparo de uma transição representa a ocorrência do evento associado à transição, cujo nome é o nome da transição. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 A transição t1 recebe o nome de transição de entrada da rede (ou do grafo a eventos) ou transição de entrada do lugar p1; a transição de saída da rede é indicada por t3, que também é a transição de saída do lugar p2. Os arcos indicam as relações entre lugares e transições. Por exemplo, a realização da ação representada pela transição t2 está associada às informações contidas no lugar p1. Por outro lado, as informações contidas no lugar p2 serão alteradas assim que ocorrer a ação designada em t2. As marcações no lugar p1 representam a condição de habilitação da transição t2 (simbolizada pela ficha •) e o tempo de espera gasto antes da habilitação da transição t2 (simbolizado pela barra ). Essas marcações constituem parametrizações e são formalmente representadas como pares (n,t), em que n representa a condição de habilitação e t, o tempo de espera. A definição formal de um grafo a eventos é dada a seguir. Definição 1: Um grafo a eventos é uma quíntupla <P, T, A, w, X>, de tal forma que: • P é um conjunto finito de lugares; • T é um conjunto finito de transições; • A é um conjunto de arcos, o qual é um subconjunto de (P × T) ∪ (T × P); • w é uma função peso, w: A → {1}; ¥ X é uma parametrização, ou seja, uma função X: P→N×N. O processo dinâmico de um grafo a eventos é exemplificado na figura 2. 67 g y p Fig. 2. Processo dinâmico. Grafo A Grafo B Na figura 2, a transição t2 do grafo a eventos A está habilitada a disparar, devendo aguardar uma unidade de tempo antes do disparo. Após o disparo, a transição t2 consome uma ficha e passa esta ao lugar p2 (como mostra o grafo a eventos B). O cará- ter dinâmico em um grafo a eventos é determinado pela circulação das fichas. De modo geral, uma transição habilitada consumirá tantas fichas quantos forem os lugares de sua chegada e distribui tantas fichas quantos forem os lugares de sua saída (Cassandras, 1993). A figura 3 ilustra tal procedimento. Na figura 3, a seqüência (Grafo A)→(Grafo B)→(Grafo C) determina a evolução dinâmica do grafo a eventos. No Grafo A, a transição t4 está habilitada, ou seja, os lugares p1, p2 e p3 fornecem condições para que o evento associado à transição t4 ocorra. Essas condições são representadas pela ocorrência de fichas em todos os lugares de entrada de t4. Assim, após a espera de uma unidade de tempo (condição em p3), a transição t4 torna-se apta a disparar. Fig. 3. Comportamento dinâmico de um grafo a eventos. Grafo C 68 Dezembro • 2000 g y p Depois do disparo, tem-se o grafo B, em que uma ficha é consumida de cada lugar de entrada de t4 e uma ficha é distribuída para cada lugar de saída de t4.2 No grafo B, a transição t4 ainda continua habilitada, ou seja, o evento associado à transição t4 pode ocorrer a qualquer momento. Após o disparo da transição t4 no grafo B, é consumida uma ficha de cada lugar de entrada de t4 e distribuída uma ficha para cada lugar de saída de t4. Nota-se que as barras representando unidades de tempo não se deslocam no decorrer do processo, e sim permanecem onde são alocadas no modelo inicial. O grafo C indica a situação depois do disparo da transição t4 no grafo B e do consumo de uma unidade de tempo. Já no grafo C, a transição t4 não está habilitada. Em B e em C, as transições t5 e t6 estão habilitadas. Em resumo, partindo de um sistema dinâmico a eventos discretos, um grafo a eventos é uma ferramenta que se adapta à sua modelagem. Fig. 4. Processo de Modelagem. associada ao evento “atendimento do paciente”. Note que se essa transição estiver habilitada significa que o paciente na sala de espera pode ser atendido. Assim que ele for atendido, a transição deixa de estar habilitada. O lugar p2 representa o médico. Se nesse lugar houver uma ficha, então o médico está ocioso; caso contrário, está atendendo. O lugar p3 representa a sala de consultas. Uma barra indica o tempo dispensado para o atendimento. O lugar p4 é a saída e as condições para possíveis contatos com as secretárias dos médicos. A transição t3 estará habilitada sempre que a consulta terminar, fazendo com que o médico volte a ficar ocioso, dando margem a que um outro paciente, do lugar p1, seja atendido. A figura 6 traz uma possível seqüência de um consultório, com o dinamismo do grafo a eventos. Fig. 5. Grafo a eventos do exemplo 1. Sistema Dinâmico Modelo via grafo a eventos O exemplo seguinte é simples, com preocupação voltada à elucidação do processo de modelagem, e não à resolução de problemas de grande porte. Exemplo 1: Pretende-se analisar o fluxo de pacientes juntamente com a disponibilidade de um médico em um consultório. Espera-se responder perguntas tais como: i) Quantos pacientes foram atendidos em um determinado período de tempo? ii) Quando determinado paciente será atendido? Um modelo que forneça essas respostas com precisão será projetado, utilizando-se para isso um grafo a eventos (ver fig. 5). No grafo a eventos da figura 5, o lugar p1 representa os pacientes na sala de espera, aguardando serem chamados para a consulta. A transição t2 está 2 A situação de consumo e distribuição de fichas é diferente quando se trata de redes de Petri (não de grafo a eventos), pois nelas a função peso pode ser diferente de um. Então, o consumo e a distribuição de fichas relacionam-se diretamente com a função peso de cada arco (Cassandras, 1993). REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 A seqüência da figura 6 mostra que dois pacientes estão na sala de espera enquanto o médico está ocioso (grafo A). No grafo B, o primeiro paciente é atendido e o médico deixa de estar ocioso (sai uma ficha do lugar p1 e do lugar p2), entra uma ficha no lugar p3 (o médico está atendendo o paciente). Uma unidade de tempo é requerida para o lugar p3 (tempo de demora da consulta). Ainda em B, a transição t3 está habilitada, o que significa que a secretária está pronta para receber o paciente após a consulta. Já no grafo C, o paciente deixa a sala de consultas, habilita a transição t4 (saída do consultório) e habilita a transição t2 (um novo paciente pode ser atendido), pois uma ficha é colocada no lugar p2 (indicando que o médico está ocioso). Tal esquema caracteriza o processo dinâmico desse grafo a eventos que modela o problema do consultório médico. 69 g y p Fig. 6. Evolução dinâmica do grafo do exemplo 1. Partindo de uma simples simulação, possível nesse exemplo, verifica-se que o gráfico 1, no plano de 2 dimensões, representa o comportamento dos disparos da transição t4, ou seja, a trajetória dos disparos e seus tempos correspondentes. Nesse gráfico, a abscissa representa os disparos das transições e a ordenada, o tempo de disparo das transições. A cada transição do grafo a eventos pode-se associar um conjunto de informações disponíveis sobre as ocorrências de eventos relacionados a essa transição. Esse conjunto será chamado pelo nome da transição. Por exemplo, se “tj” é o nome de uma transição, então tj representa, num gráfico de duas dimensões, o conjunto de informações disponíveis sobre as ocorrências de eventos relacionados a essa transição. Esse elemento tj descreve o comportamento dinâmico da trajetória de disparos associada à transição de nome “tj” (Cohen et al., 1989). Esse gráfico responde às perguntas iniciais do exemplo 1. O ponto (3,4) pode, no caso, ser lido como: • o terceiro disparo da transição t4 ocorreu, no mínimo, no instante 4; ou • no instante 4 ocorreram, no máximo, três disparos. Assim, para saber quantos pacientes foram atendidos num determinado período de tempo, é necessária uma simples análise do gráfico. Do mesmo modo, é possível, por esse gráfico, visualizar 70 quando o n-ésimo paciente será atendido. A descrição da trajetória de transições de um grafo a eventos em um gráfico de duas dimensões nem sempre é uma tarefa simples e imediata - detalhes mais sofisticados podem ser encontrados em Cohen et al. (1989), Baccelli et al. (1991) e Magossi (1998). No entanto, para o grafo a eventos da figura 5, não é tão difícil visualizar a trajetória da transição t4 num gráfico de duas dimensões. Nota-se que, ao se acrescentar uma ficha no lugar p1, a transição t2 ficará habilitada. Após o disparo da transição t2, o lugar p2 terá uma ficha e uma barra (representando uma unidade de tempo). Isso acarretará uma demora de uma unidade de tempo antes que a transição t3 dispare. O disparo de t3 acarreta a inclusão de uma ficha no lugar p3, habilitando a transição t4. Assim, a cada ficha colocada em p1, sai uma ficha em t4 com o atraso de uma unidade. Verifica-se, então, que o primeiro disparo ocorre no mínimo em 2 unidades de tempo, uma referente ao 0-ésimo disparo, e outra referente ao primeiro disparo. Ou seja, o 0-ésimo disparo ocorre, no mínimo, em uma unidade de tempo; o primeiro disparo ocorre, no mínimo, em 2 unidades de tempo (a primeira, que já existia, mais uma); o segundo disparo ocorre, no mínimo, em 3 unidades de tempo; o terceiro disparo ocorre, no mínimo, em 4 unidades de tempo; e assim sucessivamente. Dezembro • 2000 g y p Grafico 1. Trajetória da transição t4 do exemplo 1. Sistema lógico NK Nessa seção, apresenta-se o sistema lógico que será utilizado para modelar grafo a eventos. Inicialmente, há uma apresentação da lógica NK e dos métodos de demonstração, adotados na análise de sistemas dinâmicos. Segue-se explicitando a maneira de descrever grafo a eventos via lógica NK. A lógica modal proposicional NK será apresentada do ponto de vista dos tableaux analíticos. Há grande variedade de sistemas modais na literatura. Revisões compreensivas são dadas por Hughes & Cresswell (1968 e 1984) e por Fitting (1983). O sistema proposto nesse trabalho foi desenvolvido visando especificamente a modelagem de grafo a eventos. Avalia-se que pode ser facilmente estendido, de modo a descrever sistemas mais complexos. O ponto de vista dos tableaux analíticos, difundido por Smullyan (1968) e, posteriormente, empregado por Bell & Machover (1977) e Fitting (1983 e 1990), constitui uma alternativa à apresentação de um sistema lógico através de axiomas. Sua principal vantagem é a simplicidade no desenvolvimento das provas de uma fórmula válida. Basicamente, o método do tableau é uma prova por refutação, ou seja, tenta-se falsear a fórmula que se deseja provar e, caso isso resulte em contradição, deduz-se que a fórmula é válida. A seguir, são apresentados os principais elementos do sistema lógico NK e algumas de suas propriedades. A linguagem da lógica modal proposicional NK tem um alfabeto consistindo de: a) variáveis proposicionais - letras minúsculas x, y, z, p, q, r, ...; b) conectivos - G, D, ¬, →; c) sinais de pontuação - (e); REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 d) constante lógica - ⊥. Observação: os conectivos G e D são operadores modais. Eles têm comportamentos semelhantes aos dos operadores modais clássicos de necessidade (Fitting, 1983), a menos que se apliquem a um único mundo possível acessível, ao passo que os operadores modais clássicos aplicam-se a infinitos mundos possíveis acessíveis. Os conectivos ¬ e → são a negação e a condicional clássicas, respectivamente. O conjunto F das fórmulas da linguagem é definido como segue: i) qualquer variável proposicional pertence a F; ii) se X e Y pertencem a F, então (X → Y) também pertence a F; iii) se X pertence a F, então ¬X, GX e DX também pertencem a F; iv) só é fórmula o que advém das condições i), ii) e iii) acima descritas. A semântica de uma lógica modal estende, usualmente, a semântica da lógica proposicional clássica através da definição de um conjunto W, comumente denominado conjunto dos mundos possíveis, e uma (ou mais) relações entre seus elementos. Ao se interpretar a lógica, diz-se que uma fórmula é verdadeira ou não num mundo possível, sendo admissível que essa fórmula seja verdadeira num mundo e falsa em outro, na mesma interpretação ou modelo. O que distingue uma lógica modal de outra é o tipo de relação admissível entre os elementos de W. Na lógica NK, serão consideradas duas relações binárias R e S, satisfazendo à propriedade: para todo w∈W, existem w', w'', w''' únicos e distintos tais que wRw', wSw'', w''Rw''' e w'Sw'''. Essas relações permitem estabelecer uma correspondência biunívoca entre qualquer W admissível e o conjunto Z2 dos pares ordenados de inteiros. Conseqüentemente, os elementos de W serão associados a pares ordenados de inteiros: W = {w(i,j) (i,j) ∈ Z2}. Mais rigorosamente, um modelo proposicional modal para NK é uma quadra <W,R,S,V>, onde W é um conjunto de mundos possíveis, V é uma função valoração de F×W em {t,f} e R e S são relações binárias em W, de tal forma que as seguintes condições sejam satisfeitas, para quaisquer fórmulas X e Y: 71 g y p a) se X for uma variável proposicional, V(X,w)=t ou V(X,w)=f, mas não ambos;3 b) V((¬X),w)=t sse V(X,w)=f; c) V((X→Y),w)=t sse V(X,w)=f ou V(Y,w)=t; d) V(DX,w) = t sse para w' ∈ W tal que wSw' temse V(X,w')=t; e) V(GX,w) = t sse para w'∈ W tal que wRw' temse V(X,w')=t; Diz-se que uma fórmula X é verdadeira em um modelo se é verdadeira em cada mundo desse modelo, e é válida se verdadeira em todos os modelos (notação: |=X se X é válida). Sejam S um conjunto de fórmulas e X uma fórmula qualquer. Diz-se que X é conseqüência lógica de S (em símbolos, S|=X) se X é válida em cada modelo em que todos os membros de S são válidos. Uma fórmula assinalada é uma fórmula X precedida dos símbolos “T” ou “F”. Intuitivamente, a fórmula TX comporta-se como X e a fórmula FX como ¬X. As fórmulas assinaladas permitem a classificação de todas as fórmulas da lógica proposicional clássica em dois tipos: fórmulas do tipo α e fórmulas do tipo β. As fórmulas do tipo α são aquelas com comportamento conjuntivo (com componentes α1 e α2) e as do tipo β são as que se comportam disjuntivamente (com componentes β1 e β2). Um exemplo de fórmula do tipo α é F(X→Y), cujos componentes são TX e FY. Outros exemplos são F(X∨Y) e T(X∧Y). Um exemplo de fórmula do tipo β é T(X→Y), cujos componentes são FX e TY. Também são exemplos T(X∨Y) e F(X∧Y) (Smullyan, 1968). Os tableaux analíticos são procedimentos de prova elaborados em forma de árvores binárias. As árvores contêm sempre um número finito de ramos. Cada ramo, por sua vez, é constituído de um conjunto de nós, de tal forma que em cada nó ocorra uma fórmula assinalada da lógica e a cada nó esteja associado um mundo (i,j). O objetivo de uma prova tableau é verificar se uma dada fórmula X da lógica é ou não válida. Para tanto, inicia-se o tableau falseando X e prossegue-se aplicando regras de extensão de ramos. A impossibilidade de falsear a fórmula X é caracterizada pela ocorrência de contradições em todos os ramos do tableau, denotando assim que X 3 V(X,w) pode ser lido como o valor verdade da fórmula X no mundo w. 72 é uma fórmula válida. Se algum ramo não contiver contradições entre suas fórmulas, então existe a possibilidade de falsear a fórmula; portanto, X não é válida. Para o desenvolvimento de uma prova tableau, procede-se segundo as seguintes regras clássicas de extensão de ramos: i) quando uma fórmula de tipo α ocorrer num ramo de um tableau, deve-se acrescentar a esse ramo suas duas componentes; ii) quando ocorrer uma fórmula de tipo β, deve-se proceder uma bifurcação no tableau, cada novo ramo iniciado por uma das componentes da fórmula. Diz-se que as fórmulas do tipo TGX e FGX são de tipo ν com componentes TX e FX, respectivamente; e as fórmulas do tipo TDX e FDX são de tipo π com componentes TX e FX, respectivamente. Em função da sua natureza modal, essas fórmulas não se reduzem aos tipos descritos anteriormente. As regras de extensão de ramos para os casos não clássicos (modais) são as seguintes: iii) quando uma fórmula de tipo ν ocorre num ramo de um tableau num mundo (i,j), sua componente deve ser escrita no mesmo ramo no mundo (i-1,j); iv) quando uma fórmula de tipo π ocorre num ramo de um tableau num mundo (i,j), sua componente deve ser escrita no mesmo ramo no mundo (i,j-1). Um ramo de um tableau é dito fechado se ocorrem no mesmo ramo e para o mesmo mundo as fórmulas TX e FX. Um tableau é fechado se todos os seus ramos são fechados. Um ramo é dito completo se nele não existe nenhuma fórmula para a qual se possa aplicar uma das regras acima. Um tableau é completado se todos os seus ramos são completos ou fechados. Sejam S um conjunto de fórmulas não assinaladas e X uma fórmula não assinalada. Um tableau para X, usando S como um conjunto de afirmações globais, significa um tableau começado por FX, e de tal forma que a fórmula TZ pode ser adicionada em qualquer ponto do tableau para qualquer Z∈S e qualquer mundo (i,j). Diz-se que X é dedutíveltableaux a partir de S (em símbolos, S|–dtX) se e somente se existir um tableau fechado para X Dezembro • 2000 g y p usando S como um conjunto de afirmações globais. A lógica NK, definida dessa maneira, é um sistema modal proposicional correto e completo no sentido forte4 (Magossi, 1998). Seja o seguinte exemplo de tableau para o sistema lógico NK. Ele mostra que existe um tableau fechado para a fórmula DGA→GDA, indicando que esta é válida. (1) F(DGA→GDA) (2) TDGA (3) FGDA (4) TGA (5) TA (6) FDA (7) FA (i,j) (i,j) (i,j) (i,j-1) (i-1,j-1) (i-1,j) (i-1,j-1) regra α em 1 regra α em 1 regra π em 2 regra ν em 4 regra ν em 3 regra π em 6 Essa fórmula indica a equivalência entre uma transição qualquer t0 e a disjunção (representada pelo ∨ grande) de todas as transições que chegam em t0, acompanhadas dos G’s e D’s cujos expoentes representam o número de fichas (m) e o número de unidades de tempo (d) para cada transição que chega em t0. Exemplo 2: Seja o grafo a eventos, descrito na figura 8, para um sistema a eventos discretos. Fig. 8. Grafo a eventos do exemplo 2. Fórmulas da Lógica NK associadas a um Grafo a Eventos Nessa seção, é apresentado o procedimento de modelagem de um grafo a eventos. Ele permite o desenvolvimento de sistemas de fórmulas da lógica NK associadas a um grafo a eventos. Objetiva-se mostrar que todo grafo a eventos pode ser modelado por um sistema de fórmulas da lógica NK. Na figura 7, o par (m,d) representa uma parametrização do grafo a eventos, ou seja, m é a condição de habilitação da transição (fichas) e d é o tempo de espera (barras). Fig. 7. Descrição na lógica NK de um grafo a eventos. As equações associadas a esse grafo a eventos são: x1↔u∨Gx2 x2↔GDu∨Dx1 y↔x2∨GD2y Aplicações em sistemas dinâmicos a eventos discretos As fórmulas associadas ao grafo a eventos da figura 7 são dadas por: k mj dj t0 ↔ V G D tj j = 1 Usualmente, define-se G0D0ti como simplesmente ti. 4 Correção e completude no sentido forte significa que S| X se e –dt somente se S|=X. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 Essa seção traz uma aplicação do sistema lógico NK na verificação de especificações em sistemas dinâmicos a eventos discretos. Como é clássico na literatura de trabalhos envolvendo lógica e problemas de automação, se uma especificação (apropriadamente descrita como uma fórmula da lógica) for conseqüência lógica do conjunto de fórmulas que define (modela) o sistema dinâmico, então a especificação será satisfeita (Manna & Pnuelli, 1979 e 1992). Isso significa que, na linguagem da lógica, sempre que as fórmulas do sistema dinâmico forem verdadeiras a especificação também o será. Isso garante legitimidade, pois impede o caso de as fórmulas do sistema serem verdadeiras e a 73 g y p especificação falsa. Em outras palavras, seja Γ o conjunto de fórmulas da lógica NK, que descreve o sistema dinâmico em questão, e X a fórmula da lógica que descreve a especificação. A especificação será satisfeita se e somente se X for conseqüência lógica de Γ, ou seja, se todo modelo de Γ for também modelo de X. Assim, o problema de verificação de especificações se resume em, dado o grafo a eventos que representa o sistema dinâmico a eventos discretos, associar a ele um conjunto Γ de fórmulas da lógica NK e relacionar à especificação a ser verificada uma fórmula X da lógica NK. Procede-se, então, verificando se X é conseqüência lógica de Γ: • em caso afirmativo, conclui-se que a especificação é satisfeita; • em caso negativo, conclui-se que a especificação não é satisfeita. Para determinar se uma especificação X é conseqüência lógica de um conjunto Γ de fórmulas que representa um grafo a eventos é necessária a elaboração de um algoritmo baseado em tableaux que efetivamente determine se X é ou não conseqüência lógica de Γ (Magossi, 1998 e Magossi & Santos Mendes, 1998). A seguir, é mostrado um exemplo de especificação que é satisfeita juntamente com sua resolução algorítmica via tableaux. Exemplo 2: Seja o exemplo referente à figura 5. Para esse sistema, pode-se escrever as seguintes fórmulas da lógica NK: t2↔(t1∨Gt3) t3↔Dt2 t4↔t3 Além dessas, as seguintes fórmulas devem valer para qualquer transição:5 ti→Dti Gti→ti, para i = 0, 1,...4. Essas fórmulas descrevem um grafo a eventos em um sistema a eventos discretos através da lógica modal NK. Supõe-se que se deseja verificar que, no 5 Essas fórmulas caracterizam a linearidade do sistema. Ver Magossi (1998); Magossi & Santos Mendes (1998); Cohen et al. (1989); e Baccelli et al. (1991). 74 grafo a eventos da figura 5, descrito acima, um tempo de espera estipulado para a transição t1 não acarretará uma espera na saída do sistema, ou seja, na transição t4. Essa condição pode ser expressa pela fórmula Dt1→t4 (Magossi, 1998). A verificação de que a especificação é satisfeita por intermédio de tableaux analíticos resume-se em mostrar que a fórmula X=(Dt1→t4) é conseqüência lógica do conjunto Γ={Dt2↔t3, t3↔t4, t2↔ (t1∨Gt3), Gti→ti, ti→Dti}. Esta, por sua vez, estabelecerá que não existe modelo no qual as fórmulas do conjunto Γ sejam verdadeiras e a fórmula X= (Dt1→t4) seja falsa. Isso implica o fato de que a especificação será sempre satisfeita quando as fórmulas que definem o sistema (grafo a eventos) o forem. Para tal verificação, utiliza-se o método tableaux. Ao se desenvolver o tableaux, as fórmulas de Γ podem ser adicionadas em qualquer nó da árvore, pois são entendidas como verdadeiras em qualquer modelo. Ver Magossi (1998), e Magossi & Santos Mendes (1998). Essa árvore é construída como segue. Inicia-se por falsear a especificação a ser verificada; nesse caso, a especificação é descrita pela fórmula Dt1→t4. Na seqüência, são aplicadas regras de extensão de ramos à fórmula do nó de origem, qual seja, F(Dt1→t4). A essa fórmula aplica-se a regra clássica α, cuja extensão produz as fórmulas dos dois nós seguintes, TDt1 e Ft4, respectivamente. Como essa regra é clássica, não se muda de mundo, representados os mundos por pares (i,j). À fórmula TDt1 deve-se aplicar uma regra não clássica (modal) π, cuja extensão é a fórmula Tt1 no mundo (i,j-1). A fórmula (t3→t4) é uma fórmula do conjunto Γ,6 e pode ser adicionada em qualquer ponto do tableau, desde que sinalizada por T. Assim, acrescenta-se T(t3→t4). A regra a ser aplicada a essa fórmula é uma regra clássica β, que produz como extensões dois ramos, o da esquerda, com a fórmula Ft3, e o da direita, com a fórmula Tt4. Como a fórmula T(t3→t4) foi acrescentada no mundo (i,j), as extensões, por serem clássicas, não ocasionam mudança de mundo. 6 Note que a fórmula t3↔t4 equivale a (t3→t4)∧(t4→t3). Dezembro • 2000 g y p FDt1→t4 TDt1 Ft4 Tt1 T(t3→t4) (i,j) (i,j) Ft3 T(Dt2→t3) FDt2 Ft2 T(t2→t3) FDt1 (i,j-1) (i,j) (i,j-1) (i,j-1) Tt2 O tableau continua desse modo, até que todas as fórmulas tenham sofrido a aplicação de alguma regra tableau de extensão de ramos (clássica ou não clássica). E nesse tableau, como todos os ramos produziram contradição (ocorrência no mesmo (i,j) de FX e TX para alguma fórmula X), o tableau é dito fechado. Portanto, a fórmula X=(Dt1→t4) é conseqüência lógica do conjunto Γ. Logo, não existe um modelo em que as fórmulas de Γ sejam verdadeiras e a fórmula Dt1→t4 seja falsa, ou seja, a especificação X é satisfeita. CONCLUSÃO Introduziu-se neste trabalho uma lógica modal, denominada lógica modal NK, apropriada para modelagem de grafo a eventos. Suas principais características são a simplicidade e uma completa correspondência com grafos a eventos. Considerese um sistema a eventos discretos, para o qual se conhece um grafo a eventos que modela seu comportamento. É possível para esse sistema escrever um conjunto de fórmulas da lógica NK, completamente equivalente ao sistema dinâmico modelado. Tt3 (i,j) (i,j) (i,j) (i,j-1) (i,j) Tt4 (i,j) (i,j) (i,j-1) O problema de verificação pode, então, ser tratado através da metodologia dos tableaux analíticos, método de prova em lógica, utilizado para a lógica NK. Escreve-se uma nova fórmula, correspondente à especificação que se quer verificar, e tenta-se mostrar que essa fórmula é conseqüência lógica do conjunto de fórmulas que descreve o sistema. Essa abordagem abre caminho para um problema interessante, o de se modelar não somente grafo a eventos, mas redes de Petri. Ela permite também investigar problemas de síntese de controladores, os quais têm sido estudados em Magossi (1998). O problema de síntese de controladores pode ser colocado da seguinte maneira: dado um grafo a eventos com um conjunto de transições ditas de “entrada” e com um conjunto de transições de “saída”, projetar um novo grafo a eventos (controlador), tendo como entradas a saída do sistema dado e como saídas as entradas do sistema dado, tal que uma certa especificação, não atendida pelo sistema original, seja satisfeita pelo sistema em “malha fechada”. REFERÊNCIAS BIBLIOGRÁFICAS BACCELLI, F.L. et al. Synchronization and Linearity: an Algebra for Discrete Event Systems. New York: John Wiley and Sons, 1991. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 65-76 75 g y p BELL, J.L. & MACHOVER, M. A Course in Mathematical Logic. Amsterdan: North Holland Publishing Company, 1977. CASSANDRAS, C.G. Discrete Event Systems: Modeling and Performance Analysis. Boston: Aksen Associates Incorporated Publishers, 1993. COHEN,G. et al. Algebraic tools for performance evaluation of discrete event systems. Proceedings of the IEEE. 77 (1): 39-58, 1989. FITTING, Melvin. First-Order Logic and Automated Theorem Proving. 2.a ed. New York: Springer-Verlag, 1990. _____________. Proof Methods for Modal and Intuitionistic Logics. Dordrecht: D. Reidel Publishing Co., 1983. HUGHES,G.E. & CRESSWELL, M.J. A Companion to Modal Logic. London: Methuen and Co. Ltd., 1984. _____________. An Introduction to Modal Logic. London: Methuen and Co. Ltd., 1968. MAGOSSI, J.C. Análise e Síntese de Sistemas Dinâmicos a Eventos Discretos via Lógica Modal. Campinas, 1998. [Tese de Doutorado, DCA/FEEC, Unicamp]. MAGOSSI, J.C. & SANTOS-MENDES, R. Modal Logic Based Algorithms for the Verification of Specifications in Discrete Event Systems. IV Workshop on Discrete Event Systems, Aug./26-28, Cagliary, Italy, 1998. ______________. Verificações de Especificações em Sistemas Dinâmicos a Eventos Discretos via Lógica Modal. Proceedings of XII Brazilian Automatic Control Conference-XII CBA, Sep./14-18, Uberlândia, v. III, pp. 931-936, 1998. MANNA, Z. & PNUELLI, A.. The Modal Logic of Programs. Proc. 6th Int. Colloq. Aut. Lang. Prog: Lec. Notes in Comp. Sci., Berlin, 71: 385-409, 1979. ______________. The Temporal Logic of Reactive and Concurrent Systems: Specification. New York: Springer-Verlag, 1992. MURATA,T. Petri Nets: Properties, analysis and applications. Proceedings of the IEEE, 77: 541-580, 1989. PETERSON, J.L. Petri Net Theory and the Modeling of Systems. Englewood Cliffs, NJ: Prentice-Hall, 1981. SMULLYAN, Raymond. First Order Logic. Berlin/Heidelberg: Springer-Verlag, 1968. 76 Dezembro • 2000 g y p Carretéis em Carbono Vítreo e Amido para a Utilização em Giroscópio a Fibra Óptica Vitreous Carbon and Starch Spools for Utilization in Fiber Optic Gyroscopes CYNTIA CRISTINA DE PAULA CTA/Instituto de Estudos Avançados Instituto Tecnológico de Aeronáutica (ITA) [email protected] ANDRÉ CÉSAR DA SILVA CTA/Instituto de Estudos Avançados [email protected] ANTONIO GARCIA RAMOS CTA/Instituto de Estudos Avançados [email protected] MIRABEL CERQUEIRA REZENDE CTA/Instituto de Estudos Avançados [email protected] EDSON COCCHIERI BOTELHO Instituto Tecnológico de Aeronáutica (ITA) [email protected] RESUMO – O presente artigo aborda o projeto e a obtenção de carretéis de apoio ao enrolamento de bobinas de fibra óptica utilizadas em giroscópios, com dois diferentes materiais: carbono vítreo e amido, visando à otimização do desempenho do sensor como um todo. Esse desempenho é particularmente afetado pela dilatação térmica do carretel de suporte da bobina de fibra óptica. A eliminação do suporte é uma alternativa para a redução de tal problema. O amido foi escolhido por ser solúvel em água, permitindo a obtenção de uma bobina de fibra óptica auto-sustentável. Embora essa seja a condição ideal, em algumas aplicações há a necessidade de um suporte permanente que auxilie na fixação. Para essa finalidade, o carbono vítreo foi obtido e caracterizado quanto à sua massa específica (1,54 g/cm3), ao seu coeficiente de dilatação térmica (2.10-6°C-1) e a sua resistividade elétrica (62,08 µ.Ω.m). Esses resultados estão de acordo com trabalhos anteriores sobre carbono vítreo. Uma comparação das diferentes alternativas de carretéis permanentes para a construção da bobina do giroscópio a fibra óptica revela que o carbono vítreo é o mais adequado para esta aplicação. Palavras-chave: GIROSCÓPIO A FIBRA ÓPTICA – CARBONO VÍTREO – RESINA FURFURÍLICA – AMIDO. ABSTRACT – This article addresses the project and fabrication of spools to aid the winding and support of optical fibers used in gyroscopes, in order to improve its performance as a whole. The materials studied are vitreous carbon and starch. Gyro performance is particularly affected the spool thermal expansion. Elimination of the spool is an alternative for the reduction of this effect. Starch is soluble in water, making it possible to build a self-supported coil. Although this is the ideal situation, in some applications a spool is needed for fixation of the coil. For these cases, vitreous carbon is characterized for specific mass (1.54 g/cm3), thermal expansion coefficient (2 × 10–6ºC–1) and electrical resistivity (62.08 mΩm). These results agree with previous works on vitreous carbon. A comparison between different alternatives for the permanent spool for the gyro fiber coil reveals that vitreous carbon is the most adequate for this application. Keywords: FIBER OPTIC GYROSCOPE – VITREOUS CARBON – FURFURYLIC RESIN – STARCH. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84 77 g y p INTRODUÇÃO O giroscópio é um dispositivo que mede a velocidade angular a que é submetido seu referencial próprio em relação a um referencial inercial. O sistema composto por três giroscópios e três sensores de aceleração é conhecido por plataforma inercial. O veículo equipado com esse sistema é capaz de se orientar e de se posicionar no espaço. Tal capacidade é desejável em veículos lançadores de satélites, além de muito importante em aviões em cruzeiro nos instantes em que perdem o auxílio de navegação externo (Almeida, 1996). O giroscópio que utiliza um interferômetro a fibra óptica possui uma configuração básica conhecida como interferômetro de Sagnac (Carrara, 1988). Esse tipo de sensor a fibra óptica tem fornecido, nos últimos anos, uma boa solução para aplicações que necessitam de alta resolução de medida de velocidade angular, principalmente, por apresentarem características de alta sensibilidade, imunidade a interferências eletromagnéticas, tamanho e peso reduzidos. Sensores de rotação a fibra óptica são utilizados em aeronaves, veículos espaciais, satélites, mísseis, navios, brocas petrolíferas e em automóveis (Berg, 1994). Um dos componentes fundamentais em um giroscópio a fibra óptica (GFO) é a bobina óptica (Almeida, 1997). Suas características norteiam detalhes relevantes do sistema. Para se chegar à confecção de um GFO, para aplicações específicas, é necessária a formulação de várias alternativas para a bobina óptica. Isso pode ser feito por meio da fabricação de carretéis de apoio para o enrolamento da bobina de fibra óptica, com diversas geometrias e diferentes materiais (De Paula, 1999). A figura 1 mostra a configuração mínima do circuito óptico com os componentes principais de um GFO (Barbosa, 1998). Como pode ser observado, esse sensor a fibra tem o eixo de sensibilidade perpendicular ao plano das espiras da bobina, não são detectadas rotações em torno de eixos paralelos ao plano das espiras. Por isso, diz-se que o GFO é um sensor de um grau de liberdade (Almeida, 1998). 78 Fig. 1. “Configuração mínima” de circuito óptico com os componentes principais do giroscópio, mostrando a posição da bobina de fibra óptica. A utilização de um carretel auto-sustentável é a condição ideal para a aplicação em GFO, por não apresentar um suporte com coeficiente de dilatação térmica diferente do coeficiente da fibra óptica, pois considera-se a primeira camada de fibra como o suporte para as demais. Outra vantagem na utilização desse tipo de suporte é a eliminação da massa associada ao carretel. Essa redução de massa vem atender à crescente necessidade de compactação de tais sensores, em especial nas atividades aeroespaciais. Entretanto, esse sistema apresenta uma desvantagem devido à configuração, pois em certos casos a bobina deve ser fixada rigidamente e a ausência de um suporte mecânico dificulta tal fixação. A figura 2 mostra uma bobina de fibra óptica auto-sustentável (fig. 2a) e uma bobina de fibra óptica enrolada sobre um suporte de amido (fig. 2b) (De Paula, 1999). Quando houver necessidade de um suporte permanente para a bobina de fibra óptica, as condições desejáveis para o carretel são: baixa massa específica, pois a redução de massa do sensor aumenta a capacidade de carga útil dos veículos equipados com este sistema, em especial para aplicações aeroespaciais; baixo coeficiente de dilatação térmica, com o objetivo de reduzir a deformação na fibra óptica quando houver aumento de temperatura; e baixa resistividade elétrica, para evitar o acúmulo de eletricidade estática, prejudicial à eletrônica de alta sensibilidade presente no circuito óptico, em especial na fonte óptica (De Paula, 1999). Dezembro • 2000 g y p Fig. 2. Uma bobina de fibra óptica auto-sustentável (a) e bobina de fibra óptica enrolada sobre um suporte de amido (b). (b) (a) Dentro desse conceito, o carbono vítreo encontra-se em uma posição vantajosa em relação a outros materiais, pois é constituído essencialmente de átomos de carbono, que têm a peculiar característica de se ligar indefinidamente entre si, podendo dar origem a uma enorme quantidade de combinações, com estruturas que podem ser alteradas mediante certas condições de processamento. Esse material é classificado como material carbonoso de origem polimérica, devido à utilização de resinas termorrígidas, fenólicas e furfurílicas, como principal matériaprima, apresentando características físicas, térmicas e elétricas, em especial, que se aproximam das condições desejáveis para os carretéis, descritas anteriormente (Taylor, 1977; e De Paula, 1999). Sendo assim, o presente artigo aborda a obtenção de carretéis de carbono vítreo e amido com vistas à produção de bobinas de fibra óptica. Os materiais obtidos foram caracterizados por ensaios de resistividade elétrica pelo método dos quatro pontos, massa específica aparente, determinação dos encolhimentos linear e volumétrico e da perda de massa do precursor do carbono vítreo durante o tratamento térmico, rugosidade superficial, dureza e por análise de microscopia óptica. nido com 57 HRc. O dimensionamento das espessuras da parede do molde foi calculado em função da pressão específica a ser aplicada na obtenção do carretel (Agostinho, 1977). Este ensaio foi realizado em uma prensa hidráulica modelo Imperial 2000. Fig. 3. Molde para compactação do amido. A figura 4 ilustra o suporte em amido utilizado no enrolamento da bobina de fibra óptica. Fig. 4. Suporte em amido. MATERIAIS E MÉTODOS Carretel Auto-sustentável Para a obtenção de bobinas auto-sustentáveis, o material escolhido como suporte temporário foi o amido de milho em pó, conformado em um molde adequado por meio de um sistema de prensagem. Para a confecção do molde (fig. 3), foi utilizado aço com alta porcentagem de carbono, temperado e reve- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84 79 g y p O enrolamento da fibra óptica sobre o suporte em amido foi realizado em uma máquina bobinadora de fibra óptica (fig. 5) (De Paula, 1999). Fig. 5. Esquema da máquina bobinadora de fibra óptica. Essa máquina bobinadora é automatizada e o comprimento de fibra enrolada sobre o suporte foi monitorado por meio de um software desenvolvido na linguagem LabVIEW. Sobre cada camada de fibra óptica enrolada sobre o carretel de amido há uma camada de spray lacquer (produto para proteção de superfícies sob análise metalográfica), com a função de colar as espiras entre si. No final do processo, o amido é dissolvido em água e o resultado final é a bobina de fibra óptica auto-sustentável. CARRETEL DE CARBONO VÍTREO Os carretéis de carbono vítreo foram obtidos a partir da polimerização e carbonização da resina furfurílica, sintetizada pela indústria Cersa. A viscosidade da resina furfurílica utilizada neste trabalho foi de 3.000 mPa.s a 25ºC. Não foram utilizadas viscosidades superiores, pois sabe-se que a qualidade do material polimerizado é prejudicada pelas dificuldades de manipulação da resina no preenchimento dos moldes e de retirada das bolhas de ar, durante a centrifugação. Para que ocorra a polimerização da resina furfurílica, devem ser adicionados 2,5% do catalisador ácido paratolueno-sulfônico 80 (APTS). Em seguida, a resina foi centrifugada a 3.000 rpm, durante 40 minutos, em uma centrífuga MSE, modelo GF8, e transferida para moldes adequados ao formato desejado do produto final obtido. Após a transferência da resina para o molde, o material foi colocado à temperatura ambiente por 24 horas, sendo em seguida transferido para uma estufa (Fanen, modelo 315SE) a 60ºC, por duas horas. A conclusão do ciclo foi realizada à temperatura de 80ºC, mantendo o material por mais duas horas nessa condição (Botelho, 2000). Após curado, o material passou por um tratamento térmico de até 1.000˚C. Nos tratamentos térmicos de carbonização foi utilizado um aparato composto de um forno tubular monofásico Lindberg, com resistência espiral de Kanthal tipo A (até 1.300ºC) e tubo de Mulita com acabamento vitrificado, com 70 mm de diâmetro interno. Esse tratamento foi realizado sob atmosfera de Nitrogênio. A tabela 1 mostra o ciclo do tratamento térmico utilizado na obtenção das bobinas de carbono vítreo. Tab. 1. Ciclo do tratamento térmico de carbonização. TEMPERATURA FINAL (˚C) TAXA DE AQUECIMENTO (˚C/H) 200 ± 20 700 ± 70 1000 ± 100 10 5,4 10 CARACTERIZAÇÃO As medidas de resistividade elétrica, das amostras tratadas à temperatura máxima de 1.000ºC, foram realizadas pelo método dos quatro pontos, utilizando-se um equipamento desenvolvido no Laboratório de Materiais Carbonosos Estruturais do CTA. Os valores de resistividade elétrica (ρe) foram obtidos utilizando-se corpos-de-prova de carbono vítreo com dimensões de 60 mm x 10 mm x 2 mm. A massa específica aparente foi calculada a partir do quociente da massa pelo volume dos carretéis. A implicação disso é que a massa específica aparente é um valor médio que inclui os poros presentes no material. A massa das amostras já na forma de carretéis, após o tratamento térmico, foi determinada por uma balança analítica e o volume foi obtido por meio de um cálculo realizado no aplicativo computacional Autocad, após o modelamento em sólido com as mesmas dimensões. Dezembro • 2000 g y p Os valores dos encolhimentos linear e volumétrico e da perda de massa da resina durante o tratamento térmico foram obtidos a partir das medidas do comprimento, da largura, da espessura e da massa do material inicial e final. As análises de rugosidade foram realizadas em um rugosímetro Perthometer Perthen, tipo 58 P-Mahr, ponteira mecânica FRW-750. Os diagramas de perfis de rugosidade obtidos nas análises forneceram os parâmetros de rugosidade máxima (Rmax), média (RZ) e aparente (Ra), que é a média de todas as alturas entre picos e vales da superfície do material. As análises de dureza foram realizadas em um medidor de microdureza digital. O equipamento utilizado fornece o cálculo final de dureza Vickers (HV). A escolha pela medida de dureza Vickers deve-se à precisão obtida, embora exija uma preparação cuidadosa do material a ser ensaiado, de modo a tornar nítida a impressão. A técnica de microscopia óptica foi utilizada para caracterizar as amostras de resina polimerizada e do carbono vítreo obtido. A textura das amostras de resina furfurílica polimerizada com o ácido paratoluenosulfônico e do carbono vítreo depende, principalmente, do processo de preparação da resina. forma de carretel. Os valores encontrados foram: encolhimento linear (∆L) = 22%; encolhimento volumétrico (∆V) = 58%; e perda de massa (∆M) = 37% – valores estes próximos aos encontrados na literatura especializada (Rezende, 1991). O controle de ∆L, ∆V e ∆M faz-se necessário para a obtenção em série de carretéis que atendam às dimensões finais necessárias ao ajuste no GFO. O carbono vítreo obtido é caracterizado e os resultados comparados com materiais utilizados nesse tipo de aplicação, ou seja, o alumínio e a poliamida (fig. 7). RESULTADOS E DISCUSSÃO A tabela 2 compara os valores obtidos quanto ao coeficiente de dilatação térmica (α, obtido da literatura), à massa específica aparente (d), à resistividade elétrica (ρe), rugosidade aparente (Ra), dureza (HV) e, assim como a deformação térmica na fibra óptica devido ao suporte (Beer, 1989), com variação de temperatura de 1°C (δTemp) e a tensão de tração exercida pelo carretel (Beer, 1989), com variação de temperatura de 1°C (τ), do carbono vítreo (CV) com a poliamida 6 (PA6) e o alumínio (Al). Na caracterização do carbono vítreo obtido foram utilizados corpos-de-prova retangulares e em forma de carretéis. A figura 6 mostra os corpos-deprova utilizados no presente trabalho. Fig. 6. Corpos-de-prova utilizados na caracterização do carbono vítreo obtido. Fig. 7. Carretéis fabricados: (a) carbono vítreo, (b) alumínio, (c) poliamida. Tab. 2. Comparação dos resultados obtidos. CARRETEL → CARBONO ALUMÍNIO POLIAMIDA PROPRIEDADES ↓ VÍTREO Para a determinação da perda de massa da resina furfurílica carbonizada para a obtenção do carbono vítreo foram utilizados corpos-de-prova na REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84 α [°C-1] d [g/cm3] ρe [µΩ.m] Ra [µm] HV δTemp [µm] τ [MPa] 2 10-6 1,54 62,08 1,356 404,1 0,143 0,105 24 10-6 1,10 380 0,260 68,0 2,213 1,690 99 10-6 2,77 1016 0,530 7,7 9,760 7,127 81 g y p A tabela 3 mostra a influência da variação de 1ºC de temperatura sobre a fibra óptica, utilizandose o carretel auto-sustentável. Tab. 3. Resultados obtidos para carretel auto-sustentável. CARRETEL → AUTO-SUSTENTÁVEL PROPRIEDADES ↓ [µm] [MPa] δTemp τ 0,054 0 δTemp = deformação térmica na fibra óptica devido à dilatação do suporte, com variação de temperatura de 1°C; τ = tensão de tração exercida pelo carretel resultante da variação de temperatura de 1°C. Como pode ser observado na tabela 2, a massa específica aparente do carretel de CV é maior que a massa específica aparente do carretel de PA, porém, inferior à do carretel de Al. A partir da análise do coeficiente de dilatação térmica, observou-se que o CV apresenta resultado inferior ao dos outros materiais, característica esta de extrema importância para esse tipo de aplicação, que necessita de um material que apresente a mínima deformação térmica possível. Correlacionando-se os valores de massa específica com os de coeficiente de dilatação térmica, pode-se concluir que, apesar da massa específica do CV ser superior à da PA, os carretéis de CV mostram-se mais adequados ao uso em GFO. Além disso, observou-se que o carbono vítreo obtido possui menor resistividade elétrica quando comparado ao alumínio e à poliamida (materiais estes que se encontram entre os de menor condutibilidade de eletricidade). Essa característica é necessária para se evitar o acúmulo de eletricidade estática, prejudicial à eletrônica de alta sensibilidade presente no circuito óptico do GFO. Apesar da rugosidade do carretel de carbono vítreo ser superior em relação à rugosidade das outras amostras (como evidenciado na tab. 2), a superfície obtida ainda mostra-se adequada para ser aplicada na preparação de bobinas para GFO, pois sabe-se que o diâmetro do núcleo da fibra óptica é de 5 µm (Almeida, 1997) e apenas rugosidades acima desse valor poderão causar micro distorções, interferindo no circuito óptico. Além disso, o perfil 82 de rugosidade do carretel de carbono vítreo pode ser melhorado com um processo de polimento. Deve-se evidenciar que a dureza de carretéis para aplicação em GFO não é uma questão limitante, mas sabe-se que materiais mais duros favorecem a obtenção de superfícies mais adequadas a tal tipo de aplicação, pois essas superfícies podem apresentar menores valores de rugosidade quando devidamente polidas e serem menos susceptíveis à deformação localizada, devido à compressão da fibra óptica ou de outro elemento de fixação mecânica. Sendo assim, o valor médio de dureza do carbono vítreo preenche os requisitos desejados de um material com potencial para esse tipo de aplicação. A figura 8 (a) apresenta a fotomicrografia representativa de diferentes amostras de resina furfurílica polimerizada e a figura 8 (b) mostra a fotomicrografia representativa do carbono vítreo obtido, na qual pode ser identificada a presença de macroporos. No material carbonizado foi observado um decréscimo no tamanho dos poros, devido ao encolhimento volumétrico da matriz polimérica durante o tratamento térmico de carbonização. A observação da presença desses vazios deve-se, principalmente, ao processo de preparação da resina. Sabendo-se que o diâmetro médio da fibra óptica é de 200 µm (Almeida, 1997), a presença desses macroporos no carbono vítreo, de tamanhos inferiores a 20 µm, não provoca danos ao enrolamento da fibra óptica. CONCLUSÕES No caso em que há a necessidade de uma fixação rígida da bobina, um suporte mecânico permanente para o enrolamento se torna indispensável. Sendo assim, a utilização do carbono vítreo é a alternativa mais viável, pois fornece um baixo valor de deformação térmica na fibra óptica (0,143 µm) quando comparado aos carretéis de alumínio e de poliamida 6, considerando-se as mesmas condições, com variação de 1ºC de temperatura. Outra característica considerada adequada no caso da utilização de carretéis de carbono vítreo é a massa específica volumétrica ser igual a 1,54 g/cm3 e a resistividade elétrica média ser de 62,8 µΩ.m, propriedades satisfatórias para a aplicação em GFO. Dezembro • 2000 g y p Fig. 8. (a) Fotomicrografia óptica da resina furfurílica polimerizada (100x); (b) fotomicrografia óptica do carbono vítreo (1.000x). (a) A obtenção de uma bobina auto-sustentável mostrou ser outra alternativa viável, sendo um processo mais econômico se comparado com a utilização do carbono vítreo. No entanto, um estudo mais aprofundado deve ser realizado para se poder garantir a total eficiência da obtenção dessas bobinas. (b) Agradecimentos Os autores agradecem à FAPESP; à empresa Cersa S.A. pelo fornecimento da resina furfurílica utilizada; e ao Dr. José Maria Marlet, cujas idéias auxiliaram na obtenção dos carretéis auto-sustentáveis. REFERÊNCIAS BIBLIOGRÁFICAS ALMEIDA, J.C.J. Técnicas de processamento de sinais em girômetros a fibra óptica para sistemas de navegação inercial. [Dissertação de mestrado, Universidade de Campinas, Campinas, 1996]. ALMEIDA, V. Caracterização de bobinas para interferômetros de Sagnac. São José dos Campos, 1997. [Trabalho de graduação, Instituto Tecnológico de Aeronáutica]. ALMEIDA, V. Aplicação de dispositivo multifuncional a óptica integrada em interferômetro de Sagnac a fibra óptica birrefringente. São José dos Campos, 1998. [Dissertação de mestrado, Instituto Tecnológico de Aeronáutica]. AGOSTINHO, O.L. & RODRIGUES, A.C.S. Princípios de Engenharia de Fabricação Mecânica. São Paulo: Edgar Blücher, 1977. BARBOSA, C.L. Fonte óptica de baixa coerência temporal com cavidade externa a fibra. São Paulo, 1998. [Tese de doutorado, Universidade de São Paulo]. BERG, R. All fiber gyroscope. In: BURNS, William. Optical fiber rotation sensing, San Diego: Academic Press, 1994. BEER, F.P. & JOHNSTON R. Resistência dos Materiais. São Paulo: McGraw-Hill, 1989. BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Rheological analysis of the phenolic and furfuryl resins used in the carbon materials processing, materials, Research, v. 3, n.º 2, pp. 19-23, (2000). BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Porosity control in glassy carbon by rheological study of the furfuryl resin, Carbon, 2000. [No prelo]. BOTELHO, E.; SCHERBAKOFF, N. & REZENDE, M. Rheological studies applied in the processing and characterization of carbon/carbon composites, Journal of Advanced Materials, 2000. [No prelo]. CARRARA, S. Drift reduction in optical fiber gyroscope. Stanford, 1988. [Tesis of Doctoral, University of Stanford]. PAULA, C. Fabricação de carretéis de apoio em carbono vítreo e amido para a utilização em giroscópio a fibra óptica. São José dos Campos, 1999. [Trabalho de graduação, Escola de Engenharia Industrial]. REZENDE, M.C. Produção de carbono vítreo em escala de laboratório, a partir da resinas furfurílica e fenólica. São Paulo, 1991. [Tese de doutorado, Universidade de São Paulo]. TAYLOR, R.E. & KLINE, D.E. Internal friction and elastic modulus behavior of vitreous carbon from 4 K to 570 K. Carbon, n.º 5, 1967, p. 607. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 77-84 83 g 84 y p Dezembro • 2000 g y p Vanadium Recovery by Leaching in Spent Catalysts for Sulfuric Acid Production Recuperação do Vanádio Contido em Catalisadores Gastos na Produção de Ácido Sulfúrico JOSÉ LUÍS MAGNANI Escola Politécnica da USP [email protected] GEORGE CURY KACHAN Escola Politécnica da USP e-mail@aultor NEWTON LIBANIO FERREIRA Universidade Metodista de Piracicaba [email protected] RESUMO – As fábricas de ácido sulfúrico precisam, periodicamente, de substituição de catalisador, seja em razão do desenvolvimento de catalisadores mais avançados, seja para remoção de grânulos fraturados, poeira e catalisador danificado por exposição à umidade. Esse material retirado do conversor não pode ser simplesmente descartado, porque contém vanádio. As autoridades regulamentadoras do uso do meio ambiente especificam claramente as condições de armazenagem do material. Dessa forma, ocupam-se áreas industriais às vezes extremamente necessárias para outros usos. O objetivo desse trabalho é estudar a lixiviação desse material para reduzir seu conteúdo em vanádio, de forma a poder descartá-lo com segurança. Foi desenvolvido um projeto fatorial de experimento, contemplando as variáveis: tamanho de partícula, temperatura, concentração de ácido sulfúrico e intensidade de agitação. Os resultados mostram grande influência do tamanho de partícula sobre o conteúdo residual de vanádio. A temperatura apresenta menor influência. Esses fatos indicam que a difusão intrapartícula é a etapa controladora da velocidade do processo. Adicionalmente, foi proposto processo de lixiviação e operado em escala de bancada. Foram comparados os resultados obtidos com aqueles previstos, com boa concordância. Realizou-se também estimativa de investimento para a implantação de pequena unidade, para lixiviação de 14 toneladas diárias. O custo de investimento foi avaliado em US$ 195.000,00. Palavras- chave: VANÁDIO – CATALISADOR GASTO – LIXIVIAÇÃO – ÁCIDO SULFÚRICO. ABSTRACT – Sulfuric acid plants often need catalyst replacement in order to cope with process improvements, removal of broken pellets, dust and moisture damaged particles. This removed material can not be discarded because has high amounts of vanadium. According to the Brazilian Environmental Authority this material must be stored under specified conditions. This situation requires large storing areas potentially useful for other applications. The purpose of this work is to study the catalyst leaching in order to reduce its vanadium content so that it can be safely disposed. Factorial experimental design was used and the process variables studied were particle size, temperature, acid concentration and agitation intensity. Results showed strong dependency between remaining vanadium content and particle size. Temperature has shown lesser influence. The latter indicates an intra particle diffusion controlled process. As an aftermath a leaching process was developed together with a model. Bench scale experiments showed good match with process calculated values. Estimated investment for a small plant (14 ton./day) is US$ 195.000,00. Keywords: VANADIUM – SPENT CATALYST – LEACHING – SULFURIC ACID. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90 85 g y p INTRODUCTION T he overall sulfuric acid of Brazil is 4.9 Mtpy. According to ANDA (1998), 80% of the acid is used in fertilizer production, either in direct application (mixing with phosphate concentrate) or in phosphoric acid production used itself to produce ammonium phosphate, diammonium phosphates and triple super-phosphates. In the 70’s under the Plano Nacional de Fertilizantes (set of actions issued by the Brazilian Government to increase the national fertilizer production) the installed sulfuric acid production capacity underwent a dramatic increase in order to cope with the needs of Brazilian agricultural production. In the 80’s the existing plants underwent process improvement with production capacity increase and also the change of the absorption process from single to double step. The single step absorption shows yields of 98% while double absorption process shows yields of 99.5% plus. This reduction in sulfur consumption does not justify the necessary capital investments but the non converted sulfur is primarily discarded to atmosphere as sulfur dioxide. So the main task is to reduce the equivalent sulfur dioxide emission from 2% to 0.5-0.4%. In the single step absorption process the sulfur dioxide is converted to sulfur trioxide in four catalytic beds. The key concept of the double step absorption process is to make an intermediate absorption of the sulfur trioxide before the gases are allowed to enter the fourth catalytic conversion stage. The revamping of existing plants with the change from single to double absorption demanded the catalyst replacement for other types which yields less pressure drops. This pressure drop reduction in the reactor is necessary to overcome the pressure drop increase due to the new absorption system composed of heat exchangers and the absorption tower itself. If the overall pressure drop is kept in the previous figure there is no need of modify or replace the gas compressing units (Sanders et al., 1982). The spent and replaced catalyst can not be discarded due to its high Vanadium content. 86 Even though the catalyst type is not changed there is always the need of its replacement. The unavoidable vibration of the beds caused by the gas flux, the thermal dilatation and also the rust deposit cause dust production and deposit in the beds. This increases the pressure drop in the reactor causing an operational problem. In the maintenance shutdown the catalyst must screened in order to remove this dust. When the one or more tubes of the heat boiler show leakage the water vapor mixes with the gases and reacts with the catalyst damaging it. The damaged catalyst is easily identified by its blue or green color in contrast with the normal yellow. It is also replaced in the maintenance shutdown. Some countries send the spent catalyst to the vanadium mining facilities where it is mixed with the ore in its normal processing lines. This is not the case of Brazil, where the spent catalyst is stored and kept in conditions dictated by the Environmental Authorities. The problem is not solved although it is kept under control but the used areas place a new economic issue. The international standard for vanadium effluents was 900 mg/l maximum (Vanadium was one of the heavy metals detected in Minamata Bay). In 1985 this limit was increased to 2.400 mg/l in the State of California (Social Security, Environmental Health, 1985). According to Azhikima (1991) the major troubles of spent catalyst processing units are the investment, high cost feedstock’s and also the arising of other potential environmental problems due to other effluent generation. The main goal of this work is to obtain process conditions that allow vanadium extraction so that the remaining material may be considered inert with low plant investment, low price feedstock and no hazardous effluent generation. Among several leaching agents, the sulfuric acid under temperatures below 60ºC is compatible with low price plastic and also low price feedstock (the sulfuric acid itself), low amounts of alkaline agent (caustic soda, soda ash or even limestone). Reducing agent may be the sulfur dioxide. By means of sulfuric acid leaching, Vanadium is reduced from 5+ to 4+ so that it can be dissolved Dezembro • 2000 g y p in the form of oxy-sulfate (VOSO4). This occurs in a wide pH range and redox potential as showed by Rhodes (1968). Besides its function in reducing pH, sulfuric acid also reacts in the Vanadium solubilization so that its concentration may influence the leaching. 2. the flask was kept under agitation and temperature control (New Brunswick shaker) for two hours; 3. 3 g of material in the desired mesh added; 4. after 15 min, withdraw the material by filtration; 5. Vanadium content determined by atomic absorption spectrofotometry (Perkin Elmer 503 standard procedures). EXPERIMENTAL The sample of spent catalyst, used in this experimental procedures, have been collected during annual Copebrás shutdown in 1994, by means of sorting 20 lots of material taken at random. The leaching study was carried with the factorial experimental design in order to determine the influence of each process variable, their interaction and setup the phenomenological relationships. The main resistances to leaching are: RESULTS The results are shown in table 1. Variance analysis of these results (tab. 2) shows that the residual vanadium content depends on: • material size (mesh); • leaching temperature; • interaction between these two variables; • does not depend on the sulfuric acid concentration; • does not depend on the agitation speed; • this can be seen easily in figure 1. 1. kinetic of the process; 2. intra-particle mass transfer; 3. mass transfer from particle surface to surrounding media. Table 1: VANADIUM run size (number) (mesh) CONTENT AFTER LEACHING. temperature speed acidity vanadium (°C) (rpm) (%) (ppm) So, the variables that affect those resistances are: 1 65 25 100 1 1110 1. sulfuric acid concentration, since it plays the role of reactant it influences the kinetic. Tested values: 1% and 10%; 2 65 25 100 10 1110 3 65 25 200 1 1110 4 65 25 200 10 1120 2. agitation speed: acts in the mass transfer from particle to surrounding media. Tested values: 100 rpm and 200 rpm; 5 65 55 100 1 1080 6 65 55 100 10 1090 7 65 55 200 1 1120 3. particle size: intra-particle mass transfer. Tested values: 35 mesh and 65 mesh; 8 65 55 200 10 1100 9 35 25 100 1 1290 4. Temperature: overall action. Tested values: 25ºC and 55ºC. 10 35 25 100 10 1300 11 35 25 200 1 1310 12 35 25 200 10 1280 13 35 55 100 1 1170 14 35 55 100 10 1220 15 35 55 200 1 1190 16 35 55 200 10 1210 The factorial experimental design was carried by means of standard experimental assays sorted at random described as follows: 1. in a 250 mL flask 50 mL of solution with the desired pH and reducing agent (sodium tiosulfate) enough to obtain the final redox potential of 400 mV; REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90 87 g y Table 2: ANALYSIS OF VARIANCE : VANADIUM CONTENT AFTER LEACHING. Degrees of Source freedon A)size (mesh) 1 B)tempera1 ture C)speed 1 (rpm) D)acidity 1 Interaction 1 AxB Interaction 1 AxC Interaction 1 AxD Interaction 1 BxC Interaction 1 BxD Interaction 1 CxD Residuals 5 TOTAL 15 PREDICTED p Table 4: EQUIPMENTS LIST Item Total square 79806 Mean square 79806 Variance ratio 337,87 1 12656 12656 53,58 3 306 306 1,30 4 156 156 0,66 5 6806 6806 28,81 6 156 156 0,66 7 156 156 0,66 8 156 156 0,66 9 10 306 306 1,30 11 506 506 2,14 12 1181 102194 236 6813 1,00 2 13 Tag B01 Description Sump pump, PVC or poliethylene Centrifugal pump, 5 m3/h, poliethyB02A/B lene Centrifugal pump, 5 m3/h, poliethyB03A/B lene B04 Sump pump, PVC or poliethylene Centrifugal pump, 3 m3/h, poliethyB05A/B lene Centrifugal pump, 3 m3/h, poliethyB06A/B lene Rotary reactor, 1m3, phenolic resin BT01 linned carbon steel Discharge vessel, 1m3, phenolic C01 resin linned carbon steel FP01 Press filter, 12 m2, poliethylene FP02 Press filter, 3 m2, poliethylene Agiteted vessel, 3m3, phenolic TQ01 resin linned carbon steel Agiteted vessel, 3m3, phenolic TQ02 resin linned carbon steel Agiteted vessel, 0.35m3, phenolic TQ3/4/5/6 resin linned carbon steel Table 3: AND OBSERVED VANADIUM CONTENT Observed Predicted Diference value value (%) Stream Filtered from the first (ppm) leaching 35000 34780 0,63 Filtered from the pH4.0 precipitation (ppm) 2500 2500 0,00 Filtered from the second leaching (ppm) 3900 3812 2,31 Filtered from the first (ppm) washing 7700 7868 -2,14 Filtered from the second washing (ppm) 6000 6160 -2,60 Filtered from the third (ppm) washing 1800 1865 -3,49 Filtered from the forth (ppm) washing 2200 2241 -1,83 Cake after leaching (ppm) 2100 2234 -6,00 Precipitated solid (g) 26,7 28,8 -7,29 Vanadium in the precipitated cake (%) 20,1 18,8 6,91 88 Dezembro • 2000 g y p Fig. 1. Vanadium content after leaching. Fig. 2. Material Balance: 1000 Kg of spent catalyst (values in Kg). stream 1 2 3 solids 0 0 0 water 60 34 94 0 147 2524 2377 476 3000 479 V(solid) 0 0 0 31 28,8 V(liquid) 0 0 0 0 0 4 5 1000 153 6 7 8 9 10 11 12 13 14 15 16 17 18 0 0 970 0 970 0 970 0 970 0 970 0 970 0 435 476 435 476 435 476 435 476 435 0 1,1 0 1,1 0 1,1 0 1,1 0 34,8 5,94 6,56 11,4 4,49 3,42 3,75 2,68 2,93 1,87 2,04 0,98 1,07 0 0 0 1,1 0 1,1 19 figura 2 REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 85-90 89 g y p DISCUSSION This results indicates that the dominant resistance of the process is the intra-particle diffusion because: 1. if the dominant resistance was the mass transfer from the particle surface to the surrounding media, the residual vanadium content would be dependant on the agitation speed; 2. if the kinetic was the slowest step, the final result would depend on the sulfuric acid concentration, because it is a reactant; 3. the intra-particle diffusion is strongly influenced by the particle dimension; it is also influenced by temperature because it affects the diffusion coefficients, exactly as was shown by the variance analysis. The material with moisture is easily disrupted to the mesh 65. This dimension showed a good equilibrium approach in 15 minutes (fig. 1), in all experiments. To make the material balance, we need know the cakes humidity. Complementary experiments made possible to determine the equilibrium moisture of 49% in several filtration cakes which shows that the counter current leaching (with two stages with 20 minutes of residence time each) followed by washing (four stages), as shown in figure 2, give the desired result. Extracted vanadium is precipitated by pH increase, so that the solution can be recycled. This process has been conducted in bench scale. The Vanadium content showed no significant variation after 6 cycles so that steady state condition were achieved. Observed figures showed good match with that predicted (fig. 2), as seen in table 3. The match between predicted and observed values allowed the proposal of a flowsheet of the process as seen in figure 3 and the list of equipments (tab. 4). The investment estimate for a small plant with capacity of processing 600 kg/h is US$ 195,000.00. CONCLUSIONS The spent sulfuric acid production catalysts can be leached with sulfuric acid to reduce its Vanadium content so that they can safely be disposed as inert materials. Leaching velocity, showed to be influenced by particle dimensions and temperature and does not depend on the sulfuric acid concentration nor agitation speed. This behavior can be explained by the fact that the slowest step of this process is the intraparticle diffusion and the reaction kinetics and also that the mass transfer from the particle to the surrounding media are minor resistances. Counter current leaching followed by washing allows the reaching of desired spent catalyst contents to disposal. Produced liquor can be recycled after vanadium precipitation at pH 4.0. Bench scale experiments showed good match between predicted (see fig. 2) and measured values. Estimated investment for a small capacity production unit (600 kg/h) is US$ 195,000.00. REFERENCES ANDA-Associação Nacional para a Difusão de Adubos e Corretivos Agrícolas. Anuário Estatístico Setor de Fertilizantes, São Paulo, 1997. AZHIKINA, Y.V. Status and thrust of research on recycling spent vanadium catalysts in sulfuric acid production. Zhurnal Prikladoi Khimii, v. 64, n. 5, pp. 1.105-1.107, 1991. Gmelins Handbuch der Anorganishen Chemie. Weinhein-Bergstrasse, Verlag Chemie, 1968. v. 48, p. 498. SANDERS, U.H.; FISHER, H.; ROTHE, U. & KOLA, R. Sulphur Dioxide and Sulfuric Acid. London: The British Sulphur Corporation Ltd., 1982. State of California. Department of Health Services. Minimum Standards for Management of Hazardous and Extremely Hazardous Wastes. In: Social Security (Title 22), Environmental Health (Chapter 30). 90 Dezembro • 2000 g y p Rheological Behavior of Pineapple and Mango Pulps: effect of the measuring systems Comportamento Reológico das Polpas de Abacaxi e Manga: efeito do sistema de medidas CARLOS ALBERTO GASPARETTO Unicamp [email protected] DANIELA HELENA PELEGRINE GUIMARÃES Unicamp [email protected] ABSTRACT – The rheological behavior of whole pulps of Pérola variety pineapple (Ananas comusus L. merr) and Keitt variety mango (mangífera indica L.), both at 30˚C, using the Haake Rotovisco RV-20 rotational rheometer was studied. Two different measuring systems were empolyed: concentric cylinders (ZA30) and parallel plates. The diameters of parallel plates were 45 mm (PQ45) and 30 mm (PQ30), both with gaps of 0.5 and 1.0 mm. The PQ45 measuring system with gap of 0.5 mm produced the highest shear rates, up to 900s-1 and showed better performance in describing the behavior of both pulps. The resulting rheograms were adjusted with the model of Mizrahi-Berk (M-B) having three constants. Samples showed pseudoplastic behavior for both measuring systems employed. The geometry of those measuring systems greatly affected the rheological response of both pineapple and mango pulps thus influencing the quality of rheological model fitting. No thixotropy was detected. Keywords: PINEAPPLE – MANGO – PULP – RHEOMETRY – PSEUDOPLASTIC. RESUMO – Neste trabalho experimental foram analisados, em reômetro rotacional Haake Rotovisco RV-20, as polpas integrais de abacaxi Pérola (Ananas comusus L. merr) e manga Keitt (mangífera indica L.) à temperatura de 30ºC. Os ensaios foram conduzidos com dois sistemas de medida: cilindros concêntricos (ZA30) e placas paralelas com diâmetros de 45 mm (PQ45) e de 30 mm (PO), ambas com espaçamento de 0,5 e 1,0 mm. O sistema de medida PQ45 com distância entre placas de 0,5 mm produziu as maiores taxas de deformação, até 900s-1 e foi o que melhor descreveu o comportamento das duas polpas. Aos reogramas obtidos foi ajustado o modelo de Mizrahi-Berk (M-B). Observou-se que as duas polpas apresentam comportamento pseudoplástico para todos os sistemas ensaiados, e que a geometria dos sistemas de medidas exerce grande influência nos parâmetros reológicos e também na qualidade do ajuste do modelo reológico. Não foi detectada tixotropia durante os ensaios. Palavras-chave: ABACAXI – MANGA – POLPA – REOMETRIA – PSEUDOPLÁSTICO. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96 91 g y p INTRODUCTION P ineapple and mango are known as two appreciable tropical fruits, due both to its pleasant aroma and flavor, and its nutritional value, with high caloric, vitamins and mineral salts contents (Donato & Carraro, 1995). Because of these factors, pineapple and mango are among tropical fruits of great commercial importance (Cunha et al., 1994). One way of placing these products into the market, increasing its shelf life and avoiding the losses due to its appearance effects, is processing them into juices and nectars (Queiroz, 1998). To handling these products in the food industry the pulp is submitted to a complete industrialization process. For such industrial processes to be technical and economically feasible, it is important the knowledge of physical-chemical properties from which the rheological behavior is one of the most important (Ibarz et al., 1996). Among the many factors influencing the rheological behavior of fruit pulps, the measuring systems’ geometry is one of the most important, having great influence on rheological parameters definition that describe the fruit pulps, because these materials are non-newtonians (Pelegrine, 1999). Most certainly, the difficulty found in the reproduction of rheological experimental data from literature can be explained because different measuring systems are used. Smith & Park (1984) said that when a non-newtonian fluid is tested using concentric cylinder viscometres, an error exists, related to the magnitude of the gap between the cup and the bob. According to these authors, the error Fig. 1 - Searle rotational rheometer. 92 value tends to zero, when the ratio between the radii of two cylinders approaches unity. From this, it can be concluded the importance of the measuring system used in any rheological test, allowing future data comparison and reproduction. The rheological behavior determined through rotational rheometer is based on torque determination, necessary to maintain constant rotational speed of a body that is immersed or in contact with the fluid. This type of rheometer can present several configurations, depending on the geometry of the rotational bodies. In this way, the rotational rheometers can be of concentric cylinders, parallel plates, cone and plate or others (Schramm, 1981). The main advantages on rotational rheometer is that this equipment allows a continuous measuring of the relationship between shear rate and shear stress, also allowing the analysis of time dependent fluids. Such equipments maintain a constant rotational speed corresponding to certain shear rate; the shear stress is obtained through torque measurement (Barnes, 1989). The shear rate and shear stress depend on the radius of the cylinder. In concentric cylinders, one of them rotates at a certain angular speed, while the other remains static. There are two types of concentric cylinders rheometer: Searle and Couette. In the fist one, the inner cylinder (cup) rotate while the bob remains static; in Couette rheometer the bob is the movable cylinder. Setting down several angular speeds for the rotational cylinder and detecting the torque in the measuring cylinder, the rheological curves can be obtained, for certain fluid. Searle and Couette systems are illustrated in figures 1 and 2. Fig. 2 - Couette rotational rheometer. Dezembro • 2000 g y p The parallel plates measuring system is constituted of two plates, separated by a gap. The gap between the plates can be adjusted, and therefore different shear rates can be obtained; larger shear rates are reached with plates of larger diameter and smaller gap between them. Fig. 4. ZA-30 measuring system with view of the cup and the bob. MATERIAL AND METHODS Preparation of Pulps The pulps were produced in pilot plant from fruits with similar degree of ripeness, as standardized with a penetration texturometer. The fruits were washed, peeled and its stales discarded. Then the fruits were passed through finishers with screen of 1.6 mm. Finally, the pulp was plate frozen to -20˚C for storage. The phyical-chemical characteristics of pineapple and mango pulps are summarized in table 1. Fig. 5. PQ-30 measuring system. Tab. 1. Pysical-chemical characteristics of pulps. pH Soluble Solids (ºBrix) Pectin (w/w %) Insoluble solids (w/w %) MANGO PINEAPPLE 4.47 16.60 0.98 1.08 3.50 13.30 0.082 0.54 Rheological Measurements The rheological properties of the samples were determined at 30˚C with the Haake Rotovisco (model RV-20) rotational rheometer, using the concentric cylinders (ZA30, fig. 3 and 4) and parallel plates (PQ30 and PQ45, fig. 5, 6, 7 and 8) systems. The gaps used for both plate diameters were 0.5 and 1.0 mm. Fig. 3. ZA-30 measuring system with view of the group cup/bob. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96 Fig. 6. PQ-30 measuring system. 93 g y p Fig. 7. PQ-45 measuring system. τ 1/2 – K 0M = K M ⋅ γ̇ nM (1) where: τ = shear stress; . γ = shear rate KM = consistency index; nM = behavior index; K0M = squared root of Mizrahi-Berk yield stress. For each curve fitting it was analyzed the determination coefficient (R2) and the qui-square (χ2) paramethers, for each measuring systems. RESULTS AND DISCUSSIONS Fig. 8. PQ-45 measuring system. Rheograms Figures from 9 to 11 show the average results for shear rate versus shear stress data for each experimental situation. Figures 12 and 13 show average data plus adjusted model to each pulp. The rheogramas obtained for all samples and systems did not show thyxotropic effects. Fig. 9. Mean shear stress X shear rate data for PQ - 30 system. The time lenght of run, for each experiment was programmed to be accomplished in 6 minutes. During the two initial minutes the shear rate was maintained constant at its maximum value, depending on the measuring system and, during the two subsequent minutes, the shear rate varied in a decreasing way until a minimum value near 0 s-1, and the last two minutes were for speeding up the shear rate back to its maximum. During the descending speeds, 20 points of shear rate versus shear stress were obtained as well as another 20 points for the ascending rates, resulting in a total of 40 points. If the fluid is not thixoprotic, the value of shear stress considered for a shear rate is taken as the arithmetic mean between descending and ascending rates. The experiments were conducted with three repetitions and the resulting shear stress was the average of the three experiments. Each set of data was adjusted to the Mizrahi-Berk (M-B) model, represented by the following equation: 94 Fig. 10. Mean shear stress X shear rate data for PQ - 45 system. Dezembro • 2000 g y p Fig. 11.Mean shear stress X shear rate data for ZA - 30 system. Tab. 2. Rheological parameters of the Mizhari-Berk model for pineapple pulp. PQ30 gap= 0,5mm PQ45 gap= 0,5 mm PQ30 gap= 1,0 mm PQ45 gap= 1,0 mm ZA30 K0M -0.24747 KM 1.80389 nM 0.12100 K0M 2.19800 KM 2.16045 nM 0.10367 2.05297 0.60412 0.55712 0.2496 0.49357 0.19918 0.06600 0.0361 0.19712 0.38469 0.53155 0.6545 0.52318 0.24747 0.14083 0.1123 0.42550 0.14189 0.04192 0.0242 0.08961 0.10757 0.09527 0.1092 χ2 0.11917 0.02061 0.03572 0.01877 0.0143 R2 0.75510 0.92903 0.85700 0.92643 0.9365 Tab. 3. Rheological parameters of the Mizhari-Berk model for mango pulp. Fig. 12. Mizrahi-Berk adjustment for pineapple pulp. PQ30 gap= 0,5mm PQ45 gap= 0,5 mm PQ30 gap= 1,0 mm PQ45 gap= 1,0 mm ZA30 0.89149 0.48144 1.14022 0.86608 0.87008 1.46921 1.59808 1.70527 1.69185 2.04231 0.24246 0.23560 0.22654 0.23396 0.22018 0.17380 0.07963 0.46351 0.09570 0.15453 0.13743 0.05955 0.40334 0.07975 0.13500 0.01142 0.00421 0.03020 0.00587 0.00827 χ2 0.00752 0.00106 0.03473 0.00200 0.00330 R2 0.99841 0.99982 0.99001 0.99958 0.99926 K0M KM nM K0M KM nM CONCLUSIONS Fig. 13. Mizrahi-Berk adjustment for mango pulp. Rheological Parameters Tables 2 and 3 present the pulp’s rheological parameters obtained by Mizhari-Berk adjustment model, through the software Origin 3.5. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 91-96 Regarding the observations referring to the measuring systems used, it can be concluded that all the measuring systems detected the pseudoplasticity of the pulps used. From tables 2 and 3, it can be observed the behavior index smaller than 1 for all the cases, concluding that both pineapple and mango pulps present pseudoplastic characteristics. For mango, it can be observed (tab. 3) that the pseudoplasticity varied very little with the different measuring systems used. From table 2 it can be observed that PQ30 system is the less appropriate because shows very poor statistical parameters. Although the fittings with ZA30 and PQ45 presented satisfactory results, the PQ45 system’ results for larger shear rates at 0.5 mm gap, produced better results, mainly if the fluid has low viscosity. So the rheological parameters obtained with this measuring system presented better reliability and it is to be recommended for materials having the same characteristics as the pineapple and mango pulps. 95 g y p REFERENCES BARNES, H.A.; HUTTON, J.F. & WALTERS, K. An Introduction to Rheology. New York: Elsevier Publishers, 1989. CUNHA, G.A.P. et al. Manga para Exportação: aspectos técnicos da produção. Frupex-Manual de Exportação de Frutas. Brasília, 1994, pp. 8-13. DONATO, M. & CARRARO, A.F. An illustrated guide for importers. FRUPEX – Manual de Exportação de Frutas. Brasília, 1995, pp. 6-7, 16-17. IBARZ, A. et al. Rheology of clarified passion fruit juices. Fruit Processing, 6: 330-333, 1996. PELEGRINE, D.H. Comportamento Reológico das Polpas de Manga e Abacaxi. [Dissertação de Mestrado. Campinas: Unicamp, 1999]. QUEIROZ, A.J. et al. Influência dos Sólidos Suspensos na Reologia do Suco de Abacaxi. Congresso Brasileiro de Sistemas Particulados, 14, Uberlândia, 1996. SCHRAMM, Gebhard. Introduction to pratical viscometry. Germany, Gebrueder Haake, 1981. SMITH, R.E. & PARK, A. Effect of gap errors in rotacional concentric cylinder viscometers. Journal of Rheology, 28: 155-160, 1984. 96 Dezembro • 2000 g y p Gestão Ambiental: utilização de Sistema de Informação Geográfica (SIG) na implantação de um zoneamento para atividades industriais no * 1 município de piracicaba Environmental Management: use of Geographic Information System (GIS) in the implementation of an industrial district in piracicaba JOÃO MORENO Universidade Metodista de Piracicaba [email protected] TAISE LITHOLDO Universidade Metodista de Piracicaba [email protected] RESUMO – Visa-se propor um procedimento metodológico que resgate um conjunto de fatores e subfatores avaliativos, no que concerne à localização de empreendimentos industriais – contexto de gestão ambiental do território –, na aplicação de um Sistema de Informação Geográfica (SIG) como instrumento de importância para garantir a viabilidade ambiental. O presente trabalho presta-se, assim, a utilizar dados e caracterização física do município de Piracicaba na busca de áreas ambientalmente apropriadas a atividades industriais, propiciando compreender a capacidade de suporte do ambiente. Palavras-chave: GESTÃO AMBIENTAL – SISTEMA DE INFORMAÇÃO GEOGRÁFICA (SIG) – PRODUÇÃO DO TERRITÓRIO. ABSTRACT – The main objective of this work is to present a methodological procedure that considers geophysical parameters from a Geographic Information System (GIS), to evaluate different possibilities for industrial district location. This procedure tries to guarantee the environmental sustainability of the district implementation. The case analyzed is the country of Piracicaba, where a prospective study aims to consider the carry capacity of the environment. Keywords: ENVIRONMENTAL MANAGEMENT – GEOGRAPHIC INFORMATION SYSTEM (GIS) – TERRITORIAL PLANING. 1 * Projeto de pesquisa SEAC 189-09/98 (parte), realizado com o apoio da Universidade Metodista de Piracicaba-PIBIC/CNPq. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106 97 g y p INTRODUÇÃO ORDENAMENTO TERRITORIAL A Sistematização no Controle da Degradação Ambiental – uma variável de sustentabilidade gestão ambiental assume ênfase como instrumental básico para o desenvolvimento sustentado em ecossistemas territoriais, ou seja, possibilita apropriar o conhecimento indispensável à realização do planejamento ambiental do território, repousando-se sobre novos conceitos relativos à organização dos espaços. No passado, a ciência urbana concentrou-se numa imagem particular do desenvolvimento espacial, evidenciado por Gottdiener (1993) como sendo a “forma confinada de cidade”. No presente, chama a atenção para uma “reconceituação”, pois os padrões de organização espacial mudaram. Nesse aspecto, o fenômeno de mudança da organização espacial do território adquire uma escala de valor complexo nesse século XXI, no que tange aos limites de conhecimentos – o homem ingressa em uma nova dimensão de busca de conceitos relativos à organização dos territórios. Portanto, uma regênese do espaço – a busca de um novo estágio de estabilidade no ecossistema antrópico –, a sustentabilidade. Isso posto, pode-se dizer que a gestão do território como instrumento preventivo da degradação ambiental e de correção das conseqüências econômicas impostas ao meio ambiente será tratada aqui, valendo-se de uma experiência metodológica proposta pelo Washington County Planning Comission and the Overal Economic Development Committee Program Staff, em conjunto com o Washington County Industrial Development Agency e publicada no County Industrial Sites, Commissioner’s Office, Washington County, Pennsylvania, 1971 – EUA (Tommasi, 1994). Nesse sentido, objetiva-se propor um procedimento que resgate um conjunto de fatores e subfatores avaliativos, no que concerne à localização de empreendimentos industriais – contexto de gestão ambiental do território –, na aplicação de um Sistema de Informação Geográfica (SIG) como instrumento de importância para garantir a viabilidade ambiental. O presente trabalho presta-se, desse modo, a utilizar dados e caracterização física do município de Piracicaba na busca de áreas ambientalmente apropriadas a atividades industriais, propiciando compreender a capacidade de suporte do ambiente e, assim, minimizando os efeitos impactantes sobre o meio. 98 Em síntese, ordenar o território deve ser entendido como o resultado de um conjunto de ações que, respeitando a capacidade de suporte e a sua vocação natural – aptidões –, consiste em compatibilizar as necessidades humanas relativas à ocupação e ao uso do solo (ver fig. 1). Fig.1. Gestão ambiental: sustentabilidade do território/ ordenamento territorial – princípios: uso e ocupação. Entretanto, com o rápido desenvolvimento tecnológico e de reprodução territorial, assiste-se a uma intensa exploração da natureza e de seus recursos, o que tem possibilitado o esgotamento dessa capacidade. Cavalcanti (1996) aponta esse quadro ao dizer que o desenvolvimento não pode mais ser tratado como sinônimo de crescimento. A natureza se desenvolve, os ecossistemas evoluem e atingem suas fases de clímax. Nada cresce indefinidamente na natureza física. Uma bola de neve pode expandirse exponencialmente, mas o resultado disso é sempre Dezembro • 2000 g y p um desastre. Por detrás da evolução e do desenvolvimento dos sistemas naturais existe a homeostase pondo cobro aos absurdos expansionistas. Do ponto de vista físico, a possibilidade de crescimento precisa ser definida de acordo com a capacidade de suporte do ecossistema territorial. Nesse sentido, desenvolvimento não pode significar necessariamente aumento contínuo. Surge então uma variável, o conceito de sustentabilidade ambiental – “desenvolvimento sustentável”, que vem resgatar o sentido de homeóstase.2 Pode-se então, mesmo que em síntese, fazer o resgate desse conceito. O termo “desenvolvimento sustentável” tem o desdobramento do que se chamou de “ecodesenvolvimento”, empregado por Maurice Strong, em 1973, partindo do conceito básico emergido da Conferência de Estocolmo, em 1972, designado na época como “abordagem do ecodesenvolvimento” (Sachs, 1993). Portanto, optar pela sustentabilidade do ambiente quer dizer adotar usos no ordenamento do território que não esgotem a conservação do capital natural para futuras gerações. Uma sociedade sustentável, como destaca Cavalcanti (1997), centra-se no reconhecimento de limites biofísicos colocados, incontornavelmente, pela biosfera no processo econômico – a economia obrigando-se a operar em sintonia com os princípios da natureza –, destacando que “a natureza deve ser a referência para a escolha da escala ótima das atividades econômicas.” Nesse sentido, é possível perceber, em tese, que valores culturais podem ensejar diferentes ocupações territoriais. Logo, estabelecer relação de produção equilibrada – homem versus natureza – é implementar ações que resgatem a qualidade ambiental e a qualidade de vida no território. Isso posto, entende-se que uma orientação quanto à conservação do capital natural para futuras gerações constitui ou representa uma questão ética fundamental para o alcance da sustentabilidade do território. Na determinação de cenários potenciais para instalação de atividades industriais faz-se necessário estabelecer critérios de indução e de restrição à ocu- pação do território – fatores ambientais. Para tanto, há que se resgatar a compreensão das características físicas – pedologia, declividade, geologia e uso do solo –, elementos balizadores na indução e adequação espacial do território às atividades industriais. Já as variáveis socioeconômicas, em que se fundamenta a definição dos fatores socioeconômicos de desenvolvimento industrial, são aqui representadas pela distância à obtenção de serviços básicos de mão-de-obra e infra-estrutura com relação ao território urbanizado. BANCO DE DADOS – SIG: IDRISI – O primeiro passo para a realização do presente trabalho foi estruturar a base cartográfica digital. As informações relativas às curvas de nível, infra-estrutura (rede viária) e rede hidrográfica (rios) das cartas do IBGE, em escala 1:50.000, foram digitalizadas em planos de informação individuais, usando o software Tosca 2.12 e o Cartalinx 1.04 – versões para ambiente Windows, desenvolvidas pela Clark University. O segundo passo consiste em eleger os cruzamentos dos planos de informações descritos, formando, dessa maneira, um banco de dados digitais editados pelo sistema Idrisi, agora em formato raster, com uma resolução de pixel de 30x30 m, o que vem compatibilizar o cruzamento das informações com a imagem de satélite utilizada na apropriação do uso do solo. Mediante esse banco de dados criado, desenvolve-se então os objetivos propostos. A áreaobjeto desse trabalho é o município de Piracicaba, pelo fato de ser uma região complexa e de interesses difusos (Hidrovia etc.) na apropriação do território. A figura 2 representa esse objeto de análise, cujo limite está expresso em coordenadas UTM.3 Pode-se, então, com base na caracterização ambiental da área em estudo, como em Tommasi (1994), passar à definição de critérios ambientais ponderados, permeando assim a prospecção – cenários espaciais – de áreas potenciais cujos fatores ambientais passem a expressar condições favoráveis à localização de atividades industriais nesse território. 2 “Propriedade auto-reguladora de um sistema ou organismo que permite manter o estado de equilíbrio de suas variáveis essenciais ou de seu meio ambiente”, segundo definição de Aurélio B. H. Ferreira (1986). 3 No Brasil, o sistema de projeção cartográfica Universal Transversa de Mercator (UTM) é utilizado como padrão para mapas; nele, as distâncias são corretamente representadas (Crosta, 1993). CONSTRUCTO Potencialidade na Localização de Atividades Industriais no Território REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106 99 g y p Fig. 2. Imagem representativa da localização geográfica da região de estudo – município de Piracicaba. RESULTADOS E DISCUSSÃO Fatores Físicos de Indução-Avaliativos Os fatores físicos, no que tange à indução industrial, são representados pelas cartas temáticas: pedologia, geologia, declividade e uso do solo (banco de dados gerado no sistema Idrisi). Na avaliação das ponderações, buscou-se verificar a adequabilidade ou a aptidão de cada fator físico, propiciando valorar cada um deles, com vistas a possibilitar um grau de menor risco ambiental – impacto e degradação. Assim, uma maior ponderação pôde indicar maior aptidão do fator físico ao sustentar a implantação industrial. A tabela 1 aponta essas ponderações. Entretanto, se faz necessário considerar critérios restritivos à ocupação, objetivando estabelecer proteção aos recursos hídricos e áreas de relevância ambiental, tais como: 1. o estabelecido pela Portaria Ministerial número 124/1980, proibindo a instalação de qualquer atividade industrial a menos de 200 m de qualquer corpo d’água (Cetesb, 1994); 2. a exclusão de áreas com declividade maior ou igual a 45º, conforme determinado pelo Código Florestal, Lei Federal número 4.771 – alterado pelas Leis 7803/89 e 7875/89; 3. exclusão de áreas de várzea, conforme indicado pela Resolução Conama número 004/85 (Cetesb, 1994). 100 Outro fator restritivo se aporta no sentido de oferecer proteção a áreas de recarga de aqüíferos contra poluição de resíduos industriais – risco de contaminação. Nesse aspecto, foram incluídas áreas de intercessão de solos classificados como “Areia Quartzosa” e a formação geológica “Botucatu-Pirambóia”. Para isso, foi gerado um cenário de indução dos fatores físicos – capacidade de uso industrial – segundo os fatores físicos (imagem representativa; ver fig. 3), partindo-se de imagens binárias – itens 1 a 3 (as áreas restritivas receberam identificador 0, indicando restrição de ocupação; as demais áreas receberam identificador 1 – áreas possíveis de ocupação). Logo, pelo processo overlay de multiplicação do sistema Idrisi, obtém-se as áreas indicadas nesse cenário: capacidade de uso industrial, resultando da ordenação pontuada pela tabela 1, que representa uma escala de ocupação espacial pelas atividades industriais. A esse processo, procede-se a eliminação dos potenciais abaixo de 100 (cem), os quais representam um indicativo muito baixo de ocupação industrial. Outro fator importante em termos de metodologia foi o de excluir áreas menores do que 20 ha, por serem consideradas não representativas, no âmbito do planejamento regional, à instalação de zonas industriais. Esse processo foi obtido pelos módulos do sistema Idrisi: group, area e reclass. Dezembro • 2000 g y p Tab. 1. Ponderação: fatores físicos. FATORES DE CATEGORIAS INDUÇÃO Pedologia Declividade Uso do Solo Geologia ATRIBUTOS Latossolo Roxo 5 Latossolo Verm. Escuro 5 Latossolo Verm. Amarelo 5 Terra Roxa Estruturada 5 Terra Roxa Est. Latossólica 5 Brunizens 5 Terra Roxa Est. Pod. 4 Pod. Vermelho Amarelo 4 Pod. Verm. Escuro 4 Areia Quartzosa 3 Solo Litólico 2 Planossolos 0 Podzol 0 Cambissolos 0 Solo Aluvial 0 Solo Gleizado 0 Extração Pedra 0 Planície de Inundação 0 Área Urbanizada 0 0 - 3% 5 3 - 6% 3 6 - 10% 2 > 10% 1 Cana de Açúcar 5 Solo Exposto 5 Pasto 5 Vegetação Paludosa 0 Vegetação Arbórea 0 Vegetação Nativa 0 Água 0 Urbano 0 Serra Geral 5 Formação Irati 5 Holoceno 4 Grupo Tubarão 3 Grupo Bauru 3 Formação. Corumbataí 3 Botucatu Pirambóia 2 REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106 Tab. 2. Pontuações resultantes: cenário de indução dos fatores físicos. ÁREA ÁREA DE PONTUAÇÕES COMBINAÇÕES O CUPADA R ELATIVA ATRIBUTOS (HA) (%) 625 400 375 300 250 240 225 200 180 150 125 120 100 Subtotal outros Restritivo Urbano Total 5. 5. 5. 5 1283.04 5. 5. 4. 4 102.87 5. 5. 5. 3 3034.98 5. 5. 4. 3 1205.01 5. 5. 5. 2 1385.37 5. 4. 4. 3 49.23 5. 5. 3. 3 1983.33 5. 5. 4. 2 1493.01 5. 4. 3. 3 2380.23 5. 5. 3. 2 1248.84 5. 5. 5. 1 92.61 5. 4. 3. 2 3944.07 5. 5.4.1 / 5.5.2.2 289.26 -----18491.85 -----11918.52 -----78805.62 -----9904.14 -----119120,13 1.11 0.08 2.5 1.01 1.2 0.04 1.7 1.25 2.0 1.05 0.07 3.31 0.2 15.52 10.00 66.17 8.31 100.00 Observa-se, pelas informações contidas na figura 3 e na tabela 2, a intercessão das categorias mais favoráveis de todos os fatores físicos, ou seja, daquelas que receberam uma ponderação 5 em seus atributos. Todavia, salienta-se que esse processo de multiplicação pode levar a resultados muito variados de pontuações, sendo que a alteração de apenas um dos fatores de indução pode modificar completamente a pontuação dessa região de análise. Por conseguinte, a ordenação desse cenário apresenta coerência com a metodologia adotada. Fatores socioeconômicos de indução industrial – Ponderação Sabe-se que quanto maior a infra-estrutura existente, maiores as possibilidades de indução na apropriação de áreas potenciais. Nesse sentido, torna-se necessário ponderar tais fatores. A tabela 3 demonstra essa relação. O cenário “capacidade de uso industrial”, segundo os fatores socioeconômicos (fig. 4), é construído no sistema Idrisi pelo módulo overlay de multiplicação, partindo-se da imagem de ponderação (conforme tabela 3) – módulo distance (superfícies de distâncias); módulo extract (distâncias médias de cada área potencial a rodovias, ferrovias e área urbana). 101 g y p Fig. 3. Capacidade de uso industrial: cenário segundo os fatores físicos/CIND-A. Tab. 3. Ponderação: cenário de indução dos fatores socioeconômicos. INTERVALO DE FATORES DISTÂNCIAS – (KM) ATRIBUTOS Rodovias / Ferrovia Área Urbana 0 ≤ Dm * ≤ 1.5 1.5 ≤ Dm ≤ 2.5 2.5 ≤ Dm ≤ 3.5 Dm ≥ 3.5 0 ≤ Dm ≤ 5.0 5.0 ≤ Dm ≤ 8.0 8.0 ≤ Dm ≤ 12.0 Dm ≥ 12.0 5 4 2 1 5 4 2 1 * D = Distância média m As pontuações desse cenário, conforme demonstra a tabela 4, variam de 2 a 25. Portanto, as variáveis socioeconômicas apontam as facilidades de obtenção de, por exemplo, mão-de-obra, serviços básicos, escoamento da produção etc. Essa constatação pode ser visualizada pela concentração de infra-estrutura junto às áreas de maiores pontuações, conforme é demonstrado na figura 4. Esse cenário atesta com clareza que a ocupação do território a ser procedida envolve estruturas e equipamentos adequados a cada função específica de reprodutividade espacial. Entretanto, há que se estabelecer uma “trilogia” de produção territorial (ou seja, capacidade de investimentos): o homem, a sua política e a econo- 102 mia dela derivada, que, por seu turno, retorna ao homem, redirecionando-o. POTENCIALIDADE AMBIENTAL DE INDUÇÃO INDUSTRIAL – ASSOCIAÇÃO A potencialidade para indução de ocupação territorial, no que concerne às atividades industriais, foi considerada até aqui de duas maneiras: (a) pelos fatores físicos, os quais expressam a realidade natural do ambiente; (b) pelos fatores socioeconômicos, que caracterizam as oportunidades de infra-estrutura presentes no território. Contudo, o potencial ambiental, significativo e indicativo de sustentabilidade do ambiente, deverá ter como arcabouço a identificação das ameaças e oportunidades ambientais decorrentes da implantação do zoneamento de uso industrial. As ameaças constituem prováveis passivos ambientais futuros associados à presença de cada estrutura e equipamentos previstos. Uma ameaça ambiental é, portanto, fator impeditivo das ações antrópicas corretas e, conseqüentemente, precisa ser avaliada e mensurada. Nesse sentido, ao discorrer sobre zoneamento ambiental e segurança nacional, Machado (1992) afirma que o desenvolvimento com preocupação ecológica deve entrosar-se com as estratégias de segurança da nação, pois viver em segurança não implica necessariamente antinomia com viver saudavelmente e em harmonia com a natureza. Dezembro • 2000 g y p Fig. 4. Capacidade de uso industrial: cenário segundo os fatores socioeconômicos/CIND-E. Tab. 4. Pontuações resultantes: cenário de indução dos fatores socioeconômicos. ÁREA ÁREA PONTUAÇÕES CDEOMBINAÇÕES O CUPADA R ELATIVA ATRIBUTOS (HA) (%) 25 20 16 8 4 2 Subtotal outros Restritivo Urbano Total 5. 5 5. 4 4. 4 4. 2 2. 2 / 4. 1 2. 1 -------------------------- 1283.04 3230.46 1983.33 11656.53 289.26 49.23 18491.85 11918.52 78805.62 9904.14 119120,13 1.1 2.7 1.7 9.8 0.2 0.02 15.52 10.00 66.17 8.31 100.00 O resgate de uma compreensão maior do que se evidenciou anteriormente – trilogia de produção territorial – permite perceber que as ações do ser humano podem ou não comprometer o equilíbrio dos ecossistemas, elevando ou degradando a qualidade de vida. Logo, compartilhar do pensamento de Machado (1992) é recuperar essa racionalidade, quando se evidencia que, “com a adoção de implementos técnicos necessários e a aplicação de regras econômicas realmente humanas”, é possível alcançar a sustentabilidade ambiental do território. A figura 5 aponta um caminho a ser delineado como princípio de gestão do território, visando prever qualquer efeito ambiental que possa reduzir tais REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106 ameaças, uma vez que, com base em suas ocorrências, poderão ser desencadeadas reações adversas em todo o território, e resultar em impactos negativos, levando à insustentabilidade ambiental. Procedeu-se, então, à associação desses cenários. O primeiro passo foi estabelecer hipótese de valoração, tanto no âmbito ambiental como no socioeconômico. A tabela 5 demonstra tal hipótese e o atributo assumido no sistema Idrisi, módulo reclass, para a reclassificação das imagens (figuras 3 e 4). Portanto, a identificação de áreas com potencial para indução de atividades industriais requer uma avaliação conjunta dos fatores físicos e socioeconômicos na espacialização desse zoneamento no território. Os cenários representados pelas figuras 3 e 4 trazem informações relevantes à implementação de políticas de desenvolvimento regional, pois resgatam o que preceitua a lei: “opção por áreas que favoreçam a instalação de infra-estrutura e serviços básicos necessários ao seu funcionamento e segurança; manutenção, em seu entorno, de anéis verdes capazes de proteger as zonas circunvizinhas contra possíveis efeitos residuais e acidentes” (Machado, 1992). O segundo passo foi fazer o cruzamento desses cenários através do módulo crosstab do sistema Idrisi. O cenário resultante (fig. 6) apresenta as potencialidades ambiental e socioeconômica, de forma associada. Esse cenário potencializa tomadas de decisões quanto à escolha adequada ao empreendedor, possibilitando minimizar ou evitar gastos futuros com medidas mitigadoras de poluição e de impactos ambientais. 103 g y p Tab. 5. Hipótese adotada para reclassificação dos blocos potenciais. BLOCOS CLASSIFICAÇÃO BLO- ATRIBUTO FATORES POTENCIAIS COS POTENCIAIS Físicos Sócio Econômico 400 a 625 Muito Alto 5 375 a 400 Alto 4 225 a 375 Médio 3 120 a 225 Baixo 2 100 a 120 Muito Baixo 1 20 a 25 Muito Alto 5 16 a 20 Alto 4 8 a 16 Médio 3 4 a 8 Baixo 2 2 a 4 Muito Baixo 1 Fig. 5. Gestão do território: reprodutividade ambiental/ uso e ocupação do solo. Nesse sentido, o zoneamento ambiental representado na figura 6 resgata o princípio colocado pela “Política Nacional do Meio Ambiente (art. 9.º, IV), que regula o licenciamento de atividades efetivas ou potencialmente poluidoras, como também o é o zoneamento ambiental (art. 9.o, II)” (Machado, 1992). Por conseguinte, tomando-se a hipótese adotada para a classificação dos potenciais Médio, Alto e Muito Alto, as somas dessas dimensões nos cenários CIND-A e CIND-E, respectivamente, somam 6507.45 ha, 3137.85 ha e 1283.04 ha, correspondendo a 5.46%, 2.63% e 1.11% da área total estudada. Pelo gráfico 1, é possível ser percebida essa relação presente no território, o que vem indicar um baixo potencial ambiental de uso do solo a atividades industriais. Entretanto, há que ser notado um médio potencial de infra-estrutura presente, fundamentando a hipótese acima adotada, como parâmetro de indicativo de sustentabilidade. Isso vem confirmar a relevância da metodologia de associação dos fatores físicos aos socioeconômicos. Portanto, consideradas as facilidades estruturais, pode-se avaliar as produções antrópicas no que tange ao planejamento territorial, ou seja, regiões com vocações ambientais diversas que podem estar sendo subaproveitadas. Gráfico 1. Potencialidade relativa blocos – cenários. CONSIDERAÇÕES FINAIS A análise empregada mostrou-se adequada aos objetivos propostos. Com auxílio dos módulos de apoio à decisão do Idrisi, pôde-se verificar mais objetivamente que, com a distribuição espacial das 104 Dezembro • 2000 g y p potencialidades, é possível definir locais menos vulneráveis a esse tipo de ocupação e uso do solo. As alternativas de análise para a gestão do território, ensejando o planejamento de localização de atividades industriais, encontram nos módulos de apoio à decisão, presentes no software, a geração rápida de outros cenários, com a incorporação de outras variáveis e na implementação de diferentes formas de associação dos fatores envolvidos. O geoprocessamento pode ser útil na preservação ambiental do território, propiciando maior eficiência, flexibilidade e grau de complexidade no tratamento dos dados ou das hipóteses predefinidas, apontando contribuições valiosas para as políticas de desenvolvimento regional. Esse processo chega a um diagnóstico das vocações do espaço territorial a ser ordenado, o que contribui para o desempenho ambiental com vistas à sustentabilidade, apontando: • os efeitos ambientais identificáveis ou previsíveis – impactos –, afetando positiva ou negativamente o desempenho ambiental do território em que se manifestam; • a qualidade ambiental do território áreas prioritárias para o desenvolvimento de atividades industriais, favorecendo o melhor aproveitamento das aptidões naturais; • as áreas em que a instalação de atividades econômicas possa representar riscos de degradação do meio ambiente e, conseqüentemente, perdas das funções ambientais, podendo acarretar custos adicionais na recuperação da qualidade de vida e ambiental. GESTÃO AMBIENTAL VALORES ESPACIAIS SISTEMA DE INFORMAÇÃO INSTITUIÇÕES: GOVERNAMENTAIS E ONGS ATIVIDADES HUMANAS DESENVOLVIMENTO REGIONAL COM QUALIDADE AMBIENTAL Dessa forma, considera-se o uso de tal ferramenta de apoio à decisão imprescindível ao processo de gestão do território, pois ela contribui para a busca de uma sociedade mais sustentável do ponto de vista ambiental, apresentando um arcabouço para tomadas de decisões no âmbito político-regional. Fig. 6. Zoneamento ambiental – potencialidade de uso industrial. Uso e ocupação do solo. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 97-106 105 g y p REFERÊNCIAS BIBLIOGRÁFICAS ALMEIDA, L.T. Política Ambiental: uma análise econômica. Campinas: Editora, 1998. BRESSAN, D. Gestão Racional da Natureza. São Paulo: Hucitec, 1996. BUCKLEY, R. International trade, investment and environmental regulation. Na environmental management perspective. Journal of World Trade, 27 (4): 101-148, agosto/93. CAVALCANTI, C. Condicionantes biofísicos da economia e suas implicações quanto à noção do desenvolvimento sustentável. In: RIBEIRO, A.R. et al. Economia do Meio Ambiente: teoria, políticas e a gestão de espaços regionais. Campinas: Unicamp, pp. 61-82, 1996. CAVALCANTI, C. (org.). Meio ambiente, desenvolvimento sustentável e políticas públicas. São Paulo/Recife: Cortez/Fundação Joaquim Nabuco, 1997. CETESB. Legislação Federal: controle da poluição ambiental. Série documentos, 1994. EASTMAN, J.R. Idrisi for windows: version 2.0/tutorial exercises. Worcester: Clark University, 1997. FREDA, K. Integrated environmental iformation and decision support systems. IFIP transactions B: Computer Support for Environmental Impact Assesment, b-16, pp. 269-288, 1994. GOTTDIENER M., A produção social do espaço urbano. São Paulo: Edusp, 1993. GUIMARÃES, R.P. O novo padrão de desenvolvimento para o Brasil: inter-relação do desenvolvimento industrial e agrícola com o meio ambiente. In: VELLOSO, J.P.R. (org.). A ecologia e o novo padrão de desenvolvimento no Brasil. São Paulo: Nobel, pp. 19-52, 1992. HARVEY, D. Condição pós-moderna. São Paulo: Loyola, 1993. JAIN, D.K.; TIM, U.S. & JOLLY, R. Spatial decision support systems for planning sustainable livestock production. Computer, Environment and Urban Systems, 19 (1): pp. 57-75, 1995. MACHADO, P.A.L. Direito ambiental brasileiro. São Paulo: Malheiros, 1992. MORENO, J. Análise da organização e dinâmica das condições ambientais e urbanas face a uma nova ordem econômica: Piracicaba e seu entorno. São Carlos, 2000. [Tese de Doutorado, Centro de Recursos Hídricos e Ecologia Aplicada, EESC/USP]. PLANTENBERG, C.M. & AB’SABER, A. (orgs.). Previsão de impactos. São Paulo: Edusp, 1994. SACHS, I. Estratégias de transição para o século XXI: desenvolvimento e meio ambiente. São Paulo: Nobel, 1993. SASSEN, S. As cidades na economia mundial. São Paulo: Studio Nobel, 1998. TOMMASI, L.R. Estudo de impacto ambiental. São Paulo: Cetesb/Terragraph Artes e Informática, 1994. 106 Dezembro • 2000 g y p Do Debate Científico à Política Pública: polarização das discussões acadêmicas entre biólogos nos anos 70 e instrumentalização econômica das políticas ambientais From Scientific Debate to the Public Policy: the Polarisation of Academic Discussions Among Biologists in the 70’s and the Economic Instrumentation of Environmental Policies ROSANA ICASSATTI CORAZZA Unicamp [email protected] RESUMO – Os cientistas se preocupam freqüentemente com o uso do conhecimento que criam ou organizam pelos gestores de política pública. De fato, a informação científica tem assumido um papel expressivo na concepção dos processos decisórios. A questão central, neste artigo, é identificar e interpretar as contribuições de dois campos científicos para o ambientalismo moderno: a biologia e a economia. Ambas são consideradas relevantes não apenas para o desenvolvimento do debate acadêmico, mas especialmente por provocar o renascimento da preocupação com questões ambientais e pelo fato de organizar um conjunto de instrumentos para capacitar a intervenção pública. As maiores contribuições dos biólogos, segundo a argumentação desenvolvida neste artigo, estão na difusão do tema malthusiano da escassez e das novas teses sobre poluição e mau uso da tecnologia. Reputamos aos economistas o melhoramento de um conjunto de ferramentas, particularmente as ecotaxas, para a implementação de políticas ambientais. Palavras-chave: CONHECIMENTO CIENTÍFICO – HISTÓRIA DO AMBIENTALISMO – HISTÓRIA DA CIÊNCIA– POLÍTICA AMBIENTAL. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 107 g y p ABSTRACT – Scientists are often concerned about the use of the knowledge they create or organise by policy-makers. Indeed, scientific information has assumed an expressive role in the devising of the decision-making process. The central issue in this paper is to identify and interpret the contributions of two scientific fields to modern environmentalism: biology and economics. Both fields are regarded as relevant not only to the development of the academic debate, but especially by bringing about the rebirth of the environmental concern and by framing a set of instruments to enable public intervention. To the standpoint we support in this paper, the major biologists’s contributions are in the spreading out of the Malthusian theme of scarcity and the new ones of the pollution and the harmful use of technology. We repute to the economists the improvement of the set of tools, especially with further studies on eco-taxation, for the achievement of environmental policies. Keywords: SCIENTIFIC KNOWLEDGE – ENVIRONMENTALISM HISTORY – SCIENCE HISTORY – ENVIRONMENTAL POLICY. INTRODUÇÃO O lugar que ocupam as questões pertencentes à pauta ambiental nas agendas acadêmicas, políticas e empresariais não é mero indicador do status privilegiado que o ambientalismo moderno logrou alcançar ao longo das três últimas décadas em nossas sociedades ocidentais. Tampouco os sofisticados instrumentos de política ambiental, criados pela engenhosidade dos economistas do meio ambiente, ou os equipamentos de controle ambiental, aperfeiçoados pela evolução do conhecimento científico e pela incorporação da eletrônica, são apenas ferramentas à disposição das autoridades públicas para regulamentar as atividades contaminantes do meio ambiente. O envolvimento de diferentes setores da sociedade na discussão dos problemas ambientais e suas conseqüentes contribuições para a criação de um marco de política ambiental com características próprias são aspectos dos mais notáveis do processo que metamorfoseou o ambientalismo moderno desde o final da década de 60. Basta lembrar que, enquanto as derivações de política ambiental do chamado “renascimento do ambientalismo” do fim dos anos 60 – cujo traço fundamental era o catastrofismo, clamavam pela necessidade de se deter o crescimento, que segundo alguns atingia seus limites, a palavra de ordem de toda política ambiental –, a partir de meados dos anos 80, passou a ser a busca de um desenvolvimento sustentado. Durante esse período, o ambientalismo sofreu mudanças tão radicais, assumindo feições tão diversas dos primeiros traços de seu “renascimento”, que é difícil reconstruir sua complexa trajetória até os dias atuais. 108 Este artigo é o resultado de um esforço de compreensão dessas mudanças, de modo que sua contribuição assume a forma de um relato e de algumas reflexões. O relato se concentra na articulação de fatos notáveis do ambientalismo recente, pelo envolvimento de personagens e questões que lhe foram insignes. Ele constitui o substrato de reflexões cujo argumento central é a idéia de que uma transformação particular, identificada no bojo desse debate nos anos 70, delineou uma das principais características do ambientalismo de nossos dias. Trata-se do fenômeno da ampla divulgação do debate ambientalista recente junto ao público leigo, que o tornou, finalmente, um debate público. Sustenta-se, assim, a idéia de que, partindo-se das reflexões iniciais dos biólogos norte-americanos dos anos 60 (entre os quais destacamos Rachel Carson, Garrett Hardin e Paul Ehrlich) e das contribuições dos economistas (como William Baumol e Wallace Oates, que retomam as contribuições de Pigou, dos anos 20) para a política ambiental na década de 70, questões particulares relativas à proteção do meio ambiente atingem a esfera pública em dois sentidos: o da sensibilização do público em geral e o da informação e instrumentalização das políticas públicas, em particular das políticas ambientais. BIÓLOGOS AMERICANOS DOS ANOS 60: catastrofistas neomalthusianos ou “renascimento e divulgação do debate ambientalista” A divulgação do debate ambientalista, isto é, o domínio de certos aspectos do conteúdo científico do debate ambientalista pelo público leigo pode parecer trivial às gerações nascidas depois dos anos Dezembro • 2000 g y p 60 ou 70. No entanto, o transbordamento da discussão científica sobre causas e conseqüências da degradação ambiental dos muros da academia para os fóruns públicos é praticamente tão recente quanto essas próprias gerações. Ainda que possamos sempre nos lembrar de manifestações anteriores acerca da preocupação com a preservação do meio ambiente, veremos que dirigir o nosso olhar para as manifestações mais recentes nos auxilia a compreender aspectos centrais do ambientalismo moderno. Entre as manifestações anteriores, ressaltamos as de natureza pragmática, como aquelas voltadas à destruição do meio natural que inspiraram o Movimento Conservacionista Norte-Americano na virada do século, ou teórica, como as dirigidas ao estudo do problema da escassez, desenvolvidas pelos economistas clássicos ingleses (Ricardo e Malthus, entre outros). Sem esquecer, portanto, dessas raízes mais distantes do movimento ambientalista, o final dos anos 60 é referido por muitos autores, como Rees (1985), Pepper (1986) e McCormick (1992), enquanto marco do renascimento do ambientalismo moderno. A principal razão disso é a retomada da questão dos efeitos do crescimento populacional sobre a disponibilidade dos recursos naturais, trabalhada no ensaio clássico de Malthus, An Essay on the Principle of Population, publicado pela primeira vez em 1798. A tese foi retomada inicialmente em debates acadêmicos pelos biólogos americanos, entre os quais se destacam Garrett Hardin, da Universidade da Califórnia, Paul Ehrlich, da Universidade de Stanford e Barry Commoner, da Universidade de Washington. Deve-se em grande parte a esses biólogos a inclusão, na agenda acadêmica e na ordem do dia, dos debates científicos daqueles temas que seriam posteriormente discutidos em fóruns públicos. Vejamos agora quais eram esses temas, como eles foram tratados pelos biólogos americanos e, ainda, como deixam de ser debatidos apenas no âmbito estrito da academia, chegando aos fóruns públicos. Começaremos com Hardin, pela importância de sua influência sobre outros autores e sobre a formulação das temáticas que estiveram na gênese do ambientalismo moderno. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 Em seu propalado artigo “The Tragedy of the Commons”, publicado na revista Science, em dezembro de 1968, Hardin tratou o problema da degradação das áreas de uso comum, cuja destruição resultava dessa característica, ou seja, da abertura ao uso de todos, sem que ninguém incorresse em custos. Para se ter uma idéia da importância desse trabalho de Hardin, para efeito do que tentamos demonstrar neste artigo, ele lançou mão de dois expedientes que favoreceram extremamente a divulgação de seu pensamento fora dos muros da academia. Em primeiro lugar, o fato de tê-lo publicado não em uma revista especializada, de circulação estritamente acadêmica, mas em uma revista de divulgação científica que atingia grande número de leitores, inclusive leigos interessados em ciência. Em segundo, por ter utilizado uma linguagem não científica, valendo-se de recursos alegóricos ou metafóricos, de compreensão mais universal. Assim, para ilustrar o mecanismo que leva à tragédia as áreas de uso comum, o autor recorre a uma alegoria sobre criadores de gado. Inicialmente, o uso comum de determinada área permite um balanço equilibrado entre oferta e demanda de capim: a razão entre o forrageio, ou pastagem, e o crescimento do capim é constante e igual a um, de maneira que o sistema se mantém em equilíbrio. A seguir, um criador percebe que, acrescentando um animal ao pasto, ele pode aumentar seus lucros. Como esse acréscimo de lucro envolve a diminuição da quantidade de capim disponível para os animais pertencentes a todos os criadores, segue que o ganho do criador que acrescenta um animal ao pasto se dá às custas dos demais. Hardin observa que, do ponto de vista desse criador, se ele não introduzir esse animal a mais, outros poderiam fazêlo e, nesse caso, seria seu o “prejuízo”. Acrescentar um animal torna-se, então, a única atitude razoável ou racional a se tomar. Impelidos, contudo, pela mesma lógica, todos os outros criadores também introduzirão mais um animal. Como o pasto não tem capacidade de produzir capim suficiente para atender à demanda resultante, a conseqüência é que a área é levada à destruição e os criadores – todos eles – à ruína. A alegoria dos criadores de gado nas áreas comuns serve, para Hardin, de ilustração da pressão 109 g y p populacional sobre os recursos naturais. A conclusão de que a “ruína é o destino para o qual todos os homens caminham, cada um em defesa de seus próprios interesses numa sociedade que acredita na liberdade das áreas comuns”, ou ainda que “a liberdade numa área comum traz a ruína de todos” (Hardin, 1968: 162) é a expressão verbal direta e inegável da preocupação desse biólogo neomalthusiano com o problema da liberdade de escolhas individuais na determinação do tamanho das famílias. A crença de que toda atitude tomada por um indivíduo na busca de seu bem-estar contribui para o bem-estar de toda a sociedade é um legado do pensamento liberal de Adam Smith. Hardin sustentava que se a humanidade quisesse fazer algum progresso no sentido de lidar com o problema populacional, seria necessário “exorcizar o espírito de Smith do campo da demografia” (Hardin, 1968: 162). E afirmava não existir uma solução técnica para o problema do crescimento populacional, mas apenas soluções morais e éticas, sobretudo coercitivas. Essa assertiva tem antecedentes na interpretação de Hardin da teoria da evolução de Darwin, levando-o a afirmar que, em matéria de controle populacional, “a consciência é auto-eliminativa”.1 Hardin também aborda a poluição como um caso semelhante aos “commons”, ou áreas comuns, com a diferença de que, desta vez, não se trata de retirar, mas de colocar alguma coisa na natureza (por exemplo, os mais variados tipos de detritos, efluentes tóxicos, resíduos químicos e lixo radioativo). Se, quanto às áreas comuns, a solução dada por Hardin se refere à privatização, ou ao fim da apropriação comunal dos recursos, no caso da poluição (segundo ele, nada mais do que um problema derivado do crescimento populacional), a saída estaria na “mudança de valores ou idéias de 1 “É um erro pensar que é possível controlar a reprodução da humanidade pelo apelo à consciência. (...) O argumento é direto e darwiniano. A população varia. Confrontadas com apelos para reduzir a natalidade, algumas pessoas responderão indubitavelmente mais do que outras. Aquelas que tiverem mais filhos produzirão uma parcela maior da próxima geração com relação àquela mais ‘consciente’. A diferença se acentuará, geração após geração” (HARDIN, 1968: 162). É surpreendente o raciocínio de Hardin, que nos leva ao erro lógico de supor que filhos de famílias numerosas sempre tendem a gerar, eles próprios, muitos filhos. A “consciência” (ou a falta dela) seria, no entendimento de Hardin, um fator antes herdado que aprendido. Observado o fenômeno da transição demográfica, que ocorre mesmo em bolsões de miséria, essa suposição do autor não parece resistir a uma comprovação histórica. 110 moralidade”, com a adoção de leis coercitivas ou, ainda, de taxação. Parece haver, portanto, um paralelismo muito grande entre as soluções apontadas por Hardin e as propostas vigorosamente defendidas pelos economistas a partir dos anos 70.2 Estudando as raízes do ambientalismo moderno, Pepper (1986) analisa outra alegoria do autor, de 1974, e ressalta seus traços neomalthusianos. Nela, somos confrontados com uma situação na qual dez homens em um bote salva-vidas, com suprimentos para apenas dez pessoas, encontram náufragos, que pedem socorro. De acordo com a proposição de Hardin, partilhar os suprimentos, ainda que pelo salvamento de apenas mais um homem, significa que todos morreriam de fome. A idéia de Hardin ilustrada nessa alegoria é a de como o conceito da “capacidade de suporte” impossibilita o exercício da partilha de recursos.3 Mais uma vez, a mensagem de Hardin é clara: a pressão sobre os recursos naturais é de ordem estritamente populacional. Em face desse problema, trata-se antes de um pragmatismo arrazoado, e não de egoísmo, a decisão pela não partilha dos recursos. Segundo Pepper, esse foi um argumento fortemente empregado pelos opositores das políticas de ajuda humanitária a países do Terceiro Mundo. Para reforçar a sua análise, Pepper cita uma frase do próprio Hardin, de que “qualquer nação que toma para si o direito de produzir mais bebês também deve assumir a responsabilidade de cuidar deles” (Pepper, 1986: 20). Hardin foi, por quase cinco décadas, um líder contestador do crescimento populacional. Mais recentemente, em seu livro Living Within Limits: ecology, economics, and population taboos, o autor voltou a atacar o que chama de “mania de 2 Entre essas propostas, convém ressaltar no momento o uso de instrumentos de política ambiental que favoreçam a definição clara dos direitos de propriedade sobre os recursos naturais e a prática da taxação. 3 “Capacidade de suporte” é uma medida da disponibilidade de recursos naturais renováveis de uso comum. Conceito emprestado da agricultura, carrying capacity baseia-se na hipótese de que o uso do recurso deve ser limitado pelo nível no qual a produtividade do recurso é sustentável ao longo do tempo, não engendrando nenhuma mudança significativa no meio ambiente. Segundo Rees (1985), o conceito tem sido usado (por Mc Harg e Odum, por exemplo) na tentativa de estabelecer limites para assentamentos humanos em determinadas regiões. A autora ressalta que, em quaisquer aplicações, é difícil estabelecer um conceito simples, único e absoluto para carrying capacity e que as estimativas dependem do objetivo da análise, da maneira específica com que os recursos são utilizados e dos padrões de vida assumidos como necessários para o usuário. Dezembro • 2000 g y p crescimento” (growthmania), seja ele econômico, seja populacional.4 Por sua vez, Pepper salienta ainda a importância do pensamento de Hardin sobre o de Ehrlich, autor que viria a influenciar profundamente o debate público e, sobretudo, o debate político sobre o tema população-meio ambiente. O argumento de Ehrlich, de o crescimento populacional ter originado toda a crise ambiental, fora emprestado da obra de Hardin, ensejando a proposição do “crescimento zero”. De acordo com Pepper, para Ehrlich já era tarde demais (início dos anos 70) para que medidas restritivas voluntárias pudessem ser tomadas, e sua proposta política era o uso de métodos coercitivos ao crescimento populacional desenfreado. Posteriormente, outro biólogo americano, Barry Commoner, chamou essa proposição de “novo barbarismo da ética do bote salva-vidas” (Pepper, 1986: 20). Em seu livro The Population Bomb, de 1968, Ehrlich retoma o tema do crescimento populacional, revelando-se, tal como Hardin, um neomalthusiano.5 Ele alerta que nenhuma mudança comportamental ou tecnológica poderia salvar a humanidade de uma catástrofe ecológica, a não ser a tomada de sérias medidas de controle populacional. Ainda no final dos anos 60, Ehrlich trava com Commoner um debate a respeito da deterioração ambiental que se tornou muito conhecido. Commoner era contrário à idéia do controle do crescimento populacional por meio de formas coercitivas (sugestão de Ehrlich), não apenas por acreditar que o avanço do processo de industrialização transformaria a sociedade de forma a reduzir a taxa de natalidade, mas, principalmente, porque atribuía os problemas ambientais mais graves a tecnologias “defeituosas”, cujos efeitos abrangeriam o crescimento maciço do uso de materiais sintéticos, produtos descartáveis, detergentes, pesticidas etc.6 Commoner defendia que alguns dos riscos ambientais mais perigosos são invisíveis, chamando a atenção para a poluição atmosférica e hídrica, a 4 Garrett Hardin, Living Within Limits: ecology, economics, and population taboos. New York: Oxford University Press, 1993. 5 De acordo com McCormick (1992), esse livro tornou-se, dentro da área de meio ambiente, um dos mais vendidos de todos os tempos. 6 Nesse último caso, aliás, é notável também a obra de Rachel Carson, Silent Spring. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 contaminação dos alimentos e a radiação nuclear. Não era, pois, a temática populacional que Commoner tratava em seu livro de 1971, The Closing Circle: nature, man and technology, mas a da poluição, introduzida, assim, no debate ambiental. Refutando a tese de que o crescimento populacional seria o fator preponderante na degradação ambiental e argumentando que esta continuaria a se manifestar ainda que aquele fosse controlado, o autor advertia o aumento dos níveis de poluição no pósguerra, cuja magnitude não poderia, em sua opinião, explicar-se apenas pela intensificação do crescimento populacional. Tampouco a razão estaria estritamente no aumento da atividade econômica em si, ou no fato da crescente população consumir progressivamente mais, e sim em como esse crescimento havia sido alcançado, sob a influência de determinado conjunto de tecnologias. Segundo Commoner, a maioria dos problemas graves de poluição, se não era datada dos anos pós-guerra, havia pelo menos piorado muito desde então. No debate entre os dois autores, Ehrlich denunciava o caráter limitado da abordagem de Commoner, argumentando que este reduzia a crise ambiental ao problema da poluição. McCormick (1992) comenta, por outro lado, que a avaliação de Ehrlich era ela própria restrita, na medida em que reduzia a problemática ambiental à questão isolada do crescimento populacional. Em uma entrevista publicada em 1973 pela revista The Ecologist, Ehrlich admitia ter “mudado o tom” de seu discurso após os debates, estudos de novos dados e reflexões. Esclarecia que a grande ênfase reservada à questão populacional em seu livro de 1968 devia-se ao fato de esta lhe parecer o problema mais negligenciado naquele momento e que a obra também explorava, em detalhes, outros aspectos da deterioração ambiental, como os efeitos do uso do DDT. Lamentava, então, o debate com Commoner, dizendo-se de acordo com o biólogo da Universidade de Washington quanto aos “erros tecnológicos”. Na sua visão, um tanto mais moderada em 1973, existiriam muitos fatores determinantes da deterioração ambiental e Commoner teria sido hábil em chamar a atenção para alguns deles, especialmente importantes: o mau uso da tecnologia, causando impactos negativos sobre o meio ambiente, e os problemas do 111 g y p uso de fertilizantes químicos, da poluição em geral e da contaminação nuclear. Dizia ser um engano superestimar um dos fatores, como o erro tecnológico ou o consumismo. Ainda assim, continuava a apontar obstinadamente o risco do crescimento populacional, embora deixasse de propor o controle coercitivo, passando a acreditar na possibilidade de sua contenção espontânea, em conseqüência do movimento de liberação das mulheres (Pole, 1973: 23). Holden (1972), que estudou o debate entre os dois acadêmicos norte-americanos, ressalta que, na visão dos cientistas naturais e sociais da época, ambos estavam radicalizando seus argumentos. De fato, de um lado, Ehrlich se revelava um verdadeiro “Jeremias”,7 com sua alarmante visão catastrofista; de outro, Commoner subtraía de sua abordagem quaisquer traços de preocupação com a problemática populacional vis-à-vis a escassez dos recursos. Radicalizações à parte, as figuras desses biólogos foram, de qualquer maneira, centrais no delineamento das questões que se tornaram o primeiro foco do debate ambientalista moderno. Além disso, o fato de eles se mostrarem tão radicais pode justamente ter concorrido para que suas opiniões extravasassem os limites dos discursos científicos, ganhando especial apelo junto à opinião pública e às autoridades governamentais. Podemos dizer, então, que talvez tenham sido justamente suas principais contribuições: definir os temas genéticos do ambientalismo moderno, tornar público o debate ambientalista (para o que também contribuiu a discussão sobre os limites do crescimento) e, finalmente, lançar as idéias-forças de um pensamento de política ambiental (com intervenção das autoridades públicas no controle dos problemas ambientais, principalmente por meio de taxação). Tais idéias foram desenvolvidas na década seguinte por economistas também norte-americanos. década anterior, a discussão dos problemas ambientais assumiu nos anos 70 contornos de um debate polarizado entre o pessimismo e o otimismo. As posições de Hardin e Ehrlich eram evidentemente pessimistas. Quanto à polêmica sobre os limites do crescimento, a crença amplamente difundida desde o final dos anos 60 foi a de que havia um desequilíbrio entre a disponibilidade de recursos essenciais para o desenvolvimento e que sua crescente demanda futura se chocava com a idéia do progresso tecnológico prover instrumentos para a superação dos limites.8 A posição pessimista pode ser visualizada em uma série de livros publicados na época, como Small is Beautiful: economics as if people mattered, de Schumacher (1973), e Limits to Growth, de Meadows et al. (1972). Essas publicações, em particular a segunda, preconizavam que, na melhor das hipóteses, a escassez de recursos seria a maior barreira ao desenvolvimento econômico (principalmente para as economias do Terceiro Mundo) e, na pior delas, que a completa exaustão de estoques causaria o colapso total da sociedade no início do século XXI (Rees, 1990: 30). Sem dúvida, o final dos anos 60 e início dos 70 foi um período de intensa reflexão sobre as relações entre meio ambiente e crescimento econômico. Em 1968, o economista italiano Aurélio Peccei reuniu em Roma um grupo de cientistas, industriais, economistas, educadores e políticos para estudar os fundamentos da crise pela qual passava a civilização. De acordo com a avaliação do grupo, conhecido como Clube de Roma, o problema se manifestava em vários aspectos, como a expansão urbana, a perda de fé nas instituições, a rejeição dos valores tradicionais, a deterioração econômica e os danos ambientais, identificados como componentes que OS LIMITES DO CRESCIMENTO: uma polêmica multidisciplinar e política nos anos 70 ou “polarização de um debate social e político” 8 Relançada com vigor no meio acadêmico e divulgada junto ao público leigo desde o final da 7 Um dos profetas que escreveram o Apocalipse. 112 “À medida que o número de novos Jeremias proliferava, o mesmo ocorria com as hostes de seus críticos. (...) havia duas posições analiticamente distintas no que diz respeito `a natureza do problema ambiental: pessimismo e otimismo. Por esta definição os ambientalistas eram pessimistas e os críticos do movimento, otimistas. Os dois lados diferiam quanto às projeções sobre recursos naturais, alimentos, poluição e população; a crítica mais comum aos ambientalistas era de que eram alarmistas, uma visão contida numa frase freqüentemente citada sobre o livro Limits to Growth: The Computer That Printed Out WOLF!” (McCormick, 1992: 91). Ou seja: “O computador que ‘imprimiu’: ‘É o lobo!’”, em referência ao falso alarme do carneirinho na fábula popular. Dezembro • 2000 g y p interagiam de maneira muito complexa para serem tratados isoladamente. Por conta dessa compreensão inicial – interação complexa de variáveis –, o Clube de Roma convidou J. W. Forrester, pesquisador do MIT (pioneiro na utilização do computador), para que desenvolvesse um modelo de dinâmica de sistemas com o objetivo de compreender integradamente o problema. Pronto em meados de julho de 1970, o modelo World I identificava os componentes específicos do problema e sugeria uma metodologia para a sua análise. Mais um modelo foi desenvolvido logo em seguida e, por fim, Forrester montou uma equipe de cientistas do MIT, liderada por Dennis Meadows, para criar uma nova versão – o World III –, cujos resultados foram publicados em Limits to Growth (McCormick, 1992: 87). Redigido por Meadows e seus colegas, Limits to Growth é considerado um marco do pensamento neomalthusiano, no final do século XX, por explorar, entre outras, as duas variáveis centrais da tese de Malthus sobre a escassez: o crescimento populacional e a disponibilidade limitada de recursos. Em World III, a equipe de Forrester-Meadows identificou cinco determinantes limitadores do crescimento: população, produção agrícola, recursos naturais, produção industrial e poluição (Meadows et al., 1972). Com base na aplicação desse modelo, os pesquisadores do MIT concluíram que: 1. mantidas as tendências verificadas das cinco variáveis, os limites do crescimento seriam atingidos em 100 anos. A partir daí, previam uma queda súbita e incontrolável na população e na capacidade industrial; 2. havia a possibilidade de evitar a catástrofe e atingir um estado de equilíbrio econômico-ecológico através do planejamento; 3. essa possibilidade deveria obrigatoriamente ser colocada em prática imediatamente. O tom de Limits to Growth é, uma vez mais, o crescimento exponencial, dessa vez tanto populacional quanto econômico, responsável pela pressão sobre os recursos naturais, a oferta de alimentos e a qualidade do meio ambiente. Os resultados seriam a exaustão dos recursos naturais, a fome e o crescimento dos efeitos deletérios da poluição sobre a qualidade ambiental. Tais resultados foram utiliza- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 dos, na época, como fundamento para a proposta de “crescimento zero”, formulada pelo Clube de Roma e coerente com a visão da equipe do MIT sobre o caráter insuperável dos limites ao crescimento. Essa equipe ressaltava que os fatores que poderiam representar uma contratendência (principalmente o avanço tecnológico) seriam insuficientes e ineficazes para evitar a tragédia antevista pelos resultados do seu estudo. Segundo o Relatório Meadows, como também ficou conhecido o livro Limits to Growth, “o otimismo tecnológico é a reação mais comum e perigosa às nossas descobertas a partir do modelo do mundo. A tecnologia pode amenizar os sintomas de um problema sem afetar as causas subjacentes (...) [e], desse modo, desviar a atenção do problema mais fundamental – o problema do crescimento num sistema finito” (Meadows et al., 1972: 159). McCormick traça um paralelo interessante entre as posições de Hardin e do Relatório Meadows sobre a questão da tecnologia: ambos não acreditavam que ela pudesse oferecer soluções ao problema do impacto do crescimento populacional sobre a disponibilidade de recursos. Hardin argumentava que a solução passava pela coerção do comportamento humano por meio de leis (idéia, aliás, compartilhada por Ehrlich). Já a equipe de Meadows também julgava, juntamente com o Clube de Roma, que a crise ambiental não poderia ser enfrentada sem esforços especiais para deter a explosão populacional no Terceiro Mundo. A chama do debate é alimentada pela deflagração da crise do petróleo, em 1973, ilustrando a gravidade da situação pela elevação dos preços do recurso. Ainda que, como reconhecem Rees (1990) e Fisher (1990), a crise tenha sido de fato provocada pelo sucesso da articulação da Organização dos Países Exportadores de Petróleo (OPEP) em uma operação de corte da oferta de petróleo, e não pela escassez do produto, pode-se dizer que esse momento marca historicamente a passagem da preocupação com a escassez de recursos do plano das idéias e da academia para o da política global.9 9 O acontecimento é ilustrado pela percepção dos países do “mundo desenvolvido” (que haviam aumentado ao longo da década anterior a sua dependência, com relação à importação de minerais essenciais, do “mundo menos desenvolvido”) da ameaça representada pela possibilidade de crescimento do poder econômico e político dos países produtores através do controle da oferta daqueles minerais (Rees, 1990: 30). 113 g y p Outro personagem importante no debate do início dos anos 70 é John Maddox, editor da revista britânica de divulgação científica Nature e considerado uma espécie de porta-estandarte dos críticos dos catastrofistas (McCormick, 1992: 94). Em seu livro The Dommsay Syndrome (A Síndrome do Apocalipse, 1972), ele dirige uma ácida crítica a Ehrlich e outros, que chama de “profetas do apocalipse”, denunciando-os pela divulgação de “profecias pseudocientíficas”. Aponta que “o seu erro mais comum é supor que vai suceder sempre o pior” e os acusa de ignorância dos “meios de que se podem valer as instituições sociais e as aspirações humanas para solucionar os problemas mais desalentadores” (Maddox, 1974: 7). Por conta da oposição de Maddox ao Limits to Growth, Pepper (1986), com base em O’Riordan, classifica-o de “otimista tecnológico”. As interpretações de Herrera (1974) e O’Riordan (1976) também constituíram respostas às avaliações pessimistas de Meadows e do Clube de Roma.10 Rees (1990) restringe os otimistas aos defensores da idéia de que as forças do mercado e as mudanças tecnológicas e sociais interagiriam no sentido da superação dos limites. Pepper (1986) e McCormick (1992) citam os estudos críticos ao Limits to Growth elaborados por Sandbach e O’Riordan. O primeiro apontava, entre outras coisas, o fato de o livro subestimar os efeitos do progresso tecnológico na superação dos limites ao crescimento, ao passo que o segundo a acusava de predeterminação cataclísmica e falta de rigor científico. Pepper enfatiza também a crítica de Golub e Townsent, referindo-se ao Clube de Roma como representante de industriais defensores de que insti10 McCormick (1992) indica a equipe de Sussex, da qual participavam Christopher Freeman e Keith Pavitt, como autora da crítica mais abrangente ao Limits to Growth, principalmente pela análise da fragilidade metodológica dos modelos World. Além do mais, o grupo de Sussex acusava a equipe do MIT de um relativo desprezo pela economia e pela sociologia. Ainda segundo McCormick (1992: 92), apesar das críticas, a equipe de Sussex reconheceu a importância do trabalho do grupo de Meadows pelo êxito em trazer a público novamente a questão população-recursos. A própria equipe de Sussex propôs também a sua interpretação do problema dos limites, conhecida na obra Global 2000. Embora Pepper (1986: 23) compare Global 2000 ao Limits to Growth, tanto no tom quanto nos resultados, o primeiro enfatizava os limites políticos e sociais do crescimento vis-à-vis os limites físicos, chamava a atenção para o conteúdo do crescimento e a questão distributiva e apontava a subestima do grupo do MIT das potencialidades do progresso técnico e das mudanças políticas e sociais (McCormick, 1992: 93). 114 tuições internacionais exercessem controle sobre os países, principalmente os do Terceiro Mundo, influenciando nas questões nacionais e impondo restrições às ações locais (Pepper, 1986: 24). O equívoco fundamental comum a todas as análises catastrofistas, explicitado no trabalho de Herrera, consiste na concepção de recursos minerais como estoques fixos e imutáveis (Herrera, 1974: 29). Realmente, é interessante notar a recorrência das análises em que o tema dos recursos naturais é tratado sem que se sublinhe o caráter dominantemente histórico do próprio conceito. Essas avaliações tendem, segundo Herrera, a deixar de lado o fato de aquilo que é compreendido como um recurso natural variar conforme o contexto histórico e as condições tecnológicas de sua exploração. Integrante do grupo de Bariloche (equipe latino-americana mobilizada para fazer uma crítica ao Limits to Growth), Herrera demonstrou, em primeiro lugar, que a catástrofe prevista por modelos como esse último já era realidade para grande parte da humanidade, principalmente para a maior parcela dos habitantes dos países subdesenvolvidos. Em segundo lugar, mostrou que não existe uma única solução para os problemas colocados por esses modelos, porque as mudanças na organização da sociedade e o progresso científico e tecnológico possibilitam graus de liberdade muito maiores para lidar com tais situações (Herrera, 1974: 13). No mesmo trabalho, Herrera ressalta que as soluções colocadas por esses modelos guardam uma estreita vinculação com o contexto socioeconômico e político de seus proponentes. Não seria por acaso que, entre os principais problemas identificados – crescimento explosivo populacional e contaminação ambiental advinda de padrões insustentáveis de consumo -, o primeiro merecesse um controle prioritário e voltado principalmente para os povos do mundo subdesenvolvido, ao passo que o segundo, mais concernente com a vida nos países desenvolvidos, merecesse apenas um tratamento complementar (Herrera, 1974: 12). A crítica, de cunho político e social, de Herrera e do Grupo de Bariloche ao trabalho da equipe do MIT é partilhada por outros estudiosos do ambientalismo moderno, entre eles, O’Riordan, que adjetiva Dezembro • 2000 g y p o discurso catastrofista de “arrogante e elitista” (O’Riordan, 1977: 8). Ele analisa as “soluções éticas” propostas, por exemplo, por Hardin como um subterfúgio para sustentar ações moralmente injustificáveis, como a recusa da doação de auxílios humanitários às nações do Terceiro Mundo. Quanto aos trabalhos sobre a capacidade de suporte dos ecossistemas, produzidos por Ehrlich, O’Riordan comenta ser um estudo que, “em mãos erradas, torna-se justificação ‘apolítica’ para frear a imigração, restringir o crescimento populacional e reduzir o desenvolvimento urbano” (O’Riordan, 1977: 9). OS ECONOMISTAS E SUAS CONTRIBUIÇÕES PARA A POLÍTICA AMBIENTAL NOS ANOS 70 OU “OTIMISMO UTILITARISTA NA POLÍTICA AMBIENTAL” A década de 70 também concentrou um movimento de retomada de conceitos desenvolvidos anteriormente pela teoria econômica, de reformulação de antigos instrumentos de política ambiental e de concepção de outras ferramentas, de modo a operacionalizar a intervenção das autoridades públicas na realidade econômica e ambiental das nações. Uma intensa produção de textos econômicos foi ensejada pela crítica aos apologistas do crescimento zero, com a tônica na capacidade e na eficiência das ciências econômicas no enfrentamento da crise ambiental. Esses textos podem ser agrupados em duas frentes: uma delas explora a questão dos recursos naturais, com base na economia dos recursos naturais, e a outra se volta ao problema da poluição, valendo-se da economia do meio ambiente.11 No caso da crítica sobre o problema dos recursos naturais, a manifestação mais representativa seja talvez a de Solow, Prêmio Nobel de Economia em 1987, justamente por suas contribuições às teorias de crescimento econômico. Em seu artigo “The economics of resources or the resources of economics”, publicado na American Economic 11 É oportuno lembrar que, desde meados dos anos 80, ambas as disciplinas têm se renovado, seja pela incorporação das dimensões mais complexas dos problemas ambientais transfronteiriços, seja pela integração de novos desenvolvimentos teóricos e metodológicos da própria ciência econômica. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 Review, em 1974, Solow sustenta que a economia dispõe de ferramentas para ultrapassar o obstáculo da insuficiência de recursos ao crescimento econômico. Retomando o arrazoamento do precursor da economia dos recursos naturais, Harold Hotelling, ele se refere particularmente à eficiência do sistema de preços, desenhado pela mão invisível do mercado, em proporcionar a melhor alocação dos recursos. Mostra-se ainda seguro quanto às possibilidades de encontrar substitutos para os materiais à medida que eles se tornem raros, posição que marca a sua fé na propriedade de ampla substituição entre o que se convencionou chamar de capital natural e capital feito pelo homem. Quanto ao problema da poluição, a crítica dos economistas do meio ambiente fundamenta-se no desenvolvimento de uma abordagem particular sobre a natureza dos problemas ambientais e na proposição de instrumentos econômicos de política ambiental para intervenção e correção desses problemas. A natureza dos problemas ambientais é dada por sua característica externa ao sistema econômico, ou seja, os problemas ambientais se originam do fato dos chamados bens ambientais não terem preço no mercado. Em outras palavras, não há mercados para bens como a qualidade do ar ou da água, ou mesmo para certas características de ativos ambientais, como sua beleza paisagística. Apesar da possibilidade de os indivíduos usufruírem desses bens, não existem direitos de propriedade bem definidos sobre eles (são os commons, de Hardin). Deriva daí o não cômputo dos custos da utilização dos bens ambientais nos cálculos privados e, por isso, os economistas afirmam que os custos ambientais são “externalizados” pelos agentes econômicos. Desde The Economics of Welfare, de Pigou (1920), diz-se que ocorre uma externalidade negativa (jargão econômico usado para designar os efeitos negativos da atividade produtiva no meio ambiente) quando os benefícios da utilização dos bens ambientais são apropriados privadamente enquanto os seus custos são socializados. Com base nessa acepção sobre a natureza dos problemas econômicos, a economia do meio ambiente deriva suas proposições na forma de instrumentos de intervenção. O mais conhecido instrumento é a taxação, ou 115 g y p ecotaxa,12 procedimento que, grosso modo, atribui um valor a ser pago pelo poluidor de acordo com o chamado princípio do poluidor-pagador, partindo de cálculos de valoração econômica dos danos ambientais.13 Os textos inseridos na economia do meio ambiente se dedicam, em grande medida, a comparar os instrumentos de política ambiental, ditos econômicos, com aqueles convencionalmente empregados, ditos de comando-e-controle, particularmente no que diz respeito à sua eficiência econômica (menor custo de implementação) e aos seus efeitos sobre a distribuição de renda, a competitividade de firmas e países, a mudança tecnológica etc.14 Além das ecotaxas, outros instrumentos econômicos para implementação de políticas ambientais são as permissões negociáveis em mercados, os sistemas de tarifa pela coleta de lixo e os de consignação conhecidos como embalagens retornáveis (OCDE, 1997). Como exemplos de instrumentos de comando-e-controle, citamos as normas e os padrões de emissões, entre eles, os limites aplicados pelos organismos de controle ambiental a certas indústrias, voltados à emissão de gases poluentes, como o gás carbônico ou os óxidos de nitrogênio (OCDE, 1997). Embora tenham influenciado muito marginalmente as políticas ambientais nos anos 70, sendo preteridos aos instrumentos convencionais de comando-econtrole, os instrumentos econômicos passam a ter um apelo crescente junto aos formuladores dessas políticas no decorrer das décadas de 80 e 90 (OCDE, 1997). Eles chegam a ser sugeridos, em 1987, pela Comissão Mundial para Meio Ambiente e Desenvolvimento (autora de Nosso Futuro Comum), como 12 Há ainda outros instrumentos econômicos, entre eles, as permissões negociáveis em mercados e os subsídios. Cf. esses e outros instrumentos, e uma avaliação sobre seu uso, em OCDE (1997). 13 A valoração econômica, tanto dos ativos ambientais quanto dos danos causados pelas atividades antrópicas ao meio ambiente, desenvolve conceitos e metodologias indispensáveis ao cálculo das ecotaxas e de outros “preços” para bens ambientais. É uma área muito dinâmica e com desenvolvimento bastante expressivo nas ciências econômicas, nas duas últimas décadas. 14 Atualmente, também se faz referência a um terceiro tipo de instrumento, híbrido, que estaria entre as duas categorias anteriores. Pouco estudados ainda, fazem parte dessa categoria os acordos voluntários entre industriais pela redução do impacto ambiental de suas atividades e os contratos entre a indústria regulamentada e o órgão regulamentador. 116 ferramentas fundamentais ao alcance da sustentabilidade do desenvolvimento (CMMAD/ONU, 1991). DISCUSSÃO FINAL O ambientalismo moderno retomou, no final dos anos 60 e princípio da década seguinte, o tema malthusiano do crescimento restringido pela disponibilidade de recursos. Ampliou, contudo, o escopo do debate, revelando aspectos insidiosos da crise ambiental, como o problema da poluição e de outras contaminações “invisíveis”, derivadas de certas opções tecnológicas, incluindo o uso de pesticidas e da energia nuclear. Mais do que isso, no entanto, trouxe a discussão ao foro público. A polarização do debate, nos anos 70, opôs as visões catastrofistas a posições otimistas. Os defensores do “crescimento zero” tiveram suas idéias criticadas, em grande parte, devido à insatisfação daqueles que se preocupavam com o futuro do Terceiro Mundo, cujo crescimento populacional despertava, mais do que os modos afluentes de consumo no mundo desenvolvido, a preocupação ambientalista. Até então, as causas dos problemas ambientais eram atribuídas ao descontrole do crescimento populacional e à tecnologia; a correção desses problemas passava, por sugestão dos biólogos norteamericanos da equipe de Meadows e do Clube de Roma, pela coerção dos comportamentos, principalmente os reprodutivos. Era assim, de acordo com Hardin, que a escassez de recursos e a poluição, derivados diretamente do crescimento populacional, seriam solucionados por leis ou pela taxação. Desde a década de 20, os economistas possuíam os elementos teóricos e operacionais, segundo diziam, para enfrentar a crise ambiental. Mas foi no transcorrer do debate dos anos 70 que suas contribuições para a política ambiental ganharam força. Os elementos teóricos envolviam uma compreensão particular da natureza do problema ambiental: a não pertinência dos ativos ambientais ao sistema de mercado (externalidade). Os elementos operacionais sugeridos pelos economistas para a solução dos problemas ambientais consistiam em instrumentos que buscavam integrar esses ativos ao sistema econômico, sendo a taxação o exemplo por excelência. Num contraponto com as idéias dos biólogos americanos do final da década de 60, podemos Dezembro • 2000 g y p advogar que aquelas desenvolvidas pelos economistas apresentam, ao mesmo tempo, uma continuidade e um rompimento. Continuidade, desde que formalizam a proposição da taxação (também feita por Hardin), na verdade, apresentada no passado pela teoria econômica.15 E rompimento porque, por trás dessa proposição, subsiste a crença na possibilidade de superação dos limites do crescimento. Considerando biólogos e economistas, dois dos principais grupos de debatedores dentro do ambientalismo moderno, e aos quais dedicamos as reflexões deste artigo, é justo atribuir-lhes a responsabilidade por um legado nessa área. Aos biólogos americanos caberia o mérito pela sensibilização do público em geral (extrapolando o debate da academia), por terem retomado as problemáticas do crescimento populacional e da poluição, valendo-se de 15 A formalização, inclusive matemática, dos instrumentos de política ambiental, com destaque para as ecotaxas, datam, a propósito, da década de 70. veículos especiais (revistas de divulgação científica) e de uma linguagem não-científica (metáforas e alegorias). Aos economistas americanos, por sua vez, a responsabilidade pela instrumentalização das políticas ambientais, através da criação dos instrumentos econômicos de gestão ambiental. Envolver o grande público e alcançar fóruns transdisciplinares de debate são idiossincrasias do ambientalismo moderno, trazidas no bojo de uma rica evolução ao longo desses últimos 30 anos. Outra característica particular do ambientalismo dos nossos dias é a incorporação, pelas políticas ambientais, do uso de instrumentos econômicos para gestão das riquezas naturais. Este artigo recorreu às mais diversas fontes, de artigos originais a textos de historiadores do ambientalismo, na tentativa de recuperar alguns momentos que fizeram um pouco da história dessa evolução, a qual parece ainda estar longe de ser inteiramente contada. REFERÊNCIAS BIBLIOGRÁFICAS BARDE, J. & GERELLI, E. Économie et politique de l’environnement. Paris: Presses Universitaires de France, 1977. CMMAD/ONU Nosso futuro comum. 2.ª ed. Rio de Janeiro: Fundação Getúlio Vargas, 1991. FISHER, Anthony C. Resource and environmental economics. New York: Cambridge University Press, 1990. HARDIN, G. The tragedy of the commons, Science, 162 (3.859): 1.243-1.248, 1968. HERRERA, A.O. Los recursos minerales y los límites del crecimiento económico. Buenos Aires: Siglo Ventuno Editores, 1974. HOLDEN, C. Ehrlich versus Commoner: an environmental fallout, Science, 177 (4.045): 245-247, 1972. HOTELLING, H. The economis of exhaustible resources, The Journal of Political Economy, 39 (2): 137-75, 1931. MADDOX, John. El sindrome del fin del mundo. Barcelona: Barral Editores, 1974. McCORMICK, John. Rumo ao paraíso: a história do movimento ambientalista. Rio de Janeiro: Relume-Dumará, 1992. MEADOWS, D.H. et al. The limits to growth: a report for the Club of Rome’s project on the predicament of mankind. New York: The New American Library Inc., 1972. OCDE. Évaluer les instruments économiques des politiques de l’environnement. Paris: Les Éditions de l’OCDE, 1997. O’RIORDAN, T. Environmental ideologies, Environment and Planning A, 9: 3-14, 1977. PEPPER, D. The roots of modern environmentalism. London: Routledge, 1986. POLE, N. An enterview with Paul Ehrlich, The Ecologist, 3 (1): 18-24, 1973. REES, J. Natural resources: allocation, economics and policy. London: Routledge, 1990. ROSENBERG, Nathan. Tecnología y economía. Barcelona: G. Gilli, 1979. SANDBACH, F. The rise and fall of the limits to growth debate, Social Studies of Science, 8: 495-520, 1978. SOLOW, R. The economics of resources or the resources of economics, American Economic Review, 64 (2): 1-14, 1974. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 107-118 117 g 118 y p Dezembro • 2000 g y p Dissertações REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 119 g y p MINIMIZAÇÃO DE DESCARTE DE AREIAS DE FUNDIÇÃO Foudry Sand Discard Minimization FRANCISCO AUGUSTO D´ELBOUX Universidade Metodista de Piracicaba [email protected] ORIENTADOR: GILBERTO MARTINS Universidade Metodista de Piracicaba [email protected] RESUMO – Este trabalho nasceu da constatação de que pouca atenção tem sido despendida na divulgação e exploração dos limites para a reutilização da areia dentro do próprio processo de fundição. Grande parte da literatura a respeito de areias de fundição é voltada a pesquisas sobre seu aproveitamento como insumo em outros processos. O trabalho consiste em um estudo de alternativas visando a minimização do descarte de areia de fundição, originada durante o processo de obtenção de peças fundidas. Incluímos, também, um breve histórico do desenvolvimento da fundição, assim como a descrição de alguns dos principais processos e dos tipos de aglomerantes e aditivos utilizados nas areias de fundição. São ainda apresentadas algumas caracterizações dos resíduos de areias de uma fundição de porte médio, localizada no interior de São Paulo e discutida a toxicidade de alguns dos metais pesados passíveis de serem encontrados nas areias. Algumas medidas técnicas com vistas à redução do emprego de areia são apresentadas e discutidas, entre as quais, o aumento da eficiência do sistema de recuperação de areia, a utilização racional do volume de areia no molde, o eficiente sistema de saída de gases dos machos/moldes, a correta compatibilização das peças com o tamanho das caixas de moldagem e a redução da espessura dos machos com os artifícios de alívios internos. São também relatadas experiências conduzidas na referida empresa com o objetivo de aumentar o índice de utilização da areia recuperada nos próprios processos de macharia e moldagem. Os resultados ambientais e econômicos da implementação de todas as medidas analisadas, que possibilitaram uma redução no descarte de areia, são apresentados e discutidos. Palavras-chave: AREIA DE FUNDIÇÃO – RECUPERAÇÃO DE AREIA – MINIMIZAÇÃO DE RESÍDUOS DE AREIA. ABSTRACT – The main motivation for the development of this work was the realization of the fact that little effort has been spent on the publishing and exploitation of the limits if the reutilization of the foundry sand within the casting process itself. Most of the literature about foundry sand reuse focuses on the possibilities of using this solid waste as input for other processes. This work presents a study to minimize the discarding of foundry sand originated from the casting process. To facilitate the analysis, a brief description of some of the main foundry processes as well as types of binders and additives used have been included. The caracterization of some of the solid waste from a medium size foundry plant located in the state of São Paulo is presented and the potential harm for the human health due to the most probable heavy metals present in these sands are discussed. The efficiency of the sand reclaiming systems, the rational use of the volume of mould sand, the efficent system of core/mold gas vent, the correct parts and flasks size compatibility, the core thickness reduction and addition of internal relief are some of the measures discussed in the work to minimize the use of sand. Some experiments to evaluate the influence of the increase in the reutilization of reclaimed sand in the coremaking and molding process on the quality of the parts, performed in the referred plant are also described and analyzed, both in terms of the reduction of waste generation and in economical terms. Keywords: FOUNDRY SAND – RECLAIMING SAND – FOUNDRY SAND MINIMIZATION. 120 Dezembro• 2000 g y p AS INCERTEZAS DAS MEDIÇÕES: PONTOS CRÍTICOS E SIMPLIFICAÇÕES PARA A METROLOGIA DIMENSIONAL NA INDÚSTRIA Uncertainty of measurement: critical poinsts and simplifications to its application in industrial dimensional metrology LUÍS GONZAGA DE LIMA Universidade Metodista de Piracicaba ORIENTADOR: ALVARO JOSÉ ABACKERLI Universidade Metodista de Piracicaba [email protected] RESUMO – Os erros e as incertezas das medições têm sido objeto de interesses da comunidade científica durante todo esse século, culminando na sua necessidade para as atividades diárias da indústria na virada do novo milênio. Com vistas a atender a essa necessidade, inúmeras organizações internacionais criaram diretrizes para orientar o tratamento de incertezas nos diferentes ramos da ciência e da tecnologia. Entretanto, pela complexidade inerente à discussão das incertezas, algumas vezes seus conceitos não são claros, tampouco as condições de contorno necessárias à abordagem correta de alguns problemas. Esse é o caso das aplicações industriais em que as condições ideais estabelecidas pelas normas, além da fundamentação teórica de vários conceitos, não podem ser garantidas na sua totalidade. Para auxiliar o melhor entendimento da expressão das incertezas, alguns de seus conceitos são apresentados neste trabalho, buscando-se esclarecimentos particularizados que facilitem sua aplicação em algumas atividades industriais. Um procedimento simplificado para cálculo da incerteza em problemas da metrologia industrial mecânica também é proposto, buscando-se soluções mais simples que sejam orientadas pelos documentos normativos e não impliquem perdas de qualidade dos resultados. No procedimento apresentado, as etapas são desenvolvidas passo a passo, de modo a permitir seu uso imediato pelo pessoal técnico da indústria, incluindo ainda alguns estudos de caso que permitem verificar sua adequação ao Guia para a Expressão da Incerteza de Medição (ABNT/INMETRO, 1998). Palavras-chave: INCERTEZA – CALIBRAÇÃO – MEDIÇÃO – METROLOGIA. ABSTRACT – The discussion of uncertainty and errors on measurement have taken the attention of the scientific community all way through this century, turning into a basic need for industrial activities for the new millennium. As an answer to this basic need, international organizations have published documents and standards to guide the user through the expression of uncertainty in different areas of science and technology. However, the natural complexity expression makes thing difficult in industrial applications where some basic concepts are not clear, or even the theoretical constraints can not be fully maintained. To help its better understanding, some important concepts and their practical implications are presented in this work. Additionally, a simplified procedure for the uncertainty evaluation in dimensional metrology is presented, to help industrial technicians to widen their knowledge and spread the evaluation of uncertainties in daily activities. It is important to point out that, despite its reduced form, the proposal has full conceptual compliance to national and international standards, particulary with the Guide to the Expression of Uncertainty in Measurement (ISO, 1995). Moreover, the proposed step by step procedure is followed by case in which one can note that no lost of quality in results is obtained due to the proposed simplifications. Keywords: UNCERTAINTY – CALIBRATION – MEASUREMENT – METROLOGY. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 121 g y p AVALIAÇÃO DOS CUSTOS DE FALHAS EXTERNAS (REPAROS EM GARANTIA) Assesment of External Quality Costs (Warranty) SILMAR PONTEL Universidade Metodista de Piracicaba ORIENTADOR: PAULO AUGUSTO CAUCHICK MIGUEL Universidade Metodista de Piracicaba [email protected] RESUMO – Apesar de o assunto sobre custos da qualidade não ser recente, esse tema ainda não é muito difundido no Brasil. Este trabalho apresenta uma revisão bibliográfica sobre os custos da qualidade, iniciando com um histórico do desenvolvimento dos custos da qualidade, seguido das definições e exemplos de suas categorias, que tradicionalmente se dividem em custos de avaliação, prevenção e falhas (internas e externas). Também é apresentada uma metodologia para levantamento dos custos da qualidade, em que são descritos os estágios de coleta e análise de custos da qualidade, na categoria de falhas externas. A aplicação da metodologia é feita por meio de um estudo de caso voltado aos custos com reparos em garantia numa empresa do setor metalúrgico, na região de Campinas. Conclui-se que a análise dos custos de falhas externas é uma ferramenta gerencial necessária, tendo em vista os gastos decorrentes, no caso apresentado, de reparos em garantia. Desse modo, acredita-se que as empresas que almejam aprimorar sua competitividade no mercado globalizado atual devem coletar e analisar tais custos. Palavras-chave: CUSTOS DE QUALIDADE – CUSTOS DE FALHAS EXTERNAS – CUSTOS EM GARANTIA. ABSTRACT – Although the subject of Quality Costs is not recent, it is not widespread in Brazil. This work presents a literature survey beginning with a historical description of quality costs, followed by definition and example of its categories which divide them into appraisal, prevention, and failures (internal and external). It is also presented a methodology to collect quality costs by describing the stages of collection and analysis of costs of external failures. The application of the methodology is performed through a case study on costs of warranty in a company within the mechanical sector in the region of Campinas. It is concluded that the analysis of costs of external failures is a necessary management tool faced with the expenditures of warranty in the presented case study. In this sense, it is believed that companies which aim to improve competitiveness in the current global market should collect and analise such costs. Keywords: QUALITY COSTS – EXTERNAL FAILURE COSTS – WARRANTY COSTS. 122 Dezembro• 2000 g y p DESENVOLVIMENTO DE UM SISTEMA ESPECIALISTA PARA A OTIMIZAÇÃO DO PROCESSO DE USINAGEM Development of an Expert System for Option the Process ELESANDRO ANTONIO BAPTISTA Universidade Metodista de Piracicaba [email protected] ORIENTADOR: NIVALDO LEMOS COPPINI Universidade Metodista de Piracicaba [email protected] RESUMO – Apresenta-se o desenvolvimento de um sistema especialista para a otimização do processo de usinagem, baseado no Intervalo de Máxima Eficiência (IME), e demais restrições do processo e do cenário produtivo envolvido. Foi utilizada a metodologia para determinar as condições de corte em ambiente fabril, por meio de ensaios para a obtenção da vida da ferramenta de corte e, conseqüentemente, dos demais elementos necessários à construção do IME. Como resultado, foi obtida a velocidade de corte otimizada. Todas as variáveis do processo, que o influenciam, foram consideradas na otimização. O sistema possui dois diferentes modos de aplicação: o interativo, comandado pelo usuário, e o completamente automático, cuja aplicação é possível dentro do conceito de fábrica virtual. O sistema foi submetido à verificação em laboratório e a exemplos de aplicações em ambiente fabril. Em ambos os casos, os resultados permitem concluir que o Tool Optimization Expert System (TOES), nome atribuído ao sistema, atende aos requisitos para os quais foi desenvolvido. Dessa forma, pode substituir ou apoiar um especialista humano na complexa tarefa de otimização do processo de usinagem em ambiente fabril. Palavras-chave: SISTEMA ESPECIALISTA – OTIMIZAÇÃO – USINAGEM – INTERVALO DE MÁXIMA EFICIÊNCIA. ABSTRACT —It is presented an expert system development to optimise the cutting process, based on the Maximum Efficiency Interval (MEI). It was considered all the process constraints involved, and the environment scenary. Cutting condition determination was proposed to be in shop floor, and consists in tests realization to obtain the cutting tool life coeficients. All process paraeters were considereted. The system allows two diferents application modes: interactive and fully automatic, both could be used in virtual enterprises concept. The system was tested in laboratory and shop floor conditions. It allows to conclude that the Tool Optimization Expert System (TOES, the name of the developed system) met the inicial requirements. Thus, the system can replace or aid a human expert in complex tasks of cutting process optimization, in industrial environment. Keywords: EXPERT SYSTEM – OPTIMIZATION – MACHINING – MAXIMUM EFICIENCE INTERVAL. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 123 g y p REENGENHARIA DOS PROCESSOS DE NEGÓCIOS: UM ESTUDO DE CASO Business Process Reengineering: A Case Study CRISTIANO DE JESUS Universidade Metodista de Piracicaba [email protected] ORIENTADOR: JOSÉ ANTÔNIO ARANTES SALLES Universidade Metodista de Piracicaba [email protected] RESUMO – Tecnologia da informação é uma importante ferramenta de suporte para alcançar competitividade em um ambiente que exige agilidade e capacidade de mudanças rápidas. Contudo, a base computacional não é tudo. Questões como cultura, recursos humanos, gerenciamento, sistemas de desempenho, qualidade e estratégia da manufatura não podem ser descartadas. A aplicação sistemática da tecnologia compreendida em uma estratégia organizacional é fundamental para obter resultados satisfatórios em um ambiente de competição global. Este trabalho apresenta uma discussão sobre reengenharia de processos de negócios com a da tecnologia da informação como recurso viabilizador da mudança da forma de trabalhar de modo a obter competitividade. Palavras-chave: GESTÃO DE NEGÓCIOS – REENGENHARIA DOS PROCESSOS DE NEGÓCIOS – SISTEMAS ERP – TECNOLOGIA DA INFORMAÇÃO. ABSTRACT – Information Technology is an important support tool to achieve the competitiveness in a environment which claims nimbleness and capability to adapt to rapid changes. Nevertheless, the computational base is not all. Issues such as culture, human assets, management approach, performance systems, quality and manufacturing strategy should not be neglect. The systematic application of the technology comprised in an organizational strategy is fundamental for obtaining satisfactory results in a global competition environment. This work presents a discussion regarding business process reengineering with information technology as a resource which enables the changes of working to increase the competitiveness level. Keywords: BUSINESS MANAGEMENT – BUSINESS PROCESS REENGINEERING – ERP SYSTEMS – INFORMATION TECHNOLOGY. 124 Dezembro• 2000 g y p TREINAMENTO & DESENVOLVIMENTO: TENDÊNCIAS E INOVAÇÕES NA PEQUENA EMPRESA Training and Development: tendencies and innovations at small companies NEÓFITA MARIA DE OLIVEIRA Universidade Metodista de Piracicaba ORIENTADORA: ROSÂNGELA MARIA VANALLE Universidade Metodista de Piracicaba [email protected] RESUMO – Este trabalho analisa a existência e o grau de inovação nas políticas de treinamento da pequena empresa e as tendências desse mecanismo que estão sendo adotadas por esse segmento empresarial. Inicialmente, discute-se conceitos do termo, seguido de um estudo evolutivo sobre a importância que o treinamento tem assumido no contexto empresarial. Atenção especial é dada aos fatores que contribuíram para mudanças do paradigma treinamento. Utilizou-se como método de pesquisa o estudo exploratório, com investigação in loco – estudo de caso, mediante entrevista com uso de questionário estruturado. Foi constado, nos estudos sobre as empresas inovadoras e com considerável margem competitiva, que a pequena empresa em geral não tem alterado suas políticas de treinamento, no sentido de utilizá-las como fator diferencial competitivo. Apesar disso, os resultados deste estudo apontam que o novo cenário competitivo, aliado às exigências (impostas pelo mercado global) por produtos de maior qualidade, levou tal empresa a atualizar e inovar algumas das modalidades de incentivos ao desenvolvimento de sua mão-de-obra, com a introdução, nos programas de treinamento, de um maior número de cursos, palestras e/ou seminários. Palavras-chave: TENDÊNCIAS DO TREINAMENTO – COMPETITIVIDADE – PEQUENA EMPRESA. ABSTRACT – This work analyzes the existence and the degree of innovation in the politics of training of the small company and the trends of this mechanism that are being adopted for this enterprise path. Initially, one argues concepts of the term, followed of a evolutionary study on the importance that the training was assuming in the enterprise context. Special attention is given for the factors that had contributed for changes of the paradigm training. It was used as research method an inquiry study, by local investigation – case study, by means of interview with the use of a questionnaire previously structured. It can be translated of the results that the small company has not been altering its The results point that even so the small company has not modified its politics of training in the direction to be used of this mechanism as competitive distinguishing factor, as consisted in the studies on the innovative companies and with considerable competitive margin, the new competitive scene, ally the requirements for products of bigger quality imposed by the global market, took these companies to bring up to date and to innovate some of the modalities of incentives to the development of its man power, where a bigger number of courses, lectures and/or seminaries had been being introduced in the programs of training. Keywords: TENDENCIES OF THE TRAINING – COMPETITIVENESS – SMALL COMPANY. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 125 g y p ÉTICA E POLÍTICA AMBIENTAL: CONTRIBUIÇÕES DA ÉTICA AMBIENTAL ÀS POLÍTICAS E INSTRUMENTOS DE GESTÃO AMBIENTAL Environmental Ethics and Policy: Contribution of the Environmental Ethics for the Policies and environmental management instruments ROBERTA GRAF Universidade Metodista de Piracicaba ORIENTADOR: PAULO JORGE MORAES FIGUEIREDO Universidade Metodista de Piracicaba [email protected] RESUMO – Partindo do estudo da crise socioambiental da atualidade, conclui-se que a humanidade atravessa, na verdade, uma crise sistêmica e complexa, abrangendo os problemas ecológicos, sociais, éticos, econômicos e políticos. As políticas e os instrumentos de gestão ambiental são respostas à crise e procuram disciplinar as atividades humanas no que se refere às suas influências e aos impactos socioambientais. Essa dissertação pretende fazer uma avaliação das políticas e dos instrumentos de gestão ambiental existentes, com enfoque na realidade brasileira, sob algumas óticas da ética ambiental, particularmente da ecologia profunda e da ecologia social. Além disso, a dissertação aponta encaminhamentos para as políticas e os instrumentos considerados mais adequados à sustentabilidade socioambiental, ou à reversão da crise. O cenário atual é de um capitalismo globalizado, marcado pelo fortalecimento e internacionalização dos mercados e pelo enfraquecimento geral do poder público e dos canais democráticos de participação política, principalmente quanto às demandas sociais e ecológicas. Nesse contexto, políticas e instrumentos de gestão ambiental se encontram especialmente marginalizados. Tornaram-se urgentes a popularização da educação e da ética ambiental pelas sociedades, de forma que haja um engajamento concreto do poder público, das organizações sociais, das instituições privadas, da ciência e da tecnologia tanto na formulação de políticas e instrumentos de gestão ambiental adequados como na aplicação das boas potencialidades dos já existentes. Os encaminhamentos considerados mais adequados à sustentabilidade socioambiental na dissertação são: a prevenção de influências ambientais (ao invés da remediação); o enfoque sistêmico (ao invés do pontual); a integração da economia à ecologia, com mudanças significativas dos padrões de produção e consumo; o enfoque na reprodutividade a longo prazo (dos equilíbrios ecológicos e das atividades humanas, ao invés da produtividade); a igualdade social e a participação social ampla; a cooperação (entre indivíduos, instituições e países) e as formas comunitárias de gestão; o abandono da visão antropocêntrica, utilitarista e tecnicista, em favor de estilos de vida que priorizem a qualidade de vida, através da integração das atividades humanas à natureza e da justiça social. Palavras-chave: ÉTICA AMBIENTAL SOCIAL – ECONOMIA ECOLÓGICA. – POLÍTICA AMBIENTAL – GESTÃO AMBIENTAL – ECOLOGIA PROFUNDA – ECOLOGIA ABSTRACT – From an analysis of the contemporary socio-environmental crisis, we conclude that humanity is truly facing a systematic and complex crisis with ecological, social, ethic, economic and political ramifications. The policies and instruments of environmental management are a response to this crisis, setting limits on those activities that influence or impact the environment. This dissertation evaluates the existing policies and instruments for environmental management, focusing on Brazilian reality through the prism of Environmental Ethics, specifically Deep Ecology and Social Ecology. This dissertation also indicates directions for those policies and instruments considered the most adequate to socioenvironmental sustainability and to reverse the crisis. The present day scenario is one of globalized capitalism, characterized by the internationalization and the strengthening of markets and by the general weakening of the State and democratic channels of political participation, principally in terms of social and ecological demands. Within this context, the 126 Dezembro• 2000 g y p policies and instruments of environmental management are particularly set aside. Mass Environmental Education and Ethics within society become urgent issues, in order that the State, social organizations, private institutions and scientific and technological bodies come to play a major role in the making of adequate policies and instruments of environmental management, as well as in the realization of whatever positive potentialities already existing. This dissertation recommends the following principles as those most adequate for socio-environmental sustainability: * the prevention, rather than the remediation of environmental influences; * a systemic, rather than a fragmented, point of view; * the integration of Economics and Ecology, with significant changes in patterns of production and consumption; * emphasis on long term reproductivity (with respect to ecological equilibrium and human activities), in preference to productivity; * ample social equality and participation; * cooperation among individuals, institutions, countries, and participatory forms of management within the community; * the abandonment of an anthropocentric, utilitarian and technicist point of view, in favor of life styles that promote quality of life, through the integration of human activities with nature and the social justice. Keywords: ENVIRONMENTAL ETHICS – ENVIRONMENTAL POLICY – ENVIRONMENTAL MANAGEMENT – DEEP ECOLOGY – SOCIAL ECOLOGY – ECOLOGICAL ECONOMICS. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 127 g y p ÓLEOS LUBRIFICANTES MINERAIS: UMA ANÁLISE DAS POTENCIALIDADES DA REUTILIZAÇÃO Mineral Lubricant oils: An analysis Reutilization Potentialities GUSTAVO MORINI FERREIRA GÂNDARA Universidade Metodista de Piracicaba [email protected] ORIENTADORA: NÁDIA KASSOUF PIZZINATTO Universidade Metodista de Piracicaba [email protected] RESUMO – Este trabalho aborda as alternativas de destino dos óleos lubrificantes usados e as conseqüentes implicações de cada uma delas sob diversos aspectos, com ênfase nos aspectos econômicos e nos processos produtivos. São comparadas as sistemáticas adotadas no Brasil e as utilizadas nos Estados Unidos e em países da Europa. O re-refino do óleo lubrificante usado é a alternativa melhor discutida neste trabalho, tendo por base pesquisa bibliográfica e estudo de casos em duas rerrefinadoras. Ao final, é proposta nova metodologia de coleta de óleos lubrificantes usados, priorizando os aspectos regionais como forma de viabilizar o empreendimento dos que atuam no setor. Palavras-chave: RERREFINO – ÓLEO LUBRIFICANTE – SISTEMA DE COMERCIALIZAÇÃO – PETRÓLEO. ABSTRACT – This theasis approaches the theme of the alternatives of destiny of the used lubricating oils and the consequent implications of each one in relation to several aspects, with emphasis in the economic aspects and in the productive processes, comparing the systematic ones adopted in Brazil with the the systematic adopted in another countries of Europe and USA. The alternative of destiny of the used lubricating oil more discussed in the theasis is the re-refining process. The study is based on bibliographical research and in study of cases in two re-refining companies. It proposes, at the end, new methodology of collection of used lubricating oils, prioritizing the regional aspects, as form of making possible the enterprise of those who works in this area. Keywords: RE-REFINING – LUBRICATING OIL – TRADE SYSTEM – COAL OIL. 128 Dezembro• 2000 g y p ANÁLISE DA GESTÃO DA CADEIA DE SUPRIMENTOS EM UMA EMPRESA DE COMPUTADORES Analysis of the Supply Chain Management in a Computer Manufacturing Company PAULO HENRIQUE PARRA Universidade Metodista de Piracicaba [email protected] ORIENTADOR: SÍLVIO ROBERTO IGNÁCIO PIRES Universidade Metodista de Piracicaba [email protected] RESUMO – A competição mundial tem se acirrado significativamente com o processo da globalização. Na resfera industrial, vem provocando o surgimento de novos desafios, e também de novas oportunidades, na forma de se organizar e gerenciar a produção. A Gestão da Cadeia de Suprimentos (Supply Chain Management – SCM) emerge, nesse contexto, como uma nova e promissora fronteira no desenvolvimento de vantagens competitivas. Por sua vez, em função da característica própria da velocidade das inovações tecnológicas, a indústria de computadores relaciona-se com uma série de fatores que dificultam uma gestão mais eficaz da cadeia de suprimentos. Nesse contexto, este trabalho apresenta um estudo de caso, em uma empresa multinacional fabricante de computadores, cujo foco é a análise da sua cadeia de suprimentos, de suas estratégias e da influência imposta à cadeia de fornecimento. Também é feito um relato das implicações negativas de algumas estratégias adotadas pela empresa e a indicação de elementos-chave de um aprimoramento futuro. Palavras-chave: INDÚSTRIA DE INFORMÁTICA – GLOBALIZAÇÃO – GESTÃO DA CADEIA DE SUPRIMENTOS CADEIA DE FORNECIMENTO – ESTRATÉGIA COMPETITIVA – PARCERIA. – GESTÃO DA ABSTRACT – Competition in the world has significantly increased with the globalization process. This competitive environment has been stimulating the grow of competitive strategies among corporations and also creating new productions organization forms. In this direction, Supply Chain Management (SCM) has emerged as a new frontier for the development of competitive advantages. Also, due to a unique characteristic of technology innovation speed, the computer industry shows a lot of factors that make difficult to achieve efficiency in the supply chain management. In this context, this work shows a case study in a computer manufacturer, that focus the analysis in the supply chain management, their strategies and the influences in the Inbound Chain. Also was presented a report of the negative implications caused by the adoption of some strategies for this manufacturer, indicating in the end the key elements for a future improvement. Keywords: INFORMATICS INDUSTRY – GLOBALIZATION – SUPPLY CHAIN MANAGEMENT – INBOUND CHAIN MANAGEMENT – COMPETITIVE STRATEGY – PARTNERSHIP. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 129 g y p ANÁLISE DE MODELOS DE MELHORIA NO DESENVOLVIMENTO DE SOFTWARE Analysis of improvement models in software development GUILHERME AUGUSTO SPIEGEL GUALAZZI Universidade Metodista de Piracicaba [email protected] ORIENTADOR: NÉOCLES ALVES PEREIRA Universidade Metodista de Piracicaba [email protected] RESUMO – Este trabalho tem por objetivo a análise de modelos gerenciais de desenvolvimento de software, com vistas a permitir que organizações interessadas possam utilizá-los em suas atividades. Tem também por objetivo organizar um trabalho preliminar que introduza o tema de forma acessível a estudantes de graduação em engenharia de produção, em ciência da computação e cursos similares. São apresentados cinco casos de utilização de modelos de melhoria de desenvolvimento de software, relatados através de pesquisas realizadas por três instituições norte-americanas e duas organizações brasileiras; neles serão analisados diversos aspectos de melhoria em tais utilizações. Os resultados dos casos apresentados indicam que esses modelos contribuem positivamente para a melhoria de processos de desenvolvimento de software, principalmente os relatos referentes aos EUA, demonstrando grandes chances de êxito em empresas nacionais, principalmente com relação a um dos modelos considerados, denominado CMM (Capability Maturity Model). Palavras-chave: QUALIDADE – SOFTWARE – MODELO DE MATURIDADE – DESENVOLVIMENTO DE SOFTWARE. ABSTRACT: This work aims an analysis of managerial models of software development, in order to enable that interested organizations can use them in their activities. It has for objective to organize a preliminary text that introduces the theme in a accessible way to graduation students in production engineering, in computation science and other similar courses. Five cases of use of improvement models of software development are presented, reported by research accomplished by three North American institutions, and two Brazilian organizations. Several concerning improvement aspects of this cases are analyzed. The results of the presented cases indicate that the models contribute positively to the improvement of software development processes, mainly in the US cases, demonstrating great chances of success in Brasilian companies, mainly those cases related to the CMM (Capability Maturity Model). Keywords: QUALITY – SOFTWARE – MATURITY MODEL – SOFTWARE DEVELOPMENT. 130 Dezembro• 2000 g y p INTEGRANDO O QFD COM A ISO 9001: 2000 EM UMA INDÚSTRIA DE CERÂMICAS ELETRÔNICAS Integrating QFD and ISO 9001: 2000 in a Company of Electronic Ceramics JOSÉ CELSO SOBREIRO DIAS Universidade Metodista de Piracicaba [email protected] ORIENTADOR: PAULO AUGUSTO CAUCHICK MIGUEL Universidade Metodista de Piracicaba [email protected] RESUMO – Nesses últimos anos, a qualidade tem ocupado um papel determinante na competitividade dos negócios. Através de constantes transformações, está conseguindo novos espaços, atingindo novas áreas e atividades nas organizações, ficando evidente que a busca pela qualidade é o melhor caminho para enfrentar os desafios em um mercado cada vez mais globalizado. Nesse cenário, o desenvolvimento alcançado pelas cerâmicas eletrônicas, utilizadas na construção de pára-raios, cumpre seu papel no universo tecnológico. Entretanto, para conviver com um cenário globalizado deve-se buscar a otimização dos custos e a confiabilidade no sistema da qualidade em organizações que produzem tais equipamentos. Por isso, a aplicação de uma metodologia adequada para aquisição, inspeção e controle das matérias-primas, aplicadas nas cerâmicas eletrônicas, é de extrema importância para a consolidação de um sistema de gestão da qualidade. Um fator que contribui para o caráter evolutivo desse conceito é a revisão 2000 da série ISO 9000, fundamentada nos princípios da gestão da qualidade, destacando o foco no cliente e a melhoria contínua. A implementação desse novo sistema poderá trazer benefícios em favor da eficiência, do controle gerencial e da gestão de negócios. Este texto relaciona funções de trabalho frente aos requisitos normativos da série ISO/DIS 9001: 2000, tendo como instrumento de aplicação o QFD (Quality Function Deployment). O QFD foi utilizado no sentido de estruturar o desenvolvimento da metodologia proposta; o modelo conceitual apresentado trabalha as informações necessárias, arranjadas numa série de matrizes inter-relacionadas. A proposta principal deste trabalho é identificar as funções de trabalho mais relevantes e quais os requisitos normativos da série ISO/DIS 9001: 2000 que causam maior impacto sobre essas funções de trabalho, constituindo-se, assim, a base da metodologia proposta. A metodologia mostra-se útil, prática e viável, sendo possível sua aplicação em todas as empresas e também nos seus diversos os setores. Palavras-chave: DESDOBRAMENTO DA FUNÇÃO QUALIDADE – FUNÇÕES DE TRABALHO – QUALIDADE ASSEGURADA – ISO/DIS 9001: 2000. ABSTRACT – In the last years, quality has performed a decisive role in the business competitiveness. Through constant transformations, quality has get new areas and activities in the organizations. It becomes evident that the search for quality is the better way to face the challenges in a global competitive market. In this scenario, the development of electronic ceramics applied for construction of surge arresters perform its role within the technological universe. However, in order to take part in a global scenario, the optimization of costs and reliability of quality systems from companies which produce such equipment should be aimed. In this context, the application of a suitable methodology for acquiring, inspecting and controlling of raw materials applied to electronic ceramics is of paramount importance to consolidate a quality management system. A factor which contributes for the evolution of this concept is the year 2000 revision of ISO 9000 series, which is centered in the principles of quality management, emphasizing the customer focus and continuous improvement. The implementation of this new system enables to bring benefits in favour of efficiency, management control and business management. This work deals with job functions related to the ISO/DIS 9001:2000 requirements using QFD as an integrative tool. QFD (Quality Function Deployment), known was applied as a structure for the development of this proposal. The conceptual model deals with the necessary information organised in a series of inter-related matrices. The REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 131 g y p main proposal of this work is to identify the most relevant job functions besides the ISO/DIS 9001:2000 requirements which cause more impact on these job functions, as a basis of the proposed methodology. The methodology is shown useful, practice and viable, being possible its application in all the companies and also applicable in all the sections of those companies. Keywords: QUALITY FUNCTION DEPLOYMENT (QFD) – JOB FUNCTION – QUALITY ASSURANCE – ISO/DIS 9001:2000. 132 Dezembro• 2000 g y p ESTUDO DE CASO PARA A IMPLANTAÇÃO DE “MANUFATURA CLASSE MUNDIAL” E PROPOSTA DE CONCEITO PARA “EMPRESA CLASSE MUNDIAL” Case study for Word Class Manufacturing and a Word Class Enterprise Concept Proposal JOSÉ CLÁUDIO MACEDO CARDOSO Universidade Metodista de Piracicaba [email protected] ORIENTADOR: MILTON VIEIRA JR. Universidade Metodista de Piracicaba [email protected] RESUMO – O objetivo deste trabalho é sugerir um conceito de Empresa Classe Mundial para indústria de autopeças, comentando sua forma de gestão e as inter-relações e características de suas diversas áreas, focando mais detalhadamente a área de manufatura. Também será apresentado um estudo de caso em que é analisada a transformação de uma planta para usinagem de blocos e cabeçotes para motores diesel em Manufatura de Classe Mundial, discorrendo brevemente sobre as principais técnicas utilizadas nesse processo e os resultados obtidos. Palavras-chave: MANUFATURA CLASSE MUNDIAL – MANUFATURA ENXUTA – EMPRESA CLASSE MUNDIAL. ABSTRACT – The goal of this work is to suggest an “World Class Enterprise” concept for auto parts industry discoursing on about its management system the interrelations and characteristics of its several areas with a focus in the manufacturing area. Also, it will be presented a case study where it is analyzed the transformation of a diesel engine blocks and heads machining plant in “ World Class Manufacturing” telling briefly about the main techniques used in this process and the results achieved. Keywords: WORLD CLASS MANUFACTURING – LEAN MANUFACTURING – WORLD CLASS ENTERPRISE. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 133 g y p QUALIDADE DE VIDA NO TRABALHO: UM ESTUDO EM UMA EMPRESA DO SETOR DE AUTOPEÇAS Quality of working life: a case etudy on the automotive e suppliers WALDIR RECHZIEGEL Universidade Metodista de Piracicaba ORIENTADORA: ROSÂNGELA MARIA VANALLE Universidade Metodista de Piracicaba [email protected] RESUMO – Este estudo analisa a qualidade de vida no trabalho em uma empresa do setor de autopeças da região de Campinas-SP, bem como suas políticas de recursos humanos. O maior objetivo é examinar a satisfação dos funcionários com a qualidade de vida no trabalho e as principais políticas de recursos humanos adotadas por uma empresa de autopeças para enfrentar a intensificação da competitividade que se instalou durante a última década. A satisfação é um processo de ordem psicossocial essencial para a cultura e clima das empresas. A metodologia utilizada é o estudo de caso de caráter exploratório e descritivo. Para a coleta de dados realizou-se uma pesquisa de campo através de questionários, sendo dados avaliados pela análise descritiva e pela de correspondência múltipla. Os resultados obtidos sobre as políticas de recursos humanos da empresa revelam que elas se assemelham com o modelo de gestão estratégica de recursos humanos. O estudo leva à conclusão de que há elevada satisfação dos funcionários com a qualidade de vida no trabalho e que isso é resultado do conjunto de políticas e práticas de recursos humanos adotadas pela empresa, as quais exercem uma influência positiva na competitividade da empresa. Palavras-chave: QUALIDADE DE VIDA NO TRABALHO – RECURSOS HUMANOS – SATISFAÇÃO – AUTOPEÇAS. ABSTRACT – This work analyzes the quality of working life and the human resources policies in an autoparts company in the region of Campinas-SP. The main objective of the study is to assess the satisfaction of the employees with the quality of working life and the main human resources policies adopted by an autoparts company, to face the competitiveness intensification settled during this decade. The satisfaction is a psychosocial process that is essential for the culture and climate of the companies. The methodology used is the case study of exploratory and descriptive character. For the data collection a field research was done through questionnaires and the data were analyzed by descriptive and multiple correspondences analysis. The results obtained reveal that the company human resources policies are similar to the model of strategic human resources management. The study shows that there is a high satisfaction level among the employees with the quality of working life. It also shows that this satisfaction is the result of the combination of human resources policies and practices adopted by the company, which ends up exerting a positive influence in the company competitiveness. Keywords: QUALITY OF WORKING LIFE – HUMAN RESOURCES – SATISFACTION – AUTOPARTS. 134 Dezembro• 2000 g y p IMPLEMENTAÇÃO DO JUST-IN-TIME EM UMA EMPRESA FABRICANTE DE ARMAÇÕES DE ÓCULOS Implementation of Just-in-time within an eyeglass frame manufacturing company MOACIR PEREIRA Universidade Metodista de Piracicaba [email protected] ORIENTADOR: SÍLVIO ROBERTO IGNÁCIO PIRES Universidade Metodista de Piracicaba [email protected] RESUMO – Atualmente, em um mercado globalizado, no qual as mudanças ocorrem de maneira rápida, as empresas devem ser flexíveis para manufaturar uma gama de diferentes produtos a baixos custos e com altos níveis de qualidade. O Just-in-time é um sistema que visa a um programa de produção consistente, estimulando a produtividade, eliminando estoques ociosos e melhorando a qualidade do produto. Um dos elementos deste sistema é o Kaban, um meio de informação que tem como objetivo programar e controlar a produção, reduzir e controlar o estoque. O presente trabalho relata o processo de implementação do Kaban em uma empresa metalúrgica, viabilizando a redução dos estoques e aumentando a responsabilidade dos operadores na produção de cada componente da produção. Palavras-chave: JUST-IN-TIME – KABAN – PRODUTIVIDADE – ESTUDO DE CASO. ABSTRACT – Nowadays, in a globalized market, where changes happen fastly, companies should be flexible to manufacture a range of different products at low costs and with high quality level. Just-in-time is a system, which aims at a consistent production, stimulating productivity, eliminating idle stocks and improving product quality. Kaban is one of the elements of the system, and it is an information method whose objective is to program production, reduce and control stocks. This work deals with the Kaban implemetation process in a metallurgical company, allowing stocks reduction and increasing the operators responsability when producing each compnent of the finished product. Keywords: JUST-IN-TIME – KABAN – PRODUTIVITY – CASE STUDY. REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 119-135 135 g 136 y p Dezembro• 2000 g y p Revista de Ciência & Tecnologia NORMAS PARA PUBLICAÇÃO PRINCÍPIOS GERAIS 1. A REVISTA DE CIÊNCIA & TECNOLOGIA tem por objetivo publicar trabalhos que contribuam para o desenvolvimento científico e tecnológico nas áreas de Ciências Exatas, Engenharia, Tecnologia e Arquitetura e Urbanismo. 2. Os temas podem ser apresentados através dos seguintes tipos de artigos: • ensaio: artigo teórico sobre determinado tema; • relato: artigo sobre pesquisa experimental concluída ou em andamento; • revisão de literatura: levantamento do estágio atual de determinado assunto e compilação crítica de dados experimentais e propostas teóricas recentes; • resenha: comentário crítico de livros e/ou teses; • carta: comentário a artigos relevantes publicados anteriormente. 3. Os artigos devem ser inéditos, sendo vedada sua publicação em outras revistas brasileiras. A publicação do mesmo artigo em revistas estrangeiras deverá contar com a autorização prévia da Comissão Editorial da RC&T. 4. A aceitação do artigo depende dos seguintes critérios: • adequação ao escopo da revista; • qualidade científica ou tecnológica avaliada pela Comissão Editorial e por processo anônimo de avaliação por pares (peer review), com consultores não remunerados, especialmente convidados, cujos nomes são divulgados anualmente, como forma de reconhecimento; • cumprimento da presente Norma. Os autores serão sempre informados do andamento do processo de avaliação e seleção dos artigos e os originais serão devolvidos nos casos de sua não aceitação. 5. Os artigos devem considerar como unidade padrão a página A4, com margens 2,5 cm, pará- REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 137-140 grafo justificado, fonte Times New Roman, tamanho 12, digitada em espaço 1,5 e em editor Word 97 for Windows, sem qualquer formatação especial. Os artigos devem ter as seguintes dimensões: • ensaio e relato: de 12 a 20 páginas-padrão, nelas incluídas todas as subdivisões dos capítulos, figuras, tabelas e referências bibliográficas; • revisão de literatura: de 10 a 15 páginaspadrão, nelas incluídas todas as subdivisões dos capítulos, figuras, tabelas e referências bibliográficas; • resenha e carta: de 2 a 4 páginas-padrão. 6. Os artigos podem sofrer alterações editoriais não substanciais (reparagrafações, correções gramaticais e adequações estilísticas), que não modifiquem o sentido do texto. O autor será solicitado a revisar as mudanças eventualmente introduzidas. 7. Não há remuneração pelos trabalhos. O autor de cada artigo recebe gratuitamente 3 (três) exemplares da revista; no caso de artigo assinado por mais de um autor, são entregues 5 (cinco) exemplares. O(s) autor(es) pode(m) ainda comprar outros exemplares com desconto de 30% sobre o preço de capa. 8. Os artigos devem ser encaminhados pelo Correio para: Comissão Editorial da RC&T A/c: prof. Nivaldo Lemos Coppini Unimep – Campus Santa Bárbara d’Oeste Km 1, Rod. Santa Bárbara d’Oeste/Iracemápolis CEP:13450-000 – Santa Bárbara d’Oeste através de ofício, do qual deve constar: • declaração de cessão dos direitos autorais para publicação na revista; • declaração de concordância com as Normas para Publicação da RC&T. Opcionalmente, os artigos e as declarações poderão ser encaminhadas através de arquivos “atachados” para o e-mail [email protected]. 137 g y p ESTRUTURA SÕES, CONCLUSÕES, NOTAS e REFERÊNCIAS BIBLIOGRÁFICAS. No caso de Resenhas, o texto deve conter todas as informações para identificação do livro comentado (autor; título, tradutor, se houver; edição, se não for a primeira; local; editora; ano; total de páginas; e título original, se houver). No caso de teses/dissertações, segue-se o mesmo princípio, no que for aplicável, acrescido de informações sobre a instituição na qual tiver sido produzida. 9. Cada artigo deve conter os seguintes elementos: Identificação: • • Nome do(s) autor(es); Telefone, e-mail e endereço do(s) autor(es) para contato; • Titulação acadêmica; função e origem (instituição e unidade) do(s) autor(es); • Título e, se for o caso, subtítulo: precisa(m) indicar claramente o conteúdo do texto e ser(em) conciso(s) (título: no máximo 10 palavras; subtítulos: no máximo 15 palavras) • Subvenção: menção de apoio e financiamento eventualmente recebidos; • Agradecimentos, apenas se absolutamente indispensáveis. Esses elementos devem ser apresentados em folha separada, pois contêm dados que não serão divulgados aos consultores. Após a aceitação do artigo, os dados serão incluídos para publicação. O texto deve conter: • Título e, se for o caso, subtítulo em português e inglês, qualquer que seja o idioma utilizado dentre os determinados por estas normas, bem como os limites de palavras acima definidos; • Resumo em português e Abstract em inglês, qualquer que seja o idioma utilizado no texto dentre os determinados por estas normas. Conterão entre 150 a 200 palavras com a mesma formatação da página padrão acima definida; • Para fins de indexação, o autor deve indicar no mínimo três e no máximo seis palavraschave logo após a apresentação do Resumo, e, posteriormente ao Abstract, sua versão para o inglês (keywords). • O texto pode ser escrito em português, inglês ou espanhol e deve estar subdividido em: INTRODUÇÃO, DESENVOLVIMENTO, CONCLUSÃO e REFERÊNCIAS BIBLIOGRÁFICAS. Cabe ao autor criar os intertítulos para o seu trabalho: em letras maiúsculas e sem numeração. No caso de Relatos, podem ter as seguintes seções: INTRODUÇÃO, METODOLOGIA (ou MATERIAIS E MÉTODOS), RESULTADOS, DISCUS- 138 DOCUMENTAÇÃO 10. O artigo poderá apresentar notas explicativas.1 Elas devem ser indicadas por numeração seqüencial sobrescrita e apresentadas no rodapé da página, com a mesma formatação da página padrão. O artigo precisa apresentar as referências bibliográficas de acordo com a norma NBR 6.023/1989 da ABNT, em sua versão exemplificada abaixo, que consiste em fazer a citação da referência ao longo do texto: Para se ter uma idéia do avanço nesta direção, até novembro de 1997, inúmeras empresas foram certificadas conforme uma das normas de série ISO 9000 (Emmanuel, 1997). Entretanto, requisitos da Qualidade, segundo Brederodes (1996), não estão somente restritos à esfera da ISO 9000. As Referências Bibliográficas deverão ser apresentadas em ordem alfabética pelo sobrenome dos autores. I– Sobrenome do autor (maiúsculo), nome (minúsculo). Título da obra (itálico). Tradutor, edição, cidade em que foi publicado: editora, ano de publicação. Ex.: HOBSBAWM, E.J. Era dos Extremos: o breve século XX; 1914-1991. Trad. Marcos Santarrita, São Paulo: Companhia das Letras, 1995. Obs.: sendo 1.ª edição, esta não deve ser indicada. II– Designação de parentes não pode abrir referência bibliográfica. Ex.: JUNQUEIRA NETTO, P.... Sobrenome composto: CASTELLO BRANCO, H. de,... 1 As notas explicativas devem ser apresentadas desta forma. Dezembro • 2000 g y p VILLA-LOBBOS, H.,... III– Obras escritas por dois autores. Ex.: ARANHA, M.L. de A. & MARTINS, M.H.P. Filosofando: introdução à Filosofia. São Paulo: Moderna, 1986. IV– Obras escritas por três ou mais autores. Coloca-se o nome do primeiro autor, seguido da expressão et al. Ex.: PIRES, M.C.S. et al. Como fazer uma Monografia. 4.ª ed., São Paulo: Brasiliense, 1991. Se houver um responsável pela obra (coordenador ou organizador): GENTILI, P. (org.). Pedagogia da Exclusão: o neoliberalismo e a crise da escola pública. Petrópolis: Vozes, 1995. V– Artigos de revistas e jornal. Revista: sobrenome do autor (maiúsculo), prenome. Título do artigo, título do jornal (itálico), local, volume (número/fascículo): páginas incursivas, ano. Ex. com autor: ZAMPRONHA, M.L.S. Música e semiótica. Arte, Unesp, Rio Claro, 6: 105-128, 1990. Ex. sem autor: Máquinas paradas braços cruzados. Atenção, Página Aberta, ano 2, (7): 10-17, 1996. COSTA, M. da. A educação em tempos de conservadorismo. In: GENTILI, P. Pedagogia da Exclusão: crítica ao neoliberalismo em educação em educação. Petrópolis: Vozes, 1995. VII– Enciclopédia e dicionário. GRANDE ENCICLOPÉDIA DELTA LAROUSSE. Rio de Janeiro, Delta, 1974, v. 7, p. 2.960. FERREIRA, A.B.H. Novo Dicionário da Língua Portuguesa. Rio de Janeiro: Nova Fronteira, 1975, p. 397. VIII– Fontes eletrônicas A documentação de arquivos virtuais deve conter as seguintes informações, quando disponíveis: • sobrenome e nome do autor; • título completo do documento (entre aspas); • título do trabalho no qual está inserido (em itálico); • data (dia, mês e/ou ano) da disponibilização ou da última atualização; • endereço eletrônico (URL) completo (entre parênteses angulares); • data de acesso (entre parênteses). Exemplos : Site genérico LANCASHIRE, I. Home page. Sept. 13, 1998. <http:// www.chass.utoronto.ca:8080/~ian/ index.html> (10/dez./98). Jornal: sobrenome do autor (maiúsculo), prenome, título do artigo, título do jornal (itálico), local, dia, mês, ano, número ou título do caderno, seção ou suplemento, página inicial-final. Ex. com autor: Artigo de origem impressa FRIAS FILHO, O. Peça de Calderón sintetiza teatro barroco. Folha de S.Paulo, São Paulo, 23/out./91, Ilustrada, p. 3. ENCICLOPÉDIA ENCARTA 99. São Paulo: Microsoft, 1999. Verbete “Abolicionistas”. CD-rom. Ex. sem autor: Duas economias, duas moedas. Gazeta Mercantil, São Paulo, 31/jan./97, p. 7. VI– Capítulo de um livro escrito por um único autor. Substituir o nome do autor depois do “in” por um travessão de três toques. Ex.: ECO, U. A procura do material. In: ________. Como se faz uma tese em ciências humanas, 4.ª ed. Lisboa: Presença, 1988. VII– Autor do capítulo diferente do responsável pelo livro. Sobrenome do autor (maiúsculo) que realizou o capítulo, prenome. Título do capítulo. In (sobrenome do organizador do livro em maiúsculo), nome, título do livro (itálico), edição, local de publicação, editora, data. Ex.: REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 – pp. 137-140 COSTA, Florência. Há 30 anos, o mergulho nas trevas do AI-5. O Globo, 6.12.98. <http:// www.oglobo.com.br> (6/dez./98). Dados/textos retirados de CD-rom Artigo de origem eletrônica CRUZ, Ubirajara Buddin. “The Cranberries: discography”. The Cranberries: images. Feb./97. <http:// www.ufpel.tche.br/~bira/cranber/ cranb_04.html> (12/jul./97) . OITICICA FILHO, Francisco. “Fotojornalismo, ilustração e retórica”. <http://www.transmidia.al.org.br/ retoric.htm> (6/dez./98). Livro de origem impressa LOCKE, John. A Letter Concerning Toleration. Translated by William Popple. 1689. <http://www.constitution.org/jl/tolerati.htm>. Livro de origem eletrônica GUAY, Tim. A Brief Look at McLuhan's Theories. WEB Publishing Paradigms. <http://hoshi.cic.sfu.ca/ ~guay/Paradigm/McLuhan.html> (10/dez./ 98). 139 g y p KRISTOL, Irving. Keeping Up With Ourselves. 30/jun/96. <http://www.english.upenn.edu/~afilreis/ 50s/kristol-endofi.html> (7/ago./98). Verbete ZIEGER, Herman E. “Aldehyde”. The Software Toolworks Multimedia Encyclopedia. Vers. 1.5. Software Toolworks. Boston: Grolier, 1992. “Fresco”. Britannica Online. Vers. 97.1.1. Mar./97. Encyclopaedia Britannica. 29/mar./97. http:// www.eb.com:180. E-mail BARTSCH, R. <[email protected]> “Normas técnicas ABNT – Internet”. 13/nov./98. Comunicação pessoal. Comunicação sincrônica (MOOs, MUDs, IRC etc.) ARAÚJO, Camila Silveira. Participação em chat no IRC #Pelotas. <http://www.ircpel.com.br> (2/ set./97). lista de discussão SEABROOK, Richard H. C. <[email protected]> “Community and Progress”. 22/jan./94. <[email protected]> (22/ jan./94). FTP (File Transfer Protocol) BRUCKMAN, Amy. “Approaches to Managing Deviant Behavior in Virtual Communities”. <ftp:// ftp.media.mit.edu/pub/asb/papers/deviancechi-94> (4/dez./94). Telnet GOMES, Lee. “Xerox's On-Line Neighborhood: A Great Place to Visit”. Mercury News. 3 May 1992. telnet lamba.parc.xerox.com 8888, @go #50827, press 13 (5/dec./94). Gopher QUITTNER, Joshua. “Far Out: Welcome to Their World Built of MUD”. Newsday, 7/nov./93. gopher University of Koeln/About MUDs, MOOs, and MUSEs in Education/Selected Papers/ newsday (5/dec./94). Newsgroup (Usenet) SLADE, Robert. <[email protected]> “UNIX Made Easy”. 26 Mar.1996. <alt.books.reviews> (31/mar./96). APRESENTAÇÃO 11. O encaminhamento de artigos passa por várias ETAPAS: • Apresentar três (3) cópias paginadas para apreciação prévia, dispostas pelas normas. Se aceito preliminarmente pela Comissão Edito- 140 rial, o artigo é submetido à apreciação por processo anônimo de avaliação por pares (peer review), sendo posteriormente devolvido ao autor para eventual revisão. • Após a revisão, deve-se apresentar uma via do texto impressa e outra em disquete, com arquivo gravado no formato Word 97 for Windows. Encaminhar também via do texto definitivo em papel, destacando as correções efetuadas com base nas alterações sugeridas pelos consultores, para facilitar a conferência. O trecho corrigido deverá ser grifado com tinta vermelha, ou marcado com cor vermelha da fonte através do editor de texto, ou ainda marcado com caneta “hidrocor destaca texto”. Concluído o processo de editoração, o autor recebe uma prova final que lhe será submetida à aprovação. • Caso o artigo seja vetado pela Comissão Editorial, é encaminhada justificativa ao(s) autor(es) juntamente com a devolução do texto original. 12. As ILUSTRAÇÕES (tabelas, gráficos, desenhos, mapas e fotografias) necessárias à compreensão do texto devem ser numeradas seqüencialmente com algarismos arábicos e apresentadas, de modo a garantir uma boa qualidade de impressão. Precisam ter título conciso, grafado em minúsculas. 13. TABELAS devem ser editadas em Word 97 for Windows ou Excel. Sua formatação precisa estar de acordo com as dimensões da revista. Devem vir inseridas nos pontos exatos de suas apresentações ao longo do texto. 14. GRÁFICOS e DESENHOS, além da inclusão nos locais exatos do texto (cópia impressa e disquete), precisam ser enviados em seus arquivos originais em separado (p.ex.: Excel, CorelDraw, PhotoShop, PaintBrush etc.). 15. As FOTOGRAFIAS devem oferecer bom contraste e foco nítido e precisam ser fornecidas em arquivos em formato “tif” ou “gif”. 16. Outras informações poderão ser conseguidas através da secretaria da Comissão Editorial da RC&T pelos telefones (19) 430-1767 ou 4301770 ou ainda através do e-mail [email protected]. Dezembro • 2000 g y p Revista de Ciência & Tecnologia CORPO DE CONSULTORES ARQUITETURA E URBANISMO João Moreno (UNIMEP) Renata Faccini de Camargo (UNIMEP) CIÊNCIAS ECONÔMICAS Antônio Carlos Sacilotto (UNIMEP) Angela Maria C. Jorge Correa (UNIMEP) ENGENHARIA CIVIL Sueli do Carmo Bettine(PUC) ENGENHARIA DE ALIMENTOS Tais Lacerda (UNIMEP) Carlos Alberto Gasparetto (Unicamp) ENGENHARIA DE PRODUÇÃO Alceu Gomes Filho (UFSCar) Edjar Martins Telles (USP) Felipe Araujo Calarge (UNIMEP) Gilberto Martins (UNIMEP) Jefferson Ozone Mortatti (USP) João Alberto Camarotto (UFSCar) José Antonio Arantes Salles (UNIMEP) José Arnaldo Barra Montevechi (EFEI) José Luiz Duarte Ribeiro (UFRGS) Luis Carlos da Cunha Colombo (UNIMEP) Luiz César Carpinetti (USP) Milton Vieira Júnior (UNIMEP) Mitsuo Serikawa (UNIMEP) Nelson Carvalho Maestrelli (UNIMEP) Neócles Alves Pereira (UNIMEP) Nivaldo Lemos Coppini (UNIMEP) Paulo C. Miguel (UNIMEP) Paulo Corrêa Lima (Unicamp) Paulo Jorge Moraes Figueiro (UNIMEP) Rosângela Maria Vanalle (UNIMEP) Sílvio Roberto Ignácio Pires (UNIMEP) ENGENHARIA ELÉTRICA Afonso de Oliveira Alonso (Unicamp) Álisson Rocha Machado (UFU) Álvaro José Abackerli (UNIMEP) Anselmo Eduardo Diniz (Unicamp) REVISTA DE CIÊNCIA & TECNOLOGIA • V. 8, Nº 16 Antonio Batocchio (Unicamp) Benedito de Moraes Purquério (USP) Benedito Di Giacomo (USP) Carlos Alberto Gasparetto (Unicamp) Eduardo Vila Gonçalves Filho (USP) ENGENHARIA MECÂNICA Francisco José de Almeida (UNIMEP) Klaus Schützer (UNIMEP) Marco Stipkovic Filho (USP) Olivio Novaski (Unicamp) Reginaldo Texeira Coelho (USP) Rosalvo Tiago Ruffino (USP) Roseana da Exaltação Trevisan (Unicamp) Roxana Maria Martinez Orrego (UNIMEP) Waldir Luiz Ribeiro Gallo (Unicamp) Yaro Burian Júnior (Unicamp) FÍSICA Ana Elisa Vives Carneiro (UNIMEP) Antônio Ludovico Beraldo (Unicamp) Aparecido dos Reis Coutinho (UNIMEP) Lorival Fante Júnior (UNIMEP) Maria Guiomar Carneiro Tornazello (UNIMEP) Milton Grecchi (UNIMEP) MATEMÁTICA, ESTATÍSTICA E COMPUTAÇÃO Angela M.C. Jorge Corrêa (UNIMEP) Armando M. Infante (Unicamp) Frankilina Maria Bragion de Toledo (FMEP) Maria Cristina Aranda Batocchio (Unicamp) Maria de Fátima Nepomucemo (UNIMEP) Maria Imaculada Monte Bello (UNIMEP) Nelson Nepomuceno (UNIMEP) Waldo Luis de Lucca (UNIMEP) QUÍMICA E ENGENHARIA QUÍMICA Ana Célia Ruggiero (Unimep) Ines Joekes (Unicamp) Sandra Maria Boscolo Brienza (Unimep) Sônia Maria Malmonge (Unimep) 141