TRIM Tordesillas Revista de Investigación Multidisciplinar 5 (2012) TRIM Tordesillas Revista de Investigación Multidisciplinar Directora M.ª Francisca Blanco (Universidad de Valladolid) Secretario Técnico Jesús F. Pascual Molina (Universidad de Valladolid) Comité científico José M. Aroca (Universidad de Valladolid) Dora Giordano (Universidad de Buenos Aires) Juan Luis González García (Universidad Autónoma de Madrid) Emily McClung (Universidad Autónoma de México) Luis Manuel Navas (Universidad de Valladolid) Fernando Rull (Universidad de Valladolid) Marcio Soares (Universidade Federal de Minas Gerais) Miguel Á. Zalama (Universidad de Valladolid) TRIM se edita por el Centro “Tordesillas” de Relaciones con Iberoamérica, de la Universidad de Valladolid (http://ctri.uva.es) Licencia Creative Commons. ISSN 2173-8947. TRIM aparece indexada en las bases de datos y repositorios: LATINDEX y DICE. TRIM no se responsabiliza de los juicios y opiniones expresados por los autores en sus artículos y colaboraciones. Índice Página Los fractales y el diseño en las construcciones 5 Fractals and design in constructions Rufino Iturriaga y Carina Jovanovich Dos modelos para determinar la eficiencia de una empresa constructora 21 Two models to determine the efficiency of a construction firm Carmen Rescala, Gustavo Devincenzi, Gricela Rohde, M.ª Liliana Bonaffini, Marta V. Giraudo, Gustavo Bernaola y Rita Pavón (becaria) Probabilidades no Esporte Probabilidades no Esporte Bernardo Nunes Borges de Lima, Gilcione Nonato Costa, Rafael Nacife, Renato Vidal Martins y Rodrigo Guimarães 39 4 LOS FRACTALES Y EL DISEÑO EN LAS CONSTRUCCIONES Fractals and design in constructions RUFINO ITURRIAGA 1 Y CARINA JOVANOVICH2 Aún no lo sabemos todo acerca de los fractales; tampoco el hombre ha terminado de descubrirse. ! Resumen ! En las décadas más recientes, la geometría fractal se ha sumado a la geometría clásica de Euclides de Alejandría, siendo considerada por arquitectos de todo el mundo en sus propuestas y creaciones. ! En este trabajo se busca establecer una relación entre la geometría fractal y el di- seño arquitectónico de una manera informativa, sin detalles matemáticos más que los puntos esenciales, necesarios para su entendimiento y correcta interpretación. Palabras Clave: Fractales, Arquitectura, Geometría. ! Abstract ! In recent decades, fractal geometry has joined classical geometry of Euclid of Alex- andria, being considered by architects from around the world in their proposals and creations. ! This paper seeks to establish a relationship between fractal geometry and architec- tural design of a informational way, without mathematical details, only the essentials points necessary for correct understanding and interpretation. Key Words: Fractals, Architecture, Geometry. 1 Ingeniero Electromecánico, Facultad de Arquitectura, UNNE, Resistencia, Chaco, Argentina. [email protected]. 2 Licenciada en Tecnología Educativa, Especialista en Investigación Educativa, Facultad de Arquitectura, UNNE, Resistencia, Chaco, Argentina. [email protected] TRIM, 5 (2012), pp. 5-19 6 ! ! Rufino Iturriaga y Carina Jovanovich Concepto y Características. El término fractal es un vocablo derivado del latín, fractus (participio pasado de frangere), que significa quebrado o fracturado y se lo utiliza para designar a objetos “semigeométricos” cuya estructura básica se repite a diferentes escalas. No es sencillo encontrar una definición rigurosa para los fractales, de hecho, no existe aún una definición universalmente aceptada por el mundo matemático. En el capítulo 5 de su obra La Geometría Fractal de la Naturaleza, el célebre matemático Benoit Mandelbrot3 trata un ejemplo sobre la longitud de la costa de Gran Bretaña4 , en la cual, a través de un relato anecdótico brinda una impresión sencilla para obtener un claro concepto acerca de los fractales. Al respecto de la longitud de la costa, el autor Clifford A. Pickover establece: Si se intentara medir una costa o límite entre dos naciones, el valor de esta medición dependería de la longitud de la vara de medir utilizada. Conforme la vara de medida disminuyera en longitud, la medida sería más sensible a las curvas cada vez más pequeñas del contorno y, en principio, la longitud de la costa tendería a infinito conforme la longitud de la vara se acercara a cero. El matemático británico Lewis Richardson consideró este fenómeno en su intento de establecer una correlación entre la aparición de guerras y la frontera que separa dos o más naciones (llegó a la conclusión de que el número de guerras de un país era proporcional al número de países con los que limita). A partir del trabajo de Richardson, el matemático franco-estadounidense Benoit Mandelbrot, añadió y sugirió que la relación entre la longitud de la vara de medir y la longitud total aparente de una costa podía expresarse a través del parámetro D, la dimensión fractal.”5 3 Benoit B. Mandelbrot nació en 1924 en Varsovia, Polonia, en el seno de una familia judía y fue educado bajo la tutela de su tío, Szolem Mandelbrot, reconocido profesor de Matemática en el Colegio de Francia, el mismo que le recomendó que leyera la tesis de doctorado que Gaston Julia (1883-1978) había publicado en 1918 sobre iteración de funciones racionales. En 1977, durante su trabajo en el Laboratorio de IBM de Yorktown Heigths, New York, Mandelbrot pudo demostrar como el trabajo de Julia constituye la fuente de los fractales más hermosos conocidos hasta el momento. En 1982 publicó su libro Fractal Geometry of Nature, en el que explicaba sus investigaciones en este campo. Entre 1985 y 1991 recibió numerosas distinciones, entre las que se destacan el premio Barnard Medal for Meritorious Service to Science, la Franklin Medal, el premio Alexander von Humboldt, la Medalla Steindal y la Medalla Nevada. En el año 2004 su obra Fractales y Finanzas fue elegida como mejor libro de economía del año por la versión alemana del Financial Times. Fue profesor en la Universidad de Harvard, Yale, el Colegio Albert Einstein de Medicina y otros. Falleció en octubre de 2010 en Cambridge, Massachusetts, Estados Unidos. 4 Ideas expuestas originalmente en su trabajo “How long is the coast of Britain? Statistical self-similarity and fractional dimension”, Science, 156 (1967), pp. 636-638. 5 Clifford A. Pickover (2011) “La paradoja de la línea de costa” en: El libro de las Matemáticas. Librero b.v. Holanda, p. 402. TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 7 En el intento de una definición, hay que considerar dos propiedades que los objetos presentan: la autosimilitud y la “dimensión extraña”. El término autosimilitud (que puede ser entendido también como autosemejanza) está relacionado a la propiedad de un objeto de presentar en sus partes la misma forma o estructura que el todo, aunque pueden encontrarse a diferentes escalas y ligeramente deformadas en algunos casos. Se mencionarán tres tipos diferentes de autosimilitud: •Autosimilitud exacta: es el tipo más restrictivo y exige que el fractal parezca idéntico a diferentes escalas (sistemas de funciones iteradas). Ejemplo: conjunto de Cantor, triángulo de Sierpinski, copo de nieve de Von Koch y otros. •Cuasiautosimilitud: exige que el fractal parezca aproximadamente idéntico a diferentes escalas (fractales definidos por relaciones de recurrencia). Ejemplo: conjunto de Julia, conjunto de Mandelbrot y otros. •Autosimilitud estadística: es el tipo más débil y exige que el fractal tenga medidas numéricas o estadísticas que se preserven con el cambio de escala (fractales aleatorios). Ejemplo: el vuelo de Levy, paisajes fractales, árboles brownianos y otros. ! ! Considérese en primer término un triángulo equilátero que no contenga “huecos” en su interior; entiéndase como tal un triángulo “lleno” (Figura 1). Si los puntos medios de cada uno de los lados de los triángulos son unidos por medio de segmentos, se notará que dentro del triángulo inicial quedan Figura 1: El triángulo de Sierpinski. Secuencia de generación. Imagen: http://batchdrake.wordpress.com formados cuatro triángulos más pequeños, de los cuales se eliminará el del medio (el que está invertido respecto de los otros). Si en cada uno de los tres triángulos llenos que han resultado del proceso descripto, se repite el procedimiento, se notará que resultan nueve triángulos más pequeños. Con una nueva iteración, el número de triángulos llenos llega a veintisiete y se puede seTRIM, 5 (2012), pp. 5-19 8 ! Rufino Iturriaga y Carina Jovanovich guir de la misma manera, obteniendo como resultado un número creciente de triángulos cada vez más pequeños. Nótese además que, por cada iteración que se efectúe aparecen diferentes tamaños en los triángulos vacíos. Está claro que el proceso es infinito, sin embargo a partir de las iteraciones de orden cuatro o cinco se puede tener una idea de cómo será la figura límite. Si se continúa iterando será difícil distinguir las diferencias a simple vista entre un paso y el siguiente. En el dibujo se pueden apreciar muchas copias de sí mismo en el interior, lo cual permite afirmar que se halla formado por copias de sí mismo que se encuentran a diferentes escalas y en ocasiones cambiadas de posición, dependiendo del orden de iteración que se represente. Este es el concepto de autosimilitud, la primera de las propiedades mencionadas. Es posible afirmar que se trata de una noción muy sencilla e intuitiva, pues seguramente todas las personas en algún momento la han percibido en diferentes contextos naturales, como nubes, olas, vegetales, etc6 . El triángulo analizado se conoce con el nombre de triángulo de Sierpinski7 . De manera similar se pueden estudiar otros fractales muy conocidos, el pentágono de Dürer, la alfombra de Sierpinski, el copo de nieve de Von Koch y muchos más, en todos ellos se percibe en mayor o menor grado que el todo es igual a sus partes, salvo un factor de escala. Desde muy temprano en la educación matemática se aprende que un punto tiene dimensión 0, que una línea tiene dimensión 1, que las figuras planas tienen dimensión 2 y que las espaciales tienen dimensión 38. Estas dimensiones que corresponden a números enteros y son invariantes ante homeomorfismos9 , son conocidos con el nombre de dimensión topológica y refiere precisamente al concepto habitual de dimensión que se tiene incorporado, pero la dimensión topológica no es la única que existe. Tomando un cuadrado, el mismo puede ser dividido en cuatro cuadrados congruentes y decir que el factor de ampliación es 2, o de manera similar, si se descompone en nueve triángulos congruentes 6 Al respecto, Mandelbrot establece: “Un fractal es una clase especial de invariancia o simetría que relaciona un todo con sus partes: el todo puede descomponerse en partes que evocan el todo. Piénsese en una coliflor: cada racimo puede separarse y es, en sí mismo, una coliflor en miniatura. Los pintores, entrenados en observar la naturaleza de cerca, ya sabían esto sin esperar a que la ciencia se lo dijera”, De Benoit Mandelbrot – Richard L. Hudson. (2006). Fractales y Finanzas. Barcelona (España). Editorial Tusquets, p. 140. 7 Waclaw Sierpinski (1882id – 1969): matemático polonés nacido en Varsovia. Fue uno de los fundadores de la escuela matemática moderna polaca y contribuyó al progreso de la teoría de conjuntos y de la topología; favoreció la consolidación de los fundamentos lógicos de la matemática. Uno de los cráteres de la Luna lleva su nombre. 8 Algunos autores afirman que el conjunto vacío tiene una dimensión igual a -1. 9 Recuérdese que, si X e Y son espacios topológicos y f una función de X a Y, entonces ⨍ es un homeomorfismo si se cumple que: ⨍ es una biyección, ⨍ es continua y además la inversa de ⨍ es continua. TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 9 al cuadrado inicial, se dice que el factor de ampliación es 3. Como generalidad se puede expresar que el cuadrado se puede descomponer en n² copias de sí mismo. Si se hace un razonamiento análogo a partir de un cubo, el mismo se puede descomponer en n³ partes iguales. Así, se puede generalizar la fórmula: en la que: N: número de copias semejantes a la figura original. n: factor de ampliación que se debe aplicar para obtener la figura original. D: dimensión fractal. La cual se conoce como dimensión fractal y que corresponde a una simplificación del concepto de dimensión que utilizó Haussdorf10. La definición de Mandelbrot: “un fractal es un conjunto cuya dimensión de Hausdorff es estrictamente mayor que su dimensión topológica” es ampliamente aceptada (Figura 2), sin embargo el mismo autor señaló que no resulta una definición lo suficientemente general ya que la misma presenta el inconveniente de excluir conjuntos que claramente debieran ser reconocidos como fractales. Como generalidad se acuerda en no definir un fractal, aunque es posible enumerar sus propiedades características: • Los fractales son demasiado irregulares para ser descriptos con la geometría tradicional de Euclides. • Los fractales tienen una cierta forma de auto-semejanza, quizás aproximada o estadística. • Por lo general, la dimensión fractal es mayor que la dimensión topológica. • En muchos casos, el fractal se define en forma muy simple, por lo general, recursiva. 10 Felix Hausdorff (1868-1942): matemático de origen judío, profesor en Universidad de Bonn y uno de los responsables de la fundación de la topología moderna, célebre por su trabajo en el análisis funcional y la teoría de los conjuntos. En 1918 introdujo la dimensión de Hausdorff que se utiliza para medir las dimensiones fraccionarias de los conjuntos fractales. En 1942, a punto de ser enviado a un campo de concentración nazi, se suicidó junto a su esposa. El día anterior, Hausdorff escribió a un amigo: “Perdónanos. Te deseamos a ti y a todos nuestros amigos mejores tiempos” Muchos de los enfoques utilizados para calcular la dimensión de Hausdorff en relación con conjuntos complicados, fueron formulados por el matemático ruso Abram Besicovitch (1891-1970), por lo cual a veces se utiliza el término “dimensión de Hausdorff-Besicovitch”. TRIM, 5 (2012), pp. 5-19 10 ! Rufino Iturriaga y Carina Jovanovich ! Las aplicaciones de los fractales han crecido exponencialmente y se expandió a diferentes ramas de las artes y las ciencias. Existen teorías basadas en fractales que DT=2 ; DH=2 ; DH=DT DT=1 ; DH~2 ; DH>DT Figura 2: Comparación de dimensiones. Imagen: http://www.dma.fi.upm.es/sonia/practicas/clasics-I/sierpinski.html regulan el enorme tráfico de las comunicaciones, comprimen las señales de audio y vídeo, explican el crecimiento de tejidos biológicos, analizan el comportamiento de ondas sísmicas, movimientos de mercado, bursátiles y más. Son ampliamente conocidas las pinturas de fractales e incluso hay música surgida de ellos. Todos los fractales tienen algo en común, ya que todos son el producto de la iteración, repetición, de un proceso geométrico elemental que da lugar a una estructura final de una complicación aparente extraordinaria. Utilizando algún software para la construcción de fractales, se llegará a la conclusión de que no existen programas que permitan una iteración infinita, lo cual grafica perfectamente lo que ocurre con los fractales naturales. Existen en la naturaleza objetos que presentan características fractales. Si se toma una rama de algún árbol, se verá que la misma presenta una apariencia semejante a la del árbol y lo mismo se notará comparando las ramas más pequeñas, pero llegará un punto en el que el árbol no puede descomponerse más, es decir que no será un fractal perfecto (estos últimos son solamente teóricos). También los sistemas de ríos, arroyos y afluentes pueden verse como fractales de la naturaleza. Fractales y diseño. ! La utilización de los algoritmos como herramienta de diseño, permiten generar permutaciones infinitas, inviables a partir del enfoque manual, ya que los procesos son abordados con una escala y complejidad que brindan los beneficios de profundidad y amplitud. Estos proyectos tratan de explorar los algoritmos y la computación como una herramienta de diseño generativo, combinados a los actuales procesos de diseño produciendo una nueva e inusual forma arquitectónica, que nos atreveremos a denominar “Ar- TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 11 quitectura Fractal”. No obstante la reciente aparición referida, se pueden observar aplicaciones fractales en obras arquitectónicas construidas hace siglos. La esponja de Menger también conocida como cubo de Menger (Figura 3), fue descripta por primera vez por el matemático austríaco Karl Menger11 , en el año 1926. Para efectuar la construcción del mismo, se parte desde un cubo lleno y se los divide en 27 cubos idénticos, que resultarán más pequeños lógicamente; luego se quitan el cubo central y los seis que comparten caras con él, de manera que quedan 20 cubos. Por cada iteración que del proceso mencionado el número de cubos aumentará en 20n, de manera que rápidamente se llegará a un número muy alto. ! La forma de este fractal hace pensar sin duda en el cubo mágico. La esponja de Menger muestra propiedades geométricas de gran interés, a medida que se aumentan las iteraciones la superficie aumenta hasta tender al infinito, al mismo tiempo que encierra un volumen que tiende a cero. Presenta una dimensión fractal entre un plano y un sólido de 2,73. ! En cada una de las caras del cubo de Menger quedará formada la alfom- Figura 3: La esponja de Menger. bra de Sierpinsky (Figura 4), la cual se pue- Imagen: http://www.ceticismoaberto.com/ciencia/ 2139/fractais-uma-nova-viso-da-natureza de apreciar en la figura en sus primeros órdenes de iteración. Siguiendo la relación con la esponja de Menger se puede establecer que la alfombra tendrá una superficie que tiende a cero cuando se incrementen las iteraciones y una longitud que tiende a infinito. La misma resulta útil para el tratamiento de relaciones lleno-vacío dentro de la estructura general de las ciudades, morfologías básicas, patios de parcela y manzana, circulaciones interiores y aperturas de fachada o estructuras de máxima envergadura y mínimo peso. En cada una de las caras del cubo de Menger se podrá apreciar que queda determinada la alfombra de Sierpinski, la cual se muestra en la ilustración en sus primeros órdenes de iteración (Figura 4). Trazando un paralelismo con 11 Karl Menger (Viena, Austria, 1902 – Chicago, EE.UU. 1985). Se doctoró en Matemática en la Universidad de Viena y debido a sus fuertes intereses en aspectos filosóficos, se unió al llamado círculo de Viena, integrado por filósofos lógico-empiristas. Su contribución matemática más popular es la esponja que lleva su nombre. TRIM, 5 (2012), pp. 5-19 12 ! Rufino Iturriaga y Carina Jovanovich el cubo de Menger, se podrá notar que la alfombra tendrá una superficie que tiende a cero cuando se incrementen las iteraciones y una longitud tendiente a infinito. Figura 4: Alfombra de Sierpinski hasta el cuarto orden de iteración. Imagen: http://personal.telefonica.terra.es/web/mundofractal.html Dentro de la arquitectura, el cubo de Menger deja vislumbrar las relaciones llenovacío, de aplicación a la parte estructural y a los espacios como se puede notar en el proyecto que se muestra en la figura, que corresponde a una de las propuestas finalistas para el Centro de Artes Escénicos de Taipei (China)12 , la cual logró una mención especial aunque finalmente no fue la seleccionada para la construcción (Figura 5). ! La obra, de la que se muestran figuras, fue presentada por el estudio NL Architects a través de sus responsables Pieter Bannenberg, Walter van Dijk y Kamiel Clase; se basa en un espacio combinado de escala urbana, que busca lograr un espacio verdaderamente público, definido por el Figura 5: Propuesta para el Centro de Artes Escénicos Taipei (China) mismo, para lo cual se apuesta a la perforación Imagen: http://www.freakarq.es/esponja-menger-taipei-nl/ 12 El principal requisito en el concurso del “Centro de Artes Escénicos” consistía en el diseño de un centro capaz de acoger exposiciones estándares y también eventos internacionales; además era el primer paso para impulsar a Taipei como la ciudad “Capital de las Artes”. Participaron los estudios más importantes del mundo: OMA, Zaha Hadid, Morphosis, NL Architects, SURV Associates, Jacob+Mc Farlane, MVRDV y otros. TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 13 del interior del edificio originando una estructura permeable para los peatones. El edificio logra identidad; la plaza interior es un espacio abierto que permite el fluir de la vida urbana en todas las direcciones a través del mismo, protegido de los agentes meteorológicos de manera parcial. Además, cualquier objetivo dentro del edificio se puede alcanzar mediante el uso de varios caminos alternativos, los cuales resultan interesantes para inducir al encuentro y la interacción social, contando con instalaciones de bares, pasillos, restaurantes, salas de música y otras. Se puede hacer mención también del proyecto para la KT Corporation en la ciudad de Seúl, Corea del Sur, llevada a cabo por los estudios Daniel Libeskind + G.Lab* by Gansam Architects & Partners13 en la que se podrá apreciar un novedoso sistemas de puertas open-flow e intercomunicación entre habitantes como también con los visitantes. Otra obra para destacar es el Simmons Hall del Massachusetts Institute of Technology, diseñado por Stevens Holl, que según él mismo, el plan fue motivado, al menos en parte, por la esponja natural, la cual presenta una distribución fractal de agujeros, con una aparente sencillez y tiene al cubo como punto de partida (Figura 6). ! La multiplicidad de formas que surgen a partir Figura 6: Simmons Hall, MIT, EE.UU. Imagen:http://eliinbar.files.wordpress.com/2012/08/simmons_hall_big.jpg de los fractales, como asimismo la belleza y el atractivo de las mismas hacen pensar en un espectro de posibilidades en el diseño más que amplio, aún cuando no se utilicen los algoritmos de generación como una herramienta matemática. ! El árbol binario de Pitágoras en su forma equilibrada, permite pensar en la asigna- ción de espacios que se van separando a partir de una clasificación de temas o subte13 Proyecto de Arquitectura: Carla Swickerath (Studio Daniel Libeskind) + Chuloh Jung (G.Lab* by Gansam Architects & Partners). Equipo de diseño: Seungki Min, Byungdon Yoo, Roy Oei (Studio Daniel Libeskind) + Shinhui Won, Wookjin Chung, Sangsu Park, Sang-Hyun Son, Inkyung Han, Taewook Kang, Namhui Kim, Shinkyung Jo (G.Lab* by Gansam Architects & Partners) TRIM, 5 (2012), pp. 5-19 14 ! Rufino Iturriaga y Carina Jovanovich mas, lo cual permite útiles distribuciones para las áreas de exposiciones, recorridos para reconocimientos de productos y otros. La Cruz de Von Koch (también puede ser el copo de nieve de Von Koch) en sus primeros órdenes de iteración pueden aplicarse en el diseño primario de plantas de edificaciones para sistemas carcelarios y también para galerías artísticas. ! Arquitectónicamente, el concepto de fractal, puede apreciarse en estilos como el gótico, donde el arco apuntado era el elemento determinante; las catedrales góticas que aún se conservan, como las de Reims, Colonia, Amiens y otras son claros ejemplos. En el Castillo del Monte, contemporáneo con las catedrales y emplazado en el sur de Italia, se manifiesta un estilo fractal basado en octógonos; se trata de una construcción militar y se relaciona la planta del mismo con la obsesión del emperador Francisco II con el número 8 (Figura 7). Siglos después fue construida la muy famosa Torre Eiffel: ¿resulta acertado trazar un paralelismo entre ella y la empaquetadura de Sierpinski14? Figura 7: Castillo del Monte (Bari - Italia) Imagen: http://www.absolutitalia.com/castell-del-monte 14 La empaquetadura de Sierpinski, conocida también como pirámide de Sierpinski se puede considerar una generalización del triángulo que lleva el mismo nombre para 3 dimensiones. Se lo construye de manera análoga, partiendo de un tetraedro regular. TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 15 En India se puede apreciar el uso de patrones fractales en la construcción de templos. Aparecen los triángulos en una forma más redondeada y a diferentes escalas para la formación de decoraciones. Se pueden hallar numerosos ejemplos de este tipo de templos (Figura 8). ! En referencia a la al- fombra de Sierpinsky, es importante expresar la utilidad de la misma para el estudio de relaciones lleno-vacío dentro de la estructura general de las ciudades, morfologías básicas, patios de parcela y manzana, circulaciones interiores y aperturas de fachada o estructuras de máxima envergadura y mínimo peso. ! Figura 8: Arquitectura Fractal en Templo Hindú Imagen: http://prec.alcul.us/index.php/2011/fractals/ Existen en la ar- quitectura aplicaciones de fractales vinculadas a la urbanización, dentro de los proyectos más conocidos se encuentra el de Serapio Nono, arquitecto de prestigio y amante de las matemáticas, quien diseñó una amplia urbanización de viviendas siguiendo la curva de Hilbert. Se puede hablar de una particular afinidad entre la geometría fractal y el urbanismo, estableciendo una relación entre los enfoques, analítico y propositivo, de una manera atractiva y sugerente. Las ciudades, en sus diferentes tamaños, presentan una clara autosimilitud a diferentes escalas, barrios, manzanas, casas, la cual primero fue advertida de forma intuitiva y de una manera teórica y más profunda después. ! Las impresiones fractales aplicadas a la organización urbana se remonta al pasado antiguo de la humanidad y muestran como los pobladores de algunas regiones africanas se han organizado en base a la geometría fractal y no en base a la geometría euclidiana. Es así que se han encontrado aldeas organizadas de manera circular, trazando límites circulares en el territorio, con parcelas de tipo circular y también viviendas de tipo circular; se trata de organizaciones que pueden decirse gérmenes de la sociedad. El TRIM, 5 (2012), pp. 5-19 16 ! Rufino Iturriaga y Carina Jovanovich estudioso Ron Eglash15 ha expuesto un pormenorizado trabajo sobre el sitio arqueológico conocido como Ba-ila (actual Zambia) (Figura 9) donde explica al detalle los fundamentos del asentamiento y establece un croquis del mismo con una clara base fractal (Figura 10). Además se pueden citar otros casos, como ser la forma de organización llevada adelante por los KoFigura 9: Sitio arqueológico Ba-ila – Zambia. Imagen: http://www.theacademylb.com/?p=384 toko en Logone-Birni situado en Camerún, en el cual se puede apreciar la estructura fractal, aunque en este caso no se trata de una base circular, sino rectangular. Otros ejemplos son Labbazanga, Malí y la cultura Mokoulek, en las montañas de Mandara (Camerún) en las que viven grupos étnicos conocidos como Kirdi. Todas ellas son antiguas civilizaciones situadas en África que organizaban sus sociedades a partir de formas geométricas con base fractal. Figura 10: Modelo de la distribución fractal de la villa Ba-ila, considerando tres iteraciones. Imagen: http://homepages.rpi.edu/~eglash/eglash.dir/afractal/afarch.htm 15 Ron Eglash (dic-1958, Chestertown, MD, EE.UU.) profesor universitario reconocido por su trabajo en el campo de la etnomatemática. Sus estudios, entre otros, abarcan los patrones fractales que se encuentran en la arquitectura, religión y arte en pueblos africanos. Es autor de la publicación “Fractales africanos: Informática y Diseño Moderno Indígena” (1999). Ver: http://homepages.rpi.edu/~eglash/eglash.htm. TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 17 Figura 11: Jardín Botánico de Barcelona. Imagen: http://gutierrezcabrero.dpa-etsam.com/2009/11/14/el-jardin-botanico-de-barcelona/ El Jardín Botánico de Barcelona16 (Figura 11) asume la división fractal de la naturaleza misma, siendo el ejemplo más famoso que existe del rubro. Para su construcción el equipo de diseño ha tenido en cuenta dos consideraciones fundamentales: está relacionada con la estructuración de la vegetación, pues se debían proyectar las plantaciones siguiendo una ordenación geográfica, de manera que las plantas quedaran agrupadas según las cinco regiones mediterráneas existentes en el mundo, y en segundo lugar, se hacía necesario que el proyecto permitiera a la misma montaña ofrecer las condiciones topográficas tanto para los espacios de plantaciones como para el diseño de la red de caminos, aprovechando el relieve natural y de este modo evitar grandes movimientos de tierras. Como resultado de estas dos premisas, se optó por adaptar una malla triangular sobre el terreno, que descansaría sobre el basamento topográfico de la montaña y a su vez delimitar los 71 espacios necesarios para poder representar las principales familias vegetales de las regiones del mundo con clima mediterráneo. La estrategia espacial utili- 16 El Jardín Botánico de Barcelona fue proyectado por un equipo interdisciplinar formado por los arquitectos Carlos Ferrater y Josep Lluís Canosa, la arquitecta paisajista Bet Figueras, el horticultor Artur Bossy, y el biólogo Joan Pedrola. TRIM, 5 (2012), pp. 5-19 18 ! Rufino Iturriaga y Carina Jovanovich zada para estructurar las colecciones del jardín es una red de triangulación, inspirada en Topografías Técnicas. La geometría fractal del plan de triangulación se observa en la escala más pequeña, en la forma de zigzag, en el diseño de las facetas del sistema de ruta, en la acera, que se divide en pequeñas formas trapezoidales y en los "rotos" de los volúmenes del edificio de entrada. En toda la superficie del jardín se establece el fuerte contraste y la tensión dinámica entre la formalidad y la materialidad de los caminos y las paredes y en la evolución de las plantaciones, salvajes y aparentemente anárquicas. Se tienen diferentes escalas de percepción: • A escala de ciudad, pues proporciona puntos de vista abiertos sobre el Skyline de Barcelona. • A escala del proyecto, marcada por puntos de vista general de los lugares estratégicos del jardín. A escala imaginativa, cuando se observan los diferentes phytoepisodes y la mente se traslada a Australia o los paisajes de Sudáfrica, al encontrar especies de estas lejanas zonas del mundo con clima mediterráneo. • A escala íntima, cuando el lugar permite abstraerse del mundo exterior y perderse en la contemplación de una floración o transportarse por la percepción de un aroma. Conclusiones. En el avance que presenta desde su reciente aparición como concepto matemático, la geometría fractal encuentra aplicaciones en el diseño arquitectónico desde el punto de vista de las formas surgidas de los diferentes conjuntos y los alcances de cada uno (volúmenes, plantas, distribuciones, etc). Muchas de las aplicaciones se encuentran ya plasmadas en obras dispersas por todo el mundo y otras aparecen como nuevas propuestas, manifestando una tendencia en expansión cuyo crecimiento se vislumbra a diferentes escalas, aprovechando los actuales recursos técnicos que permiten los cálculos de estructuras que acompañen al diseño. Los avances tecnológicos, popularizados en la más reciente década, han posibilitado a la arquitectura contemporánea tomar un camino de tendencia (observable claramente aún dentro de la libertad conceptual asumida y desplegada por los arquitectos actuales) en el que los proyectos se basan en modelos, funciones matemáticas y estructuras TRIM, 5 (2012), pp. 5-19 Los fractales y el diseño en las construcciones! 19 fractales, fortaleciendo los vínculos entre las disciplinas y abordando complejidades que no se habían registrado en otras épocas. ! La aplicación del concepto fractal en disciplinas como arquitectura y urbanismo abarca diferentes épocas de la humanidad, desde las edificaciones medievales y aún anteriores y las organizaciones de la sociedad, hasta las más modernas construcciones como el Soho Shangdu Complex (Beijing, China), ya sean aquellos que presentan aplicaciones de fractales en su estructura, como los que la presentan en la fachada o revestimientos, poniendo de manifiesto la convivencia del arte con los fractales y el vínculo directo entre los mismos. Bibliografía. • Mandelbrot, Benoit (2003). La Geometría Fractal de la Naturaleza. Barcelona (España). Editorial Tusquets. • Mandelbrot, Benoit (2006). Los Objetos Fractales. Forma, Azar y Dimensión. Barcelona (España). Editorial Tusquets. • Sabogal, Sonia - Arenas, Gilberto (2008). Una Introducción a la Geometría Fractal. Bucaramanga (Colombia). Universidad Industrial de Santander. • Spinadel, Vera W de – Perera, Jorge G. – Perera, Jorge H. (2007). Geometría Fractal. Buenos Aires. Ed. Nueva Librería. • José Martínez Aroza. Fractales. Obtenido el 5 de diciembre de 2012, desde: http://aixa.ugr.es/fractal.html • Freakarq. (2009). Una gran esponja de Menger. Obtenido el 9 de septiembre de 2011, desde: http://www.freakarq.es/esponja-menger-taipei-nl/ • Osame Kinouchi. (2009). Fractais: Uma nova visão da natureza. Obtenido el 22 de agosto de 2012, desde: http://www.ceticismoaberto.com/ciencia/2139/ • Bartolo Luque – Aída Agea. Fractales en la Red. Obtenido el 30 de octubre de 2011, desde: http://www.dmae.upm.es/cursofractales/index.html • Ron Eglash - African fractals. Obtenido el 1 de noviembre de 2012, desde: http://homepages.rpi.edu/~eglash/eglash.htm. • nat. Jardí Bòtanic de Barcelona. Presntació. Obtenido el 1 de noviembre de 2012, desde:http://w3.bcn.cat/V62/Home/V62XMLHomeLinkPl/0,4388,418159056_41887142 9_1,00.html TRIM, 5 (2012), pp. 5-19 DOS MODELOS PARA DETERMINAR LA EFICIENCIA DE UNA EMPRESA CONSTRUCTORA TWO MODELS TO DETERMINE THE EFFICIENCY OF A CONSTRUCTION FIRM CARMEN RESCALA, GUSTAVO DEVINCENZI, GRICELA ROHDE, M.ª LILIANA BONAFFINI, MARTA V. GIRAUDO, GUSTAVO BERNAOLA, RITA PAVÓN (BECARIA)1 ! Resumen Para determinar e interpretar la eficiencia en la gestión de administración en una empresa constructora de la ciudad de Resistencia, Chaco, se aplicaron dos modelos, el ACP (modelo estadístico que consiste en el Análisis de las Componentes Principales) y el DEA (modelo matemático que radica en el Análisis Envolvente de Datos). La evaluación de la eficiencia relativa mediante la modelación DEA requiere, cuando las variables son numerosas, de un paso previo en el que se seleccionan las que se consideran más representativas respecto de esa evaluación, tanto para las entradas (inputs) como para las salidas (outputs). Ese paso previo se materializa mediante el ACP. Palabras clave: Modelación ACP-DEA, Eficiencia, Correlación, Componentes principales. ! Abstract ! To determine and interpret the efficiency in the management of a construction firm in the city of Resistencia, Chaco, two models were applied, the PCA (statistical model that consists of the Principal Component Analysis) and DEA (mathematical model that lies in the Data Envelopment Analysis). ! Assessing the relative efficiency by DEA modeling requires, when variables are numerous, a step in which you select those considered most representative for that evaluation, both for inputs (inputs) to the outputs (outputs). This step is implemented by the PCA. Key Words: PCA-DEA modeling, Efficiency, Correlation, Principal components. 1 c a r m e n r e s c a l a @ y a h o o . c o m . a r, g d e v i n @ i n g . u n n e . e d u . a r, g r o h d e @ e c o . u n n e . e d u . a r, m b o n a f fi n i @ e c o . u n n e . e d u . a r, g u s t a v o @ e d e s y c c . c o m . a r, m a r t a _ g i r a u d o @ y a h o o . c o m . a r, [email protected]. TRIM, 5 (2012), pp. 21-38 22 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón ! INTRODUCCIÓN ! Las razones que justifican la realización de este trabajo están dadas por la necesi- dad de mejorar la eficiencia para lograr un aumento en la calidad y la productividad de una empresa constructora que desarrolla su actividad en la Provincia del Chaco. ! Una de las actividades económicas más importantes de nuestro país es la que de- sarrolla la industria de la construcción. En el sector industrial, que es el segundo de los sectores de la producción, la industria de la construcción presenta caracteres complejos y una serie de particularidades específicas que condicionan la existencia, estructura y funcionamiento de las empresas que operan en este mercado. Participan de su micro y macro entorno: una demanda que puede ser privada o pública, una oferta de la que participan empresas constructoras o profesionales independientes, proveedores provinciales, regionales, nacionales o extranjeros, competidores locales y foráneos, todo ello enmarcado por enormes barreras de entrada y pocas barreras de salidas. ! Los análisis se han efectuado para medir la eficiencia de empresas que se mueven en el sector de la obra pública y cuya gestión de administración es necesario mejorar para atenuar las consecuencias derivadas de las características que están presentes en el sector de la construcción y que se exponen a continuación: • La actividad que desarrollan no sólo incide en el aspecto económico, también alcanza el social, contribuyendo a la satisfacción de necesidades básicas del hombre, tales como vivienda, electrificación y agua potable, entre otros. • Están sometidas a una competencia intensa, a la discontinuidad de los trabajos, a la caída en la inversión, al incremento de los costos, a la reducción real de los precios y la a inseguridad en el trabajo. Esto da como resultado que sus utilidades sean bajas e incluso negativas, provocando una importante reducción en sus reservas para reponer el capital o modernizar las maquinarias y equipos y, en ocasiones, la venta de activos o recursos estratégicos, que son las competencias o capacidades críticas propias de la empresa sobre las que se sustenta para competir en el mercado. Pueden tratarse de recursos tangibles o intangibles 2. • Las prácticas administrativas de las entidades públicas en cuanto al tiempo que demoran para hacer efectivo el pago, hacen que los constructores asuman en 2 KAPLAN, R.; NORTON, D. (2007). Mapas Estratégicos. Ediciones Gestión 2000. EEUU. TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! 23 gran medida los riesgos financieros de la obra, sin obtener una compensación del riesgo asumido. • Presentan producciones anticíclicas; atomización de las obras; legislaciones que imponen cláusulas gatillos (ajuste automático de los haberes de los obreros por convenio con el gremio según el índice del costo de vida) y desfasajes de tiempos, desde la apertura de una licitación hasta la puesta en marcha de la obra y desde allí hasta el cobro de certificados, hechos que colocan a los empresarios en una situación de incertidumbre. • La adjudicación (en algunos casos) de las obras a la propuesta más baja, sin tener en cuenta la solvencia de la empresa, perjudica la inversión en investigación y desarrollo, en los procedimientos de capacitación y de trabajo así como en la consecución de la obra y la calidad de la misma. ! Pero ¿qué significa mejorar la gestión de administración de una empresa? Son muchos los hombres de ciencias que dan respuesta a esta pregunta, pero todos coinciden en que lograr una administración eficiente es ingresar en el mundo de la administración científica la que, como afirma Deming3 posibilita alcanzar la calidad y “mejorar la calidad engendrada de manera natural e inevitable, mejora la productividad”. ! La existencia de este nuevo paradigma de gestión, basado en la administración científica, indica que la capacitación debe comenzar por el nivel estratégico de la empresa, para extenderse luego hacia los niveles ejecutivo y operativo. La información estadística y los resultados arrojados por modelos matemáticos sirven para tomar decisiones, corregir errores, incrementar la productividad, fijar precios, optimizar el mantenimiento y la disponibilidad de las máquinas e instalaciones, mejorar la concesión y cobranza de los créditos, etc. Sin ellos una empresa no posee capacidad para reconocer cuáles son las operaciones y actividades que le son rentables y cuáles son las que le producen pérdidas. Actualmente para dirigir y gestionar, se hace necesario tener información, y la misma surge de las mediciones, procesos y análisis. Medir es un principio crítico para el éxito de toda organización. ! Las empresas constructoras para su planificación estratégica necesitan como res- paldo la información estadística que luego trasladarán al modelo DEA, creando así escenarios futuros de credibilidad y garantías para el desenvolvimiento de sus actividades y 3 DEMING, E. (1989) Calidad, Productividad y Competitividad. Ediciones Díaz de Santos S. A. ESPAÑA. TRIM, 5 (2012), pp. 21-38 24 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón para enfrentar con respuestas inmediatas -partiendo de datos reales- los procesos de cambios del mercado resultantes de la actual economía globalizada. En este trabajo se pretende realizar un aporte a esa conducción científica en las empresas constructoras de Resistencia, Chaco. METODOLOGÍA DE TRABAJO ! Para este trabajo se llevó a cabo una investigación de campo y aplicada. De cam- po en virtud de que se utilizaron entrevistas y encuestas para el análisis del objeto de estudio, la eficiencia de la empresa considerada. Aplicada porque los datos adquiridos en el proceso de investigación fueron utilizados para la construcción de modelos matemático y estadístico. ! La metodología fue de carácter explicativo porque se determinaron y compararon las variables más convenientes para el estudio de la eficiencia. El diseño metodológico fue de carácter cuali-cuantitativo porque se aplicaron entrevistas semi-estructuradas de elaboración propia al nivel superior de la empresa estudiada, y los datos de los Balances se utilizaron como base de datos para la aplicación de los modelos matemático y estadístico, a través de la aplicación de programas informáticos. ! Para la realización de este estudio se efectuaron los siguientes pasos: • Análisis de los Balances Contables correspondientes a los ejercicios económicos 1999-2011 de la empresa constructora (que para el presente trabajo denominaremos Empresa 1) para comprobar en cuál de ellos alcanzó la mejor eficiencia en su funcionamiento. • Utilización del Análisis Envolvente de Datos, para apreciar el comportamiento de mayor eficiencia relativa, comparando unidades de análisis entre sí (denominadas como Unidades de Toma de Decisión, con su sigla en inglés DMU), determinando cuál o cuáles son las más eficientes del conjunto, rankeándolas. • Aplicación del modelo estadístico ACP (Análisis de Componentes Principales) sobre el conjunto de inputs: Activo Corriente, Activo No Corriente, Pasivo Corriente, Pasivo No Corriente. Seleccionadas las componentes principales se realizó sobre ese nuevo conjunto de variables la modelización DEA- BCC orientado a los outputs. De la aplicación sucesiva de los dos modelos se obtuvieron los valores de eficiencia para las componentes principales surgidas de las originales. TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! 25 • Aplicación del modelo matemático DEA, BCC orientado a los ouputs sobre las variables de entrada y salida aconsejadas por el nivel superior de la empresa. Las variables de entrada fueron: Activo Corriente y Bienes de Uso y la de salida: Resultado Total. • Contrastación de los valores de eficiencia resultantes de la aplicación de los dos últimos ítems. • Elaboración de las conclusiones. MODELOS UTILIZADOS ! Para apreciar el comportamiento de mayor eficiencia relativa, se utilizó la técnica del Análisis Envolvente de Datos, que relaciona los valores de variables informadas como entrada / salida (inputs / outputs) de cada unidad de análisis o DMU (Unidades de Toma de Decisión, con sus siglas en inglés DMU), comparándolas entre sí, rankeándolas y determinando cuál o cuáles son las más eficientes del conjunto. Una vez definidas las variables y el modelo a utilizar, la técnica es totalmente objetiva y no requiere una asignación de ponderaciones previa. Existen varios modelos DEA, según se considere la optimización de los inputs para los outputs generados, o al revés, o bien una mezcla de ambos. ! El modelo matemático elegido para el estudio de la eficiencia de la Empresa 1, es el DEA (Análisis Envolvente de Datos) orientado a los Outputs, y a partir de él se construyeron las restricciones basadas en la técnica de la programación lineal. El software utilizado fue el Frontier Analyst. Este modelo matemático tiene dos versiones: rendimientos constantes a escala (CCR) y rendimientos variables a escala (BCC). ! La expresión matemática de las dos versiones del modelo DEA es: TRIM, 5 (2012), pp. 21-38 26 ! C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón Si la unidad de negocios es eficiente será (100%) y existirá al menos un valor óp- timo para cada una de las variables de decisión “u” y “v” positivos. El modelo BCC formulado arroja el valor de la constante “k0”, el que indica los rendimientos a escala de la unidad bajo análisis. La “escala” es la dimensión de la producción de una empresa determinada según la variación proporcional y simultánea de los factores inputs y outputs. Los valores que puede asumir “k0” son: ! El modelo utilizado en el presente trabajo fue el de rendimientos variables a escala (BCC) orientación output seleccionándose las variables de entrada: Activo Corriente y Bienes de Uso y una variable de salida: Resultado Total. ! La aplicación del DEA presenta una serie de cuestiones relativas a la homogenei- dad de las DMU, las variables usadas como entrada / salida utilizando la medición de las mismas y los pesos que se les atribuye en el análisis. Cada uno de estos problemas puede presentar dificultades prácticas en la aplicación del DEA. En este trabajo no existieron dificultades en torno a la homogeneidad en las DMU y en la medición de las variables, porque todas son monetarias y su unidad de medida es el peso. ! Obviamente, la elección de las variables es un aspecto fundamental para que esta metodología brinde resultados adecuados, que reflejen el comportamiento de las unidades comparadas. ! Dyson y otros (2001) señalan cuatro hipótesis que se deberían verificar con respec- to al conjunto de inputs y outputs seleccionado: • que cubran toda la gama de recursos utilizados, • que capturen todos los niveles de actividad y medidas de rendimiento, • que el conjunto de factores sean comunes a todas las unidades, •las variaciones del entorno han sido evaluadas y consideradas, si es necesario. ! No se incluyó en el modelo ninguna restricción a los pesos de las variables, ya que se ha preferido explotar la ventaja que ofrece el DEA en lo relativo a libertad de comportamiento de las unidades. TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! ! 27 Un inconveniente que presenta el DEA es su capacidad para discriminar y por ende rankear o ponderar, ya que la misma disminuye cuando se trabaja con una gran cantidad de variables. Una regla que se sugiere aplicar para atenuar este efecto es que el número de unidades (DMU) sea superior al doble del producto del número de inputs por el número de outputs. Otro aspecto a realzar es que, a menudo, subconjuntos de los inputs y/o outputs están altamente correlacionados. ! Cantidad y correlación son cuestiones que deben ser cuidadosamente considera- das a los efectos de no producir significativos cambios en el comportamiento de esta técnica y los resultados que con ella obtenemos. ! Para disminuir la cantidad de variables y además buscar la menor correlación entre las mismas se utilizó el modelo de Análisis de las Componentes Principales (ACP). Este análisis estadístico permitió obtener un nuevo conjunto de variables denominadas componentes principales, que son combinaciones lineales de las originales y el orden o cardinal de ese conjunto resultó menor o igual que el del conjunto de variables originales, las que expresan estadísticamente el total de la información contenida en las variables originales. ! Se consiguió así aumentar la capacidad de discriminación del análisis con DEA, por lo que la frontera eficiente se formó con un número menor de DMU, lo que indica que se ha redujo el margen de error, que consistiría en considerar eficientes unidades que en realidad son ineficientes. ! La técnica de componentes principales o modelo ACP es debida a Hotelling (1933), aunque sus orígenes se encuentran en los ajustes ortogonales por mínimos cuadrados introducidos por K. Pearson (1901). ! Existen dos formas básicas de aplicar el ACP: 1. Método basado en la matriz de correlación: cuando los datos no son dimensionalmente homogéneos o el orden de magnitud de las variables aleatorias medidas no es el mismo. 2. Método basado en la matriz de covarianzas: se usa cuando los datos son dimensionalmente homogéneos y presentan valores medios similares. ! En este trabajo utilizaremos el método basado en correlaciones. ! TRIM, 5 (2012), pp. 21-38 28 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón ! Sea una matriz de datos nxp ! A partir de los nxp datos correspondientes a las “n” variables aleatorias, puede construirse la matriz de correlación muestral, que viene definida por: ! Donde ! (La esperanza o media del cuadrado de la desviación de dicha variable con respec- to a su media µ). ! (Mide el valor esperado del producto de las desviaciones con respecto a la media µ). ! Puesto que la matriz de correlaciones es simétrica entonces resulta diagonaliza- ble (es posible encontrar sus vectores y valores propios) y sus valores propios λi verifican: TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! ! 29 Debido a la propiedad anterior estos “p” valores propios reciben el nombre de pesos de cada uno de los n componentes principales. ! En álgebra lineal, los vectores propios, autovectores o eigenvectores de un opera- dor lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ recibe el nombre valor propio, autovalor, valor característico o eigenvalor. ! Como se indicó en la metodología de trabajo se procede según lo señalado en 3) a la aplicación del ACP (Análisis de Componentes Principales) sobre el conjunto de inputs: Activo Corriente, Activo No Corriente, Pasivo Corriente y Pasivo No Corriente. ! Se describirán las tablas incorporadas a continuación, las que muestran los análisis realizados. ! La Tabla 1 contiene los Inputs utilizados para todos los ejercicios considerados. ! Los datos se procesaron a través del software estadístico Statgraphics Plus 5.1. Inputs originales considerados para el trabajo (I)ACTIVO CTE (I)ACTIVO NO CTE (I)PASIVO CTE (I)PASIVO NO CTE 1999 149249,89 102223,47 163992,35 0 2000 154740,25 130362,46 146530,58 0 2001 132848,44 127850,13 169351,99 0 2002 86614 227392,17 93269,63 23861,42 2003 152256,86 213838,28 81296,79 41039,55 2004 150861,44 211353,38 59131,49 20699,86 2005 231094,4 267672,43 99301,39 52687,64 2006 581209,63 234715 279535,62 31940,44 2007 741629,49 408721,92 421053,44 8875,59 2008 1085585,89 418481,24 537722,3 0 2009 1739425,01 631342,96 975610,92 0 2010 2446378,21 825647,3 1650158,81 29366,47 2011 3577918,85 1044615,7 2605647,67 133183,85 Tabla 1 TRIM, 5 (2012), pp. 21-38 30 ! C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón La Tabla 2 que figura a continuación contiene el resultado del Análisis de Correla- ción y el proceso de Componentes Principales, aplicado a los datos de la Tabla 1. Tabla 2 ! En la primera fila de cada uno de los inputs se indica la correlación correspondiente a las variables implicadas, en la segunda fila el número de DMU de la tabla 1 utilizadas para el análisis y en la tercera fila el grado de significación, el que debe ser menor de 0,05 para considerar correcta la aplicación de ACP. A mayor correlación, menor grado de significación, es decir que las variables al poseer una alta correlación se pueden explicar por factores comunes (componentes principales). Tabla 3 ! El porcentaje de Varianza indica la cantidad de información suministrada por las trece DMU que explican cada una de las componentes. Se aprecia en la Tabla 3 que la primera componente tiene una significativa representación de los cuatro inputs, ya que su valor es de 99,357. TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! ! 31 En el Gráfico 1 se visualiza lo expresado anteriormente. Gráfico 1 La Tabla 4 muestra los resultados obtenidos de las ecuaciones que se resuelven ! para obtener las componentes principales. Tabla de Pesos de los Componentes Componente 1 Componente 2 Componente 3 Componente 4 ACTIVO CTE 0,801842 -0,44333 -0,371367 0,150315 ACTIVO NO CTE 0,210021 -0,409807 0,868573 -0,183112 PASIVO CTE 0,559141 0,785455 0,198186 -0,176475 0,0173783 0,136294 0,261515 0,95537 PASIVO NO CTE Tabla 4 ! Denominaremos a las nuevas variables zij,con i=1…m y j=1,…,n. Como dijimos an- teriormente, éstas son combinaciones lineales de las n variables originales Xi con i=1 …, n. En la búsqueda de las componentes principales pueden obtenerse (p2) constantes tales que: TRIM, 5 (2012), pp. 21-38 32 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón ! O lo podemos ver como: ! donde por ejemplo: ! aqj es cada una de esas constantes. ! Obsérvese que debido a la suma, en cada nueva variable zij intervienen todos los valores de las variables originales. El valor expresado por aqj indica el peso que cada variable original aporta a la nueva variable definida por la transformación lineal como se muestra en la tabla 4. ! Para la primera componente principal la transformación viene dada por: ! A partir de esta formulación, se obtiene la transformación del sistema de represen- tación de los cuatro Inputs en las cuatro componentes obtenidas. Podemos aquí elegir con cuántas de ellas vamos a trabajar ya que están ordenadas en función de su importancia, importancia que se establece para las componentes según que expliquen suficientemente al conjunto de datos original. ! En la siguiente Tabla se visualizan los resultados obtenidos por la transformación del sistema de representación: TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! Fila 1 2 3 4 5 6 7 8 9 10 11 12 13 33 Tabla de Componentes Principales Componente 1 Componente 2 Componente 3 232839 20749,8 65863,1 233387 -6931,25 84804,2 228066 21728,8 95274,9 169773 -55074,2 190066, 213166 -85684,1 156035 198778 -104229 144683 297957 126967 180131 672188 -129940 51778,1 916092 -164355 165356 1259020 230413 66899,9 2072840 -263570 95755,1 3058190 -122781 143349 4547560 50482 129837 Componente 4 -25224,4 -26470,1 -33328,1 -22282,1 8591,23 -6683,82 18534,9 25569,4 -29189,6 -8343,38 -26315,3 -46613,8 13942,5 Tabla 5 ! En la siguiente tabla se presenta la matriz de correlaciones obtenidas a través del Statgraphic: Tabla 6 ! Como condición necesaria para continuar con el análisis en la matriz de correlación de los datos transformados, éstos no deben estar correlacionados, lo que indica que no existen más factores comunes subyacentes que puedan explicar el total de la información. ! Para el análisis que se realizó se tomaron las componentes 1 y 2 siguiendo el crite- rio del gráfico de sedimentación dado que la recta que representa los autovalores se quiebra desde la segunda componente. La elección también responde a una elección personal del equipo de investigación. ! Luego de seleccionadas las componentes principales como se muestra en la tabla 7, se realizó sobre ese nuevo conjunto de variables la modelización DEA- BCC orientado a los outputs con el software Frontier Analyst. TRIM, 5 (2012), pp. 21-38 34 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 (I)CP 1 232839,00 233387,00 228066,00 169773,00 213166,00 198778,00 297957,00 672188,00 916092,00 1259020,00 2072840,00 3058190,00 4547560,00 (I)CP 2 20749,80 -6931,25 21728,80 -55074,20 -85684,10 -104229,00 126967,00 -129940,00 -164355,00 230413,00 -263570,00 -122781,00 50482,00 (O)Resultado Total 36481,01 86112,89 31442,43 60624,71 56195,00 91950,34 87356,31 243083,80 356973,81 301548,62 544920,32 333573,33 375214,47 Tabla 7 Los resultados hallados se reflejan en la siguiente tabla resumen: Tabla 8 ! De la aplicación sucesiva de los dos modelos obtenemos los valores de eficiencia para las componentes principales surgidas de las originales. ! A continuación según se expresa en la metodología de trabajo, se aplicó el DEA BCC orientado a los ouputs sobre las variables de entrada (I) y salida (O) aconsejadas por el nivel superior de la empresa. TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! ! 35 Los datos de las variables a utilizar se encuentran en la siguiente tabla: DMU Act Cte (I) Bs uso (I) Rtdo Total (O) 1999 149249,89 92512,47 36481,01 2000 154740,25 107295,85 86112,89 2001 132848,44 110130,28 31442,43 2002 86614,00 211563,62 60624,71 2003 152256,86 199897,63 56195,00 2004 150861,44 197412,73 91950,34 2005 231094,40 267672,43 87356,31 2006 581209,63 234715,00 243083,80 2007 741629,49 408721,92 356973,81 2008 1085585,89 418481,24 301548,62 2009 1739425,01 631342,96 544920,32 2010 2446378,21 825647,30 333573,33 2011 3577918,85 1044615,70 375214,47 Tabla 9 Utilizando los datos de la tabla anterior y aplicando el software Frontier Analyst se obtuvieron los siguientes resultados: Tabla 10 TRIM, 5 (2012), pp. 21-38 36 ! C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón En el análisis de los 13 ejercicios contables de la E1, y siendo Resultado Total la variable de salida (output), se observan ocho períodos (1999, 2000, 2001, 2002, 2004, 2006, 2007 y 2009) con una eficiencia relativa del 100% (eficiencia igual a uno) para las tres variables. ! Seguidamente se muestra la contrastación de los valores de eficiencia resultantes de la aplicación de los modelos ACP y DEA: DEA-BCC SOBRE ACP ! DEA-BCC SOBRE V. ORIG. De esta contrastación surge la distribución de eficiencias que se observa en siguientes gráficos que se obtuvieron a través del Analyst Frontier: Gráfico 2-Dea sobre datos ACP ! Gráfico 3-Dea sobre v. originales En los siguientes gráficos podemos observar la distribución de los conjuntos de referencia que surgieron de la aplicación del DEA BCC sobre los datos: TRIM, 5 (2012), pp. 21-38 Dos modelos para determinar la eficiencia…! 37 Frecuencia de Referencias Gráfico 4-Dea sobre datos ACP ! Gráfico 5-Dea sobre v. originales Las DMU 2007 y 2004 aumentaron su participación como unidades de referencia de las unidades ineficientes mientras que las DMU 1999, 2000, 2001 y 2006 dejaron de ser referentes dado que ya no se las consideró como unidades eficientes. Conclusiones ! En el contexto de la evaluación de la eficiencia es preciso destacar al método ACP como herramienta para distinguir las unidades verdaderamente eficientes y el efecto que éstas pueden tener al ser consideradas erróneamente como eficientes. Esto permitirá realizar una mejor planificación y distribución más eficiente de los recursos destinados a las mejoras necesarias para perfeccionar el funcionamiento de las diferentes unidades de producción. ! Del análisis de los resultados alcanzados con los métodos aplicados se obtuvieron las siguientes conclusiones: ü Con las variables elegidas por los ejecutivos de la empresa se determinaron ocho unidades eficientes. ü Del análisis realizado con dos componentes se obtuvo una mayor discriminación en los resultados destacando como eficientes sólo cuatro DMU. ü A través de la aplicación del ACP se evitó considerar como unidades de referencia a aquellas que no son eficientes verdaderamente como las DMU 1999, 2000, 2001 y 2006. TRIM, 5 (2012), pp. 21-38 38 C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón ü Mediante el modelo ACP los valores de eficiencia hallados son objetivos ya que a través de la aplicación del mismo se supera la elección arbitraria de los inputs y outputs realizada por los altos ejecutivos. BIBLIOGRAFÍA § COLL SERRANO, V. y BLASCO BLASCO, O. M., Evaluación de la Eficiencia Mediante el Análisis Envolvente de Datos. Introducción a los modelos básicos, Editorial: Eumed.neCte, Málaga,España, 2006. § COOPER, W. W.; SEIFORD, L. M. y TONE, K., “DATA ENVELOPMENT ANALYSIS. A Comprehensive Text with Models, Applications, References and DEA-Solver Software, Second Edition, Springer, USA, 2007. § COOPER, W. W.; SEIFORD, L. M. Y ZHU, J., Handbook on Data Envelopment Analysis, Kluwer Academic Publishers, USA, 2004. § DEMING, E., Calidad, Productividad y Competitividad. Ediciones Díaz de Santos S. A.,España, 1989. § DYSON, R. G., ALLEN, R., CAMANHO, A. S., PODINOVSKI, V. V., SARRICO, C. S. AND SHALE, E.A., “Pitfalls and protocols in DEA”, European Journal of Operational Research, 132 (2001), pp. 245-259. § KAPLAN, R.; NORTON, D., Mapas Estratégicos, Ediciones Gestión 2000, USA, 2007. § SEIFORD, LAWRENCE M., ZHU, J., “Modeling undesirable factors in efficiency evaluation”, European Journal of Operational Research, 142 (2002), pp.16-20. § SEIFORD, LAWRENCE M., ZHU, J. (2002), “Modeling undesirable factors in efficiency evaluation”, European Journal of Operational Research, 142 (2002), pp. 16-20. TRIM, 5 (2012), pp. 21-38 PROBABILIDADES NO ESPORTE* Probabilities in Sport BERNARDO NUNES BORGES DE LIMA, GILCIONE NONATO COSTA, RAFAEL NACIFE, RENATO VIDAL MARTINS Y RODRIGO GUIMARÃES1 ! Resumo Este trabalho versa sobre Probabilidades no Esporte, de uma forma, assim o espe- ramos, acessível. Começamos recordando alguns conceitos gerais sobre o assunto que é bem provável que o leitor já tenha, e tentamos argumentar que eles não funcionam se aplicados a Esportes. Isto nos leva naturalmente a uma discussão sobre o que essencialmente são probabilidades. Exibimos dois diferentes modelos de cálculo –para Futebol e Fórmula 1– que servem de exemplos para o que foi dito anteriormente no texto. Tentamos convencer o leitor de que a construção de um tal modelo não requer nenhuma habilidade especial e esperamos que estas linhas forneçam o embasamento necessário caso o leitor queira fazer seu próprio modelo. Palavras-chave: Esporte, Probabilidades. Abstract ! This work is about Probabilities in Sport within a, hopefully, accesible shape. We start by recalling few general concepts on the subject that the reader quite likely have, and try to argue why they do not work if applied to Sports. This naturally leads us to a discussion on what essentially probabilities are. We exhibit two different models of computation – for Soccer and Formula 1– which stand for examples for what was prioly said in the text. We try to convince the reader that the construction of any such a model requires no special skills and we hope our lines provide the reader with the basic backgrounds in case he is interested in build his own model. Keywords: Probabilities, Sport. * Este trabalho é parte do Projeto Difundindo Probabilidades via Campeonatos de Futebol, que conta com apoio da FAPEMIG através do Edital de Popularização da Ciência e Tecnologia. 1 Departamento de Matemática, Universidade Federal de Minas Gerais TRIM, 5 (2012), pp. 39-53 40 ! B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães O objetivo destas linhas é abordar, se possível, o vasto tema das “Probabilidades no Esporte” em nível divulgativo e, ao mesmo tempo, com um certo rigor científico. O leitor verá que, no caso presente, esta não é que seja uma tarefa tão simples. De fato, quando se diz de um texto que… é capaz de combinar na dose certa o rigor e o informal, o acessível com o hermético, pensa-se no mesmo como que composto de dois momentos: uma parte leve, de leitura fácil, possivelmente rica em conexões históricas, e uma outra restritiva, fechada aos poucos que possam se aventurar. A tal “dose certa” é então aquela arte de se fazer entender sem ser vulgar, ou, ao contrário, de se ser preciso, sem ser enfadonho. ! Não. Em nosso caso, a expressão “ao mesmo tempo” é absolutamente literal. Pode-se, e mais ainda, deve-se abordar o tema que propomos de forma divulgativa e simultaneamente rigorosa. “Pode-se” pois, veremos, a matemática que subjaz o binômio “Probabilidades no Esporte” já é de per si extremamente acessível. “Deve-se”, pois é importantíssimo que o leitor ponha à prova toda a ciência que julga ter sobre o assunto. ! E a verdade é que quando o assunto é “Probabilidades no Esporte” todos viramos cientistas. Seja o torcedor de futebol que já antecipa a festa do título pois seu time tem chances acima de 90% de erguer a taça; ou a escuderia de Fó́rmula 1 que faz “jogo de equipe” pois apenas um de seus dois pilotos tem probabilidades reais de sagrar-se campeão, ou mesmo o país que planeja estrategicamente o investimento no esporte competitivo baseado em um valor esperado de desempenho olímpico entre os “Top 10”; e até o caso recente de um clube brasileiro que se auto-alcunhou “o time que desafia a Matemática”, dada sua incrível capacidade de contrariar previsões probabilísticas desfavoráveis. ! As probabilidades definitivamente invadiram o mundo do esporte. Os empresá́rios, as agremiações, a mídia, os atletas, os sites de apostas, os torcedores, e até o cidadão mais comum, sem formação escolar completa, se expressam nestes termos. Sendo assim, o que poderia acrescentear um acadêmico a um tema tão disseminado, tratado com tanta propriedade por todos? ! O primeiro passo seria reconhecer o desserviço que podemos estar prestando, muitas vezes sem nos darmos conta, outras vezes de forma consciente e portanto perversa, quando nós matemáticos falamos de “Probabilidades no Esporte”. Isto porque probabilidades envolvem dois atos distintos: o conceito e o cálculo. E o que acontece é que a esmagadora maioria das pessoas pensa saber bem o que é probabilidade, quando na TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! 41 verdade não sabe, mas deixa os valores numéricos nas mãos dos matemáticos pois esta é a parte difícil, quando na verdade não é. ! Portanto, o matemático deve, primeiro, deixar bem claro o que exatamente quer dizer quando usa o termo “probabilidade” e, depois, mostrar que há́ pouquíssimo mistério no seu “cálculo”. Na verdade, os modelos que geram tais números costumam ser robustos o bastante para concluirmos que se algum deles no funciona, não é bem porque seu autor não entende de matemá́tica; o que talvez não entenda seja esporte. Em outras palavras, este é um tema em que o matemático deve ser rigorosamente científico no que o leitor julga ser de senso comum e acessível e, por outro lado, divulgar de forma simples – porque é simples– o que o leitor julgar ser ciência quase oculta. ! Este é precisamente o objetivo de nosso trabalho. Nele fazemos uma digressã̃o inicial sobre o que vem a ser “probabilidade” e na sequência, nos valemos de dois modelos para explicar como se processa o seu “cálculo”. O primeiro trata de Futebol, e outro aborda a Fórmula 1, dois esportes com forte apelo, o que nos poupará de explicacões adicionais sobre regras e procedimentos. 1. O Conceito e o Cá́lculo de Probabilidades no Esporte ! A probabilidade de sair cara em um lançamento de moeda é 1/2; a de sair o núme- ro 1 em um lançamento de dado é 1/6; a de sair um às em um baralho completo é 4/52, e a probabilidade do time, ou do piloto, por que torço ser campeã̃o qual é? Ora, se conseguimos responder as primeiras perguntas, estamos, à priori, aptos a respondermos as outras também. Talvez seja apenas uma questã̃̃o de tempo de cálculo, pois há mais variáveis a serem consideradas nestes casos. ! Em parte isto é verdade, em parte nã̃̃o. Por um lado, sim, em um campeonato de Futebol, Fórmula 1, ou do que for, lidamos com bem mais elementos que em um mero lançamento de uma moeda: sã̃o vários times ou pilotos sujeitos às mais diversas combinações de resultados e situações. Por outro lado, se aplicamos ao esporte o mesmo princípio da moeda, podemos, como se verá, nã̃̃o chegar a lugar algum. ! Com efeito, a probabilidade de se obter cara em um lançamento de moeda é 1/2, porque analisamos 1 caso –cara– entre 2 possíveis –o outro ́e coroa– e faz-se o quociente. Mais precisamente temos TRIM, 5 (2012), pp. 39-53 42 B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães uma fórmula que talvez tenham nos ensinado ainda no ensino fundamental. Existem ao menos dois problemas sérios que surgem se resolvemos aplicar o mesmo raciocínio ao problema de determinar as chances de meu time ser campeã̃̃o. ! O primeiro deles é de ordem computacional, ou seja, o total de casos a serem con- siderados pode ser assustadoramente grande. Imagine o leitor que nos propomos a responder esta pergunta em um campeonato nacional a 15 rodadas de seu término. Tais campeonatos costumam ter o mesmo formato em diferentes países, e.g., Espanha, Inglaterra, Itália, Portugal e, mais recentemente, também no Brasil. Sã̃̃o 20 times que se enfrentam em turno e returno, totalizando 38 rodadas. O que significaria entã̃̃o “casos possíveis” a 15 rodadas do final? Levando-se em conta somente o resultado de cada jogo –vitória de um, de outro, ou empate– em uma rodada sã̃̃o 310 os cenários imagináveis. Em 15 rodadas este nu ́mero sobe para 3150. Bem, em tese, 3150 (aproximadamente 3 × 1071) é até tratável em um computador. De fato, para sistemas criptográ́ficos atuais sã̃̃o usados códigos de tamanho até 21024, como é o caso da nova codificaçã̃̃o do principal banco estatal brasileiro. Agora, o que é absolutamente impraticável é gerar em “tempo finito”todos os universos possíveis. Assim, por exemplo, se cada caso fosse gerado em 1 trilhonésimo de segundo (processadores na faixa de Terahertz), o computador gastaria 1,18 × 1050 séculos para gerar todos eles. A título de comparaçã̃̃o, as estimativas atuais para a idade do Universo apontam para 1,4 × 108 séculos. ! Mas mesmo supondo que nossos computadores fossem de uma geraçã̃̃o vindoura, capazes de arrostar grandezas estelares, ainda assim persistiria um outro problema, agora de ordem prática: todos sabemos que nem o primeiro colocado vai perder seus 15 jogos restantes, muito menos o último colocado vencer 15 jogos em sequência. Há muitos cenários que devem ser descartados ou, ao menos, não têm direito de entrar na conta “casos possíveis”com o mesmo peso do que outros cenários bem mais viáveis. ! Chegamos a um impasse. Por um lado, o modo comum de se definir probabilida- des não serve se aplicado ao esporte, mas, por outro lado, não temos o direito de criar uma outra definição, exclusiva ao caso de campeonatos por exemplo, posto que “probabilidade”, enquanto conceito, é uma única coisa qualquer que seja o fenômeno probabilístico a ser estudado. TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! ! 43 O interessante é que o dilema acima é solú́vel, basta que nos debrucemos com mais vagar sobre a definição (1). Voltemos ao caso da moeda. Será que a tal probabilidade de cara é realmente 1/2? Para entender o problema recordamos o caso que contam do professor que perguntou a seu aluno “qual a probabilidade de sair cara no lançamento de uma moeda?”. Obteve a seguinte resposta um tanto desafiadora: “qual moeda?”. Disse então o professor: “uma moeda não-viciada”, ao que o aluno replicou “o que é uma moeda não viciada?”. E seu mestre assim o esclareceu: “aquela cuja probabilidade de sair cara é 1/2”. “Ora, então porque o senhor perguntou?” disse o rapaz com toda razã̃o. Em suma, o aluno chamava atenção para o que, sem dúvida, foi a verdadeira pergunta de seu professor: “qual a probabilidade de sair cara no lançamento de uma moeda cuja probabilidade de sair cara é 1/2?”. A resposta, é claro, é 1/2, e de nada nos interessa. ! Não é este tipo de resolução que queremos para os nossos problemas. Eles sã̃o mais complexos pois todos sabemos que a natureza tem seus graus de imperfeição: a rigor, não existem nem moedas não-viciadas, muito menos times ideais. A equação (1) não é propriamente uma definição de probabilidade. Ao contrário, trata-se de um mero exercício de “Análise Combinatória”, uma outra ciência que, em muitos casos, chega a distar da “Teoria de Probabilidades” como o nascente do poente. ! Então, afinal de contas, o que ́e probabilidade? O conceito exato veio bem recen- temente, ao passo que a definição precisa jamais virá. Expliquemo-nos. Em 1933, Andrei Kolmogorov (1903-1987) estabelece no livro Fundamentos da Teoria das Probabilidades, os pilares formais de tal teoria. O enfoque dado era aos moldes do que fez o matemá́tico e filósofo grego Euclides (360 a.C.-295 a.C) para geometria e que voltava à voga, com toda sua força, no início do século passado não apenas no caso da Teoria das Probabilidades mas na pró́pria Matemática como um todo. Era um enfoque axiomático, ou seja, os conceitos não se definem, simplesmente são reconhecidos pelas propriedades que satisfazem. ! Se isto pode parecer estranho, lembre o leitor que Euclides não definia nem ponto ou reta mas, por exemplo, dizia que por um ponto fora de uma reta passa uma única paralela, seu quinto axioma, que no porvir, acabou sendo um divisor de águas entre diferentes geometrias. O que Kolmogorov tinha em mente era exatamente a mesma tática, e queria identificar quais são as regras básicas que caracterizam um fenômeno probabilístico. TRIM, 5 (2012), pp. 39-53 44 ! B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães Tais regras são o que hoje se conhece por Axiomas de Kolmogorov. A título de exemplo, fazemos a tradução destes postulados para o caso do Campeonato Espanhol. Kolmogorov se limitaria a dizer: (i) a probabilidade do seu time ser campeão é pelo menos 0%; (ii) a probabilidade de um time madrilenho ser campeão é a soma das probabilidades de Real Madrid e Atlético de Madrid o serem; (iii) a probabilidade de um time espanhol ser campeão é 100%. ! O que é absolutamente surpreendente é que isto é mais do que bastante para infe- rirmos quem sera ́ o campeão espanhol. O que queremos dizer é que partindo dos Axiomas de Kolmogorov –dos quais os três itens acima são mera adaptação ao caso do futebol– podemos deduzir matematicamente a seguinte fórmula conhecida por Lei dos Grandes Números. Ou seja, a probabilidade de um evento é a razão entre o número de ocorrências do mesmo e o número de ensaios quando este tende a infinito. Isto nã̃o é uma definição de probabilidade, mas apenas um modo de calculá-la ou, até melhor, inferí-la. Esta afirmação, antes dos Axiomas de Kolmogorov, era a base da teoria frequencista, que dava à teoria de probabilidades um caráter, a princípio, mais empírico que matemático. A dedução da Lei dos Grandes Números a partir dos Axiomas de Kolmogorov nos mostra que o “empirismo” em questão já́ nã̃o guarda mais eventuais resquícios pejorativos que o termo possa ter (teste, tentativa, suposição, apriorismo, etc). Ao contrá́rio, o “frequencismo” passa a ser então a nossa grande ferramenta para se estimar probabilidades que (sempre) desconhecemos. Mais ainda, está muito bem fundamentado do ponto de vista teórico, com todo o rigor matemático. ! No entanto probabilidade segue sendo algo pré-existente às coisas e por isso mesmo um mistério, como, por exemplo, as chances de um time vencer, jogando em casa, um determinado adversário. Esta propensão é algo real e depende de uma série de fatores, desde o plantel atual ao momento na competição, do juiz à susceptibilidade do outro time à torcida alheia etc, etc. E o único modo de sabermos a probabilidade exata de TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! 45 vitória do time da casa é repetir, centenas, milhares, milhões de vezes o mesmo jogo, contra o mesmo adversário, com os mesmos jogadores, no mesmo campo, sob as mesmas circunstâncias, mesmo público, e o que, todos sabemos, pode de ser determinante: com o mesmo juiz! Da mesma forma, se quisermos realmente saber qual a probabilidade de um dado time ser campeão, o que temos de fazer é repetir inúmeros campeonatos e ver em quantos deles o clube leva a melhor. Quanto mais edições, mais preciso o cálculo. Um total de 3 títulos em 4 campeonatos jogados é bem menos significativo do que, digamos, 612 conquistas em 1000 disputas. A probabilidade real da equipe erguer a taça não é então de 75%, como a princípio se cogitava, mas deve girar em torno de 60%. ! Ora, o leitor arrazoado dirá que é impossível repetir mil campeonatos e com razão. Mas não iremos “realizar” mil campeonatos e sim “simular” não só mil, mas milhões deles se necessário. O computador faz isto em segundos ou, quando muito, em minutos. Tudo o que temos de fazer é ensiná-lo a “sortear”de forma judiciosa o resultado de cada jogo. 2. Um modelo de Caáculo para o Futebol ! Para calcularmos a probabilidade de um time ser campeão, partimos da situação atual do campeonato, e simulamos os jogos restantes. Ao final, o computador gera a classificação dos times e a registra. Depois, repete o procedimento várias vezes e no término do processo já está apto a divulgar números que aproximam muito bem as probabilidades geradas pelo modelo idealizado. Este nú́mero é o quociente entre os campeonatos (simulados) vencidos pelo time em questão e o total de disputas. Para que isto funcione, o número de simulações deve ser grande o bastante dada a precisão que exigimos em nossos cálculos. A modo de exemplo, suponha que simulando 10, 100, 1000, 10000 e 100000 vezes o campeonato, o tal time foi campeão, respectivamente, 7, 65, 677 e 6651, 66597 vezes. Já́ podemos, a princípio, dizer que tal probabilidade deve oscilar em torno de 66%. Se queremos precisão centesimal, devemos nos ater aos quatro primeiros algarismos do número de títulos. A medida que se aumenta o número de simulações, estes algarismos variam cada vez menos até estacionarem. Este é então o número de simulações ideal para o grau de precisão, no caso decimal, que queremos. Mais, estes algarismos pouco variam se repetirmos este processo uma ou várias vezes, fixado um nú́mero suficientemente grande de simulações, o que em linguagem matemá́tica equivale a convergência. TRIM, 5 (2012), pp. 39-53 46 ! B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães Então, como vimos, todo trabalho fica a cargo do computador, que irá́ simular cam- peonatos. Para tal, devemos ensiná-lo a simular um jogo e o procedimento é o seguinte: para determinar o resultado de A x B, o computador recebe dois vetores que caracterizam, naquele momento, os times A e B: (PVA, PEA, PDA) e (PVB, PEB, PDB) que são as probabilidades de vitória, empate e derrota de cada um deles. Chamamos uma trinca destas de “vetor força” do time. A partir destes dados, formam-se as probabilidades do jogo: onde as três coordenadas são, na ordem, as probabilidades de vitó́ria de A, empate, e vitória de B. Supondo, e.g., que PAxB = (0.5, 0.2, 0.3), o que o computador faz é dividir o intervalo [0,1] em três partes: [0, 0.5], (0.5,0.7) e [0.7,1]. E então sorteia um número aleatório entre 0 e 1 (ele sabe como fazer isto). Se, por exemplo, o número sorteado foi 0.4579, então o resultado do jogo é vitória de A, pois 0.4579 está entre 0 e 0.5 e esta foi a parte do intervalo que reservamos para vitória de A. Se os números sorteados fossem 0.61 ou 0.9999993 o computador os identificaria como, respectivamente, empate ou vitória de B. ! Depois de simular uma rodada, atualizam-se todos os vetores forç̧a de todos os times, de acordo com os resultados da rodada, e simula-se a rodada seguinte. O modo de atualizar tais vetores é precisamente o que caracteriza um modelo. De fato, o leitor já deve ter notado que hoje há inúmeros sites que ofertam probabildades para o futebol. O normal é que todos sigam o roteiro acima descrito, porém a maneira de medir a força de um time pode variar bastante de modelo para modelo. E a força de um time, quantificada através de seu vetor força, é algo que se mede pelos resultados que vem obtendo, em especial o da partida que acabou de disputar, daí ser este o ponto chave na especificação de um modelo. ! Em 2005, os autores deste artigo, e mais os Profs. Fábio Brochero e Marcelo Terra Cunha, iniciamos no Dep. Mat. da UFMG, um projeto tendo em vista a divulgação da Matemática através de probabildades no esporte. A idéia era subsidiar quem quer que se interesasse a tentar criar um modelo de cálculo, inicialmente, para o futebol. Achamos por bem então desenvolver nosso próprio modelo –cujos cálculos efetivos encontram-se disponíveis em www.mat.ufmg.br/futebol– que descrevemos na sequência. É muito mais um TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! 47 exercício teó́rico do que propriamente científico pois, como dissemos, nosso interesse é bem mais divulgativo. Ou até melhor, a ciência que um modelo destes exige é acessível o bastante a que cada qual possa, se quiser, desenvolver o modelo que mais lhe aprouver. ! Pois bem, voltando aos vetores força, o procedimento que padronizamos para atu- alizá-los após uma rodada é o seguinte. Primeiro atribuimos a cada time participante do campeonato, na verdade, dois vetores de força PC=(PVC,PEC,PDC) e PF=(PVF,PEF,PDF) onde PVC, PEC e PDC ser ̃ao utilizados, respectivamente, no cálculo das probabilidades de vitória, empate e derrota do clube em uma partida jogando como mandante (em “casa”), e PVF, PEF e PDF seguem a mesma lógica, desta feita sendo a equipe em questão visitante (joga “fora de casa”). ! A cada rodada, os vetores de força são realimentados. Se o time jogou como man- dante, muda-se o seu vetor mandante, e o mesmo vale para seu vetor visitante, caso o jogo tenha sido fora de casa. A ideia de se tratar um mesmo time como dois diferentes – um em casa, e outro fora dela– reflete o modo como a torcida, ou o próprio campo onde a equipe habitualmente joga, podem influenciar no desempenho do clube. ! A primeira premissa da qual partimos é a de que, se um time vence uma partida, aumenta sua probabilidade de vencer a partida seguinte. Além disso, este aumento na probabilidade de vitória é tanto maior quanto melhor for o time derrotado. Analogamente, se o time perde uma partida, aumenta sua probabilidade de perder o próximo jogo e o aumento é tanto maior quanto pior for seu adversário. ! Podemos entender o modo como modificamos os tais vetores de probabilidade, através de um exemplo. Vamos supor que houve o jogo Real Madrid x Barcelona, disputado no Santiago Bernabeu, e que os merengues foram os vencedores do confronto. Então o novo vetor de força do Real Madrid como mandante, digamos , é obtido a partir do vetor anterior, digamos , da seguinte forma2 2 Vetores tridimensionais são objetos que apresentam 3 coordenadas. Existem duas operações básicas, a saber, soma de vetores e multiplicação de um vetor por um número real definidas dessa maneira: se u = (a,b,c), v = (x,y,z) e k um número real então u + v = (a + x, b + y, c + z) e k · v = (ka, kb, kc). TRIM, 5 (2012), pp. 39-53 48 B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães onde p é o “peso” que damos ao passado e rBarça é o rendimento do Barcelona (que também deve ser modificado para o próximo jogo) dado pela seguinte fórmula que vale para todos os clubes: Por exemplo, se p = 0 significa que o passado não tem importância alguma, e o fato de que o Real Madrid venceu o Barcelona no Santiago Bernabeu daria aos merengues “força máxima” para a próxima partida que jogasse em casa. Por outro lado, se damos a p um valor muito alto, os vetores de força seguem quase que inalterados jogo a jogo, e perdemos o “fator moral” trazido pelas vitórias. Ou seja, p indica a sensibilidade dos times em relação ao resultado de uma partida. Quanto ao rendimento r do adversário, o que a fórmula acima diz é que, se o Barcelona tivesse, por exemplo, um rendimento muito baixo, então a vitória do Real não seria tão significativa a ponto de alterar substancialmente suas chances de vitória. ! Da mesma forma, após a derrota no Santiago Bernabeu, o vetor visitante do Barce- lona ́e modificado do seguinte modo Note que aqui aparece 1 − rReal (e não rReal, como na anterior) pois o raciocínio se inverte: perder, por exemplo, para um time hipotético que sempre vence (r = 1) não significa absolutamente nada (1 − r = 0 e o vetor força fica intacto). ! Como se viu, vencer uma partida aumenta a probabilidade de vencer a pró́xima, uma vez que a componente PV aumenta e as demais componentes diminuem. Simetricamente, a probabilidade do time derrotado ser novamente derrotado aumenta. Contudo, TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! 49 o mesmo não se aplica em caso de empate entre as equipes. Ou seja, empatar uma partida não aumenta as chances de empatar a próxima e diminuam as chances de vencer ou perder. De fato, suponhamos que um time, jogando como visitante, empatasse com o líder do campeonato. É razoá́vel supor que a sua probabilidade de vencer uma partida, como visitante, também aumente. Da mesma forma, se o empate é com o lanterna do campeonato, a probabilidade de perder a próxima partida ́e que deve ser aumentada. A grosso modo, empate com time bom é “meia vitória”, empate com time ruim ́e “meia derrota”. ! Para expressar este raciocínio em termos numéricos, montamos as fó́rmulas que se seguem. Para entendê-las, voltemos ao clássico Real Madrid x Barcelona no Santiago Bernabeu, e suponha que houve empate. Se rBarça ≤ 1/2 então o Barcelona não está tão forte no campeonato, e atualizamos o vetor força do Real Madrid como mandante da seguinte forma Ou seja, é a tal “meia derrota” que dissemos acima e (0, 1, 0) é o empate puro. Entendemos melhor a fórmula considerando os casos extremos. Se os azul-grenás tiverem rendimento rBarça = 1/2, então o segundo termo do numerador se anula e o terceiro é (0, 1, 0), ou seja, apenas a tendência ao empate do Real Madrid em casa será aumentada. Mas supondo, hipoteticamente, que o Barcelona sequer pontuou no campeonato, seu rendimento é nulo e o terceiro termo do numerador desaparece, sendo o segundo igual .Ou seja, neste caso o Real Madrid teve uma “meia derrota” para o Barcelona apesar de ter, na prática, empatado o jogo, o que deve fazer crescer tanto sua tendência a futuros empates quanto derrotas. Os casos intermediários 0 < rBarça < 1/2 correspondem à média ponderada entre os vetores e (0, 1, 0), dependendo do rendimento do time catalão. ! Agora, se o Barcelona vem forte no campeonato, digamos com rendimento rBarça > 1/2, então o empate do Real Madrid está mais para “meia vitó́ria” e seu vetor probabilidade é atualizado do seguinte modo TRIM, 5 (2012), pp. 39-53 50 B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães Após o empate, o vetor probabilidade do Barcelona como visitante é atualizado de forma absolumente análoga levando em conta o rendimento r Real do Real Madrid. 3. Um Modelo de Cálculo para a Fórmula 1 ! No início de 2010, resolvemos estender nosso projeto a Fó́rmula 1. A idéia era montar um modelo que calculasse as probabilidades de cada piloto vencer o campeonato (ou terminar em uma determinada posição), e a partir deste fornecer informações adicionais como, por exemplo, a pontuação esperada de cada um. ! Como era de se esperar, o primeiro passo era ver, do ponto de vista probabilístico, o que a Fórmula 1 tem em comum com o Futebol posto que já tínhamos um modelo em mãos. E, de fato, a teoria acima descrita se aplica da mesma forma se substituímos times por pilotos, jogos por corridas e a pontuação do Futebol por partida (V=3, E=1, D=0), pela pontuação da Fórmula 1 por prova (1º=25, 2º=18, 3º=15,…). E para calcular as probabilidades que queremos, o computador irá simular inúmeros campeonatos, e, para tal devemos, como antes, ensiná-lo a simular uma corrida. ! O problema começa aí. Uma corrida de Fórmula 1 é bem mais complexa do que um jogo de Futebol. Não são apenas 3 cenários cabíveis (vitória de um, de outro, e empate) como no Futebol, mas supondo que há 20 pilotos, este número sobe para 20! e é muito grande. Com efeito, o computador teria de montar o vetor probabilidade da corrida, nos mesmos moldes do vetor probabilidade de um jogo, ponderando as chances de cada um dos pilotos em cada uma dos 20! cenários, depois dividir o intervalo de 0 a 1 em 20! pedaços e então fazer o sorteio, gerando um número aleató́rio. O tempo de processamento, para tal, é enorme e descartamos esta possibilidade. ! Nossa primeira tentativa foi criar um modelo que fosse o mais simples possível e analisar sua viabilidade. Em vez de “vetor força”, cada piloto teria um “valor força”, i.e., bastaria um único número para descrever a força de cada piloto. Esta variava de 0 a 10, dividida em uma parte fixa (de 0 a 7) dependendo da equipe, e outra variável (de 0 a 3) de acordo com os resultados do piloto. Dividíamos então o intervalo [0, 1] em 20 partes pro- TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! 51 porcionais ao desempenho de cada piloto, e fazíamos o sorteio para o primeiro colocado. Na sequência, o computador excluía o piloto sorteado, redimensionava o intervalo de acordo com as forças dos restantes, sorteava o segundo colocado, e assim sucessivamente. ! O modelo definitivamente não funcionou. Há vários modos de se verificar se os re- sultados matemá́ticos contrastam com o mundo real e aí é fundamental entender o que se pretende modelar. No ano de 2010, três equipes dominaram o circo da Fó́rmula 1 –BAR, Ferrari e McLaren– ao passo que três delas –Lotus, Hispania e Virgin– estavam muito aquém de qualquer outra, às vezes 4 segundos mais lentas por volta do que as demais, o que é uma enormidade. Portanto, um sorteio que tenha um piloto da Virgin è frente de um ferrarista deve ser muito raro. O problema é que nas nossas simulações, isto não acontecia com a raridade prevista. Mesmo aumentando a força fixa das equipes grandes e reduzindo a das pequenas o problema persistia, embora em menor escala. Um modo de se ver isto era através da pontuação esperada. O normal seria que a pontuação final dos pilotos da Lotus, Hispania e Virgin oscilasse entre 0 e 2 pois só́ pontuariam em uma corrida muito atípica com chuva e desastres, sendo que na prá́tica estes eram os carros menos preparados para as “wet races” além de, em geral, serem os primeiros a bater. Ao contrá́rio, em nossas simulações tais pilotos terminavam o campeonato, como esperado, nas ú́ltimas colocações, mas com pontuação que variava entre 6 e 10. Detalhe: todos eles terminaram o campeonato de 2010 sem ponto algum. ! O interessante é que o melhor modo de se chegar a um modelo condizente com a realidade é justamente se afastando dela. Vendo as entrevistas dos pilotos antes das provas, temos a impressão que todos querem ganhar e, dada a largada, todos disparam em busca da vitória. Porém, do ponto de vista meramente formal e abstrato –que é como o fenômeno será modelado– a histó́ria de uma corrida pode ser muito diferente. Suponhamos, por exemplo que o nosso referencial é o primeiro colocado e convencionamos que o mesmo está parado, sendo que os outros se movem em relação a ele. Nos atendo somente ao movimento do ú́ltimo colocado, temos a impressã̃o que ele se afasta da primeira colocação como se estivesse fugindo de um bandido. A ú́ltima coisa que nos passaria pela cabeça é que um tal piloto entrou para vencer. Ao contra ́rio, talvez o modo certo de se encarar uma corrida de Fórmula 1 seja compará-la a um jogo em que 20 coelhos partem em direção a 20 casas numeradas de 1 a 20. Há coelhos que disputam as primeiras TRIM, 5 (2012), pp. 39-53 52 B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães casas, outros com tendência às casas intermediárias, e alguns coelhos que estão muito felizes nas últimas casas e não há nada nesse mundo que os tire de lá. ! Tendo em mente o dito acima, montamos um modelo que se mostrou bastante sa- tisfatório após vários testes e se baseia na fórmula de Poisson. Criamos, para cada corredor X, um vetor força PX = (P1,P2,P3,…,Pi,…,P20) onde Pi indica a probabilidade do piloto X chegar na i-ésima colocação. O valor de Pi é dado pela equação em que μX é a média das colocações de X nas corridas até então disputadas e e = 2, 7128… é a base do logaritmo natural. Se por exemplo, após 5 provas, X venceu as duas primeiras, depois chegou em quarto, sexto e último na quinta prova após bater na largada temos e deverá ser atualizado após a próxima prova. Repare o leitor que quanto mais forte for o piloto X, menor será o μX que varia entre 1 (X venceu todas as provas) a 20 (X chegou em último em todas elas). Portanto, pode-se verificar que quanto melhor o piloto maior será Pi pois μX ≥ 1. Nos raciocínios acima sempre supomos que são 20 os pilotos que disputam o campeonato, mas é lógico que podemos ajustálo ao número exato de pilotos na temporada em questão 3. Ao tomarmos a média simples da classificação de cada piloto, situações adversas como uma corrida sob forte chuva ou forte calor, que afeta consideravelmente o desempeho dos pneus, são consideradas indiretamente pela média μX, uma vez que não teríamos um retrospecto considerável de cada piloto em cada uma dessas situações. 3 Verifica-se matematicamente que à medida que o número de corridas aumenta, a soma das componentes de PX vai se aproximando de 1, ou, em linguagem matemática, . . Por isso os Pi são, de fato, probabilidades. TRIM, 5 (2012), pp. 39-53 Probabilidades no Esporte! ! 53 No início de qualquer campeonato de Fórmula 1, certos pilotos são considerados favoritos enquanto outros meros coadjuvantes. E essas expectativas são descritas nos valores iniciais de PX de cada piloto. Logicamente, nem sempre essas expectativas se confirmam ao longo do campeonato. Portanto, por uma questão de equidade, poderíamos considerar que todos os pilotos iniciam com a mesma probabilidade de ser campeão, e o modelo levaria algumas corridas para aferir, com melhor precisão, o desempenho de cada piloto. Além disso, as probabilidades são calculadas sem a consideração do grid de largada de cada corrida. Em certas provas, como a de Mônaco, esse fator é fundamental na classificação final. Ao ser determinado o grid, pode-se, por exemplo, balancear a média μX de cada piloto com o restrospecto médio dos pilotos que largam na mesma posição do grid. ! Fazemos então a simulação para a primeira colocação vendo a componente P1 de cada piloto e dividindo o intervalo [0,1] em 20 partes proporcionais a estas componentes. O computador sorteia um número entre 0 e 1 e, de acordo com a parte do intervalo em que cair, escolherá o vencedor da prova. Na sequência, exclui este piloto e redivide o intervalo de acordo com a componente P2 de cada um dos 19 pilotos restantes e obtém o segundo colocado após novo sorteio. Depois, repete o mesmo processo até que sobre apenas um piloto que será decretado o último na prova. Com esses cálculos, obtemos valores como a probabilidade para o piloto ganhar a próxima corrida, ganhar o campeonato, a pontuação esperada, e outros dados que podem ser de interesse do público em geral. Referências [1] B. James, Probabilidade: um Curso em Nível Itermediário, Rio de Janeiro, Projeto Euclides, 3a edição (2008). [2] F. Brochero, G. N. Costa, M. Terra Cunha, B. N. B. de Lima, R. V. Martins, “Futebol: uma Caixinha de… Sorteios”, Ciência Hoje, 254 (2008), pp. 24-29. [3] I. Richard, The Pleasures of Probability, Nova Iorque, Springer-Verlag (1995). TRIM, 5 (2012), pp. 39-53 55 Envío de originales ! TRIM es una revista internacional y multidisciplinar, editada en formato digital, y de libre acceso, por el Centro “Tordesillas” de Relaciones con Iberoamérica de la Universidad de Valladolid. ! Se publicarán trabajos en los que se presenten resultados de investigación, en dife- rentes ámbitos de conocimiento. Las aportaciones deben ser originales e inéditas. No se aceptarán artículos que hayan sido publicados en otro lugar. ! Los textos podrán remitirse en español o portugués, acompañados de un breve re- sumen y un máximo de cinco palabras clave, tanto en la lengua del artículo como en inglés, lengua en la que también se proporcionará el titulo del artículo. ! Se enviarán en formato digital, con las extensiones .txt, .doc o .rtf, con tipo de letra Times New Roman, cuerpo 12, espacio y medio de interlineado (se calculan 2100 caracteres, incluyendo espacios en blanco, por página), no pudiendo superar una extensión de 15 páginas. Excepcionalmente, se contemplará la posibilidad de publicar artículos de mayor extensión. ! La tipografía en negrita se empleará tan solo en los títulos y subtítulos, no cam- biando el tamaño o tipo de letra de los mismos. ! No se utilizarán sangrados, ni ningún otro formato de texto, pues este se aplicará durante la maquetación. ! Pueden ponerse en contacto con TRIM en la siguiente dirección de correo electró- nico: [email protected] ! ! Referencias bibliográficas: - Libros: Autor (apellidos en mayúscula, inicial), título (en cursiva), ciudad, año de edición, página/s (p. pp.) Ejemplo: CUESTA DOMINGO, M. (Coord.), Descubrimientos y cartografía en la época de Felipe II, Valladolid, 1999. - Artículos: Autor (apellidos en mayúscula, inicial), título (entre comillas), nombre de la revista (en cursiva), número de la revista, año de publicación (entre paréntesis), página/s (p. pp.) 56! Envío de originales Ejemplo: MACHO STADLER, M., “Espacios foliados: el punto de vista no conmutativo”, Revista del seminario iberoamericano de matemáticas, 3, V-VI (2008), pp. 79-93. ! Referencias de Internet: ! Se seguirán las recomendaciones de la MLA. La cita recogerá la siguiente informa- ción: Nombre del autor (si se conoce), en Título completo del documento (entre comillas), Título del trabajo completo (en letra cursiva). Fecha de publicación o de la última revisión (de ser posible). Dirección completa del http (URL), entre paréntesis angulares < >. Fecha de la visita entre paréntesis. Ejemplo: LEMUS, R., “Balas de salva. Notas sobre el narco y la narrativa mexicana", en Letras Libres. Septiembre 2005. <http://www.letraslibres.com/index.php?art=10700> (7 de marzo de 2010). ! Repetición de fuentes: Para posteriores referencias de una obra ya citada, se puede recurrir a las expresiones op. cit., ÍDEM, o IBÍDEM, según corresponda, indicadas en cursiva. ! Imágenes e ilustraciones: ! Cada artículo podrá ser acompañado de hasta un máximo de 10 imágenes. ! Fotografías, ilustraciones, tablas y gráficos se incorporarán en su correspondiente archivo gráfico (formato jpeg o tiff), nunca insertadas en el texto, y acompañadas de un archivo de texto con sus correspondientes textos de pie de foto. ! Estos archivos deberán poseer una resolución que permita su correcta reproduc- ción. ! Es responsabilidad del autor verificar el correcto formato de su texto. Los trabajos que no se adapten a las presentes normas no serán sometidos a revisión para su posible publicación.