TRIM
Tordesillas Revista de Investigación Multidisciplinar
5 (2012)
TRIM
Tordesillas Revista de Investigación Multidisciplinar
Directora
M.ª Francisca Blanco (Universidad de Valladolid)
Secretario Técnico
Jesús F. Pascual Molina (Universidad de Valladolid)
Comité científico
José M. Aroca (Universidad de Valladolid)
Dora Giordano (Universidad de Buenos Aires)
Juan Luis González García (Universidad Autónoma de Madrid)
Emily McClung (Universidad Autónoma de México)
Luis Manuel Navas (Universidad de Valladolid)
Fernando Rull (Universidad de Valladolid)
Marcio Soares (Universidade Federal de Minas Gerais)
Miguel Á. Zalama (Universidad de Valladolid)
TRIM se edita por el Centro “Tordesillas” de Relaciones con Iberoamérica, de la Universidad de Valladolid (http://ctri.uva.es)
Licencia Creative Commons.
ISSN 2173-8947.
TRIM aparece indexada en las bases de datos y repositorios: LATINDEX y DICE.
TRIM no se responsabiliza de los juicios y opiniones expresados por los autores en sus
artículos y colaboraciones.
Índice
Página
Los fractales y el diseño en las construcciones
5
Fractals and design in constructions
Rufino Iturriaga y Carina Jovanovich
Dos modelos para determinar la eficiencia de una empresa constructora
21
Two models to determine the efficiency of a construction firm
Carmen Rescala, Gustavo Devincenzi, Gricela Rohde, M.ª Liliana Bonaffini, Marta V.
Giraudo, Gustavo Bernaola y Rita Pavón (becaria)
Probabilidades no Esporte
Probabilidades no Esporte
Bernardo Nunes Borges de Lima, Gilcione Nonato Costa, Rafael Nacife, Renato Vidal
Martins y Rodrigo Guimarães
39
4
LOS FRACTALES Y EL DISEÑO EN LAS CONSTRUCCIONES
Fractals and design in constructions
RUFINO ITURRIAGA 1 Y CARINA JOVANOVICH2
Aún no lo sabemos todo acerca de los fractales;
tampoco el hombre ha terminado de descubrirse.
!
Resumen
!
En las décadas más recientes, la geometría fractal se ha sumado a la geometría
clásica de Euclides de Alejandría, siendo considerada por arquitectos de todo el mundo
en sus propuestas y creaciones.
!
En este trabajo se busca establecer una relación entre la geometría fractal y el di-
seño arquitectónico de una manera informativa, sin detalles matemáticos más que los
puntos esenciales, necesarios para su entendimiento y correcta interpretación.
Palabras Clave: Fractales, Arquitectura, Geometría.
!
Abstract
!
In recent decades, fractal geometry has joined classical geometry of Euclid of Alex-
andria, being considered by architects from around the world in their proposals and creations.
!
This paper seeks to establish a relationship between fractal geometry and architec-
tural design of a informational way, without mathematical details, only the essentials points
necessary for correct understanding and interpretation.
Key Words: Fractals, Architecture, Geometry.
1
Ingeniero Electromecánico, Facultad de Arquitectura, UNNE, Resistencia, Chaco, Argentina.
[email protected].
2 Licenciada en Tecnología Educativa, Especialista en Investigación Educativa, Facultad de Arquitectura,
UNNE, Resistencia, Chaco, Argentina. [email protected]
TRIM, 5 (2012), pp. 5-19
6
!
!
Rufino Iturriaga y Carina Jovanovich
Concepto y Características.
El término fractal es un vocablo derivado del latín, fractus (participio pasado de
frangere), que significa quebrado o fracturado y se lo utiliza para designar a objetos “semigeométricos” cuya estructura básica se repite a diferentes escalas. No es sencillo encontrar una definición rigurosa para los fractales, de hecho, no existe aún una definición
universalmente aceptada por el mundo matemático.
En el capítulo 5 de su obra La Geometría Fractal de la Naturaleza, el célebre matemático Benoit Mandelbrot3 trata un ejemplo sobre la longitud de la costa de Gran Bretaña4 , en la cual, a través de un relato anecdótico brinda una impresión sencilla para obtener un claro concepto acerca de los fractales. Al respecto de la longitud de la costa, el autor Clifford A. Pickover establece:
Si se intentara medir una costa o límite entre dos naciones, el valor de esta medición dependería de la longitud de la vara de medir utilizada. Conforme la vara de medida disminuyera en longitud, la medida sería más sensible a las curvas cada vez más pequeñas del
contorno y, en principio, la longitud de la costa tendería a infinito conforme la longitud de la
vara se acercara a cero. El matemático británico Lewis Richardson consideró este fenómeno en su intento de establecer una correlación entre la aparición de guerras y la frontera
que separa dos o más naciones (llegó a la conclusión de que el número de guerras de un
país era proporcional al número de países con los que limita). A partir del trabajo de Richardson, el matemático franco-estadounidense Benoit Mandelbrot, añadió y sugirió que la
relación entre la longitud de la vara de medir y la longitud total aparente de una costa podía
expresarse a través del parámetro D, la dimensión fractal.”5
3
Benoit B. Mandelbrot nació en 1924 en Varsovia, Polonia, en el seno de una familia judía y fue educado
bajo la tutela de su tío, Szolem Mandelbrot, reconocido profesor de Matemática en el Colegio de Francia, el
mismo que le recomendó que leyera la tesis de doctorado que Gaston Julia (1883-1978) había publicado en
1918 sobre iteración de funciones racionales. En 1977, durante su trabajo en el Laboratorio de IBM de
Yorktown Heigths, New York, Mandelbrot pudo demostrar como el trabajo de Julia constituye la fuente de los
fractales más hermosos conocidos hasta el momento. En 1982 publicó su libro Fractal Geometry of Nature,
en el que explicaba sus investigaciones en este campo. Entre 1985 y 1991 recibió numerosas distinciones,
entre las que se destacan el premio Barnard Medal for Meritorious Service to Science, la Franklin Medal, el
premio Alexander von Humboldt, la Medalla Steindal y la Medalla Nevada. En el año 2004 su obra Fractales
y Finanzas fue elegida como mejor libro de economía del año por la versión alemana del Financial Times.
Fue profesor en la Universidad de Harvard, Yale, el Colegio Albert Einstein de Medicina y otros. Falleció en
octubre de 2010 en Cambridge, Massachusetts, Estados Unidos.
4 Ideas expuestas originalmente en su trabajo “How long is the coast of Britain? Statistical self-similarity and
fractional dimension”, Science, 156 (1967), pp. 636-638.
5 Clifford A. Pickover (2011) “La paradoja de la línea de costa” en: El libro de las Matemáticas. Librero b.v.
Holanda, p. 402.
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
7
En el intento de una definición, hay que considerar dos propiedades que los objetos
presentan: la autosimilitud y la “dimensión extraña”.
El término autosimilitud (que puede ser entendido también como autosemejanza)
está relacionado a la propiedad de un objeto de presentar en sus partes la misma forma o
estructura que el todo, aunque pueden encontrarse a diferentes escalas y ligeramente deformadas en algunos casos. Se mencionarán tres tipos diferentes de autosimilitud:
•Autosimilitud exacta: es el tipo más restrictivo y exige que el fractal parezca idéntico a
diferentes escalas (sistemas de funciones iteradas). Ejemplo: conjunto de Cantor, triángulo de Sierpinski, copo de nieve de Von Koch y otros.
•Cuasiautosimilitud: exige que el fractal parezca aproximadamente idéntico a diferentes
escalas (fractales definidos por relaciones de recurrencia). Ejemplo: conjunto de Julia,
conjunto de Mandelbrot y otros.
•Autosimilitud estadística: es el tipo más débil y exige que el fractal tenga medidas numéricas o estadísticas que se preserven con el cambio de escala (fractales aleatorios).
Ejemplo: el vuelo de Levy, paisajes fractales, árboles brownianos y otros.
!
!
Considérese en primer
término un triángulo equilátero que no contenga “huecos”
en su interior; entiéndase
como tal un triángulo “lleno”
(Figura 1). Si los puntos medios de cada uno de los lados de los triángulos son
unidos por medio de segmentos, se notará que dentro
del triángulo inicial quedan
Figura 1: El triángulo de Sierpinski. Secuencia de generación.
Imagen: http://batchdrake.wordpress.com
formados cuatro triángulos
más pequeños, de los cuales se eliminará el del medio (el que está invertido respecto de
los otros).
Si en cada uno de los tres triángulos llenos que han resultado del proceso descripto, se repite el procedimiento, se notará que resultan nueve triángulos más pequeños.
Con una nueva iteración, el número de triángulos llenos llega a veintisiete y se puede seTRIM, 5 (2012), pp. 5-19
8
!
Rufino Iturriaga y Carina Jovanovich
guir de la misma manera, obteniendo como resultado un número creciente de triángulos
cada vez más pequeños. Nótese además que, por cada iteración que se efectúe aparecen diferentes tamaños en los triángulos vacíos. Está claro que el proceso es infinito, sin
embargo a partir de las iteraciones de orden cuatro o cinco se puede tener una idea de
cómo será la figura límite. Si se continúa iterando será difícil distinguir las diferencias a
simple vista entre un paso y el siguiente. En el dibujo se pueden apreciar muchas copias
de sí mismo en el interior, lo cual permite afirmar que se halla formado por copias de sí
mismo que se encuentran a diferentes escalas y en ocasiones cambiadas de posición,
dependiendo del orden de iteración que se represente. Este es el concepto de autosimilitud, la primera de las propiedades mencionadas. Es posible afirmar que se trata de una
noción muy sencilla e intuitiva, pues seguramente todas las personas en algún momento
la han percibido en diferentes contextos naturales, como nubes, olas, vegetales, etc6 .
El triángulo analizado se conoce con el nombre de triángulo de Sierpinski7 . De manera similar se pueden estudiar otros fractales muy conocidos, el pentágono de Dürer, la
alfombra de Sierpinski, el copo de nieve de Von Koch y muchos más, en todos ellos se
percibe en mayor o menor grado que el todo es igual a sus partes, salvo un factor de escala.
Desde muy temprano en la educación matemática se aprende que un punto tiene
dimensión 0, que una línea tiene dimensión 1, que las figuras planas tienen dimensión 2 y
que las espaciales tienen dimensión 38. Estas dimensiones que corresponden a números
enteros y son invariantes ante homeomorfismos9 , son conocidos con el nombre de dimensión topológica y refiere precisamente al concepto habitual de dimensión que se tiene incorporado, pero la dimensión topológica no es la única que existe. Tomando un cuadrado,
el mismo puede ser dividido en cuatro cuadrados congruentes y decir que el factor de
ampliación es 2, o de manera similar, si se descompone en nueve triángulos congruentes
6
Al respecto, Mandelbrot establece: “Un fractal es una clase especial de invariancia o simetría que relaciona
un todo con sus partes: el todo puede descomponerse en partes que evocan el todo. Piénsese en una coliflor: cada racimo puede separarse y es, en sí mismo, una coliflor en miniatura. Los pintores, entrenados en
observar la naturaleza de cerca, ya sabían esto sin esperar a que la ciencia se lo dijera”, De Benoit Mandelbrot – Richard L. Hudson. (2006). Fractales y Finanzas. Barcelona (España). Editorial Tusquets, p. 140.
7 Waclaw Sierpinski (1882id – 1969): matemático polonés nacido en Varsovia. Fue uno de los fundadores de
la escuela matemática moderna polaca y contribuyó al progreso de la teoría de conjuntos y de la topología;
favoreció la consolidación de los fundamentos lógicos de la matemática. Uno de los cráteres de la Luna lleva su nombre.
8 Algunos autores afirman que el conjunto vacío tiene una dimensión igual a -1.
9 Recuérdese que, si X e Y son espacios topológicos y f una función de X a Y, entonces ⨍ es un homeomorfismo si se cumple que: ⨍ es una biyección, ⨍ es continua y además la inversa de ⨍ es continua.
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
9
al cuadrado inicial, se dice que el factor de ampliación es 3. Como generalidad se puede
expresar que el cuadrado se puede descomponer en n² copias de sí mismo. Si se hace un
razonamiento análogo a partir de un cubo, el mismo se puede descomponer en n³ partes
iguales. Así, se puede generalizar la fórmula:
en la que:
N: número de copias semejantes a la figura original.
n: factor de ampliación que se debe aplicar para obtener la figura original.
D: dimensión fractal. La cual se conoce como dimensión fractal y que corresponde a una
simplificación del concepto de dimensión que utilizó Haussdorf10.
La definición de Mandelbrot: “un fractal es un conjunto cuya dimensión de Hausdorff es estrictamente mayor que su dimensión topológica” es ampliamente aceptada (Figura 2), sin embargo el mismo autor señaló que no resulta una definición lo suficientemente general ya que la misma presenta el inconveniente de excluir conjuntos que claramente debieran ser reconocidos como fractales.
Como generalidad se acuerda en no definir un fractal, aunque es posible enumerar
sus propiedades características:
• Los fractales son demasiado irregulares para ser descriptos con la geometría tradicional de Euclides.
• Los fractales tienen una cierta forma de auto-semejanza, quizás aproximada o estadística.
• Por lo general, la dimensión fractal es mayor que la dimensión topológica.
• En muchos casos, el fractal se define en forma muy simple, por lo general, recursiva.
10
Felix Hausdorff (1868-1942): matemático de origen judío, profesor en Universidad de Bonn y uno de los
responsables de la fundación de la topología moderna, célebre por su trabajo en el análisis funcional y la
teoría de los conjuntos. En 1918 introdujo la dimensión de Hausdorff que se utiliza para medir las dimensiones fraccionarias de los conjuntos fractales. En 1942, a punto de ser enviado a un campo de concentración
nazi, se suicidó junto a su esposa. El día anterior, Hausdorff escribió a un amigo: “Perdónanos. Te deseamos a ti y a todos nuestros amigos mejores tiempos” Muchos de los enfoques utilizados para calcular la dimensión de Hausdorff en relación con conjuntos complicados, fueron formulados por el matemático ruso
Abram Besicovitch (1891-1970), por lo cual a veces se utiliza el término “dimensión de Hausdorff-Besicovitch”.
TRIM, 5 (2012), pp. 5-19
10
!
Rufino Iturriaga y Carina Jovanovich
!
Las aplicaciones
de los fractales han crecido exponencialmente y
se expandió a diferentes
ramas de las artes y las
ciencias. Existen teorías
basadas en fractales que
DT=2 ; DH=2 ; DH=DT
DT=1 ; DH~2 ; DH>DT
Figura 2: Comparación de dimensiones.
Imagen: http://www.dma.fi.upm.es/sonia/practicas/clasics-I/sierpinski.html
regulan el enorme tráfico
de las comunicaciones,
comprimen las señales
de audio y vídeo, explican el crecimiento de tejidos biológicos, analizan el comportamiento
de ondas sísmicas, movimientos de mercado, bursátiles y más. Son ampliamente conocidas las pinturas de fractales e incluso hay música surgida de ellos.
Todos los fractales tienen algo en común, ya que todos son el producto de la iteración,
repetición, de un proceso geométrico elemental que da lugar a una estructura final de una
complicación aparente extraordinaria. Utilizando algún software para la construcción de
fractales, se llegará a la conclusión de que no existen programas que permitan una iteración infinita, lo cual grafica perfectamente lo que ocurre con los fractales naturales.
Existen en la naturaleza objetos que presentan características fractales. Si se toma
una rama de algún árbol, se verá que la misma presenta una apariencia semejante a la
del árbol y lo mismo se notará comparando las ramas más pequeñas, pero llegará un punto en el que el árbol no puede descomponerse más, es decir que no será un fractal perfecto (estos últimos son solamente teóricos). También los sistemas de ríos, arroyos y
afluentes pueden verse como fractales de la naturaleza.
Fractales y diseño.
!
La utilización de los algoritmos como herramienta de diseño, permiten generar
permutaciones infinitas, inviables a partir del enfoque manual, ya que los procesos son
abordados con una escala y complejidad que brindan los beneficios de profundidad y amplitud. Estos proyectos tratan de explorar los algoritmos y la computación como una herramienta de diseño generativo, combinados a los actuales procesos de diseño produciendo una nueva e inusual forma arquitectónica, que nos atreveremos a denominar “Ar-
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
11
quitectura Fractal”. No obstante la reciente aparición referida, se pueden observar aplicaciones fractales en obras arquitectónicas construidas hace siglos.
La esponja de Menger también conocida como cubo de Menger (Figura 3), fue
descripta por primera vez por el matemático austríaco Karl Menger11 , en el año 1926. Para efectuar la construcción del mismo, se parte desde un cubo lleno y se los divide en 27
cubos idénticos, que resultarán más pequeños lógicamente; luego se quitan el cubo central y los seis que comparten caras con él, de manera que quedan 20 cubos. Por cada iteración que del proceso mencionado el número de cubos aumentará en 20n, de manera
que rápidamente se llegará a un número muy alto.
!
La forma de este fractal hace
pensar sin duda en el cubo mágico. La esponja de Menger muestra propiedades
geométricas de gran interés, a medida que
se aumentan las iteraciones la superficie
aumenta hasta tender al infinito, al mismo
tiempo que encierra un volumen que tiende
a cero. Presenta una dimensión fractal entre
un plano y un sólido de 2,73.
!
En cada una de las caras del
cubo de Menger quedará formada la alfom-
Figura 3: La esponja de Menger.
bra de Sierpinsky (Figura 4), la cual se pue-
Imagen: http://www.ceticismoaberto.com/ciencia/
2139/fractais-uma-nova-viso-da-natureza
de apreciar en la figura en sus primeros órdenes de iteración. Siguiendo la relación con la esponja de Menger se puede establecer
que la alfombra tendrá una superficie que tiende a cero cuando se incrementen las iteraciones y una longitud que tiende a infinito. La misma resulta útil para el tratamiento de relaciones lleno-vacío dentro de la estructura general de las ciudades, morfologías básicas,
patios de parcela y manzana, circulaciones interiores y aperturas de fachada o estructuras
de máxima envergadura y mínimo peso. En cada una de las caras del cubo de Menger se
podrá apreciar que queda determinada la alfombra de Sierpinski, la cual se muestra en la
ilustración en sus primeros órdenes de iteración (Figura 4). Trazando un paralelismo con
11
Karl Menger (Viena, Austria, 1902 – Chicago, EE.UU. 1985). Se doctoró en Matemática en la Universidad
de Viena y debido a sus fuertes intereses en aspectos filosóficos, se unió al llamado círculo de Viena, integrado por filósofos lógico-empiristas. Su contribución matemática más popular es la esponja que lleva su
nombre.
TRIM, 5 (2012), pp. 5-19
12
!
Rufino Iturriaga y Carina Jovanovich
el cubo de Menger, se podrá notar que la alfombra tendrá una superficie que tiende a cero
cuando se incrementen las iteraciones y una longitud tendiente a infinito.
Figura 4: Alfombra de Sierpinski hasta el cuarto orden de iteración.
Imagen: http://personal.telefonica.terra.es/web/mundofractal.html
Dentro de la arquitectura, el cubo de Menger deja vislumbrar las relaciones llenovacío, de aplicación a la parte estructural y a los espacios como se puede notar en el proyecto que se muestra en la figura, que corresponde a una de las propuestas finalistas para el Centro de Artes Escénicos de Taipei (China)12 , la cual logró una mención especial
aunque finalmente no fue la seleccionada para la construcción (Figura 5).
!
La obra, de la
que se muestran figuras,
fue presentada por el estudio NL Architects a través de sus responsables
Pieter Bannenberg, Walter van Dijk y Kamiel Clase; se basa en un espacio
combinado de escala urbana, que busca lograr un
espacio verdaderamente
público, definido por el
Figura 5: Propuesta para el
Centro de Artes Escénicos Taipei (China)
mismo, para lo cual se
apuesta a la perforación
Imagen: http://www.freakarq.es/esponja-menger-taipei-nl/
12
El principal requisito en el concurso del “Centro de Artes Escénicos” consistía en el diseño de un centro
capaz de acoger exposiciones estándares y también eventos internacionales; además era el primer paso
para impulsar a Taipei como la ciudad “Capital de las Artes”. Participaron los estudios más importantes del
mundo: OMA, Zaha Hadid, Morphosis, NL Architects, SURV Associates, Jacob+Mc Farlane, MVRDV y otros.
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
13
del interior del edificio originando una estructura permeable para los peatones. El edificio
logra identidad; la plaza interior es un espacio abierto que permite el fluir de la vida urbana en todas las direcciones a través del mismo, protegido de los agentes meteorológicos
de manera parcial. Además, cualquier objetivo dentro del edificio se puede alcanzar mediante el uso de varios caminos alternativos, los cuales resultan interesantes para inducir
al encuentro y la interacción social, contando con instalaciones de bares, pasillos, restaurantes, salas de música y otras.
Se puede hacer mención también del proyecto para la KT Corporation en la ciudad
de Seúl, Corea del Sur, llevada a cabo por los estudios Daniel Libeskind + G.Lab* by
Gansam Architects & Partners13 en la que se podrá apreciar un novedoso sistemas de
puertas open-flow e intercomunicación entre habitantes como también con los visitantes.
Otra obra para destacar es el Simmons Hall del Massachusetts Institute of Technology, diseñado por Stevens Holl, que según él
mismo, el plan fue motivado,
al menos en parte, por la
esponja natural, la cual presenta una distribución fractal
de agujeros, con una aparente sencillez y tiene al cubo como punto de partida
(Figura 6).
!
La multiplicidad de
formas que surgen a partir
Figura 6: Simmons Hall, MIT, EE.UU.
Imagen:http://eliinbar.files.wordpress.com/2012/08/simmons_hall_big.jpg
de los fractales, como asimismo la belleza y el atractivo de las mismas hacen pensar en un espectro de posibilidades en el diseño más que amplio, aún cuando no se utilicen los algoritmos de generación
como una herramienta matemática.
!
El árbol binario de Pitágoras en su forma equilibrada, permite pensar en la asigna-
ción de espacios que se van separando a partir de una clasificación de temas o subte13
Proyecto de Arquitectura: Carla Swickerath (Studio Daniel Libeskind) + Chuloh Jung (G.Lab* by Gansam
Architects & Partners). Equipo de diseño: Seungki Min, Byungdon Yoo, Roy Oei (Studio Daniel Libeskind) +
Shinhui Won, Wookjin Chung, Sangsu Park, Sang-Hyun Son, Inkyung Han, Taewook Kang, Namhui Kim,
Shinkyung Jo (G.Lab* by Gansam Architects & Partners)
TRIM, 5 (2012), pp. 5-19
14
!
Rufino Iturriaga y Carina Jovanovich
mas, lo cual permite útiles distribuciones para las áreas de exposiciones, recorridos para
reconocimientos de productos y otros. La Cruz de Von Koch (también puede ser el copo
de nieve de Von Koch) en sus primeros órdenes de iteración pueden aplicarse en el diseño primario de plantas de edificaciones para sistemas carcelarios y también para galerías
artísticas.
!
Arquitectónicamente, el concepto de fractal, puede apreciarse en estilos como el
gótico, donde el arco apuntado era el elemento determinante; las catedrales góticas que
aún se conservan, como las de Reims, Colonia, Amiens y otras son claros ejemplos. En el
Castillo del Monte, contemporáneo con las catedrales y emplazado en el sur de Italia, se
manifiesta un estilo fractal basado en octógonos; se trata de una construcción militar y se
relaciona la planta del mismo con la obsesión del emperador Francisco II con el número 8
(Figura 7). Siglos después fue construida la muy famosa Torre Eiffel: ¿resulta acertado
trazar un paralelismo entre ella y la empaquetadura de Sierpinski14?
Figura 7: Castillo del Monte (Bari - Italia)
Imagen: http://www.absolutitalia.com/castell-del-monte
14
La empaquetadura de Sierpinski, conocida también como pirámide de Sierpinski se puede considerar
una generalización del triángulo que lleva el mismo nombre para 3 dimensiones. Se lo construye de manera
análoga, partiendo de un tetraedro regular.
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
15
En India se puede apreciar el uso de patrones fractales en la construcción de templos. Aparecen los triángulos en una forma más redondeada y a diferentes escalas para la
formación de decoraciones. Se pueden hallar numerosos ejemplos de este tipo de templos (Figura 8).
!
En referencia a la al-
fombra de Sierpinsky, es importante expresar la utilidad
de la misma para el estudio de
relaciones lleno-vacío dentro
de la estructura general de las
ciudades, morfologías básicas, patios de parcela y manzana, circulaciones interiores
y aperturas de fachada o estructuras de máxima envergadura y mínimo peso.
!
Figura 8: Arquitectura Fractal en Templo Hindú
Imagen: http://prec.alcul.us/index.php/2011/fractals/
Existen en la ar-
quitectura aplicaciones de fractales vinculadas a la urbanización, dentro de los proyectos
más conocidos se encuentra el de Serapio Nono, arquitecto de prestigio y amante de las
matemáticas, quien diseñó una amplia urbanización de viviendas siguiendo la curva de
Hilbert.
Se puede hablar de una particular afinidad entre la geometría fractal y el urbanismo, estableciendo una relación entre los enfoques, analítico y propositivo, de una manera
atractiva y sugerente. Las ciudades, en sus diferentes tamaños, presentan una clara autosimilitud a diferentes escalas, barrios, manzanas, casas, la cual primero fue advertida de
forma intuitiva y de una manera teórica y más profunda después.
!
Las impresiones fractales aplicadas a la organización urbana se remonta al
pasado antiguo de la humanidad y muestran como los pobladores de algunas regiones
africanas se han organizado en base a la geometría fractal y no en base a la geometría
euclidiana. Es así que se han encontrado aldeas organizadas de manera circular, trazando límites circulares en el territorio, con parcelas de tipo circular y también viviendas de
tipo circular; se trata de organizaciones que pueden decirse gérmenes de la sociedad. El
TRIM, 5 (2012), pp. 5-19
16
!
Rufino Iturriaga y Carina Jovanovich
estudioso Ron Eglash15 ha expuesto un
pormenorizado trabajo sobre el sitio arqueológico conocido como Ba-ila (actual
Zambia) (Figura 9) donde explica al detalle
los fundamentos del asentamiento y establece un croquis del mismo con una clara
base fractal (Figura 10). Además se pueden citar otros casos, como ser la forma de
organización llevada adelante por los KoFigura 9: Sitio arqueológico Ba-ila – Zambia.
Imagen: http://www.theacademylb.com/?p=384
toko en Logone-Birni situado en Camerún,
en el cual se puede apreciar la estructura
fractal, aunque en este caso no se trata de una base circular, sino rectangular. Otros
ejemplos son Labbazanga, Malí y la cultura Mokoulek, en las montañas de Mandara (Camerún) en las que viven grupos étnicos conocidos como Kirdi. Todas ellas son antiguas
civilizaciones situadas en África que organizaban sus sociedades a partir de formas geométricas con base fractal.
Figura 10: Modelo de la distribución fractal de la villa Ba-ila, considerando tres iteraciones.
Imagen: http://homepages.rpi.edu/~eglash/eglash.dir/afractal/afarch.htm
15
Ron Eglash (dic-1958, Chestertown, MD, EE.UU.) profesor universitario reconocido por su trabajo en el
campo de la etnomatemática. Sus estudios, entre otros, abarcan los patrones fractales que se encuentran
en la arquitectura, religión y arte en pueblos africanos. Es autor de la publicación “Fractales africanos: Informática y Diseño Moderno Indígena” (1999). Ver: http://homepages.rpi.edu/~eglash/eglash.htm.
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
17
Figura 11: Jardín Botánico de Barcelona.
Imagen: http://gutierrezcabrero.dpa-etsam.com/2009/11/14/el-jardin-botanico-de-barcelona/
El Jardín Botánico de Barcelona16 (Figura 11) asume la división fractal de la naturaleza misma, siendo el ejemplo más famoso que existe del rubro. Para su construcción el
equipo de diseño ha tenido en cuenta dos consideraciones fundamentales: está relacionada con la estructuración de la vegetación, pues se debían proyectar las plantaciones
siguiendo una ordenación geográfica, de manera que las plantas quedaran agrupadas
según las cinco regiones mediterráneas existentes en el mundo, y en segundo lugar, se
hacía necesario que el proyecto permitiera a la misma montaña ofrecer las condiciones
topográficas tanto para los espacios de plantaciones como para el diseño de la red de
caminos, aprovechando el relieve natural y de este modo evitar grandes movimientos de
tierras.
Como resultado de estas dos premisas, se optó por adaptar una malla triangular
sobre el terreno, que descansaría sobre el basamento topográfico de la montaña y a su
vez delimitar los 71 espacios necesarios para poder representar las principales familias
vegetales de las regiones del mundo con clima mediterráneo. La estrategia espacial utili-
16
El Jardín Botánico de Barcelona fue proyectado por un equipo interdisciplinar formado por los arquitectos
Carlos Ferrater y Josep Lluís Canosa, la arquitecta paisajista Bet Figueras, el horticultor Artur Bossy, y
el biólogo Joan Pedrola.
TRIM, 5 (2012), pp. 5-19
18
!
Rufino Iturriaga y Carina Jovanovich
zada para estructurar las colecciones del jardín es una red de triangulación, inspirada en
Topografías Técnicas.
La geometría fractal del plan de triangulación se observa en la escala más pequeña, en la forma de zigzag, en el diseño de las facetas del sistema de ruta, en la acera, que
se divide en pequeñas formas trapezoidales y en los "rotos" de los volúmenes del edificio
de entrada.
En toda la superficie del jardín se establece el fuerte contraste y la tensión dinámica entre la formalidad y la materialidad de los caminos y las paredes y en la evolución de
las plantaciones, salvajes y aparentemente anárquicas. Se tienen diferentes escalas de
percepción:
•
A escala de ciudad, pues proporciona puntos de vista abiertos sobre el Skyline de
Barcelona.
•
A escala del proyecto, marcada por puntos de vista general de los lugares estratégicos del jardín. A escala imaginativa, cuando se observan los diferentes phytoepisodes
y la mente se traslada a Australia o los paisajes de Sudáfrica, al encontrar especies
de estas lejanas zonas del mundo con clima mediterráneo.
•
A escala íntima, cuando el lugar permite abstraerse del mundo exterior y perderse en
la contemplación de una floración o transportarse por la percepción de un aroma.
Conclusiones.
En el avance que presenta desde su reciente aparición como concepto matemático, la geometría fractal encuentra aplicaciones en el diseño arquitectónico desde el punto
de vista de las formas surgidas de los diferentes conjuntos y los alcances de cada uno
(volúmenes, plantas, distribuciones, etc). Muchas de las aplicaciones se encuentran ya
plasmadas en obras dispersas por todo el mundo y otras aparecen como nuevas propuestas, manifestando una tendencia en expansión cuyo crecimiento se vislumbra a diferentes
escalas, aprovechando los actuales recursos técnicos que permiten los cálculos de estructuras que acompañen al diseño.
Los avances tecnológicos, popularizados en la más reciente década, han posibilitado a la arquitectura contemporánea tomar un camino de tendencia (observable claramente aún dentro de la libertad conceptual asumida y desplegada por los arquitectos actuales) en el que los proyectos se basan en modelos, funciones matemáticas y estructuras
TRIM, 5 (2012), pp. 5-19
Los fractales y el diseño en las construcciones!
19
fractales, fortaleciendo los vínculos entre las disciplinas y abordando complejidades que
no se habían registrado en otras épocas.
!
La aplicación del concepto fractal en disciplinas como arquitectura y urbanismo
abarca diferentes épocas de la humanidad, desde las edificaciones medievales y aún anteriores y las organizaciones de la sociedad, hasta las más modernas construcciones como el Soho Shangdu Complex (Beijing, China), ya sean aquellos que presentan aplicaciones de fractales en su estructura, como los que la presentan en la fachada o revestimientos, poniendo de manifiesto la convivencia del arte con los fractales y el vínculo directo entre los mismos.
Bibliografía.
• Mandelbrot, Benoit (2003). La Geometría Fractal de la Naturaleza. Barcelona (España).
Editorial Tusquets.
• Mandelbrot, Benoit (2006). Los Objetos Fractales. Forma, Azar y Dimensión. Barcelona
(España). Editorial Tusquets.
• Sabogal, Sonia - Arenas, Gilberto (2008). Una Introducción a la Geometría Fractal. Bucaramanga (Colombia). Universidad Industrial de Santander.
• Spinadel, Vera W de – Perera, Jorge G. – Perera, Jorge H. (2007). Geometría Fractal.
Buenos Aires. Ed. Nueva Librería.
• José Martínez Aroza. Fractales. Obtenido el 5 de diciembre de 2012, desde:
http://aixa.ugr.es/fractal.html
• Freakarq. (2009). Una gran esponja de Menger. Obtenido el 9 de septiembre de 2011,
desde: http://www.freakarq.es/esponja-menger-taipei-nl/
• Osame Kinouchi. (2009). Fractais: Uma nova visão da natureza. Obtenido el 22 de
agosto de 2012, desde: http://www.ceticismoaberto.com/ciencia/2139/
• Bartolo Luque – Aída Agea. Fractales en la Red. Obtenido el 30 de octubre de 2011,
desde: http://www.dmae.upm.es/cursofractales/index.html
• Ron Eglash - African fractals. Obtenido el 1 de noviembre de 2012, desde:
http://homepages.rpi.edu/~eglash/eglash.htm.
• nat. Jardí Bòtanic de Barcelona. Presntació. Obtenido el 1 de noviembre de 2012,
desde:http://w3.bcn.cat/V62/Home/V62XMLHomeLinkPl/0,4388,418159056_41887142
9_1,00.html
TRIM, 5 (2012), pp. 5-19
DOS MODELOS PARA DETERMINAR LA EFICIENCIA DE UNA EMPRESA
CONSTRUCTORA
TWO MODELS TO DETERMINE THE EFFICIENCY OF A CONSTRUCTION FIRM
CARMEN RESCALA, GUSTAVO DEVINCENZI, GRICELA ROHDE, M.ª LILIANA BONAFFINI,
MARTA V. GIRAUDO, GUSTAVO BERNAOLA, RITA PAVÓN (BECARIA)1
!
Resumen
Para determinar e interpretar la eficiencia en la gestión de administración en una
empresa constructora de la ciudad de Resistencia, Chaco, se aplicaron dos modelos, el
ACP (modelo estadístico que consiste en el Análisis de las Componentes Principales) y el
DEA (modelo matemático que radica en el Análisis Envolvente de Datos).
La evaluación de la eficiencia relativa mediante la modelación DEA requiere, cuando las variables son numerosas, de un paso previo en el que se seleccionan las que se
consideran más representativas respecto de esa evaluación, tanto para las entradas
(inputs) como para las salidas (outputs). Ese paso previo se materializa mediante el ACP.
Palabras clave: Modelación ACP-DEA, Eficiencia, Correlación, Componentes principales.
!
Abstract
!
To determine and interpret the efficiency in the management of a construction firm
in the city of Resistencia, Chaco, two models were applied, the PCA (statistical model that
consists of the Principal Component Analysis) and DEA (mathematical model that lies in
the Data Envelopment Analysis).
!
Assessing the relative efficiency by DEA modeling requires, when variables are
numerous, a step in which you select those considered most representative for that
evaluation, both for inputs (inputs) to the outputs (outputs). This step is implemented by
the PCA.
Key Words: PCA-DEA modeling, Efficiency, Correlation, Principal components.
1
c a r m e n r e s c a l a @ y a h o o . c o m . a r, g d e v i n @ i n g . u n n e . e d u . a r, g r o h d e @ e c o . u n n e . e d u . a r,
m b o n a f fi n i @ e c o . u n n e . e d u . a r, g u s t a v o @ e d e s y c c . c o m . a r, m a r t a _ g i r a u d o @ y a h o o . c o m . a r,
[email protected].
TRIM, 5 (2012), pp. 21-38
22
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
!
INTRODUCCIÓN
!
Las razones que justifican la realización de este trabajo están dadas por la necesi-
dad de mejorar la eficiencia para lograr un aumento en la calidad y la productividad de
una empresa constructora que desarrolla su actividad en la Provincia del Chaco.
!
Una de las actividades económicas más importantes de nuestro país es la que de-
sarrolla la industria de la construcción. En el sector industrial, que es el segundo de los
sectores de la producción, la industria de la construcción presenta caracteres complejos y
una serie de particularidades específicas que condicionan la existencia, estructura y funcionamiento de las empresas que operan en este mercado. Participan de su micro y macro entorno: una demanda que puede ser privada o pública, una oferta de la que participan empresas constructoras o profesionales independientes, proveedores provinciales,
regionales, nacionales o extranjeros, competidores locales y foráneos, todo ello enmarcado por enormes barreras de entrada y pocas barreras de salidas.
!
Los análisis se han efectuado para medir la eficiencia de empresas que se mueven
en el sector de la obra pública y cuya gestión de administración es necesario mejorar para
atenuar las consecuencias derivadas de las características que están presentes en el sector de la construcción y que se exponen a continuación:
• La actividad que desarrollan no sólo incide en el aspecto económico, también alcanza el social, contribuyendo a la satisfacción de necesidades básicas del hombre, tales como vivienda, electrificación y agua potable, entre otros.
• Están sometidas a una competencia intensa, a la discontinuidad de los trabajos, a
la caída en la inversión, al incremento de los costos, a la reducción real de los precios y la a inseguridad en el trabajo. Esto da como resultado que sus utilidades sean bajas e incluso negativas, provocando una importante reducción en sus reservas para reponer el capital o modernizar las maquinarias y equipos y, en ocasiones, la venta de activos o recursos estratégicos, que son las competencias o capacidades críticas propias de la empresa sobre las que se sustenta para competir en
el mercado. Pueden tratarse de recursos tangibles o intangibles 2.
• Las prácticas administrativas de las entidades públicas en cuanto al tiempo que
demoran para hacer efectivo el pago, hacen que los constructores asuman en
2
KAPLAN, R.; NORTON, D. (2007). Mapas Estratégicos. Ediciones Gestión 2000. EEUU.
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
23
gran medida los riesgos financieros de la obra, sin obtener una compensación del
riesgo asumido.
• Presentan producciones anticíclicas; atomización de las obras; legislaciones que
imponen cláusulas gatillos (ajuste automático de los haberes de los obreros por
convenio con el gremio según el índice del costo de vida) y desfasajes de tiempos,
desde la apertura de una licitación hasta la puesta en marcha de la obra y desde
allí hasta el cobro de certificados, hechos que colocan a los empresarios en una
situación de incertidumbre.
• La adjudicación (en algunos casos) de las obras a la propuesta más baja, sin tener en cuenta la solvencia de la empresa, perjudica la inversión en investigación y
desarrollo, en los procedimientos de capacitación y de trabajo así como en la consecución de la obra y la calidad de la misma.
!
Pero ¿qué significa mejorar la gestión de administración de una empresa? Son
muchos los hombres de ciencias que dan respuesta a esta pregunta, pero todos coinciden
en que lograr una administración eficiente es ingresar en el mundo de la administración
científica la que, como afirma Deming3 posibilita alcanzar la calidad y “mejorar la calidad
engendrada de manera natural e inevitable, mejora la productividad”.
!
La existencia de este nuevo paradigma de gestión, basado en la administración
científica, indica que la capacitación debe comenzar por el nivel estratégico de la empresa, para extenderse luego hacia los niveles ejecutivo y operativo.
La información estadística y los resultados arrojados por modelos matemáticos sirven para tomar decisiones, corregir errores, incrementar la productividad, fijar precios, optimizar
el mantenimiento y la disponibilidad de las máquinas e instalaciones, mejorar la concesión
y cobranza de los créditos, etc. Sin ellos una empresa no posee capacidad para reconocer cuáles son las operaciones y actividades que le son rentables y cuáles son las que le
producen pérdidas. Actualmente para dirigir y gestionar, se hace necesario tener información, y la misma surge de las mediciones, procesos y análisis. Medir es un principio crítico
para el éxito de toda organización.
!
Las empresas constructoras para su planificación estratégica necesitan como res-
paldo la información estadística que luego trasladarán al modelo DEA, creando así escenarios futuros de credibilidad y garantías para el desenvolvimiento de sus actividades y
3
DEMING, E. (1989) Calidad, Productividad y Competitividad. Ediciones Díaz de Santos S. A. ESPAÑA.
TRIM, 5 (2012), pp. 21-38
24
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
para enfrentar con respuestas inmediatas -partiendo de datos reales- los procesos de
cambios del mercado resultantes de la actual economía globalizada.
En este trabajo se pretende realizar un aporte a esa conducción científica en las empresas constructoras de Resistencia, Chaco.
METODOLOGÍA DE TRABAJO
!
Para este trabajo se llevó a cabo una investigación de campo y aplicada. De cam-
po en virtud de que se utilizaron entrevistas y encuestas para el análisis del objeto de estudio, la eficiencia de la empresa considerada. Aplicada porque los datos adquiridos en el
proceso de investigación fueron utilizados para la construcción de modelos matemático y
estadístico.
!
La metodología fue de carácter explicativo porque se determinaron y compararon
las variables más convenientes para el estudio de la eficiencia. El diseño metodológico
fue de carácter cuali-cuantitativo porque se aplicaron entrevistas semi-estructuradas de
elaboración propia al nivel superior de la empresa estudiada, y los datos de los Balances
se utilizaron como base de datos para la aplicación de los modelos matemático y estadístico, a través de la aplicación de programas informáticos.
!
Para la realización de este estudio se efectuaron los siguientes pasos:
• Análisis de los Balances Contables correspondientes a los ejercicios económicos
1999-2011 de la empresa constructora (que para el presente trabajo denominaremos Empresa 1) para comprobar en cuál de ellos alcanzó la mejor eficiencia en su
funcionamiento.
• Utilización del Análisis Envolvente de Datos, para apreciar el comportamiento de
mayor eficiencia relativa, comparando unidades de análisis entre sí (denominadas
como Unidades de Toma de Decisión, con su sigla en inglés DMU), determinando
cuál o cuáles son las más eficientes del conjunto, rankeándolas.
• Aplicación del modelo estadístico ACP (Análisis de Componentes Principales) sobre el conjunto de inputs: Activo Corriente, Activo No Corriente, Pasivo Corriente,
Pasivo No Corriente. Seleccionadas las componentes principales se realizó sobre
ese nuevo conjunto de variables la modelización DEA- BCC orientado a los outputs. De la aplicación sucesiva de los dos modelos se obtuvieron los valores de eficiencia para las componentes principales surgidas de las originales.
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
25
• Aplicación del modelo matemático DEA, BCC orientado a los ouputs sobre las
variables de entrada y salida aconsejadas por el nivel superior de la empresa. Las
variables de entrada fueron: Activo Corriente y Bienes de Uso y la de salida: Resultado Total.
• Contrastación de los valores de eficiencia resultantes de la aplicación de los dos
últimos ítems.
• Elaboración de las conclusiones.
MODELOS UTILIZADOS
!
Para apreciar el comportamiento de mayor eficiencia relativa, se utilizó la técnica
del Análisis Envolvente de Datos, que relaciona los valores de variables informadas como
entrada / salida (inputs / outputs) de cada unidad de análisis o DMU (Unidades de Toma
de Decisión, con sus siglas en inglés DMU), comparándolas entre sí, rankeándolas y determinando cuál o cuáles son las más eficientes del conjunto. Una vez definidas las variables y el modelo a utilizar, la técnica es totalmente objetiva y no requiere una asignación
de ponderaciones previa. Existen varios modelos DEA, según se considere la optimización de los inputs para los outputs generados, o al revés, o bien una mezcla de ambos.
!
El modelo matemático elegido para el estudio de la eficiencia de la Empresa 1, es
el DEA (Análisis Envolvente de Datos) orientado a los Outputs, y a partir de él se construyeron las restricciones basadas en la técnica de la programación lineal. El software utilizado fue el Frontier Analyst. Este modelo matemático tiene dos versiones: rendimientos
constantes a escala (CCR) y rendimientos variables a escala (BCC).
!
La expresión matemática de las dos versiones del modelo DEA es:
TRIM, 5 (2012), pp. 21-38
26
!
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
Si la unidad de negocios es eficiente será (100%) y existirá al menos un valor óp-
timo para cada una de las variables de decisión “u” y “v” positivos. El modelo BCC formulado arroja el valor de la constante “k0”, el que indica los rendimientos a escala de la unidad bajo análisis. La “escala” es la dimensión de la producción de una empresa determinada según la variación proporcional y simultánea de los factores inputs y outputs.
Los valores que puede asumir “k0” son:
!
El modelo utilizado en el presente trabajo fue el de rendimientos variables a escala
(BCC) orientación output seleccionándose las variables de entrada: Activo Corriente y
Bienes de Uso y una variable de salida: Resultado Total.
!
La aplicación del DEA presenta una serie de cuestiones relativas a la homogenei-
dad de las DMU, las variables usadas como entrada / salida utilizando la medición de las
mismas y los pesos que se les atribuye en el análisis. Cada uno de estos problemas puede presentar dificultades prácticas en la aplicación del DEA. En este trabajo no existieron
dificultades en torno a la homogeneidad en las DMU y en la medición de las variables,
porque todas son monetarias y su unidad de medida es el peso.
!
Obviamente, la elección de las variables es un aspecto fundamental para que esta
metodología brinde resultados adecuados, que reflejen el comportamiento de las unidades comparadas.
!
Dyson y otros (2001) señalan cuatro hipótesis que se deberían verificar con respec-
to al conjunto de inputs y outputs seleccionado:
• que cubran toda la gama de recursos utilizados,
• que capturen todos los niveles de actividad y medidas de rendimiento,
• que el conjunto de factores sean comunes a todas las unidades,
•las variaciones del entorno han sido evaluadas y consideradas, si es necesario.
!
No se incluyó en el modelo ninguna restricción a los pesos de las variables, ya que
se ha preferido explotar la ventaja que ofrece el DEA en lo relativo a libertad de comportamiento de las unidades.
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
!
27
Un inconveniente que presenta el DEA es su capacidad para discriminar y por ende
rankear o ponderar, ya que la misma disminuye cuando se trabaja con una gran cantidad
de variables. Una regla que se sugiere aplicar para atenuar este efecto es que el número
de unidades (DMU) sea superior al doble del producto del número de inputs por el número
de outputs. Otro aspecto a realzar es que, a menudo, subconjuntos de los inputs y/o
outputs están altamente correlacionados.
!
Cantidad y correlación son cuestiones que deben ser cuidadosamente considera-
das a los efectos de no producir significativos cambios en el comportamiento de esta técnica y los resultados que con ella obtenemos.
!
Para disminuir la cantidad de variables y además buscar la menor correlación entre
las mismas se utilizó el modelo de Análisis de las Componentes Principales (ACP). Este
análisis estadístico permitió obtener un nuevo conjunto de variables denominadas componentes principales, que son combinaciones lineales de las originales y el orden o cardinal de ese conjunto resultó menor o igual que el del conjunto de variables originales, las
que expresan estadísticamente el total de la información contenida en las variables originales.
!
Se consiguió así aumentar la capacidad de discriminación del análisis con DEA,
por lo que la frontera eficiente se formó con un número menor de DMU, lo que indica que
se ha redujo el margen de error, que consistiría en considerar eficientes unidades que en
realidad son ineficientes.
!
La técnica de componentes principales o modelo ACP es debida a Hotelling (1933),
aunque sus orígenes se encuentran en los ajustes ortogonales por mínimos cuadrados
introducidos por K. Pearson (1901).
!
Existen dos formas básicas de aplicar el ACP:
1. Método basado en la matriz de correlación: cuando los datos no son dimensionalmente homogéneos o el orden de magnitud de las variables aleatorias medidas no es el mismo.
2. Método basado en la matriz de covarianzas: se usa cuando los datos son dimensionalmente homogéneos y presentan valores medios similares.
!
En este trabajo utilizaremos el método basado en correlaciones.
!
TRIM, 5 (2012), pp. 21-38
28
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
!
Sea una matriz de datos nxp
!
A partir de los nxp datos correspondientes a las “n” variables aleatorias, puede
construirse la matriz de correlación muestral, que viene definida por:
!
Donde
!
(La esperanza o media del cuadrado de la desviación de dicha variable con respec-
to a su media µ).
!
(Mide el valor esperado del producto de las desviaciones con respecto a la media
µ).
!
Puesto que la matriz de correlaciones es simétrica entonces resulta diagonaliza-
ble (es posible encontrar sus vectores y valores propios) y sus valores propios λi verifican:
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
!
29
Debido a la propiedad anterior estos “p” valores propios reciben el nombre de pesos de
cada uno de los n componentes principales.
!
En álgebra lineal, los vectores propios, autovectores o eigenvectores de un opera-
dor lineal son los vectores no nulos que, cuando son transformados por el operador, dan
lugar a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar
λ recibe el nombre valor propio, autovalor, valor característico o eigenvalor.
!
Como se indicó en la metodología de trabajo se procede según lo señalado en 3) a
la aplicación del ACP (Análisis de Componentes Principales) sobre el conjunto de inputs:
Activo Corriente, Activo No Corriente, Pasivo Corriente y Pasivo No Corriente.
!
Se describirán las tablas incorporadas a continuación, las que muestran los análisis
realizados.
!
La Tabla 1 contiene los Inputs utilizados para todos los ejercicios considerados.
!
Los datos se procesaron a través del software estadístico Statgraphics Plus 5.1.
Inputs originales considerados para el trabajo
(I)ACTIVO CTE (I)ACTIVO NO CTE (I)PASIVO CTE (I)PASIVO NO CTE
1999
149249,89
102223,47
163992,35
0
2000
154740,25
130362,46
146530,58
0
2001
132848,44
127850,13
169351,99
0
2002
86614
227392,17
93269,63
23861,42
2003
152256,86
213838,28
81296,79
41039,55
2004
150861,44
211353,38
59131,49
20699,86
2005
231094,4
267672,43
99301,39
52687,64
2006
581209,63
234715
279535,62
31940,44
2007
741629,49
408721,92
421053,44
8875,59
2008
1085585,89
418481,24
537722,3
0
2009
1739425,01
631342,96
975610,92
0
2010
2446378,21
825647,3
1650158,81
29366,47
2011
3577918,85
1044615,7
2605647,67
133183,85
Tabla 1
TRIM, 5 (2012), pp. 21-38
30
!
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
La Tabla 2 que figura a continuación contiene el resultado del Análisis de Correla-
ción y el proceso de Componentes Principales, aplicado a los datos de la Tabla 1.
Tabla 2
!
En la primera fila de cada uno de los inputs se indica la correlación correspondiente
a las variables implicadas, en la segunda fila el número de DMU de la tabla 1 utilizadas
para el análisis y en la tercera fila el grado de significación, el que debe ser menor de 0,05
para considerar correcta la aplicación de ACP. A mayor correlación, menor grado de significación, es decir que las variables al poseer una alta correlación se pueden explicar por
factores comunes (componentes principales).
Tabla 3
!
El porcentaje de Varianza indica la cantidad de información suministrada por las
trece DMU que explican cada una de las componentes. Se aprecia en la Tabla 3 que la
primera componente tiene una significativa representación de los cuatro inputs, ya que su
valor es de 99,357.
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
!
31
En el Gráfico 1 se visualiza lo expresado anteriormente.
Gráfico 1
La Tabla 4 muestra los resultados obtenidos de las ecuaciones que se resuelven
!
para obtener las componentes principales.
Tabla de Pesos de los Componentes
Componente 1
Componente 2
Componente 3
Componente 4
ACTIVO CTE
0,801842
-0,44333
-0,371367
0,150315
ACTIVO NO CTE
0,210021
-0,409807
0,868573
-0,183112
PASIVO CTE
0,559141
0,785455
0,198186
-0,176475
0,0173783
0,136294
0,261515
0,95537
PASIVO NO CTE
Tabla 4
!
Denominaremos a las nuevas variables zij,con i=1…m y j=1,…,n. Como dijimos an-
teriormente, éstas son combinaciones lineales de las n variables originales Xi con i=1 …,
n. En la búsqueda de las componentes principales pueden obtenerse (p2) constantes tales
que:
TRIM, 5 (2012), pp. 21-38
32
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
!
O lo podemos ver como:
!
donde por ejemplo:
!
aqj es cada una de esas constantes.
!
Obsérvese que debido a la suma, en cada nueva variable zij intervienen todos los
valores de las variables originales. El valor expresado por aqj indica el peso que cada variable original aporta a la nueva variable definida por la transformación lineal como se
muestra en la tabla 4.
!
Para la primera componente principal la transformación viene dada por:
!
A partir de esta formulación, se obtiene la transformación del sistema de represen-
tación de los cuatro Inputs en las cuatro componentes obtenidas. Podemos aquí elegir
con cuántas de ellas vamos a trabajar ya que están ordenadas en función de su importancia, importancia que se establece para las componentes según que expliquen suficientemente al conjunto de datos original.
!
En la siguiente Tabla se visualizan los resultados obtenidos por la transformación
del sistema de representación:
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
Fila
1
2
3
4
5
6
7
8
9
10
11
12
13
33
Tabla de Componentes Principales
Componente 1
Componente 2
Componente 3
232839
20749,8
65863,1
233387
-6931,25
84804,2
228066
21728,8
95274,9
169773
-55074,2
190066,
213166
-85684,1
156035
198778
-104229
144683
297957
126967
180131
672188
-129940
51778,1
916092
-164355
165356
1259020
230413
66899,9
2072840
-263570
95755,1
3058190
-122781
143349
4547560
50482
129837
Componente 4
-25224,4
-26470,1
-33328,1
-22282,1
8591,23
-6683,82
18534,9
25569,4
-29189,6
-8343,38
-26315,3
-46613,8
13942,5
Tabla 5
!
En la siguiente tabla se presenta la matriz de correlaciones obtenidas a través del
Statgraphic:
Tabla 6
!
Como condición necesaria para continuar con el análisis en la matriz de correlación
de los datos transformados, éstos no deben estar correlacionados, lo que indica que no
existen más factores comunes subyacentes que puedan explicar el total de la información.
!
Para el análisis que se realizó se tomaron las componentes 1 y 2 siguiendo el crite-
rio del gráfico de sedimentación dado que
la recta que representa los autovalores se
quiebra desde la segunda componente. La elección también responde a una elección
personal del equipo de investigación.
!
Luego de seleccionadas las componentes principales como se muestra en la tabla
7, se realizó sobre ese nuevo conjunto de variables la modelización DEA- BCC orientado
a los outputs con el software Frontier Analyst.
TRIM, 5 (2012), pp. 21-38
34
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
(I)CP 1
232839,00
233387,00
228066,00
169773,00
213166,00
198778,00
297957,00
672188,00
916092,00
1259020,00
2072840,00
3058190,00
4547560,00
(I)CP 2
20749,80
-6931,25
21728,80
-55074,20
-85684,10
-104229,00
126967,00
-129940,00
-164355,00
230413,00
-263570,00
-122781,00
50482,00
(O)Resultado Total
36481,01
86112,89
31442,43
60624,71
56195,00
91950,34
87356,31
243083,80
356973,81
301548,62
544920,32
333573,33
375214,47
Tabla 7
Los resultados hallados se reflejan en la siguiente tabla resumen:
Tabla 8
!
De la aplicación sucesiva de los dos modelos obtenemos los valores de eficiencia
para las componentes principales surgidas de las originales.
!
A continuación según se expresa en la metodología de trabajo, se aplicó el DEA
BCC orientado a los ouputs sobre las variables de entrada (I) y salida (O) aconsejadas por
el nivel superior de la empresa.
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
!
35
Los datos de las variables a utilizar se encuentran en la siguiente tabla:
DMU
Act Cte (I)
Bs uso (I)
Rtdo Total (O)
1999
149249,89
92512,47
36481,01
2000
154740,25
107295,85
86112,89
2001
132848,44
110130,28
31442,43
2002
86614,00
211563,62
60624,71
2003
152256,86
199897,63
56195,00
2004
150861,44
197412,73
91950,34
2005
231094,40
267672,43
87356,31
2006
581209,63
234715,00
243083,80
2007
741629,49
408721,92
356973,81
2008
1085585,89
418481,24
301548,62
2009
1739425,01
631342,96
544920,32
2010
2446378,21
825647,30
333573,33
2011
3577918,85
1044615,70
375214,47
Tabla 9
Utilizando los datos de la tabla anterior y aplicando el software Frontier Analyst se
obtuvieron los siguientes resultados:
Tabla 10
TRIM, 5 (2012), pp. 21-38
36
!
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
En el análisis de los 13 ejercicios contables de la E1, y siendo Resultado Total la
variable de salida (output), se observan ocho períodos (1999, 2000, 2001, 2002, 2004,
2006, 2007 y 2009) con una eficiencia relativa del 100% (eficiencia igual a uno) para las
tres variables.
!
Seguidamente se muestra la contrastación de los valores de eficiencia resultantes
de la aplicación de los modelos ACP y DEA:
DEA-BCC SOBRE ACP
!
DEA-BCC SOBRE V. ORIG.
De esta contrastación surge la distribución de eficiencias que se observa en
siguientes gráficos que se obtuvieron a través del Analyst Frontier:
Gráfico 2-Dea sobre datos ACP
!
Gráfico 3-Dea sobre v. originales
En los siguientes gráficos podemos observar la distribución de los conjuntos de
referencia que surgieron de la aplicación del DEA BCC sobre los datos:
TRIM, 5 (2012), pp. 21-38
Dos modelos para determinar la eficiencia…!
37
Frecuencia de Referencias
Gráfico 4-Dea sobre datos ACP
!
Gráfico 5-Dea sobre v. originales
Las DMU 2007 y 2004 aumentaron su participación como unidades de referencia
de las unidades ineficientes mientras que las DMU 1999, 2000, 2001 y 2006 dejaron de
ser referentes dado que ya no se las consideró como unidades eficientes.
Conclusiones
!
En el contexto de la evaluación de la eficiencia es preciso destacar al método ACP
como herramienta para distinguir las unidades verdaderamente eficientes y el efecto que
éstas pueden tener al ser consideradas erróneamente como eficientes. Esto permitirá
realizar una mejor planificación y distribución más eficiente de los recursos destinados a
las mejoras necesarias para perfeccionar el funcionamiento de las diferentes unidades de
producción.
!
Del análisis de los resultados alcanzados con los métodos aplicados se obtuvieron
las siguientes conclusiones:
ü Con las variables elegidas por los ejecutivos de la empresa se determinaron ocho
unidades eficientes.
ü Del análisis realizado con dos componentes se obtuvo una mayor discriminación en
los resultados destacando como eficientes sólo cuatro DMU.
ü A través de la aplicación del ACP se evitó considerar como unidades de referencia
a aquellas que no son eficientes verdaderamente como las DMU 1999, 2000, 2001
y 2006.
TRIM, 5 (2012), pp. 21-38
38
C. Rescala, G. Devincenzi, G. Rohde, M.ª L. Bonaffini, M. V. Giraudo, G. Bernaola, R. Pavón
ü Mediante el modelo ACP los valores de eficiencia hallados son objetivos ya que a
través de la aplicación del mismo se supera la elección arbitraria de los inputs y
outputs realizada por los altos ejecutivos.
BIBLIOGRAFÍA
§
COLL SERRANO, V. y BLASCO BLASCO, O. M., Evaluación de la Eficiencia Mediante
el Análisis Envolvente de Datos. Introducción a los modelos básicos, Editorial:
Eumed.neCte, Málaga,España, 2006.
§
COOPER, W. W.; SEIFORD, L. M. y TONE, K., “DATA ENVELOPMENT ANALYSIS. A
Comprehensive Text with Models, Applications, References and DEA-Solver Software,
Second Edition, Springer, USA, 2007.
§
COOPER, W. W.; SEIFORD, L. M. Y ZHU, J., Handbook on Data Envelopment Analysis,
Kluwer Academic Publishers, USA, 2004.
§
DEMING, E., Calidad, Productividad y Competitividad. Ediciones Díaz de Santos S.
A.,España, 1989.
§
DYSON, R. G., ALLEN, R., CAMANHO, A. S., PODINOVSKI, V. V., SARRICO, C. S.
AND SHALE, E.A., “Pitfalls and protocols in DEA”, European Journal of Operational Research, 132 (2001), pp. 245-259.
§
KAPLAN, R.; NORTON, D., Mapas Estratégicos, Ediciones Gestión 2000, USA, 2007.
§
SEIFORD, LAWRENCE M., ZHU, J., “Modeling undesirable factors in efficiency evaluation”, European Journal of Operational Research, 142 (2002), pp.16-20.
§
SEIFORD, LAWRENCE M., ZHU, J. (2002), “Modeling undesirable factors in efficiency
evaluation”, European Journal of Operational Research, 142 (2002), pp. 16-20.
TRIM, 5 (2012), pp. 21-38
PROBABILIDADES NO ESPORTE*
Probabilities in Sport
BERNARDO NUNES BORGES DE LIMA, GILCIONE NONATO COSTA, RAFAEL NACIFE,
RENATO VIDAL MARTINS Y RODRIGO GUIMARÃES1
!
Resumo
Este trabalho versa sobre Probabilidades no Esporte, de uma forma, assim o espe-
ramos, acessível. Começamos recordando alguns conceitos gerais sobre o assunto que é
bem provável que o leitor já tenha, e tentamos argumentar que eles não funcionam se
aplicados a Esportes. Isto nos leva naturalmente a uma discussão sobre o que essencialmente são probabilidades. Exibimos dois diferentes modelos de cálculo –para Futebol
e Fórmula 1– que servem de exemplos para o que foi dito anteriormente no texto. Tentamos convencer o leitor de que a construção de um tal modelo não requer nenhuma habilidade especial e esperamos que estas linhas forneçam o embasamento necessário caso o
leitor queira fazer seu próprio modelo.
Palavras-chave: Esporte, Probabilidades.
Abstract
!
This work is about Probabilities in Sport within a, hopefully, accesible shape. We
start by recalling few general concepts on the subject that the reader quite likely have, and
try to argue why they do not work if applied to Sports. This naturally leads us to a discussion on what essentially probabilities are. We exhibit two different models of computation –
for Soccer and Formula 1– which stand for examples for what was prioly said in the text.
We try to convince the reader that the construction of any such a model requires no special skills and we hope our lines provide the reader with the basic backgrounds in case he
is interested in build his own model.
Keywords: Probabilities, Sport.
*
Este trabalho é parte do Projeto Difundindo Probabilidades via Campeonatos de Futebol, que conta com
apoio da FAPEMIG através do Edital de Popularização da Ciência e Tecnologia.
1 Departamento de Matemática, Universidade Federal de Minas Gerais
TRIM, 5 (2012), pp. 39-53
40
!
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
O objetivo destas linhas é abordar, se possível, o vasto tema das “Probabilidades
no Esporte” em nível divulgativo e, ao mesmo tempo, com um certo rigor científico. O leitor verá que, no caso presente, esta não é que seja uma tarefa tão simples. De fato,
quando se diz de um texto que… é capaz de combinar na dose certa o rigor e o informal,
o acessível com o hermético, pensa-se no mesmo como que composto de dois momentos: uma parte leve, de leitura fácil, possivelmente rica em conexões históricas, e uma outra restritiva, fechada aos poucos que possam se aventurar. A tal “dose certa” é então
aquela arte de se fazer entender sem ser vulgar, ou, ao contrário, de se ser preciso, sem
ser enfadonho.
!
Não. Em nosso caso, a expressão “ao mesmo tempo” é absolutamente literal.
Pode-se, e mais ainda, deve-se abordar o tema que propomos de forma divulgativa e simultaneamente rigorosa. “Pode-se” pois, veremos, a matemática que subjaz o binômio
“Probabilidades no Esporte” já é de per si extremamente acessível. “Deve-se”, pois é importantíssimo que o leitor ponha à prova toda a ciência que julga ter sobre o assunto.
!
E a verdade é que quando o assunto é “Probabilidades no Esporte” todos viramos
cientistas. Seja o torcedor de futebol que já antecipa a festa do título pois seu time tem
chances acima de 90% de erguer a taça; ou a escuderia de Fó́rmula 1 que faz “jogo de
equipe” pois apenas um de seus dois pilotos tem probabilidades reais de sagrar-se campeão, ou mesmo o país que planeja estrategicamente o investimento no esporte competitivo baseado em um valor esperado de desempenho olímpico entre os “Top 10”; e até o
caso recente de um clube brasileiro que se auto-alcunhou “o time que desafia a Matemática”, dada sua incrível capacidade de contrariar previsões probabilísticas desfavoráveis.
!
As probabilidades definitivamente invadiram o mundo do esporte. Os empresá́rios,
as agremiações, a mídia, os atletas, os sites de apostas, os torcedores, e até o cidadão
mais comum, sem formação escolar completa, se expressam nestes termos. Sendo assim, o que poderia acrescentear um acadêmico a um tema tão disseminado, tratado com
tanta propriedade por todos?
!
O primeiro passo seria reconhecer o desserviço que podemos estar prestando,
muitas vezes sem nos darmos conta, outras vezes de forma consciente e portanto perversa, quando nós matemáticos falamos de “Probabilidades no Esporte”. Isto porque probabilidades envolvem dois atos distintos: o conceito e o cálculo. E o que acontece é que a
esmagadora maioria das pessoas pensa saber bem o que é probabilidade, quando na
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
41
verdade não sabe, mas deixa os valores numéricos nas mãos dos matemáticos pois esta
é a parte difícil, quando na verdade não é.
!
Portanto, o matemático deve, primeiro, deixar bem claro o que exatamente quer
dizer quando usa o termo “probabilidade” e, depois, mostrar que há́ pouquíssimo mistério
no seu “cálculo”. Na verdade, os modelos que geram tais números costumam ser robustos o bastante para concluirmos que se algum deles no funciona, não é bem porque seu
autor não entende de matemá́tica; o que talvez não entenda seja esporte. Em outras palavras, este é um tema em que o matemático deve ser rigorosamente científico no que o
leitor julga ser de senso comum e acessível e, por outro lado, divulgar de forma simples –
porque é simples– o que o leitor julgar ser ciência quase oculta.
!
Este é precisamente o objetivo de nosso trabalho. Nele fazemos uma digressã̃o
inicial sobre o que vem a ser “probabilidade” e na sequência, nos valemos de dois modelos para explicar como se processa o seu “cálculo”. O primeiro trata de Futebol, e outro
aborda a Fórmula 1, dois esportes com forte apelo, o que nos poupará de explicacões
adicionais sobre regras e procedimentos.
1. O Conceito e o Cá́lculo de Probabilidades no Esporte
!
A probabilidade de sair cara em um lançamento de moeda é 1/2; a de sair o núme-
ro 1 em um lançamento de dado é 1/6; a de sair um às em um baralho completo é 4/52, e
a probabilidade do time, ou do piloto, por que torço ser campeã̃o qual é? Ora, se conseguimos responder as primeiras perguntas, estamos, à priori, aptos a respondermos as outras também. Talvez seja apenas uma questã̃̃o de tempo de cálculo, pois há mais variáveis a serem consideradas nestes casos.
!
Em parte isto é verdade, em parte nã̃̃o. Por um lado, sim, em um campeonato de
Futebol, Fórmula 1, ou do que for, lidamos com bem mais elementos que em um mero
lançamento de uma moeda: sã̃o vários times ou pilotos sujeitos às mais diversas combinações de resultados e situações. Por outro lado, se aplicamos ao esporte o mesmo princípio da moeda, podemos, como se verá, nã̃̃o chegar a lugar algum.
!
Com efeito, a probabilidade de se obter cara em um lançamento de moeda é 1/2,
porque analisamos 1 caso –cara– entre 2 possíveis –o outro ́e coroa– e faz-se o quociente. Mais precisamente temos
TRIM, 5 (2012), pp. 39-53
42
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
uma fórmula que talvez tenham nos ensinado ainda no ensino fundamental. Existem ao
menos dois problemas sérios que surgem se resolvemos aplicar o mesmo raciocínio ao
problema de determinar as chances de meu time ser campeã̃̃o.
!
O primeiro deles é de ordem computacional, ou seja, o total de casos a serem con-
siderados pode ser assustadoramente grande. Imagine o leitor que nos propomos a responder esta pergunta em um campeonato nacional a 15 rodadas de seu término. Tais
campeonatos costumam ter o mesmo formato em diferentes países, e.g., Espanha, Inglaterra, Itália, Portugal e, mais recentemente, também no Brasil. Sã̃̃o 20 times que se enfrentam em turno e returno, totalizando 38 rodadas. O que significaria entã̃̃o “casos possíveis” a 15 rodadas do final? Levando-se em conta somente o resultado de cada jogo –vitória de um, de outro, ou empate– em uma rodada sã̃̃o 310 os cenários imagináveis. Em
15 rodadas este nu ́mero sobe para 3150. Bem, em tese, 3150 (aproximadamente 3 × 1071)
é até tratável em um computador. De fato, para sistemas criptográ́ficos atuais sã̃̃o usados
códigos de tamanho até 21024, como é o caso da nova codificaçã̃̃o do principal banco estatal brasileiro. Agora, o que é absolutamente impraticável é gerar em “tempo finito”todos os
universos possíveis. Assim, por exemplo, se cada caso fosse gerado em 1 trilhonésimo de
segundo (processadores na faixa de Terahertz), o computador gastaria 1,18 × 1050 séculos para gerar todos eles. A título de comparaçã̃̃o, as estimativas atuais para a idade do
Universo apontam para 1,4 × 108 séculos.
!
Mas mesmo supondo que nossos computadores fossem de uma geraçã̃̃o vindoura,
capazes de arrostar grandezas estelares, ainda assim persistiria um outro problema, agora de ordem prática: todos sabemos que nem o primeiro colocado vai perder seus 15 jogos restantes, muito menos o último colocado vencer 15 jogos em sequência. Há muitos
cenários que devem ser descartados ou, ao menos, não têm direito de entrar na conta
“casos possíveis”com o mesmo peso do que outros cenários bem mais viáveis.
!
Chegamos a um impasse. Por um lado, o modo comum de se definir probabilida-
des não serve se aplicado ao esporte, mas, por outro lado, não temos o direito de criar
uma outra definição, exclusiva ao caso de campeonatos por exemplo, posto que “probabilidade”, enquanto conceito, é uma única coisa qualquer que seja o fenômeno probabilístico a ser estudado.
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
!
43
O interessante é que o dilema acima é solú́vel, basta que nos debrucemos com
mais vagar sobre a definição (1). Voltemos ao caso da moeda. Será que a tal probabilidade de cara é realmente 1/2? Para entender o problema recordamos o caso que contam do
professor que perguntou a seu aluno “qual a probabilidade de sair cara no lançamento de
uma moeda?”. Obteve a seguinte resposta um tanto desafiadora: “qual moeda?”. Disse
então o professor: “uma moeda não-viciada”, ao que o aluno replicou “o que é uma moeda não viciada?”. E seu mestre assim o esclareceu: “aquela cuja probabilidade de sair
cara é 1/2”. “Ora, então porque o senhor perguntou?” disse o rapaz com toda razã̃o. Em
suma, o aluno chamava atenção para o que, sem dúvida, foi a verdadeira pergunta de
seu professor: “qual a probabilidade de sair cara no lançamento de uma moeda cuja probabilidade de sair cara é 1/2?”. A resposta, é claro, é 1/2, e de nada nos interessa.
!
Não é este tipo de resolução que queremos para os nossos problemas. Eles sã̃o
mais complexos pois todos sabemos que a natureza tem seus graus de imperfeição: a rigor, não existem nem moedas não-viciadas, muito menos times ideais. A equação (1) não
é propriamente uma definição de probabilidade. Ao contrário, trata-se de um mero exercício de “Análise Combinatória”, uma outra ciência que, em muitos casos, chega a distar da
“Teoria de Probabilidades” como o nascente do poente.
!
Então, afinal de contas, o que ́e probabilidade? O conceito exato veio bem recen-
temente, ao passo que a definição precisa jamais virá. Expliquemo-nos. Em 1933, Andrei
Kolmogorov (1903-1987) estabelece no livro Fundamentos da Teoria das Probabilidades,
os pilares formais de tal teoria. O enfoque dado era aos moldes do que fez o matemá́tico
e filósofo grego Euclides (360 a.C.-295 a.C) para geometria e que voltava à voga, com
toda sua força, no início do século passado não apenas no caso da Teoria das Probabilidades mas na pró́pria Matemática como um todo. Era um enfoque axiomático, ou seja, os
conceitos não se definem, simplesmente são reconhecidos pelas propriedades que satisfazem.
!
Se isto pode parecer estranho, lembre o leitor que Euclides não definia nem ponto
ou reta mas, por exemplo, dizia que por um ponto fora de uma reta passa uma única paralela, seu quinto axioma, que no porvir, acabou sendo um divisor de águas entre diferentes
geometrias. O que Kolmogorov tinha em mente era exatamente a mesma tática, e queria
identificar quais são as regras básicas que caracterizam um fenômeno probabilístico.
TRIM, 5 (2012), pp. 39-53
44
!
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
Tais regras são o que hoje se conhece por Axiomas de Kolmogorov. A título de
exemplo, fazemos a tradução destes postulados para o caso do Campeonato Espanhol.
Kolmogorov se limitaria a dizer:
(i) a probabilidade do seu time ser campeão é pelo menos 0%;
(ii) a probabilidade de um time madrilenho ser campeão é a soma das probabilidades de Real Madrid e Atlético de Madrid o serem;
(iii) a probabilidade de um time espanhol ser campeão é 100%.
!
O que é absolutamente surpreendente é que isto é mais do que bastante para infe-
rirmos quem sera ́ o campeão espanhol. O que queremos dizer é que partindo dos Axiomas de Kolmogorov –dos quais os três itens acima são mera adaptação ao caso do futebol– podemos deduzir matematicamente a seguinte fórmula
conhecida por Lei dos Grandes Números. Ou seja, a probabilidade de um evento é a razão entre o número de ocorrências do mesmo e o número de ensaios quando este tende
a infinito. Isto nã̃o é uma definição de probabilidade, mas apenas um modo de calculá-la
ou, até melhor, inferí-la. Esta afirmação, antes dos Axiomas de Kolmogorov, era a base da
teoria frequencista, que dava à teoria de probabilidades um caráter, a princípio, mais empírico que matemático. A dedução da Lei dos Grandes Números a partir dos Axiomas de
Kolmogorov nos mostra que o “empirismo” em questão já́ nã̃o guarda mais eventuais resquícios pejorativos que o termo possa ter (teste, tentativa, suposição, apriorismo, etc). Ao
contrá́rio, o “frequencismo” passa a ser então a nossa grande ferramenta para se estimar
probabilidades que (sempre) desconhecemos. Mais ainda, está muito bem fundamentado
do ponto de vista teórico, com todo o rigor matemático.
!
No entanto probabilidade segue sendo algo pré-existente às coisas e por isso
mesmo um mistério, como, por exemplo, as chances de um time vencer, jogando em
casa, um determinado adversário. Esta propensão é algo real e depende de uma série de
fatores, desde o plantel atual ao momento na competição, do juiz à susceptibilidade do
outro time à torcida alheia etc, etc. E o único modo de sabermos a probabilidade exata de
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
45
vitória do time da casa é repetir, centenas, milhares, milhões de vezes o mesmo jogo,
contra o mesmo adversário, com os mesmos jogadores, no mesmo campo, sob as mesmas circunstâncias, mesmo público, e o que, todos sabemos, pode de ser determinante:
com o mesmo juiz! Da mesma forma, se quisermos realmente saber qual a probabilidade
de um dado time ser campeão, o que temos de fazer é repetir inúmeros campeonatos e
ver em quantos deles o clube leva a melhor. Quanto mais edições, mais preciso o cálculo.
Um total de 3 títulos em 4 campeonatos jogados é bem menos significativo do que, digamos, 612 conquistas em 1000 disputas. A probabilidade real da equipe erguer a taça não
é então de 75%, como a princípio se cogitava, mas deve girar em torno de 60%.
!
Ora, o leitor arrazoado dirá que é impossível repetir mil campeonatos e com razão.
Mas não iremos “realizar” mil campeonatos e sim “simular” não só mil, mas milhões deles
se necessário. O computador faz isto em segundos ou, quando muito, em minutos. Tudo o
que temos de fazer é ensiná-lo a “sortear”de forma judiciosa o resultado de cada jogo.
2. Um modelo de Caáculo para o Futebol
!
Para calcularmos a probabilidade de um time ser campeão, partimos da situação
atual do campeonato, e simulamos os jogos restantes. Ao final, o computador gera a classificação dos times e a registra. Depois, repete o procedimento várias vezes e no término
do processo já está apto a divulgar números que aproximam muito bem as probabilidades
geradas pelo modelo idealizado. Este nú́mero é o quociente entre os campeonatos (simulados) vencidos pelo time em questão e o total de disputas. Para que isto funcione, o número de simulações deve ser grande o bastante dada a precisão que exigimos em nossos
cálculos. A modo de exemplo, suponha que simulando 10, 100, 1000, 10000 e 100000
vezes o campeonato, o tal time foi campeão, respectivamente, 7, 65, 677 e 6651, 66597
vezes. Já́ podemos, a princípio, dizer que tal probabilidade deve oscilar em torno de 66%.
Se queremos precisão centesimal, devemos nos ater aos quatro primeiros algarismos do
número de títulos. A medida que se aumenta o número de simulações, estes algarismos
variam cada vez menos até estacionarem. Este é então o número de simulações ideal
para o grau de precisão, no caso decimal, que queremos. Mais, estes algarismos pouco
variam se repetirmos este processo uma ou várias vezes, fixado um nú́mero suficientemente grande de simulações, o que em linguagem matemá́tica equivale a convergência.
TRIM, 5 (2012), pp. 39-53
46
!
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
Então, como vimos, todo trabalho fica a cargo do computador, que irá́ simular cam-
peonatos. Para tal, devemos ensiná-lo a simular um jogo e o procedimento é o seguinte:
para determinar o resultado de A x B, o computador recebe dois vetores que caracterizam,
naquele momento, os times A e B: (PVA, PEA, PDA) e (PVB, PEB, PDB) que são as probabilidades de vitória, empate e derrota de cada um deles. Chamamos uma trinca destas de
“vetor força” do time. A partir destes dados, formam-se as probabilidades do jogo:
onde as três coordenadas são, na ordem, as probabilidades de vitó́ria de A, empate, e vitória de B. Supondo, e.g., que PAxB = (0.5, 0.2, 0.3), o que o computador faz é dividir o intervalo [0,1] em três partes: [0, 0.5], (0.5,0.7) e [0.7,1]. E então sorteia um número aleatório entre 0 e 1 (ele sabe como fazer isto). Se, por exemplo, o número sorteado foi 0.4579,
então o resultado do jogo é vitória de A, pois 0.4579 está entre 0 e 0.5 e esta foi a parte
do intervalo que reservamos para vitória de A. Se os números sorteados fossem 0.61 ou
0.9999993 o computador os identificaria como, respectivamente, empate ou vitória de B.
!
Depois de simular uma rodada, atualizam-se todos os vetores forç̧a de todos os
times, de acordo com os resultados da rodada, e simula-se a rodada seguinte. O modo de
atualizar tais vetores é precisamente o que caracteriza um modelo. De fato, o leitor já
deve ter notado que hoje há inúmeros sites que ofertam probabildades para o futebol. O
normal é que todos sigam o roteiro acima descrito, porém a maneira de medir a força de
um time pode variar bastante de modelo para modelo. E a força de um time, quantificada
através de seu vetor força, é algo que se mede pelos resultados que vem obtendo, em
especial o da partida que acabou de disputar, daí ser este o ponto chave na especificação
de um modelo.
!
Em 2005, os autores deste artigo, e mais os Profs. Fábio Brochero e Marcelo Terra
Cunha, iniciamos no Dep. Mat. da UFMG, um projeto tendo em vista a divulgação da Matemática através de probabildades no esporte. A idéia era subsidiar quem quer que se interesasse a tentar criar um modelo de cálculo, inicialmente, para o futebol. Achamos por
bem então desenvolver nosso próprio modelo –cujos cálculos efetivos encontram-se disponíveis em www.mat.ufmg.br/futebol– que descrevemos na sequência. É muito mais um
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
47
exercício teó́rico do que propriamente científico pois, como dissemos, nosso interesse é
bem mais divulgativo. Ou até melhor, a ciência que um modelo destes exige é acessível o
bastante a que cada qual possa, se quiser, desenvolver o modelo que mais lhe aprouver.
!
Pois bem, voltando aos vetores força, o procedimento que padronizamos para atu-
alizá-los após uma rodada é o seguinte. Primeiro atribuimos a cada time participante do
campeonato, na verdade, dois vetores de força
PC=(PVC,PEC,PDC) e PF=(PVF,PEF,PDF)
onde PVC, PEC e PDC ser ̃ao utilizados, respectivamente, no cálculo das probabilidades
de vitória, empate e derrota do clube em uma partida jogando como mandante (em
“casa”), e PVF, PEF e PDF seguem a mesma lógica, desta feita sendo a equipe em questão visitante (joga “fora de casa”).
!
A cada rodada, os vetores de força são realimentados. Se o time jogou como man-
dante, muda-se o seu vetor mandante, e o mesmo vale para seu vetor visitante, caso o
jogo tenha sido fora de casa. A ideia de se tratar um mesmo time como dois diferentes –
um em casa, e outro fora dela– reflete o modo como a torcida, ou o próprio campo onde a
equipe habitualmente joga, podem influenciar no desempenho do clube.
!
A primeira premissa da qual partimos é a de que, se um time vence uma partida,
aumenta sua probabilidade de vencer a partida seguinte. Além disso, este aumento na
probabilidade de vitória é tanto maior quanto melhor for o time derrotado. Analogamente,
se o time perde uma partida, aumenta sua probabilidade de perder o próximo jogo e o
aumento é tanto maior quanto pior for seu adversário.
!
Podemos entender o modo como modificamos os tais vetores de probabilidade,
através de um exemplo. Vamos supor que houve o jogo Real Madrid x Barcelona, disputado no Santiago Bernabeu, e que os merengues foram os vencedores do confronto. Então o novo vetor de força do Real Madrid como mandante, digamos , é obtido a partir do
vetor anterior, digamos , da seguinte forma2
2
Vetores tridimensionais são objetos que apresentam 3 coordenadas. Existem duas operações básicas, a
saber, soma de vetores e multiplicação de um vetor por um número real definidas dessa maneira: se u =
(a,b,c), v = (x,y,z) e k um número real então u + v = (a + x, b + y, c + z) e k · v = (ka, kb, kc).
TRIM, 5 (2012), pp. 39-53
48
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
onde p é o “peso” que damos ao passado e rBarça é o rendimento do Barcelona (que também deve ser modificado para o próximo jogo) dado pela seguinte fórmula que vale para
todos os clubes:
Por exemplo, se p = 0 significa que o passado não tem importância alguma, e o fato de
que o Real Madrid venceu o Barcelona no Santiago Bernabeu daria aos merengues “força
máxima” para a próxima partida que jogasse em casa. Por outro lado, se damos a p um
valor muito alto, os vetores de força seguem quase que inalterados jogo a jogo, e perdemos o “fator moral” trazido pelas vitórias. Ou seja, p indica a sensibilidade dos times em
relação ao resultado de uma partida. Quanto ao rendimento r do adversário, o que a fórmula acima diz é que, se o Barcelona tivesse, por exemplo, um rendimento muito baixo,
então a vitória do Real não seria tão significativa a ponto de alterar substancialmente suas
chances de vitória.
!
Da mesma forma, após a derrota no Santiago Bernabeu, o vetor visitante do Barce-
lona ́e modificado do seguinte modo
Note que aqui aparece 1 − rReal (e não rReal, como na anterior) pois o raciocínio se inverte:
perder, por exemplo, para um time hipotético que sempre vence (r = 1) não significa absolutamente nada (1 − r = 0 e o vetor força fica intacto).
!
Como se viu, vencer uma partida aumenta a probabilidade de vencer a pró́xima,
uma vez que a componente PV aumenta e as demais componentes diminuem. Simetricamente, a probabilidade do time derrotado ser novamente derrotado aumenta. Contudo,
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
49
o mesmo não se aplica em caso de empate entre as equipes. Ou seja, empatar uma partida não aumenta as chances de empatar a próxima e diminuam as chances de vencer ou
perder. De fato, suponhamos que um time, jogando como visitante, empatasse com o líder
do campeonato. É razoá́vel supor que a sua probabilidade de vencer uma partida, como
visitante, também aumente. Da mesma forma, se o empate é com o lanterna do campeonato, a probabilidade de perder a próxima partida ́e que deve ser aumentada. A grosso
modo, empate com time bom é “meia vitória”, empate com time ruim ́e “meia derrota”.
!
Para expressar este raciocínio em termos numéricos, montamos as fó́rmulas que
se seguem. Para entendê-las, voltemos ao clássico Real Madrid x Barcelona no Santiago
Bernabeu, e suponha que houve empate. Se rBarça ≤ 1/2 então o Barcelona não está tão
forte no campeonato, e atualizamos o vetor força do Real Madrid como mandante da seguinte forma
Ou seja,
é a tal “meia derrota” que dissemos acima e (0, 1, 0) é o empate puro.
Entendemos melhor a fórmula considerando os casos extremos. Se os azul-grenás tiverem rendimento rBarça = 1/2, então o segundo termo do numerador se anula e o terceiro é
(0, 1, 0), ou seja, apenas a tendência ao empate do Real Madrid em casa será aumentada. Mas supondo, hipoteticamente, que o Barcelona sequer pontuou no campeonato, seu
rendimento é nulo e o terceiro termo do numerador desaparece, sendo o segundo igual
.Ou seja, neste caso o Real Madrid teve uma “meia derrota” para o Barcelona
apesar de ter, na prática, empatado o jogo, o que deve fazer crescer tanto sua tendência
a futuros empates quanto derrotas. Os casos intermediários 0 < rBarça < 1/2 correspondem
à média ponderada entre os vetores
e (0, 1, 0), dependendo do rendimento do
time catalão.
!
Agora, se o Barcelona vem forte no campeonato, digamos com rendimento rBarça >
1/2, então o empate do Real Madrid está mais para “meia vitó́ria” e seu vetor probabilidade é atualizado do seguinte modo
TRIM, 5 (2012), pp. 39-53
50
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
Após o empate, o vetor probabilidade do Barcelona como visitante é atualizado de forma
absolumente análoga levando em conta o rendimento r Real do Real Madrid.
3. Um Modelo de Cálculo para a Fórmula 1
!
No início de 2010, resolvemos estender nosso projeto a Fó́rmula 1. A idéia era
montar um modelo que calculasse as probabilidades de cada piloto vencer o campeonato
(ou terminar em uma determinada posição), e a partir deste fornecer informações adicionais como, por exemplo, a pontuação esperada de cada um.
!
Como era de se esperar, o primeiro passo era ver, do ponto de vista probabilístico,
o que a Fórmula 1 tem em comum com o Futebol posto que já tínhamos um modelo em
mãos. E, de fato, a teoria acima descrita se aplica da mesma forma se substituímos times
por pilotos, jogos por corridas e a pontuação do Futebol por partida (V=3, E=1, D=0), pela
pontuação da Fórmula 1 por prova (1º=25, 2º=18, 3º=15,…). E para calcular as probabilidades que queremos, o computador irá simular inúmeros campeonatos, e, para tal devemos, como antes, ensiná-lo a simular uma corrida.
!
O problema começa aí. Uma corrida de Fórmula 1 é bem mais complexa do que
um jogo de Futebol. Não são apenas 3 cenários cabíveis (vitória de um, de outro, e empate) como no Futebol, mas supondo que há 20 pilotos, este número sobe para 20! e é muito grande. Com efeito, o computador teria de montar o vetor probabilidade da corrida, nos
mesmos moldes do vetor probabilidade de um jogo, ponderando as chances de cada um
dos pilotos em cada uma dos 20! cenários, depois dividir o intervalo de 0 a 1 em 20! pedaços e então fazer o sorteio, gerando um número aleató́rio. O tempo de processamento,
para tal, é enorme e descartamos esta possibilidade.
!
Nossa primeira tentativa foi criar um modelo que fosse o mais simples possível e
analisar sua viabilidade. Em vez de “vetor força”, cada piloto teria um “valor força”, i.e.,
bastaria um único número para descrever a força de cada piloto. Esta variava de 0 a 10,
dividida em uma parte fixa (de 0 a 7) dependendo da equipe, e outra variável (de 0 a 3) de
acordo com os resultados do piloto. Dividíamos então o intervalo [0, 1] em 20 partes pro-
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
51
porcionais ao desempenho de cada piloto, e fazíamos o sorteio para o primeiro colocado.
Na sequência, o computador excluía o piloto sorteado, redimensionava o intervalo de
acordo com as forças dos restantes, sorteava o segundo colocado, e assim sucessivamente.
!
O modelo definitivamente não funcionou. Há vários modos de se verificar se os re-
sultados matemá́ticos contrastam com o mundo real e aí é fundamental entender o que se
pretende modelar. No ano de 2010, três equipes dominaram o circo da Fó́rmula 1 –BAR,
Ferrari e McLaren– ao passo que três delas –Lotus, Hispania e Virgin– estavam muito
aquém de qualquer outra, às vezes 4 segundos mais lentas por volta do que as demais, o
que é uma enormidade. Portanto, um sorteio que tenha um piloto da Virgin è frente de um
ferrarista deve ser muito raro. O problema é que nas nossas simulações, isto não acontecia com a raridade prevista. Mesmo aumentando a força fixa das equipes grandes e reduzindo a das pequenas o problema persistia, embora em menor escala. Um modo de se
ver isto era através da pontuação esperada. O normal seria que a pontuação final dos pilotos da Lotus, Hispania e Virgin oscilasse entre 0 e 2 pois só́ pontuariam em uma corrida
muito atípica com chuva e desastres, sendo que na prá́tica estes eram os carros menos
preparados para as “wet races” além de, em geral, serem os primeiros a bater. Ao contrá́rio, em nossas simulações tais pilotos terminavam o campeonato, como esperado, nas
ú́ltimas colocações, mas com pontuação que variava entre 6 e 10. Detalhe: todos eles
terminaram o campeonato de 2010 sem ponto algum.
!
O interessante é que o melhor modo de se chegar a um modelo condizente com a
realidade é justamente se afastando dela. Vendo as entrevistas dos pilotos antes das provas, temos a impressão que todos querem ganhar e, dada a largada, todos disparam em
busca da vitória. Porém, do ponto de vista meramente formal e abstrato –que é como o
fenômeno será modelado– a histó́ria de uma corrida pode ser muito diferente. Suponhamos, por exemplo que o nosso referencial é o primeiro colocado e convencionamos que o
mesmo está parado, sendo que os outros se movem em relação a ele. Nos atendo somente ao movimento do ú́ltimo colocado, temos a impressã̃o que ele se afasta da primeira
colocação como se estivesse fugindo de um bandido. A ú́ltima coisa que nos passaria
pela cabeça é que um tal piloto entrou para vencer. Ao contra ́rio, talvez o modo certo de
se encarar uma corrida de Fórmula 1 seja compará-la a um jogo em que 20 coelhos partem em direção a 20 casas numeradas de 1 a 20. Há coelhos que disputam as primeiras
TRIM, 5 (2012), pp. 39-53
52
B. Nunes Borges de Lima, G. Nonato Costa, R. Nacife, R. Vidal Martins y R. Guimarães
casas, outros com tendência às casas intermediárias, e alguns coelhos que estão muito
felizes nas últimas casas e não há nada nesse mundo que os tire de lá.
!
Tendo em mente o dito acima, montamos um modelo que se mostrou bastante sa-
tisfatório após vários testes e se baseia na fórmula de Poisson. Criamos, para cada corredor X, um vetor força
PX = (P1,P2,P3,…,Pi,…,P20)
onde Pi indica a probabilidade do piloto X chegar na i-ésima colocação. O valor de Pi é
dado pela equação
em que μX é a média das colocações de X nas corridas até então disputadas e e = 2,
7128… é a base do logaritmo natural. Se por exemplo, após 5 provas, X venceu as duas
primeiras, depois chegou em quarto, sexto e último na quinta prova após bater na largada
temos
e deverá ser atualizado após a próxima prova. Repare o leitor que quanto mais forte for o
piloto X, menor será o μX que varia entre 1 (X venceu todas as provas) a 20 (X chegou em
último em todas elas). Portanto, pode-se verificar que quanto melhor o piloto maior será Pi
pois μX ≥ 1. Nos raciocínios acima sempre supomos que são 20 os pilotos que disputam o
campeonato, mas é lógico que podemos ajustálo ao número exato de pilotos na temporada em questão 3. Ao tomarmos a média simples da classificação de cada piloto, situações
adversas como uma corrida sob forte chuva ou forte calor, que afeta consideravelmente o
desempeho dos pneus, são consideradas indiretamente pela média μX, uma vez que não
teríamos um retrospecto considerável de cada piloto em cada uma dessas situações.
3
Verifica-se matematicamente que à medida que o número de corridas aumenta, a soma das componentes
de PX vai se aproximando de 1, ou, em linguagem matemática,
.
. Por isso os Pi são, de fato,
probabilidades.
TRIM, 5 (2012), pp. 39-53
Probabilidades no Esporte!
!
53
No início de qualquer campeonato de Fórmula 1, certos pilotos são considerados
favoritos enquanto outros meros coadjuvantes. E essas expectativas são descritas nos
valores iniciais de PX de cada piloto. Logicamente, nem sempre essas expectativas se
confirmam ao longo do campeonato. Portanto, por uma questão de equidade, poderíamos
considerar que todos os pilotos iniciam com a mesma probabilidade de ser campeão, e o
modelo levaria algumas corridas para aferir, com melhor precisão, o desempenho de cada
piloto. Além disso, as probabilidades são calculadas sem a consideração do grid de largada de cada corrida. Em certas provas, como a de Mônaco, esse fator é fundamental na
classificação final. Ao ser determinado o grid, pode-se, por exemplo, balancear a média μX
de cada piloto com o restrospecto médio dos pilotos que largam na mesma posição do
grid.
!
Fazemos então a simulação para a primeira colocação vendo a componente P1 de
cada piloto e dividindo o intervalo [0,1] em 20 partes proporcionais a estas componentes.
O computador sorteia um número entre 0 e 1 e, de acordo com a parte do intervalo em
que cair, escolherá o vencedor da prova. Na sequência, exclui este piloto e redivide o intervalo de acordo com a componente P2 de cada um dos 19 pilotos restantes e obtém o
segundo colocado após novo sorteio. Depois, repete o mesmo processo até que sobre
apenas um piloto que será decretado o último na prova. Com esses cálculos, obtemos valores como a probabilidade para o piloto ganhar a próxima corrida, ganhar o campeonato,
a pontuação esperada, e outros dados que podem ser de interesse do público em geral.
Referências
[1] B. James, Probabilidade: um Curso em Nível Itermediário, Rio de Janeiro, Projeto Euclides, 3a edição (2008).
[2] F. Brochero, G. N. Costa, M. Terra Cunha, B. N. B. de Lima, R. V. Martins, “Futebol:
uma Caixinha de… Sorteios”, Ciência Hoje, 254 (2008), pp. 24-29.
[3] I. Richard, The Pleasures of Probability, Nova Iorque, Springer-Verlag (1995).
TRIM, 5 (2012), pp. 39-53
55
Envío de originales
!
TRIM es una revista internacional y multidisciplinar, editada en formato digital, y de
libre acceso, por el Centro “Tordesillas” de Relaciones con Iberoamérica de la Universidad
de Valladolid.
!
Se publicarán trabajos en los que se presenten resultados de investigación, en dife-
rentes ámbitos de conocimiento. Las aportaciones deben ser originales e inéditas. No se
aceptarán artículos que hayan sido publicados en otro lugar.
!
Los textos podrán remitirse en español o portugués, acompañados de un breve re-
sumen y un máximo de cinco palabras clave, tanto en la lengua del artículo como en inglés, lengua en la que también se proporcionará el titulo del artículo.
!
Se enviarán en formato digital, con las extensiones .txt, .doc o .rtf, con tipo de letra
Times New Roman, cuerpo 12, espacio y medio de interlineado (se calculan 2100 caracteres, incluyendo espacios en blanco, por página), no pudiendo superar una extensión de
15 páginas. Excepcionalmente, se contemplará la posibilidad de publicar artículos de mayor extensión.
!
La tipografía en negrita se empleará tan solo en los títulos y subtítulos, no cam-
biando el tamaño o tipo de letra de los mismos.
!
No se utilizarán sangrados, ni ningún otro formato de texto, pues este se aplicará
durante la maquetación.
!
Pueden ponerse en contacto con TRIM en la siguiente dirección de correo electró-
nico: [email protected]
!
!
Referencias bibliográficas:
- Libros: Autor (apellidos en mayúscula, inicial), título (en cursiva), ciudad, año de edición,
página/s (p. pp.)
Ejemplo: CUESTA DOMINGO, M. (Coord.), Descubrimientos y cartografía en la época de
Felipe II, Valladolid, 1999.
- Artículos: Autor (apellidos en mayúscula, inicial), título (entre comillas), nombre de la revista (en cursiva), número de la revista, año de publicación (entre paréntesis), página/s (p.
pp.)
56!
Envío de originales
Ejemplo: MACHO STADLER, M., “Espacios foliados: el punto de vista no conmutativo”,
Revista del seminario iberoamericano de matemáticas, 3, V-VI (2008), pp. 79-93.
!
Referencias de Internet:
!
Se seguirán las recomendaciones de la MLA. La cita recogerá la siguiente informa-
ción: Nombre del autor (si se conoce), en Título completo del documento (entre comillas),
Título del trabajo completo (en letra cursiva). Fecha de publicación o de la última revisión
(de ser posible). Dirección completa del http (URL), entre paréntesis angulares < >. Fecha
de la visita entre paréntesis.
Ejemplo: LEMUS, R., “Balas de salva. Notas sobre el narco y la narrativa mexicana", en
Letras Libres. Septiembre 2005. <http://www.letraslibres.com/index.php?art=10700> (7 de
marzo de 2010).
!
Repetición de fuentes:
Para posteriores referencias de una obra ya citada, se puede recurrir a las expresiones
op. cit., ÍDEM, o IBÍDEM, según corresponda, indicadas en cursiva.
!
Imágenes e ilustraciones:
!
Cada artículo podrá ser acompañado de hasta un máximo de 10 imágenes.
!
Fotografías, ilustraciones, tablas y gráficos se incorporarán en su correspondiente
archivo gráfico (formato jpeg o tiff), nunca insertadas en el texto, y acompañadas de un
archivo de texto con sus correspondientes textos de pie de foto.
!
Estos archivos deberán poseer una resolución que permita su correcta reproduc-
ción.
!
Es responsabilidad del autor verificar el correcto formato de su texto. Los
trabajos que no se adapten a las presentes normas no serán sometidos a revisión
para su posible publicación.
Download

Índice - Inicio - Universidad de Valladolid