O PARADOXO DAS MÚLTIPLAS INCERTEZAS: SOBRE COMO A LIBERDADE DE ESCOLHA PODE DIFICULTAR AS DECISÕES DE LÍDERES MILITARES 1 Luiz Maurício de Andrade da Silva2 Academia da Força Aérea – Pirassununga/SP, Brasil “Nunca imaginamos que uma colisão pudesse ocorrer ali (...)” Brig Ar Kersul. Resumo – Este artigo aborda a questão da avaliação de cenários, suas probabilidades de ocorrência e incertezas, no âmbito das forças armadas – sob a perspectiva das decisões dos líderes militares – tendo em conta os efeitos colaterais que tais decisões podem acarretar para a sociedade mais ampla. Sociedade esta caracterizada hoje por “nuvens” de imprecisão, nas quais se torna cada vez maior a dificuldade de discriminar, rapidamente, amigos e inimigos, insurgentes e não insurgentes. O trabalho foi desenvolvido por uma revisão da literatura concernente, adotando como estratégia de pesquisa a apresentação de um cenário hipotético que leva a um novo paradoxo envolvendo decisões em condições de incerteza, complementando assim três conhecidos paradoxos existentes na literatura, a saber, o Paradoxo do Aquiles de Zenão, o Paradoxo do gato de Schrödinger e o Paradoxo da primeira noite no paraíso. Tais paradoxos contribuem para evidenciar a impossibilidade de se dar tratamento exclusivamente quantitativo quando se avalia as melhores decisões a serem tomadas, sobretudo em situações que envolvam o risco de efeitos colaterais. Palavras-chaves: Incerteza, teoria da decisão, paradoxos. 1. Introdução A Estratégia Nacional de Defesa (MD, 2008: pg.36), ao se referir às hipóteses de emprego das forças armadas, considera “(...) o alto grau de indeterminação e imprevisibilidade de ameaças ao país”. De forma que propõe como lenitivo a esta questão o contínuo aprestamento de seus líderes militares, e da nação como um todo. Tal aprestamento, por sua vez, passa pelo aprofundamento dos estudos e pesquisas de teorias da decisão que sejam suficientes para oferecer aos oficiais militares opções acerca de como decidir, em sobreposição aos estudos em que se define o quê decidir (Hammond, Raiffa & Keeney, 1999). É exatamente este o escopo do presente artigo, aprofundar os estudos acerca de como poderão ser tomadas as decisões dos oficiais militares brasileiros, tendo em vista as diretrizes da Estratégica Nacional de Defesa (END), em cenários em que as hipóteses de emprego, tanto na paz quanto nos conflitos, apresentam grande leque de alternativas de escolhas e múltiplas incertezas. O trabalho se inicia com a definição dos objetivos, hipóteses e situação-problema, para em seguida discutir o quadro teórico em que a análise se situa. Após o quadro teórico, é apresentado o novo paradoxo proposto, e nas seções finais a discussão, conclusões e desdobramentos futuros. 1 Agradeço os comentários do Prof. Dr. Paulo Eduardo M. F. de Mendonça quando na preparação deste trabalho, sem, no entanto, com isso comprometê-lo com quaisquer das idéias aqui apresentadas. Estas são de minha inteira e exclusiva responsabilidade. A versão inicial deste artigo foi apresentada, e consta dos anais do III Encontro Pedagógico de Ensino Superior Militar, realizado na Academia da Força Aérea, de 29 de agosto a 01 de setembro de 2011. 2 [email protected] 2. Objetivos do trabalho, hipóteses e situação-problema O objetivo principal deste trabalho é contribuir com o aprofundamento dos estudos sobre como pode se dar o processo de decisão dos oficiais militares, em consonância com as diretrizes da END (MD, 2008). As hipóteses são (i) de que o aprofundamento de tais estudos pode levar ao melhor aprestamento dos tomadores de decisão, como quer a END, e; (ii) de que o tratamento exclusivamente quantitativo das decisões em condições de incerteza apresenta lacunas – ou então “paradoxos”, como são apresentados na literatura concernente – que dificultam o apoio aos tomadores de decisão em tais circunstâncias. Tal dificuldade talvez possa ser amenizada pelos estudos dos critérios híbridos (Vianna, 1989, Klein, 2000, Silva, 2000; Silva, 2004) e subjetivos (qualitativos) de análise (Vianna, 1989). De forma que a situação-problema em evidência é a teoria de decisão militar em condições de múltiplas incertezas, e o tipo de apoio que a lógica matemática e estatística oferecem a tal processo, evidenciando as vantagens que poderiam advir da utilização de métodos híbridos que combinem as ferramentas quantitativas clássicas com estimativas de probabilidades subjetivas, coerentemente calibradas. 3. Enquadramento teórico 3 O quadro teórico necessário para o desenvolvimento do presente artigo se inicia com uma retrospectiva histórica sobre o processo de tomada decisões (Silva, 2000). Na sequência é apresentado – através da estratégia de pesquisa – o novo paradoxo que, juntamente com os já existentes na literatura visa reforçar os argumentos a favor do uso da capacidade de decisão baseada na subjetividade e circunstancialidade do decisor, com o apoio de métodos híbridos de decisão. O processo de tomada de decisões Segundo Silva (2000), antes que se inventasse o zero e o sistema de numeração indoarábico, o futuro era visto por todos como área de acesso restrito aos deuses. Faz-se referência (Sennett, 1999:95) à existência de uma deusa grega, chamada Fortuna, que era capaz de adivinhar os resultados de lançamentos de dados e outros jogos de azar. Também é bastante conhecido, por exemplo, através dos dramas gregos, o fato de que estes recorriam aos oráculos quando desejavam uma previsão do que o futuro poderia reservar-lhes. Acreditava-se numa verdadeira impotência dos seres humanos em função do destino impessoal, e que a ordem de todas as coisas só se encontrava nos céus, “onde os planetas e as estrelas surgem em seus lugares certos com uma regularidade insuperável.” (Bernstein, 1997:17). Ademais, não só Bernstein (1997), mas também Ruelle (1993), admitem que são as condições de desenvolvimento econômico atuais que compelem os homens a uma atual corrida arriscada em relação ao futuro, pois “quando as condições de vida estão tão estreitamente ligadas à natureza (como na Idade Média), pouco resta para controle humano” (Bernstein, 1997:18). Tendo a variável clima como a única variável mais aparente, os povos antigos começaram, a partir da disseminação do cristianismo pelo mundo ocidental, a contemplar o futuro também como uma questão de moral e fé. 3 Este item, em sua totalidade, é uma reprodução, com poucas adaptações, de parte da tese de doutorado do autor. Ruelle (1993:12) cita célebres defensores do livre-arbítrio como Santo Agostinho (354430), Santo Tomás de Aquino (1225-1274) e Jean Calvin (1509-1564) como marcos da passagem de um futuro inescrutável para algo não totalmente imponderável para humanos livres e inteligentes, mas ainda não suscetível de alguma expectativa matemática. Bernstein (1997:20-21) recorre à contabilidade como atividade “humilde, mas que encorajou a disseminação das novas técnicas de numeração e contagem”, para ali localizar os primeiros movimentos em direção aos números, quando se falava de futuro. A história dos números ganhou seu impulso mais decisivo em 1202 quando Leonardo Pisano, mais conhecido como Fibonacci, estudando o sistema de numeração indoarábico e suas possibilidades de cálculo, desvendou o problema de quantos descendentes teria um casal de coelhos ao final de um ano, se começassem a procriar aos dois meses de idade. Sua descoberta foi não apenas o número de coelhos que o casal inicial teria ao final de um ano, 233, mas a famosa série de números que leva seu nome: a série de números de Fibonacci: 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233. Cada número da série é resultado da soma dos anteriores, e suas proporções (um número dividido pelo seguinte), a partir do número 34, resultam sempre na conhecida proporção do áureo meio-termo, 61,8%. Depois vieram as viagens de exploração, e os astrônomos, surgindo assim a matemática. O que fica deste período é a permanência da idéia, existente até hoje, de que a natureza apresenta padrões de regularidade, que devem ser não apenas respeitados, mas tomados como referência, sempre combinados com o livre-arbítrio, até então a noção moral de bem e mal. Ruelle (1993) vai um pouco além, quando responsabiliza ainda a complexidade da natureza e a nossa mesma como justificativas para a inevitabilidade do livre-arbítrio. Ou seja, este autor parece querer sugerir a inevitabilidade do livre-arbítrio, e não mais a simples sorte ou o destino, como um quase retorno aos tempos da deusa Fortuna. Ontem curvávamo-nos aos caprichos da deusa, hoje ao livre-arbítrio. Já a partir de 1420, as manifestações artísticas continuavam a revelar respeito pelas representações da divindade, mas mais nenhuma subserviência a elas. Segundo Bernstein (1997), foi um problema proposto no livro de Paccioli, o famoso jogo de balla, que marcou o início do cálculo das probabilidades. O mesmo autor faz referência ainda ao fato de que até então (fim do século XV) a aritmética elementar oferecia grandes dificuldades para muitos, tome-se como exemplo o gênio Leonardo da Vinci. Mas foi um médico do século XVI, Girolamo Cardano (1500-1571) que desvendou em seu livro Liber de ludo aleae, os mistérios e a regularidade de alguns jogos e possibilitou, com seu enorme interesse por jogos de azar, os avanços seguintes no cálculo das probabilidades. Em sua raiz latina, a palavra significa provar (probare) e vir a ser (ilis). Importante notar que a probabilidade foi um dos catalisadores iniciais do método científico como conhecido hoje, tendo sempre este duplo sentido, um voltado para o futuro e outro como interpretação do passado. Um voltado para a experimentação, outro para o que pode vir a acontecer. Sabemos que Blaise Pascal, Pierre de Fermat e o cavaleiro francês de Méré deram o impulso maior para os estudos das probabilidades. Mas seu impulso fez-se sentir sobretudo nos cálculos e nas medições, nem tanto na vontade ou no livre-arbítrio. No Iluminismo encontramos um conceito central nestas discussões: o de utilidade, que encerra em si mesmo a idéia de que “uma decisão deve envolver a força de nosso desejo de um resultado específico assim como o grau de crença na probabilidade daquele resultado.” (Bernstein, 1997:70). Em 1684 Isaac Newton publica seus Principia, apresentando pela primeira vez as leis da gravidade. Newton publicou suas pesquisas com recursos daquele que foi o primeiro a acertar em suas previsões com maior exatidão e fora do ambiente dos jogos de azar: o inglês Edmund Halley, que acertou com exatidão a repetição da passagem do cometa que leva seu nome. Não o acerto de Halley, mas as descobertas de Newton revolucionariam a evolução científica dali por diante. Ruelle (1993:41) afirma que “de acordo com a mecânica de Newton, quando se conhece o estado de um sistema físico (posição e velocidades) num instante dado, podemos deduzir (prever) seu estado em qualquer outro instante.” Estes foram sendo, mais e mais, ingredientes que foram reforçando a visão de que o futuro poderia ser uma repetição do passado. De tal forma que Bernstein (1997:95), referindo-se ao mesmo período, chega a afirmar: “Como resultado, a previsão - por muito tempo denegrida como uma perda de tempo, na melhor hipótese, e um pecado, na pior - tornou-se uma necessidade absoluta no decorrer do século XVII para os empresários aventureiros dispostos a correr o risco de moldar o futuro de acordo com seu próprio desígnio.” Mais e mais o sentimento de equilíbrio e respeito à razão foram caracterizando o Iluminismo. Mais e mais as decisões passavam a ser tomadas não apenas com base nas probabilidades dos eventos, mas também com base no conceito de utilidade. E assim outro conceito basal nesta revisão também começa a surgir, desta vez através dos escritos de um dos mais célebres matemáticos de todos os tempos, Daniel Bernoulli (1738), que apresentou os rudimentos do conceito de valor esperado4. Segundo Bernstein (1997:114) uma das mais fortes asserções de Daniel Bernoulli fica evidenciada nesta passagem: “Como todas as nossas proposições se harmonizam perfeitamente com a experiência, seria um erro rejeitá-las como abstrações baseadas em hipóteses precárias.” Keynes (1952:71), inglês vitoriano e otimista com relação ao equilíbrio econômico, dedica o capítulo VI de seu Treatise on probability para tratar a questão do peso dos argumentos. Segundo ele, o acesso a novas evidências aumenta o peso de uma argumentação. Ou, algo como o que estamos convencionando, valoriza uma combinação entre as evidências (métodos quantitativos) e as crenças baseadas no livrearbítrio (subjetividade?). Nas palavras do próprio Keynes (1952:76/77): “Um argumento tem mais peso que outro quando baseado em grande quantidade de evidências relevantes... Decidindo um curso de ação, é plausível supor que devemos ter em conta o peso do argumento assim como as probabilidades das diferentes expectativas.” Em sua visão de sociólogo, Sennett (1999) reclama da exagerada flexibilidade das organizações e do permanente estado de incerteza, afirmando que este estado de coisas 4 O conceito de valor esperado pode ser resumido como sendo a multiplicação dos valores pelas suas probabilidades de ocorrência. E uma palavra, média ponderada. dificulta o sentido de continuidade que tudo deve ter, levando as empresas a darem preferência, mais e mais, por pessoas mais jovens, menos experientes e mais dispostas a correrem riscos. Segundo ele, o presente se tornar descontinuo com o passado é a pedra angular da prática administrativa moderna, que tem no risco permanente sua maior desculpa para tantos desacertos. O mesmo Sennett (1999:111) ainda critica duramente o recorrente preconceito contra os trabalhadores mais velhos: “O que um trabalhador mais velho aprendeu no correr dos anos sobre uma determinada empresa ou profissão pode atrapalhar novas mudanças ditadas pelos superiores. Do ponto de vista da instituição, a flexibilidade dos jovens os torna mais maleáveis tanto em termos de assumir riscos quanto de submissão imediata.” O livro Hereditary genius, de Francis Galton (1822-1911) exerceu forte influência sobre Charles Darwin. Galton foi um dos primeiros pesquisadores do século 19 a perceber a lei de regressão à média no padrão de crescimento das ervilhas, e também defensor da censurável eugenia. Se foi ou não “barrado” pela ética dos humanos em assuntos de eugenia, esta mesma ética não impediu o avanço - e os muitos benefícios - das leis da hereditariedade de Darwin, que hoje culminaram com a recente codificação do genoma humano. O ponto a que estamos chegando agora nesta fundamentação teórica requer ênfase na divisão que se dá em relação às diferentes ciências na época: (1) os físicos até então (século 19 e limiar do século 20) com a predominância do determinismo da mecânica newtoniana, (2) os biólogos e matemáticos com as leis da hereditariedade de Darwin e regressão à média e correlação de Galton, e (3) no mundo empresarial persistindo a noção keynesiana de que as flutuações da economia estavam mais ligadas ao acaso, e não, como diz Bernstein (1997), ligadas a eventos inerentes a um sistema econômico impulsionado pelo ato de correr riscos. A física newtoniana, todos sabemos, evoluiu bastante e hoje está sendo contraposta pela teoria do caos. Esta evolução se deu em uma direção ilustrada de forma bastante interessante por Ruelle (1993:45): “Tentemos resolver o seguinte paradoxo: alguém, a quem chamaremos de preditor, utiliza o determinismo das leis da física para predizer o futuro, e em seguida utiliza seu livre-arbítrio para contradizer suas próprias predições. Trata-se de um paradoxo que se manifesta de maneira aguda em certos romances de ficção científica, em que o preditor é capaz de analisar o futuro com incrível precisão. Como resolver este paradoxo? Podemos abandonar quer o determinismo, quer o livre-arbítrio, mas existe uma terceira possibilidade: podemos negar que quem quer que seja tenha poder preditivo suficiente para criar um paradoxo. Notemos que nosso preditor deve violar suas próprias predições acerca de um determinado sistema, mas para agir sobre esse sistema ele próprio deve fazer parte do sistema. Isto implica que o sistema é, sem dúvida, bastante complicado. Assim, a predição precisa do futuro do sistema deve requerer um enorme poder de cálculo, ultrapassando, pois, as possibilidades de nosso preditor.”(...)A predição do comportamento futuro de um sistema complexo é, por definição, severamente limitada, mesmo quando o sistema seja determinista...Uma causa muito pequena, que nos escapa, determina um efeito considerável que não podemos deixar de ver, e então dizemos que esse efeito se deve ao acaso... Qualquer que seja o estado do sistema no tempo zero, admitindo-se o efeito exponencial de pequenas mudanças...resultarão disso importantes efeitos a longo prazo.” (Ruelle, 1993:58;67;113) Outro autor genial, Jacob Bernoulli (1654-1705), desenvolveu um famoso teorema que ficou conhecido com Lei dos Grandes Números, que afirma que a média de um grande número de lançamentos de dados, por exemplo, aproximar-se-á mais da média real do que um número menor de jogadas o fará. Por trás deste teorema geral, Jacob Bernoulli nos ensina ainda que, nas palavras de Bernstein (1997:118) “na vida real poucos são os casos em que as informações são suficientemente grandes ou completas para que as regras simples da probabilidade nos permitam prever o resultado.” As teorias da decisão em Administração evoluíram marcadamente a partir das contribuições do pastor e estatístico Thomas Bayes (1701-1761). Em seu trabalho mais importante Ensaio sobre a solução de um problema da doutrina das chances, Bayes antecipou a modernidade da teoria da decisão: a revisão de inferências sobre o que o futuro pode vir a ser com base em informações antigas, a partir de novas informações obtidas, encaixava-se perfeitamente bem com o que hoje é conhecido como um mundo dinâmico em que não há uma única resposta em condições de incerteza. Poderíamos acrescentar ingredientes às teorias de Bayes, se pensarmos que a renovação destas informações pode (deve) se dar sobretudo através da experiência e sentido de circunstancialidade dos administradores, ou tomadores de decisão. Outro importante autor que se seguiu a Bayes foi Carl Friedrich Gauss (1777-1855), este imprimindo (talvez sem saber ou querer) importantes avanços aos cálculos do risco com sua distribuição normal, que tornou possível estimar precisamente o número de desvios de uma variável em relação à sua média. Keynes é célebre e sempre foi respeitado, mesmo pelos monetaristas, que não acreditam, como Keynes, que o sistema capitalista precisava de uma dose freqüente de intervenção governamental. Em nossa concepção, o mundo econômico não só passou a imaginar-se o único dos mundos, mas também passou a valorizar mais e mais a saúde do dinheiro, e, em nome desse e do risco, vem funcionando, em um liberalismo que a uma minoria tudo permite, e a uma maioria de tudo priva. Mas ainda temos muito a aprender com o economista (e também matemático e filósofo) Keynes, que adquiriu reputação internacional através de seu livro As consequências econômicas da paz. Voltando ao seu Tratado sobre probabilidades (1952), encontramos afirmações de Keynes que fortalecem sobremaneira os argumentos deste trabalho, como ser favorável às previsões baseadas em proposições e graus de crença, ou ainda quando rejeita métodos de reconhecer probabilidades sem nenhuma ajuda da intuição e do julgamento direto. Keynes propunha sistematicamente políticas governamentais contrárias ao laissez-faire, para reduzir as incertezas na economia, bem diferentemente do que hoje caracteriza o liberalismo. Segundo Bernstein, as prescrições econômicas de Keynes revelam que, ao tomarmos decisões, mudamos o mundo. Talvez este mundo de hoje esteja se influenciando menos pelas idéias de Keynes e mais pelas idéias de Neumann, que também é citado pelo físico Ruelle (1993:51): “Na teoria de jogos, evidentemente, é bom reagir de maneira previsível quando cooperamos com alguém. Mas, numa situação competitiva, um comportamento aleatório e imprevisível pode ser a melhor estratégia.” Embora Keynes predominasse no meio acadêmico, e rejeitasse qualquer tipo de descrição matemática do comportamento humano, as idéias de Neumann inauguravam a era da quantificação matemática. Alguns autores vêem esta quantificação como o otimismo que acompanhou as grandes vitórias da segunda guerra mundial. Nas áreas de defesa a análise e quantificação do risco em nada pode se assemelhar com o que se observa no setor das empresas civis, ou nas finanças. Os militares precisam avaliar bem o risco inerente às múltiplas ameaças, e responder celeremente a estas ameaças, certificando-se de que suas decisões implicarão em um mínimo de efeitos colaterais. Uma espécie de lógica minimax, com consequências bastante mais graves do que simplesmente ganhar ou perder dinheiro. Ocorre que estas ameaças podem vir de múltiplas – e por vezes inesperadas – origens, de forma que a quantificação de seu risco se torna uma tarefa bastante complexa, para não dizer impossível. Assim, passemos à estratégia de pesquisa deste trabalho científico que propõe um novo paradoxo, como forma de ensejar os necessários debates nesta área de riscos, opções de decisões (escolhas) de generais militares e seus efeitos colaterais. 4. Estratégia da pesquisa Como foi dito, a estratégia de pesquisa deste artigo é a apresentação de um novo paradoxo para, juntamente com aqueles já existentes na literatura, quais sejam: o Paradoxo do Aquiles de Zenão (Bentley, 2010), o Paradoxo do gato de Schrödinger (Goswami, Reed & Goswami, 1998) e o Paradoxo da primeira noite no paraíso (Gigerenzer: 2002, p.211, citando a teoria de sucessão de Pierre-Simon Laplace) reforçar os argumentos sobre o uso da capacidade de julgamento dos tomadores de decisão, desde que – e como condição sine qua non – esta capacidade esteja bem fundamentada e treinada, por uma capacitação apoiada em critérios híbridos coerentemente calibrados e apoiada, criteriosamente, na lógica intuitiva (Vianna,1989; Klein, 2000; Silva, 2000). O primeiro paradoxo citado, do Aquiles de Zenão, evidencia a limitação matemática ao lidarmos com números muito pequenos, insignificantes (Aquiles nunca irá ultrapassar a tartaruga?), colocando em evidência a insolubilidade matemática do problema, ao não ser que recorramos à teoria de limites. O que resulta em uma espécie de negação desta ordem de números quase-infinitesimais – ou negação da própria noção de infinito –, uma vez que a teoria de limites “troca” a noção de infinito pela noção de zero. Sendo conveniente lembrarmos que foi exatamente a possibilidade de uso das frações, razões e números racionais que levou matemáticos como Pascal e Fermat ao início das estimativas de futuro com base nos números (Bentley, 2010 p. 190): “Esses matemáticos perceberam, discutindo entre si, que frações e razões podiam ser usadas para nos informar o quanto algo era provável”. Ora, se a matemática não se aplicar, como neste caso do Paradoxo de Zenão, para modelar e simular a realidade mais provável, nestes casos, envolta em ordens numéricas muito diminutas, melhor ficarmos com a própria realidade, uma vez que sabemos que Aquiles rapidamente – em situação não simulada, ou não apresentada em termos matemáticos – ultrapassaria a tartaruga. O nó górdio de qualquer ferramenta de apoio à decisão está alicerçado em sua capacidade de previsão, caso contrário não será muito útil. Uma vez aceito este argumento, vemos que quando adotamos a teoria de limites para lidar com números muito pequenos e igualamos seu resultado a zero, estamos negando a chance de ocorrência do evento, ainda que sua probabilidade seja ínfima. Para reforçar os riscos envolvidos ao se adotar esta visão de quase- negação das chances de ocorrência, recorramos a um evento recente, como o acidente ocorrido com o piloto brasileiro de Fórmula1 Felipe Massa, em que uma peça de outro carro, vindo do bólido de outro piloto brasileiro, atinge a cabeça de Massa, ferindo-o gravemente. Alguém que estivesse estimando as chances de ocorrência deste acidente, certamente estaria lidando com uma ordem de número centesimal, quase-infinitesimais. Mas nunca poderia negar com certeza absoluta – por exemplo, igualando as chances a zero – a chance de ocorrer um acidente deste tipo. Pior ainda foi constatarmos que uma semana antes do acidente com Felipe Massa, outro jovem piloto de automóveis, desta vez de outra categoria do automobilismo, morreu em decorrência de um acidente em que a roda de outro automóvel também o atingiu na cabeça. Minha realidade pessoal – envolta em eventos inesperados e trágicos – exigiu, e continua exigindo, bastante reflexão e aprofundamentos teóricos sobre este tema (Silva, 2004, Piccardi, 2010). Foge completamente às minhas convicções e aos meus interesses de pesquisa iniciar qualquer crítica à matemática ou estatística, ou colocar em discussão a profícua utilidade das ferramentas quantitativas clássicas, mesmo porque – se quisesse – não teria nem mesmo preparo técnico para tais críticas. O que pretendo é colocar em pauta a teoria de decisão, as dificuldades de se encontrar apoio em métodos quantitativos quando se lida com números desta magnitude, e, aprofundar os estudos que confiram sustentabilidade ao uso de nossa capacidade de julgamento em decisões. E então, a inevitável pergunta: em que outras situações a simulação exclusivamente quantitativa da incerteza talvez possa estar nos levando para conclusões de frágil sustentação, como esta em que alguém igualaria a zero as chances do acidente de Massa naquelas circunstâncias? Talvez resida exatamente aí, nesta passagem de Bentley (2010, p.190) citada acima, o ponto de ruptura do fio condutor do conhecimento científico humano, ou a substituição que os grandes pensadores fizeram, da filosofia (intuição) pela quantificação (razão). O Paradoxo do Aquiles de Zenão contribui com as hipóteses deste artigo ao evidenciar a necessidade de que encontremos uma maneira de trabalhar com números quaseinfinitesimais, sem, no entanto, reduzi-los a zero. O que talvez só possa ser realizado com a conjugação da razão com a intuição. Residindo aí a principal linha de argumentação para o desenvolvimento do novo paradoxo que se apresenta neste artigo. Já no Paradoxo do gato de Schrödinger, o que se verifica é a impossibilidade ex-ante de se determinar o estado futuro do objeto, sem que se recorra à consciência do tomador de decisão. Para que se solucionem os diferentes (prováveis) estados do objeto, ou até mesmo o seu duplo-estado (vivo e morto ao mesmo tempo), se deve, obrigatoriamente, olhar para dentro da caixa do experimento proposto por Schrödinger, constatar o estado atual do gato, e assim “criar” a realidade. Este paradoxo contribui com as hipóteses deste artigo uma vez que torna necessário o uso do expediente da percepção (consciência subjetiva) do tomador de decisão, para bem avaliar a situação. E o Paradoxo da primeira noite no paraíso evidencia a incerteza inerente à condição de qualquer ser vivo, mesmo em se tratando de eventos tão prováveis como o nascimento do sol na manhã que se seguirá ao dia de hoje. Ainda que tenha vivido 100 anos, um indivíduo estaria impossibilitado de ter certeza absoluta de que o sol nascerá amanhã. 5 Este paradoxo contribui com as hipóteses deste artigo, uma vez que evidencia a impossibilidade, em termos matemáticos, de que se fale em certeza absoluta, o que, inevitavelmente – além de contrariar axiomas clássicos da probabilidade, como a 5 A fórmula proposta por Pierre-Simon Laplace (apud Bentley, 2010) é: {(n+1) / (n+2)}. distribuição normal (Stevenson, 1986) – nos remete, novamente, a que seja necessário recorrer ao expediente da subjetividade, da autoridade própria (alçada pela experiência), e da aceitação da idéia de crença (ou fé) em um curso de ação considerado mais provável. Sendo que, neste caso, não existiria modelagem matemática que pudesse otimizar a decisão. Mas sim os critérios éticos, fundamentados na circunstancialidade, na experiência e na subjetividade dos tomadores de decisão (Cummings, 2004). 4.1. Paradoxo proposto O novo paradoxo proposto neste artigo pode ser evidenciado pela elaboração do seguinte cenário: em face de múltiplas incertezas, digamos 10 (dez) ameaças potenciais (prováveis), todas tendo recebido nota 10 (dez) em uma escala de 0-10 pontos sobre o seu nível de impacto; com estimativas de probabilidades de ocorrência de 0,10 (dez por cento) cada, como poderia o comandante de uma operação militar ter alguma certeza matemática e escolher o melhor curso de ação? A própria definição operacional de “certeza” sabidamente contraria os axiomas aceitos na teoria de probabilidades, e, ademais, conforme será demonstrado a seguir, esta decisão, se fosse apoiada exclusivamente na teoria quantitativa, resultaria em um novo paradoxo, uma vez que nem o cálculo do valor esperado, nem os axiomas apropriados de estimativa de probabilidades ajudariam muito no processo de tomada de decisão, como será demonstrado a seguir. A tabela 1 ilustra a situação hipotética proposta nesta pesquisa. Tabela 1: Cenário de ameaças potenciais e suas probabilidades de ocorrência Ameaças potenciais A1 A2 A3 A4 A5 A6 A7 A8 A9 A10 “Valor esperado para o cenário total” VE(x)=A1*p1+A2*p2+...A10*p10 “Probabilidade estimada para eventos dependentes” p(A1)*p(A2)... *p(A10) “Probabilidade estimada para eventos independentes” p(A1)+p(A2)...+p(A10) Nível de impacto (0-10) 10 10 10 10 10 10 10 10 10 10 Probabilidade de ocorrência (p) 0,10 0,10 0,10 0,10 0,10 0,10 0,10 0,10 0,10 0,10 10 0,0000001% 100% Fonte: Elaborado pelo autor De forma que, para quem comanda a operação – e tem que decidir – viriam em seguida as inevitáveis perguntas: que curso de ação priorizar? Qual a ameaça mais provável? Em quê a abordagem quantitativa contribui? Como neutralizar as ameaças e evitar os efeitos colaterais? Ou se estivéssemos em um ambiente de simulação, como os sistemas de apoio à decisão apresentariam uma solução? No cálculo “Valor esperado para o cenário total” o resultado máximo (10), em uma escala de 0-10, em nada contribui com a discriminação das melhores escolhas e decisão sobre o mais desejável curso de ação, informando apenas que, no conjunto, as alternativas produzirão o máximo impacto. No cálculo “Probabilidade estimada para eventos dependentes” chega-se a um valor tão pequeno para a estimativa de probabilidades, que torna difícil qualquer tipo de discriminação entre as alternativas. Por exemplo, o quê exatamente pode advir de uma situação em que a probabilidade seria de 0,00001? Não nos esqueçamos de que neste caso (compare com a ordem de grandeza do número que está grafado na penúltima linha da tabela 1) estamos falando de uma situação da ordem de cem vezes mais provável do que a do cenário proposto! Ou seja, não auxiliam muito o tomador de decisão, sobretudo quando se deve discriminar as alternativas, ameaças e incertezas, e minimizar efeitos colaterais. E no cálculo “Probabilidade estimada para eventos independentes” chega-se a um número que, mesmo passando ao largo de sua impossibilidade em termos matemáticos, também em nada contribui com as escolhas do melhor curso de ação, uma vez que totaliza 100% (cem por cento de probabilidade), assim como no caso do cálculo do valor esperado, apenas que desta vez apresentando um número percentual. Assim, no cenário hipotético formulado nesta pesquisa, como seria possível avaliar efeitos colaterais, se o conjunto das alternativas apresenta grande dificuldade já no processo de avaliação quantitativa da(s) provável(is) ameaça(s)? Com base nestes argumentos – que em nenhuma hipótese julgamos irrefutáveis, se apresenta o novo paradoxo proposto neste artigo: “Paradoxo das múltiplas incertezas”. Para cuja solução seria necessário – tal qual nos conhecidos paradoxos já existentes na literatura, e já citados – recorrer às análises de cunho qualitativo e estimar probabilidades subjetivamente (Vianna, 1989) e com auxílio de métodos combinados, híbridos (Silva, 2000). Assim é que este novo paradoxo, juntando-se aos já conhecidos paradoxos, busca reforçar a linha de argumentação de que os métodos quantitativos, nestes casos, devem ser calibrados pela probabilidade subjetiva, combinados com exaustivas análises de variáveis qualitativas. Analises qualitativas, que, por sua vez, exigem capacidade de estruturação e gerenciamento de robustos sistemas de inteligência e apoio à decisão, que tenham como ponto de partida os aspectos éticos, assim como os fatores organizacionais e em operações de comando e controle das operações militares (Cummings, 2004). Quando em uma decisão múltiplas alternativas de cursos de ação ou ameaças existirem, maior será a possibilidade de surgirem conflitos, e mais difícil será comparar as opções de escolhas, sobretudo em ambientes de sistemas abertos e dinâmicos, como os das operações militares. Existe um ponto em que mais opções, produtos e escolhas são prejudiciais tanto para quem oferece como para quem decide a escolha (Gigerenzer 2009, p.53). Ou nas palavras do próprio Gigerenzer: “Nos esportes, nas emergências dos hospitais e nas ações militares, as decisões têm de ser rápidas, e buscar a perfeição mediante uma longa deliberação pode significar a derrota na partida ou a perda de uma vida.” (Ibid, pg. 51). Mas o fato é que, em termos militares, as incertezas são múltiplas e cada vez maiores em número, principalmente se tratarmos de guerras irregulares. Podendo-se depreender da citação acima que somente o uso coerentemente fundamentado da subjetividade, aliada a critérios universalmente aceitos de julgamentos e estimativas de probabilidades preparadas também com o uso da percepção humana, é que se pode aumentar o grau de confiabilidade quando na construção de sistemas de apoio à decisão. Gigerenzer reforça ainda mais esta linha de argumentação quando afirma que: “O princípio segundo o qual mais (tempo, reflexão, atenção) é melhor não se aplica às habilidades e ao domínio pleno dos mais experientes.” (Ibid, pg. 51) 5. Conclusões Diante do que foi exposto na metodologia de pesquisa deste trabalho, permitimo-nos formular duas proposições: Proposição 1: Existência do paradoxo das múltiplas incertezas, que, complementando os clássicos paradoxos existentes na literatura, adverte para os riscos de se querer apoiar sistemas de inteligência e as decisões militares em métodos estritamente quantitativos. Acentuando os riscos de se reduzir a atenção para com eventos de probabilidades (ou chances de acontecer) diminutas. Proposição 2: Teorias como a prospectiva (Kahneman & Tversky, 1979), da utilidade subjetiva esperada (Goodwin & Wright, 2010), ou até mesmo a análise multivariada (Hair, et all, 1987) poderiam auxiliar a solucionar o paradoxo, mas exigiriam muito tempo de análise. Não se aplicando para decisões militares rápidas. 6. Desdobramentos futuros O objetivo principal deste artigo foi contribuir com a teoria de decisão militar, sobretudo quando se pensa no tipo de formação e treinamento que se oferece aos líderes e futuros líderes das forças armadas brasileiras. Como objetivo secundário o que se pretendeu foi convidar os pesquisadores desta área de conhecimento a aprofundar as discussões sobre a teoria da decisão, especificamente nos aspectos que envolvem a incerteza e o risco. Em operações militares, diversas nações têm se debruçado sobre os promissores resultados – embora não aceitos com unanimidade – das operações baseadas em efeitos (EBO na sigla original em inglês – Hunerwadel, 2006), ou ainda no arsenal conceitual do soft power de Joseph Nye. O que se imagina é que as operações EBO e/ou a concepção da filosofia militar do soft power possam ajudar a solucionar os conflitos entre nações com o uso mais vigoroso da negociação, convencimento e entendimento, e – com menor intensidade – a força dos armamentos e o desconsolo do derramamento de sangue, sobretudo o sangue dos mais jovens. 6. Bibliografia Bentley, P. O livro dos números: uma história ilustrada da matemática. Rio de Janeiro: Zahar, 2010. Bernstein, P. Desafio aos deuses: a fascinante história do risco. Rio de Janeiro: Campus, 1997. Cummings, M. Designing decision support systems for revolutionary command and control domains. Dissertation presented to the faculty of the school of Engineering and Applied Science, University of Virginia, 268p, 2004. Gigerenzer, G. Reckoning with risk: learning to live with uncertainty. London, UK: Penguin, 2002. Gigerenzer, G. O poder da intuição: o inconsciente dita as melhores decisões. Rio de Janeiro: Best Seller, 2009. Goodwin, Paul & Wright, George. Decision analysis for management judgment. 4th edition. Chichester, UK: Wiley, 2010. Goswami, A., Reed, E.R., Goswami, M. O universo autoconsciente: como a consciência cria o mundo material. Rio de Janeiro: Record/Rosa dos Tempos, 1998. Hair, C. et alii. Multivarate data analysis with readings. New York: Macmillan, 1987. Hammond, J.S., Keeney, R.L.& Raiffa, H. Somos movidos a decisões inteligentes: como avaliar alternativas e tomar a melhor decisão. Rio de Janeiro: Campus, 1999. Hunerwadel, J.P. “O tratamento das operações baseadas em efeitos: Perguntas e respostas”. Air & Space Power Journal - em português. 2º trimestre, 2006. Kahneman, D. & Tversky, A. “Prospect theory: an analysis of decision under risk”. Econometrica, 47, 1979, p. 263-291. Keynes, J.M. A treatise on probability. London: Macmillan, 1952. Klein, Gary. Sources of power: how people make decisions. Cambridge: MIT Press, 2000. Lima, G.T., Sicsú, J. & de Paula, L.F. orgs. Macroeconomia moderna: Keynes e a economia contemporânea. Rio de Janeiro: Campus, 1999. Markowitz, H.M. “Portfólio selection”. In: Journal of Finance, vol.VII, n.1, 1952. Ministério da Defesa. Estratégia Nacional de Defesa, 2008. Piccardi, T. Ensaio de Helena. Tradução Nadia Kerecuk. São Paulo: Alles Trade, 2010. Ruelle, D. Acaso e caos. São Paulo, Unesp, 1993. Sennett, R. A corrosão do caráter: conseqüências pessoais do trabalho no novo capitalismo. Rio de Janeiro: Record, 1999. Silva, L. M. A. Instrumentalização do planejamento estratégico: aplicação no setor aeroviário comercial brasileiro. Tese de doutoramento, FEA/USP, SP, 182p, 2000. Silva, L.M.A. Tomada de decisões em pequenas empresas. São Paulo: Cobra, 2004. Stevenson, W.J. Estatística aplicada à administração. São Paulo: Harbra, 1986. Vianna, N. W. H. A subjetividade no processo de previsão. Tese de doutoramento, FEA/USP, SP, 154p, 1989.