O PARADOXO DAS MÚLTIPLAS INCERTEZAS: SOBRE COMO A
LIBERDADE DE ESCOLHA PODE DIFICULTAR AS DECISÕES DE
LÍDERES MILITARES 1
Luiz Maurício de Andrade da Silva2
Academia da Força Aérea – Pirassununga/SP, Brasil
“Nunca imaginamos que uma colisão pudesse ocorrer ali (...)”
Brig Ar Kersul.
Resumo – Este artigo aborda a questão da avaliação de cenários, suas probabilidades de ocorrência
e incertezas, no âmbito das forças armadas – sob a perspectiva das decisões dos líderes militares –
tendo em conta os efeitos colaterais que tais decisões podem acarretar para a sociedade mais ampla.
Sociedade esta caracterizada hoje por “nuvens” de imprecisão, nas quais se torna cada vez maior a
dificuldade de discriminar, rapidamente, amigos e inimigos, insurgentes e não insurgentes.
O trabalho foi desenvolvido por uma revisão da literatura concernente, adotando como estratégia
de pesquisa a apresentação de um cenário hipotético que leva a um novo paradoxo envolvendo
decisões em condições de incerteza, complementando assim três conhecidos paradoxos existentes na
literatura, a saber, o Paradoxo do Aquiles de Zenão, o Paradoxo do gato de Schrödinger e o
Paradoxo da primeira noite no paraíso. Tais paradoxos contribuem para evidenciar a
impossibilidade de se dar tratamento exclusivamente quantitativo quando se avalia as melhores
decisões a serem tomadas, sobretudo em situações que envolvam o risco de efeitos colaterais.
Palavras-chaves: Incerteza, teoria da decisão, paradoxos.
1. Introdução
A Estratégia Nacional de Defesa (MD, 2008: pg.36), ao se referir às hipóteses de
emprego das forças armadas, considera “(...) o alto grau de indeterminação e imprevisibilidade
de ameaças ao país”. De forma que propõe como lenitivo a esta questão o contínuo
aprestamento de seus líderes militares, e da nação como um todo.
Tal aprestamento, por sua vez, passa pelo aprofundamento dos estudos e pesquisas de
teorias da decisão que sejam suficientes para oferecer aos oficiais militares opções
acerca de como decidir, em sobreposição aos estudos em que se define o quê decidir
(Hammond, Raiffa & Keeney, 1999).
É exatamente este o escopo do presente artigo, aprofundar os estudos acerca de como
poderão ser tomadas as decisões dos oficiais militares brasileiros, tendo em vista as
diretrizes da Estratégica Nacional de Defesa (END), em cenários em que as hipóteses de
emprego, tanto na paz quanto nos conflitos, apresentam grande leque de alternativas de
escolhas e múltiplas incertezas.
O trabalho se inicia com a definição dos objetivos, hipóteses e situação-problema, para
em seguida discutir o quadro teórico em que a análise se situa. Após o quadro teórico, é
apresentado o novo paradoxo proposto, e nas seções finais a discussão, conclusões e
desdobramentos futuros.
1
Agradeço os comentários do Prof. Dr. Paulo Eduardo M. F. de Mendonça quando na preparação deste trabalho,
sem, no entanto, com isso comprometê-lo com quaisquer das idéias aqui apresentadas. Estas são de minha inteira e
exclusiva responsabilidade. A versão inicial deste artigo foi apresentada, e consta dos anais do III Encontro
Pedagógico de Ensino Superior Militar, realizado na Academia da Força Aérea, de 29 de agosto a 01 de setembro de
2011.
2
[email protected]
2. Objetivos do trabalho, hipóteses e situação-problema
O objetivo principal deste trabalho é contribuir com o aprofundamento dos estudos
sobre como pode se dar o processo de decisão dos oficiais militares, em consonância
com as diretrizes da END (MD, 2008).
As hipóteses são (i) de que o aprofundamento de tais estudos pode levar ao melhor
aprestamento dos tomadores de decisão, como quer a END, e; (ii) de que o tratamento
exclusivamente quantitativo das decisões em condições de incerteza apresenta lacunas –
ou então “paradoxos”, como são apresentados na literatura concernente – que dificultam
o apoio aos tomadores de decisão em tais circunstâncias. Tal dificuldade talvez possa
ser amenizada pelos estudos dos critérios híbridos (Vianna, 1989, Klein, 2000, Silva,
2000; Silva, 2004) e subjetivos (qualitativos) de análise (Vianna, 1989).
De forma que a situação-problema em evidência é a teoria de decisão militar em
condições de múltiplas incertezas, e o tipo de apoio que a lógica matemática e estatística
oferecem a tal processo, evidenciando as vantagens que poderiam advir da utilização de
métodos híbridos que combinem as ferramentas quantitativas clássicas com estimativas
de probabilidades subjetivas, coerentemente calibradas.
3. Enquadramento teórico 3
O quadro teórico necessário para o desenvolvimento do presente artigo se inicia com
uma retrospectiva histórica sobre o processo de tomada decisões (Silva, 2000). Na
sequência é apresentado – através da estratégia de pesquisa – o novo paradoxo que,
juntamente com os já existentes na literatura visa reforçar os argumentos a favor do uso
da capacidade de decisão baseada na subjetividade e circunstancialidade do decisor,
com o apoio de métodos híbridos de decisão.
O processo de tomada de decisões
Segundo Silva (2000), antes que se inventasse o zero e o sistema de numeração indoarábico, o futuro era visto por todos como área de acesso restrito aos deuses. Faz-se
referência (Sennett, 1999:95) à existência de uma deusa grega, chamada Fortuna, que
era capaz de adivinhar os resultados de lançamentos de dados e outros jogos de azar.
Também é bastante conhecido, por exemplo, através dos dramas gregos, o fato de que
estes recorriam aos oráculos quando desejavam uma previsão do que o futuro poderia
reservar-lhes. Acreditava-se numa verdadeira impotência dos seres humanos em função
do destino impessoal, e que a ordem de todas as coisas só se encontrava nos céus, “onde
os planetas e as estrelas surgem em seus lugares certos com uma regularidade insuperável.”
(Bernstein, 1997:17).
Ademais, não só Bernstein (1997), mas também Ruelle (1993), admitem que são as
condições de desenvolvimento econômico atuais que compelem os homens a uma atual
corrida arriscada em relação ao futuro, pois “quando as condições de vida estão tão
estreitamente ligadas à natureza (como na Idade Média), pouco resta para controle humano”
(Bernstein, 1997:18).
Tendo a variável clima como a única variável mais aparente, os povos antigos
começaram, a partir da disseminação do cristianismo pelo mundo ocidental, a
contemplar o futuro também como uma questão de moral e fé.
3
Este item, em sua totalidade, é uma reprodução, com poucas adaptações, de parte da tese de doutorado do autor.
Ruelle (1993:12) cita célebres defensores do livre-arbítrio como Santo Agostinho (354430), Santo Tomás de Aquino (1225-1274) e Jean Calvin (1509-1564) como marcos da
passagem de um futuro inescrutável para algo não totalmente imponderável para
humanos livres e inteligentes, mas ainda não suscetível de alguma expectativa
matemática. Bernstein (1997:20-21) recorre à contabilidade como atividade “humilde, mas
que encorajou a disseminação das novas técnicas de numeração e contagem”, para ali localizar os
primeiros movimentos em direção aos números, quando se falava de futuro.
A história dos números ganhou seu impulso mais decisivo em 1202 quando Leonardo
Pisano, mais conhecido como Fibonacci, estudando o sistema de numeração indoarábico e suas possibilidades de cálculo, desvendou o problema de quantos descendentes
teria um casal de coelhos ao final de um ano, se começassem a procriar aos dois meses
de idade. Sua descoberta foi não apenas o número de coelhos que o casal inicial teria ao
final de um ano, 233, mas a famosa série de números que leva seu nome: a série de
números de Fibonacci: 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233. Cada número da
série é resultado da soma dos anteriores, e suas proporções (um número dividido pelo
seguinte), a partir do número 34, resultam sempre na conhecida proporção do áureo
meio-termo, 61,8%.
Depois vieram as viagens de exploração, e os astrônomos, surgindo assim a matemática.
O que fica deste período é a permanência da idéia, existente até hoje, de que a natureza
apresenta padrões de regularidade, que devem ser não apenas respeitados, mas tomados
como referência, sempre combinados com o livre-arbítrio, até então a noção moral de
bem e mal.
Ruelle (1993) vai um pouco além, quando responsabiliza ainda a complexidade da
natureza e a nossa mesma como justificativas para a inevitabilidade do livre-arbítrio.
Ou seja, este autor parece querer sugerir a inevitabilidade do livre-arbítrio, e não mais a
simples sorte ou o destino, como um quase retorno aos tempos da deusa Fortuna. Ontem
curvávamo-nos aos caprichos da deusa, hoje ao livre-arbítrio.
Já a partir de 1420, as manifestações artísticas continuavam a revelar respeito pelas
representações da divindade, mas mais nenhuma subserviência a elas. Segundo
Bernstein (1997), foi um problema proposto no livro de Paccioli, o famoso jogo de balla,
que marcou o início do cálculo das probabilidades. O mesmo autor faz referência ainda
ao fato de que até então (fim do século XV) a aritmética elementar oferecia grandes
dificuldades para muitos, tome-se como exemplo o gênio Leonardo da Vinci.
Mas foi um médico do século XVI, Girolamo Cardano (1500-1571) que desvendou em
seu livro Liber de ludo aleae, os mistérios e a regularidade de alguns jogos e
possibilitou, com seu enorme interesse por jogos de azar, os avanços seguintes no
cálculo das probabilidades.
Em sua raiz latina, a palavra significa provar (probare) e vir a ser (ilis). Importante
notar que a probabilidade foi um dos catalisadores iniciais do método científico como
conhecido hoje, tendo sempre este duplo sentido, um voltado para o futuro e outro como
interpretação do passado. Um voltado para a experimentação, outro para o que pode vir
a acontecer.
Sabemos que Blaise Pascal, Pierre de Fermat e o cavaleiro francês de Méré deram o
impulso maior para os estudos das probabilidades. Mas seu impulso fez-se sentir
sobretudo nos cálculos e nas medições, nem tanto na vontade ou no livre-arbítrio.
No Iluminismo encontramos um conceito central nestas discussões: o de utilidade, que
encerra em si mesmo a idéia de que “uma decisão deve envolver a força de nosso desejo de um
resultado específico assim como o grau de crença na probabilidade daquele resultado.” (Bernstein,
1997:70).
Em 1684 Isaac Newton publica seus Principia, apresentando pela primeira vez as leis da
gravidade. Newton publicou suas pesquisas com recursos daquele que foi o primeiro a
acertar em suas previsões com maior exatidão e fora do ambiente dos jogos de azar: o
inglês Edmund Halley, que acertou com exatidão a repetição da passagem do cometa
que leva seu nome.
Não o acerto de Halley, mas as descobertas de Newton revolucionariam a evolução
científica dali por diante. Ruelle (1993:41) afirma que “de acordo com a mecânica de Newton,
quando se conhece o estado de um sistema físico (posição e velocidades) num instante dado, podemos
deduzir (prever) seu estado em qualquer outro instante.”
Estes foram sendo, mais e mais, ingredientes que foram reforçando a visão de que o
futuro poderia ser uma repetição do passado.
De tal forma que Bernstein (1997:95), referindo-se ao mesmo período, chega a afirmar:
“Como resultado, a previsão - por muito tempo denegrida como uma perda de tempo, na melhor hipótese,
e um pecado, na pior - tornou-se uma necessidade absoluta no decorrer do século XVII para os
empresários aventureiros dispostos a correr o risco de moldar o futuro de acordo com seu próprio
desígnio.”
Mais e mais o sentimento de equilíbrio e respeito à razão foram caracterizando o
Iluminismo. Mais e mais as decisões passavam a ser tomadas não apenas com base nas
probabilidades dos eventos, mas também com base no conceito de utilidade.
E assim outro conceito basal nesta revisão também começa a surgir, desta vez através
dos escritos de um dos mais célebres matemáticos de todos os tempos, Daniel Bernoulli
(1738), que apresentou os rudimentos do conceito de valor esperado4.
Segundo Bernstein (1997:114) uma das mais fortes asserções de Daniel Bernoulli fica
evidenciada nesta passagem:
“Como todas as nossas proposições se harmonizam perfeitamente com a experiência, seria um erro
rejeitá-las como abstrações baseadas em hipóteses precárias.”
Keynes (1952:71), inglês vitoriano e otimista com relação ao equilíbrio econômico,
dedica o capítulo VI de seu Treatise on probability para tratar a questão do peso dos
argumentos. Segundo ele, o acesso a novas evidências aumenta o peso de uma
argumentação. Ou, algo como o que estamos convencionando, valoriza uma
combinação entre as evidências (métodos quantitativos) e as crenças baseadas no livrearbítrio (subjetividade?).
Nas palavras do próprio Keynes (1952:76/77):
“Um argumento tem mais peso que outro quando baseado em grande quantidade de evidências
relevantes... Decidindo um curso de ação, é plausível supor que devemos ter em conta o peso do
argumento assim como as probabilidades das diferentes expectativas.”
Em sua visão de sociólogo, Sennett (1999) reclama da exagerada flexibilidade das
organizações e do permanente estado de incerteza, afirmando que este estado de coisas
4
O conceito de valor esperado pode ser resumido como sendo a multiplicação dos valores pelas suas probabilidades
de ocorrência. E uma palavra, média ponderada.
dificulta o sentido de continuidade que tudo deve ter, levando as empresas a darem
preferência, mais e mais, por pessoas mais jovens, menos experientes e mais dispostas a
correrem riscos. Segundo ele, o presente se tornar descontinuo com o passado é a pedra
angular da prática administrativa moderna, que tem no risco permanente sua maior
desculpa para tantos desacertos.
O mesmo Sennett (1999:111) ainda critica duramente o recorrente preconceito contra os
trabalhadores mais velhos:
“O que um trabalhador mais velho aprendeu no correr dos anos sobre uma determinada empresa ou
profissão pode atrapalhar novas mudanças ditadas pelos superiores. Do ponto de vista da instituição, a
flexibilidade dos jovens os torna mais maleáveis tanto em termos de assumir riscos quanto de submissão
imediata.”
O livro Hereditary genius, de Francis Galton (1822-1911) exerceu forte influência sobre
Charles Darwin. Galton foi um dos primeiros pesquisadores do século 19 a perceber a
lei de regressão à média no padrão de crescimento das ervilhas, e também defensor da
censurável eugenia. Se foi ou não “barrado” pela ética dos humanos em assuntos de
eugenia, esta mesma ética não impediu o avanço - e os muitos benefícios - das leis da
hereditariedade de Darwin, que hoje culminaram com a recente codificação do genoma
humano.
O ponto a que estamos chegando agora nesta fundamentação teórica requer ênfase na
divisão que se dá em relação às diferentes ciências na época: (1) os físicos até então
(século 19 e limiar do século 20) com a predominância do determinismo da mecânica
newtoniana, (2) os biólogos e matemáticos com as leis da hereditariedade de Darwin e
regressão à média e correlação de Galton, e (3) no mundo empresarial persistindo a
noção keynesiana de que as flutuações da economia estavam mais ligadas ao acaso, e
não, como diz Bernstein (1997), ligadas a eventos inerentes a um sistema econômico
impulsionado pelo ato de correr riscos.
A física newtoniana, todos sabemos, evoluiu bastante e hoje está sendo contraposta pela
teoria do caos. Esta evolução se deu em uma direção ilustrada de forma bastante
interessante por Ruelle (1993:45):
“Tentemos resolver o seguinte paradoxo: alguém, a quem chamaremos de preditor, utiliza o
determinismo das leis da física para predizer o futuro, e em seguida utiliza seu livre-arbítrio para
contradizer suas próprias predições. Trata-se de um paradoxo que se manifesta de maneira aguda em
certos romances de ficção científica, em que o preditor é capaz de analisar o futuro com incrível precisão.
Como resolver este paradoxo? Podemos abandonar quer o determinismo, quer o livre-arbítrio, mas
existe uma terceira possibilidade: podemos negar que quem quer que seja tenha poder preditivo
suficiente para criar um paradoxo. Notemos que nosso preditor deve violar suas próprias predições
acerca de um determinado sistema, mas para agir sobre esse sistema ele próprio deve fazer parte do
sistema. Isto implica que o sistema é, sem dúvida, bastante complicado. Assim, a predição precisa do
futuro do sistema deve requerer um enorme poder de cálculo, ultrapassando, pois, as possibilidades de
nosso preditor.”(...)A predição do comportamento futuro de um sistema complexo é, por definição,
severamente limitada, mesmo quando o sistema seja determinista...Uma causa muito pequena, que nos
escapa, determina um efeito considerável que não podemos deixar de ver, e então dizemos que esse efeito
se deve ao acaso... Qualquer que seja o estado do sistema no tempo zero, admitindo-se o efeito
exponencial de pequenas mudanças...resultarão disso importantes efeitos a longo prazo.” (Ruelle,
1993:58;67;113)
Outro autor genial, Jacob Bernoulli (1654-1705), desenvolveu um famoso teorema que
ficou conhecido com Lei dos Grandes Números, que afirma que a média de um grande
número de lançamentos de dados, por exemplo, aproximar-se-á mais da média real do
que um número menor de jogadas o fará.
Por trás deste teorema geral, Jacob Bernoulli nos ensina ainda que, nas palavras de
Bernstein (1997:118) “na vida real poucos são os casos em que as informações são suficientemente
grandes ou completas para que as regras simples da probabilidade nos permitam prever o resultado.”
As teorias da decisão em Administração evoluíram marcadamente a partir das
contribuições do pastor e estatístico Thomas Bayes (1701-1761). Em seu trabalho mais
importante Ensaio sobre a solução de um problema da doutrina das chances, Bayes
antecipou a modernidade da teoria da decisão: a revisão de inferências sobre o que o
futuro pode vir a ser com base em informações antigas, a partir de novas informações
obtidas, encaixava-se perfeitamente bem com o que hoje é conhecido como um mundo
dinâmico em que não há uma única resposta em condições de incerteza. Poderíamos
acrescentar ingredientes às teorias de Bayes, se pensarmos que a renovação destas
informações pode (deve) se dar sobretudo através da experiência e sentido de
circunstancialidade dos administradores, ou tomadores de decisão.
Outro importante autor que se seguiu a Bayes foi Carl Friedrich Gauss (1777-1855), este
imprimindo (talvez sem saber ou querer) importantes avanços aos cálculos do risco com
sua distribuição normal, que tornou possível estimar precisamente o número de desvios
de uma variável em relação à sua média.
Keynes é célebre e sempre foi respeitado, mesmo pelos monetaristas, que não acreditam,
como Keynes, que o sistema capitalista precisava de uma dose freqüente de intervenção
governamental.
Em nossa concepção, o mundo econômico não só passou a imaginar-se o único dos
mundos, mas também passou a valorizar mais e mais a saúde do dinheiro, e, em nome
desse e do risco, vem funcionando, em um liberalismo que a uma minoria tudo permite,
e a uma maioria de tudo priva.
Mas ainda temos muito a aprender com o economista (e também matemático e filósofo)
Keynes, que adquiriu reputação internacional através de seu livro As consequências
econômicas da paz. Voltando ao seu Tratado sobre probabilidades (1952), encontramos
afirmações de Keynes que fortalecem sobremaneira os argumentos deste trabalho, como
ser favorável às previsões baseadas em proposições e graus de crença, ou ainda quando
rejeita métodos de reconhecer probabilidades sem nenhuma ajuda da intuição e do
julgamento direto.
Keynes propunha sistematicamente políticas governamentais contrárias ao laissez-faire,
para reduzir as incertezas na economia, bem diferentemente do que hoje caracteriza o
liberalismo. Segundo Bernstein, as prescrições econômicas de Keynes revelam que, ao
tomarmos decisões, mudamos o mundo.
Talvez este mundo de hoje esteja se influenciando menos pelas idéias de Keynes e mais
pelas idéias de Neumann, que também é citado pelo físico Ruelle (1993:51):
“Na teoria de jogos, evidentemente, é bom reagir de maneira previsível quando cooperamos com alguém.
Mas, numa situação competitiva, um comportamento aleatório e imprevisível pode ser a melhor
estratégia.”
Embora Keynes predominasse no meio acadêmico, e rejeitasse qualquer tipo de
descrição matemática do comportamento humano, as idéias de Neumann inauguravam a
era da quantificação matemática. Alguns autores vêem esta quantificação como o
otimismo que acompanhou as grandes vitórias da segunda guerra mundial.
Nas áreas de defesa a análise e quantificação do risco em nada pode se assemelhar com
o que se observa no setor das empresas civis, ou nas finanças. Os militares precisam
avaliar bem o risco inerente às múltiplas ameaças, e responder celeremente a estas
ameaças, certificando-se de que suas decisões implicarão em um mínimo de efeitos
colaterais. Uma espécie de lógica minimax, com consequências bastante mais graves do
que simplesmente ganhar ou perder dinheiro.
Ocorre que estas ameaças podem vir de múltiplas – e por vezes inesperadas – origens,
de forma que a quantificação de seu risco se torna uma tarefa bastante complexa, para
não dizer impossível.
Assim, passemos à estratégia de pesquisa deste trabalho científico que propõe um novo
paradoxo, como forma de ensejar os necessários debates nesta área de riscos, opções de
decisões (escolhas) de generais militares e seus efeitos colaterais.
4. Estratégia da pesquisa
Como foi dito, a estratégia de pesquisa deste artigo é a apresentação de um novo
paradoxo para, juntamente com aqueles já existentes na literatura, quais sejam: o
Paradoxo do Aquiles de Zenão (Bentley, 2010), o Paradoxo do gato de Schrödinger
(Goswami, Reed & Goswami, 1998) e o Paradoxo da primeira noite no paraíso
(Gigerenzer: 2002, p.211, citando a teoria de sucessão de Pierre-Simon Laplace)
reforçar os argumentos sobre o uso da capacidade de julgamento dos tomadores de
decisão, desde que – e como condição sine qua non – esta capacidade esteja bem
fundamentada e treinada, por uma capacitação apoiada em critérios híbridos
coerentemente calibrados e apoiada, criteriosamente, na lógica intuitiva (Vianna,1989;
Klein, 2000; Silva, 2000).
O primeiro paradoxo citado, do Aquiles de Zenão, evidencia a limitação matemática ao
lidarmos com números muito pequenos, insignificantes (Aquiles nunca irá ultrapassar a
tartaruga?), colocando em evidência a insolubilidade matemática do problema, ao não
ser que recorramos à teoria de limites. O que resulta em uma espécie de negação desta
ordem de números quase-infinitesimais – ou negação da própria noção de infinito –,
uma vez que a teoria de limites “troca” a noção de infinito pela noção de zero. Sendo
conveniente lembrarmos que foi exatamente a possibilidade de uso das frações, razões e
números racionais que levou matemáticos como Pascal e Fermat ao início das
estimativas de futuro com base nos números (Bentley, 2010 p. 190): “Esses
matemáticos perceberam, discutindo entre si, que frações e razões podiam ser usadas
para nos informar o quanto algo era provável”.
Ora, se a matemática não se aplicar, como neste caso do Paradoxo de Zenão, para
modelar e simular a realidade mais provável, nestes casos, envolta em ordens numéricas
muito diminutas, melhor ficarmos com a própria realidade, uma vez que sabemos que
Aquiles rapidamente – em situação não simulada, ou não apresentada em termos
matemáticos – ultrapassaria a tartaruga. O nó górdio de qualquer ferramenta de apoio à
decisão está alicerçado em sua capacidade de previsão, caso contrário não será muito
útil. Uma vez aceito este argumento, vemos que quando adotamos a teoria de limites
para lidar com números muito pequenos e igualamos seu resultado a zero, estamos
negando a chance de ocorrência do evento, ainda que sua probabilidade seja ínfima.
Para reforçar os riscos envolvidos ao se adotar esta visão de quase- negação das chances
de ocorrência, recorramos a um evento recente, como o acidente ocorrido com o piloto
brasileiro de Fórmula1 Felipe Massa, em que uma peça de outro carro, vindo do bólido
de outro piloto brasileiro, atinge a cabeça de Massa, ferindo-o gravemente. Alguém que
estivesse estimando as chances de ocorrência deste acidente, certamente estaria lidando
com uma ordem de número centesimal, quase-infinitesimais. Mas nunca poderia negar
com certeza absoluta – por exemplo, igualando as chances a zero – a chance de ocorrer
um acidente deste tipo. Pior ainda foi constatarmos que uma semana antes do acidente
com Felipe Massa, outro jovem piloto de automóveis, desta vez de outra categoria do
automobilismo, morreu em decorrência de um acidente em que a roda de outro
automóvel também o atingiu na cabeça. Minha realidade pessoal – envolta em eventos
inesperados e trágicos – exigiu, e continua exigindo, bastante reflexão e
aprofundamentos teóricos sobre este tema (Silva, 2004, Piccardi, 2010). Foge
completamente às minhas convicções e aos meus interesses de pesquisa iniciar qualquer
crítica à matemática ou estatística, ou colocar em discussão a profícua utilidade das
ferramentas quantitativas clássicas, mesmo porque – se quisesse – não teria nem mesmo
preparo técnico para tais críticas. O que pretendo é colocar em pauta a teoria de decisão,
as dificuldades de se encontrar apoio em métodos quantitativos quando se lida com
números desta magnitude, e, aprofundar os estudos que confiram sustentabilidade ao
uso de nossa capacidade de julgamento em decisões.
E então, a inevitável pergunta: em que outras situações a simulação exclusivamente
quantitativa da incerteza talvez possa estar nos levando para conclusões de frágil
sustentação, como esta em que alguém igualaria a zero as chances do acidente de Massa
naquelas circunstâncias?
Talvez resida exatamente aí, nesta passagem de Bentley (2010, p.190) citada acima, o
ponto de ruptura do fio condutor do conhecimento científico humano, ou a substituição
que os grandes pensadores fizeram, da filosofia (intuição) pela quantificação (razão).
O Paradoxo do Aquiles de Zenão contribui com as hipóteses deste artigo ao evidenciar a
necessidade de que encontremos uma maneira de trabalhar com números quaseinfinitesimais, sem, no entanto, reduzi-los a zero. O que talvez só possa ser realizado
com a conjugação da razão com a intuição. Residindo aí a principal linha de
argumentação para o desenvolvimento do novo paradoxo que se apresenta neste artigo.
Já no Paradoxo do gato de Schrödinger, o que se verifica é a impossibilidade ex-ante de
se determinar o estado futuro do objeto, sem que se recorra à consciência do tomador de
decisão. Para que se solucionem os diferentes (prováveis) estados do objeto, ou até
mesmo o seu duplo-estado (vivo e morto ao mesmo tempo), se deve, obrigatoriamente,
olhar para dentro da caixa do experimento proposto por Schrödinger, constatar o estado
atual do gato, e assim “criar” a realidade. Este paradoxo contribui com as hipóteses
deste artigo uma vez que torna necessário o uso do expediente da percepção
(consciência subjetiva) do tomador de decisão, para bem avaliar a situação.
E o Paradoxo da primeira noite no paraíso evidencia a incerteza inerente à condição de
qualquer ser vivo, mesmo em se tratando de eventos tão prováveis como o nascimento
do sol na manhã que se seguirá ao dia de hoje. Ainda que tenha vivido 100 anos, um
indivíduo estaria impossibilitado de ter certeza absoluta de que o sol nascerá amanhã. 5
Este paradoxo contribui com as hipóteses deste artigo, uma vez que evidencia a
impossibilidade, em termos matemáticos, de que se fale em certeza absoluta, o que,
inevitavelmente – além de contrariar axiomas clássicos da probabilidade, como a
5
A fórmula proposta por Pierre-Simon Laplace (apud Bentley, 2010) é: {(n+1) / (n+2)}.
distribuição normal (Stevenson, 1986) – nos remete, novamente, a que seja necessário
recorrer ao expediente da subjetividade, da autoridade própria (alçada pela experiência),
e da aceitação da idéia de crença (ou fé) em um curso de ação considerado mais
provável. Sendo que, neste caso, não existiria modelagem matemática que pudesse
otimizar a decisão. Mas sim os critérios éticos, fundamentados na circunstancialidade,
na experiência e na subjetividade dos tomadores de decisão (Cummings, 2004).
4.1. Paradoxo proposto
O novo paradoxo proposto neste artigo pode ser evidenciado pela elaboração do
seguinte cenário: em face de múltiplas incertezas, digamos 10 (dez) ameaças potenciais
(prováveis), todas tendo recebido nota 10 (dez) em uma escala de 0-10 pontos sobre o
seu nível de impacto; com estimativas de probabilidades de ocorrência de 0,10 (dez por
cento) cada, como poderia o comandante de uma operação militar ter alguma certeza
matemática e escolher o melhor curso de ação?
A própria definição operacional de “certeza” sabidamente contraria os axiomas aceitos
na teoria de probabilidades, e, ademais, conforme será demonstrado a seguir, esta
decisão, se fosse apoiada exclusivamente na teoria quantitativa, resultaria em um novo
paradoxo, uma vez que nem o cálculo do valor esperado, nem os axiomas apropriados
de estimativa de probabilidades ajudariam muito no processo de tomada de decisão,
como será demonstrado a seguir. A tabela 1 ilustra a situação hipotética proposta nesta
pesquisa.
Tabela 1: Cenário de ameaças potenciais e suas probabilidades de ocorrência
Ameaças potenciais
A1
A2
A3
A4
A5
A6
A7
A8
A9
A10
“Valor esperado para o cenário
total”
VE(x)=A1*p1+A2*p2+...A10*p10
“Probabilidade estimada para
eventos dependentes”
p(A1)*p(A2)... *p(A10)
“Probabilidade estimada para
eventos independentes”
p(A1)+p(A2)...+p(A10)
Nível de impacto (0-10)
10
10
10
10
10
10
10
10
10
10
Probabilidade de ocorrência (p)
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
0,10
10
0,0000001%
100%
Fonte: Elaborado pelo autor
De forma que, para quem comanda a operação – e tem que decidir – viriam em seguida
as inevitáveis perguntas: que curso de ação priorizar? Qual a ameaça mais provável?
Em quê a abordagem quantitativa contribui? Como neutralizar as ameaças e evitar os
efeitos colaterais? Ou se estivéssemos em um ambiente de simulação, como os sistemas
de apoio à decisão apresentariam uma solução?
No cálculo “Valor esperado para o cenário total” o resultado máximo (10), em uma
escala de 0-10, em nada contribui com a discriminação das melhores escolhas e decisão
sobre o mais desejável curso de ação, informando apenas que, no conjunto, as
alternativas produzirão o máximo impacto.
No cálculo “Probabilidade estimada para eventos dependentes” chega-se a um valor tão
pequeno para a estimativa de probabilidades, que torna difícil qualquer tipo de
discriminação entre as alternativas. Por exemplo, o quê exatamente pode advir de uma
situação em que a probabilidade seria de 0,00001? Não nos esqueçamos de que neste
caso (compare com a ordem de grandeza do número que está grafado na penúltima linha
da tabela 1) estamos falando de uma situação da ordem de cem vezes mais provável do
que a do cenário proposto! Ou seja, não auxiliam muito o tomador de decisão, sobretudo
quando se deve discriminar as alternativas, ameaças e incertezas, e minimizar efeitos
colaterais.
E no cálculo “Probabilidade estimada para eventos independentes” chega-se a um
número que, mesmo passando ao largo de sua impossibilidade em termos matemáticos,
também em nada contribui com as escolhas do melhor curso de ação, uma vez que
totaliza 100% (cem por cento de probabilidade), assim como no caso do cálculo do
valor esperado, apenas que desta vez apresentando um número percentual.
Assim, no cenário hipotético formulado nesta pesquisa, como seria possível avaliar
efeitos colaterais, se o conjunto das alternativas apresenta grande dificuldade já no
processo de avaliação quantitativa da(s) provável(is) ameaça(s)?
Com base nestes argumentos – que em nenhuma hipótese julgamos irrefutáveis, se
apresenta o novo paradoxo proposto neste artigo: “Paradoxo das múltiplas incertezas”.
Para cuja solução seria necessário – tal qual nos conhecidos paradoxos já existentes na
literatura, e já citados – recorrer às análises de cunho qualitativo e estimar
probabilidades subjetivamente (Vianna, 1989) e com auxílio de métodos combinados,
híbridos (Silva, 2000).
Assim é que este novo paradoxo, juntando-se aos já conhecidos paradoxos, busca
reforçar a linha de argumentação de que os métodos quantitativos, nestes casos, devem
ser calibrados pela probabilidade subjetiva, combinados com exaustivas análises de
variáveis qualitativas. Analises qualitativas, que, por sua vez, exigem capacidade de
estruturação e gerenciamento de robustos sistemas de inteligência e apoio à decisão, que
tenham como ponto de partida os aspectos éticos, assim como os fatores organizacionais
e em operações de comando e controle das operações militares (Cummings, 2004).
Quando em uma decisão múltiplas alternativas de cursos de ação ou ameaças existirem,
maior será a possibilidade de surgirem conflitos, e mais difícil será comparar as opções
de escolhas, sobretudo em ambientes de sistemas abertos e dinâmicos, como os das
operações militares. Existe um ponto em que mais opções, produtos e escolhas são
prejudiciais tanto para quem oferece como para quem decide a escolha (Gigerenzer
2009, p.53). Ou nas palavras do próprio Gigerenzer: “Nos esportes, nas emergências
dos hospitais e nas ações militares, as decisões têm de ser rápidas, e buscar a perfeição
mediante uma longa deliberação pode significar a derrota na partida ou a perda de
uma vida.” (Ibid, pg. 51).
Mas o fato é que, em termos militares, as incertezas são múltiplas e cada vez maiores
em número, principalmente se tratarmos de guerras irregulares. Podendo-se depreender
da citação acima que somente o uso coerentemente fundamentado da subjetividade,
aliada a critérios universalmente aceitos de julgamentos e estimativas de probabilidades
preparadas também com o uso da percepção humana, é que se pode aumentar o grau de
confiabilidade quando na construção de sistemas de apoio à decisão.
Gigerenzer reforça ainda mais esta linha de argumentação quando afirma que: “O
princípio segundo o qual mais (tempo, reflexão, atenção) é melhor não se aplica às
habilidades e ao domínio pleno dos mais experientes.” (Ibid, pg. 51)
5. Conclusões
Diante do que foi exposto na metodologia de pesquisa deste trabalho, permitimo-nos
formular duas proposições:
Proposição 1: Existência do paradoxo das múltiplas incertezas, que, complementando
os clássicos paradoxos existentes na literatura, adverte para os riscos de se querer apoiar
sistemas de inteligência e as decisões militares em métodos estritamente quantitativos.
Acentuando os riscos de se reduzir a atenção para com eventos de probabilidades (ou
chances de acontecer) diminutas.
Proposição 2: Teorias como a prospectiva (Kahneman & Tversky, 1979), da utilidade
subjetiva esperada (Goodwin & Wright, 2010), ou até mesmo a análise multivariada
(Hair, et all, 1987) poderiam auxiliar a solucionar o paradoxo, mas exigiriam muito
tempo de análise. Não se aplicando para decisões militares rápidas.
6. Desdobramentos futuros
O objetivo principal deste artigo foi contribuir com a teoria de decisão militar,
sobretudo quando se pensa no tipo de formação e treinamento que se oferece aos líderes
e futuros líderes das forças armadas brasileiras.
Como objetivo secundário o que se pretendeu foi convidar os pesquisadores desta área
de conhecimento a aprofundar as discussões sobre a teoria da decisão, especificamente
nos aspectos que envolvem a incerteza e o risco.
Em operações militares, diversas nações têm se debruçado sobre os promissores
resultados – embora não aceitos com unanimidade – das operações baseadas em efeitos
(EBO na sigla original em inglês – Hunerwadel, 2006), ou ainda no arsenal conceitual
do soft power de Joseph Nye.
O que se imagina é que as operações EBO e/ou a concepção da filosofia militar do soft
power possam ajudar a solucionar os conflitos entre nações com o uso mais vigoroso da
negociação, convencimento e entendimento, e – com menor intensidade – a força dos
armamentos e o desconsolo do derramamento de sangue, sobretudo o sangue dos mais
jovens.
6. Bibliografia
Bentley, P. O livro dos números: uma história ilustrada da matemática. Rio de Janeiro:
Zahar, 2010.
Bernstein, P. Desafio aos deuses: a fascinante história do risco. Rio de Janeiro:
Campus, 1997.
Cummings, M. Designing decision support systems for revolutionary command and
control domains. Dissertation presented to the faculty of the school of Engineering and
Applied Science, University of Virginia, 268p, 2004.
Gigerenzer, G. Reckoning with risk: learning to live with uncertainty. London, UK:
Penguin, 2002.
Gigerenzer, G. O poder da intuição: o inconsciente dita as melhores decisões. Rio de
Janeiro: Best Seller, 2009.
Goodwin, Paul & Wright, George. Decision analysis for management judgment. 4th
edition. Chichester, UK: Wiley, 2010.
Goswami, A., Reed, E.R., Goswami, M. O universo autoconsciente: como a
consciência cria o mundo material. Rio de Janeiro: Record/Rosa dos Tempos, 1998.
Hair, C. et alii. Multivarate data analysis with readings. New York: Macmillan, 1987.
Hammond, J.S., Keeney, R.L.& Raiffa, H. Somos movidos a decisões inteligentes:
como avaliar alternativas e tomar a melhor decisão. Rio de Janeiro: Campus, 1999.
Hunerwadel, J.P. “O tratamento das operações baseadas em efeitos: Perguntas e
respostas”. Air & Space Power Journal - em português. 2º trimestre, 2006.
Kahneman, D. & Tversky, A. “Prospect theory: an analysis of decision under risk”.
Econometrica, 47, 1979, p. 263-291.
Keynes, J.M. A treatise on probability. London: Macmillan, 1952.
Klein, Gary. Sources of power: how people make decisions. Cambridge: MIT Press,
2000.
Lima, G.T., Sicsú, J. & de Paula, L.F. orgs. Macroeconomia moderna: Keynes e a
economia contemporânea. Rio de Janeiro: Campus, 1999.
Markowitz, H.M. “Portfólio selection”. In: Journal of Finance, vol.VII, n.1, 1952.
Ministério da Defesa. Estratégia Nacional de Defesa, 2008.
Piccardi, T. Ensaio de Helena. Tradução Nadia Kerecuk. São Paulo: Alles Trade, 2010.
Ruelle, D. Acaso e caos. São Paulo, Unesp, 1993.
Sennett, R. A corrosão do caráter: conseqüências pessoais do trabalho no novo
capitalismo. Rio de Janeiro: Record, 1999.
Silva, L. M. A. Instrumentalização do planejamento estratégico: aplicação no setor
aeroviário comercial brasileiro. Tese de doutoramento, FEA/USP, SP, 182p, 2000.
Silva, L.M.A. Tomada de decisões em pequenas empresas. São Paulo: Cobra, 2004.
Stevenson, W.J. Estatística aplicada à administração. São Paulo: Harbra, 1986.
Vianna, N. W. H. A subjetividade no processo de previsão. Tese de doutoramento,
FEA/USP, SP, 154p, 1989.
Download

O Paradoxo da liberdade de escolha: