TOMADA DE DECISÕES SIMPLES cap 16 - Russel Centro Universitario da FEI 1 AGENTES BASEADOS EM OBJETIVOS E BASEADOS EM UTILIDADE fonte IA Russell Agentes baseados em objetivos Distinção binária entre estados bons (objetivos) e estados ruins ( nãoobjetivos) estados felizes e infelizes. Agentes baseados em utilidade Tem uma medida continua da qualidade dos estados uma medida de desempenho mais geral deve permitir uma comparação entre os diferentes estados do mundo de acordo com o grau exato de felicidade que proporcionariam ao agente se fossem adotadas. 2 ESCOPO 3 diferentemente de um agente lógico ele pode... – Pode tomar decisões em ambientes com incertezas e objetivos conflitantes (especifica o compromisso adequado) – Possui uma escala contínua de medida de qualidade sobre os estados – Valores associados a cada estado (utilidade ou desirability) indicando a “felicidade” do agente. – No caso de vários objetivos desejados não puderem ser atingidos com certeza, a utilidade fornece um meio pelo qual a probabilidade de sucesso pode ser ponderada em relação a importância dos objetivos. 4 No texto Port-Royal Logic, escrito em 1662, o filósofo francês Arnauld declarou: Para julgar o que se deve fazer para obter um bem ou evitar um mal, é necessário considerar não apenas o bem e o mal em si, mas também a probabilidade de ele acontecer ou não acontecer, e ainda visualizar geometricamente a proporção que todos esses itens têm em conjunto. 5 Funções de utilidade • associam um valor a um estado Tal valor Indica o “desejo” por estar nesse estado • U(S) – utilidade do estado S de acordo com o agente Ex.: s1 = {rico, famoso}, s2 = {pobre, famoso} U(s1) = 10 U(s2) = 5 6 Uma ação não determinística A terá estados resultantes possíveis Resultadoi(A) onde i varia sobre os diferentes resultados. Para cada saída possível está associada uma probabilidade 7 Antes da execução de A o agente atribui a probabilidade P(Resultadoi(A) | Fazer (A), E) a cada resultado onde, E resume a evidência disponível ao agente sobre o mundo Fazer (A) é a proposição de que a ação A seja executada no estado atual Pode-se calcular a utilidade esperada da ação EU(A|E) dada a evidencia E usando-se: EU(A |E) = i P(Resultadoi(A) | Fazer(A),E) * U(Resultadoi(A)) probabilidade utilidade 8 Princípio da Utilidade Máxima Esperada (UME) Afirma que um agente racional deve escolher uma ação que maximize a utilidade esperada do agente; Relaciona-se com a idéia de medida de desempenho; É um modo razoável de tomar decisões. ou seja: O agente usa um modelo do mundo em conjunto com a função utilidade (que mede suas preferências entre os estados do mundo), em seguida escolhe a ação que leva à melhor utilidade esperada. 9 Princípio da Utilidade Máxima Esperada (UME) action = argmaxa EU(a|e) – Basicamente: o agente deve fazer “o que é certo” – Computar P(Result(a)|a,e) requer um modelo causal completo do mundo e inferências sobre Redes Bayesianas muito grandes – Calcular U(s) requer planejamento e/ou busca, para descobrir o quão “bom” é um estado (i.e. para onde se pode ir a partir dele) 10 O principio é simples mas o que está por trás não : • Computações podem ser proibitivas e até ser difícil de formular o problema completo • Deve-se conhecer o estado inicial do ambiente percepção, aprendizado, representação do conhecimento e inferência são necessários. • Definição de um modelo causal completo do ambiente e atualização das redes de crença para calcular P(Resultadoi(A) | Fazer(A)) pesquisa e planejamento são necessários • Buscar valor da utilidade associada a cada estado para determinar U(Resultadoi(A)) 11 UME versus Medidas de desempenho lembrando que: • AGENTE é tudo que pode ser considerado capaz de perceber seu ambiente por meio de sensores e de agir sobre esse ambiente por intermedio de atuadores. • AGENTES RACIONAIS “ Para cada sequência de percepções possível, um agente racional deve selecionar uma ação que venha a maximizar sua medida de desempenho, dada a evidência fornecida pela sequência de percepções e por qualquer conhecimento interno do agente.” 12 UME versus Medidas de desempenho Considerando: os ambientes que poderiam levar um agente a ter um dado histórico de percepções e os diferentes agentes que podem ser projetados. “Se um agente maximizar uma função de utilidade que reflita corretamente a medida de desempenho pela qual seu comportamento está sendo julgado, ele alcançará a mais alta pontuação de desempenho possível, se tomarmos a média sobre os ambientes em que o agente poderia ser colocado.” Porém, em tomada de decisões simples, preocupa-se apenas com decisões isoladas ou instantâneas e não medidas de desempenho sobre históricos de ambientes. 13 Base da teoria da utilidade • Por que maximizar a utilidade média é tão especial? • Por que não tentar maximizar a soma dos cubos das utilidades possíveis ou, • Tentar minimizar a pior perda possível? • Um agente não poderia agir racionalmente apenas expressando preferências entre estados, sem lhes atribuir valores numéricos • Talvez um agente racional possa ter uma estrutura de preferências complexa demais para ser captada por um único numero real, dado pela função de utilidade. 14 Restrições requeridas sobre as preferências de um agente racional • Assumimos o conjunto de saídas de cada ação como uma loteria • Loteria é em essência, uma distribuição de probabilidades sobre um conjunto de resultados reais (os prêmios da loteria). Uma loteria L com resultados possiveis C1,.......,Cn que pode ocorrer com as probabilidades p1,......,pn é escrita como: L = [p1, C1;....pn, Cn] • Cada resultado de uma loteria pode ser um estado ou outra loteria. 15 Preferências • As preferências entre os prêmios pagos são utilizadas para determinar preferências entre loterias ou estados, ou seja: – A B : A é preferível a B – A B : o agente está indiferente entre A e B – A B : O agente prefere A a B ou está indiferente onde A e B são estados. 16 Exemplo: escolhendo entre loterias 17 Para a compreensão de como as preferências entre loterias complexas estão relacionadas a preferências entre os estados subjacentes nessas loterias impõe-se restrições razoáveis sobre a relação de preferência a fim de obter os axiomas da teoria da utilidade. 18 Axiomas da teoria da utilidade • ordenabilidade Dados dois estados quaisquer, um agente racional deve preferir um ao outro ou então classificar os dois como igualmente preferíveis. Ou seja, o agente não pode evitar a decisão. Recusar-se a apostar é como recusar-se a permitir a passagem do tempo. • transitividade Dados três estados quaisquer, se um agente preferir A a B e preferir B a C, então o agente deverá preferir A a C. 19 • continuidade se algum estado B estiver entre A e C em preferência, então haverá alguma probabilidade p de que o agente racional fique indiferente entre escolher B por garantia ou escolher a loteria que produza A com probabilidade p e C com probabilidade 1-p. A B C p [ p, A; 1 – p, C] ~ B • substitutibilidade se um agente está indiferente entre duas loterias A e B, então o agente está indiferente entre duas outras loterias complexas que são a mesma loteria, exceto pelo fato de A ser substituido por B em uma delas. Isso é válido independentemente das probabilidades e do(s) outro(s) resultado(s) das loterias. A B p [ p, A; 1 – p, C] ~ [ p, B; 1 – p, C] 20 • monotonicidade suponha que existam duas loterias que tenham os mesmos dois resultados, A e B. Se um agente prefere A a B, então o agente deve preferir a loteria que tem uma probabilidade mais alta para A (e vice-versa) A B (p > q ↔ [p, A; 1 – p, B] [q, A; 1 – q, B] ) • decomponibilidade As loterias compostas podem ser reduzidas a loterias mais simples com o uso das leis da probabilidade. Isto se chama regra de “nada de diversão no jogo” (no fun in gambling), porque afirma que duas loterias consecutivas podem ser compactadas em uma única loteria equivalente. [p, A; 1 – p, [q, B; 1 – q, C] ] ~ [p, A; (1 – p)q, B; (1 – p), (1 – q), C] (imagine um cassino que calcula a probabilidade de vc ganhar ou perder durante a noite e a coloque em um dado) 21 • Estes são os axiomas da teoria da utilidade • A violação de quaisquer desses axiomas acarreta em uma tomada de ações irracional! Violar restrições leva a irracionalidade Exemplo: se um agente viola a restrição de transitividade, seria possível induzí-lo a gastar todo o seu dinheiro. Suponha A B C A • Se o agente possui A, entao podemos oferecer a ele C, por A +1c. O agente prefere C então ele faria a transação. Podemos então oferecer B por C+1c, e depois A por B+1c, recaindo no estado inicial. • Isso pode ser feito até que o agente gaste todo o seu dinheiro. 23 • Os axiomas da teoria da utilizade versam sobre preferências.... • ... porem são consequências desses axiomas os seguintes teoremas: – existência da função de utilidade; – utilidade esperada de uma loteria. • Existência da função utilidade: – Se as preferências de um agente obedecem aos axiomas de utilidade então existe uma função de valores reais U que opera sobre estados tais que U(A) > U(B) se e somente se A é preferivel em relação a B, e U(A) = U(B) se e somente se o agente está indiferente entre A e B. • Utilidade esperada de uma loteria: é a soma das probabilidades de cada possibilidade vezes a sua utilizade 25 Utilidade é uma função que mapeia loterias à números reais Um agente pode ter quaisquer preferências que desejar: • preferir um corcel surrado 73 ao invés de um Mercedes novo • preferir saldos de conta bancaria apenas em números primos, abrindo mão do excedente Porém, em geral as preferências de agentes reais são mais sistemáticas 26 escalas de utilidade e avaliação de utilizade • objetivo: criar sistemas de decisão que ajudem um agente a tomar decisões racionais. • Para tal precisamos definir a função de utilidade do agente • “dedução da preferência” (preference elicidation): apresentar escolhas para o agente e, usando as escolhas observadas, definir a sua função de utilidade. Escalas de utilidade • Uma escala pode ser definida a partir de dois pontos. Para a função de utilidade: – “melhos prêmio possível” : U(S) = uT – “pior catastrofe possível”: U(S) = u • Utilidade normalizada: u = 0 e uT = 1. Escalas de utilidade • Dada uma escala de utilidade entre u e uT, as utilidades dos estados intermediários são avaliadas pedindo-se que o agente indique uma preferência entre S e uma loteria padrão [p, uT; (1-p) u]. • A probabilidade p é ajustada até o agente ficar indiferente entre S e a loteria padrão. • Uma vez que isso seja feito para cada prêmio, temos a utilidade de todas as loterias envolvendo estes prêmios (para um agente específico). Escalas de utilidade • Ex.:em problemas de decisão na área médica, de transporte e ambiental a utilidade é avaliada com relação à probabilidade associada ao valor de utilidade de morte imediata (u) – aviões recebem uma revisão completa a partir de intervalos entre viagens e tempo de vôo (o valor desse intervalo esta relacionado a u); – carros são produzidos assumindo um compromisso do custo sobre taxa de sobrevida em acidentes. Escalas de utilidade • Escalas possíveis: – 1 micromorte: uma chance de morte em um milhão – Qualy: quality-ajusted life year – Grana, bufunfa, dinheiro Utilidade do dinheiro • agentes preferem mais dinheiro do que menos (mantidas todas as condições iguais) – agentes racionais possuem uma preferência monotônica para mais dinheiro – porém não é uma função de utilidade pois não diz nada sobre preferências a respeito de loterias envolvendo dinheiro. Utilidade do dinheiro - exemplo • Um jogador ganhou um prêmio de R$ 1.000.000 em um programa de TV • Apresentador oferece uma proposta: – Se ele jogar a moeda e aparecer cara jogador perde tudo; – Se aparecer coroa jogador ganha R$ 3.000.000; • Supondo que a moeda é justa o Valor Monetário Esperado (VME) de aceitar proposta é: VME = 0.5 (R$ 0) + 0.5 (R$ 3.000.000) = R$ 1.500.000 • O Valor Monetário Esperado de recusar a proposta é de R$ 1.000.000 (menor) Isso indica que seria melhor aceitar a aposta ? 33 Utilidade do dinheiro – exemplo (cont.) • A Utilidade Esperada (EU) para cada uma das duas ações, Sk = riqueza atual do jogador é: – EU (Aceitar) = 0.5 U(Sk) + 0.5 U(Sk+3.000.000) – EU (Rejeitar) = U(Sk+1.000.000) • Deve-se atribuir valores de utilidade para cada estado de saída: – Sk = 5 – Sk+3.000.000 = 9 – Sk+1.000.000 = 8 – Utilidade esperada: EU(aceitar) = 0.5x5 + 0.5x8 = 7.5 < 8 Ação racional: rejeitar ! • Calculando a Utilidade Esperada (EU) para cada uma das duas ações temos que a decisão depende do estado de riqueza atual do jogador, uma vez que a utilidade (mudança no estilo de vida) para o primeiro R$ 1.000.000 é muito alta. Portanto a utilidade não é diretamente proporcional ao valor monetário (pois a utilidade do seu primeiro milhão é maior do que a do seu segundo milhão). 34 Utilidade do Dinheiro • Não é uma função linear: conforme aumenta a quantidade de dinheiro, a taxa de crescimento da utilidade diminui. – ou seja, as pessoas ficam mais avessas a risco conforme aumentam os valores • Do lado da dívida a tendência é ser favorável ao risco. 35 Utilidade do dinheiro • Grayson (1960) deduziu que a utilidade do dinheiro é proporcional ao logaritmo da quantia A utilidade do dinheiro é proporcional ao logaritmo da quantia entre -$150.000 e 800.000 (Mr. Beard) U(L) < U(Seml(L)) Risk-averse U(L) > U(Seml(L)) Risk-seeking Alguém que já deve 10.000 pode muito bem aceitar um lançamento de moeda justo para um ganho de $10.000 (caras) e uma perda de $20000 para coroas. Tal comportamento poderia ser chamado de desesperado, mas é racional se alguém já está em uma situação desesperada. 37 Utilidade esperada e desapontamento pós decisão • a forma racional de escolher uma ação a*é: a* = argmaxa EU(a|e) • se EU for calculado corretamente, de acordo com o modelo probabilístico, se as probabilidades realmente corresponderem os processos estocasticos subjacentes aos eventos, então em média obteremos o resultado esperado.... Optimizer’s curse • Porem o que realmente temos é uma estimativa (~EU(a|e)) da utilidade esperada. • Em geral o valor esperado real é pior do que o estimado – Eg. considere um problema de decisão com k escolhas, cada uma das quais tem utilidade estimada = 0 – Suponhamos que o erro de cada estimativa tenha média 0 e desvio padrao de 1 • Como selecionamos a ação com a maior estimativa de utilidade, estamos favorecendo estimativas ultra-otimistas, causando um comportamento tendencioso • A curva para k = 3 possui média em torno de 0.85, portanto o desapontamento médio será de 85% do desvio padrão na estimativa de utilidade • (exercício 16.11) Funções de utilidade multi-atributo • Existem problemas em que resultados são caracterizados por dois ou mais atributos. • Como tratar funções de utilidades com várias variáveis X1, ..., Xn ? Ex.: Construir aeroporto - U(Morte, ruído, Custo) • Existem basicamente dois casos: – Decisões podem ser tomadas sem combinar os valores dos atributos em um único valor da utilidade (Dominância); – A utilidade resultante da combinação dos valores dos atributos pode ser especificada concisamente (Estrutura de Preferência e Utilidade multi-atributo); 42 Dominância • Se um estado S1 possui valores melhores em todos seus atributos do que S2, então existe uma dominância total de S1 sobre S2; • Exemplo: Local S1 para Aeroporto custa menos, gera menos poluição sonora e é mais seguro que S2 (S1 domina totalmente S2 ); • Dominância total raramente acontece na prática; 43 P S1 S2 $ -5.2 - 2,8 • Exemplo: Custo de construir aeroporto , vamos supor : – Em S1 valor uniformemente distribuído entre $2,8 e $4,8 bilhões; – Em S2 valor uniformemente distribuído entre $3 e $5,2 bilhões; • Dada a informação que utilidade decresce com custo: – S1 domina estocasticamente S2 Isso não decorre da comparação entre custos esperados (e.g. se soubermos que S1 custa exatamente $3.8 bilhões, não saberiamos resolver sem info adicionais!) 44 • Na prática, dominância estocástica pode geralmente ser definida usando apenas raciocínio qualitativo; • Existem algoritmos envolvendo “redes probabilísticas qualitativas” permitindo sistemas de tomada de decisão baseado em dominância estocástica sem usar valor; • Ex.: custo de construção aumenta com a distância para a cidade: – S1 é mais próximo da cidade do que S2 S1 domina S2 estocasticamente sobre o custo 45 Estrutura de preferências e utilidade multi-atributo • Vamos supor que temos n atributos, cada um dos quais com d valores possíveis. – para especificar uma função de utilidade completa U(x1, ..., xn) precisamos de dn valores • Preferências de agentes típicos possuem estruturas/regularidades que reduzem a complexidade desta definição: – U(x1, ..., xn) = f[ f1(x1), ..., fn (xn)] Preferências sem incerteza • A regularidade básica que surge em estruturas de preferências determinísticas é chamada Independência de Preferências; • X1 e X2 são preferencialmente independentes de X3 : – Se a preferência entre resultados {x1, x2, x3} e {x1’, x2’, x3} não depende do valor específico x3 para o atributo X3 – Ex.: {ruído, custo, morte} a) 20.000 sofrem; $4,0 bilhões; 0,06 mortes/milhão de milhas versus b) 70.000 sofrem, $3,7 bilhões; 0,06 mortes/milhão de milhas prefiro a) a b) independente do fator risco de morte 47 • Independência preferencial mútua (MPI): todos os pares de atributos são preferencialmente independentes com relação aos demais; – Ex.: {custo e morte} são preferencialmente independentes de ruído {ruído e morte} são preferencialmente independentes de custo • (Debreu, 1960) Com MPI, o comportamento preferencial do agente pode ser descrito como uma maximização da função: V (x1 ... xn) = i Vi(xi) Em que Vi é uma função definida somente sobre o atributo xi – Ex.: V(barulho,custo,morte ) = - barulho x 10⁴ - custo - morte x 10¹² (função valor aditiva) 48 • Para entender MPI, melhor olhar para casos em que ela falha: – Suponha que vc seja um caçador medieval e precisa comprar no mercado cães de caça, galinhas vivas e gaiolas para as galinhas. Os cães são muito valiosos, mas se voce não tiver gaiolas suficientes para as galinhas, os cães as comerão; assim o número de cães vs galinhas vai depender do número de gaiolas – Neste caso a MPI é violada – A existência deste tipo de interação entre os atributos torna difícil a criação de uma função de utilidade multi-atributo. 49 Preferências com incerteza • Deve-se levar em consideração estruturas a respeito de preferências sobre loterias; A noção básica de independência de utilidade estende a noção de independência de preferências sobre loterias: • – • Conjunto de atributo X é independente de utilidade com relação ao conjunto de atributo Y : Se a preferência sobre loterias em X não depende dos valores dos atributos em Y Independência de utilidade mútua (MUI) Um conjuto de atributos é mutuamente independente da utilidade se cada um dos seus subconjuntos de atributos é independente de utilidade dos atributos restantes; • (Keeney, 1974 ) Existe MUI então, comportamento do agente pode ser descrito usando a função de utilidade multiplicativa: U = k1U1 + k2U2 + k3U3 + k1 k2U1U2 + k2 k3U2U3 + k3 k1U3U1 + k1k2k3U1U2U3 50 Preferências com incerteza (cont.) • Em geral, um problema de “n” atributos que exibe MUI pode ser modelado com a utilização de “n” utilidades de um único atributo e “n” constantes • Cada uma das funções utilidades de único atributo pode ser desenvolvida independente e a combinação oferecerá a garantia de gerar preferências globais corretas. 51 Redes de decisão Formalismo para expressar e resolver problemas de decisão: estende Redes Bayesianas adicionando ações e utilidades • Mecanismo geral para tomada de decisões racionais • Representam : Estado atual do agente, suas ações possíveis, estado resultante, e a utilidade desse estado; • Estende Redes Bayesianas com ações e utilidades; • As ações são selecionadas pela avaliação da rede – Nós de acaso (ovais): representam variáveis aleatórias; – Nós de Decisão (retângulo): pontos onde agente deve escolher uma ação; – Nós de Utilidade (diamantes): representam as funções de utilidade do agente; 52 LOCAL DO AEROPORTO? pag 579 1. Atribuir os valores das variáveis para o estado corrente; Área B Área A Morte (3) Morte (3) 2. Para cada valor possível do nó de decisão: – Ajuste o valor do nó de decisão para este valor; – Calcule o valor da probabilidade condicional para os nós pais do nó de utilidade, usando algum algoritmo de inferência probabilística; – Calcular o valor final de utilidade para a ação em questão; Barulho (2) Custo da Construção (200) U Barulho (4000) F(u)=X Custo da U F(u)=Y Construção (150) 3. Retornar a ação com maior Utilidade Máxima Esperada 53 O valor da informação • Até agora, as informações relevantes foram fornecidas ao agente antes da tomada de decisão o que dificilmente acontece na prática; – E.g. Um médico não pode supor possuir todos os diagnósticos, testes e respostas no instante em que o paciente entra no consultorio pela 1ª vez • A Teoria do Valor da Informação permite que o agente escolha quais informações adquirir; 54 O valor da informação • Assumimos então que, antes de selecionar uma ação real representada por um nó de decisão, o agente possa adquirir o valor de quaisquer variáveis aleatórias do modelo – portanto, a teoria do valor da informação envolve uma versão simplificada de tomada de decisão – i.e., as ações afetam somente os estados de crença do agente, não os estados do domínio • Valor de qualquer observação deve ser derivada do potencial desta observação afetar alguma ação física do agente • Este potencial pode ser estimado diretamente do modelo de decisão. 55 O valor da informação • Exemplo: comprar os direitos de exploração de reservas de petróleo (blocos): – n blocos para perfuração, apenas um possui óleo com valor $C, enquanto os outros não valem nada; – Probabilidade de comprar o bloco certo = 1/n (sem informação) – O preço de cada bloco é $C/n; – Consultor oferece uma pesquisa para detectar se o bloco 3 possui petróleo ou não. Qual o valor dessa informação? 56 O valor da informação Solução: – Calcular o valor esperado da informação = valor esperado da melhor ação dada a informação – valor esperado da melhor ação sem a informação; – Com probabilidade 1/n o consultor dirá que tem óleo em 3. Nesse caso a empresa comprará o bloco 3 por C/n e terá um ganho de C - C/n = (n-1)C/n = G1 – com probabilidade (n-1)/n o consultor dirá que o bloco não contém óleo, nesse caso a empresa comprará um outro bloco. Ela encontrará óleo nesse bloco com probabilidade 1/(n-1). Portanto o ganho esperado é de: C/(n-1) - C/n = C/n(n-1) = G2 – Ganho esperado será então: G1+G2 = C/n A informação custa tanto quanto o bloco! 57 • Em geral, o valor de uma dada peça de informação é definido como a diferença entre o valor esperado da melhor ação antes de depois desta informação ter sido obtida. 58 fórmula para informação perfeita • Assumimos que o valor exato da evidência pode ser obtido para alguma variávei aleatória (Ej). Queremos obter o valor da informação perfeita (VPI). • Evidência inicial e. Então o valor da melhor ação a no momento é: EU(a|e) = maxa s’ P(Result(a) = s’|a,e)U(s’) fórmula para informação perfeita • e o valor da melhor ação (após a obtenção da evidência Ej = ej): EU(aej|e, ej) = maxa s’ P(Result(a) = s’|a,e,ej)U(s’) fórmula para informação perfeita • Porém o valor de Ej ainda não é sabido, portanto para determinar o valor de Ej, dada a informação atual e, deve-se levar em consideração todos os valores ejk sobre Ej: VPI(Ej) = (k P(Ej= ejk|e)EU(ajk|e, Ej = ejk)) - EU(a|e) Valor da informação – exemplo 2 • A1 e A2 duas rotas distintas através de uma montanha; – A1 e A2 são as únicas ações possíveis, com EU = U1 e U2; – A1 = caminho mais baixo, sem muito vento; – A2 = caminho mais alto, com muito vento; – U (A1) > U (A2) !!! • Nova evidência NE produzirá novas utilidades esperadas U1’ e U2’; – Vale a pena adquirir NE? • E se mudássemos o cenário? – II) A1 e A2 são duas estradas onde venta muito, de mesmo tamanho e levamos um ferido grave; – III) Mesmas estradas A1 e A2 mas agora no verão; 62 “A informação tem valor até o ponto em que apresenta alguma probabilidade de causar uma mudança de planos e até o ponto em que o novo plano é significativamente melhor que o velho.” IA Russel pag 583 63 Sistemas especialistas de teoria da decisão • No campo da Análise de Decisões temos a aplicação da Teoria da Decisão a problemas reais (principalmente envolvendo altos riscos); • No início os Sistemas Especialistas concentravam-se em responder perguntas e não em tomadas de decisão; • Hoje temos que os Sistemas Especialistas envolvem um Processo de Engenharia do Conhecimento com etapas definidas e que fornecem as seguintes capacidades: – tomar decisões; – usar valor da informação para decidir se deve adquirir algo; – calcular a sensibilidade de suas decisões. 64 Descrição do processo de engenharia do conhecimento para sistemas especialistas de teoria da decisão Cerca de 0,8% das crianças nascem com uma anomalia no coração chamada estreitamento da aorta. Pode ser tratata por cirurgia, angioplastia ou medicação. O problema é decidir qual tratamento e quando fazê-lo. Etapas do processo de Engenharia do Conhecim ento Crie um Modelo Causal 1) Determinar ( sintomas, doenças, tratamentos e resultados ); 2) Desenhar arcos ( que doenças causam cada sintoma ); 3) Desenhar arcos ( que tratamentos aliviam os sintomas de cada doença) Simplifique até chegar a um modelo de decisão qualitativa Remover variáveis não estão envolvidas em decisões de tratamento Atribua Probabilidades 1) Pode vir de Banco de Dados de Pacientes; 2) Estudos de Literatura; 3) Avaliação de Especialistas Atribua Utilidade Criar escala do melhor ao pior resultado: Recuperação Completa = 0 e Morte = -1000 Verifique e Refine o modelo Necessita conjunto de pares (entrada , saída) --> ( sintomas, solicitar tratamento ) Execute a análise de sensibilidade Verificar se a melhor decisão é sensível a pequenas mudanças nas probabilidades e utilidades atribuídas 65 Caso do estreitamento da aorta IA Russel pg 586 66