Framework para Cálculo de Reputações de Agentes de Software Baseado em Testemunhos José Guedes (PUC-Rio) Viviane Torres da Silva (UCM) Carlos Lucena (PUC-Rio) Motivação Sistemas multi-agentes abertos • sociedades onde entidades heterogêneas e projetadas de forma independente podem trabalhar com fins semelhantes ou diferentes. Agentes precisam saber se outros agentes são confiáveis Como saber se um agente é confiável antes de interagir com ele ? © LES/PUC-Rio Definição do problema Como saber se um agente é confiável sem ter interagido com ele anteriormente ? C A Agente C precisa de um serviço fornecido por um agente A, mas nunca interagiu com ele Agente C não sabe se o agente A é confiável ! © LES/PUC-Rio Trabalhos Relacionados Modelo de reputação descentralizado simples Vantagem: • o próprio agente é responsável pelo cálculo e armazenamento das reputações • cada proprietário programa seu agente de software com estratégias particulares Reputação de B Desvantagem: Reputação de A = 0,7 A B C • Somente é possível saber a reputação de um agente se já interagiu com ele anteriormente • Só considera ações de interação no cálculo da reputação © LES/PUC-Rio Qual a reputação de A ? Trabalhos Relacionados Modelo de reputação baseado em testemunhos Vantagem: • Agentes podem saber a reputação de outros agentes sem ter interagido anteriormente com eles X X X Reputação de B X Desvantagem: • O agente não sabe quem já interagiu anteriormente com um determinado agente • As reputações fornecidas por um agente são baseadas no ponto de vista deste agente © LES/PUC-Rio A Reputação de A = 0,7 X B X X X X C Trabalhos Relacionados Modelo de reputação baseado em reputação certificada Vantagem: Avaliação de D do ponto de vista de A • A reputação de um agente pode ser facilmente conhecida Desvantagem: • A reputação de um agente será provavelmente superestimada • As reputações certificadas estão influenciadas pelo ponto de vista dos agentes que forneceram as certificações D Avaliação de A do ponto de vista de D 0,9 A Avaliação de B do ponto de vista de A B 0,7 Avaliação de A do ponto de vista de B C © LES/PUC-Rio Proposta - Modelo Híbrido © LES/PUC-Rio Proposta - Reputation System Reputation System: framework para o cálculo de reputações de agentes de software baseado em testemunhos agentes do sistema enviam testemunhos ao sistema de julgamento recebe o veredicto do sistema de julgamento • veredicto = agentes, resultado, grau de certeza, norma violada e informa se houve confissão atualiza a reputação • do agente acusado de violar a norma ou • do agente que enviou o testemunho, caso o testemunho tenha sido falso © LES/PUC-Rio Proposta - Reputation System Calculando a Reputação Parcial: O grau de certeza do resultado • Certainty Degree: percentual recebido do sistema de julgamento Gravidade da violação • NormPower: normas diferentes influenciam as reputações de modos diferentes • TotalTime: por quanto tempo a violação influenciará na reputação Atenuante e Agravante • Confession: a confissão do agente diminui o efeito da violação • Relapses: a reincidência de uma mesma norma aumenta o efeito da violação A violação é “esquecida” • RemainingDays: normas violadas recentemente influenciam mais a reputação de um agente do que normas violadas a mais tempo © LES/PUC-Rio Proposta - Reputation System Hot spot: fórmulas de cálculo da reputação flexíveis formulaReputation (aj) = 1 - x x = ∑0<i<=k [parcialRep(aj)], se 0 <= ∑0<i<=k [parcialRep(aj)] <= 1 1 , se ∑0<i<=k [parcialRep(aj)] > 1 parcialRep(aj)=(normPower*certaintyDegree)*confession*(1/relapse)*remainingDays © LES/PUC-Rio Proposta - Reputation System Hot spot: Tipos personalizados de reputação • O grupamento das reputações parciais define um tipo de reputação do agente • 3 tipos pré-definidos • Global reputation: média de todas as reputações parciais do agente • Role reputation: média das reputações parciais enquanto o agente desempenhava um mesmo papel • Norm reputation: média das reputações parciais de uma mesma norma • possibilidade de criar tipos personalizados © LES/PUC-Rio Exemplo I: agente violou norma n1 em 01/05 Resultado: true (agente acusado foi considerado culpado) CertaintyDegree = 0,9 (grau de certeza do resultado é de 90%) NormPower = 0,5 (poder da norma n1) TotalTime = 10 dias Confession = 1 (não houve confissão) Relapse = 1 (primeira vez que o agente violou esta norma) normPower*certaintyDegree : 90% do poder da norma influenciando na reputação do agente - + © LES/PUC-Rio Exemplo II: agente violou normas 1 e 2 © LES/PUC-Rio Próximos Passos estudo de solução para o problema da centralização • criação de suborganizações implementação da nova versão do framework estudo de caso comparação com outros trabalhos • benchmark - ART Testbed (Agent Reputation and Trust) © LES/PUC-Rio Trabalhos futuros estudo sobre reputação boa • qualidade do agente © LES/PUC-Rio References 1. A. Grizard and L. Vercouter and T. Stratulat and G. Muller: A peer-to-peer normative system to achieve social order, in Workshop COIN at Autonomous Agents and Multi-Agent Systems (AAMAS'06) 2. Amazon Site. http://www.amazon.com World Wide Web (2006) 3. Duran, Fernanda; Silva, Viviane Torres; Lucena, Carlos José Pereira de: Um Mecanismo de Governança para Sistemas Multi-Agentes Abertos Baseado em Testemunhos. Defesa de proposta de dissertação, PUC-RIO, agosto de 2006. 4. eBay Site. http://www.ebay.com World Wide Web (2006) 5. Guedes, José de Souza Pinto; Silva, Viviane Torres; Lucena, Carlos José Pereira de: A Reputation Model Based on Testimonies, AOIS2006@CAiSE workshop, Luxembourg, Grand-Duchy of Luxembourg, June 6, 2006. 6. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18–22 7. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: Certified Reputation --- How an Agent Can Trust a Stranger Proc. 5th Int. Conf. on Autonomous Agents and Multi-Agent Systems, Hakodate, Japan.(2006) 8. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: Trust in Multi-Agent Systems The Knowledge Engineering Review 19 (1):1-25. (2004) © LES/PUC-Rio References 9. Sabater, J.:Trust and Reputation for Agent Societies. PhD thesis, Universitat Autonoma de Barcelona (UAB) (2003) 10. Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 11. Schillo, M., Funk, P., Rovatsos, M.: Using trust for detecting deceptive agents in artificial societies. Applied Artificial Intelligence (Special Issue on Trust, Deception, and Fraud in Agent Societies) (2000) 825-848 12. Silva, V., Lucena, C.: Governance in Multi-Agent Systems Based on Witnesses. Pontifical Catholic University of Rio de Janeiro PUC-Rio. Rio de Janeiro – Brazil, 2005 13. Silva, V., Cortes, M. and Lucena,C. An Object-Oriented Framework for Implementing Agent Societies. MCC32/04. Technical Report, PUC-Rio. Rio de Janeiro, Brazil, 2004 14. Yu, B., Singh, M. P.: Distributed Reputation Management for Electronic Commerce. Computational Intelligence (2002) 18(4) pp. 535-549 15. Yu, B., Singh, M. P.: An Evidential Model of Distributed Reputation Management. In: Proceedings of First International Joint Conference on Autonomous Agents and Multi-Agent Systems (2002) Vol. 1. pp. 294– 301 © LES/PUC-Rio