Um Modelo de Reputação Baseado em Testemunhos José Guedes Viviane Torres da Silva {jguedes,viviane}@inf.puc-rio.br Planejamento das apresentações 1st : apresentação da abordagem proposta, com destaque para o sistema de reputação centralizado; apresentação do problema que será explorado. 2nd: mostrar de que forma outras abordagens tratam o problema; apresentar a solução para nossa abordagem 3rd: mostrar os resultados do uso do sistema de reputação centralizado em um cenário real © LES/PUC-Rio Motivação • Aplicações em que agentes podem violar normas • Sistemas multi-agentes abertos • Agentes precisam saber se outros agentes são confiáveis • Agentes avaliam o comportamento de outros agentes – Mau comportamento -> má reputação – Bom comportamento -> boa reputação © LES/PUC-Rio Trabalhos Relacionados • Abordagens centralizadas – Exemplos: eBay e Amazon Auctions – Sistema calcula e disponibiliza reputações baseado nas avaliações dos participantes – Vantagem: a reputação de um agente está sempre disponível – Problema: a reputação é um valor global; os agentes utilizam avaliações feitas por terceiros Amazon Site. http://www.amazon.com World Wide Web (2006) eBay Site. http://www.ebay.com World Wide Web (2006) © LES/PUC-Rio Trabalhos Relacionados • Abordagens descentralizadas – Reputação baseada em experiências diretas • Cada agente avalia e armazena a reputação dos agentes com quem ele interagiu – Exemplo: Regret System – Vantagem: reputação é calculada e armazenada individualmente pelo próprio agente – Problema: agentes não conhecem a reputação de outros agentes antes de interagir com ele Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 © LES/PUC-Rio Trabalhos Relacionados • Abordagens descentralizadas – Reputação baseada em testemunhas • Agentes compartilham com outros agentes suas experiências diretas – Exemplos: Regret System e FIRE Model – Vantagem: agentes podem saber a reputação de outros agentes sem ter interagido com ele – Problema: processo de busca pode ser inviável Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18-22 © LES/PUC-Rio Trabalhos Relacionados • Abordagens descentralizadas – Reputação certificada • Após uma interação, um agente solicita ao outro a avaliação e armazena localmente essas avaliações que serão utilizadas como referências em uma próxima interação • Agente apresenta as avaliações aos agentes com quem tem intenção em interagir – Exemplo: FIRE Model – Vantagem: as avaliações estão sempre disponíveis – Problema: a reputação certificada é superestimada, pois o agente seleciona somente as melhores avaliações Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18-22 © LES/PUC-Rio Abordagem Proposta Modelo Híbrido utiliza os benefícios das duas abordagens © LES/PUC-Rio Sistema de reputação centralizado Defendants Reputation Se o agente for considerado culpado (percentual de culpa > 50%) Poder da norma -> normPower(ni) Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) Percentual de culpa -> guiltPerc(aj,ni) Tempo -> remainingDays(aj,ni) defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] 0 <= valor da reputação <= 1 valor da reputação > 0.5, boa reputação valor da reputação <= 0.5, má reputação © LES/PUC-Rio Sistema de reputação centralizado Witness Reputation Se o testemunho for falso (percentual de culpa <= 50%) Poder da norma -> normPower(ni) Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) WitnessFactor -> normPowerrw(ni)=normPowerr(ni)* witnessFactor(ni) Percentual de culpa -> guiltPerc(aj,ni) Tempo -> remainingDays(aj,ni) witnessRep(aj) = 1 – ∑0<i<=k[ normPowerrw(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] 0 <= valor da reputação <= 1 valor da reputação > 0.5, boa reputação valor da reputação <= 0.5, má reputação © LES/PUC-Rio Sistema de reputação centralizado Tipos de Reputação • Global reputation Média das reputações defendant e witness de um determinado agente globalRep(aj) = [defendantRep(aj) + witnessRep(aj)] / 2 • Role reputation Média das reputações defendant e witness de um agente enquanto desempenhava um determinado papel • Norm reputation Para cada norma do sistema o agente tem uma reputação associada © LES/PUC-Rio Sistema de reputação centralizado Agente A violou norma n1 em 01/04/2005 Today:01/04/2005 agente A nunca violou nenhuma norma Poder da norma -> normPower(ni) = 0.1 Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) = 0.1 Percentual de culpa -> guiltPerc(aj,ni) = 100% = 1 Tempo -> remainingDays(aj,ni) -> Tempo total (n1) = 30 totalTime(ni)– passedDays(aj,ni) remainingDays(aj,ni)= ------------------------------- = 30-0/30 = 1 totalTime(ni) (firs day) defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) * guiltPerc(aj,ni) * remainingDays(aj,ni) ] defendantRep(A) = 1 – 0.1 * 1 * 1 defendantRep(A) = 1 – 0.1*1*1 = 0.9 © LES/PUC-Rio Problema • Agentes que nunca violaram normas possuem reputação máxima • Agentes que já violaram normas mas as violações não exercem mais influência na reputação também possuem reputação máxima • Novos agentes também possuem reputação máxima Existem 3 situações diferentes quando o valor da reputação do agente é igual a 1 • Como diferenciar as três situações ? © LES/PUC-Rio Próximos passos • pesquisar outros trabalhos tratamento dado aos novos agentes • evolução do modelo híbrido reputação certificada • aplicar a abordagem proposta em um caso real © LES/PUC-Rio References 1. Amazon Site. http://www.amazon.com World Wide Web (2006) 2. eBay Site. http://www.ebay.com World Wide Web (2006) 3. Grandison, T., Sloman, M.: A Survey of Trust in Internet Applications. IEEE Communications Surveys & Tutorials 3(4) (2000) 4. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI) (2004) pp. 18–22 5. Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy (2002) pp. 475-482 6. Silva, V., Lucena, C.: Governance in Multi-Agent Systems Based on Witnesses. Pontifical Catholic University of Rio de Janeiro (PUC-Rio). Rio de Janeiro - Brazil (2005) Systems (2002) 7. Zacharia G. Collaborative reputation mechanisms for online communities. Master’s thesis, Massachusetts Institute of Technology (1999) © LES/PUC-Rio