Um Modelo de Reputação
Baseado em Testemunhos
José Guedes
Viviane Torres da Silva
{jguedes,viviane}@inf.puc-rio.br
Planejamento das apresentações
 1st : apresentação da abordagem proposta, com destaque
para o sistema de reputação centralizado; apresentação
do problema que será explorado.
 2nd: mostrar de que forma outras abordagens tratam o
problema; apresentar a solução para nossa abordagem
 3rd: mostrar os resultados do uso do sistema de
reputação centralizado em um cenário real
© LES/PUC-Rio
Motivação
• Aplicações em que agentes podem violar normas
• Sistemas multi-agentes abertos
• Agentes precisam saber se outros agentes são confiáveis
• Agentes avaliam o comportamento de outros agentes
– Mau comportamento -> má reputação
– Bom comportamento -> boa reputação
© LES/PUC-Rio
Trabalhos Relacionados
• Abordagens centralizadas
– Exemplos: eBay e Amazon Auctions
– Sistema calcula e disponibiliza reputações baseado nas
avaliações dos participantes
– Vantagem: a reputação de um agente está sempre disponível
– Problema: a reputação é um valor global; os agentes utilizam
avaliações feitas por terceiros
Amazon Site. http://www.amazon.com World Wide Web (2006)
eBay Site. http://www.ebay.com World Wide Web (2006)
© LES/PUC-Rio
Trabalhos Relacionados
• Abordagens descentralizadas
– Reputação baseada em experiências diretas
• Cada agente avalia e armazena a reputação dos agentes com
quem ele interagiu
– Exemplo: Regret System
– Vantagem: reputação é calculada e armazenada individualmente pelo
próprio agente
– Problema: agentes não conhecem a reputação de outros agentes
antes de interagir com ele
Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In:
Proceedings of First International Conference on Autonomous Agents and Multiagent
Systems (AAMAS), Bologna, Italy (2002) pp. 475-482
© LES/PUC-Rio
Trabalhos Relacionados
• Abordagens descentralizadas
– Reputação baseada em testemunhas
• Agentes compartilham com outros agentes suas experiências
diretas
– Exemplos: Regret System e FIRE Model
– Vantagem: agentes podem saber a reputação de outros agentes sem
ter interagido com ele
– Problema: processo de busca pode ser inviável
Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In:
Proceedings of First International Conference on Autonomous Agents and Multiagent
Systems (AAMAS), Bologna, Italy (2002) pp. 475-482
Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation
Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on
Artificial Intelligence (ECAI) (2004) pp. 18-22
© LES/PUC-Rio
Trabalhos Relacionados
• Abordagens descentralizadas
– Reputação certificada
• Após uma interação, um agente solicita ao outro a avaliação e
armazena localmente essas avaliações que serão utilizadas como
referências em uma próxima interação
• Agente apresenta as avaliações aos agentes com quem tem
intenção em interagir
– Exemplo: FIRE Model
– Vantagem: as avaliações estão sempre disponíveis
– Problema: a reputação certificada é superestimada, pois o agente
seleciona somente as melhores avaliações
Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation
Model for Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on
Artificial Intelligence (ECAI) (2004) pp. 18-22
© LES/PUC-Rio
Abordagem Proposta
Modelo Híbrido
utiliza os benefícios das
duas abordagens
© LES/PUC-Rio
Sistema de reputação centralizado
Defendants Reputation
Se o agente for considerado culpado (percentual de culpa > 50%)
 Poder da norma -> normPower(ni)
 Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni)
 Percentual de culpa -> guiltPerc(aj,ni)
 Tempo -> remainingDays(aj,ni)
defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) *
guiltPerc(aj,ni) *
remainingDays(aj,ni) ]
0 <= valor da reputação <= 1
valor da reputação > 0.5, boa reputação
valor da reputação <= 0.5, má reputação
© LES/PUC-Rio
Sistema de reputação centralizado
Witness Reputation
Se o testemunho for falso (percentual de culpa <= 50%)
 Poder da norma -> normPower(ni)
 Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni)
 WitnessFactor -> normPowerrw(ni)=normPowerr(ni)* witnessFactor(ni)
 Percentual de culpa -> guiltPerc(aj,ni)
 Tempo -> remainingDays(aj,ni)
witnessRep(aj) = 1 – ∑0<i<=k[ normPowerrw(ni) *
guiltPerc(aj,ni) *
remainingDays(aj,ni) ]
0 <= valor da reputação <= 1
valor da reputação > 0.5, boa reputação
valor da reputação <= 0.5, má reputação
© LES/PUC-Rio
Sistema de reputação centralizado
Tipos de Reputação
• Global reputation
Média das reputações defendant e witness de um determinado agente
globalRep(aj) = [defendantRep(aj) + witnessRep(aj)] / 2
• Role reputation
Média das reputações defendant e
witness de um agente enquanto
desempenhava um determinado papel
• Norm reputation
Para cada norma do sistema o agente
tem uma reputação associada
© LES/PUC-Rio
Sistema de reputação centralizado
Agente A violou norma n1 em 01/04/2005
Today:01/04/2005
 agente A nunca violou nenhuma norma
 Poder da norma -> normPower(ni) = 0.1
 Reincidência -> normPowerr(ni) = normPower(ni) * relapse(ni) = 0.1
 Percentual de culpa -> guiltPerc(aj,ni) = 100% = 1
 Tempo -> remainingDays(aj,ni) -> Tempo total (n1) = 30
totalTime(ni)– passedDays(aj,ni)
remainingDays(aj,ni)= ------------------------------- = 30-0/30 = 1
totalTime(ni)
(firs day)
defendantRep(aj) = 1 – ∑0<i<=k[ normPowerr(ni) * guiltPerc(aj,ni) *
remainingDays(aj,ni) ]
defendantRep(A) = 1 – 0.1 * 1 * 1
defendantRep(A)
= 1 – 0.1*1*1 = 0.9
© LES/PUC-Rio
Problema
• Agentes que nunca violaram normas possuem reputação
máxima
• Agentes que já violaram normas mas as violações não
exercem mais influência na reputação também possuem
reputação máxima
• Novos agentes também possuem reputação máxima
Existem 3 situações diferentes quando o
valor da reputação do agente é igual a 1
• Como diferenciar as três situações ?
© LES/PUC-Rio
Próximos passos
•
pesquisar outros trabalhos
tratamento dado aos novos agentes
• evolução do modelo híbrido
reputação certificada
• aplicar a abordagem proposta em um caso real
© LES/PUC-Rio
References
1.
Amazon Site. http://www.amazon.com World Wide Web (2006)
2.
eBay Site. http://www.ebay.com World Wide Web (2006)
3.
Grandison, T., Sloman, M.: A Survey of Trust in Internet Applications. IEEE Communications
Surveys & Tutorials 3(4) (2000)
4.
Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for
Open Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial
Intelligence (ECAI) (2004) pp. 18–22
5.
Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In:
Proceedings of First International Conference on Autonomous Agents and Multiagent Systems
(AAMAS), Bologna, Italy (2002) pp. 475-482
6.
Silva, V., Lucena, C.: Governance in Multi-Agent Systems Based on Witnesses. Pontifical Catholic
University of Rio de Janeiro (PUC-Rio). Rio de Janeiro - Brazil (2005) Systems (2002)
7.
Zacharia G. Collaborative reputation mechanisms for online communities. Master’s thesis,
Massachusetts Institute of Technology (1999)
© LES/PUC-Rio
Download

José Guedes - (LES) da PUC-Rio