Framework para
Cálculo de Reputações de Agentes de Software
Baseado em Testemunhos
José Guedes (PUC-Rio)
Viviane Torres da Silva (UCM)
Carlos Lucena (PUC-Rio)
Motivação
 Sistemas
multi-agentes abertos
• sociedades onde entidades heterogêneas e projetadas de forma
independente podem trabalhar com fins semelhantes ou
diferentes.
 Agentes
precisam saber se outros agentes são confiáveis
 Como
saber se um agente é confiável antes de interagir
com ele ?
© LES/PUC-Rio
Definição do problema

Como saber se um agente é confiável sem ter
interagido com ele anteriormente ?
C
A
Agente C precisa de um serviço fornecido por um agente A,
mas nunca interagiu com ele
Agente C não sabe se o agente A é confiável !
© LES/PUC-Rio
Trabalhos Relacionados
Modelo de reputação descentralizado simples

Vantagem:
• o próprio agente é responsável
pelo cálculo e armazenamento das
reputações
• cada proprietário programa seu
agente de software com estratégias
particulares

Reputação de B
Desvantagem:
Reputação de A = 0,7
A
B
C
• Somente é possível saber a
reputação de um agente se já
interagiu com ele anteriormente
• Só considera ações de interação no
cálculo da reputação
© LES/PUC-Rio
Qual a reputação de A ?
Trabalhos Relacionados
Modelo de reputação baseado em testemunhos

Vantagem:
• Agentes podem saber a
reputação de outros agentes
sem ter interagido
anteriormente com eles

X
X
X
Reputação de B
X
Desvantagem:
• O agente não sabe quem já
interagiu anteriormente com um
determinado agente
• As reputações fornecidas por
um agente são baseadas no
ponto de vista deste agente
© LES/PUC-Rio
A
Reputação de A = 0,7
X
B
X
X
X
X
C
Trabalhos Relacionados
Modelo de reputação baseado em reputação certificada

Vantagem:
Avaliação de D do
ponto de vista de A
• A reputação de um agente
pode ser facilmente
conhecida

Desvantagem:
• A reputação de um agente
será provavelmente
superestimada
• As reputações certificadas
estão influenciadas pelo
ponto de vista dos agentes
que forneceram as
certificações
D
Avaliação de A do
ponto de vista de D
0,9
A
Avaliação de B do
ponto de vista de A
B
0,7
Avaliação de A do
ponto de vista de B
C
© LES/PUC-Rio
Proposta - Modelo Híbrido
© LES/PUC-Rio
Proposta - Reputation System

Reputation System: framework para o cálculo de
reputações de agentes de software baseado em
testemunhos

agentes do sistema enviam testemunhos ao
sistema de julgamento

recebe o veredicto do sistema de julgamento
• veredicto = agentes, resultado, grau de certeza,
norma violada e informa se houve confissão

atualiza a reputação
• do agente acusado de violar a norma ou
• do agente que enviou o testemunho, caso o testemunho
tenha sido falso
© LES/PUC-Rio
Proposta - Reputation System
Calculando a Reputação Parcial:

O grau de certeza do resultado
• Certainty Degree: percentual recebido do sistema de julgamento

Gravidade da violação
• NormPower: normas diferentes influenciam as reputações de modos
diferentes
• TotalTime: por quanto tempo a violação influenciará na reputação

Atenuante e Agravante
• Confession: a confissão do agente diminui o efeito da violação
• Relapses: a reincidência de uma mesma norma aumenta o efeito da
violação

A violação é “esquecida”
• RemainingDays: normas violadas recentemente influenciam mais a
reputação de um agente do que normas violadas a mais tempo
© LES/PUC-Rio
Proposta - Reputation System

Hot spot: fórmulas de cálculo da reputação flexíveis
formulaReputation (aj) = 1 - x
x =
∑0<i<=k [parcialRep(aj)], se 0 <= ∑0<i<=k [parcialRep(aj)] <= 1
1
, se
∑0<i<=k [parcialRep(aj)] > 1
parcialRep(aj)=(normPower*certaintyDegree)*confession*(1/relapse)*remainingDays
© LES/PUC-Rio
Proposta - Reputation System

Hot spot: Tipos personalizados de reputação
• O grupamento das reputações parciais define um tipo de reputação
do agente
• 3 tipos pré-definidos
• Global reputation: média de todas as reputações parciais do agente
• Role reputation: média das reputações parciais enquanto o agente
desempenhava um mesmo papel
• Norm reputation: média das reputações parciais de uma mesma norma
• possibilidade de criar tipos personalizados
© LES/PUC-Rio
Exemplo I: agente violou norma n1 em 01/05






Resultado: true (agente acusado foi considerado culpado)
CertaintyDegree = 0,9 (grau de certeza do resultado é de 90%)
NormPower = 0,5 (poder da norma n1)
TotalTime = 10 dias
Confession = 1 (não houve confissão)
Relapse = 1 (primeira vez que o agente violou esta norma)
normPower*certaintyDegree : 90% do poder da norma influenciando na reputação do agente
-
+
© LES/PUC-Rio
Exemplo II: agente violou normas 1 e 2
© LES/PUC-Rio
Próximos Passos

estudo de solução para o problema da centralização
• criação de suborganizações

implementação da nova versão do framework

estudo de caso

comparação com outros trabalhos
• benchmark - ART Testbed (Agent Reputation and Trust)
© LES/PUC-Rio
Trabalhos futuros

estudo sobre reputação boa
• qualidade do agente
© LES/PUC-Rio
References
1. A. Grizard and L. Vercouter and T. Stratulat and G. Muller: A peer-to-peer normative system to achieve social
order, in Workshop COIN at Autonomous Agents and Multi-Agent Systems (AAMAS'06)
2. Amazon Site. http://www.amazon.com World Wide Web (2006)
3. Duran, Fernanda; Silva, Viviane Torres; Lucena, Carlos José Pereira de: Um Mecanismo de Governança para
Sistemas Multi-Agentes Abertos Baseado em Testemunhos. Defesa de proposta de dissertação, PUC-RIO,
agosto de 2006.
4. eBay Site. http://www.ebay.com World Wide Web (2006)
5. Guedes, José de Souza Pinto; Silva, Viviane Torres; Lucena, Carlos José Pereira de: A Reputation Model
Based on Testimonies, AOIS2006@CAiSE workshop, Luxembourg, Grand-Duchy of Luxembourg, June 6,
2006.
6. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: FIRE: An Integrated Trust and Reputation Model for Open
Multi-Agent Systems. In: Proceedings of the 16th European Conference on Artificial Intelligence (ECAI)
(2004) pp. 18–22
7. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: Certified Reputation --- How an Agent Can Trust a Stranger
Proc. 5th Int. Conf. on Autonomous Agents and Multi-Agent Systems, Hakodate, Japan.(2006)
8. Huynh, T. D., Jennings N. R., Shadbolt, N. R.: Trust in Multi-Agent Systems The Knowledge Engineering
Review 19 (1):1-25. (2004)
© LES/PUC-Rio
References
9. Sabater, J.:Trust and Reputation for Agent Societies. PhD thesis, Universitat Autonoma de Barcelona (UAB)
(2003)
10. Sabater, J., Sierra, C.: Reputation and Social Network Analysis in Multi-Agent Systems. In: Proceedings of
First International Conference on Autonomous Agents and Multiagent Systems (AAMAS), Bologna, Italy
(2002) pp. 475-482
11. Schillo, M., Funk, P., Rovatsos, M.: Using trust for detecting deceptive agents in artificial societies. Applied
Artificial Intelligence (Special Issue on Trust, Deception, and Fraud in Agent Societies) (2000) 825-848
12. Silva, V., Lucena, C.: Governance in Multi-Agent Systems Based on Witnesses. Pontifical Catholic
University of Rio de Janeiro PUC-Rio. Rio de Janeiro – Brazil, 2005
13. Silva, V., Cortes, M. and Lucena,C. An Object-Oriented Framework for Implementing Agent Societies.
MCC32/04. Technical Report, PUC-Rio. Rio de Janeiro, Brazil, 2004
14. Yu, B., Singh, M. P.: Distributed Reputation Management for Electronic Commerce. Computational
Intelligence (2002) 18(4) pp. 535-549
15. Yu, B., Singh, M. P.: An Evidential Model of Distributed Reputation Management. In: Proceedings of First
International Joint Conference on Autonomous Agents and Multi-Agent Systems (2002) Vol. 1. pp. 294–
301
© LES/PUC-Rio
Download

guedes-apt01 - (LES) da PUC-Rio