GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs

Y. Caseau

RAIRO - Operations Research (2009)

  • Volume: 43, Issue: 4, page 437-462
  • ISSN: 0399-0559

Abstract

top
This paper proposes an approach towards modeling an actor system, especially suited to describe a company's organization, based on game theory [11] and learning-based (evolutionary) local optimization. This method relies on the combination of three techniques: sampling for simulation (Monte-Carlo), game theory as far as the search for equilibrium is concerned and heuristic local search methods, such as genetic algorithms. This combination is not original as such, although it is rarely used with the full combined expressive power of this array of techniques. Our contribution with this paper is twofold. On the one hand we propose a model which is a natural framework for the collaboration between these three techniques. On the other hand, we use genetic algorithms to extend the search of Nash equilibrium, obtained as fixed-points of an iterative transformation. This remains a simulation tool, not intended to solve problems but to validate a given model and to study its properties.

How to cite

top

Caseau, Y.. "GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs." RAIRO - Operations Research 43.4 (2009): 437-462. <http://eudml.org/doc/250645>.

@article{Caseau2009,
abstract = { Cet article décrit une approche de la modélisation d'un système d'acteurs, particulièrement adaptée à la modélisation des entreprises, fondée sur la théorie des jeux [11] et sur l'optimisation par apprentissage du comportement de ces acteurs. Cette méthode repose sur la combinaison de trois techniques : la simulation par échantillonnage (Monte-Carlo), la théorie des jeux pour ce qui concerne la recherche d'équilibre entre les stratégies, et les méthodes heuristiques d'optimisation locale, en particulier les algorithmes génétiques. Cette combinaison n'est pas originale en soi, même si elle est rarement utilisée avec toute la puissance d'expression conjointe de ces techniques. La contribution de cet article est double : d'une part nous proposons un modèle qui permet de structurer de façon systématique cette collaboration entre différentes techniques et, d'autre part, nous utilisons la technique des algorithmes génétiques pour enrichir la recherche des équilibres de Nash sous forme de points fixes. Il s'agit d'une méthode de simulation, qui n'est pas destinée à la résolution de problèmes, mais à la validation et l'étude des propriétés d'un modèle associé à un problème particulier. },
author = {Caseau, Y.},
journal = {RAIRO - Operations Research},
keywords = {Simulation; apprentissage; théorie des jeux; algorithmes génétiques; organisation d'entreprise.},
language = {fre},
month = {10},
number = {4},
pages = {437-462},
publisher = {EDP Sciences},
title = {GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs},
url = {http://eudml.org/doc/250645},
volume = {43},
year = {2009},
}

TY - JOUR
AU - Caseau, Y.
TI - GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs
JO - RAIRO - Operations Research
DA - 2009/10//
PB - EDP Sciences
VL - 43
IS - 4
SP - 437
EP - 462
AB - Cet article décrit une approche de la modélisation d'un système d'acteurs, particulièrement adaptée à la modélisation des entreprises, fondée sur la théorie des jeux [11] et sur l'optimisation par apprentissage du comportement de ces acteurs. Cette méthode repose sur la combinaison de trois techniques : la simulation par échantillonnage (Monte-Carlo), la théorie des jeux pour ce qui concerne la recherche d'équilibre entre les stratégies, et les méthodes heuristiques d'optimisation locale, en particulier les algorithmes génétiques. Cette combinaison n'est pas originale en soi, même si elle est rarement utilisée avec toute la puissance d'expression conjointe de ces techniques. La contribution de cet article est double : d'une part nous proposons un modèle qui permet de structurer de façon systématique cette collaboration entre différentes techniques et, d'autre part, nous utilisons la technique des algorithmes génétiques pour enrichir la recherche des équilibres de Nash sous forme de points fixes. Il s'agit d'une méthode de simulation, qui n'est pas destinée à la résolution de problèmes, mais à la validation et l'étude des propriétés d'un modèle associé à un problème particulier.
LA - fre
KW - Simulation; apprentissage; théorie des jeux; algorithmes génétiques; organisation d'entreprise.
UR - http://eudml.org/doc/250645
ER -

References

top
  1. E. Aarts and J.K. Lenstra, Local search in combinatorial optimisation. Wiley (1993).  
  2. R. Axelrod, The complexity of cooperation-agent-based models of competitions and cooperation. Princeton University Press (1997).  
  3. Y. Caseau, G. Silverstein and F. Laburthe, Learning hybrid algorithms for vehicle routing problems. Theory Pract. Log. Program.1 (2001) 779–806.  Zbl1066.68536
  4. G. Donnadieu and M. Karsky, La systémique, penser et agir dans la complexité. Éditions Liaisons (2002).  
  5. J. Dréo, A. Petrowski, P. Siarry and E. Taillard, Métaheuristiques pour l'optimisation difficile. Eyrolles, Paris (2003).  
  6. R. Duncan Luce and H. Raiffa, Games and decisions – Introduction and critical survey. Dover Publications, New York (1957).  Zbl0084.15704
  7. J. Ferber, Les Systèmes multi-agents : vers une intelligence collective. Dunod, Paris (2007).  
  8. J. Forrester, Principles of systems. System Dynamics Series, Pegasus Communications, Waltham (1971).  
  9. R. Gibbons, Game theory for applied economists. Princeton University Press (1992).  
  10. S. Jørgensen, M. Quincampoix and T. Vincent (Eds.) Advances in dynamic game theory: numerical methods, algorithms, and applications to ecology and economics (Annals of the International Society of Dynamic Games). Birkhauser, Boston (2007).  Zbl1113.91004
  11. G.A. Korn, Advanced dynamic-system simulation: model-replication techniques and Monte Carlo simulation. Wiley Interscience (2007).  
  12. M. Mongeau, Introduction à l'optimisation globale. Bulletin ROADEF N° 19 (2007).  
  13. R. Nelson and S. Winter, An evolutionary theory of economic change. Belknap, Harvard (1982).  
  14. N. Nissan, T. Roughgarden, E. Tardos and V.V. Vazirani, Algorithmic game theory. Cambridge University Press (2007).  
  15. B. Slantchev, Game theory: repeated Games. University of California – San Diego. bslantch/courses/gt/07-repeated-games.pdf (2004).  URIhttp://polisci.ucsd.edu/
  16. J. Sterman, Business dynamics – System thinking and modeling for a complex world. McGraw Hill (2001).  
  17. J. Watson, Strategy – An introduction to game theory. Norton (2002).  

NotesEmbed ?

top

You must be logged in to post comments.

To embed these notes on your page include the following JavaScript code on your page where you want the notes to appear.

Only the controls for the widget will be shown in your chosen language. Notes will be shown in their authored language.

Tells the widget how many notes to show per page. You can cycle through additional notes using the next and previous controls.

    
                

Note: Best practice suggests putting the JavaScript code just before the closing </body> tag.