GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs
RAIRO - Operations Research (2009)
- Volume: 43, Issue: 4, page 437-462
- ISSN: 0399-0559
Access Full Article
topAbstract
topHow to cite
topCaseau, Y.. "GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs." RAIRO - Operations Research 43.4 (2009): 437-462. <http://eudml.org/doc/250645>.
@article{Caseau2009,
abstract = {
Cet article décrit une approche de la modélisation d'un système
d'acteurs, particulièrement adaptée à la modélisation des
entreprises, fondée sur la théorie des jeux [11] et sur
l'optimisation par apprentissage du comportement de ces acteurs. Cette
méthode repose sur la combinaison de trois techniques : la simulation
par échantillonnage (Monte-Carlo), la théorie des jeux pour ce qui
concerne la recherche d'équilibre entre les stratégies, et les
méthodes heuristiques d'optimisation locale, en particulier les
algorithmes génétiques. Cette combinaison n'est pas originale en
soi, même si elle est rarement utilisée avec toute la puissance
d'expression conjointe de ces techniques. La contribution de cet article est
double : d'une part nous proposons un modèle qui permet de structurer de
façon systématique cette collaboration entre différentes
techniques et, d'autre part, nous utilisons la technique des algorithmes
génétiques pour enrichir la recherche des équilibres de Nash
sous forme de points fixes. Il s'agit d'une méthode de simulation, qui
n'est pas destinée à la résolution de problèmes, mais à
la validation et l'étude des propriétés d'un modèle
associé à un problème particulier.
},
author = {Caseau, Y.},
journal = {RAIRO - Operations Research},
keywords = {Simulation; apprentissage; théorie des jeux; algorithmes génétiques; organisation d'entreprise.},
language = {fre},
month = {10},
number = {4},
pages = {437-462},
publisher = {EDP Sciences},
title = {GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs},
url = {http://eudml.org/doc/250645},
volume = {43},
year = {2009},
}
TY - JOUR
AU - Caseau, Y.
TI - GTES : une méthode de simulation par jeux et apprentissage pour l'analyse des systèmes d'acteurs
JO - RAIRO - Operations Research
DA - 2009/10//
PB - EDP Sciences
VL - 43
IS - 4
SP - 437
EP - 462
AB -
Cet article décrit une approche de la modélisation d'un système
d'acteurs, particulièrement adaptée à la modélisation des
entreprises, fondée sur la théorie des jeux [11] et sur
l'optimisation par apprentissage du comportement de ces acteurs. Cette
méthode repose sur la combinaison de trois techniques : la simulation
par échantillonnage (Monte-Carlo), la théorie des jeux pour ce qui
concerne la recherche d'équilibre entre les stratégies, et les
méthodes heuristiques d'optimisation locale, en particulier les
algorithmes génétiques. Cette combinaison n'est pas originale en
soi, même si elle est rarement utilisée avec toute la puissance
d'expression conjointe de ces techniques. La contribution de cet article est
double : d'une part nous proposons un modèle qui permet de structurer de
façon systématique cette collaboration entre différentes
techniques et, d'autre part, nous utilisons la technique des algorithmes
génétiques pour enrichir la recherche des équilibres de Nash
sous forme de points fixes. Il s'agit d'une méthode de simulation, qui
n'est pas destinée à la résolution de problèmes, mais à
la validation et l'étude des propriétés d'un modèle
associé à un problème particulier.
LA - fre
KW - Simulation; apprentissage; théorie des jeux; algorithmes génétiques; organisation d'entreprise.
UR - http://eudml.org/doc/250645
ER -
References
top- E. Aarts and J.K. Lenstra, Local search in combinatorial optimisation. Wiley (1993).
- R. Axelrod, The complexity of cooperation-agent-based models of competitions and cooperation. Princeton University Press (1997).
- Y. Caseau, G. Silverstein and F. Laburthe, Learning hybrid algorithms for vehicle routing problems. Theory Pract. Log. Program.1 (2001) 779–806.
- G. Donnadieu and M. Karsky, La systémique, penser et agir dans la complexité. Éditions Liaisons (2002).
- J. Dréo, A. Petrowski, P. Siarry and E. Taillard, Métaheuristiques pour l'optimisation difficile. Eyrolles, Paris (2003).
- R. Duncan Luce and H. Raiffa, Games and decisions – Introduction and critical survey. Dover Publications, New York (1957).
- J. Ferber, Les Systèmes multi-agents : vers une intelligence collective. Dunod, Paris (2007).
- J. Forrester, Principles of systems. System Dynamics Series, Pegasus Communications, Waltham (1971).
- R. Gibbons, Game theory for applied economists. Princeton University Press (1992).
- S. Jørgensen, M. Quincampoix and T. Vincent (Eds.) Advances in dynamic game theory: numerical methods, algorithms, and applications to ecology and economics (Annals of the International Society of Dynamic Games). Birkhauser, Boston (2007).
- G.A. Korn, Advanced dynamic-system simulation: model-replication techniques and Monte Carlo simulation. Wiley Interscience (2007).
- M. Mongeau, Introduction à l'optimisation globale. Bulletin ROADEF N° 19 (2007).
- R. Nelson and S. Winter, An evolutionary theory of economic change. Belknap, Harvard (1982).
- N. Nissan, T. Roughgarden, E. Tardos and V.V. Vazirani, Algorithmic game theory. Cambridge University Press (2007).
- B. Slantchev, Game theory: repeated Games. University of California – San Diego. bslantch/courses/gt/07-repeated-games.pdf (2004). URIhttp://polisci.ucsd.edu/
- J. Sterman, Business dynamics – System thinking and modeling for a complex world. McGraw Hill (2001).
- J. Watson, Strategy – An introduction to game theory. Norton (2002).
NotesEmbed ?
topTo embed these notes on your page include the following JavaScript code on your page where you want the notes to appear.