Difference between revisions of "User talk:Xsvaf02"

From Simulace.info
Jump to: navigation, search
 
(5 intermediate revisions by the same user not shown)
Line 1: Line 1:
 
'''
 
'''
== Multiagentní simulace ne/platících cestujících MHD - aplikace PPGwP ==
+
== Multiagentní simulace ne/platících cestujících MHD skrze kostru PPGwP ==
 
'''
 
'''
  
Line 11: Line 11:
 
MHD - Městská hromadná doprava
 
MHD - Městská hromadná doprava
  
PPG - Public Good Game
+
PPG(wp) - Public Good Game (with Punishment)
 
 
PPGwP - Public Good Game with Punishment
 
  
 
//
 
//
  
 +
'''Popis struktury modelu'''
  
'''Cílem práce je ověřit použitelnost (validitu) teorie her při simulaci reálných situací'''
+
Agenti budou "hrát" modifikaci PGGwP aplikovanou na problém černých pasažérů. Návaznost PGGwP na reálnou situaci ČP v MHD vidím následovnou:
 
+
*Jedna se o veřejnou 'službu', kterou využívají všichni (platící i neplatící) a všichni z ní mají stejný užitek. Tato vlastnost je obdobná v laboratorní hře i v realitě.
 
+
*Výplata z PGG se dá ve realitě chápat jako získání užitku z využité služby (všichni mají z použití MHD stejný užitek - přesun z bodu A do bodu B v určitém čase a v určité kvalitě). Poníženi užitku(výplaty) při nárůstu počtu ČP se dá chápat jako zpomaleni dopravy (přeplněné MHD, více kontrol revizory) nebo zhoršení kvality dopravy (nejsou peníze na údržbu vozů).
'''Použitá verze hry'''
+
*Koeficient násobení veřejného konta bude nastaven jako konstanta 2. Agenti v modelu nejednají za primárním účelem maximalizovat zisk a navíc je rozhodnutí o placení pouze binární (zaplatí/nezaplatí), nelze tedy agenty motivovat k vyšším příspěvkům. Hodnota majetku je zde pouze pro účely porovnávání strategií a efektivity nastaví simulace. Koeficient je tedy potřeba mít > 1, aby mohli být zisky kladné a větší koeficienty pouze snižují škody způsobené ČP. Při množství agentů v simulaci je nežádoucí, jelikož by nebyl jejich nárůst tak dobře vidět v grafech.
 
+
*Trestáni je v simulaci placeno agenty - v realitě tento vztah nejde přímo vidět. Můžeme ho ovšem chápat jako ochotu agentů snížit svůj užitek za účelem zvýšení šance na potrestání ČP. Majetek agentu ze kterého se 'platí' tresty koneckonců nejsou jen peníze, ale i užitek získaný používáním MHD - např. časová úspora nebo pohodlí - investice do trestání může být brána jako ochota agentů podstoupit vice kontrol revizorem.
Opakovaná, neveřejná ‘Public Good Game’ s trestáním.
 
 
 
 
 
'''Popis laboratorní verze hry'''
 
 
 
1) Stejná množina hráčů hraje opakovaně více kol.
 
 
 
2) Hráči tajně vyberou kolik ze svého soukromého ‘majetku’ vloží do veřejného konta.
 
 
 
3) Majetek vložen do veřejného konta je vynásoben číslem > 1.
 
 
 
4) Takto vynásobený veřejný majetek je rovnoměrně rozdělen mezi všechny hráče.
 
  
5) Soukromý majetek hráčů, který nevložili do veřejného konta jim zůstává.
 
  
6) Trestání je dobrovolná akce hráče/ů, pro kterou se hráči můžou rozhodnout po skončení každého kola.
+
'''Předpoklady'''
  
7) Obvykle to probíhá tak, že hráč, který se rozhodne trestat se rozhodne kolik ze svého soukromého majetku za trestání zaplatí.
+
*Budu uvažovat o MHD v Praze. Čistě z důvodů nedostupnějším informacím.
 
+
*Data o chování ČP a informací pro rozhodovací výpočty budu čerpat zejména z prací [https://isis.vse.cz/zp/portal_zp.pl?podrobnosti=57475 1][https://isis.vse.cz/zp/portal_zp.pl?podrobnosti=104131 2][https://isis.vse.cz/zp/portal_zp.pl?podrobnosti=49281 3].
8) A vybere si cíl trestání.
 
 
 
9) Trestané osobě se strhne z jeho soukromého majetku několikanásobek částky zaplacené trestajícím.
 
 
 
 
 
'''Popis aplikované modifikace hry'''
 
 
 
1) Pevná množina agentů hraje opakovaně předem neznámý konečný počet her
 
 
 
2) Agenti tajně vyberou zdali zaplatí (nebo ne) jízdenku ze svého soukromého majetku.
 
 
 
3) Majetek vložen do veřejného konta je vynásoben číslem > 1.
 
 
 
4) Takto vynásobený majetek je rovnoměrně rozdělen mezi všechny agenty.
 
 
 
5) Soukromý majetek agentů, který nevložili do veřejného konta jim taky zůstává.
 
 
 
6) Trestání je dobrovolná akce agenta/ů, pro kterou se agenti můžou rozhodnout po skončení každého kola.
 
 
 
7) Agent, který se rozhodne že chce trestat, se rozhodne kolik ze svého majetku chce na trestání vynaložit a tuto sumu zaplatí speciálnímu druhu agenta pojmenovaném ‘revizor’.
 
 
 
8) Trestání je nepřímé a neefektivní - revizor na základě získané hodnoty kontroluje ‘náhodně’ určité množství cestujících (čím více získá, tím větší počet cestujících zkontroluje). Jestliže odhalí ČP, potrestá ho.
 
 
 
9) Trestanému agentu se strhne z jeho soukromého majetku určitá částka.
 
 
 
 
 
'''Poznámky k modifikaci hry'''
 
1) Agenti se budou chovat jako by šlo o nekonečnou hru.
 
 
 
2) Vklad agenta do veřejného konta je v modifikaci pouze binární volba - zda zaplatí částku X za jízdenku nebo zaplatí 0 - tedy nic. Čili zdali vloží do veřejného konta či nikoliv - jízdenka má obvykle pevnou cenu a ČP se veze tím, že nezaplatí nic, ne pouze ‘o něco méně’.
 
 
 
3) V reálu je zisk ze zaplacení jízdenky služba - přeprava z bodu A do bodu B, či časová úspora při této přepravě použitím dopravního prostředku. V simulaci bude na základě hesla ‘čas jsou peníze’ zisk ve stejné ‘měně’, jakou se jízdenky platí.
 
 
 
4) Časovou úsporu z jízdy získá každý i ČP. Poklesem zisku při existenci ČP může být myšleno menší pohodlí (přeplněné autobusy) či delší trvání přepravy (delší nástup a výstup,...).
 
 
 
5) Beze změny oproti originálu.
 
 
 
6) Beze změny oproti originálu.
 
 
 
7) Beze změny oproti originálu.
 
 
 
8) Jelikož se jedná o neveřejnou hru (není známo, kdo je ČP), nelze ani cíleně trestat. Použití trestajícího prostředníka je zde použito hlavně kvůli lepší přehlednosti, trestat by takto (‘náhodně’) mohli i samotní cestující. Revizorovi bych rád pro jeho vyšší účinnost implementoval i jistou formu nepřesné paměti.
 
 
 
9) Obdoba pokuty. Může jít o danou fixní částku, či násobek ceny jízdenky. V Praze je například pokuta 800-1000Kč. To dělá při ceně jízdenky 24 a 32Kč 33- a 25-násobek ceny jízdenky.
 
  
  
 
'''Charakteristiky agentů:'''
 
'''Charakteristiky agentů:'''
 
*Agenti můžou nabýt dvou stavů - CP a PP. Můžou mezi nimi přecházet.
 
*Agenti můžou nabýt dvou stavů - CP a PP. Můžou mezi nimi přecházet.
 +
 
*Rozhodnutí agentů o tom, zda budou či nebudou CP, bude ovlivněno:
 
*Rozhodnutí agentů o tom, zda budou či nebudou CP, bude ovlivněno:
**historickém chování ostatních agentů (čím více ČP ve hře, tím spíše se agent rozhodne být taky ČP),
+
**stavem z minulého kola,
 +
**chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne být taky ČP),
 +
**cenou jízdenky a velikostí trestu (oboje jsou "veřejné" informace)
 
**zaznamenanou aktivitou revizora (čím více kontrol ve svém okolí agent zaznamenal, tím spíše bude PP)
 
**zaznamenanou aktivitou revizora (čím více kontrol ve svém okolí agent zaznamenal, tím spíše bude PP)
**MOŽNÁ: averze k riziku (různá rychlost posunu pravděpodobnosti směrem k ČP nebo k PP - agentovi se bude pravděpodobnost, že se stane ČP rychleji snižovat, než zvyšovat)
+
**vlastní zkušeností s podváděním z minulého kola (jestliže agent [úspěšně podváděl, bude spíše podvádět znova)
 +
**šancí na dopadení revizorem
 +
 
 
*Rozhodnutí agentů o tom, zda budou či nebudou trestat, bude ovlivněno:
 
*Rozhodnutí agentů o tom, zda budou či nebudou trestat, bude ovlivněno:
**aktuálním a historickém chování ostatních agentů (čím více ČP ve hře, tím spíše se agent rozhodne trestat -  pakliže už je sám ČP, bude jen málo ochotný trestat)
+
**chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne trestat -  pakliže už je sám ČP, bude jen málo ochotný trestat)
 +
**stavem z minulého kola
 +
**tolerancí k ČP
 +
**vlastním podváděním (černí pasažéři netrestají, možnost antisociálního trestání neexistuje)
  
 +
*Agent Revizora (pomocný agent, který realizuje trestání) má následující možná nastavení:
 +
**bez paměti - kontroluje agenty na náhodném umístění
 +
**s přesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole a kontroluje přednostně tyto agenty
 +
**s nepřesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole, ale kontroluje přednostně oblasti, ve kterých se nalezení ČP vyskytovali. V tomto módu lze nastavit jak velká oblast okolo nalezeného ČP se bude kontrolovat (nepřesnost paměti) a jak důkladně kontrola proběhne (kolik bude kontrol v jedné oblasti)
  
'''Co se bude sledovat:'''
 
*Vývoj modelu při různých parametrech.
 
*Zda se dá na základě PGG s nepřesným trestáním vysvětlit relativně stálý výskyt ČP v MHD.
 
  
'''Jaké výsledky očekávám:'''
+
'''Cílem práce je porovnat takový model s realitou, zjistit slabá/silná místa takového modelu, zanalyzovat chování agentů za různých nastavení a ověřit aplikovatelnost těchto zjištění zpět do reality.'''
*ČP nikdy nevymizí.
 
*Největší vliv bude mít práce revizorů (kvalita trestání) - tedy jaké území pokryjí kontrolou (pokud se budou soustředit pouze na určité oblasti [metro] tak bude efekt nižší)
 

Latest revision as of 11:21, 19 May 2013

Multiagentní simulace ne/platících cestujících MHD skrze kostru PPGwP

// Zkratky

ČP - Černý pasažér

PP - Platící pasažér

MHD - Městská hromadná doprava

PPG(wp) - Public Good Game (with Punishment)

//

Popis struktury modelu

Agenti budou "hrát" modifikaci PGGwP aplikovanou na problém černých pasažérů. Návaznost PGGwP na reálnou situaci ČP v MHD vidím následovnou:

  • Jedna se o veřejnou 'službu', kterou využívají všichni (platící i neplatící) a všichni z ní mají stejný užitek. Tato vlastnost je obdobná v laboratorní hře i v realitě.
  • Výplata z PGG se dá ve realitě chápat jako získání užitku z využité služby (všichni mají z použití MHD stejný užitek - přesun z bodu A do bodu B v určitém čase a v určité kvalitě). Poníženi užitku(výplaty) při nárůstu počtu ČP se dá chápat jako zpomaleni dopravy (přeplněné MHD, více kontrol revizory) nebo zhoršení kvality dopravy (nejsou peníze na údržbu vozů).
  • Koeficient násobení veřejného konta bude nastaven jako konstanta 2. Agenti v modelu nejednají za primárním účelem maximalizovat zisk a navíc je rozhodnutí o placení pouze binární (zaplatí/nezaplatí), nelze tedy agenty motivovat k vyšším příspěvkům. Hodnota majetku je zde pouze pro účely porovnávání strategií a efektivity nastaví simulace. Koeficient je tedy potřeba mít > 1, aby mohli být zisky kladné a větší koeficienty pouze snižují škody způsobené ČP. Při množství agentů v simulaci je nežádoucí, jelikož by nebyl jejich nárůst tak dobře vidět v grafech.
  • Trestáni je v simulaci placeno agenty - v realitě tento vztah nejde přímo vidět. Můžeme ho ovšem chápat jako ochotu agentů snížit svůj užitek za účelem zvýšení šance na potrestání ČP. Majetek agentu ze kterého se 'platí' tresty koneckonců nejsou jen peníze, ale i užitek získaný používáním MHD - např. časová úspora nebo pohodlí - investice do trestání může být brána jako ochota agentů podstoupit vice kontrol revizorem.


Předpoklady

  • Budu uvažovat o MHD v Praze. Čistě z důvodů nedostupnějším informacím.
  • Data o chování ČP a informací pro rozhodovací výpočty budu čerpat zejména z prací 123.


Charakteristiky agentů:

  • Agenti můžou nabýt dvou stavů - CP a PP. Můžou mezi nimi přecházet.
  • Rozhodnutí agentů o tom, zda budou či nebudou CP, bude ovlivněno:
    • stavem z minulého kola,
    • chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne být taky ČP),
    • cenou jízdenky a velikostí trestu (oboje jsou "veřejné" informace)
    • zaznamenanou aktivitou revizora (čím více kontrol ve svém okolí agent zaznamenal, tím spíše bude PP)
    • vlastní zkušeností s podváděním z minulého kola (jestliže agent [úspěšně podváděl, bude spíše podvádět znova)
    • šancí na dopadení revizorem
  • Rozhodnutí agentů o tom, zda budou či nebudou trestat, bude ovlivněno:
    • chováním ostatních agentů v tomto kole (čím více ČP ve hře, tím spíše se agent rozhodne trestat - pakliže už je sám ČP, bude jen málo ochotný trestat)
    • stavem z minulého kola
    • tolerancí k ČP
    • vlastním podváděním (černí pasažéři netrestají, možnost antisociálního trestání neexistuje)
  • Agent Revizora (pomocný agent, který realizuje trestání) má následující možná nastavení:
    • bez paměti - kontroluje agenty na náhodném umístění
    • s přesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole a kontroluje přednostně tyto agenty
    • s nepřesnou pamětí - udržuje si v paměti ČP nalezené v minulém kole, ale kontroluje přednostně oblasti, ve kterých se nalezení ČP vyskytovali. V tomto módu lze nastavit jak velká oblast okolo nalezeného ČP se bude kontrolovat (nepřesnost paměti) a jak důkladně kontrola proběhne (kolik bude kontrol v jedné oblasti)


Cílem práce je porovnat takový model s realitou, zjistit slabá/silná místa takového modelu, zanalyzovat chování agentů za různých nastavení a ověřit aplikovatelnost těchto zjištění zpět do reality.