Gen Agents Project

  • Published on
    05-Jul-2015

  • View
    352

  • Download
    0

Embed Size (px)

DESCRIPTION

GenAgents un ambiente di simulazione sviluppato dallautore per lo studio delle dinamiche di evoluzione dei comportamenti cooperativi in sistemi sociali artificiali a razionalit limitata. Lambiente permette di riprodurre almeno in parte la complessit sistemica delle dinamiche di relazione tra diversi gruppi di agenti artificiali. Gli agenti, appartenenti a clan o famiglie con diverse strategie di relazione, si muovono ed interagiscono spazialmente mettendo in atto le loro logiche di relazione.

Transcript

  • 1. GenAgentsStoria evolutiva di un progetto di ricerca sulle dinamiche dei comportamenti cooperativi Gino Martorelli ginomartorelli@virgilio.itwww.learning-path.it GenAgents un ambiente di simulazione sviluppato dallautore per lo studio delle dinamiche di evoluzione dei comportamenti cooperativi in sistemi sociali artificiali a razionalit limitata.Lambiente permette di riprodurre almeno in parte la complessit sistemica delle dinamiche di relazione tra diversi gruppi di agenti artificiali. Gli agenti, appartenenti a clan o famiglie con diverse strategie di relazione, si muovono ed interagiscono spazialmente mettendo in atto le loro logiche di relazione.

2. PrologoDue prigionieri sono rinchiusi in celle distinte e separate. Al mattino verranno interrogati dalla polizia che sta indagando proprio su un crimine che hanno commesso insieme. Entrambi sanno che se tacciono (cooperano) saranno scarcerati in quanto la polizia, senza una confessione e con scarsissime prove, potr accertare nulla o poco a loro carico.I poliziotti decidono di introdurre un fattore di squilibrio in questo sistema, qualcosa che rompa la simmetria di una situazione vantaggiosa: se uno dei due tradisce (defeziona) dando informazioni preziose sul complice, avr garantita limpunit. Non solo, sar liberato con una buona ricompensa, mentre il complice ricever il massimo della pena per il crimine contestato ed in pi dovr pagare una pesante pena in denaro. Se entrambi decideranno di confessare (defezionare lun laltro) e di denunciare il crimine, otterranno invece il massimo della pena, senza dover pagare la multa in denaro.Indicando con Pr. A e Pr. B i due prigionieri, con C e D rispettivamente le azioni di cooperazione e defezione, e sostituendo gli anni di carcere con dei punteggi, possiamo rappresentare la situazione attraverso una tabella di payoff generica valida per tutte le situazioni simili: Pr. BC D Pr. A C Mutua cooperazione 5 punti Figura dello stupido -3 puntiD Tentazione 10 puntiMutua defezione 0 puntiCosa faranno dunque i prigionieri? Tradiranno o decideranno di cooperare?Stando ai presupposti dovrebbero cooperare. Tenere la bocca chiusa e riacquistare la libert, sembra essere la soluzione pi logica per entrambi. Durante la notte per ciascuno inizia a riflettere e a chiedersi se e quanto pu fidarsi della lealt dellaltro. La ricompensa per il tradimento (defezione) costituisce una tentazione troppo forte per entrambi. Ciascuno sa che laltro sta pensando esattamente la stessa cosa al riguardo. Entrambi dunque decidono di parlare e denunciare laltro. In questo modo, sanno di ottenere la pena per il crimine commesso, ma almeno eviteranno di fare la parte degli stupidi ed in pi non dovranno pagare una pena in denaro.Quella che sembrava la soluzione pi logica, si trasformata in una prospettiva da evitare, portando i due prigionieri allesito in fondo meno conveniente per entrambi: il massimo della pena per il crimine commesso.La situazione narrata in questo episodio, nota nella teoria dei giochi come dilemma del prigioniero, piuttosto dura ed estrema. Eppure, nella nostra vita quotidiana, in politica, nelle transazioni commerciali, nei rapporti affettivi ed interpersonali, la struttura di base dello scenario delineato, il rapporto cio tra cooperazione e sfiducia, emerge spesso in modo pi prepotente e subdolo di quanto non si possa pensare. 3. In quali condizioni e perch alcuni organismi, in natura come in societ, decidono di cooperare, di defezionare o di rifiutare una relazione con altri organismi?Questa la domanda che molti ricercatori, di discipline a volte radicalmente diverse e lontane come la biologia, leconomia, la fisica, la filosofia e la cibernetica, si sono posti per diversi decenni cercando di delineare dei modelli esplicativi e previsionali.Sul finire degli anni settanta Robert Axelrod, un politologo della Universit del Michigan da molto tempo impegnato negli studi sulla cooperazione, inizi ad organizzare sul proprio calcolatore degli strani tornei tra automi deterministici capaci di giocare iterativamente al dilemma del prigioniero. Ciascun automa aveva una propria strategia di gioco, alcuni defezionavano sistematicamente, altri iniziavano cooperando quindi rispondevano pan per focaccia (Tit for Tat) ad ogni tradimento per poi tornare a cooperare in situazioni di cooperazione, altri ancora prendevano decisioni in funzione della storia passata in qualche modo memorizzata.In poco tempo furono sviluppati ben quattordici tipi di automi, ciascuno con una strategia diversa, ma il sistema nel suo insieme risultava comunque piuttosto rigido. Data una tabella di regole, o di payoff, lesito complessivo dei tornei era spesso piuttosto scontato, anche in situazioni di iterazione prolungata. La strategia dellautoma Tit for Tat risult la migliore, riuscendo ad avere la meglio in quasi tutti gli scenari di partenza.Nella maggior parte delle simulazioni effettuate da diversi autori la tabella di payoff rimane invariata e costituisce un vincolo piuttosto forte alla evoluzione del sistema nel suo insieme. Inoltre, la popolazione di automi resta anchessa invariata durante le interazioni, limitandosi spesso a conteggiare per un certo periodo o numero di iterazioni i punteggi totali guadagnati o persi da ciascun automa o da ciascuna sottopopolazione di automi. La domande che potremmo iniziare a porci dunque sono: i) Cosa accadrebbe in una societ virtuale, composta di agenti virtuali in grado dimuoversi e di interagire spazialmente in modo preferenziale? ii) Cosa accadrebbe se facessi in modo che il clan di agenti vincenti in un dato istante potessero cambiare le regole di partenza della tabella di payoff? iii) Quale evoluzione seguirebbe il sistema se introducessi un principio di vita, di morte e riproduzione, per ciascun agente, in funzione dei punteggi di fitness guadagnati in ciascuna iterazione ed in funzione del grado di somiglianza con degli agenti archetipo? iv) In quali condizioni dinamiche potrei osservare lemergenza di nuove strategie e di nuovi ordini sociali?Sulla scia della tradizione di ricerca iniziata da Axelrod, e portata avanti da diversi altri autori, GenAgents e' il tentativo di mettere in scena sistemi in grado di dare una risposta alle domande delineate sopra, un ambiente di simulazione dove pi agenti artificiali, appartenenti a famiglie con diverse strategie di relazione, si muovono ed interagiscono spazialmente mettendo in atto le loro logiche di relazione. 4. Il sistema, per i vincoli e le caratteristiche, in grado di mettere in scena le dinamiche di un ambiente a "razionalit limitata" (bounded rationality) e questo, di per s, sembra essere di buon augurio. Per ogni situazione problematica infatti c in genere un solo modo, o al pi pochissimi modi, di comportarsi secondo scelte perfettamente razionali. Esiste invece una infinit di modi diversi di comportarsi, in uno stesso scenario, mettendo in atto scelte quasi razionali o a razionalit limitata come lha definita Simon.INTRODUZIONE AL SISTEMA GENAGENTSGenAgents un ambiente di simulazione per lo studio di sistemi sociali artificiali a razionalit limitata. Lambiente permette di riprodurre almeno in parte la complessit sistemica delle dinamiche di relazione tra diversi gruppi di agenti artificiali. Gli agenti, appartenenti a clan o famiglie con diverse strategie di relazione, si muovono ed interagiscono spazialmente mettendo in atto le loro logiche di relazione.Ogni agente definito dal suo "codice genetico" digitale. I primi tre geni definiscono il movimento, nel quarto codificata la scelta relazionale attuata nell'ultimo incontro (memoria storica a breve termine), il quinto ed il sesto gene codificano la specie o clan di appartenenza. Dal settimo gene in poi la sequenza genetica libera e pu essere vista come l'identit dell'agente all'interno del suo clan. Ad ogni generazione, secondo una logica di tipo autopoietico (vedi lAppendice ed il paragrafo sulla dinamica del modello), dal pool genetico emerge un "individuo target" virtuale (un archetipo) il quale definisce due modelli: uno per la specie o clan uno per il tipo di relazione considerata adattiva per le generazioni successive A questo "individuo virtuale" possono corrispondere uno o pi individui "reali" della popolazione. Questo tuttavia non scontato, l'agente virtuale pu rappresentare il target, o l'archetipo a cui tende la popolazione al di l del fatto che ci sia un reale individuo il cui codice genetico sovrappone perfettamente il codice target. Sto lavorando affinch ogni clan possa fare riferimento ad un proprio modello archetipico. Questo dovrebbe rendere il sistema, in qualche modo, pi vicino alle reali situazioni che accadono in natura dove ogni gruppo (clan, specie ecc) in genere tende ad avere un proprio modello di riferimento, spesso diverso dagli altri modelli.Le modalit dinamiche di emergenza e la formalizzazione algoritmica del modello sono parzialmente descritte nel paragrafo sulla dinamica del modello (vedi sotto). 5. Ogni individuo interagisce con gli otto agenti che si trovano in corrispondenza del suo vicinato di Moore : Naturalmente non detto che ogni posizione del vicinato sia occupata da qualche agente. Ogni agente si "guarda intorno, prende atto di quanti e quali agenti sono presenti nel suo vicinato quindi interagisce con loro mettendo in atto le scelte relazionali (defezione, rifiuto, cooperazione) in funzione del clan di appartenenza, dell'agente che ha di fronte e delle logiche di relazione reciproche.Il fitness di ogni agente viene quindi calcolato sia in base alla sua somiglianza con i modelli emergenti "virtuali" (o archetipi) sia in base ai punteggi riportati nelle interazioni con gli agenti del suo vicinato.I punteggi riportati dagli agenti in ogni interazione, a loro volta, sono definiti nella tabella di regole o di payoff che, inizialmente, possibile caricare, creare e salvare prima di iniziare la simulazione. La tabella non resta immutata durante le