Simulera mera!

Under våren har jag haft förmånen att undervisa en doktorandkurs i nationalekonomisk metodologi. Kursen har huvudsakligen byggt på gästföreläsningar och vid en av dessa var filosofen Till Grüne-Yanhoff på besök och pratade bland annat om varför nationalekonomer inte simulerar mera.

Med simulering avses här framförallt så kallad agent-baserad modellering där man i datorn bygger virtuella världar som man befolkar med en stor mängd heterogena agenter med olika slags preferenser, tillgång till olika information och som kanske använder olika tumregler för att fatta beslut. Dessa agenter låter man sedan interagera med varandra. På detta vis försöker man bygga upp alternativa världar som speglar verkligheten så bra som möjligt.

Ett område där sådana modeller har använts är när det gäller tillgångsprissättning, vilket gör det möjligt att studera frågor som är svåra att studera i vanliga ekonomiska modeller, till exempel under vilka villkor agenterna har rationella förväntningar. Ett annat område där det förefaller användbart är evolutionär spelteori. Vanligtvis fokuserar man inom evolutionär spelteori på ”väluppfostrade” inlärningsregler  som är möjliga att karaktärisera teoretiskt, men med hjälp av simulering skulle man förstås kunna studera en betydligt större mängd inlärningsregler och interaktionen mellan dessa (ett exempel är den här artikeln av Jens Josephsson).

I en artikel i Philosophy of Science ställdes för ett par år sedan frågan varför nationalekonomer inte ägnar sig mer åt simulering än de gör. Ett vanligt svar från nationalekonomer är att simuleringar är en ”svart låda” där det är svårt att utreda vad den underliggande mekanismen bakom ett visst resultat är. Till skillnad från verkligheten tillåter dock modellvärldar hejdlöst experimenterande och det borde därför vara möjligt att med ganska god precision utreda de underliggande orsakssambanden i modellen.

Artikelförfattarna argumenterar därför för att nationalekonomers motstånd nog egentligen snarare beror på att simuleringar helt enkelt avviker för mycket från nationalekonomers våta dröm, den ”perfekta modellen”, som är relativt enkel och där slutsatserna logiskt kan härledas från antaganden, gärna ackompanjerad av ett vackert formellt bevis. Motståndet beror alltså inte på att det är något principellt fel med simuleringar, utan snarare att det handlar om ett estetiskt-pedagogiskt motstånd från nationalekonomers sida.

I vanlig ordning är jag förespråkare för en mångfald av metoder snarare än att försöka läggga alla ägg i samma korg (som nationalekonomer ofta tenderar att göra när det gäller teori). I mina ögon framstår simulering som en vettig metod som nationalekonomer förmodligen borde ägna lite mer uppmärksamhet.

Comments

  1. Tommy Löfgren says:

    Jag tror att det största problemet är att nationalekonomer inte behärskar tekniker för datasimulering. Om det förekom samarbete mellan ekonomer och dataprogrammerare skulle nog fler gärna pröva på en sådan metod.

    • Jonas Vlachos says:

      En plausibel hypotes Tommy men du glömmer att ekonomers tekniska färdigheter är endogena. Anledningen till att ekonomer inte kan tekniken (eller odlar samarbete med dem som kan) är helt enkelt att avkastningen på investeringen bedöms vara för låg.

      • Tommy Löfgren says:

        Men hur kan ekonomer anse att avkastningen är för låg när antalet simuleringsstudier fortfarande är begränsade? Vad baseras en sådan, direkt eller indirekt, bedömning på när tillämpbarheten fortfarande är utforskad? Kanhända är det mänsklig riskaversion som hindrar snarare än ett metodologiskt ställningstagande.

      • Tommy Löfgren says:

        Outforskad, inte ”utforskad”, ska det stå.

      • Tommy, ”avkastningen” på att ägna sig åt sådant här beror inte bara på vilka ”objektiva” resultat och insikter man får fram, utan hur man bedöms av kollegor etc (avkastningen är alltså också endogen, för att använda Jonas språkbruk). Nationalekonomer är skeptiska till simulering som metod och man kommer möta mycket motstånd i publiceringsprocessen om man ägnar sig åt det (se Erik Mohlins kommentar nedan). Jag misstänker att det ofta krävs att någon ledande företrädare för ämnet ger sig in på ett nytt ”kontroversiellt” område och blir en aktiv förespråkare för metoden, gärna tillsammans med ett gäng duktiga doktorander. På så sätt kan gradvis metoden vinna genomslag inom nationalekonomi.

        Sen finns naturligtvis en möjlighet att det helt enkelt görs lite simuleringar för att det rent objektivt kommer ha låg avkastning, dvs det är en metod som inte kommer lära oss så mycket nytt. Det förefaller dock som vi har extremt lite information att basera denna slutsats på eftersom så lite har gjorts, precis som du påpekar.

  2. Robert: Jag håller helt med om att det skulle vara intressant att se mer agentbaserad simulering (i den mening du avser). Inom makroekonomin verkar detta hittills endast ha skett i begränsad omfattning, t ex i studier av Peter Howitt.

    Tommy: Jag tror i likhet med Jonas att ekonomer skulle lära sig dessa tekniker om det ansågs viktigt. Att metoden har svårt att slå igenom beror nog snarare på att vi har en lång tradition av att utgå från marknadsklarering och jämviktsvillkor (med eller utan friktioner och imperfektioner på marknaderna). Dessa villkor används som en del av lösningsmetoden (till skillnad från i den agentbaserade simuleringen, om jag har förstått den metoden korrekt).

  3. Erik Mohlin says:

    En annan intressant simulationsstudie: http://www.sciencedirect.com/science/article/B6V8F-3VW1DFC-4/2/93ec086e24fa50a0dcc00ac87bc6dfdc

    Av en händelse talade jag idag med en kollega (inte den länkade) som bekände att det tog honom 9 år att få sin simuleringstudie publicerad.

    Synd tycker jag

  4. Per-Olof Persson says:

    ”Att metoden har svårt att slå igenom beror nog snarare på att vi har en lång tradition av att utgå från marknadsklarering och jämviktsvillkor…..”

    Tyvärr är marknadsjämvikt en missuppfattning om hur verligheten ser ut. Marknader är aldrig i jämvikt och ska inte vara i jämvikt. Det sker ständiga förändringar som gör att marknader aldrig kan vara i jämvikt. Dessa förändringar måste tillåtas om ekonomin inte ska stagnera.

    I verkligheten är marknader hela tiden på väg mot jämvikt. Men de kan aldrig uppnå jämvikt. Det som är viktigt är att processen för att uppnå jämvikt. Det är denna process som ska studeras.

    Det är processen mot marknadsjämvikt som är idealet. Idealet är inte att marknader är i jämvikt eftersom detta förutsätter att inga förändringar sker och att inga förändringar ska ske. Politiska beslut bör därför inte försvåra processen mot marknadsjämvikt.

    • Jag tror det är ganska vanligt att marknader är i jämvikt i bemärkelsen att utbud och efterfrågan möts utan att särskilt mycket går till spillo. Men på något övergripande plan har du förstås rätt, ekonomin är ständigt föränderlig och kanske inte alltid är riktigt i jämvikt (åtminstone inte i en statisk dito). Huruvida marknader allmänt bäst förstås som jämviktsstillstånd eller inte är ett exempel på en frågeställning man borde kunna ställa med hjälp av simuleringar och som vi ekonomer vanligtvis antar bort genom att fokusera på jämvikt.

  5. Olle Jansson says:

    Grundad teori grundad på en datorsimulerad metod – Låter som ett bra sätt att R2-maximera i alla fall.

  6. AndersY says:

    Som praktiserande simulant (disputerat i beräkningsaerodynamik) är jag lite förvånad över att graden av simulering är så låg inom nationalekonomi. Som lekman känns det ändå som att datorsimuleringar borde ge en hel del, åtminstone som komplement, på samma sätt som inom naturvetenskap och teknik.
    Även inom mitt eget område har det funnits motsättningar ifrån traditionella teoretiska och experimentella strömningsmekaniker mot numeriska datorsimuleringar, men det brukar alltid vara några som vill testa något nytt, så det borde väl även ske inom nationalekonomi.

    Däremot är tyvärr andelen dataloger inom simulering, enligt min erfarenhet, väldigt låg. De kan i regel ämnesområdet som skall simuleras för dåligt, för att det skall ge något, även om det i många fall vore bra med mer input ifrån det hållet också. Så det blir nog mer upp till den intresserade med goda ämneskunskaper att lära sig lite programmering och numerisk analys. Halvtaskiga programmeringskunskaper kan man klara sig långt med, men utan numerikkunskaper kan det bli hur fel som helst. Dock kanske mindre känsligt inom multiagent-simulering.

    Någon gång kring mitten av 90-talet så var jag på en konferens på PDC-KTH (ParallelDatorCentrum), där någon ifrån ett skotskt universitet presenterade en multiagent-simulering av trafikflödet i och kring en stor stad. Förarna och bilarna hade givits ett antal olika egenskaper, som benägenhet att smita före, trängas, söka genvägar, krocka, etc. och sedan infördes lite olika störningar och vägomläggningar för att se hur det påverkade trafikflödet och olycksstatistiken. Det här har jag fått uppfattningen om är ganska vanligt inom trafikforskning/planering och något liknande borde väl även kunna ge intressant kunskap inom nationalekonomi?

  7. Danne Mikula says:

    Förra veckan kunde man bevista en konferens för ”mikrosimulerare” i Stockholm. Den var anordnad inom IMA (http://www.microsimulation.org/) och värden var SCB. En del intressanta ekonomiska papper fanns med. Ett typiskt exempel är ”optimal taxation” för en heterogen befolkning. Sverige har en lång tradition av mikrosimulering för policy-arbete men sofistikeringsgraden är inte så hög som ni kanske förväntar er. Fasit-modellen är en arbetshäst som spottat siffror sedan länge (skrivet i SAS, ”språket” som får även den mest luttrade datalog att kippa efter luft av andnöd). Pensionsreformen har gjorts med en dynamisk simuleringsmodell som har sitt ursprung från mitten av 1970-talet (den kör jag själv i C++ och skriver på dess ersättare). Sedan finns SESIM från början av 2000-talet (också en pensionsfärdig mikromodell som behöver omskrivning från ej längre uppdateringsbar MS VisualBasic). Det är relativt ovanligt med beteendeekvationer eller optimerande aktörer. Oftast drivs dessa modeller av logistiska regressionsekvationer. Det finns ett gäng i Kanada som är förälskade i kontinuerlig tid och därmed duktiga på intensitetsregressioner och händelse-köer. Jag ska inte trötta ut er med alla exempel … Vill jag rekommendera någon att arbeta med det eftersom jag arbetar i gemet?… Nja…. Jorå, metoderna är fantastiska och härbärgerar stora möjligheter. Det man inte ska underskatta är dock mängden av hantverk som krävs, mängden av dataknådning, datatvätt och förståelse av regelsystemen. Det är inget för uppsatsskrivande, knappt för doktorsavhandling om snabb karriär i siktet. Det kräver uppbackning av större institutioner som kan finna användning av modellerna i sin dagliga verksamhet. Med allt detta är det inte sagt att mikrobaserade ansatser kan vara framkomlig väg i de fall uppgiften är begränsad och data tillhandahållet på ett aptitligt sätt. Speciellt med de nya språken som lämpar sig för prototyping. De kan erbjuda något mer agila miljöer för modellexperiment. Jag har stött bl.a. både på R (från CRAN) och Phyton (bl.a. ett intressant projekt från Belgien ”Liam2”).
    (kuriösa: Nästa konferens för IMA är i Australien, dec 2013)

Trackbacks

  1. […] Det finns också ett fåtal ekonomer som ägnar sig åt agent-baserad simulering (som jag skrivit om tidigare), vilket innebär ett stort steg bort från rationella förväntningar (och många andra rigida […]

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Google-foto

Du kommenterar med ditt Google-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s