Sommarskola om signaleringsteori

Hur kan en person, mottagaren, avgöra om en annan person, avsändaren, säger, eller på andra sätt kommunicerar, något som är sant i situationer när avsändaren kan ha anledning att ljuga? Och omvänt, hur kan avsändaren göra för att övertyga mottagaren att han kommunicerar sanningen (vare sig han gör det eller inte)? Dessa fundamentala frågor är centrala inom så kallad signaleringsteori (som var en central del av forskningen som belönades med 2001 års ekonomipris till George Akerlof, Michael Spence, och Joseph Stiglitz; se Michael Spence artikel från 1973 om ”job-market signaling” här och hans Nobelföreläsning här).

Signaleringsteori är också temat för European Science Days 2010, en sommarskola i Steyr, Österrike, mellan 11 och 15 juli för forskarstuderande och post-docs. Årets sommarskola organiseras av Diego Gambetta (vars bok om signaler i den undervärlden jag skrev om här i förra veckan) och kommer att handla om signaleringsteori och dess applikationer inom ekonomi, statsvetenskap, sociologi, antropologi och biologi.

Skulle jag kunna så skulle jag själv vilja delta. Sista ansökningsdag 31 mars. Sök.

Koder i den undre världen

Snabba Cash och maffiafilmer i all ära men den som verkligen vill lära sig något om  hur den undre världen fungerar ska läsa Diego Gambettas forskning. Diego Gambetta är sociolog verksam vid universitetet i Oxford. I hans senaste bok Codes of the Underworld studerar han hur kriminella indikerar sina intentioner och hittar kumpaner i situationer där öppen kommunikation inte är ett alternativ.

Antag att man, som George Fallows, vill mörda sin fru och letar efter någon som kan utföra dådet, eller att man, som i fallet med den oheliga alliansen av kriminella från Rom och sicilianska och kalabriska mafiosi, kommit över radioaktivt material som man vill sälja, då är alternativet att sätta ut en annons inte gångbar. Istället handlar det om att hitta en lämplig partner utan att avslöja vad man har i görningen, då den man kommer i kontakt med i själva verket kan vara en lagens väktare (något både George Fallows och de italienska gangstrarna fick erfara).

I sådana situationer blir bra signaler nyckeln till framgång. Dessa signaler kan handla om kläder och språkbruk men endast dessa är, som Gambetta visar, inte mycket värda då de är lätta att imitera (förutsatt förstås att de som skapat t ex klädkoden inte lägger ner stor möda på att straffa dem som klär sig på ett sätt som bara är ok för de invigda). Då är vilka man umgås med, var man hänger på dagarna och mer permanenta ”märken” som t ex tatueringar bättre signaler. Information om vad som gäller är förstås viktig för polis och andra som önskar infiltrera kriminella organisationer. Exemplet Joseph Pistone, FBI-agenten som framgångsrikt infiltrerade två maffiafamiljer i New York under namnet Donnie Brasco, är ett bra exempel på hur man framgångsrikt kan använda förståelse för hur man bygger trovärdighet (men också på hur mycket som krävs för att göra det). Det i och för sig fiktiva, men fullt realistiska exemplet, Jerry Lundegaard (spelad av William Macy) i filmen Fargo illustrerar hur det kan gå när man inte kan koderna.

Precis som i hans tidigare fantastiska studie om den sicilianska maffian visar  Gambetta på ett övertygande sätt hur rationell analys kan fördjupa vår förståelse och hitta mönster där andra endast ser mystiska ritualer och och oförklarliga beteenden. Han gör det dessutom på ett fantastiskt underhållande sätt och med ett minimum av jargong. Mycket läsvärt och varmt rekommenderat.

Mördande radio

Att propaganda kan påverka människors beteende är säkert de flesta överens om. Däremot är kunskapen om mera exakt hur viktig propagandan är inte alltid den bästa. I en fascinerande artikel skriven av David YanagizawaIIES vid Stockholm Universitet studeras just detta i kontexten av folkmordet i Rwanda 1994.

Mera specifikt studerar David vilken effekt den hatpropaganda som spreds av den ökända radiostationen Radio Télévision Libre des Milles Collins (RTML) hade på omfattningen av våldet. Studien utnyttjar på ett genialt sätt det faktum att Rwanda är väldigt kuperat. Detta gör att det inom enskilda ”kommuner” finns allt ifrån byar som har full radiotäckning till byar som ligger i total radioskugga. Då denna variation är ”slumpmässig” kan man studera den kausala effekten av radiopropagandan på dödandets omfattning. (Kausala i bemärkelsen att svara på den kontrafaktiska frågan: ”Vad skulle, i snitt, ha hänt i byar som de facto inte hade radiotäckning, om de istället hade haft radiotäckning, allt annat lika?” Jämför också med den studie av Melissa Dell som jag skrev om förra veckan som använder en liknande strategi).

Resultaten är häpnadsväckande. David finner att våldet i byar med full radiotäckning ökade med runt 70 procent jämfört med byar som inte hade radiotäckning alls. I ett försök att översätta vilken effekt radiopropagandan hade på folkmordet totalt sätt kommer han fram till att den kan sägas vara ansvarig för cirka 45 000 döda (vilket motsvarar ungefär 9 procent av dess totala omfattning).

Läs hela studien här.

Ps. Denna studie var Davids ”job-market paper” och resulterade (tillsammans med hans övriga meriter) i ett jobb på Harvard Kennedy School of Government. Han är därmed förmodligen den första nationalekonom med doktorstitel från Stockholm som fått jobb på Harvard. Bra gjort och stort grattis!

Tänk att vara Melissa Dell

Ekonomistas har varit sparsmakade med idolporträtt. Det närmaste vi kommit är nog Roberts inlägg om Roland Fryer för snart två år sedan. Men i en tid då alltför många betraktar ”Idol-Jocke”, Robinson-Laila” (eller var det också ”Idol-Laila”?) och Paradise Hotel-Bosse” som de ultimata förebilderna känns det både bra och angeläget att lansera ett alternativ; Melissa Dell, doktorand i nationalekonomi vid MIT.

Melissa Dell kommer ursprungligen från Enid, Oklahoma. (Inte någon av de mer centrala delarna ens av Oklahoma. Hennes morfar heter Bobbeye Buck. Jag vet; det är inte alls relevant, men medge att det ändå ger en bild av hennes hemort). Det faktum att hennes high school inte präglades av att studenter hade ambitionen att söka sig till Harvard (vilket Melissa Dell gjorde och kom in) ledde till att hon grundade organisationen ”College Matters” och skrev en bok med samma namn i syfte att hjälpa studenter från icke-akademisk bakgrund att söka sig till högre utbildning. Inkomsterna från boken går till en stipendiefond riktad till just denna grupp av studenter.

Efter att, som en del av sin magisteruppsats, ha utvärderat ett mikrokreditprojekt i Peru blev hon inspirerad att bidra även inom detta område och grundade ”A Drop in the Ocean” (ADITO). ADITO är en icke-vinstdrivande organisation som hjälper mikrokreditprojekt med rådgivning och utvärdering.

Rent akademiskt har Melissa redan två publikationer (”Productivity Differences Within and Between Countries med Daron Acemoglu, och ”Temperature and Income: Reconciling New Cross-Sectional and Panel Estimates med Ben Olken och Ben Jones) men framförallt en egen artikel, som kommit långt i processen att accepteras för publicering i Econometrica, om de långsiktiga effekterna av ”Mita”-lagar i Peru. Helt kort handlar det om att Spanien under perioden 1523 och 1812 hade lagstiftning som krävde att vissa områden skulle skicka en sjundedel av sin manliga vuxna befolkning till gruvorna som arbetskraft. Genom att utnyttja det faktum att ”allt annat observerbart” var lika på båda sidor om gränsen (väldigt nära gränsen) mellan områden som omfattades av Mita-lagarna och områden som inte omfattades studerar hon vilken effekt dessa lagar kommit att ha på den långsiktiga utvecklingen (så kallad ”regressionsdiskontinuitetsanalys”). Resultatet är att dessa Mita-regioner fortfarande är betydligt fattigare och mer isolerade än områden som inte omfattades av Mita-lagarna. Artikeln innehåller mycket intressant och ifrågasätter också delvis en mycket inflytelserik hypotes om vilken effekt maktkoncentration haft på institutionell utveckling i Sydamerika (en tes som lanserats i flera artiklar av Stan Engermann och Ken Sokoloff).

Nämnde jag att föresten att Melissa Dell också pysslar med ultramaraton löpning och figurerat på Sports Illustrateds A-list och Glamour Magazines lista över USAs top 10 collage female role models…?

Mer om naturresursers effekt på utveckling

Artiklar som handlar om hur naturresurser påverkar ekonomisk och politisk utveckling väcker alltid mitt intresse. Gissningsvis beror detta mycket på att jag själv studerat denna fråga (och som jag skrivit om här). Huvudresultatet i en artikel jag skrivit tillsammans med Anne Boschini och Jan Pettersson är att effekten av naturresurser beror på institutionell kvalitet och på vilken typ av resurser ett land har. Om landet har dåliga institutioner så är naturresurseffekten negativ, men om institutionerna är tillräckligt bra så är effekten positiv. Denna effekt är olika stark beroende på typ av resurs; om landet har olja eller metaller så är problemen extra stora om institutionerna är dåliga (men också extra värdefulla om institutionerna är tillräckligt bra). Om landet istället har t ex jordbruksprodukter så är inte effekterna — varken de negativa eller positiva — lika tydliga.

I en ny artikel av Oeindrila Dube och Juan Vargas illustreras en specifik mekanism för exakt hur olika typer av resurser kan ha olika effekter på konfliktbenägenhet i ett land (och genom detta förstås på både politisk och ekonomisk utveckling). Mera precist så jämför de hur prisfluktuationer på olja respektive kaffe påverkar sannolikheten för väpnade konflikter i olika regioner i Colombia. Det visar sig att prisuppgångar på olja ökar konfliktbenägenheten i oljeregioner, men däremot minskar konfliktbenägenheten i kafferegioner när priset på kaffe går upp. Förklaringen är att det finns två effekter som verkar i olika riktning. En prisuppgång leder å ena sidan till att det blir mera värt att kontrollera resursen, vilket ökar konfliktbenägenheten. Samtidigt leder prisuppgången till att lönerna för personer som arbetar med resursen ökar, vilket gör att alternativkostnaden för att ägna sig åt konflikten ökar, vilket gör att konfliktbenägenheten minskar. Eftersom kaffeproduktion är arbetskraftsintensiv så dominerar den konfliktdämpande löneeffekten för denna resurs, medan värdeökningen av den kapitalintensiva oljeresursen istället resulterar i mera konflikt.

Det räcker inte att randomisera

I en väldigt läsvärd artikel av Angus Deaton formuleras en svidande kritik mot övertron på vilka generella insikter som kan genereras genom ”randomisering”. Sannolikt måste man vara, typ, Angus Deaton både för att kunna och våga formulera sig som han gör givet hur samstämmiga alla tycks vara kring randomiseringens förträfflighet jämfört med alla andra tänkbara ansatser. På ekonomistas har vi skrivit hur många inlägg som helst om resultat från sådana studier, (t ex här, här, här, här, här, här, och här, och det finns många till). Man kan till och med säga att det nästan är svårt att hitta välpublicerade akademiska studier om utvärdering av bistånd eller annan policy som inte använder sig av experiment i någon form (konstruerade eller ”naturliga”).

Huvudpoängen med randomisering är enkel. Vi vill veta svaret på den kontrafaktiska frågan: ”Vad skulle hända med en person eller grupp om de verkade under andra omständigheter än de som nu råder?” (t ex; skulle barn lära sig mer i skolan om lärartätheten var större?). Problemet är att vi inte kan observera samma personer både med och utan en viss policy samtidigt (vi kan inte observera samma barn samtidigt med hög respektive låg lärartäthet). Alternativet att jämföra mellan grupper (t ex skolor med fler lärare och skolor med färre lärare) är att det kan finnas andra skillnader mellan dem (eleverna i skolor med hög lärartäthet kan vara systematiskt annorlunda än dem i skolor med låg lärartäthet) och att det är dessa skillnader, inte policyn (lärartätheten), som förklarar eventuella skillnader i utfall. Huvudpoängen med vanlig regressionsanalys kan sägas vara att försöka kontrollera just för sådana skillnader genom att inkludera variabler som fångar just sådana andra skillnader. Det finns dock en rad problem med detta och även om man kan lösa många av dessa så finns alltid problemet med ”icke-observerbar heterogenitet”. Genom att slumpmässigt implementera en policy för vissa (slumpmässigt höja lärartätheten i hälften av skolorna) kan vi försäkra oss om att den förväntade skillnaden mellan grupperna i alla avseenden, utom policyn självt, är noll (utöver lärartäthet så är skolorna och dess elever i snitt exakt lika). Detta gör i sin tur att vi kan säga att förändringar i genomsnittliga utfall mellan grupperna måste ha orsakats av policyn (eftersom vi genom randomiseringen försäkrat oss om att inget annat skiljer grupperna åt innan policyn införs).

I många situationer och för många frågeställningar detta en fantastisk ansats. Om frågan i en utvärderingssituation är: Har en viss policyförändring orsakat ett visst utfall? så är detta sätt att tänka oslagbart. Det tycker nog även Angus Deaton. Han är däremot kritisk mot en rad saker. Jag kan inte göra alla hans argument och invändningar rättvisa (läs hans artikel!) men följande saker uppfattar jag som centrala:

1) Experiment sker alltid i en viss kontext. Om man inte förstår kontextens roll för resultaten så får man problem med resultatens generaliserbarhet, d v s deras ”externa validitet”. (Denna poäng illustreras i ett tidigare inlägg av Jonas där det konstateras att nivågruppering verkar ha fungerat i Kenya men det betyder inte att det skulle funka i Sverige).

2) Alltför mycket fokus ligger på att förstå om någonting fungerar och alltför lite på varför det fungerar. Han anser att experimenterandet för att vara till verklig nytta måste kombineras med teori där mekanismer preciseras (något som tidigare poängterats av t ex Heckman och Smith, 1995)

3) Slutligen finns problemet att ”experimentvurmen” leder till att bara frågor som kan studeras med denna ansats anses vara ”riktiga forskningsfrågor”. I många fall vore det nog bra om tågordningen var 1)”är detta en viktig fråga?”; 2) ”hur studerar vi den på bästa sätt?” (om med experiment så toppen), istället för 1) ”finns det ett experiment eller någon sorts randomisering här?” 2a) om ”ja”, kör (oavsett vad saken gäller) 2b) om ”nej”, sök vidare efter en situation där det finns det”. Trots sina förtjänster så är inte experimenterande det enda sättet att studera samhället och framförallt så intar inte experiment någon särställning som det ”bästa sättet” att studera viktiga frågor. (Han hänvisar här framförallt till Nancy Cartwrights arbeten som (åtminstone delvis) kan läsas på hennes hemsida här).

Men är ändå inte Deaton överdrivet kritisk? Jo, möjligen, men givet maktbalansen inom professionen tycker jag att han kan få vara det. Dessutom tar han upp viktiga frågor som det inte skadar att diskutera mer.

Ps. En annan bra artikel på ämnet är Dani Rodrik’s ”We shall experiment, but how should we learn

Maktens kausala effekt på korruption och hyckleri

Att personer i maktställning ibland missbrukar denna för egen vinning är inget nytt. Inte heller det faktum att sådant maktmissbruk kan gå hand i hand med offentliga uttalanden om vikten av att inte bete sig ”omoraliskt”. Vissa skulle till och med säga att just denna kombination av fusk och skenhelighet är kännetecknande för personer med mycket makt (det är t ex tesen i boken ”Political hypocrisy: The mask of power, from Hobbes to Orwell and beyond” av David Runciman).

Denna uppfattning får stöd i ny forskning av Adam Galinsky och hans medförfattare Joris Lammers och Diedrik Stapel som är under publicering i Psycological Science. I fem olika experiment lyckas de på ett finurligt sätt visa en rad intressanta saker. Genom att slumpmässigt försätta personer i situationer där de ”har makt” alternativt ”inte har makt” och sedan låta dessa utföra uppgifter som inte på något sätt relaterar till denna maktposition, men där det i ett fall finns möjligheter att fuska och i ett annat fall handlar om att svara på frågor om ”moraliskt uppförande” finner de intressanta skillnader mellan grupperna. Det visar sig att de som är i en maktposition uppvisar den skenheliga kombinationen av att både fuska mer än dem utan makt, samtidigt som de ställer högre krav på sin omgivnings oklanderliga agerande.

Givet dessa resultat går de sedan vidare och testar skillnader mellan en grupp där individerna fås att tycka att de hamnat i en maktposition för att de förtjänat den, och en annan grupp andra där personerna i stället lockas att uppfatta sin situation som en där de oförtjänt har makt (alternativt helt rättvist hamnat i en position utan makt). Resultaten är i dessa fall att personerna som uppfattar sin maktposition som rättmätig blir ännu hårdare i bedömningen av sin omgivning medan de inte verkar tycka att motsvarande beteende från deras egna sida är så farligt. För dem som istället uppfattar sin position som oförtjänt tycks istället ställa högre krav på sig själv medan de inte tycker att andras dåliga beteende är så farligt.

Deras resultat tyder alltså på att det finns en förstärkande effekt till en redan ojämlik fördelning av makt (som förstås kan tolkas som en relation som kan finns i en rad olika situationer). De som redan har makt tar sig inte bara större friheter utan verkar också tycka att detta är som det ska vara, samtidigt som de signalerar att andra i deras omgivning ska ”hålla igen”. De som inte har makt agerar däremot på ett sätt där de ytterligare begränsar sig samtidigt som de är mer förlåtande till andras maktmissbruk.

(Se The Economist’s artikel om denna forskning här).

Varifrån kommer tillit?

Att tillit och förtroende människor emellan är viktigt för att ett samhälle ska fungera ifrågasätter nog ingen. Massor av forskning har också pekat på värdet av det som ofta kallas socialt kapital för ekonomisk och institutionell utveckling. Kenneth Arrow uttrycker det så här i en studie från början av 1970-talet:

…virtually every commercial transaction has within itself an element of trust, certainly any transaction conducted over time. It can plausibly be argued that much of economic backwardness in the world can be explained by the lack of mutual confidence.

På senare år har många studier funnit ett positivt samband mellan tillit och diverse önskvärda utfall — både ekonomiska och andra — och forskare som Robert Putnam och Francis Fukuyama har populäriserat många insikter om hur viktigt det är att vi har förtroende för varandra i samhället. Även i Nobelpristagaren Elinor Ostrom forskning är (som bekant för Ekonomistas läsare) socialt kapital centralt .

Men hur kommer det sig att man i vissa samhällen litar på varandra medan man inte gör det i andra? I ett nytt, mycket kreativt och intressant papper av Ruben Durante från Brown University presenteras en möjlig kanal som också visar sig ha empiriskt stöd.

Rubens grundidé är mycket enkel och intuitiv: om väderförhållandena i en förindustriell kontext är sådana att den lokala vädervariationen är stor så finns anledning att försöka dela risken för att få en dålig skörd med sina grannar. Om vädret istället är stabilt så finns inte denna speciella anledning att samarbeta och bygga upp tillit till varandra. (Notera att det inte handlar om ”nivån” på vädret i allmänhet, alltså om det generellt är varmt eller kallt, utan om just de lokala fluktuationerna).

Genom att använda förvånansvärt detaljerad data om vädervariation under perioden 1500-1900 och länka denna till hur individer i dag svarar på frågor om i vilken mån man kan lita på folk, lyckas han på ett övertygande sätt visa att regional variation inom Europa i graden av tillit till viss del kan härledas till en ökad risk för variation i skörden innan industrialiseringen. Coolt va!

Hur oljeinkomster (inte) översätts till välfärd

En av de intressantaste presentationerna som jag såg på den nyss avslutade AEA konferensen, som i år hölls i Atlanta (med en sedvanligt imponerande bredd) var av artikeln ”Do Oil Windfalls Improve Living Standards? Evidence from Brazil”. I den studerar Francesco Caselli och Guy Michaels, båda från LSE, den variation i kommunala intäkter som kommer ifrån oljeinkomster. På ett övertygande sätt argumenterar de för att de oljefyndigheter som med början runt 1970 kommit att spela en allt viktigare roll för vissa kommuners intäkter i allt väsentligt kan ses som slumpmässigt fördelade mellan kommuner. Vissa kommuner råkar ha olja, andra har det inte, och denna förekomst har ingen systematisk koppling till andra egenskaper hos kommunen. De visar också att off-shoreoljeindustrins karaktär gör att den inte heller har några betydande spridningseffekter på den lokala ekonomin annat än genom de skatter som statliga Petrobras betalar till kommunerna, och inte heller har migrationsmönster någon relation till oljeförekomsten. Sammantaget gör detta att de kan identifiera de kausala effekterna av variationer i oljeinkomster mellan kommuner på välfärden för kommunernas medborgare.

Är det då bra eller dåligt för en kommuns befolkning att få dessa extra inkomster? Vid en första anblick verkar det onekligen bra. Inte oväntat ökar kommunernas intäkter när oljepriset går upp eller mängden olja som utvinns ökar. Men frågan är förstås: Vad gör de med pengarna? Ja, ser man till de olika budgetposterna tycks en knapp tredjedel i snitt gå till posten ”Utbildning och kultur”, ”Hälsa” och ”Boende” får cirka tio procent av intäkterna och ”Kommunala transporter” får ytterligare sju procent. Den del som inte används stämmer nästa exakt överens med de budget överskott som uppvisas de studerade åren.

Stannar man här så ser allt alltså bra ut. Intäkterna ökar och inga pengar tycks försvinna utan allt är prydligt redovisat på utgiftssidan. Problemet är bara att när man börjar titta på kvalitén på offentlig service och på olika sätt försöker mäta välfärdsutfall mer direkt (genom att t.ex. titta på förbättringar av infrastruktur, kvalitén på kommunala bostäder, andel av befolkning som bor i s.k. ”favelas” (slumområden), antal lärare per elev, antal sjukhus platser, etc.) så hittar man inga positiva effekter!

Så vart tar pengarna vägen? Som så ofta i dessa sammanhang så är det svårt att veta men Caselli och Michaels presenterar några slående resultat som i alla fall ger indikationer. De finner t. ex. att medan inget händer med kvalitén på offentlig service så ökar den genomsnittliga storleken på de kommunalanställdas boende signifikant i oljerika kommuner. De gör också en rad Google sökningar på nyheter om korruption som är kopplade till borgmästare och på antalet federala polisutredningar som innehåller liknande sökord och konstaterar att sådana dyker upp betydligt oftare i kommuner med betydande oljeinkomster än på annat håll.

Den generella lärdomen är att det inte räcker med att se till att pengar redovisas på ett korrekt sätt, man måste även följa upp att pengar verkligen används på ett bra sätt. Något att tänka på i t. ex biståndssammanhang.

Hur ska vi värdera vår framtid?

Ekonomers angreppssätt till mycket här i världen kokar i grund och botten ner till en enkel princip: Resurser ska användas på ett sådant sätt att man får så mycket som möjligt för dem. I den i dagarna högaktuella klimatfrågan betyder det att vi bör väga de kostnader som är förknippade med diverse åtgärder och omställningar mot de framtida (och mycket osäkra) konsekvenserna av att göra olika mycket nu.

Så långt är de flesta överens men när detta ska omsättas i praktiken börjar konflikterna dyka upp. Förutom uppenbara skillnader i de direkta kostnaderna så finns olika uppfattningar om i vilken mån vi ska diskontera framtiden och i så fall hur mycket. Nicolas Stern, författare av Stern-rapporten, har till exempel blivit kritiserad för att han inte diskonterat framtiden alls, det vill säga han har lagt lika stor vikt vid framtida utfall som vid kostnader idag. Han har gått på den linje som Frank Ramsey uttryckte i sin artikel ”A Mathematical Theory of Saving” (Economic Journal 38, (1928), ss 543-9): diskonterandet av framtida utfall är ”ethically indefensible and arise merely from the weakness of the imagination”. Detta håller inte t ex William Nordhaus med om. Han menar att det inte finns någon anledning att behandla frågan om diskontering annorlunda i detta sammanhang än i andra och att i en ekonomi där framtida generationer förväntas vara rikare än dagens så finns det inget ”etiskt” med att inte också vikta ner deras ”behov” av de resurser som spenderas idag. (Det finns mycket förvirring kring om vi pratar pengar eller nytta men det är en annan och längre diskussion).

En av de intressantaste diskussionerna i klimatfrågan handlar i mitt tycke om hur vi ska hantera sannolikheten för extrema utfall. Harvardekonomen Martin Weitzman har skrivit mycket om detta. Hans grundargument är, förenklat uttryckt, att det finns stor anledning att tro att sannolikheten för extremt negativa utfall inte kan negligeras. Den är positiv (om än liten) och inte som i nuvarande modeller sådan att den går mot noll så fort att dessa utfall i praktiken inte påverkar beräkningarna. Detta betyder att det finns anledning att även ta i beaktande framtida utfall där vår värdering av dem går mot minus oändligheten, vilket i sin tur betyder att vår betalningsvillja för att undvika sådana utfall är hög (strikt sett hur hög som helst).

I tekniska termer handlar detta om tjockleken av fördelningsfunktionens svansar. I de flesta nu använda modellerna är de ”thin tailed”, medan Weitzman har goda argument för att de borde vara ”fat tailed” (se t ex sid 8 och framåt i hans artikel här). Eftersom osäkerheten inte bara handlar om utfallet givet en viss känd fördelningsfunktion utan det, så att säga, finns osäkerhet om osäkerheten så får den resulterande fördelningsfunktionen ”tjocka svansar”. Det handlar således inte bara om att olika personer kan ha olika uppfattningar om vilken funktion som är den rätta utan att just denna osäkerhet resulterar i att den funktion som resulterar av en procedur av att ta förväntningar över förväntningar får större vikt över mer extrema utfall. (Den intresserade kan läsa Weitzmans kritik av Stern rapporten här, några av hans artiklar om extrema utfall och dess policy-implikationer här och här, Nordhaus kritik mot detta här, och Weitzmans svar här).

Detta resonemang handlar inte bara om hur vi ska väga kostnader idag mot olika mer eller mindre goda utfall i framtiden. Det handlar om hur mycket vi är villiga att betala (eller snarare försaka i konsumtionstermer) idag för att försäkra oss mot ett extremt dåligt framtida utfall. Och givet att det handlar om några procentenheter av vår nuvarande konsumtion mot att riskera att jorden blir obebolig så är det svårt att se annat än att en sådan försäkring skulle vara en god idé.

Slutligen vill jag påminna om Tage Danielssons monolog om sannolikhet som faktiskt kan sägas komma ganska nära en del av Martin Weitzmans resonemang. Inte bokstavligt talat, men med lite fantasi. Lyssna och betänk…