Hur stor är egentligen den svarta sektorn?

Häromdagen lyssnade jag på en intressant diskussion om skattemoral i SR P1:s Filosofiska rummet (programmet sändes 20/12-09). Bland annat avhandlades den svarta sektorns storlek och här uppstod en tydlig klyfta i bedömningen. Neos Sofia Nerbrand menade att Sverige ligger högt internationellt sett med en nivå på runt 20 procent av BNP medan Dalademokratens Göran Greider ifrågasatte Nerbrands siffra och hävdade att nivån är hälften så stor, 10 procent av BNP. Jag visste inte själv svaret och ville därför kolla upp det. Detta visade sig dock vara knepigare än befarat.

Det finns flera olika metoder att beräkna ett lands svarta sektor. En metod, den monetära metoden, utgår från antagandet att kontanter används oftare i den svarta sektorn varför man kan mäta storleken genom att observera kontanthanteringens relativa betydelse. Fördelen med denna monetära ansats är att den bygger på lättillgängliga penningmängdsdata vilket underlättar internationella jämförelser. Problemet är dock att metoden är väldigt känslig för antaganden om bl a penningefterfrågan.

Tysken Friedrich Schneider har i en rad studier använt den monetära metoden och har funnit att Sverige i början av 2000-talet hade en svart sektor på omkring 18-19 procent av BNP, strax över OECD-genomsnittet kring 17 procent (där Grekland ligger högst på 28 procent och USA lägst på 9 procent). Schneiders resultat har dock kritiserats. En studie av Riksbanken från 2004 visar att när samma metod men en annan (och troligtvis rimligare) efterfrågemodell används hamnar nivån i Sverige kring 6 procent. Även Skatteverket (2006, s 219) har uttryckt skepsis gentemot Schneiders siffror då de skiljer sig från andra uppskattningar och dessutom implicerar att nationalräkenskaperna skulle ha varit grovt missvisande under 1980- och 1990-talen, vilket ter sig tämligen orimligt.

De idag vanligaste metoderna (BNP– och disponibel inkomst-metoderna) bygger istället på uppskattningar utifrån nationalräkenskaperna. En tidig studie av Ingemar Hansson (1980) fann en nivå på 4-8 procent av BNI (dvs BNP justerat för internationella faktorinkomstflöden). På 1990-talet gjorde Riksrevisionsverket enkätstudier som visade på nivåer kring 6 procent av BNP. Skatteverkets beräkningar utifrån nationalräkenskaperna från 2006 ger vid handen en nivå kring 4,5 procent av BNP (se diskussion i Skattestatistisk årsbok för 2009, kapitel 10).

image

I den stora Skattebasutredningen (SOU 2002:47, kapitel 8, sid 297) sammanställdes en rad studier. Figuren ovan visar uppskattningar baserade på nationalräkenskapsmetoder mellan 1970 och 2000. Som synes har nivån sjunkit över tid för att idag ligger på 3-5 procent av BNP. Internationellt sett ligger Sverige i nivå med andra västländer; kring 1980 var den svarta sektorns BNP-andel 4 procent i Österrike, Danmark och Storbritannien men hela 18 procent i Italien (SOU 2002:47, sid 306).

Sammantaget är den bästa gissningen att Sveriges svarta sektor motsvarar ca 5 procent av BNP. Med andra ord verkar både Greider och Nerbrand haft en alltför negativ bild av det svenska skattesystemets effekter, även om de båda i sak inte nödvändigtvis hade fel eftersom bådas gissningar har stöd i tidigare beräkningar (i Nerbrands fall av Schneiders och i Greiders fall av nivån i Sverige på 1970-talet).

Är nationalekonomi en vetenskap?

Dagens Nyheter har låtit översätta en text av David Brooks som tidigare publicerats i New York Times. Originaltextens avslutning, ”at the end of Act V, economics will be realistic, but it will be an art, not a science”, har i den svenska översättningen formulerats som

I slutet av akt V blir nationalekonomin realistisk, men den kommer att höra hemma i humaniora, inte bland de exakta vetenskaperna.

Nationalekonomi är förstås ingen exakt vetenskap. Men nationalekonomi är och ska vara en samhällsvetenskap, inte humaniora.

Om att identifiera svåridentifierad diskriminering

Konstaterandet att individer i en grupp (kvinnor, invandrare, smålänningar, extremt smala personer, etc.)  i något sammanhang behandlas olika än en annan grupp betyder inte i sig att gruppen diskrimineras. Det kan mycket väl vara så att individer i gruppen faktiskt har egenskaper som på något sätt förklarar skillnaden. Att personer i en grupp till exempel i snitt har lägre lön än en annan kan bero på att de inte har samma kvalifikationer eller att de inte är lika ”produktiva” som personer i den andra gruppen. Seriösa studier av diskriminering försöker kontrollera för hur mycket av olikheterna i utfall som kan hänföras till sådana förklaringsfaktorer.

Nu finns det dock åtminstone två problem som de flesta av dessa studier lider av. För det första är det mycket sällan som en egenskap som ”produktivitet” kan bedömas helt objektivt. I till exempel en anställningssituation eller vid utvärderingar och försök att mäta hur bra någon gör sitt jobb så har bedömaren ofta ganska stora frihetsgrader. En klassisk studie i sammanhanget är Claudia Goldins och Cecilia Rouses studie av provspelningar för amerikanska symfoniorkestrar. Deras huvudresultat är att övergången från ”öppna” provspelningar, där bedömarna kan se den som uppträder, till ”blind auditions” där den spelade döljs bakom en skärm, ökar sannolikheten att en kvinna blir anställd. För det andra, så kan förväntningen om att bli diskriminerad leda till att man ändrar beteende. I orkesterexemplet skulle det till exempel kunna vara så att kvinnliga musiker väljer lättare stycken för att de förväntar sig (helt riktigt, som studien visar) att de kommer att bedömas hårdare och att dessa hänsynstaganden i slutändan påverkar deras prestation negativt (jämfört med om de inte behövde tänka på detta utan bara valde utifrån vad som faktiskt skulle passa bäst för dem).

I en ny studie, som precis accepterats för publicering i AER, har Daniel Hammermesh och några av hans medförfattare lyckats hitta en situation där båda dessa effekter kan adresseras. Genom att studera 3,524,624 kast (pitches) i den amerikanska baseball-ligan (Major League Baseball, MBL) och hålla koll på den etniska kompositionen av kastare-domare, typen av kast (straight over the plate, curve ball, etc), utfallet (strike eller ball), och en rad andra detaljer som kan vara av vikt för situationen finner de intressanta resultat kring båda aspekterna av diskriminering.

Dels visar de att när domare och kastare är av olika etnicitet så är sannolikheten att domaren bedömer kast som ogiltiga (snarare än ”strikes”) högre än om de är av samma etnicitet. Detta mönster är tydligast vid mindre välbesökta matcher och när domarnas bedömning inte övervakas av kameror (vid vissa matcher finns tydligen möjligheten att spela upp ett kast där någon part tycker att bedömningen varit felaktig). Men nästan ännu intressantare är att de också lyckas visa att spelare tycks agera som om de är medvetna om detta fenomen. De ändrar helt enkelt sitt spel i situationer där de förväntar sig att bli mer kritiskt bedömda. Kastare skiftar till att satsa mer på raka hårda kast som inte lämnar lika mycket utrymme för godtycke från domarens sida. Detta är dock ett drag som gör att de tycks prestera sämre än om de varierar sitt spel ”som vanligt”. Lärdomarna för studier av diskriminering borde vara uppenbara.

Sommarskola om signaleringsteori

Hur kan en person, mottagaren, avgöra om en annan person, avsändaren, säger, eller på andra sätt kommunicerar, något som är sant i situationer när avsändaren kan ha anledning att ljuga? Och omvänt, hur kan avsändaren göra för att övertyga mottagaren att han kommunicerar sanningen (vare sig han gör det eller inte)? Dessa fundamentala frågor är centrala inom så kallad signaleringsteori (som var en central del av forskningen som belönades med 2001 års ekonomipris till George Akerlof, Michael Spence, och Joseph Stiglitz; se Michael Spence artikel från 1973 om ”job-market signaling” här och hans Nobelföreläsning här).

Signaleringsteori är också temat för European Science Days 2010, en sommarskola i Steyr, Österrike, mellan 11 och 15 juli för forskarstuderande och post-docs. Årets sommarskola organiseras av Diego Gambetta (vars bok om signaler i den undervärlden jag skrev om här i förra veckan) och kommer att handla om signaleringsteori och dess applikationer inom ekonomi, statsvetenskap, sociologi, antropologi och biologi.

Skulle jag kunna så skulle jag själv vilja delta. Sista ansökningsdag 31 mars. Sök.

Koder i den undre världen

Snabba Cash och maffiafilmer i all ära men den som verkligen vill lära sig något om  hur den undre världen fungerar ska läsa Diego Gambettas forskning. Diego Gambetta är sociolog verksam vid universitetet i Oxford. I hans senaste bok Codes of the Underworld studerar han hur kriminella indikerar sina intentioner och hittar kumpaner i situationer där öppen kommunikation inte är ett alternativ.

Antag att man, som George Fallows, vill mörda sin fru och letar efter någon som kan utföra dådet, eller att man, som i fallet med den oheliga alliansen av kriminella från Rom och sicilianska och kalabriska mafiosi, kommit över radioaktivt material som man vill sälja, då är alternativet att sätta ut en annons inte gångbar. Istället handlar det om att hitta en lämplig partner utan att avslöja vad man har i görningen, då den man kommer i kontakt med i själva verket kan vara en lagens väktare (något både George Fallows och de italienska gangstrarna fick erfara).

I sådana situationer blir bra signaler nyckeln till framgång. Dessa signaler kan handla om kläder och språkbruk men endast dessa är, som Gambetta visar, inte mycket värda då de är lätta att imitera (förutsatt förstås att de som skapat t ex klädkoden inte lägger ner stor möda på att straffa dem som klär sig på ett sätt som bara är ok för de invigda). Då är vilka man umgås med, var man hänger på dagarna och mer permanenta ”märken” som t ex tatueringar bättre signaler. Information om vad som gäller är förstås viktig för polis och andra som önskar infiltrera kriminella organisationer. Exemplet Joseph Pistone, FBI-agenten som framgångsrikt infiltrerade två maffiafamiljer i New York under namnet Donnie Brasco, är ett bra exempel på hur man framgångsrikt kan använda förståelse för hur man bygger trovärdighet (men också på hur mycket som krävs för att göra det). Det i och för sig fiktiva, men fullt realistiska exemplet, Jerry Lundegaard (spelad av William Macy) i filmen Fargo illustrerar hur det kan gå när man inte kan koderna.

Precis som i hans tidigare fantastiska studie om den sicilianska maffian visar  Gambetta på ett övertygande sätt hur rationell analys kan fördjupa vår förståelse och hitta mönster där andra endast ser mystiska ritualer och och oförklarliga beteenden. Han gör det dessutom på ett fantastiskt underhållande sätt och med ett minimum av jargong. Mycket läsvärt och varmt rekommenderat.

Det räcker inte att randomisera

I en väldigt läsvärd artikel av Angus Deaton formuleras en svidande kritik mot övertron på vilka generella insikter som kan genereras genom ”randomisering”. Sannolikt måste man vara, typ, Angus Deaton både för att kunna och våga formulera sig som han gör givet hur samstämmiga alla tycks vara kring randomiseringens förträfflighet jämfört med alla andra tänkbara ansatser. På ekonomistas har vi skrivit hur många inlägg som helst om resultat från sådana studier, (t ex här, här, här, här, här, här, och här, och det finns många till). Man kan till och med säga att det nästan är svårt att hitta välpublicerade akademiska studier om utvärdering av bistånd eller annan policy som inte använder sig av experiment i någon form (konstruerade eller ”naturliga”).

Huvudpoängen med randomisering är enkel. Vi vill veta svaret på den kontrafaktiska frågan: ”Vad skulle hända med en person eller grupp om de verkade under andra omständigheter än de som nu råder?” (t ex; skulle barn lära sig mer i skolan om lärartätheten var större?). Problemet är att vi inte kan observera samma personer både med och utan en viss policy samtidigt (vi kan inte observera samma barn samtidigt med hög respektive låg lärartäthet). Alternativet att jämföra mellan grupper (t ex skolor med fler lärare och skolor med färre lärare) är att det kan finnas andra skillnader mellan dem (eleverna i skolor med hög lärartäthet kan vara systematiskt annorlunda än dem i skolor med låg lärartäthet) och att det är dessa skillnader, inte policyn (lärartätheten), som förklarar eventuella skillnader i utfall. Huvudpoängen med vanlig regressionsanalys kan sägas vara att försöka kontrollera just för sådana skillnader genom att inkludera variabler som fångar just sådana andra skillnader. Det finns dock en rad problem med detta och även om man kan lösa många av dessa så finns alltid problemet med ”icke-observerbar heterogenitet”. Genom att slumpmässigt implementera en policy för vissa (slumpmässigt höja lärartätheten i hälften av skolorna) kan vi försäkra oss om att den förväntade skillnaden mellan grupperna i alla avseenden, utom policyn självt, är noll (utöver lärartäthet så är skolorna och dess elever i snitt exakt lika). Detta gör i sin tur att vi kan säga att förändringar i genomsnittliga utfall mellan grupperna måste ha orsakats av policyn (eftersom vi genom randomiseringen försäkrat oss om att inget annat skiljer grupperna åt innan policyn införs).

I många situationer och för många frågeställningar detta en fantastisk ansats. Om frågan i en utvärderingssituation är: Har en viss policyförändring orsakat ett visst utfall? så är detta sätt att tänka oslagbart. Det tycker nog även Angus Deaton. Han är däremot kritisk mot en rad saker. Jag kan inte göra alla hans argument och invändningar rättvisa (läs hans artikel!) men följande saker uppfattar jag som centrala:

1) Experiment sker alltid i en viss kontext. Om man inte förstår kontextens roll för resultaten så får man problem med resultatens generaliserbarhet, d v s deras ”externa validitet”. (Denna poäng illustreras i ett tidigare inlägg av Jonas där det konstateras att nivågruppering verkar ha fungerat i Kenya men det betyder inte att det skulle funka i Sverige).

2) Alltför mycket fokus ligger på att förstå om någonting fungerar och alltför lite på varför det fungerar. Han anser att experimenterandet för att vara till verklig nytta måste kombineras med teori där mekanismer preciseras (något som tidigare poängterats av t ex Heckman och Smith, 1995)

3) Slutligen finns problemet att ”experimentvurmen” leder till att bara frågor som kan studeras med denna ansats anses vara ”riktiga forskningsfrågor”. I många fall vore det nog bra om tågordningen var 1)”är detta en viktig fråga?”; 2) ”hur studerar vi den på bästa sätt?” (om med experiment så toppen), istället för 1) ”finns det ett experiment eller någon sorts randomisering här?” 2a) om ”ja”, kör (oavsett vad saken gäller) 2b) om ”nej”, sök vidare efter en situation där det finns det”. Trots sina förtjänster så är inte experimenterande det enda sättet att studera samhället och framförallt så intar inte experiment någon särställning som det ”bästa sättet” att studera viktiga frågor. (Han hänvisar här framförallt till Nancy Cartwrights arbeten som (åtminstone delvis) kan läsas på hennes hemsida här).

Men är ändå inte Deaton överdrivet kritisk? Jo, möjligen, men givet maktbalansen inom professionen tycker jag att han kan få vara det. Dessutom tar han upp viktiga frågor som det inte skadar att diskutera mer.

Ps. En annan bra artikel på ämnet är Dani Rodrik’s ”We shall experiment, but how should we learn

Varifrån kommer tillit?

Att tillit och förtroende människor emellan är viktigt för att ett samhälle ska fungera ifrågasätter nog ingen. Massor av forskning har också pekat på värdet av det som ofta kallas socialt kapital för ekonomisk och institutionell utveckling. Kenneth Arrow uttrycker det så här i en studie från början av 1970-talet:

…virtually every commercial transaction has within itself an element of trust, certainly any transaction conducted over time. It can plausibly be argued that much of economic backwardness in the world can be explained by the lack of mutual confidence.

På senare år har många studier funnit ett positivt samband mellan tillit och diverse önskvärda utfall — både ekonomiska och andra — och forskare som Robert Putnam och Francis Fukuyama har populäriserat många insikter om hur viktigt det är att vi har förtroende för varandra i samhället. Även i Nobelpristagaren Elinor Ostrom forskning är (som bekant för Ekonomistas läsare) socialt kapital centralt .

Men hur kommer det sig att man i vissa samhällen litar på varandra medan man inte gör det i andra? I ett nytt, mycket kreativt och intressant papper av Ruben Durante från Brown University presenteras en möjlig kanal som också visar sig ha empiriskt stöd.

Rubens grundidé är mycket enkel och intuitiv: om väderförhållandena i en förindustriell kontext är sådana att den lokala vädervariationen är stor så finns anledning att försöka dela risken för att få en dålig skörd med sina grannar. Om vädret istället är stabilt så finns inte denna speciella anledning att samarbeta och bygga upp tillit till varandra. (Notera att det inte handlar om ”nivån” på vädret i allmänhet, alltså om det generellt är varmt eller kallt, utan om just de lokala fluktuationerna).

Genom att använda förvånansvärt detaljerad data om vädervariation under perioden 1500-1900 och länka denna till hur individer i dag svarar på frågor om i vilken mån man kan lita på folk, lyckas han på ett övertygande sätt visa att regional variation inom Europa i graden av tillit till viss del kan härledas till en ökad risk för variation i skörden innan industrialiseringen. Coolt va!

Hur ska vi värdera vår framtid?

Ekonomers angreppssätt till mycket här i världen kokar i grund och botten ner till en enkel princip: Resurser ska användas på ett sådant sätt att man får så mycket som möjligt för dem. I den i dagarna högaktuella klimatfrågan betyder det att vi bör väga de kostnader som är förknippade med diverse åtgärder och omställningar mot de framtida (och mycket osäkra) konsekvenserna av att göra olika mycket nu.

Så långt är de flesta överens men när detta ska omsättas i praktiken börjar konflikterna dyka upp. Förutom uppenbara skillnader i de direkta kostnaderna så finns olika uppfattningar om i vilken mån vi ska diskontera framtiden och i så fall hur mycket. Nicolas Stern, författare av Stern-rapporten, har till exempel blivit kritiserad för att han inte diskonterat framtiden alls, det vill säga han har lagt lika stor vikt vid framtida utfall som vid kostnader idag. Han har gått på den linje som Frank Ramsey uttryckte i sin artikel ”A Mathematical Theory of Saving” (Economic Journal 38, (1928), ss 543-9): diskonterandet av framtida utfall är ”ethically indefensible and arise merely from the weakness of the imagination”. Detta håller inte t ex William Nordhaus med om. Han menar att det inte finns någon anledning att behandla frågan om diskontering annorlunda i detta sammanhang än i andra och att i en ekonomi där framtida generationer förväntas vara rikare än dagens så finns det inget ”etiskt” med att inte också vikta ner deras ”behov” av de resurser som spenderas idag. (Det finns mycket förvirring kring om vi pratar pengar eller nytta men det är en annan och längre diskussion).

En av de intressantaste diskussionerna i klimatfrågan handlar i mitt tycke om hur vi ska hantera sannolikheten för extrema utfall. Harvardekonomen Martin Weitzman har skrivit mycket om detta. Hans grundargument är, förenklat uttryckt, att det finns stor anledning att tro att sannolikheten för extremt negativa utfall inte kan negligeras. Den är positiv (om än liten) och inte som i nuvarande modeller sådan att den går mot noll så fort att dessa utfall i praktiken inte påverkar beräkningarna. Detta betyder att det finns anledning att även ta i beaktande framtida utfall där vår värdering av dem går mot minus oändligheten, vilket i sin tur betyder att vår betalningsvillja för att undvika sådana utfall är hög (strikt sett hur hög som helst).

I tekniska termer handlar detta om tjockleken av fördelningsfunktionens svansar. I de flesta nu använda modellerna är de ”thin tailed”, medan Weitzman har goda argument för att de borde vara ”fat tailed” (se t ex sid 8 och framåt i hans artikel här). Eftersom osäkerheten inte bara handlar om utfallet givet en viss känd fördelningsfunktion utan det, så att säga, finns osäkerhet om osäkerheten så får den resulterande fördelningsfunktionen ”tjocka svansar”. Det handlar således inte bara om att olika personer kan ha olika uppfattningar om vilken funktion som är den rätta utan att just denna osäkerhet resulterar i att den funktion som resulterar av en procedur av att ta förväntningar över förväntningar får större vikt över mer extrema utfall. (Den intresserade kan läsa Weitzmans kritik av Stern rapporten här, några av hans artiklar om extrema utfall och dess policy-implikationer här och här, Nordhaus kritik mot detta här, och Weitzmans svar här).

Detta resonemang handlar inte bara om hur vi ska väga kostnader idag mot olika mer eller mindre goda utfall i framtiden. Det handlar om hur mycket vi är villiga att betala (eller snarare försaka i konsumtionstermer) idag för att försäkra oss mot ett extremt dåligt framtida utfall. Och givet att det handlar om några procentenheter av vår nuvarande konsumtion mot att riskera att jorden blir obebolig så är det svårt att se annat än att en sådan försäkring skulle vara en god idé.

Slutligen vill jag påminna om Tage Danielssons monolog om sannolikhet som faktiskt kan sägas komma ganska nära en del av Martin Weitzmans resonemang. Inte bokstavligt talat, men med lite fantasi. Lyssna och betänk…

Sista ordet om F53?

Jag är för närvarande föräldraledig vilket tyvärr har inneburit färre inlägg på Ekonomistas, men också tillfälle att med hjälp av min ”metodologiske mentor” Fredrik Hansen reflektera över vad vi nationalekonomer egentligen håller på med. En bra utgångspunkt för sådana funderingar är Milton Friedmans essä ”The Methodology of Positive Economics” från 1953 (F53 som metodologerna kallar den). Däremot är det förmodligen skadligt om ens enda metodologiska skolning består i att läsa denna artikel, vilket jag tyvärr tror är fallet bland många nationalekonomer.

F53 skrevs som ett försvar för neoklassisk nationalekonomisk teori som redan då kritiserats för att vara alltför abstrakt och orealistisk. Det är lätt att dra en parallell till Faruk Gul och Wolfgang Pesendorfers ”The Case for Mindless Economics” som var ett mycket märkligt nutida försök att ”försvara standardteorin” genom att hävda att neuroekonomisk och beteendeekonomisk data inte är relevant för nationalekonomi. (Debatten som denna uppsats gav upphov till finns i en bok som kom ut förra året, men jag tror faktiskt att hela den debatten bör förpassas till den intellektuell kyrkogården.)

Friedman försöker hursomhelst ta udden av sin tids kritik av nationalekonomin genom att bland annat hävda att det inte spelar någon roll hur orealistiska modellantaganden är och att teorier skall bedömas efter de prediktioner som de genererar. Till exempel kanske en väldigt komplicerad matematisk optimeringsmodell på ett bra sätt kan förutsäga hur en professionell biljardspelare stöter en biljardkula, trots att biljardspelaren inte löser de komplicerade matematiska uttryck som ingår i modellen. Modellen kan alltså beskriva vad biljardspelaren gör som om (”as if”) han löste en komplicerad matematisk optimeringsmodell.

F53 för alltså fram en strikt instrumentalistisk syn på vetenskap. Modeller har vi bara för att generera prediktioner. En betydligt vanligare ståndpunkt — och i min mening betydligt vettigare — är att vi också har teorier för att förklara världen. Det är inte bara intressant att generera prediktioner, vi vill också förstå de bakomliggande orsakssambanden. Med denna syn är modellen om biljardspelaren inte godtagbar om den inte också kompletteras med en kausal mekanism som förklarar hur biljardspelaren kan bete sig som modellen. I exemplet med biljardspelaren är det rimligt att tänka sig biljardspelaren lärt sig spela optimalt genom upprepade försök och misstag. Utifrån detta perspektiv är mycket ekonomisk teori undermålig, vilket jag skrivit om tidigare. Till exempel har många modeller som bygger på så kallade rationella förväntningar (eller modellkonsistenta förväntningar) detta problem. (Det i min mening minst dåliga generella försvaret för rationella förväntningar om man övergivit F53:s instrumentalism är att det är svårt att veta vad man annars skulle anta.)

Det är många efter F53 som betonat just betydelsen av förklaringar i bemärkelsen kausala mekanismer. Bland annat har min intellektuelle idol Jon Elster framhållit detta i boken Explaining Social Behavior och i den läsvärda, men lite väl skeptiska, artikeln ”Excessive Ambitions”.

Friedman nämner inte något om kausala mekanismer i F53, men jag skulle misstänka att det finns anhängare som läser in detta i F53. En av de verkliga auktoriteterna när det gäller F53 är Uskali Mäki som har ägnat en stor del av sin forskarkarriär åt F53. I en nyutkommen bok om F53 skriver han i första kapitlet att F53 har ett väldigt rikt innehåll och föregriper många senare idéer inom vetenskapsteori, men också att den är ”obskyr, motsägelsefull och inkonsistent”. F53 innehåller enligt honom ”en samling motsägelsefulla och inkonsistenta ingredienser som kan fogas samman till en mängd olika metodologiska positioner”. För att demonstrera detta visar han i bokens tredje kapitel att det (nästan) går att läsa in en realistisk syn på vetenskap i F53.

Med tanke på hur vag och motsägelsefull F53 är och hur mycket dålig forskning den har legitimerat tycker jag helt enkelt börjar bli dags att sluta tjafsa om vad som står eller inte står i F53. En betydligt bättre utgångspunkt för fortsatta metodologiska diskussioner är Robert Sugdens utmärkta artikel ”Credible Worlds: The Status of Theoretical Models in Economics”. Sugden avfärdar F53:s instrumentalism, men också en naivt realistisk syn om att teorier är förenklingar av verkligheten.

Enligt Sugden bör nationalekonomiska teoretiska modeller ses som kontrafaktiska världar. De är snarare att betrakta som parallella universum än som abstraktioner av verkligheten. För att dessa parallella världar ska säga oss något om verkligheten måste vi ställa oss frågan om modellvärlden hade kunnat vara sann, d.v.s. om den är trovärdig i bemärkelsen att modellen belyser en mekanism som vi har goda skäl också kan vara verksam i verkligheten. Språnget från modellvärld till verklighet kräver att vi gör en induktiv inferens på samma sätt som när vi drar slutsatsen att ett fenomen som förekommer på ett par platser också  förekommer på andra liknande platser. Det kritiska här är alltså bedömningen av ”liknande” och om inferensen därmed är trovärdig. Sugden liknar detta vid hur vi bedömer trovärdigheten i filmer och romaner. Vi vet att det som händer i filmer och romaner inte är på riktigt, men vi vill ändå ofta att de ska vara realistiska, d.v.s. att det som skildras skulle kunna ha hänt i verkligheten.

Tyvärr är det inte lätt att sätta upp strikta kriterier för att bedöma en modells trovärdighet. Forskare från olika discipliner skulle säkerligen bedöma samma modells trovärdighet på olika vis, men det är kanske så det måste i vara inom samhällsvetenskaperna eftersom entydiga empiriska slutsatser ofta är svåra att dra.

Ett av Sugdens två exempel är Schellings modell för segregation som jag skrev om förra veckan. Schellings modell har inga tydliga testbara prediktioner och är samtidigt väldigt abstrakt och ”orealistisk”. Sugden menar att Schellings modell bör ses som en tänkbar värld som illustrerar en kausal mekanism — hur en svag preferens för att inte vara i liten minoritet leder till segregation — som skulle kunna operera i verkligheten. På samma sätt som vi induktivt sluter oss till att segregation förekommer i en storstad baserat på vår erfarenheter från andra storstäder, kan vi försöka sluta oss till vad som orsakar segregation i verkligheten utifrån modellen.

Hurpass trovärdig är då Sugdens modell för nationalekonomisk teoribildning? Innan du bestämmer dig om den saken rekommenderar jag starkt en genomläsning av Sugdens artikel. Det är nämligen inte lätt att göra Sugdens välskrivna och djupsinniga artikel rättvisa i ett blogginlägg som det här.

Intelligens gör dig vältränad!

Hoppas på högre IQ

Som alltid när någon studie rapporterar något om intelligens är media på hugget. Senast ut är ett forskarlag i Göteborg som hävdar att motion gör oss smartare (länk här). Min egen tolkning av resultaten är snarare att intelligenta personer  motionerar mer än dumma.

Fast egentligen har jag ingen aning. Och vad värre är:  det har inte forskarlaget i Göteborg heller. De har helt enkelt funnit en korrelation och som vi alla vet är korrelation inte samma sak som kausalitet.

Vad som är riktigt chockerande är att varken forskarna i Göteborg eller redaktörerna för den fina tidskriften PNAS verkar kännas vid denna uppenbara brist. Visst har de kontrollerat för en mängd bakgrundsvariabler, till och med jämfört tvillingar, men eftersom de jämförda tvllingarna både har olika intelligens och olika fysik så är det omöjligt att svara på vad som ger vad.

Till Göteborgarnas försvar kan sägas att de faktiskt redogör för en mekanism om hur motion skulle kunna påverka intelligensen. Finns det någon plausibel alternativ mekanism som skulle kunna ge upphov till den omvända kausaliteten? Tänk, tänk. Kanske intelligenta är är mer framåtblickande och uthålliga i sitt agarande sådär i största allmänhet. Det finns det faktiskt belägg för. Nog borde sådana egenskaper kunna få folk att motionera mer.

DN, Exp, BT, SVT,