Hannes Malmberg om Cervenkas bok ”Vad är pengar?”

Hannes Malmberg är doktorand i nationalekonomi vid Institutet för internationell ekonomi på Stockholms universistet och forskar främst inom makroekonomi. I det här gästinlägget recenserar han Andreas Cervenkas bok ”Vad är pengar?”

Andreas Cervenka har under finanskrisen trätt fram som en av Sveriges mer namnkunniga ekonomijournalister. Från sin plattform som kolumnist på SvD Näringsliv har han genom sina slagkraftiga texter om finanskrisen, bankerna och det monetära systemet gjort sig populär i breda kretsar. Bland annat vann Cervenka Sjunde AP-fondens stora journalistpris 2011.

I boken Vad är pengar? har Cervenka samlat några av sina bästa kolumner tillsammans med en inledande och avslutande essä. Kolumnerna är skrivna i Cervenkas underhållande stil. Rappt, humoristiskt och metaforrikt jobbar han sig igenom sina ämnen. Finansiell instabilitet, bankräddningar, pensionssystem, penningteori, eurokrisen, bankbonusar och demografiska förändringar behandlas på 171 sidor. [Read more…]

Mats Bergman: Sänk OH-påslagen till universiteten!

Det här är ett gästinlägg av Mats Bergman som är professor i nationalekonomi vid Södertörns högskola.

Liksom många andra verksamheter finansierar de svenska universiteten och högskolorna gemensamma kostnader – central förvaltning, bibliotek, reception m.m. – genom OH-påslag på medel som används för undervisning och forskning. Detta gäller för direkta statliga forskningsanslag liksom för medel från externa forskningsfinansiärer, som exempelvis Vetenskapsrådet och Riksbankens Jubileumsfond. Under många år fanns en etablerad princip att de senare inte betalade mer än högst 35 procent OH, medan universiteten själva fått besluta om vilket OH-påslag som ska belasta de direkta statliga medlen. [Read more…]

Stefan Fors: Blir vi sjuka av inkomstskillnader?

I det här gästinlägget recenserar Stefan Fors, forskare vid Ageing Research Center, Karolinska Institutet, den nyutkomna boken Blir vi sjuka av inkomstskillnader? En introduktion till sambanden mellan inkomst, ojämlikhet och hälsa (Studentlitteratur) som skrivits av Andreas Bergh, Therese Nilsson och Daniel Waldenström.

Det finns en skröna äldre sociologer brukar berätta för sina yngre kollegor som går ut på att ett amerikanskt universitet lyser ut en tjänst för en enarmad professor i sociologi. Anledningen till denna märkliga specifikation är dock inte, som man lätt skulle kunna tro, att universitetet tillämpar någon komplicerad form av positiv särbehandling av fysiskt handikappade. Formuleringen ska istället förstås som ett försök att slippa veliga sociologer som vägrar positionera sig (”on one hand […], on the other hand […]”).

[Read more…]

Per Krusell: Psykologi som förklaringsfaktor: en fallstudie

Det här är ett gästinlägg av Per Krusell, professor i nationalekonomi vid Institutet för internationell ekonomi på Stockholms universitet.

Många, med mig, har fortfarande 4-4-matchen på näthinnan. Jag såg den utomlands, på en bar i Bryssel. En helt fantastisk upplevelse. Så vad var det som egentligen hände på Olympiastadion i Berlin i tisdags?

Man vill ju förstå. Men rent allmänt också läsa om det hela, för att ”njuta kollektivt” om inte annat, speciellt jag som inte hade svenskar omkring mig just då. Så på vägen hem läste jag både Aftonbladet och Expressen, som båda hade ca 15 sidor BARA om matchen. Lägg till det att jag läst en hel del på nätet och sett och hört Anna Pohjonen som satt i en TV-soffa och pratade om matchen. Så när det gäller förståelsen, vad erbjöd all min läsning? [Read more…]

Tore Ellingsen: Ett reformförslag

Det här är ett gästinlägg av Tore Ellingsen, professor i nationalekonomi vid Handelshögskolan i Stockholm.

Under de senaste par åren har jag fått många frågor beträffande privat produktion av välfärdstjänster i Sverige. Bör man i större grad än nu hålla vinstintresset borta från vård, skola och omsorg? Eller bör man i stället uppmuntra privata aktörer att utöka sin verksamhet? Jag brukar undanglidande säga att teorin inte ger något glasklart svar, och att det kommer ta tid innan empirin går att tolka – bland annat därför att svenska reformer på området inte alls är utformade för att underlätta utvärdering.

Å, vilket tråkigt svar!

Så låt mig ställa en enklare fråga. – Vilken reform skulle jag föreslå för att förbättra den privata produktionen av välfärdstjänster? Här är min utgångspunkt: Det uppstår samhällsekonomiska förluster varje gång leverantören med det lägsta priset är konkurrenskraftig enbart därför att hon hittat ett smart sätt att undvika skatt. Vi bör därför ändra reglerna för offentlig upphandling så att upphandlaren inte beaktar enbart pris och kvalitet på den upphandlade tjänsten utan även de relevanta skattebetalningarna. Upphandlingsreglerna bör kort sagt utformas för att välja den leverantör som erbjuder det bästa paketet av pris, kvalitet, och offentliga finanser. För välfärdstjänster i kundvalssystem skulle på motsvarande sätt ersättningen till utföraren kunna betingas på utförarens skattebetalning.

Per Krusell: Gör inte teoretiska modeller till syndabock!

Det här är ett gästinlägg av Per Krusell, professor i nationalekonomi vid Institutet för internationell ekonomi på Stockholms universitet.

Lars Calmfors bidrog igår med en vettig och högst läsvärd DN-krönika om makroekonomers felbedömningar och oförmåga att förutspå finanskrisen 2007/8. Det är ett viktigt ämne. Jag vill ta upp en punkt som jag tycker är central utifrån forskningens perspektiv och där jag inte håller med Lars. Han skriver: 

En orsak till felbedömningarna var alltför stor tilltro till teoretiskt eleganta analysmodeller. Alltför liten vikt lades vid empiriska generaliseringar av tidigare ekonomisk-historiska erfarenheter av finansiella kriser som stod i strid med antaganden om rationellt beteende. Större kunskaper i doktrinhistoria hade förmodligen också hjälpt ekonomkåren till mer skepsis gentemot för tillfället dominerande synsätt.

Jag håller helt med om att man la för liten vikt vid kreditkanaler osv, samt att kunskaper om historia är viktiga och borde använts mer. Men:

1. Jag ser inte hur man skulle kunna dra slutsatsen att attributet ”teoretiskt elegant” har ett huvudansvar. Dels är det så att huvudmodellen som användes inte var teoretiskt elegant direkt, varför jag inte tror att det var något skäl alls. Det dominerande paradigmet i tillämpad (empirisk och teoretisk) makro var/är den nykeynesianska (NK) modellen. Den är inte huvudsakligen teoretiskt elegant—den har en våldsam mängd ekvationer och variabler osv. Men även om någon skulle anse att denna oerhört komplexa modell är teoretiskt elegant så ser jag inte varför just detta skulle vara problemet, speciellt eftersom det fanns modeller av denna typ som inkorporerade olika kreditmarknadsimperfektioner. Problemet, så här i efterhand, var istället att man inte la så stor vikt just vid dessa utvidgningar.

2. Jag frågade ca 2003 Ben Bernanke just varför han trodde att hans utvidgning av dessa modeller till att titta på kreditmarknadsimperfektioner inte hade slagit igenom så mycket (de fanns alltså inbyggda i många NK-modeller men spelade en underordnad roll). Detta faktum var i alla fall förbryllande för mig då. Han hade inget slagkraftigt svar och kanske tog han det som en kritik, fast det var menat tvärtom. Hursomhelst, det egentliga skälet var nog att man inte hittat så mycket evidens för denna kanal, snarare än att det gjorde modellen än mer komplex. Jag tror att ”problemet” kan delvis vara att bra data mest finns från efterkrigstiden, och dessutom att direkt evidens för kreditmarknadsproblem är svåra att ringa in; det krävs nog t ex data på företagsnivå, vilka inte kom förrän mycket senare.

3. Jag tror också att man hade missat en ”chock” i NK-modellen (som annars har en MASSA chocker, t o m i det nykeynesianer kallar sin medium-size-modell): en chock med ursprung på kreditmarknaden själv. Det är just det vi erfor i USA (även om det inte är glasklart kanske hur den uppstod, fast alla vet att det handlade om MBS och hur de var svåra att utvärdera, osv). Chocker som denna är svåra att förutspå. I en Bernanke-Gertler-Gilchrist-modell (kreditmarknadsutvidgad NK, som fanns redan före 2000) så kan en sån chock ha en stor effekt. Poängen man noterat tidigare var att kreditmarknadskanalen inte verkade förstärka ANDRA chocker så mycket (begränsad ”propagation” alltså), men då hade man missat att chocken kanske uppstod i just den sektorn.

Jag tyckte alltså över lag att Lars artikel var mycket bra, förutom just vad gäller det stycke jag citerar. Jag reagerar förstås på det stycket för jag känner mig lite ”träffad” av den typen av resonemang—som under och efter krisen ofta lagts fram i diskussioner och i tidningar. Det råkar vara så att jag har brukat och utvecklat teoretiska modeller under lång tid och därför kan mycket om dem. Samtidigt har jag aldrig tyckt om bokstavstroende på modeller eller vissa chocker eller mekanismer. Och jag har alltid känt mig väldigt orolig för att modellerna är ofullständiga eller fel (vad gäller allt möjligt, inklusive rationalitetsantagandet, vilket jag också jobbat med i min egen forskning).

Tanken med detta inlägg är förstås inte att komma med ett personligt försvarstal. Poängen, i stället, är just att understryka att det inte finns något inneboende problem i ansatsen att använda ekvationer och föra resonemang om makro—som ju är väldigt komplext—med matematiska modeller.  Ansatsen är inte dålig eller farlig i sig—åtminstone har jag aldrig sett tillstymmelsen till ett bra argument för att så skulle vara fallet. Istället är det så att denna ansats gör resonemangen tydliga. Det dunkelt sagda är det dunkelt tänkta heter det ju. Men jag skulle vilja lägga till att ibland är även det tydligt sagda det dunkelt tänkta: man kan övertygas av ett verbalt resonemang men när logiken skärskådas i efterhand framstår stora brister! Formalism är därför ett högst värdefullt sätt sätt att undvika felsteg.

Det är en separat poäng att bokstavstroende ALLTID är farligt, men oavsett om man följer en teoretisk modell eller ett doktrinhistoriabaserat resonemang. Och ska man fatta praktiska beslut är det förstås SJÄLVKLART att man måste gå utanför modellerna (och utanför andra förenklade resonemang)—man måste väga argument från olika modeller och resonemang mot varandra informellt.

Per Hortlund: Om att förutspå resultat i fotbolls-EM

Här följer ett gästinlägg av Per Hortlund, ekonomie doktor från Handelshögskolan, verksam som utredare vid Handelns Utredningsinstitut.

Många kommer säkert ihåg den lustiga situation som uppstod under fotbolls-EM 2004, då Sverige och Danmark skulle gå vidare från gruppspelet på Italiens bekostnad om bara matchen Sverige-Danmark slutade 2-2. Vilket också skedde. Det talades då om att matchen var uppgjord. De framsynta hade emellertid insett att även om matchen inte gjordes upp på förhand skulle matchen ändå sluta 2-2. Detta resultat var nämligen Nash-jämvikten i ett icke-kooperativt spel. Genom att tillämpa ekonomisk teori kunde man tjäna sig en hacka hos vadhållningsbyråerna.

På förunderligt vis upprepar sig nu exakt samma situation under EM 2012! Den den 18 juni spelar Spanien och Kroatien sista gruppspelsmatchen. Båda lagen går vidare, på Italiens bekostnad, om matchen dem emellan slutar 2-2. Precis som förra gången är det i förhandssnacket tal om uppgjorda matcher. Och precis som 2004 visar ekonomisk teori att Nash-jämvikten inträffar vid 2-2, även under icke-kooperativa förutsättningar. Nedan visas payoff-matrisen för matchen Spanien-Kroatien (under förutsättning att Italien slår Irland).

Nu är tiden att få lite praktisk nytta av lektionerna i spelteori. Resultatet 2-2 ger just nu 6 gånger pengarna hos Betsson. Förunderligt nog samma odds som förra gången.

Olle Folke och Johanna Rickne: Falsklarm om dyrköpt könskvotering

Detta är ett gästinlägg av Olle Folke, forskare i nationalekonomi vid Columbia University samt Institutet för Näringslivsforskning, och Johanna Rickne, forskare vid Institutet för Näringslivsforskning. I det här inlägget kritiserar de studien om effekterna av den norska könskvoteringen till bolagsstyrelser som den senaste tiden diskuterats livligt här på Ekonomistas, på andra bloggar och i medier.

Johanna Rickne

Johanna Rickne

Olle Folke

Olle Folke

Ibland läser man en studie där resultaten verkar osannolika utifrån ens egen uppfattning om världen. Den första reaktionen är då att titta närmare på om resultaten genererats av en trovärdig forskningsmetod. När vi läste Ekonomistas inlägg om kostnaden för könskvoteringen i norska bolagsstyrelser var vår reaktion just denna. Kan det verkligen vara så att den genomsnittliga inkvoterade kvinnan i en norsk bolagsstyrelse sänkte värdet på företaget med hela 20 procent? Detta kändes underligt av två anledningar. För det första hade vi hört från tidigare studier att kvinnorna som togs in ofta var släktingar och bekanta som inte förväntades delta i beslutsprocessen, vilket gjorde deras destruktiva effekt överraskande. För det andra har den stora debatten om styrelseledamöters löner (och kompetens) och företags värde ofta hävdat att lönerna är omotiverade i och med ledamöter endast har blygsamma effekter på företagsvärdet. Detta skapar frågan om hur, oavsett hur illa lämpade de nya styrelsekvinnorna var, de kunde förstöra sina företag så grundligt.

Oväntade, och i vår mening konstiga resultat, utgör knappast bevis för att en studie är felaktig, särskilt inte om de publiceras i en av de mest prestigefulla nationalekonomiska tidskrifterna. Men de utgör skäl att noga granska studiens metod. Efter att ha begrundat denna anser vi inte längre att det häpnadsväckande med studien är resultaten, utan snarare att en forskningsartikel med så pass stor brister i genomförandet kunde publiceras i en tidskrift som Quarterly Journal of Economics (QJE). Det är också tankeväckande att vissa av skribenterna på Ekonomistas inför publiceringen av Daniel Waldenströms inlägg – utan att själva ha läst studien – påpekade att metoden verkade lite vansklig, men att en publicering i QJE borde vara en garant för tillförlitlighet.

QJE-studien mäter andelen inkvoterade kvinnor genom att utgå ifrån hur stor andelen kvinnor var före kvoteringens införande. Eftersom kvoteringen ”tvingades på” företagen av den Norska staten var vissa företag tvungna att ta in många kvinnor, och vissa företag endast ett fåtal, för att möta lagen om 40 procent i styrelserna. Andelen kvinnor före kvoteringen blir alltså ett mått på hur många nya kvinnor företagen var tvungna att tillsätta. Vi kan likna denna strategi vid ett laboratorieexperiment där man vill studera effekten av onaturligt tillsatt östrogen på råttors hälsa. I utgångsläget har råttorna, av olika anledningar, naturligt varierande östrogennivåer. Forskaren tillsätter sedan östrogen tills alla har samma nivå. Genom att jämföra förhållandet mellan tillsatt östrogen och förändringen i hälsa skulle forskaren då kunna mäta effekten av onaturligt tillsatt östrogen.

För att den valda forskningsmetoden ska ge ett korrekt resultat måste vissa villkor vara uppfyllda. På ekonomspråk kallas dessa för ”oberoende” (indenpendence assumption) och ”exkluderbarhet” (exclusion restriction). Det första villkoret – oberoende – innebär att vi måste anta att den naturliga östrogennivån (andelen kvinnor) inte varierar systematiskt med förändringen i hälsa (förändring av företagets värde). Om till exempel en viss ras av råttor med naturligt lägre östrogennivåer också har större sannolikhet att utveckla vissa sjukdomar kan vi inte särskilja effekten av den initiala östrogennivån och det tillsatta hormonet. För de norska företagen är ett sådant antagande heroiskt. Det finns ett antal faktorer som kan förväntas påverka både den initiala andelen kvinnor i styrelsen och företagens värde, exempelvis företagskultur, kompetensen hos den sittande styrelsen, industri eller företagets ålder. Studien kan inte utesluta att sådana faktorer kan ha både varit negativa för styrelsens öppenhet, det vill säga andelen kvinnor, och utvecklingen av företagets värde.

För att uppfylla antagande nummer två om ”exkluderbarhet” krävs det att andelen kvinnor år 2002 endast påverkade företagets värde genom det antal nya kvinnliga styrelsemedlemmar som det gav upphov till. Det innebär att kvinnor i sig inte har någon påverkan på hur det går för ett företag, utan att det är bara är just inkvoterade kvinnor som har en påverkan. I vår liknelse med råttorna innebära att naturligt existerande östrogen inte skulle ha någon påverkan på råttans hälsa. Om däremot en hög naturlig östrogennivå skulle ge en lägre sannolikhet för att utveckla cancer senare i livet skulle detta antagande inte hålla, och studien skulle ge ett missvisande resultat när det gäller skadligheten av tillsatt östrogen. För de norska företagen kan vi starkt ifrågasätta antagandet att styrelsen sammansättning år 2002 helt saknade påverkan på företagets värde sex år senare. Bolagsstyrelser står ofta inför långsiktiga beslut. Skulle till exempel män och kvinnor prioritera långsiktiga och kortsiktiga vinster olika skulle detta antagande inte hålla. En standardlösning för denna typ av problematik hade kunnat vara att jämföra företagens värde med styrelsernas sammansättning över tid innan kvoteringen, vilket författarna inte gör.

Det finns sätt att bemöta dessa tveksamheter i forskningsmetoden. Ett vanligt är att jämföra företag som inte utsattes för kvotering med sådana som blev utsatta. Inom medicinen kallas detta för placebotest. Man jämför helt enkelt råttorna som behandlats med tillsatt östrogen med sådana som inte behandlats alls. På så sätt går det att utesluta att råttorna blev sjuka av det naturliga östrogenet, eller av faktorer som samvarierar med den naturliga nivån. De norska företagen jämförs de med företag i andra skandinaviska länder och i USA. För USA finner de ingen sämre utveckling av värdet av företag med en låg andel kvinnor år 2002 (alltså ett godkänt placebotest). För övriga Skandinavien finner de däremot att effekten var lika stor som i Norge. Obehandlade råttor blev alltså lika sjuka som de behandlade! Vanligtvis brukar dessa typer av misslyckade placebotest göra en vetenskaplig publicering omöjlig.

Om vi ska tro på studiens resultat måste vi alltså finna en rimlig förklaring till att Norges kvotering till bolagsstyrelser fick en större effekt på svenska än på norska företag. Författarnas förklaring till detta är att hotet om kvotering i övriga skandinaviska länder gjort att dess företag drabbades lika hårt som de norska. Lite hårdraget innebär det att svenska styrelser reagerade på de politiska diskussionerna om könskvotering med att fatta dåliga beslut. Alternativt måste vi tro att varje enskild kvinna som tagits in genom hotet om kvotering haft en ännu skadligare inverkan på företagen värde än varje enskild kvinna som togs in genom den faktiska kvoteringen i Norge.

Utöver dessa centrala problem med studiens metod finns även stora frågetecken kring vilka företag som studerats. Författarna har samlat in detaljerad information om styrelseledamöternas ålder, utbildning, etc. Men i och med att inte de kan få denna information för alla företag innefattas bara hälften av Norges börsnoterade bolag. När studien upprepas för samtliga företag finns varken en positiv eller negativ effekt av fler kvinnor på styrelseposter, vilket visats av Knut Nygaard.

I och med att forskningsmetoden inte gör det möjligt att ge resultat en kausal tolkning, vilket bevisats av författarna själva, och urvalet av företag är en stor problemkälla i studien, anser vi att den inte bör tas som ett trovärdigt belägg för effekt av könskvotering på industriföretags värde. Det blir därmed olämpligt att dra slutsatsen att ”Norges lag om könskvoterade börsstyrelser har varit synnerligen dyrköpt”, eller att uppmana svenska debattörer att fokusera på studien i QJE. Det finns i själva verket ett stort antal studier som funnit både positiva, negativa och nolleffekter för kvoteringen. Att jämföra dessa visar att metoden, urvalet av företag, måtten på företagets performance och vilka karaktäristika för styrelseledamöterna som tas i beaktande har stor betydelse för resultaten. Utifrån existerande forskning är det därför vanskligt att i dagsläget dra skarpa slutsatser när det gäller kvoteringens effekt. Även om man inte kan dra några skarpa slutsatser anser vi dock att det är viktigt att både fortätta forska på, och debattera, de potentiella konsekvenserna av kvotering, både positiva och negativa.

För fortsatt läsning om Ahern och Ditmars studie hänvisar vi till sidan 22 i Harvardprofessorn Rohini Pandes rapport.

Som påpekats i Ekonomistas kommentarsfält kan företagsfixa effekter ibland lösa problem med utelämnade variabler i den statistiska analysen. I studien av den norska kvoteringen löser dock detta inte problemet. Identifikationen bygger på interaktionen med en tidskonstant variabel (andel kvinnor 2002) och års-dummys. Det enda som företagsfixa effekter kontrollerar för är därför de faktorer som påverkar det genomsnittliga värdet under hela perioden (om utfallet var förändringar skulle det kontrollera för genomsnittlig förändring). För att på ett korrekt sätt kunna kontrollera för faktorer som är utelämnade från regressionen skulle författarna behöva mäta dessa faktorer och interagera måtten med års-dummys, vilket de inte gör. Att göra en interaktion med företagsfixa effekter skulle självklart inte fungera då andelen kvinnor år 2002, det vill säga innan kvoteringen, per definition är konstant.

Christian Azar: Teknikspecifika visavi teknikneutrala styrmedel

I det här gästinlägget bemöter Christian Azar, professor i energi och miljö på Chalmers, John Hassler och Per Krusells tidigare gästinlägg om statliga subventioner av bland annat sol- och vindkraft. 

John Hassler och Per Krusell (H&K) diskuterar i ett inlägg här på Ekonomistas min DN Debatt-artikelom framväxten av sol och vind på global nivå. Jag betonar i denna artikel vikten av två typer av styrmedel för att komma till rätta med klimatfrågan: ett rejält pris på koldioxidutsläpp samt stöd till teknikutveckling.

Christian Azar

Jag utgår från att H&K är överens med mig om behovet av ett pris på koldioxid. Ett sådant pris utgör för mig ryggraden i den stora omställning som står för dörren. Men vi behöver också stöd till teknikutveckling. Det handlar dels om offentliga medel för forskning och utveckling men också stöd för att möjliggöra eller snabba upp utvecklingsprocessen från grundläggande forskning till väletablerad kommersiell och mogen teknik, alltså för att ta sig över vad som ibland kallas för dödsskuggans dal. Jag noterar att även H&K bejakar detta. De skriver till exempel att det finns ”logiskt korrekta argument för tekniksubventioner”.

Vi är alltså överens om att det behövs ett pris på koldioxid samt stöd till teknikutveckling för framväxande avancerade tekniker som ännu ej nått fullskalig kommersialisering eller ”mogenhet”.

Den stora och svåra frågan är naturligtvis hur sådana stöd bör utformas. Det handlar om hur stora stöden bör vara, hur de bör fasas in och fasas ut, samt till vilka tekniker (eller vilka grupper av tekniker) de bör ges. Låt mig fokusera på den sistnämnda frågan, dels för att ingen av oss har diskuterat varken in- och utfasning, eller nivån på stöden, och dels för att det är när det gäller frågan om hur teknikspecifikt stödet bör vara som vi inte tycks vara överens.

H&K skriver ”Vi ställer oss däremot skeptiska till Azars rekommendationer om stora subventioner till särskilt utvalda tekniker”, samt ”Vi tror därför att utgångspunkten för en bra politik för omställning av fossilbränsleberoendet är generella snarare än specifika subventioner för ’grön energi’” .

Min hållning är att det ur ett ekonomiskt perspektiv är att föredra att vara mer teknikspecifik än att ge generella stöd till förnybar energi. Vilka argument har jag för det?

För att förstå argumentet måste vi backa tillbaka till själva utgångspunkten för varför sådant stöd bör ges. Det handlar om att möjliggöra och snabba på den teknikutveckling som är nödvändig för att på säg 50-100 år få ned koldioxidsläppen på global nivå till nära noll.

Låt oss nu göra följande hypotetiska antaganden: ny vattenkraft kostar 5 öre per kWh över marknadspriset på el, vind kostar 10 öre mer och sol kostar 50 öre extra. Om man gör som H&K menar, subventionerar grön energi generellt, kan man förvänta sig att i stort sett alla subventioner går till byggandet av stora vattenkraftdammar. Man kommer då få betydligt mer grön el för varje subventionskrona, och koldioxidutsläppen kommer minska mer än om man hade subventionerat säg solceller. Det är H&K’s poäng.

Men om stödet utvärderas på detta sätt har man glömt bort syftet med subventionen. Man utvärderar stödet på fel grund, helt enkelt. Målet var inte att minska utsläppen på kort sikt så mycket som möjligt – det syftar ju koldioxidavgiften till – utan målet var att försöka utveckla tekniker som kan hjälpa oss att nå riktigt låga koldioxidutsläpp på sikt. Eftersom vattenkraft inte har den potentialen – kan på sin höjd ge oss säg tio procent av världens framtida energibehov – kommer vi om alla pengar satsas på den hästen garanterat förlora decennier i den nödvändiga utveckling av ny teknik som verkligen kan ge oss de djupa koldioxidminskningar som behövs. Ett minst lika stort problem är att läreffekten i vattenkraft kan förväntas vara låg, så genom att utforma stödet för teknikutveckling på ett så här generellt sätt får vi faktiskt minimal teknikutveckling på köpet. Teknikneutrala styrmedel när syftet är att fostra fram ny mer avancerad teknik blir således närmast ett garanterat recept för att misslyckas med själva syftet med politiken.

Intressant nog anar jag i H&K’s inlägg en viss ambivalens inför sitt eget förslag. De gör nämligen en stor poäng av att man behöver räkna på lärande inom olika tekniker. De noterar att lärandet för vattenkraft varit betydligt lägre än lärandet för vind som i sin tur varit lägre än lärandet i solcellsindustrin. Om man tar deras förslag på fullt allvar, och menar att resultatet av räknandet ska ha betydelse för hur politiken utformas, då är det ju orimligt att man i nästa steg rekommenderar staten att skänka stöd till grön energi generellt. Om man väljer att göra så hade man ju nämligen inte behövt räkna från början.

Jag menar som H&K att man ska räkna. Och jag menar också att man ska ta sina beräkningar på allvar!

H&K medger dock – möjligen något överraskande – att ”det finns argument för större subvention av solkraft”. Här hemfaller de alltså till att vilja ge teknikspecifika subventioner, och då är vi alltså överens även på denna punkt. Men H&Ks förslag blir inkonsekvent. Genom att argumentera för stöd till grön energi generellt (teknikneutralitet eftersträvas) och stöd till solceller (teknikspecificitet eftersträvas) tycks de försöka stå på två ben samtidigt.

Avslutningsvis: att gå från teori till praktik är inte enkelt. Exakt hur mycket stöd som bör ges är oklart, och man bör verkligen vara försiktig så att man inte fastnar i ett slags subventionsträsk, det vill säga vräker ut subventioner för att klara av omställningen kors och tvärs när man primärt bör förlita sig på koldioxidpriser för att minska utsläppen.

De offentliga stöden ska handla om att driva fram teknisk utveckling och lägre kostnader genom att möjliggöra lärande och skaleffekter. Stödet bör vidare stå i relation till vilken roll de subventionerade teknikerna kan komma att få för att man ska klara av klimatutmaningen (eller för att tala ekonomspråk, vilken förväntad nytta man kan få av det). För tekniker där man inte har någon läreffekt att förvänta bör man i princip inte ge något alls. Men för tekniker där en betydande läreffekt och omfattande spillover-effekter kan förväntas, och där tekniken kan förväntas stå på egna ben när subventioneras tas bort – för bort ska de på sikt – bör noga övervägas. Eftersom framtida läreffekter är osäkra, spillover-effekter och framtida koldioxidpriser likaså, är det omöjligt att räkna fram en exakt siffra. Kloka människor kan därför komma fram till olika bedömningar kring hur stora stöden bör vara. Jag föreslår inte heller någon exakt nivå på stödet i min ursprungliga artikel mer än att det är rimligt att satsningarna på global förstärks.


Källor: Azar och Sandén (2012) diskuterar i EON’s nyutkomna antologi  ”Upplyst eller utfryst” om den svenska elmarknaden frågan om teknikneutralitet eller inte.  Boken, inklusive vår text finns tillgänglig på http://katalog.eon.se/Antologi/. I Sandén, B & Azar, C, 2005. Near-term technology policies for long-term climate targets. Energy Policy 33, 1557-1576 finns en mer utförlig diskussion kring styrmedel för att minska utsläppen av koldioxid på kort och lång sikt.

John Hassler och Per Krusell: Köp inte Azars gris i säcken!

Det här är ett gästinlägg av John Hassler och Per Krusell, båda professorer i nationalekonomi vid Institutet för internationell ekonomi på Stockholms universitet.

Christian Azar ger i en DN-debattartikel i tisdags en väldig positiv syn på klimatfrågan men anser att stora subventioner behövs. Hans prognos är att nya tekniker—framför allt solceller men även annan teknologi—är på stark framfart och inom kort kommer att kunna mätta våra  energibehov. Faktum är att Azar till och med drar parallellen till den industriella revolutionen: så stor är förändringen vi har att vänta!

Vi är själva inte tekniker och har svårt att bedöma precisionen i Azars prognoser. Men visst vore det oerhört glädjande om de är nära sanningen. Vi ställer oss däremot skeptiska till Azars rekommendationer om stora subventioner till särskilt utvalda tekniker. Den industriella revolutionen kom till stånd helt utan subventioner, så varför skulle subventioner krävas nu, speciellt om de nya teknikerna, enligt Azar, finns alldeles runt hörnet och är konkurrenskraftiga även utan subventioner bara inom några år?

Det finns förstås logiskt korrekta argument för tekniksubventioner. Till exempel kan det finns starka så kallade spillovers i utvecklingsprocessen: när företag 1 utvecklar sina nya solceller så kan andra företag (2, 3, osv) med liknande produkter ”gratis” dra nytta av denna utveckling. Även om patentskydd används är (och bör) de vara ofullständiga. Därför kan det behövas offentligt stöd för att tillräckligt mycket ska satsas på teknikutveckling. Detta argument i sig ger dock minimal vägledning för politikrekommendationer. Vad som fattas är en beräkning av hur stora eventuella spillovers är och hur stora subventioner som därmed behövs. Det går nästan alltid att hitta argument för att en bransch borde subventioneras. En politik som bygger på sådana argument utan att försöka beräkna styrkan i dem kommer tveklöst att leda fel.

Hur stora är då de spillovers som finns inom den nya industrin? Det skulle vara intressant att höra vad Azar baserar sina estimat på—hur har man mätt de spillovers som finns och som uppenbarligen leder till slutsatsen att stora subventioner krävs? Det finns estimat av s.k. learning rates för olika sätt att producera förnyelsebar energi. Enligt International Energy Agencys årliga rapport World Energy Outlook 2010 är denna learning rate för fotocellsteknik 17%. Varje dubbling av totalt installerad kapacitet minskar produktionskostnaden med 17%. För vindkraft är siffran 7-9% men bara 1% för vattenkraft som är en mycket mer mogen teknik. Från dessa siffror kan vi dra slutsatsen att det finns argument för större subvention av solkraft, men hur mycket? I den senaste EEAG-rapporten (där John är medförfattare) görs en enkel överslagsberäkning. Ett antagande är att inlärningen är helt extern, det vill säga att bara andra företag gynnas. Det skulle vara en rimligt antagande om kunskapsutvecklingen sker i ett stort antal små företag. Så är förstås inte fallet vilket innebär att de beräknade subventionsgraderna ska ses som tak för vad som kan vara en rimlig grad av subventionering motiverad av spillovers. Beräkningen visar att spillovers högst kan motivera en subventionsgrad på 50% tidigt i utvecklingen av den nya solcellstekniken. Över tiden ska sedan subventionerna trappas av. För vindkraft kan ungefär hälften så stora subventioner motiveras.  Självklart är kalkylen inte menad som det sista ordet i frågan utan bara ett exempel på att det är möjligt, och i själva verkat relativt enkelt, att prissätta dessa spillovers. Så köp inte Azars resonemang utan att räkna igenom dem!

Azar lyfter fram det enormt höga tyska stödet för taksolceller som ett exempel på en eftersträvansvärd policy. Stödet har varit upp till 10 gånger så högt som stödet till produktion av el via vindkraft. Vår syn är, utifrån den kunskap som vi vet finns, att den tyska politiken är ett exempel på en sällsynt ineffektiv politik. Man använder skattemedel för att betala 5 kronor per producerad kilowattimme för el producerad med solceller när man kunde fått tio gånger så mycket vindkraft för pengarna.

Azar trycker speciellt på att det finns stordriftsfördelar inom de nya teknologierna—kostnaderna för produktion av de tyska solcellerna har till exempel fallit drastiskt (även om de fortfarande är långt ifrån konkurrenskraftiga osubventionerade). Leder då stordriftsfördelar till marknadsmisslyckanden? Nej, inte nödvändigtvis. De innebär att större företag krävs, vilket kan innebära viss monopolmakt, men just monopolmakten blir då också en drivkraft till etablering. Marknadens aktörer, som till exempel riskkapitalbolag, är heller inte så kortsiktiga som ofta hävdas. Inom många industrier, ta läkemedelsindustrin som exempel, är det regel att tiden mellan en investering i kunskapsutveckling och kommersialisering är lång, ett decennium eller mer. Är problemet i stället att de nya teknikerna inte säkert kommer att lyckas så borde kanske inte staten satsa på dem heller—eller åtminstone måste det klarläggas varför staten har bättre insikter om de specifika produkternas framtid än vad riskkapitalisterna har.

Som vi visat går det att motivera vissa skillnader i subventionsgrad för olika tekniker. Så vitt vi kan förstå är dock dessa skillnader små och inte alls i linje med existerande subventionsprogram inom EU. Vi tror därför att utgångspunkten för en bra politik för omställning av fossilbränsleberoendet är generella snarare än specifika subventioner för ”grön energi”. Specifika subventioner, i den mån de används, måste grundas i ordentliga beräkningar av storleken på eventuella specifika spillovers. Det låter tråkigt och osexigt, men vi behöver räknenissarna för annars riskerar vi att köpa grisen i säcken!