Det går förmodligen inte att genomgå en utbildning i nationalekonomi utan att ett par gånger stöta på Adam Smiths berömda citat om att det inte är bagarens välvilja som ger oss bröd på bordet, utan hens omtanke om sig själv. Citatet brukar användas för att trumma in den paradoxala poängen att varje individs strävan efter egen vinning kan leda till det bästa tänkbara utfallet för samhället. Det är dock sällan nationalekonomer tillämpar samma resonemang när det gäller det egna forskaryrket (undantag finns dock). Skulle vi verkligen våga förlita oss helt på forskarnas egenintresse på samma sätt som vi kan lita på själviska bagare?
Forskaryrket erbjuder ständiga frestelser att med hjälp av olika former av intellektuell ohederlighet armbåga sig fram. Det kan gälla allt från forskares “vardagssynder” som att citera tidigare litteratur selektivt till “kardinalsynder” som manipulation av data. En forskare som hade som enda mål att publicera så mycket som möjligt (och därmed få en finare position och högre inkomst) skulle naturligtvis använda sig av sådana knep närhelst det lönade sig och risken för upptäckt är tillräckligt liten. Det skulle leda till en ganska flitig användning av sådana metoder och att många forskningsresultat inte skulle vara särskilt pålitliga. Mitt intryck av mina forskarkollegor är dock att de flesta inte fuskar närhelst det är möjligt — det finns en stark yrkesmoral som förordar intellektuell hederlighet och som gör forskningsresultat mer pålitliga än de hade varit annars.
Likväl förekommer olika grader av fusk. I en uppsats som är under utgivning i Psychological Science undersöks i vilken utsträckning forskare i psykologi ägnar sig åt “questionable research practices” (QRP). Studien bygger på en enkätundersökning bland tusentals forskare i psykologi. Forskarna använde sig av Drazen Prelecs “sanningsserum” — en belöningsalgoritm för att belöna sanningssägande (läs mer om denna metod här) — för att förmå forskarna att svara ärligt. Nedan listas hur står andel som angav att de någon gång använt sig av respektive QRP.
1. In a paper, failing to report all of a study’s dependent measures. (66.5%)
2. Deciding whether to collect more data after looking to see whether the results were significant. (58.0%)
3. In a paper, failing to report all of a study’s conditions. (27.4%)
4. Stopping collecting data earlier than planned because one found the result that one had been looking for. (22.5%)
5. In a paper, ―rounding off a p value (e.g., reporting that a p value of .054 is less than .05). (23.3%)
6. In a paper, selectively reporting studies. (50.0%)
7. Deciding whether to exclude data after looking at the impact of doing so on the results. (43.4%)
8. In a paper, reporting an unexpected finding as having been predicted from the start. (35.0%)
9. In a paper, claiming that results are unaffected by demographic variables (e.g., gender) when one is actually unsure (or knows that they do). (4.5%)
10. Falsifying data. (1.7%)
De flesta av dessa QRP:s kan naturligtvis vara rättfärdigade i enskilda fall, men det är inte svårt att hålla med om att de generellt bör undvikas. Siffrorna ovan är också inte helt lättolkade, men de förefaller ändå oroväckande. Det är också svårt att se någon anledning till att situationen skulle vara annorlunda bland t.ex. nationalekonomer (se till exempel den här studien).
Något som också är oroande är att frågan om forskarnas yrkesetik diskuteras så lite — i alla fall bland nationalekonomer. Det borde vara högsta prioritet på doktorandprogram att skola in framtida forskare i den yrkesetik som är så viktig för forskningens pålitlighet (jmf. läkare och läkareden). I min egen utbildning har jag dock helt lämnats åt att “uppfostra mig själv” och jag tror dessvärre att jag är långt ifrån ensam om denna erfarenhet. Samtidigt förefaller yrkesetiken sättas på allt hårdare prov genom att konkurrensen mellan forskare och kraven på att publicera forskningsresultat ökat.
Fick frågan om självintresset inte också gällde nationalekonomer av en student på a-nivån när jag föreläste om politiker som maximerade egennyttan. jag förnekade bestämt.
Skämt åsido, den största risken kanske är när forskare ska ge policyrekommendationer, eftersom dessa kommer att grunda sig i forskarens önskan att få “rolig” exogen variation.
Det något slitna uttrycket är väl något i stil med “In God we trust, others must supply data”. Mer uttryckligt och välgrundat hävdade dock McCullough & Vinod (AER 93, sid 889) att “… researchers cannot be trusted to produce replicable research. We have shown that the replication policies designed to correct this problem do not work. The only prospect for ensuring that authors produce credible, replicable research is a mandatory data/code archive, and we can only hope that more journals recognize this fact.”
Detta är bara en av många studier (se även tex välkända Dewald, Thursby & Anderson AER 76 sid 586-603 vilka försökte replikera publicerade arbeten i Journal of money, credit and banking) som påvisar samma sak; det är inte bara svårt utan ibland till och med omöjligt att replikera publicerade resultat. Forskarna uppgavs dessutom vara obenägna att lämna ut data och koder för att låta sig kontrolleras av andra. McCullough & Vinods studie fick dock som konsekvens att AER genom dåvarande redaktören Ben Bernanke (Bernanke AER 94, sid 404) införde en strikt policy om deposition av data och koder i samband med publicering (http://www.aeaweb.org/aer/data.php).
Detta till trots är det idag inte standard hos alla tidskrifter. Tyvärr är det inte heller standard i forskarutbildningen med utbildning i hur man åstadkommer reproducerbar ekonometri (vilket i och för sig inte kräver några trollkonster). Inte heller är det standard i forsknings- och publiceringsproceduren att kräva sådana metoder så att redan när WP publiceras data och koder på ett sätt liknande det som t.ex. AER kräver.
Michael, jag håller helt med dig om att detta borde vara en självklarhet för alla tidskrifter. Men det löser långt ifrån alla problem — många av de QRP som listas ovan skulle inte påverkas av detta. Till exempel att inte rapportera alla körningar man gjort eller alla beroende variabler man testat (det finns vad jag vet inget krav på att “hela” datasetet måste lämnas ut).
Håller i praktiken med dig. Flera av QRP är relaterade till vilket dataset som är tillgängligt (tex 2, 4,6 ,8). Man kan självklart manipulera detta och välja att tillhandahålla data selektivt även om det finns ett annat krav på att tillhandahålla data och koder än idag).MEN om det är kotym att att man ska lämna ut data (i någon mening) så blir det lättare för alla andra att kontrollera och kritisera påstådda resultat. Om data är allmänt tillgängliga eller kan köpas blir detta därmed ett mindre problem. Fuskare kan lätt(are) avslöjas. Om data är genererade av forskaren (tex experimentella data) är detta svårare men då kan självklart experiment upprepas av replikatörer.
I dagsläget uppfattas den som frågar efter data och koder som ifrågasättande. Och det är ett problem. Kan vi få in fler element av replikation (metoder och de facto) i forskarutbildningens empiriska moment kommer säkert successivt en förbättring att ske eftersom “alla” då kan kontrollera “allt”. Det blir naturligt att replikera dvs ifrågasätta.
Är man en patriarkal bondlurk om man skriver “dennes” istället för “hens”?
Japp!
Nej, man är Horace Engdahl. Fram för dennes, dennas mfl. Jmfr hur ils och elles används i franskan.
Väldigt bra poäng Pontus. Men det är ju på sätt och vis bra att vi fick en illustration av hur konstlat det blir när man lärt sig ett nytt ord och ska använda det överallt.
Ja det verkar ju iallafall gå framåt. Repec har ganska nyligen börjat motverka det här genom uthängning helt enkelt http://plagiarism.repec.org/. AEA verkar också vilja göra något åt saken
Fler artiklar gällande ohederliga nationalekonomer för nyfikna http://plagiarism.repec.org/links.html
…av det jag sett är det snarare så att alla har samma manipulerade siffror, det är lite som en psyk-kongress, man beslutar om vad sjukt är och sen ändrar man sig.