Konsten att lyfta en skola

Nyligen rapporterades att Kunskapsskolan i Uppsala var den skola i kommunen som lyfte sina betyg mest under 2010. Skolans rektor tror att denna positiva utveckling beror det systematiska och kontinuerliga kvalitetsarbete som bedrivs på skolan. Särskilt lyfts skolans satsning på enskilda elevsamtal fram. Den som använder sig av Skolverkets databas Siris anar emellertid en annan viktig förklaring: mellan 2009 och 2010 så ökade andelen elever på Kunskapsskolan som fick högre slutbetyg än det betyg de hade på de nationella proven i matematik från 6,7 till 24,1 procent. I fysik var motsvarande siffra 47,8 procent; en bra bit över riksmedlet.

Att enskilda skolor lyfter fram sina kvaliteter är knappast förvånande, men när journalister okritiskt sväljer vad de berättar börjar det närma sig textreklam. Det fria skolvalet bygger på att enskilda familjers val ska få skolorna att höja sin kvalitet. För att det ska fungera krävs att familjerna har tillgång till god och relvant information. Det är därför hög tid för journalisterna att inta en mer kritisk och granskande roll i förhållande till den bild olika skolor försöker förmedla om sig själva.

Comments

  1. Det fria skolvalet bygger på att enskilda familjers val ska få skolorna att höja sin kvalitet.

    Fast familjerna kanske tycker höga slutbetyg är hög kvalitet…Borde byta ut befolkningen till en som tittar mindre på sk dokusåpor och inte tycker lyx är chips i soffan framför nämnda tv-program.

    Men i princip har du helt rätt! Behöver bara en bättre definition av kvalitet.

  2. Den så omtalade Nossebroskolan verkar ha genomfört samma ”pedagogiska” metod för att komma till rätta med sina dåliga betyg.
    Inga förbättringar på de nationella proven men slutbetygen har blivit enormt mycket bättre.
    Mer om det här: http://www.vof.se/forum/viewtopic.php?p=467556#p467556

  3. ”Den som använder sig av Skolverkets databas Siris anar emellertid en annan viktig förklaring: mellan 2009 och 2010 så ökade andelen elever på Kunskapsskolan som fick högre slutbetyg än det betyg de hade på de nationella proven i matematik från 6,7 till 24,1 procent. I fysik var motsvarande siffra 47,8 procent; en bra bit över riksmedlet.”

    …men i engelska och svenska så sjönk andelen som fick högre slutbetyg än provbetyg från 4,9 till 1.6 procent respektive 23.8 till 17.6. I båda dessa ämnen ökade andelen som fick samma slutbetyg som provbetyg från 73.8 till 84.3 procent (engelska) respektive 60.3 till 72.8 procent (svenska). Utvecklingen i matematik kan också delvis förstås mot bakgrund av att Kunskapsskolan 2009 hade en ovanligt hög samstämmighet mellan provbetyg och slutbetyg (93.3 procent; en bra bit över riksmedlet). Och för fysik (som för övriga NO-ämnen) verkar det inte finnas några siffror från 2009 att jämföra med överhuvudtaget.

    Till de föräldrar i Uppsala som likt mig läser ekonomistas före morgontidningen men ändå vill göra ett informerat val.

    • Jonas Vlachos says:

      Niklas: Det mått Skolverket använder sig av är känsligt för takeffekter – det går inte att sätta högre betyg än provresultat om man redan uppnått MVG. Sedan ska det framhållas att Kunskapsskolan inte är extremt vad gäller avvikelser uppåt men ökningen från 2009 till 2010 i matte var extremt stor. Man kanske helt enkelt valde att anpassa sig till rikssnittet.

    • markus says:

      Det finns inga siffror att jämföra med i fysik eftersom provomgången som genomfördes 2009 var den första och som först ut bara var testkörning av de nya nationella proven i no-ämnen.

    • Niklas Bengtsson says:

      Jonas,

      Jag vet inte riktigt om jag greppar varför takeffekter skulle vara relevanta för att förstå vare sig dina eller mina utdrag från Siris, men jag får väl lita på att det är viktigt. (Spontant låter det som detta torde innebära att minskningen i andelen som fått ”för höga” betyg i svenska och engelska måste bero på att eleverna presterar bättre på de nationella proven, vilket också stöds att andelen som fått MVG i provbetyg mellan 2009 och 2010 i dessa ämnen ökat).

      Min poäng var att Siris inte verkar ge något entydigt stöd för att just den här skolan har höjt betygen genom betygsinflation. Håller du inte med om detta?

      • Svante says:

        Niklas, om du går in i SIRIS och räknar ihop resultaten för 2009 och 2010 på samma sätt som vid betygssättning (10 för G, 15 för VG och 20 för MVG) kommer du att se en liten förbättring från 2009 till 2010 vad gäller svenska, en liten försämring för matematik och ett oförändrat resultat för engelska. Det sammanräknade värdet ändras praktiskt taget inte alls.

        Inget i det nationella provet tyder alltså på någon dramatisk förändring öht.

      • Niklas Bengtsson says:

        Svante,

        Jag antar att du menar att man ska räkna ut ett viktat medelvärde? Det vill säga (Andel med G)x10+(Andel med VG)x15+(Andel med MVG)x20.

        För Kunskapsskolan verkar underlaget 2009 saknas för att göra en sådan viktning (2009 ser jag bara andelen med MVG för vissa delprov i svenska, och inte alls för matematik). Ska man tolka bortfallet ”..” som nollor så framstår det som om ingen elev på Kunskapsskolan klarade MVG på matematikprovet år 2009, jämfört med 23 procent 2010. En fantastisk ökning — som förmodligen inte stämmer.

        En snabbkoll ger mig för handen att dina siffror kanske gäller Uppsala, eller landet, som helhet?

        Jag har nu ingenting att invända mot hypotesen att det finns betygsinflation. Även hypotesen att politiker och huvudmän för skolor har incitament att mörka betygsinflationen verkar rimlig. Jag ifrågasätter dock om Siris-datat kan användas till att belägga någon av dessa teser, i synnerhet för enskilda skolor. I det här fallet verkar underlaget svårhanterligt eftersom antalet elever på just den här skolan tycks ha fördubblats mellan 2009 och 2010 (från 64 elever till 126). Lägg där till det faktum att 2009 års prov verkar ha varit någon slags testvariant enligt en anonym användare ovan.

        Läser man UNT-artikeln så förstår man att det anförda utfallet på något sätt verkar ha justerats för socioekonomiska faktorer. Det gör mig orolig att det inte är rättframt att vare sig bekräfta eller förkasta UNTs rapportering med hjälp av ovan nämnda databas.

      • Svante says:

        Niklas, värden som baseras på färre än 10 elever visas inte i de tabeller som man kan få fram i SIRIS. Då visas i stället symbolen med två punkter.

        Om man däremot tar fram den samling av statistik för en skola som kallas skolblad i SIRIS får man ett antal diagram där man kan läsa av de saknade värdena för 2009. Det är så jag har gjort.

        Det blir naturligtvis lite av en approximation, och jag kan ha fel på några procentenheter, men det ändrar inte min huvudpoäng, nämligen att det sammanlagda resultatet på nationella proven var i stort sett oförändrat från 2009 till 2010.

      • markus says:

        Niklas, endast fysikprovet var en testvariant 2009. Detsamma gäller kemi- och biologiproven från samma år, men varje skola skriver endast i ett av de tre no-ämnena.

        Svenska, engelska och matematik har sedan länge nationella prov i nian medan proven för no-ämnena började med en testomgång 2009 och sedan officiell start 2010.

      • Niklas Bengtsson says:

        Svante, markus,

        Ok, bra grävt killar! Så den relevanta jämförelsen kan bara göras med svenska, engelska och matematik. Så här ser betygsstatistiken ut för Kunskapsskolan. Inom parentes står mina uppskattningar av provbetygen genom den eye-ballmetodik som Svante introducerat ovan. Jag är inte helt bekväm med denna metod, men mina observationer verkar överensstämma med Svantes (fast jag tycker mig notera en liten ökning i engelska).

        Matematik
        2010: 13.24 (12.0)
        2009: 12.435 (12.65)

        Engelska
        2010: 14.51 (15.35)
        2009: 13.94 (15.0)

        Svenska
        2010: 14.76 (14.5)
        2009: 14.055 (13.8)

        Om vi antar att de nationella proven mäter en mer ”korrekt” bild av kunskapen (vilket är en inställning jag sympatiserar med, även om inte pedagogerna håller med) så sätter Kunskapsskolan för höga betyg i matematik år 2010. Precis som Jonas konstaterat. Framför allt verkar det vara fler som kört på provet i matematik men ändå fått G (även om andelen MVG också ökat).

        Just den här skolan sätter emellertid konsekvent för låga betyg i engelska. 2010 får ca 14.2 procent ett lägre slutbetyg än provbetyg, vilket ska jämföras med de 1.6 procent som får ett högre slutbetyg.

        Ökningen av testresultaten i svenska och engelska är inte överväldigande, men det är inte betygsutvecklingen i dessa ämnen heller. De ligger i paritet, skulle jag säga. Det genomsnittliga meritvärdet för den här skolan ökade 2009 från 230 till 248, för att sedan sjunka tillbaka 2010 till 238. Att kunskapsskolan seglar fram som en vinnare tycks mer ha att göra med att övriga skolor i kommunen tycks inta någon slags jumboplats i den här tävlingen (i alla fall enligt UNT-artikeln). Då är det inte så konstigt att ökningarna framstår som blygsamma i absoluta tal.

        När jag betraktar dessa siffror i sin helhet får jag inte intrycket att den här skolan begagnar sig av betygsinflation. Därmed inte sagt att skolan förtjänar något slags medalj för sin utveckling. Det är som sagt lite speciellt att kullstorleken fördubblades mellan 2009 och 2010. Med en sådan förändring i elevunderlag skulle jag hålla inne med både ris och ros innan jag delade ut omdömen om varför betygen ökat. Det nya elevunderlaget kanske helt enkelt äter mer grönsaker?

  4. Att jounalister intar en okritisk hållning till skolor beror på att de själva inte alls är metodologiskt skolade.

  5. Vad är den egentliga slutsatsen man ska göra? Att elver som är bra på fysik och matematik är i allmänhet duktigare elever?

    • Per S says:

      Att om vinstmaximerande aktörer besitter ett kraftfullt gratis konkurrensmedel så kommer de att använda det?

      • Jonas Vlachos says:

        Detta är dock verkligen inget som enbart vinstmaximerande, eller ens konkurrensutsatta skolor, håller på med. Men mer om det i ett framtida inlägg.

      • Per S says:

        Att om aktörer besitter ett kraftfullt gratis medel med vilket de kan vinna fördelar så kommer de att använda det?

  6. Svante says:

    Å ena sidan tycker jag att det är lite orättvist mot en enskild skola att gräva efter konstiga i detaljer i dess betygssättning, för sådana kan man alltid hitta. Om man å andra sidan använder sådant grävande för att illustrera generella problem tycker jag att det kan vara nyttigt.

    Med detta sagt tittade jag lite i SIRIS själv. År 2010 var det sammanlagt 48 elever som fick resultaten VG eller MVG på nationella provet i matematik på den aktuella skolan (19,6% +23,2% av 112 elever).

    Samma år fick 49 elever betyget MVG i samtliga naturvetenskapliga ämnen (38,6% av 127 elever, skolan använder blockbetyg i NO).

    Jämför man med Sverige som helhet är betygen i NO-ämnena betydligt närmre kopplade till resultatet på nationella provet i matematik. De elever som får VG i alla NO-ämnen är mindre än hälften så många som de som får VG eller MVG på matematikprovet.

    Skolan vi diskuterar skiljer sig alltså dramatiskt från Sverige i allmänhet. Även enligt min personliga erfarenhet är det väldigt ovanligt med elever som är mycket bra på naturvetenskap på grundskolenivå utan att också vara bra på matematik.

    Därför är det svårt att inte misstänka att NO-betygen i fråga satts generöst.

  7. Jonas says:

    Mycket bra inlägg!
    Din forskning och kritiska öga är så otroligt viktig i skoldebatten!

  8. Hur är det egentligen tänkt att skolverket ska övervaka betygsättningen? Det blir ju alltmer tydligt att många skolor har tryck på sig både från elever, föräldrar och ägare att sockra betygen.
    Men egentligen vill vi ju att lärare ska ta ansvar för att det finns substans bakom betygen. Men de lärare som gör det, i den mån de fortfarande finns, måste ju ha det väldigt svårt med den situation vi har idag. De blir ju förmodligen hatade både av elever, föräldrar och skolans ledning.
    Är det ”noll koll” som gäller hos skolverket eller finns det någon väg ur det här?

  9. Jonas Vlachos says:

    Eftersom det inte finns någon formell koppling mellan resultat på de nationella proven och betygen så finns det inte mycket man kan göra. Skolverket och Skolinspektionen intar därför i allmänhet en rent agnostisk hållning inför avvikelser mellan prov och betyg.

    Dessutom så anses proven vara ett pedagogiskt instrument snarare än ett kontroll- och utvärderingsvertyg. Detta innebär att man alltid kan hävda att proven avslöjat vilka brister en elev har för att uppnå ett högre betyg. Eleven kan därför arbeta med dessa svagheter under resten av skoltiden och därför klara sig bättre i slutändan. Att proven hålls under senvåren i åk 9 gör att man kan anse det vara lite sent att göra detta, men jag vet att flera skolor påstår sig arbeta precis på detta sätt.

  10. Andreas says:

    Intressant kommentar på artikeln du länkade till i UNT:
    ”Erfarenhet av Kunskapsskolan i Stockholm: Fick 5 elever med MVG från kunskapsskolan i idrott & hälsa i åk 9. 4 av dessa kunde inte simma och orientering hade de aldrig gjort. Eleverna uppnådde inte målen och jag fick därmed sänka deras betyg till IG. ”

  11. Jonas says:

    Föräldrarna betalar väl för att ungarna ska få bra betyg? Ifall de lär sig nåt på kuppen så är det att betrakta som en bonus.

Trackbacks

  1. […] Vlachos har i dag en läsvärd blänkare på ekonomistas om skolors självgratulerande mediabild och frånvaron av kritisk journalistik: […]

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut / Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut / Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut / Ändra )

Google+ photo

Du kommenterar med ditt Google+-konto. Logga ut / Ändra )

Ansluter till %s