Bemærk
Denne artikel er flyttet fra en tidligere version af folkeskolen.dk, og det kan medføre nogle mangler i bl.a. layout, billeder og billedbeskæring, ligesom det desværre ikke har været teknisk muligt at overføre eventuelle kommentarer under artiklen.
Skoleleder: Testresultater svinger, som vinden blæser
De nationale test er som bekendt det officielle blåstemplede pejlemærke for elevernes faglige udvikling og fra 2014 også det landsdækkende måleinstrument for, om folkeskolen når resultatmålene. Men kvaliteten af testene lever ikke op til løfterne.
Foruden spørgsmålet om, hvorvidt testene måler det samme over tid (som beskrevet på de tidligere sider), er der også over mange omgange sat spørgsmålstegn ved selve indholdet af opgaverne. Og i 2013 opdagede Undervisningsministeriet, at testene har en langt større statistisk usikkerhed end lovet, og man besluttede at iværksætte en kvalitetssikring af hele opgavebanken. Denne gennemgang af de omkring 10.000 forskellige opgaver har nu vist, at kvaliteten - enten fagligt eller statistisk - har været for ringe i en femtedel af opgaverne.
Ups - de nationale test måler ikke så præcist som lovet
De problematiske opgaver er nu skiftet ud før dette års test, og blandt andet derfor vurderer Undervisningsministeriet i den første årlige statusredegørelse om folkeskolereformen, at testresultaterne for i år er mere retvisende end tidligere. Men fordi så mange opgaver i mellemtiden er skiftet ud, er ministeriet til gengæld ikke sikker på, at den fremgang i nogle fag og tilbagegang i andre, som testscorerne viser, er udtryk for, hvordan eleverne klarer sig. Det kan også være udtryk for, at opgaverne er skiftet ud. Det voldsomste udsving ses i 2. klasse, hvor antallet af »fremragende« læsere er faldet med 75 procent.
Folkeskolen har spurgt til testenes tilstand hos kontorchef i Undervisningsministeriets kontor for prøver, eksamen og test Rasmus Vanggaard Knudsen.
I har udskiftet en femtedel af opgaverne, fordi de ikke var gode nok - gælder det generelt for fagene?
»Ja, samlet set er det omkring 20 procent af opgaverne, der er blevet skiftet ud, og i dansk/læsning og matematik er det 22 procent af opgaverne. Det er spredt ud på alle test og profilområder, men selvfølgelig er det flere i nogle test og profilområder end i andre«, svarer Rasmus Vanggaard Knudsen.
De såkaldte ordkædeopgaver, som udgør en ganske stor del af afkodningsopgaverne i læsetestene, er blevet kritiseret for, at de ikke kan bruges til at måle elevernes niveau, fordi forlag er begyndt at udgive træningsopgaver, hvor eleverne kan træne teknikken med at identificere de tre ord, der er sat sammen til en kæde. Derfor har Folkeskolen spurgt Rasmus Vanggaard, om ordkædeopgaverne er blevet kasseret.
»Nej, ordkædeopgaverne indgår stadig i testen af elevernes læseafkodning«.
Træning underminerer nationale test
Hvem har bedømt den faglige kvalitet af opgaverne?
»Det har opgavekommissionerne for de pågældende fag«.
Hvordan vil I sikre, at testene denne gang er valide?
»Alle testopgaver har gennemgået en omfattende kvalitetssikring, hvor de enten er blevet taget ud, fordi de ikke var gode nok, eller har fået genberegnet deres sværhedsgrad på grund af mindre justeringer. Opgaver kan være taget ud, enten fordi de ikke levede op til de fælles standarder for den faglige kvalitet, eller fordi de ikke levede op til de statistiske krav, hvor opgaverne blandt andet skal have en vis homogenitet inden for profilområderne, så alle opgaver inden for et profilområde tester nogenlunde det samme. Derudover har vi foretaget nogle ændringer for at mindske den statistiske usikkerhed, først og fremmest at eleverne skal løse opgaver, indtil tiden er gået, således at hver elev når flere opgaver, hvilket giver en mere sikker bedømmelse. Samtidig undgår vi, at eleverne konkurrerer om at blive først færdige«, fortæller Rasmus Vanggaard.
Lærere fra hele Danmark har skrevet til jer - og til os i øvrigt - om opgaver, de syntes var meningsløse og dårlige. Hvorfor var I så længe om at tage det alvorligt og begynde at skifte opgaver ud?
»Det er et arbejde, der har været i gang over flere skoleår. Vi startede i december 2013, men der er jo kun obligatoriske test en gang om året, så vi kunne først udskifte opgaverne til foråret 2015. Men vi har bestemt taget henvendelser fra lærerne alvorligt, og de lærere, der har skrevet til os om dårlige opgaver, vil opleve, at opgaverne enten er væk, fejl rettet eller for eksempel misvisende svarmuligheder fjernet«, fortæller Rasmus Vanggaard.
Har det forsinket kvalitetssikringen, at lærere og andre ikke må diskutere opgaverne offentligt?
»Nej, det mener jeg ikke«.
Hvad har hele kvalitetssikringen kostet?
»Langt det meste af arbejdet har været lagt ind i Opgavekommissionens og statistikfolkenes almindelige arbejde«.
Har I lovet forligspartierne, at testene nu er velegnede til at bedømme effekten af folkeskolereformen på?
»Generelt vurderer vi, at resultaterne fra 2015 er mere retvisende end dem fra 2014«, siger Rasmus Vanggaard og anerkender, at der har været en række testopgaver, der ikke har været gode nok.
»Deri ligger selvfølgelig, at udskiftningen har ført til en højere kvalitet i opgavebanken«, siger han og understreger, at en statistisk usikkerhed på 0,55 godt nok er væsentlig højere end oprindeligt lovet, men stadig helt fin. Oprindeligt var den statistiske usikkerhed sat til 0,3.
Opgaveudskiftningen har primært fundet sted fra testrunden i 2014 til testrunden i 2015, og det er samtidig udviklingen fra 2014 til 2015, der er første måling på reformens resultatmål. I den statusredegørelse, undervisningsminister Ellen Trane Nørby netop har givet Folketinget, kan ministeriet derfor ikke love, at frem- og tilbagegang i testresultater alene er udtryk for ændringer i elevernes faglige niveau. Særligt tyder et stort fald i antallet af »fremragende« læsere i 2. klasse ifølge Rasmus Vanggaard på, at kravet til »fremragende« kan være sat for hårdt.
»Men ét år er meget kort tid. Når vi har resultaterne fra 2016, kan vi vurdere, om vi eventuelt skal ændre skæringen mellem 'rigtig god' og 'fremragende'«.
Kan unge mennesker og deres forældre regne med de papirer, de har liggende fra de nationale test, de har taget i 2010, 2011, 2012, 2013 og 2014? Eller har testene ikke været gode nok?
»De testresultater, som tidligere har været opnået, er jo udtryk for de test, der blev afholdt dengang, med den opgavebank, der var på det tidspunkt. Det, man skal være forsigtig med, er at sammenligne med de nuværende resultater«, siger Rasmus Vanggaard.
Men testresultaterne er bedre nu?
»Ja, opgaverne i opgavebanken inden for de forskellige profilområder er bedre til at teste de pågældende profilområder nu, end de var tidligere«.
Forældreformand: Nationale test har fået for stor betydning