La valutazione nella scuola italiana è, di fatto, “pervasiva”. Lo è soprattutto nei tempi, giacché la normativa vigente, ripresa in ogni delibera del Collegio dei Docenti, al fine di rendere valido l'anno scolastico, impone un “congruo numero di valutazioni” (1). Nella didassi, questo si traduce in molte ore spese per soddisfare questo criterio, attraverso elaborati scritti (poi corretti dai docenti con ore e ore di lavoro poco riconosciuto) o attraverso interrogazioni orali (che hanno il “vantaggio” di non dilatare i tempi di lavoro del docente, ma l'enorme svantaggio di comprimere quelli di lavoro effettivo in classe). Anche le alternative possibili (valutazione di lavori di gruppo, elaborati informatici e di laboratorio in genere) sono “time consuming”. Una possibile trasformazione ideale del momento valutativo in momento didattico, quello che immagina di trasformare le interrogazioni in momenti di ripasso generale, problematizzazione, dialogo maieutico, approfondimento, è spesso un'aspettativa ampiamente disattesa dalla prassi concreta che vede dinamiche di gruppo involute e il coinvolgimento del solo interrogando. Durante un'interrogazione partecipata, invero, si re-instaurerebbe la “lezione dialettica” (2) di stampo medioevale dove si forniscono quei feedback capaci di evolvere significativamente le conoscenze degli studenti, ma tali opzioni sono colte solo da gruppi ristretti e motivati di studenti (numero fortemente dipendente dal tipo di scuola e dalla classe sociale delle famiglie degli studenti). Le tecnologie, come spiegheremo nel prosieguo, possono dare un significativo contributo nella costruzione di un “congruo numero di voti” senza che questo sia “time consuming” né per il docente, né per il lavoro in classe (che può quindi maggiormente volgersi ai lavori di gruppo e ai laboratori).

È utile esplicitare l'influenza dell'arbitrarietà nella scelta di una scala, sull'attribuzione di significato valutativo sui livelli della stessa. Esiste un ampio spettro di scale numeriche nella tradizione scolastica e universitaria italiana. Oltre a quella classica, da uno a dieci (3), è possibile rilevare anche scale in sessantesimi e centesimi (esame di Stato della SSSG fino all'a.s. 1997/8 e, rispettivamente, dopo tale data), scale in 30mi e 110mi (esami universitari e valutazione finale di laurea e di altri percorsi, come ad esempio Master), ma anche scale in 80mi (SSIS per abilitazioni su materia e specializzazione su sostegno), 30mi (TFA, altri Master).
Le opzioni si allargano, se si guarda all'estero, dove ad esempio le valutazioni scolastiche e gli esami universitari in area francofona hanno una scala in 20mi (il livello di sufficienza è fissato a 10). Orbene, affidandoci al nostro “senso comune” possiamo dire che, a scuola, 7 è un bel voto. Ma qual è un bel voto all'Università? Ebbene, al netto delle differenze tra questo e quell'indirizzo di studi, penso che potremmo ragionevolmente convenire sul fatto che a partire da 27 si trovino i “buoni voti”. Un ragionamento proporzionale porta tuttavia ad osservare che per nessuno studente universitario un 7 su 10, tradotto in trentesimi, quindi 21, sia un buon voto.


Gli studenti Erasums sanno perfettamente che è vantaggioso passare da un'Università che dà voti in scale piccole (ad esempio dalla Francia o dal Belgio dove i voti sono in ventesimi) ad una dove i voti sono dati su scale ampie (ad esempio in Italia dove i voti sono in trentesimi) perché proporzionalmente un 24/30, che è un voto mediocre, si traduce in 16/20, che è già un ottimo voto.
Questo effetto di “attrazione verso l'alto” mette in evidenza la povertà delle argomentazioni favorevoli al voto numerico come elemento di chiarezza giacché i numeri, senza una conoscenza della cultura e della corrispondente tradizione semantica ad essa accordata, non sono per nulla oggettivi e chiarificatori.

 

Nella figura qui a fianco e in quella successiva vengono raffigurati gli istogrammi delle percentuali delle valutazioni orali all'esame di Stato del 2011/12 e del 2014/15 (4). Si noterà in particolare la significativa discontinuità nella valutazione del 30, con un po' più di attenzione, si noterà anche quella del 20 (ma anche quelle poste a “-2” da tali soglie, cioè quelle del 18 e del 28). La particolarità della prima coppia di voti (20 e 30) è che il primo è il massimo possibile, mentre il secondo rappresenta il livello di sufficienza, cioè rappresenta una soglia. La seconda coppia di voti rappresentano comunque una soglia psicologica degli insegnanti che, avendo nel primo caso un'esperienza vissuta sul tema degli esami universitari e la loro scala valutativa, hanno introiettato il 18 come valore di sufficienza; per entrambi i voti della seconda coppia si tratta anche di “soglia tecniche/psicologiche” che esplicitano un colloquio insufficiente, o molto buono (ma non ottimo) per il quale la commissione fornisce un risultato numerico che non vuole essere troppo penalizzante e, comunque, autocautelativo. Da un punto di vista astratto, la griglia di valutazione utilizzata dalle commissioni dovrebbe fornire, almeno sulla popolazione nazionale, curve più morbide/continue, ma l'interferenza di elementi cogenti della realtà dell'esame sulle griglie, appare evidente.

 

 

 

 

 È opinione diffusa, invero, che le griglie di valutazione vengano compilate ex post, cosa che denuncia una certa impreparazione culturale sulla tematica, la cui formazione, ad onor del vero, non è mai stata erogata, se non ai presidenti di commissione (il cui unico requisito che devono soddisfare per la nomina è l'esperienza di “dieci anni di ruolo”), chiamati ad una “riunione tecnica” provinciale da ogni Ufficio Scolastico Provinciale (USP). Occorre anche notare che le griglie elaborate dalle commissioni non sono nazionali e pertanto l'attenzione del docente non è adeguata anche per il fatto che, almeno psicologicamente, è comunque lui il “valutatore” e uno strumento autocostruito appare come una complicazione inutile che viene soddisfatta solo per fini ritenuti di ordine burocratico. Occorre evidenziare il fatto che, in maniera del tutto naturale, i voti di una classe sono significativi “per quella classe” e forniscono una scala non confrontabile con altre classi, come le rilevazioni INVALSI hanno mostrato con solidità statistica. Nè sarebbe utile, nel lavoro in classe, che fosse il contrario. La sensazione è che la stessa cosa valga anche per i voti degli esami di Stato della SSSG che, pur avendo prove comuni (due scritti), forniscono voti mediamente alti in alcune regioni e più bassi in altri (ogni anno, ha sempre rilevanza giornalistica il numero dei 100/100 e dei 100 e lode in provincia di Milano e in Calabria, rilevanza che, almeno recentemente, ha raggiunto anche vette di becerume retorico culturalmente inaccettabile) (5).

Nella figura più sotto sono indicati i voti conseguiti nell'a.s. 2014/15 dagli studenti in uscita dalla SSSG, suddivisi per regioni. Nella prima parte della tabella si trovano i valori assoluti, nella seconda quelli percentuali. In questa seconda parte ho proposto un'elaborazione che evidenzia i valori significativamente sotto o sopra la media (di una deviazione standard). Si osserverà come gran parte dei valori, quelli a sfondo bianco, sono entro valori accettabili di scostamento dalla media, mentre quelli a sfondo colorato segnalano differenze che, dal nord a sud, passano dal sopramedia a sinistra per i voti bassi e sottomedia a destra per i voti alti in settentrione, per giungere ad un'inversione scendendo verso il sud. Appaiono significativi i valori sopramedia del voto minimo in Sicilia, Lazio e Campania (dove, statisticamente, non si nega il diploma a nessuno, sancendo un valore empirico di diffidenza per il voto minimo, sessanta centesimi, largamente percepito in tutto il paese). Si confermano le tesi giornalistiche relative allo scarso numero di voti massimi al nord, le regioni più penalizzate sono la Valle d'Aosta, Lombardia e Friuli Venezia Giulia, mentre sono significtivamente sopra la media non solo un paio di regioni del sud (Puglia e Calabria), ma anche del centro (Umbria e Marche) (6).

 


Paolo Francini, insegnante attivo a livello nazionale, sul tema della valutazione in uscita dalla SSSG, in occasione di un recente dibattito sul tema “Le due Italie della Maturità” sviluppato entro la lista di discussione “Cabrinews”, su questo tema propone le seguenti riflessioni: «La cosa curiosa è che la valutazione analitica, materia per materia, era precisamente quanto succedeva fino al 1968, quando non c'era un valore di sintesi situato su una scala unidimensionale (in 60-esimi o 100-esimi), ma appunto voti d'uscita nelle varie discipline. Si poteva superare l'esame con 9 in latino e 6 in matematica, e la cosa era trasparente. Si poteva tranquillamente essere rimandati a settembre in una o più materie all'esame. Tra l'altro, ciò non è molto differente da quello che tuttora avviene nelle scuole di molti paesi (in particolare quelli anglosassoni).

Forse era già quella, a suo modo, una certificazione delle competenze (da cui poi ci siamo allontanati per immergerci in una sorta di guazzabuglio assai più opaco)? Faccio presente che, tra l'altro, la scuola tracciata dalla riforma Gentile in realtà non prevedeva programmi di insegnamento, bensì programmi d'esame per ciascuna materia, predisponendo numerosi esami nella carriera studentesca: 2a elementare, 5a elementare, ginnasio inferiore (che diventa scuola media), ginnasio superiore, maturità.

Si fissavano, cioè, dei traguardi nel percorso in termini di preparazione da acquisire e si stabiliva come dovevano avvenire le verifiche in sede d'esame, ma si lasciava libertà didattica e metodologica all'insegnante (ciò che avrebbe in parte voluto essere realizzato con l'autonomia scolastica, ma non è stato). Questo impianto fu poi quasi subito smantellato ed annacquato (troppe proteste) e si passò presto a dei programmi d'insegnamento. In ogni caso, la pretesa di usare correttamente una scala unidimensionale centesimale, così come impostata dall'attuale ordinamento, è a mio modo di vedere irrealistica, data l'assenza di criteri di valutazione stringenti, trasferibili e terzi, nonché la difficoltà a controllare e uniformare le condizioni di svolgimento delle prove, nonché le personali aspettative dei diversi insegnanti. Tale pretesa non può che condurre ad esiti altamente fuorvianti. Qualcosa di simile succede, ad esempio, anche per i voti d'uscita delle università (scala addirittura in 110imi), salvo che nessuno ha mai indagato seriamente le distorsioni ivi sottese (che devono essere ancora più serie di quelle osservabili nella scuola).

Esiti un po' più attendibili potrebbero aversi utilizzando, per il livello d'uscita, una scala meno fine, con un numero più ridotto di gradini (ad esempio, come per le nostre scuole medie, o come in Francia dove il fondo scala è di 20 punti, che quasi nessuno raggiunge, e la sufficienza è 10, dunque 11 gradini e non 42).

Naturalmente, potrebbero essere prese in considerazione diverse misure per incrementare l'affidabilità delle valutazioni finali. Ad esempio: indicazione di punteggi nelle singole parti delle prove d'esame; guida alla correzione e pubblicazione di indicazioni stringenti per la valutazione da parte del ministero (come accade in molti paesi e come succede per le prove Invalsi); correzione anonima dei compiti scritti su base provinciale, eventualmente anche con sistemi tipo "doppia giuria" (se i due voti assegnati differiscono troppo, si ricorre ad un terzo giudizio); commissioni senza componenti interni e con membri di altre regioni; voti orali assegnati senza conoscere l'esito degli scritti; revisione radicale della terza prova (o sua eliminazione). Una misura minima potrebbe essere quella di sottoporre a vigilanza più attenta (presenza di ispettori in loco), negli anni seguenti, le scuole dove i risultati appaiono più anomali. Già questo sarebbe un accettabile dissuasore. Invece, evidentemente, la cosa è stata lasciata a se stessa e non interessa realmente a nessuno, al di là delle polemiche agostane di ogni anno. Tanto più che alcune macroscopiche anomalie di questi dati hanno cominciato a risaltare da almeno un decennio in maniera sempre più nitida, ma non si è mai intervenuti».

 

Occorre esplicitare a questo punto una contraddizione insanabile nello sforzo di valutare gli studenti con un numero (nella scuola italiana, dall'1 al 10). Quando si usa la parola “valutazione” spesso la si confonde con “misurazione”. Orbene, in questo secondo ambito, è possibile misurare laddove si trovi un campione di riferimento e si possono misurare e mettere in relazione di minoranza/maggioranza solo valori scalari. Stabilito un verso nella “retta dei numeri”, possiamo sempre stabilire chi sia prima e chi sia dopo, ovunque si fissi l'origine.

Tutti, quindi, possiamo “mettere in ordine” dei numeri, ma questo non è più possibile, data l'arbitrarietà del sistema di riferimento, appena un carattere fosse descritto da un vettore (cioè da qualcosa che abbia più di una dimensione). In matematica è ben noto il fatto che i vettori non siano ordinabili. Possiamo rappresentare graficamente un vettore bidimensionale su un piano cartesiano, con un punto, mentre la rappresentazione algebrica è la definizione di una coppia di valori. Quando, una coppia, è più grande dell'altra? Il tentativo ingenuo di considerare la distanza dall'origine degli assi si scontra con la loro posizione arbitraria.

Quando valutiamo uno studente, quindi, ci troviamo nella seguente situazione: dobbiamo costringere in un numero, elementi che sono, per propria natura, afferenti a “categorie” diverse, quindi la valutazione dovrebbe essere “vettoriale”. A titolo di esempio: conoscenze, competenze, capacità, atteggiamenti, esposizione, etc. Ma quante sono le dimensioni di una persona? La situazione che si genera è sostanzialmente nota nell'ambito delle reti neurali, allorquando si cerchi di mappare uno spazio universo non del tutto conosciuto a priori, attraverso un numero di indicatori emergenti da quanto noto. Facciamo l'esempio di mappare i punti di un quadrato (lo spazio universo ignoto), disponendo di un filo. È chiaro che, sapendo che si tratta di un quadrato, il modo migliore di definire le coordinate di un punto (in un linguaggio più pratico, prestato dalla geografia e dall'informatica potremmo dire “l'indirizzo del punto”) è quello di misurarne le coordinate (ascissa e ordinata con le coordinate cartesiane, distanza dall'origine e inclinazione con quelle polari). Disponendo di un filo, potremmo procedere a zig zag dal basso verso l'alto o dal centro con percorso a spirale. In entrambi i casi, possiamo dire che due punti molto vicini nel filo sono vicini anche nello spazio quadrato, mentre punti molto distanti nella “mono-coordinata”, possono invero essere anche molto vicini nello spazio del quadrato. Questo “effetto matematico” è ineludibile e suggerisce un'inevitabile conseguenza: la valutazione numerica è povera e, spesso, anche poco significativa giacché due studenti con voto di 7 e 8 (voti vicini), possono essere non tanto dissimili da uno con voto 3 (voto distante, nello spazio lineare, ma cosa si può dire dello “spazio delle competenze”, visto che è multidimensionale e la scelta delle componenti, una sua probabile riduzione di complessità?).

Una prima alternativa semplice e praticabile consiste nella via anglosassone che riduce i voti a cinque singole lettere: A, B, C, D, E (Fasce, 2014a) che non cancellano la riduzione ad una sola dimensione, ma che hanno il vantaggio di godere di un'alta probabilità di accordo nei seguenti termini. Roberto Franchini, in occasione di un corso di formazione per insegnanti organizzato dall'UCIIM sul tema della valutazione, distribuì un tema ad un largo gruppo di maestre, chiedendo di dare un voto (da 1 a 10). Raccolse quindi i valori in un istogramma, ottenendo una distribuzione a “campana di Gauss”. Quindi, qual è il “voto” di questo tema? È opinabile, anche se quest'esperimento consentirebbe di darne una “stima ragionevole”. Invertendo la prospettiva, ammesso che il voto possa essere correttamente stimato dalla media di una sufficiente numero di valutatori, un voto espresso da un solo valutatore ha più alta probabilità di essere quello corretto dove il numero di livelli è basso. Qualsiasi manuale di valutazione propone cinque livelli che sostanziano le parole chiave: ottimo, buono, sufficiente, insufficiente, disastroso.

Una prima soluzione, incarnata dal riformismo scolastico degli anni Settanta/Ottanta del secolo scorso, è la stesura di giudizi descrittivi, mai instaurati nelle scuole secondarie di secondo grado (già “medie superiori”) e aboliti nel primo ciclo d'istruzione (scuola primaria e scuola secondaria di primo grado, già elementari e “medie inferiori”) dalla “Riforma Gelmini”. L'esperienza di decenni di giudizi discorsivi/descrittivi non ha tuttavia fatto emergere molte buone prassi, schiacciando i giudizi in parole chiave dal significato scientifico del tutto simile a quello dei voti numerici. Una possibile soluzione di questo problema consiste nell'esplicitare rubriche di valutazione ricche di indicatori significativi, che peraltro sarebbero contemporaneamente sommativi (nel senso che misurano determinati parametri), che orientativi e formativi (perché metterebbero in luce i punti di forza e di debolezza). È probabilmente impossibile, per ragioni anche legate alle connessioni neuronali, individuare “indicatori monodimensionali”, per la natura frattale del problema, ma già in questo contesto non si avrebbero quegli squallidi confronti ai quali abituiamo i bambini, oggi fin da piccoli, concentrando l'attenzione sul voto e su chi ha preso di più o di meno. In una “rubrica di valutazione” si possono confrontare le varie voci, ma è improbabile che un bambino sia superiore in tutte e, comunque, fare un confronto è molto meno immediato.

Una descrizione multidimensionale, che cattura la ricchezza dell'articolazione delle competenze (conoscenze, abilità, attitudini, ciascuna ulteriormente articolata in indicatori) darà sempre e comunque un'idea più adeguata della situazione osservata. È, infine, difficile costruire questo genere di rubriche e una soluzione al problema, che si basa su collaborazioni ampie, è avanzata nell'ultimo capitolo della presente tesi.

 

----------------------------------------------------------

 

1  La locuzione affonda le sue origini nel Regio Decreto 653 del 4 Maggio 1925 che all'art. 79 recita: «... I voti si assegnano, su proposta dei singoli professori, in base ad un giudizio brevemente motivato desunto da un congruo numero di interrogazioni e di esercizi scritti, grafici o pratici fatti in casa o a scuola, corretti e classificati durante il trimestre o durante l'ultimo periodo delle lezioni». Si attualizza, ad esempio, nella Circolare Ministeriale 89/2012 si legge: «Resta comunque inteso, come principio ineludibile, che il voto deve essere espressione di sintesi valutativa e pertanto deve fondarsi su una pluralità di prove di verifica riconducibili a diverse tipologie, coerenti con le strategie metodologico-didattiche adottate dai docenti. Sarà cura quindi del collegio dei docenti e dei dipartimenti fissare preventivamente le tipologie di verifica nel rispetto dei principi definiti dai decreti istitutivi dei nuovi ordinamenti». Detta locuzione, tuttavia, non appare nella normativa recente ed è più probabile una sua origine giuridica, viene infatti rilevata, ad esempio nella Sentenza 213 del 23/1/2009 del TAR della Lombardia.

 

2  Calvani, A. "La lezione in classe funziona o non funziona?", Schede evidence-based di S.Ap.I.E.: «La lezione non ha sempre avuto il formato trasmissivo e monodirezionale che ha assunto in tempi moderni. La lectio medievale prevedeva la discussione tra le opinioni del maestro e quelle contrarie all’interno di un fitto dibattito; poi la lezione si è svuotata della sua componente dialettica, è sopravvissuta come semplice trasmissione di informazioni, ad arbitrio del docente». http://www.sapie.it/images/SchedeSApIE/SApIEschedelalezione.pdf

 (ultima consultazione, 30/7/2016)

 

3  Una critica pungente alle valutazioni decimali e all'ipercampionamento che viene di solito generato nei voti che vanno da cinque a sette, segnalo un articolo “Dal 5 al 6, 6 meno meno etc... ma con quali criteri la scuola dà i voti” pubblicato sul blog scolastico “Pensieri sottobanco” incluso sul sito de Il Secolo XIX
(
http://www.ilsecoloxix.it/p/blog/2016/05/28/AS83YhtC-quali_criteri_scuola.shtml).

 

4  Dati ottenuti dall'Ufficio VI “Statistiche e studi” del MIUR. Le rilevazioni del 2015/16 non erano ancora disponibili durante l'elaborazione di questa tesi.

 

5  Uscendo da sterili polemiche giornalistiche, Anna Maria Ajello, presidente INVALSI, è intervenuta sul tema con un contributo pregevole, pur sintetico e divulgativo, su “Il Sole 24 ore” il 26/8/2016 dal titolo “Maturità, dal divario Nord-Sud nei voti con lode un'opportunità per interrogarsi sul sistema scolastico

 

6 I dati dell'ultimo anno scolastico sono stati rilasciati in un comunicato stampa che si segnala, ma sul quale non sono state fatte elaborazioni in questo contesto in quanto i dati sottesi non sono stati resi disponibili (http://hubmiur.pubblica.istruzione.it/web/ministero/cs100816).