PavoneRisorse

LA BUONA SCUOLA OGGI: Documenti e interventi su  "Piano Renzi" (settembre 2014)

(05.10.2016)

Le linee e il fronte. Ancora sulla valutazione dei dirigenti scolastici
di Franco De Anna

Ancora sulla valutazione del Dirigente Scolastico

C’è un isomorfismo di fondo tra il modello di valutazione delle scuole (RAV, Piano di Miglioramento, Valutazione Nuclei Esterni) e il modello delineato nelle linee guida per la Valutazione dei Dirigenti Scolastici. Innanzi tutto Si tratta di modelli che coniugano autovalutazione e valutazione esterna.
A tale carattere comune di fondo si connette anche un “grappolo” sia di elementi ed oggetti della valutazione, sia di strumenti e metodologie.
Nei paragrafi che seguono tento di organizzare le argomentazioni circa gli elementi critici che ritengo siano da affrontare e correggere nel modello delineato di valutazione dei dirigenti scolastici

Lo specchio senza Narciso.

Così intitolavo un mio contributo relativo al nesso auto-etero valutazione nel caso delle organizzazioni scolastiche. Rimando per una analisi a quel contributo[1], ma il titolo sintetizza efficacemente: l’autovalutazione è sempre un processo di “rispecchiamento”, il che non costituisce in sé un difetto (speculum…speculare…analizzare… guardare con attenzione…). Il rischio è ovviamente l’autoreferenzialità (Narciso). Ma, nei modelli di autovalutazione di organizzazione è un rischio attenuabile attraverso strumentazione opportuna: intanto si tratta di “imprese collettive” e dunque costitutivamente a “sguardo plurimo”. E in oltre, in quasi tutti i modelli autovalutativi è prevista la presenza di quello che si usa chiamare “amico critico”. Una funzione non valutativa ma che restituisce e ripropone l’immagine dell’oggetto valutato “ da un altro punto di vista”.
Come si comprende nel caso in cui l’oggetto della valutazione è “una persona”, sia pure “in una organizzazione”, i rischi di autoreferenzialità hanno ben altro spessore e vi è una intrinseca debolezza validativa e difficoltà di individuare correttivi. Quello dell’autoreferenzialità confina direttamente con il rischio opportunistico e mistificatorio, anche a livello di latenze, soprattutto quando la valutazione sia connessa con la possibilità di vantaggi economici o professionali personali.
Come sappiamo il modello autovalutativo delle organizzazioni scolastiche ha trovato una sua definizione standard attraverso il RAV. Nelle linee guida per la valutazione dei DS si indicano modelli standard di “Portfolio delle competenze” e di “Auto valutazione” condotta secondo il modello degli obiettivi di miglioramento definiti sulla base dello stesso RAV per l’organizzazione di cui il Dirigente è responsabile, nel quale il dirigente, annualmente dovrebbe riportare il trend di avvicinamento/acquisizione del set di obiettivi definiti (vedi linee guida, cap. 3 “Gli strumenti di valutazione”)

Tra nomotetico e idiografico

Ho altrove ripreso tale distinzione [2]. Il tentativo di correzione strutturale del “narciso” nel caso dell’autovalutazione delle scuole (RAV) fu quello di strutturare un “modello” sul quale le scuole hanno condotto l’impegno di autoanalisi e autovalutazione. Un modello il cui fondamento, anche non esplicitamente dichiarato, era una ipotesi di cosa avrebbe dovuto essere una “scuola che funziona”. Una sorta di “idealtipo” di organizzazione scolastica cui rapportare l’apprezzamento valutativo delle singole specifiche realtà.
Come noto tale modello è quello rappresentato nello schema del RAV (vedi di seguito)
Come ovvio la prima colonna è dedicata a variabili che non sono oggetto di valutazione ma rappresentano dati caratterizzanti la scuola e oggetto di interessanti elementi di comparazione (ancorchè in alcuni casi di scarsa significatività e possibilità di approfondimento).
Nel RAV non c’è dunque “l’identità” della singola scuola, (come potrebbe essere in un impegno autenticamente autoanalitico) ma solo “il quanto” di quella scuola rientra nel modello descrivibile in modo standard. Tale limite va tenuto presente, ovviamente; ma è altrettanto ovviamente connesso con le priorità del modello che sono di “carattere sistemico”, non “clinico”



Coerentemente, nella definizione dei progetti di miglioramento individuati sulla base di tale modello di autovalutazione, si segue uno “schema funzionale” altrettanto standardizzato, che è il seguente

Dove i “processi” sono pre definiti: 1) Curricolo, progettazione, valutazione; 2) Ambiente di apprendimento; 3) Inclusione e differenziazione; 4) Continuità e orientamento; 5) Orientamento strategico e organizzazione della scuola; 6) Sviluppo e valorizzazione delle risorse umane; 7) Integrazione con il territorio e rapporto con le famiglie.
Dunque vi è un legame strutturale tra gli interventi definiti sui processi e i risultati del miglioramento che devono essere traguardati agli esiti degli studenti. Tale legame funzionale è “vincolante” e “validante” nella stessa logica del modello RAV. Altrettanto legato alla preoccupazione “standard” è il “modello” di Piano di Miglioramento elaborato da INDIRE.
Il limite “nomotetico” (la realtà della singola organizzazione colta solamente in quanto riducibile al modello) è, o dovrebbe essere corretto dalla “valutazione esterna”. La ricostruzione “idiografica” della singola organizzazione sarebbe affidata alla osservazione diretta ed allo sguardo del Nucleo Esterno di Valutazione. Ma nella realtà non né così. E lo affermo per esperienza diretta di valutatore esterno e membro di un paio di NEV.
Anche i valutatori esterni compilano griglie e schede e rispondono a domande e crocettature che scavalcano una visione sintomatica specifica dell’oggetto di osservazione (“quella” organizzazione scolastica). E spesso le “griglie” annullano del tutto la rilevazione della individualità della scuola valutata. Si comprendono i motivi di fondo di tale prevalenza della “mappatura” rispetto alla “ricostruzione clinica” della valutazione: si privilegia infatti il “ritorno sistemico”, la necessità di alimentare una banca dati che operi raffronti e classifichi “categorie” (E’ ciò che interessa “il sistema”). La singola scuola riceverà un “responso valutativo” sulla base delle comparazioni e della definizione di standard (che tali in realtà non sono ma semplicemente dei posizionamenti statistici. Lo Standard vero avrebbe necessità di declinare statistiche e indicatori di qualità, che per ora non possediamo). La scuola avrà sempre un “altro di sé” da raccontare. Basti saperlo.
Per la verità nel modello vi è uno spazio di affermazione della autonomia della scuola; ciascuna scuola può infatti aggiungere indicatori ed elementi autoanalitici “propri” al repertorio determinato. E ciò vale anche per i modelli di miglioramento. E’ quello che abbiamo tentato per esempio nella mia Regione nella rete AUMIRE (160 scuole) che si occupa da anni di tali problematiche
[3], ma rispetto al sistema si tratta di eccezioni.
Siamo comunque di fronte ad un “limite di modello” di cui occorrerebbe essere consapevoli per migliorarlo (anche se i limiti hanno giustificazioni, non per questo sono da ignorare)
Mi sono dilungato nella descrizione perché nel modello di valutazione dei dirigenti non solo si segue il medesimo schema autovalutazione/valutazione esterna; ma perché i prodotti del modello RAV (RAV, Piano di Miglioramento) vengono assunti come base per la definizione del modello di “Dirigente Scolastico” da utilizzare nella valutazione. E con esso i medesimi limiti intrinseci e schemi funzionali connessi, che, riferendosi in questo caso ad una persona, e comportando conseguenze soggettive (e non di descrizione sistemica) hanno effetti distorcenti assai più marcati.

La definizione degli obiettivi del Dirigente: sconnessioni

Nella parte introduttiva delle “Linee guida” si afferma “…la valutazione non può essere fondata esclusivamente sul raggiungimento degli obiettivi, ma deve considerare innanzitutto lo specifico dell’azione dirigenziale finalizzata al loro raggiungimento…”. Il modello obiettivi-risultati dunque non è considerato “esauriente”, ma deve estendersi alla considerazione di comportamenti organizzativi, competenze, azioni dirette allo scopo. E’ una affermazione più che condivisibile (si vedano contributi in nota precedente). Ad essa danno conforti i riferimenti normativi e strategici utilizzati nelle linee guida (il DLGS 165/2001 e le priorità di sistema). Ne emergono elementi di indirizzo nella “classificazione” degli obiettivi del DS. In sintesi

·         Contributo al miglioramento del successo formativo e scolastico degli studenti

·         La direzione unitaria della scuola (partecipazione, collaborazione componenti, programmazione comune)

·         Il funzionamento generale dell’istituzione scolastica (gestione delle risorse materiali, umane, organizzative)

·         L’autonomia didattica e organizzativa (ricerca, innovazione, sperimentazione e sviluppo,)

·         Cultura e la pratica della valutazione come strumento di miglioramento della scuola.

·         Competenze gestionali ed organizzative finalizzate al raggiungimento dei risultati,

·         Valorizzazione dell’impegno e dei meriti professionali del personale

·         Apprezzamento dell’operato all’interno della comunità professionale e sociale

Si tratta di “direttrici” generali, cui vanno rapportati gli obiettivi specifici assegnati al singolo Dirigente.
Ma tale definizione spetta al Direttore Generale Regionale (che è il contro firmatario del “contratto” con il DS…) che consulterà i dati on line riferiti ai RAV e ai Piani di Miglioramento delle scuole interessate, e da essi estrapolerà gli obiettivi specifici coniugandoli con quelli da lui stesso elaborati rispetto alla realtà regionale/territoriale.

A parte ogni considerazione circa la appropriatezza del compito assegnato ai Direttori degli USR (anche per loro la valutazione del personale è un inedito: i vecchi Provveditori valutavano i Presidi, ma credo non ne sia rimasto in servizio alcuno… ed inoltre, con tutto il rispetto, adempiere a tale incombenza nel Molise è cosa assai diversa che farlo per la Lombardia) qui si prospetta un cortocircuito e/o una sconnessione.
Si confronti infatti il repertorio precedente con quello su cui è costruito il RAV (l’elenco citato dei processi) e a cui è vincolato il Piano di Miglioramento. Risulta evidente che, in termini di effettiva “padronanza” degli obiettivi del DS, vi è sovrapposizione e coerenza solo per tre di essi:
Orientamento strategico e organizzazione della scuola; Sviluppo e valorizzazione delle risorse umane; Integrazione con il territorio e rapporto con le famiglie. Per tutti gli altri valgono espressioni come “favorisce”, “promuove” ecc…
Si consideri inoltre che proprio sulle variabili e gli indicatori relativi alla gestione delle risorse (umane e materiali: il core del DS ) nel modello RAV vi sono elementi di comprovata debolezza (confrontare la struttura del RAV e le modalità di rilevazione delle variabili e degli indicatori relativi)
[4]
Ma accanto a tali non corrispondenze vi è altra considerazione da aggiungere. Avendo analizzato, proprio per il lavoro di valutatore, e per la collaborazione con la rete regionale AUMI, molti RAV reali e molti conseguenti Piani di Miglioramento, mi sento di affermare che il lavoro di estrapolazione da essi degli obiettivi “specifici” di padronanza effettiva del DS, attraverso la consultazione on line delle relative banche dati, sia non tanto impossibile (qualche scheda si può sempre estrapolare). Quanto di esigua significanza, a forte rischio di “conformizzazione” e di evidente “parzialità” rispetto alle intenzioni dichiarate.
Ma ciò è coerente con quanto osservato in precedenza: un modello elaborato dando priorità alle rilevanze sistemiche non può essere utilizzato organicamente come strumento “sintomatico” rispetto alla valutazione del personale.

Il rapporto tra auto e etero valutazione.

Come sottolineato in precedenza il riequilibrio tra un modello valutativo fortemente “conformizzato” su schede e griglie standard e le esigenze, prioritarie nella valutazione del personale, di un approccio clinico-sintomatico, specifico della specifica “posizione”, potrebbe essere realizzato attraverso la valorizzazione del ruolo della valutazione esterna e dunque delle capacità analitiche e cliniche dei valutatori, nonché degli strumenti da loro utilizzati e padroneggiati.
Le scelte compiute dalle linee guida sembrano condurre altrove almeno per diverse ragioni.
La prima è lo spostamento dal valutatore sul valutato di una serie di oneri documentari e “dimostrativi”. In sostanza il valutato dovrà redigere un portfolio di competenze (rigorosamente riversato, almeno in parte, nella documentazione on line); elaborare su tale base e in connessione con gli obbiettivi assegnati dal Direttore Regionale, un report di autovalutazione; compilare anche un report di “punteggi” assegnati a ciascun obiettivo o al processo di avvicinamento a ciascun obiettivo.
La seconda è il contraddittorio ruolo assegnato al team di valutazione esterna. Le visite degli osservatori esterni sono assicurate almeno una volta nel triennio, ma la valutazione è annuale. Dunque il team lavorerà prevalentemente sullo studio e l’analisi della documentazione. Dunque “a distanza” e sui prodotti il cui livello di significatività è quello ridotto ricordato più sopra.

Occorre anche aggiungere che nelle linee guida non vi è indicazione (probabilmente sarà compito successivo) del “protocollo” osservativo e analitico che i Nuclei di Valutazione dovranno seguire anche nella analisi documentaria. Quali strumenti analitici, quali strumenti di elaborazione del giudizio, quali pesi assegnare ai diversi documenti analizzati e valutati (e l’elenco è poderoso, va dal RAV al PTOF, alla documentazione diretta del lavoro del DS come e relazioni al Bilancio, la elaborazione di linee guida per il PTOF, ecc..)?
Problematica, in rapporto a tali considerazioni, anche la gestione della parte di modello che si fonda sulla rilevazione del livello reputazionale del Dirigente. Sia per quanto attiene alla limitazione di tale rilevazione ai soli Docenti (!? Come si raccorda con la complessità delle direttrici di definizione degli obiettivi del DS?). Sia per quanto attiene alla gestione materiale di tale rilevazione, visti i limiti delle “visite” dei team di valutazione. Non vorrei che, anche in tale caso alla “clinica” della interazione con gli interlocutori si sostituisse il “travaso” in automatico su una banca dati.
Probabilmente vi sarà una definizione successiva, ma vale la pena di sottolineare che, invece, si ha la cura di definire “particolari” che lasciano interdetti: si dice per esempio che il team di valutazione che avesse bisogno di chiarimenti ed approfondimenti sulla documentazione disponibile può (puo?!) chiedere un colloquio con il DS, la cui effettuazione, il contenuto, le modalità, gli esiti vanno rigorosamente registrati on line. Non so se la cosa corrisponda ad una esplicita e deliberata intenzione, ma certo manda un segnale di dubbia e scarsa considerazione “cautelativa” del lavoro e del ruolo dei valutatori esterni.
Le assenze segnalate contribuiscono tutte a indicare un ruolo minore assegnato alla valutazione esterna. In particolare l’assenza di indicazioni di protocolli osservativi e di interazione valutato/valutatore. Certo vi si potrà porre rimedio in successione con apposito intervento, ma intanto, rispetto a queste parzialità delle linee guida risaltano alcuni elementi di opacità connessi.
La definizione e composizione dei team di valutazione esterna. Come noto il capo team può essere un Ispettore, o un Dirigente amministrativo, o un Dirigente Scolastico in pensione… Altri due componenti sono “esperti esterni”. Tutti individuati per “avviso pubblico”. Ma vale la condizione che almeno un membro debba essere un Dirigente Scolastico (!? Bisognerà comporre sensatamente tali indicazioni). Non vengono esplicitati criteri di scelta e di priorità. Soprattutto nelle nomine regionali non vi è riferimento a elementi sui quali radicare una necessaria omogeneità del “corpo” (e soprattutto dell’anima) dei valutatori esterni.

I processi di “validazione” del corpo dei valutatori: selezione e formazione comune ricorrente su cui cominciare a costruire la padronanza dei protocolli e la omogeneità degli atteggiamenti e della cura dell’osservazione sia dei dati che, soprattutto, delle persone.  Alla formazione ricorrente aggiungerei anche ciò che nella “valutazione dei valutatori” è fondamentale: procedure di “supervisione” e di “retroazione” dall’esercizio del lavoro valutativo.

Nell’intero impianto del modello non viene indicato alcun ruolo all’INVALSI e all’INDIRE, cioè dell’Istituto che ha la valutazione nella sua “ragione sociale” e di quello cui sono affidati compiti relativi alla “formazione” ed alla documentazione dei processi (compreso, nel caso, la elaborazione dei modelli di Piani di Miglioramento). Tale assenza non costituisce un mero rilievo formale, anche se nella architettura del Sistema Nazionale di Valutazione è più che esplicitato tale ruolo anche sottolineandone le funzioni di ”soggetti terzi”.
Ciò che mi preoccupa è, attraverso tale silenzio, l’assenza della dimensione “di ricerca” che nella elaborazione di modelli e protocolli di valutazione è essenziale. Per tali definizioni l’Amministrazione, in quanto tale, non può collocarsi come “autosufficiente”.
Ma ciò vale, soprattutto in relazione agli spunti critici che ho mosso ai modelli RAV e Piano di Miglioramento: i due Istituti sono i “soggetti” di tali protocolli, e non a caso fanno parte, insieme al rappresentante degli Ispettori, della “Conferenza nazionale” del SNV. Non possono non intervenire nel contribuire a superare tali limiti quando si debba affrontare il problema di come classificare gli obbiettivi dei Dirigenti Scolastici in valutazione, e come definire i protocolli valutativi.



[1] Si veda Franco De Anna “Lo specchio senza Narciso” in http://www.pavonerisorse.it/riforma/valutazione/specchio_senza_narciso.htm

[2] Si veda Franco De Anna “La valutazione dei Dirigenti Scolastici: in attesa delle linee guida e del modello operativo” in http://www.pavonerisorse.it/buonascuola/valutazione_ds.htm

[3] Vedi il sito http://www.aumi.it/

[4] Si vedano solo  per esempio i quadri 3.5.b e 3.5.c del RAV

 


torna indietro