Iscriviti alla FLC CGIL

Home » Rassegna stampa » Rassegna stampa nazionale » Le scuole meridionali i 100 e lode li regalano?

Le scuole meridionali i 100 e lode li regalano?

di Giorgio Tassinari e Fabrizio Alboni

24/11/2016
Decrease text size Increase text size
ROARS

Nell’agosto del 2016 si sviluppa sulla grande stampa italiana un dibattito sulle differenze regionali tra i voti conseguiti dagli studenti all’esame di maturità. L’attenzione è concentrata sulla performance degli studenti dell’Italia Meridionale, che riportano voti più alti della media nazionale, nonostante i risultati poco soddisfacenti conseguiti nei test INVALSI. Fabrizio Alboni e Giorgio Tassinari hanno studiato questo fenomeno con metodologie statistiche in grado di isolare l’effetto dell’area geografica da quello delle altre caratteristiche. A dispetto della vulgata corrente, l’effetto-regione risulta assai più accentuato nelle regioni dell’Italia Centrale, smentendo così le insinuazioni sul cosiddetto lassismo delle scuole del Mezzogiorno.

Coloro che tra noi ricordano le trasmissioni televisive degli anni Sessanta forse avranno riconosciuto il titolo di una famosa canzone interpretata da Mina e da Alberto Lupo. La storia è semplice: una bella signora (Mina, appunto) lamenta che il suo fidanzato (Alberto Lupo) non superi mai la fase delle “parole”, non riuscendo ad arrivare ad uno sviluppo libidico completo. Con le debite proporzioni, lo stesso sentimento di irritazione interpretato da Mina ci ha colto leggendo i numerosi articoli apparsi nella prima metà del mese di agosto sui grandi quotidiani nazionali sull’apparente “eccesso” di studenti del Sud che superano l’esame di Stato con il massimo dei voti (100 e lode). A ciò hanno fatto seguito dichiarazioni di presidenti di regione ed assessori all’istruzione delle regioni del nord. La cifra è comune: antimeridionalismo e destituzione della credibilità della scuola statale.

Ma è poi vero? In altri termini, è vero che l’eccesso di 100 e lode sia imputabile al lassismo delle scuole del Mezzogiorno.  Per rispondere in maniera credibile, è necessario affrontare il problema con un poco di respiro e con un approccio tecnico-razionale, senza tesi precostituite da promuovere.

A supporto della tesi del lassismo meridionale, diversi commentatori portano i risultati dei test PISA (OCSE) e INVALSI (MIUR), che evidenzierebbero risultati di gran lunga peggiori degli studenti del Sud rispetto a quelli del Nord. In premessa, vale la pena soffermarsi su questa comparazione, a nostro giudizio completamente spuria e viziata da un profondo e assai grave errore di metodo.

Si tratta di un confronto a dir poco ingenuo, poiché le coorti di studenti sono diverse. Inoltre il voto dell’esame di Stato riguarda studenti di circa 18 anni, i test PISA e Invalsi studenti di 15-16. Ancora, PISA e INVALSI si concentrano su solo due discipline (lingua italiana e matematica), mentre l’esame di Stato considera tutte le discipline, e tiene conto della carriera dello studente negli ultimi tre anni. PISA e Invalsi sono invece prove one-shot. Insomma, è come paragonare il Giro d’Italia con le Tre Valli Varesine, gara nobilissima e di tradizione, ma non sufficiente a costruire sui suoi risultati un ranking nazionale.

Ci siamo già soffermati sul significato, sotto il profilo politico-filosofico, degli esercizi di valutazione nella scuola, e rimandiamo a quei contributi[1] per una disamina più approfondita. Va tuttavia sottolineata l’estrema fragilità tecnico-statistica dei risultati INVALSI, che si basano su una metodologia (il modello di Rasch (Falocci et al., 2010) assai suggestiva, ma che richiede assunzioni assai stringenti per la sua applicazione. Per questi motivi utilizzeremo come riferimento soltanto i risultati dei test PISA-OCSE. Come già detto, un approccio intellettualmente onesto al problema, e non banalmente ideologico, ovvero informato dal duplice pregiudizio anti-meridionale e anti-statale, richiede un’analisi il più possibile razionale dei dati a nostra disposizione. Inoltre è a nostro giudizio importante cercare di quantificare, pur con tutti i limiti della metodologia statistica, il peso del carattere “scuola secondaria del Sud” nel determinare il risultato dell’esame di Stato. E’ quanto cercheremo di fare nel proseguo.

Nella Tabella 1 è riportata la distribuzione per regione degli studenti che hanno superato l’esame di Stato nell’A.S. 2014-2016 secondo la classe di voto ottenuto. Dall’esame dell’ultima colonna è evidente la grande variabilità della percentuale di studenti che hanno riportato il massimo dei voti. Tuttavia, considerando il valore medio nazionale come punto di riferimento (ovvero una percentuale di 0,9), ci accorgiamo che la percentuale è più alta non solo in alcune regioni meridionali (come la Calabria e la Puglia), ma anche nelle Marche ed in Umbria. Se, anziché la media aritmetica assumiamo come valore di riferimento la mediana della distribuzione per regione della percentuale di 100 e lode, otteniamo sempre lo stesso valore di 0,9. E’ comunque significativo che tutte le regioni del Nord abbiano valori sotto la mediana, e le regioni del Sud abbiano valori intorno alla mediana o superiori (in alcuni casi di molto superiori, come in Puglia o in Calabria).

Tuttavia, dobbiamo tener presente che vi sono altre cause di variazione sistematica del voto conseguito all’esame di Stato, cause che lo stesso MIUR, nella pubblicazione citata, mette in evidenza (Tabella 2):

  • il tipo di percorso di studio influenza il risultato in modo assai incisivo (gli studenti dei licei hanno una percentuale di 100 e lode circa doppia di quelli che frequentano gli istituti tecnici);
  • la nazionalità dello studente influenza in modo assai forte il risultato (gli studenti con cittadinanza italiana figli di cittadini italiani hanno i risultati migliori).

Oltre a questi elementi occorre tener presente l’importanza del fattore sesso degli studenti. Le femmine infatti rappresentano circa il 50% di tutti i diplomati, ma la loro presenza sale al 61,1% per quanto riguarda i licei e scende al 34,8% negli istituti tecnici. Che le ragazze siano più brave dei ragazzi lo dimostra in modo chiarissimo il fatto che, a parità di indirizzo scolastico, le ragazze riportano sistematicamente risultati più brillanti.

Questi fattori di eterogeneità si intersecano ed interagiscono tra loro. Ad esempio è ben noto che la percentuale di studenti stranieri che frequentano i licei è assai bassa. In generale, la quota di studenti non italiani che arrivano a sostenere l’esame di Stato è assai esigua e di conseguenza la loro performance assai più modesta di quella che riguarda gli italiani non influenza in modo palese la distribuzione media dei voti all’esame di Stato.

Ci sembra palese, quindi, che il risultato “regionale” degli esami di Stato sia influenzato dalla composizione della popolazione studentesca. Il corretto confronto tra i risultati delle diverse regioni dovrebbe quindi basarsi sull’eliminazione di tali differenze. Dovrebbe essere chiaro a questo punto che confrontare i risultati della Lombardia con quelli della Sicilia, sic et simpliciter, non ha nessun senso. E’ la classica somma di mele e di pere. Avrebbe invece senso confrontare i risultati agli esami di Stato degli studenti lombardi che frequentano il liceo classico con quelli degli studenti siciliani che  frequentano lo stesso tipo di scuola. Sarebbe inoltre necessario, “dentro” ciascun indirizzo di scuola media superiore, standardizzare la composizione degli studenti tenendo conto del sesso degli studenti e della loro cittadinanza.

Un ulteriore elemento di segmentazione del sistema scolastico italiano è quello tra scuole statali e scuole private (paritarie e non). Purtroppo il MIUR non elabora i risultati degli esami di Stato secondo questo carattere, sebbene i risultati dei test PISA mettano in evidenza differenze drammatiche tra i due sistemi[2].

La situazione si chiarisce notevolmente se consideriamo congiuntamente i due caratteri di stratificazione,  tipo di istituto e regione. Nella tabella seguente (tabella 3) viene riportata la percentuale di 100 e lode secondo i due caratteri menzionati (i dati si riferiscono all’anno scolastico 2013-2014).

Si conferma  che, anche a livello territorialmente disaggregato, vi è un effetto sistematico dovuto al tipo di istituto e che a parità di tipo di istituto, emerge un effetto sistematico che tende a far sì che nelle regioni meridionali la percentuale di studenti che conseguono 100 e lode è più elevata, a parità di tipo di percorso di istruzione.

Per individuare i fattori che possono spiegare la diversa perecntuale di studenti che riportano il voto massimo all’esame di maturità abbiamo fatto ricorso direttamente ai dati micro riferiti ai singoli istituti scolastici. Anche in questo caso abbiamo utilizzato i dati MIUR riferiti all’a.s. 2013-2014.

Lo strumento statistico che abbiamo utilizzato è quello della regressione logistica  multinomiale (Multinomial Logit, Brasini et al. (2010)), in cui la variabile dipendente è data dalla percentuale di istituti che hanno avuto una percentuale di diplomati con 100 e Lode compresa alternativamente nelle seguenti classi:

  • nessun 100 e Lode
  • tra 0 e 1%
  • tra 1 e 2%
  • tra 2 e 3%
  • oltre il 3%

Abbiamo pertanto stimato un modello per ciascuna classe della variabile dipendente.Le variabili indipendenti sono date dal voto mediano, dalla percentuale di abbandoni, dal tipo di istituto e dall’area geografica (Nord-Ovest, Nord-Est, Centro, Sud, Isole).

Va rimarcato, brevemente, che gli istituti che licenziano almeno un diplomato con 100 e lode sono assai pochi, solo 1300 su 4800. La “strage” è massima negli istituti professionali (53 istituti su 1283). Ma anche nei licei, vi sono ben 580 istituti che non hanno alcun diplomato con 100 e Lode. Questa grande eterogeneità deve pertanto farci diffidare delle analisi eccessivamente aggregate. Gli studenti sono ovviamente i “figli” di una comunità ed occorre quindi tenere debitamente conto delle variabili di contesto[1].

I risultati sono eccellenti, poichèi coefficienti sono tutti altamente significativi, e molto buone sono anche le statistiche test complessive. Il modello è costruito in modo differenziale rispetto ad una tipologia base, costituita dagli istituti professionali del Nord-Ovest. Va rimarcato che l’effetto del voto mediano è positivo, mentre quello della percentuale di abbandoni negativo (gli istituti che riescono ad evitare gli abbandoni, od in cui gli studenti hanno una minore propensione ad abbandonare hanno percentuali più alte di 100 e lode).

Considerando le variabili territoriali i coefficienti concernenti il Sud e le Isole sono sempre più bassi di quelli relativi al Centro ed in molti casi anche di quelli del Nord-Est. Pertanto, depurando i dati dalle condizioni al contorno, l’effetto territorio è più forte negli istituti scolastici del Centro rispetto a quelli del Sud-Isole.

Non va taciuto che l’analisi delle performance delle scuole è un terreno assai articolato, e andrebbe affrontato con un respiro assai più ampio di quanto si sia fatto in questa sede. Ci pare tuttavia che anche da un’analisi “short-cut” come quella che abbiamo condotto si possano trarre alcuni elementi sufficientemente solidi:

  1. La scuola italiana è una scuola severa. Infatti su 4500 istituti superiori, nel 2013-2014 ben 3500 non hanno avuto nemmeno un diplomato con 100 e Lode;
  2. vi è una tendenza uniforme degli istituti superiori del Nord-Ovest ad avere percentuali di studenti con 100 e Lode inferiori al resto d’Italia; la sovrarappresentazione di 100 e Lode caratterizza maggiormente le scuole del Centro che non quelle del Sud-Isole. Vi sono anche differenze significative tra Nord-Ovest e Nord-Est;
  3. la polemica anti scuole meridionali è frutto di un’analisi superficiale dei dati e rivela un intento fazioso ed ideologico, intendendo ideologia come “falsa coscienza” nel senso dell’”Ideologia tedesca” di Marx-Engels;

L’effetto territoriale comunque si afferma come rilevante anche ad un’analisi condotta con strumenti tecnico-razionali sofisticati. Ci pare doveroso quindi riflettere ed introdurre modificazioni all’attuale meccanismo dell’esame di maturità. Per i motivi già esplicati sopra, non abbiamo nessuna fiducia nell’introduzione di prove standardizzate, la cui vacuità è ormai assodata nella letteratura internazionale (Harris 2011). Forse tornare alle “vecchie” commissioni esterne potrebbe rappresentare un rimedio che assicuri maggiormente l’equità orizzontale nei risultati.

Va da sé che questa seconda alternativa è più costosa della prima. E qui si introduce una dimensione, quella del “costo della giustizia sociale” (Kolm, 1969), assai interessante, ma sulla quale la riflessione, nel nostro paese, è ancora agli inizi.

[1] Moretto e Tassinari (2009);  Tassinari  (2012).

[2] Ad esempio, nella abilità reading, per la provincia di Trento il punteggio medio è di 520 per gli studenti delle scuole pubbliche e di 455 per gli studenti delle scuole paritarie (PISA 2009 Results Database disponibile on line all’Url://www.oecd.org/pisa/pisaproducts/pisa2009resultswhatstudentsknowandcandostudentperformanceinreadingmathematicsandsciencevolumei https.htm). Per le altre regioni i dati sulle scuole paritarie non vengono rilevati.

[3] La letteratura infatti suggerisce di utilizzare come unità elementare lo studente, e di articolare i modelli su più livelli, ad esempio classe-istituto-comune-provincia etc. Vedi su questo, tra gli altri, Bryk e Raudenbush (2002).

Riferimenti bibliografici

Brasini, M. Freo, F. Tassinari, G.Tassinari, (2010), Marketing e pubblicità. Metodi di analisi statistica, Bologna, Il Mulino.

Bryk, B. Raudenbush, (2002), Hierchical Linear Models: Applications and Data Analysis Methods, Thousand Oaks, Sage.

Falocci, M. Gualdi, M. Matteucci, S. Mignani, (2010), La Validazione Statistica di test standardizzati di profitto: principali aspetti di metodo e due casi di studio sulla valutazione degli apprendimenti nella scuola primaria, Invalsi, Working Paper n. 9.

N. Harris (2011), Value Added Measures and the Future of Education Accountability, Science, 33, 6044 (August), pp. 826-827.

S.C.Kolm, (1969), The Optimal Production of Social Justice, in H. Guitton, J. Margolis, (eds.), “Public Economics”, McMillan, London.

Moretto, G. Tassinari, La libertà è partecipazione, Scuola e Costituzione, 28 febbraio

Piccolo, C.Vitale, (1981), Metodi statistici per l’analisi economica, Bologna, Il Mulino.

Tassinari G. (2012), Due o tre cose sul progetto Vales, Inchiesta on line, 11 febbraio 2012.