È stato messo
autorevolmente in evidenza sulle colonne del Corriere della Sera dei
giorni scorsi ciò che da tempo su questo sito si era segnalato: la
distanza fra la distribuzione geografica delle eccellenze negli esami
di stato ed i risultati del Servizio Nazionale di Valutazione Invalsi,
stavolta arrivato al 2° anno delle superiori cioè a solo tre anni prima
della “maturità”. Negli esami di stato il Sud – Calabria in testa –
eccelle con una grandinata di 100 e lode, mentre nei dati Invalsi si
torna alla solita graduatoria delle valutazioni internazionali: Nord su
e Sud giù.
L’impressione che i risultati degli esami al Sud fossero gonfiati la si
è sempre avuta, ma è indubbiamente altra cosa avere delle evidenze
quali quelle che solo le prove standardizzate esterne possono
dare.
Già da tempo tuttavia l’indagine internazionale Pisa segnala
questa realtà. Nel rapporto nazionale Pisa 2003 Maria Teresa
Siniscalco, project manager nazionale, aveva per la prima volta messo
in rilievo questo aspetto. Infatti nel questionario che ogni studente
campionato da Pisa deve compilare dopo aver terminato di rispondere
agli item è presente una domanda in cui si chiede quale è l’ultimo voto
“ufficiale” ricevuto in matematica (focus dell’indagine). Le
possibilità che le risposte non siano attendibili sono limitate, sia
per la mancanza di interesse ad alterare i dati, sia perché sui grandi
numeri le eventuali scorrettezze vedrebbero annullato il loro effetto.
Dalle analisi di Siniscalco risultava che la scala delle capacità degli
allievi, come fotografata dai voti della scuola, era perfettamente
parallela a quella di Pisa, con un effetto dunque di un rinforzo di
attendibilità reciproco. Ma risultava anche che ad uguali voti
corrispondevano diversi effettivi livelli fra licei, istituti tecnici
ed istituti professionali - il che è comprensibile. E risultava
soprattutto che ad uguali voti corrispondevano diversi effettivi
livelli Pisa nelle diverse parti di Italia, il che è decisamente meno
comprensibile. In sintesi, un livello leggermente inferiore al livello
medio Ocse corrispondeva in Lombardia ad un 5, e nel complesso d’Italia
ad un bel 7.
Nel 2006 Pisa non aveva raccolto le informazioni su questo dato per la
difficoltà di individuare il voto di scienze (focus dell’indagine) che
potesse fare da punto di riferimento. Ma nel 2009 i dati sui voti nelle
competenze focus dell’indagine (che sono quelle di Lettura) dichiarati
dagli studenti delle diverse regioni italiane - tutte separatamente
campionate - sono disponibili di nuovo. Tuttavia, nonostante la
scottante attualità del tema né il Rapporto nazionale Pisa 2009 né i
Rapporti regionali fin qui rilasciati hanno proseguito sulla strada
indicata nel 2003.
Fa eccezione il rapporto lombardo, in uscita nell’autunno, che dedica
al tema un apposito capitolo a cura di Guido Gay ricercatore Eupolis
(l’ente di ricerca di Regione Lombardia) e Moris Triventi, ricercatore
del Dipartimento di Sociologia dell’Università di Milano Bicocca.
Queste le sintetiche conclusioni. In primo luogo ancora una volta, a
conferma di quanto rilevato nel 2003, in tutte le regioni, senza
eccezioni, sussiste una relazione positiva tra il voto in Italiano
ricevuto nel primo quadrimestre e il livello delle competenze in
Lettura. Al crescere del voto cioè cresce il livello delle competenze.
Gli insegnanti italiani hanno in mano la scala di valori giusta, ma il
problema sta nel fatto che la “appendono” ad altezze diverse.
Infatti ad una singola valutazione scolastica corrisponde un ampio
intervallo di livelli medi di competenza. A titolo d’esempio, un 5 in
Lombardia corrisponde mediamente a 489 punti, valore superiore ad un 7
in Calabria (479 punti in media). E ancora, per ottenere 8 in Lombardia
sono necessarie competenze in lettura di fascia superiore (565 punti)
mentre in Campania basta molto meno (506 punti). Complessivamente, la
Lombardia è la regione in cui le valutazioni sono maggiormente severe,
sono associate cioè ai maggiori livelli di competenze tra le regioni
italiane.
In conclusione è evidente l’esistenza di una eterogeneità negli
standard valutativi secondo una precisa scansione geografica: maggiore
severità al Nord, un livello intermedio al Centro e standard
decisamente meno impegnativi al Sud.
La frattura geografica negli standard valutativi si evidenzia anche
quando si considerino i valori medi per macro area. Per ogni voto, il
livello delle competenze richieste è maggiore al Nord (Ovest ed Est)
rispetto a quanto necessario al Centro e, con maggiore evidenza, al
Sud. Pisa 2009 conferma pertanto in Lettura quanto già emerso in
Matematica in Pisa 2003, in consonanza con le più dettagliate indagini
condotte da Invalsi.
Sembra urgente l’adozione di misure che mirino quanto meno ad attenuare
l’ingiustizia sociale di questa realtà. Almeno dove i voti contano
anche per le scelte di vita e professionali, come negli esami di stato
finali.
(di Tiziana Pedrizzi da il Sussidiario)
redazione@aetnanet.org