Digitalizzare o studiare informatica?
Con sempre maggiore insistenza si discute sul ruolo delle nuove tecnologie nella scuola (e talvolta anche nell’Università). Il tono più comune è quello della lamentela: le classi dovrebbero essere dotate di lavagna elettronica, ogni studente dovrebbe avere il suo tablet — invece i soldi mancano, ovvero le priorità degli ultimi governi, di destra, sinistra o non-si-sa-che-cosa, sono state completamente diverse: e così gli studenti italiani rimangono tagliati fuori da molte opportunità di apprendimento. C’è chi replica che, nel caso che i soldi ci fossero, altre spese sarebbero più urgenti e fruttuose: per esempio per migliorare l’edilizia scolastica talvolta fatiscente e deprimente, oppure (proposta ardita) pagare meglio gli insegnanti e attirare così a questo mestiere persone più motivate. C’è chi timidamente fa osservare che, qualora venga messo di fronte alla scelta, un ragazzo preferisce studiare su un libro di carta, che è più comodo, più facile da usare, meno distraente (su questo gli studi empirici concordano): e dunque l’investimento nella digitalizzazione sarebbe solo il tributo pagato ad un’illusoria modernità. Discussioni interessanti, probabilmente tutte le posizioni hanno qualcosa di vero e bisognerebbe trovare la giusta via di mezzo.
È però curioso che praticamente mai queste discussioni investono una questione più basilare. Chi ha qualche anno di più ricorderà i primi timidi ingressi dell’informatica nella scuola degli anni ’80. Era l’epoca dei Personal Computer dell’IBM, avere un disco rigido era un lusso, quando si voleva un po’ di grafica e non solo 80 caratteri per 25 righe bisognava montare una scheda grafica (magari la celebre Hercules, ovviamente in bianco e nero). Non ricordo se per iniziativa propria o conformemente a qualche curriculum sperimentale, i docenti di matematica, tra elementi di logica proposizionale e di teoria degli insiemi, insegnavano anche un po’ di programmazione: in genere il Pascal, per esempio nella versione della Borland (il miracoloso Turbo Pascal). Ovviamente s’imparava qualcosa anche della rozza shell del DOS («riga di comando», si diceva). Ricordi che si confondono con quelli di Happy Days! Ora è tutto anni luce avanti.
Ma… un momento: a quel tempo s’insegnava a programmare! Pure nei licei classici. Perlomeno si faceva capire vagamente che cosa ciò significhi. Oggi da tutti i curricola scolastici, da tutte le discussioni in materia, è scomparso ogni riferimento a questo uso creativo dell’informatica. La giustificazione è spesso che oggi non serve più conoscere il DOS o il Pascal per usare il computer. Falsissimo! Se è per questo non serviva neppure allora: si poteva tranquillamente usare Wordstar (per i più giovani: era il programma di scrittura prevalente negli anni ’80). Ma l’informatica ha poco o nulla a che fare con l’uso finale di un programma applicativo. Altrimenti siamo coerenti, e diciamo che è informatica anche imparare ad usare il telecomando di un condizionatore. Certo, da un estremo all’altro, dal programmare puro all’usare puro, vi sono molte gradi intermedi. Ma ciò non toglie che essere introdotti all’informatica significa comprendere la logica che rende possibili i computer, e come essi possano essere appunto programmati: qualche cosa che ha molto a che fare con Aristotele, gli Stoici, Leibniz, Boole, Frege, Peano, Turing, cioè alcuni dei più grandi filosofi e logici dall’antichità al Novecento. Ha a che fare anche con l’ergonomia, il campo di studio squisitamente umanistico che si occupa dell’interazione tra esseri umani e apparecchiature (a beneficio dei primi, ovviamente.) Si tratta di un retroterra intellettuale che attraversa tutte le vere o presunte novità tecnologiche, e che anzi per essere compreso e studiato non ha neppure bisogno assoluto di un computer.
La domanda è allora questa: gli strumenti informatici debbono entrare nella scuola e nell’Università come strumenti-e-basta, come cose di cui essere gli utilizzatori finali rincorrendo le novità commerciali che tra sei mesi saranno obsolete, o piuttosto come oggetti da capire e usare in maniera intelligente e creativa? Probabilmente la decadenza che ha subìto il concetto di alfabetizzazione informatica nelle scuole e spesso anche nelle Università è stato l’esito congiunto di fretta, pigrizia, concezione utilitaristica del sapere e condizionamenti commerciali. Ma non è mai troppo tardi per fare un passo indietro, che nella situazione attuale sarebbe in realtà un balzo in avanti. Certo, oggi nessuno sceglierebbe più di insegnare il Pascal: più moderni il Python o il Perl, per esempio. Ma queste sono solo sfumature, scelte di gusto. Al Massachusetts Institute of Technology il corso di base di Informatica viene svolto insegnando un dialetto del Lisp, un linguaggio di programmazione insuperato nella sua eleganza — e ideato nel 1958. E dietro a qualsiasi computer Apple o qualsiasi telefonino Android c’è Unix, il sistema operativo progettato e realizzato nei Bell Laboratories — nel 1969. Le buone idee hanno lunga vita!
Insomma: la scuola e l’Università devono essere i luoghi per eccellenza in cui s’insegna a pensare, a riconoscere che cosa sta «dietro», a non lasciarsi abbagliare dalla pubblicità. Un sapere «inutile»? In realtà è il sapere che qualsiasi azienda innovativa apprezza: il paradosso è che ciò che all’inizio pare più inutile alla fine è anche l’investimento migliore. Ma per lo meno, non illudiamoci che l’istruzione venga modernizzata grazie ad un’infornata di tablet, e non illudiamo i nostri studenti che aiuti molto a trovare lavoro avere nel proprio curriculum vitae una «discreta conoscenza di Word e PowerPoint».
di Giovanni Salmeri
Presidente del Consiglio di Corso di laurea in Filosofia, Roma Tor Vergata
3 novembre 2013