La questione del rapido progresso dell’Intelligenza Artificiale e delle sue possibili implicazioni future è salita alla ribalta, benché non sia affatto nuova e neppure troppo recente, e si moltiplicano le pubblicazioni, i convegni, i seminari, le trasmissioni radiotelevisive che ne discutono.
Quando non si polarizzano nelle opposte fazioni degli “apocalittici” – catastrofisti senza se e senza ma – e degli “integrati” – ottimisti senza macchia e senza paura – è anche possibile desumerne qualche idea sul significato di ciò che sta cambiando e su ciò che potrebbe accadere. Dico “possibili” perché, in queste cose, non è facile prevedere l’esatto corso degli eventi e – come le precedenti rivoluzioni tecnologiche dovrebbero averci insegnato – spesso i nostri peggiori timori risultano infondati e, per converso, si verificano ben altre conseguenze totalmente inattese e non preventivate.
Recentemente, in occasione del Festival del Pensare Contemporaneo, che si è tenuto a Piacenza dal 19 al 23 settembre (con tanto di lectio conclusiva di Byung Chul Han e visita del Presidente della Repubblica), mi è stato chiesto di intervenire in un talk sull’Intelligenza Artificiale a scuola, ma – per il motivo di cui sopra – anziché avventurarmi in precarie congetture su ipotetici scenari futuribili, ho preferito riflettere sulla scuola ai tempi dell’Intelligenza Artificiale, o forse dovrei dire sulla scuola nonostante l’Intelligenza Artificiale.
Intendiamoci: l’Intelligenza Artificiale è già tra noi, i nostri studenti utilizzano chatbot di open AI come ChatGPT o magari Claude, che pare ancor più potente e raffinata: i suoi inventori dicono che ha raggiunto “livelli quasi umani” di comprensione ed elaborazione (e detto da una startup che si chiama Anthropic l’affermazione suona quasi inquietante). I ragazzi la usano per fare i compiti, per rispondere ai test, per comporre saggi scritti. Quindi non v’è dubbio che l’Intelligenza Artificiale stia già cambiando il modo di imparare, anche laddove il modo di insegnare non ne è stato ancora intaccato (ma già ci sono interessanti sperimentazioni in questo senso).
È probabile che le previsioni degli esperti si avverino, almeno in parte, e che l’Intelligenza Artificiale si riveli uno strumento prezioso per assistere, facilitare e forse rendere più efficace il lavoro degli insegnanti. Nel Libro bianco L’Intelligenza Artificiale a servizio del cittadino, a cura dell’Agenzia per l’Italia Digitale,1 si legge ad esempio che l’Intelligenza Artificiale potrà favorire la personalizzazione dei percorsi di apprendimento degli studenti, il monitoraggio di indicatori predittivi del rischio di abbandono scolastico, una migliore inclusione degli alunni con DSA o disturbi dello spettro autistico (anche grazie all’integrazione tra Intelligenza Artificiale Generativa e robotica sociale), oltre alla semplificazione – come del resto sarebbe ampiamente auspicabile – di una serie di incombenze amministrative e burocratiche. Tutto questo comporterà un grande investimento sul piano dell’innovazione didattica e, quindi, della formazione continua dei docenti.
Coloro che paventano distopiche sostituzioni dell’umano da parte di software e piattaforme – nella scuola e non solo – troveranno pane per i loro denti nelle recenti notizie di esperimenti didattici dall’efficacia tutta da dimostrare (sulla pelle dei ragazzi), come “The Sabrewing Programme” del David Game College di Londra, che quest’anno ha avviato una classe di 20 studenti nella quale l’insegnamento sarà totalmente affidato all’Intelligenza Artificiale (AI-driven adapting learning).2 Ma il sogno delle teaching machines è vecchio di cent’anni (Sidney L. Pressey ne costruì il prototipo negli anni ’20 del secolo scorso), almeno una settantina se vogliamo limitarci a quelle di skinneriana memoria basate sui principi del condizionamento e del rinforzo. Nondimeno, la “rivoluzione industriale dell’educazione” prospettata allora da questi pionieri non è ancora avvenuta, nonostante tutto.
La questione, credo, è che le macchine ci sostituiscono solo ed esclusivamente nella misura in cui siamo disposti o propensi a delegare loro certe nostre prerogative. È sempre stato così, finora. Da questo punto di vista, alcune derive tecnocratiche alla Black Mirror (Carenzio & Farinacci, 2024) sono piuttosto istruttive, perché in effetti suggeriscono che le tecnologie sceglieranno per noi solo se e in quanto noi sceglieremo di affidarci a loro più che a noi stessi.
Va da sé che l’educazione (che naturalmente – ma spesso lo si dimentica – non è riducibile all’insegnamento e tanto meno all’apprendimento) non è esattamente un compito lineare o meccanico, quindi facilmente surrogabile; e tutti i tentativi di renderlo tale, di fatto, lo hanno snaturato o ne hanno smarrito il senso. La complessità dell’educare è connaturata alla complessità dell’umano e del suo divenire formativo. Da qui (ancora) dovremo partire se vorremo discernere in quale misura e a quali condizioni le innovazioni tecnologiche di qualunque tipo potranno rappresentare una risorsa o una minaccia.
Anche ammesso che l’Intelligenza Artificiale possa sostituire quella di un insegnante (e qui si aprirebbe una delicata questione circa la natura stessa dell’intelligenza), il presupposto che nell’esercizio del suo mestiere l’insegnante utilizzi semplicemente una qualche forma di intelligenza (non-artificiale) è a mio parere errato e riduttivo. Ciò che accade nell’educazione è il divenire umano degli esseri umani grazie all’incontro con altri esseri umani. La questione in ballo, dunque, è quella dell’umanità e della sua differenza rispetto alla macchina (Malavasi, 2019; Lambert, 2023).
Vittorio Gallese e Ugo Morelli hanno affrontato questa questione nel loro ultimo libro, Cosa significa essere umani? (Gallese & Morelli, 2024). Ciò che sorprende è che la risposta di un neuroscienziato e uno psicologo a questo quesito è molto lontana da quella secondo la quale essere umani significherebbe essere “intelligenti”, appunto. Gli autori suggeriscono, anzi, che la specificità dell’essere umano non stia nella mente e nei suoi processi computazionali, bensì nel corpo e in tutti quei processi “embodied” che consentono a una persona umana di essere e di percepirsi come soggetto di esperienza e di relazione. Non solo: lo sviluppo e la formazione di questa soggettività si basa sull’intersoggettività: l’essere umano – affermano – “si individua e diviene se stesso grazie alla relazione”. (In termini filosofici naturalmente ciò non rappresenta una scoperta, ma almeno adesso ne abbiamo qualche conferma scientifica, come questo libro spiega autorevolmente).
Questo richiamo al corpo e alla relazione mi fa tornare alla mente un episodio che mi aveva colpito. Lo scorso anno e, più recentemente, lo scorso novembre la Facoltà di Scienze della Formazione ha attratto in Università varie centinaia di studenti delle scuole superiori per due convegni sull’Intelligenza Artificiale, e in entrambe le occasioni è stato “invitato” il robottino Nao, un piccolo umanoide di ultima generazione nel quale è stata integrata una forma di Intelligenza Artificiale Generativa. Ho osservato con attenzione la reazione dei ragazzi: erano affascinati dal modo in cui Nao si muoveva, imitando un essere umano, e più che ai suoi processi “mentali” (le risposte, ad esempio, alle domande che gli venivano poste) sembravano interessati a quelli “corporei” (lo sfarfallio dei led al posto degli occhi che somigliava a un battito di ciglia, o il suo modo di sussultare e di voltarsi se qualcuno nei paraggi starnutiva, ecc.). Cercavano addirittura di toccarlo, tendendogli la mano. Il primato del corpo e della relazione non poteva essere più evidente.
L’intelligenza artificiale, da questo punto di vista, non sembra (ancora) in grado di sostituirci. Federico Faggin (l’inventore del microchip), in un discorso agli studenti di Bologna, si esprime così: “Nemmeno la forma più evoluta di Intelligenza Artificiale potrà mai sostituire l’uomo. Perché nell’essere umano esiste qualcosa di irriducibile al sapere delle macchine: la coscienza di sé, il libero arbitrio, il dubbio, i sentimenti”.3 Se queste sono le qualità umane non surrogabili, forse è su di esse che l’educazione dovrebbe investire: la capacità di conoscere se stessi, la capacità di decidere, la capacità di pensare, la capacità di sentire. Se, al contrario, non le esercitiamo, come tutte le capacità, rischiamo di perderle.
Forse in quest’ultima affermazione si nasconde la chiave per comprendere il ruolo della scuola. I meno giovani forse ricorderanno che Neil Postman nel suo Ecologia dei media sosteneva che l’educazione, in tempi di rapido cambiamento, deve esercitare una funzione “controciclica” (Postman, 1983): contrastare, cioè, le derive dell’innovazione e, soprattutto, conservare ciò che altrimenti andrebbe perduto. Oltre a chiederci di quali competenze dovremo attrezzarci, in questa fase della nostra civiltà, dovremmo dunque domandarci quali competenze rischiamo di perdere.
Un docente dello University College di Londra e della Columbia University di New York ha pubblicato recentemente un libro dal titolo Io, umano (Chamorro-Premuzic, 2024), nel quale sostiene che il ricorso all’Intelligenza Artificiale ci sta già rendendo più impulsivi, più ignoranti, più egocentrici e meno curiosi. Potrebbe non avere tutti i torti. Le ricerche suggeriscono da tempo che i ragazzi stanno sviluppando l’“iperattenzione” a scapito dell’“attenzione profonda”: sono più capaci di seguire diversi piani simultaneamente, ma incapaci di concentrarsi su un oggetto o su un compito per un tempo prolungato, quindi più veloci ma più superficiali (Stiegler, 2014). Su questo incide, tra l’altro, il fatto che leggano sempre meno. E questo costituisce un problema non solo per il fatto che sanno meno cose, ma soprattutto per il fatto che sono in grado di capirne di meno: hanno un lessico più ristretto, una sintassi più precaria, e ciò significa che non solo hanno maggiori difficoltà ad argomentare ciò che pensano, ma che rischiano di non saper pensare in modo logicamente coerente.
Il tema pedagogico, qui, è che ciò che si impara – se lo si impara – non ha soltanto un valore strumentale (nella misura in cui è in qualche modo “spendibile”), ma ha un valore formativo (in quanto struttura il nostro modo di essere). Da questo punto di vista, proprio gli apprendimenti più “inutili” e “inattuali” potrebbero essere i più necessari. Ma anche quelli a rischio di obsolescenza, a ben vedere, potrebbero risultare ancora indispensabili. Esempio: pare che l’Intelligenza Artificiale renderà rapidamente superfluo lo studio delle lingue straniere, perché ci sarà qualcuno (qualcosa) che tradurrà per noi in tempo reale. Ma il problema non è che cosa non sapremo se smetteremo di studiarle, bensì che cosa non saremo: perché conoscere una lingua straniera significa avere accesso a un mondo di significati che altrimenti ci resterebbe precluso, ad altri modi di parlare, di pensare, di vivere. Possiamo decidere che sia più pratico rinunciarvi, naturalmente, ma dobbiamo essere consapevoli del prezzo che paghiamo.
Vorrei soffermarmi, per concludere, sul fattore emozionale: nella risposta di Faggin si faceva riferimento ai sentimenti come una qualità tipica dell’umano. La letteratura e la cinematografia fantascientifiche ce lo ripetono da sempre, che non è la testa ma il cuore la cifra dell’umano: nel Brave New World di Aldous Huxley (1932), il primo mezzo adottato per ottenere il controllo totale dell’umanità è la somministrazione di un farmaco in grado di manipolare le emozioni (insieme al divieto di coltivare relazioni sentimentali); nel cult-movie Blade Runner di Ridley Scott (1982), viceversa, sono i “replicanti” (umanoidi artificiali) a provare emozioni e sentimenti e, paradossalmente, a sembrare più umani degli umani.
La vita emotiva – ancorché spesso trascurata – gioca un ruolo essenziale anche nei contesti educativi. Imparare, ancor prima che un processo cognitivo, è una disposizione emozionale, e se vogliamo che le persone imparino, dobbiamo suscitare in loro un sentimento: lo stupore, la curiosità, il desiderio di conoscere. Il lavoro educativo, detto in estrema sintesi, consiste nel coltivare questo eros, ospitando emozioni come la meraviglia, l’attesa, ma anche l’inquietudine e il dubbio (in luogo della noia o dell’ansia, che invece sono oggi ricorrenti tra i banchi di scuola).
Provare un sentimento, scrive Agnes Heller, vuol dire “essere coinvolti in qualche cosa” (Heller, 1980, p. 15). Al contrario, l’assenza di sentimenti produce estraneità e indifferenza. Che cosa succede, dunque, se i sentimenti disertano la scuola e il desiderio si spegne? Se Eros non va più a scuola, potremmo dire, non ci andranno più neanche Luca, Chiara, Alice e tutti gli altri. O, se ci andranno, desidereranno di essere altrove, dove possano sentirsi vivi. Sta già accadendo, non solo a coloro che abbandonano la scuola, ma anche a coloro che – pur frequentandola regolarmente – ne hanno perso o non ne hanno mai sperimentato il gusto.
C’è un romanzo di Alessandro D’Avenia, L’appello, in cui questo rito quotidiano del chiamare per nome gli alunni per verificarne la presenza diventa emblematico: che cosa dobbiamo fare perché i nostri alunni si sentano davvero “chiamati per nome”? Ci sono troppi ragazzi che, sebbene presenti, sono perlopiù assenti: “cervelli in fuga” molto prima di scapparsene all’estero! E tra questi presenti-assenti non si annoverano soltanto gli studenti, ma talvolta anche i loro insegnanti: delusi, demotivati, smarriti.
Quindi: innovazione didattica e competenze digitali saranno sempre più utili se non indispensabili, anche nella scuola. Ma la capacità di reclutare e di coinvolgere non potrà mai prodursi tecnicamente. Le competenze relazionali ed emotive sono prioritarie. Perché per fare delle persone ci vogliono delle persone. E – come ripeto da anni ai miei studenti – in questo lavoro il primo strumento siamo noi.
Riferimenti bibliografici
Carenzio, A, Farinacci, E. (2023). Dentro Black Mirror. Media, società, educazione. Brescia: Morcelliana Scholé.
Chamorro-Premuzic, T. (2024). Io, Umano. AI, automazione e il tentativo di recuperare quello che ci rende unici. Milano: Apogeo.
Gallese, V., Morelli, U. (2024). Cosa significa essere umani? Corpo, cervello e relazione per vivere nel presente. Milano: Raffaello Cortina.
Heller, A. (1980). Teoria dei sentimenti. Roma: Editori Riuniti.
Lambert, D. (2023). Robotica e intelligenza artificiale. Brescia: Queriniana.
Malavasi, P. (2019). Educare Robot? Pedagogia dell’intelligenza artificiale. Milano: Vita e Pensiero.
Postman, N. (1983). Ecologia dei media. L’insegnamento come attività conservatrice. Roma: Armando.
Stiegler, B. (2014). Prendersi cura. Della gioventù e delle generazioni. Napoli: Orthotes.
https://libro-bianco-ia.readthedocs.io/it/latest/ (ultima consultazione 8 novembre 2024)↩︎
https://www.davidgamecollege.com/courses/courses-overview/item/102/gcse-ai-adaptive-learning-programme (ultima consultazione 8 novembre 2024)↩︎
https://www.ansa.it/canale_tecnologia/notizie/tecnologia/2024/05/06/lectio-del-fisico-faggin-nessuna-ia-potra-mai-sostituire-luomo_f5c99e19-5c21-4aec-b124-fb6d7b868cf9.html#:~:text=%22Nemmeno%20la%20forma%20pi%C3%B9%20evoluta,il%20dubbio%2C%20i%20sentimenti%22. (ultima consultazione 8 novembre 2024)↩︎