IA A SCUOLA. DIALOGO E CO-COSTRUZIONE DI SENSO

Organizzato da CdO Opere Educative/FOE, Diesse, Di.S.A.L., Ass. Culturale Il Rischio Educativo

Luca Botturi, professore in Media in educazione, Scuola universitaria professionale della Svizzera italiana (SUPSI); Pier Cesare Rivoltella, professore di Didattica e Tecnologie dell’educazione, Università di Bologna; Elena Viale, dirigente scolastica Istituto Superiore Silvio D’Arzo, Montecchio Emilia. Modera Paolo Maino, presidente Di.S.A.L. e dirigente scolastico ITE Gadda Rosselli, Gallarate

Approfondire lo stato dell’uso di strumenti di IA a scuola. Tra pratica e teoria. Per riporre al centro i protagonisti dell’educazione e dell’apprendimento: studenti e docenti insieme nel cammino di conoscenza.

Guarda l’incontro

 

PAOLO MAINO
Bentrovati a tutti anche così numerosi oggi per questo incontro in cui torniamo qui al Meeting a parlare del rapporto tra intelligenza artificiale e scuola. Dopo il lancio di Chat GPT nella versione free, il tema dell’intelligenza artificiale è ufficialmente esploso. Si tratta ovviamente di studi e di ricerche che hanno tanti anni alle spalle, ma concretamente sono diventati questione quotidiana da 3-4 anni. Inoltre, come sappiamo, da dopo il Covid, il tema della transizione digitale è diventato sempre più centrale nelle agende di enti pubblici e privati. Per forza anche la scuola è attraversata da analoghe tensioni, criticità e domande. Come sviluppare delle competenze digitali consapevoli in studenti e docenti, ma io aggiungerei, da dirigente scolastico, anche in tutto il personale docente? Come deve, può cambiare il metodo di insegnamento e di apprendimento nel nuovo contesto segnato dalla presenza, che piaccia o meno, degli strumenti di intelligenza artificiale? Dicevo, già l’anno scorso al Meeting di Rimini le stesse associazioni che hanno organizzato questo incontro avevano iniziato un dialogo qui. Sto parlando di CDO opere educative, DS didattica innovazione scolastica, l’associazione Rischio Educativo e l’associazione Disal dirigenti, scuole autonome e libere, associazioni professionali che vivono nella scuola e che si fanno delle domande per il futuro della scuola. Oggi sono contento di tornare a parlarne qui a Rimini con Pier Cesare Rivoltella, docente ordinario presso l’Università di Bologna, esperto da tempo di temi legati alla media education, che nell’introduzione di racconto di prove pratiche sarà coadiuvato da Elena Viale, dirigente scolastico dell’Istituto Comprensivo di Montecchio, da quando è diventata dirigente scolastica, da quest’anno anche reggente all’Istituto D’Arzo sempre di Montecchio, di cui poi sarà dirigente ufficialmente dal primo settembre, e con Luca Botturi, docente presso la SUPSI, la scuola universitaria professionale di Lugano della Svizzera Italiana dove si occupa di formazione di docenti e di progetti di ricerca legati alla didattica dei nuovi media. Entrambi, Rivoltella e Botturi, negli ultimi mesi hanno seguito progetti in contesti scolastici perché c’è un dato comune che è interessante del perché loro siano qui, sono persone che studiano nell’ambito della ricerca, ma la ricerca si svolge nel campo, nella realtà, nel contesto scolastico e quindi vogliamo partire da prove ragionate di intelligenza artificiale a scuola. Per primo do la parola a Pier Cesare Rivoltella che ha guidato insieme con Chiara Panciroli, che doveva essere qui oggi anche lei docente ordinario dell’Università di Bologna ma che per motivi familiari non è qui presente, e ha sviluppato insieme all’associazione Disal il progetto AI4ES che è stato anche raccolto adesso in un agile volume di Sanoma – questa è una piccola marchetta, passatemela – che potete recuperare, si intitola “IA a scuola” ed è il progetto AI4ES. Pier Cesare, a te la parola.

PIER CESARE RIVOLTELLA

Grazie Paolo. Buongiorno a tutti. Giusto due battute per introdurre l’intervento di Elena che presenterà i tratti generali di questa sperimentazione. Una sperimentazione che abbiamo condotto nell’anno scolastico 2023-2024. Erano coinvolti 27 istituti su tutto il territorio nazionale ed erano istituti tanto istituti comprensivi che istituti di istruzione superiore perché ci interessava capire come potesse funzionare l’intelligenza artificiale nei contesti scolastici in relazione ai diversi segmenti di scolarità e alle diverse classi di età. Il tratto caratterizzante della sperimentazione è stato quello di essere un progetto di ricerca partecipata e la ricerca partecipata ha la caratteristica di vedere gli insegnanti e i dirigenti come protagonisti ancor più di quanto non succedesse nella ricerca azione. Perché nella ricerca partecipata l’organizzazione del percorso è completamente dal basso. Da questo punto di vista noi e i nostri ricercatori ci siamo collocati in una posizione laterale di accompagnamento, di facilitazione e di sollecitazione della riflessione metacognitiva. Ma il lavoro, mi piace sottolinearlo, l’hanno fatto davvero gli insegnanti con dei risultati interessanti che adesso il volume Saloma “Intelligenza Artificiale in Classe” documenta. Ecco, io mi limito a questa rapidissima introduzione, lascio la parola a Elena perché possa entrare nel dettaglio anche con qualche immagine e con qualche tranche de vie dai ragazzi che hanno partecipato alla sperimentazione.

ELENA VIALE

Bene, grazie della parola. Buongiorno a tutti. Allora, sì, io sono tra i dirigenti delle scuole che sono state coinvolte nella sperimentazione del professor Rivoltella e della professoressa Panciroli. Abbiamo deciso di aderire a questo progetto perché già da qualche tempo con i docenti si ragionava su come lavorare con i ragazzi rispetto all’intelligenza artificiale. I ragazzi utilizzano l’intelligenza artificiale con grande disinvoltura e alcuni docenti mi dicevano “Ma perché noi dobbiamo essere in qualche modo succubi e soggetti a questo utilizzo anche a volte improprio dell’intelligenza artificiale? Abbiamo bisogno di lavorare, di formarci per poterla gestire, per potere lavorare insieme ai ragazzi e per costruire qualcosa che possa essere davvero interessante.” Quindi abbiamo deciso di iniziare coinvolgendo prima il collegio docenti che, come potete capire, non era unanimemente d’accordo sulla sperimentazione, perché sperimentare vuol dire cambiare profondamente il modo tradizionale con cui si fa didattica. In realtà poi abbiamo incontrato l’adesione di due consigli di classe della scuola secondaria di primo grado. Il lavoro è stato svolto nel mio istituto comprensivo, in particolare sulla scuola media, appunto la scuola secondaria di primo grado. Il coinvolgimento di questi due consigli di classe ha fatto sì che i saperi, che a volte sono veramente limitati alla propria disciplina, in particolare dalla scuola media in su, potessero essere un pochino più condivisi, perché l’utilizzo dell’intelligenza artificiale nella didattica consente di aprire nuove prospettive, di connettere saperi e di tirare fuori anche quelle che sono le abilità degli studenti che non sempre, nella modalità tradizionale che i docenti della scuola media hanno di fare lezione, emergono completamente. Questa per noi è stata una vera e propria sfida, una sfida che ha coinvolto profondamente due classi e che ci ha permesso, appunto, di raggiungere tutti, di raggiungere anche gli studenti un pochino più fragili. In particolare abbiamo lavorato su un progetto di arte e su un progetto di letteratura. Sul progetto di arte, quello che vi mostrerò a breve, abbiamo ragionato sul tema dell’autoritratto. I ragazzi hanno ragionato nella fase operatoria sulle proprie immagini, provando a costruire i propri autoritratti. In che modo? Dando degli input all’intelligenza artificiale. Molto interessanti sono state le loro riflessioni. Vedete Camilla, Davide, Giovanni, Riccardo, Asia si sono ricreati con l’intelligenza artificiale. Dopo la fase operatoria – vedete, questi sono gli altri studenti delle classi, erano quattro i gruppi – nella fase successiva, la cosiddetta fase ristrutturativa, c’è stato tutto un discorso metacognitivo e in questo modo i ragazzi hanno potuto tra di loro e insieme alla docente che li guidava ragionare su quello che è il risultato e il lavoro svolto. Il risultato ottenuto (queste le domande) è come ve lo eravate immaginati e perché? Che vantaggi, che limitazioni ha secondo voi l’intelligenza artificiale nel creare immagini? Cosa avete imparato sull’intelligenza artificiale e sulla creatività? E che cosa avete trovato interessante e cosa difficile? E le risposte dei gruppi sono interessanti. Il gruppo uno pensa che l’immagine sia molto simile perché rispecchia le nostre aspettative. I vantaggi dell’intelligenza artificiale sono molti, ma quello che ci soddisfa di più è che ci dà la possibilità di creare immagini sotto i nostri input. Come limitazione troviamo che non sempre le immagini combaciano con le nostre descrizioni e l’intelligenza artificiale è molto lenta nel crearle. Abbiamo imparato che è possibile con uno strumento elettronico creare cose che sono il frutto della nostra immaginazione e abbiamo trovato interessanti gli argomenti e il linguaggio inerenti all’intelligenza artificiale. Il gruppo due: Siamo abbastanza contenti in entrambi i casi perché il risultato finale è riuscito a creare immagini che seguissero parzialmente le nostre indicazioni. Questo perché tu devi dare l’input corretto all’intelligenza artificiale, altrimenti ti crea qualcosa che non è perfetto e quindi non sempre si sono riconosciuti. I vantaggi sono che riesce a creare bene immagini, ma i piccoli dettagli fa fatica a riprodurli come vorremmo. Dall’intelligenza artificiale abbiamo imparato che tutto quello che si immagina è possibile realizzarlo. È complicato trovare un prompt in grado di realizzare un’immagine che sia precisa ed è interessante come riesca ad avvicinarsi alle nostre idee. E andando avanti con i gruppi, anche qui emergono aspetti di parziale soddisfazione perché per alcuni – dicono – è stato difficile anche dando informazioni specifiche perché non sempre l’immagine era quella voluta. I pro dell’utilizzare intelligenza artificiale nel creare immagini è che può sempre essere qualsiasi cosa gli viene chiesto e i contro come può creare cose false e diffonderle in internet. Quindi capite che qui c’è stata una riflessione anche metacognitiva e culturale sull’utilizzo dell’intelligenza artificiale che molto spesso i ragazzi utilizzano impropriamente. È molto utile che l’intelligenza abbia una creatività che non finisce mai. È interessante perché può creare qualsiasi cosa come video e immagini, difficile perché non ti crea di preciso quello che chiedi. Ogni immagine che abbiamo generato non ci ha soddisfatto del tutto. Non erano propriamente uguali alla realtà, ma sembravano per lo più persone con tratti semplici e meno definiti rispetto ai nostri. I vantaggi che abbiamo trovato sono soprattutto la velocità di creazione di un’immagine venuta da un’idea della nostra mente e la creazione di immagini mai viste. Però la maggior parte delle volte risultano avere malformazioni e problemi di colore, di soggetto e non rispecchiano sempre il nostro pensiero. Andando avanti – adesso non li leggo tutti, non ho il tempo materiale – in ogni caso, quello che di positivo si è potuto raggiungere è davvero il coinvolgimento profondo di tutti i soggetti della classe che nei lavori di attività di gruppo, perché le attività ovviamente come potete immaginare sono state svolte in cooperative con il supporto del docente, con il confronto continuo è stato proprio che questi ragazzi si sono sentiti profondamente parte dell’attività e dell’innovazione che poi è anche stata presentata alle altre classi. Credo che nella scuola occorra avere il coraggio di sperimentare, il coraggio di lavorare sulle competenze e non solo sui saperi tradizionali. È questo che con la sperimentazione abbiamo provato, mi auguro con successo, a fare. Grazie.

PAOLO MAINO

Rivolgo la stessa domanda o la stessa richiesta a Luca Botturi che ha seguito un progetto su un liceo. Qui la domanda è anche un po’ provocatoria perché il docente di liceo medio, com’ero io, peraltro, dice “Beh, comunque le declinazioni devi saperle, mi devi ripetere in modo chiaro quello che ti ho detto sull’infinito di Leopardi, altrimenti stiamo giocando e non stiamo studiando.” Quindi te la faccio così un po’ piatta la domanda, ma so che ti aiuta. A te, Luca.

LUCA BOTTURI

Perfetto. Grazie. Buongiorno a tutti. Grazie di essere qui anche in questo orario di pranzo che non è scontato. Io ho pensato che la cosa più semplice fosse raccontarvi il progetto che sto seguendo. È un progetto di 2 anni, siamo a metà, siamo alla fine del primo anno. Io lavoro in Svizzera, quindi forse è un sistema scolastico un pochino diverso e soprattutto un sistema scolastico che è molto plurilingue. Questo progetto si chiama Letteratura, Lingue Seconde e Intelligenza Artificiale. È finanziato dal nostro Ufficio Federale della Cultura. Quindi io ho lavorato con dei docenti di tedesco nella Svizzera italiana e dei docenti di italiano nella Svizzera tedesca e abbiamo detto “Bene, anche noi proviamo a vedere cosa possiamo fare in un liceo nelle lingue seconde e prendendo la sfida dell’insegnamento della letteratura, non della lingua ma della letteratura, cosa possiamo fare con gli strumenti mirabolanti che l’intelligenza artificiale ci offre?” Allora, abbiamo fatto una prima fase di progetto dove abbiamo preso un po’ di tutto e abbiamo esplorato. Abbiamo preso i generatori di testo come ChatGPT, generatori di immagini e gli strumenti come Canva, dove posso fare un po’ di tutto, abbiamo preso i generatori di musica come Suno, abbiamo preso i traduttori automatici come DeepL, abbiamo fatto un sacco di sperimentazioni. Ad esempio, io che arrivo dal mondo dei media, per cui mi diverto, sono divertentissimi questi strumenti, si possono fare infiniti giochi, ho portato questa idea, siccome dopo viene smontata nel resto di quello che racconterò, uso una mia idea. Ho detto “Sarebbe bellissimo se io prendessi un racconto, ad esempio, e prendo un oggetto di questo racconto e poi faccio lo spot pubblicitario di questo oggetto”. Io avevo preso Der Sandmann, un racconto dell’orrore di Hoffman, dove c’è il Sandmann, il mostro, un mostro che di notte arriva e mangia gli occhi ai bambini. Allora io ho detto “In questo racconto potremmo immaginarci che abbiamo degli occhiali che ci difendono dal Sandmann e dagli altri incubi.” E dopo allora con la mia classe cosa posso fare? Posso scrivere il testo di questo spot, posso generare la voce dello speaker scegliendola in tante lingue con diverse intonazioni, veloce, lenta, per fare la voce, posso generare la musica, posso metterla insieme, posso fare le immagini, insomma, posso fare un lavoro di produzione fantastico. Abbiamo immaginato tutto un percorso per fare questo. In questo progetto, insieme oltre a questi docenti che vi ho detto a due mie colleghe, Sara Giulivi e Rita Colombo si chiamano, che si occupano di questo progetto con me, abbiamo poi chiamato due esperte che sono formatrici di docenti di lingue straniere in Svizzera tedesca e in Svizzera francese da tantissimi anni e abbiamo fatto una sessione di revisione. Quando arriva questa idea l’hanno massacrata perché giustamente hanno fatto la stessa osservazione che mi hai fatto tu. Il docente di liceo vuole insegnare la sua materia, andare al punto, se gli metti intorno lo spot e le immagini, ma a cosa serve? Ed è vero, questo percorso era un percorso estremamente ingaggiante, motivazionale, ci si divertiva un sacco, ma il contenuto rimaneva un pochino sullo sfondo. Allora io l’ho usato, l’ho usato questo percorso in un contesto di formazione extrascolastica, ma dentro un corso di letteratura invece no. Allora, ci hanno richiamato in maniera perentoria sui contenuti delle attività che proponiamo, sul vero valore aggiunto che portano questi strumenti, cioè quanto meglio io imparo quello che devo sapere sul racconto di Hoffman e sulla scrittura di quel periodo se uso l’AI o quanto invece no, è solo un gadget? E poi sull’efficienza di tempo, l’ora lezione è l’ora lezione. Poi ci hanno anche detto, però come per il maiale non si butta via niente, quindi tutte queste idee torneranno utili. Allora, ci siamo rimessi al lavoro e vi racconto due attività che abbiamo immaginato che invece sono molto più pertinenti da questi punti di vista. Il primo è abbiamo lavorato sulle traduzioni, ci sono i traduttori automatici, sono interessanti. Abbiamo trovato un sito che permette di usarne simultaneamente quattro o cinque diversi, quindi tu metti un testo e lui interroga quattro o cinque traduttori e allora tiri fuori quattro, cinque traduzioni e dopo è interessante confrontarle, soprattutto se poi c’è anche la tua traduzione di studente di quel testo, ma diventa estremamente interessante quando tu traduci un testo che ha una certa complessità, ad esempio una poesia. Ed è ancora più interessante se questa poesia, noi ne abbiamo presa una in italiano che poi abbiamo tradotto in tedesco, che conteneva dei termini dialettali, si parlava delle “calli” perché si parlava di Venezia. Un traduttore come la traduce? Stradina, o l’equivalente in tedesco? Che termine usa per dire Calle, che non è un termine italiano standard? Il traduttore lì deve fare una scelta e quella scelta l’AI la fa, non la fa, non si sa esattamente. Infatti lì le traduzioni divergevano fortemente. Ecco, così abbiamo messo a fuoco un percorso che andava a prendere un tema estremamente interessante dal punto di vista letterario. Poi abbiamo un altro esempio, abbiamo provato a fare delle interviste, immaginatevi di poter intervistare il pianista di 900 di Baricco. L’AI conosce questi testi e per cui lo si mette in situazione. Questo un chatbot come ChatGPT lo fa molto bene e tu sei questo personaggio, io ti intervisto e discutiamo. Molto interessante. Però, attenzione, se ti fermi lì hai fatto un gioco divertente. La cosa interessante è alla fine delle interviste tornare indietro e vedere quanto i fatti citati nelle interviste o le sfumature anche psicologiche del personaggio che esce dall’intervista corrispondono al testo originale perché l’AI non è precisa. Ecco, allora abbiamo immaginato diversi percorsi di questo tipo. E facendolo ne abbiamo immaginati una decina e inizieremo a pubblicarli da questo autunno, li pubblicheremo online e saranno aperti, abbiamo messo a fuoco alcuni principi che in chiusura cito. Il primo l’ho già detto, cioè di avere molto chiaro quali sono gli obiettivi didattici rispetto ai contenuti specifici della materia e poi si possono associare obiettivi motivazionali – perché l’AI comunque è giocosa e divertente, può permetterci di fare tante cose divertenti e interessanti – e anche obiettivi di conoscenza dello strumento di AI, come c’era anche in questo percorso di meta riflessione sullo strumento. Abbiamo visto che è più interessante lavorare su testi specifici. Ad esempio, abbiamo provato a mettere in relazione il fatto che io possa costruire lavorare con strumenti di AI, costruire la colonna sonora di un testo. Bello, molto divertente da fare, è un lavoro a cavallo tra musica e letteratura. Abbiamo provato a farlo col Deserto dei Tartari, l’inizio del Deserto dei Tartari. Perché? Perché c’è una versione filmica di questo testo e la musica è stata fatta da Ennio Morricone. Allora, se io immagino una colonna sonora, passo attraverso il filtro dell’AI per crearla e poi mi confronto con un grande autore di musica, capite che lì il gioco diventa interessante, diventa un dialogo. L’AI diventa una porta in più che apro, un elemento in più che va a contribuire a questo dialogo. E poi alcune attenzioni. Quando do in mano l’AI agli studenti è facile che loro facciano skill skipping, tu gli chiedi di fare tanto così, ma loro fanno fare all’AI tanto così e non imparano più nel processo – è una questione di gestione della classe, del lavoro. Allora abbiamo imparato a mettere dei checkpoint, dei momenti dove si fa un confronto col docente e un confronto con gli studenti, in modo che il passo sia regolato da queste interazioni e non dal ritmo della macchina che è troppo veloce per l’apprendimento. L’ultima cosa, abbiamo sempre cercato di fare in modo che il prodotto che generi con l’intelligenza artificiale non fosse mai il risultato finale, ma un pezzo del processo, mentre il risultato finale rimane in mano allo studente che poi condivide con i pari o confronta col docente. Quindi, in questo modo diventa uno strumento di passaggio all’interno di un percorso. È stata una grande sfida e, come vi dicevo, siamo a metà del guado. Grazie.

PAOLO MAINO

Grazie Luca. In questa seconda parte dell’incontro vorrei con Pier Cesare e Luca cercare di fissare a partire da queste esperienze che sono state raccontate e ragionate alcuni punti con cui riguardare il nostro iniziare l’anno scolastico da studenti, docenti, genitori, nonni, il pubblico vario che c’è qui adesso, rispetto al tema Intelligenza Artificiale e scuole. Per cui adesso procedo con delle domande ai nostri relatori. A Pier Cesare. In mezzo ai cambiamenti di questi ultimi anni, che cosa significa quindi per la vita e l’organizzazione didattica di una scuola stare in questo presente di fronte all’intelligenza artificiale? Quale assetto pedagogico va recuperato nella relazione docente studente – mi sembra che siano già emerse delle suggestioni interessanti – nell’approcciarsi all’intelligenza artificiale?

PIER CESARE RIVOLTELLA

Sì, provo a risponderti, Paolo, in tre direzioni, partendo proprio dalla sollecitazione che ci invita a ripensare la nostra pedagogia. Che tipo di pedagogia potremmo immaginare e potremmo utilizzare in classe? Tre suggestioni: una pedagogia transmediale, una pedagogia curricolare e una pedagogia critica. Due parole velocissime per chiarire ciascuno di questi passaggi partendo dalla transmedialità. Luca ne ha già dato un esempio molto interessante quando dice “Partiamo dalla musica, transitiamo attraverso il testo, arriviamo al video.” La transmedialità è una forma di storytelling, è una forma di utilizzo della narrazione che transita, che passa attraverso modalità diverse. Nasce magari in un libro, prosegue in un cartoon, esita in una serie di card o in un videogioco piuttosto che in una serie televisiva. Perché l’intelligenza artificiale ci invita ad adottare una prospettiva di quel tipo? Perché, mi piace dirlo così, l’intelligenza artificiale è un meta-medium, non è un medium come lo sono il cinema, la televisione o la stampa. È un meta-medium, vuol dire che ha la capacità di ibridare gli altri media trasformandoli, modificandoli al loro interno, molte volte senza che nemmeno sappiamo che dentro quelle realtà mediali c’è intelligenza artificiale, quindi è qualcosa di trasversale ai diversi modelli, alle diverse forme mediali e questo ci richiede, nel nostro lavoro, questo approccio transmediale ci richiede di essere capaci di lavorare su formati diversi, formati tradizionali, ma anche formati non convenzionali, trovando tra gli uni e gli altri quel che accomuna. Da questo punto di vista mi sembra che il vostro progetto sia abbastanza in questa direzione. Secondo tema: una pedagogia curricolare. Perché? Perché non si può correre il rischio di lasciare che l’intelligenza artificiale sia soltanto un’occasione, sia soltanto un complemento di arredo. Ce ne possiamo occupare, possiamo anche non occuparcene perché comunque quel che conta è il programma, quel che conta sono i contenuti veri. Ecco, la logica della curricolarizzazione, entrare in una prospettiva di pedagogia del curricolo, significa fare lo sforzo di pensare all’intelligenza artificiale come a qualcosa che appartiene ai traguardi di competenze, agli obiettivi di apprendimento delle discipline. Certo, poi in ambito di tecnologia o di informatica, soprattutto nella secondaria di secondo grado, si può anche rendere l’intelligenza artificiale oggetto specifico di insegnamento, ma credo che l’approccio maggiore debbano darlo i singoli insegnanti nella loro disciplina, nella misura in cui riesca questo lavoro di curricolarizzazione, di internalizzazione dell’intelligenza artificiale dentro contenuti, obiettivi e traguardi delle singole discipline. E questo non è un lavoro semplice da fare, ma credo che sia un compito importante da tenere aperto per il curricolo di scuola delle singole istituzioni scolastiche. La terza indicazione è una pedagogia critica. Una pedagogia critica per non cedere alla tentazione di pensare che l’intelligenza artificiale risolva tutti i problemi o che l’intelligenza artificiale le sappia tutte. Si chiama, nella teoria delle comunicazioni di massa, effetto di autorità. Il pensare che siccome l’ha detto la televisione è vero, siccome l’ha detto quella determinata testata giornalistica è vero, oggi la tentazione è di pensare che siccome la risposta ce l’ha fornita l’intelligenza artificiale sia necessariamente vera. Ecco, non è così. Bisogna fare lo sforzo di andare al di là di una relazione, di un atteggiamento di tipo oracolare nei confronti dell’intelligenza artificiale. L’intelligenza artificiale non le sa tutte. L’intelligenza artificiale può rispondere cose inverosimili. L’intelligenza artificiale è soggetta, come dicono gli informatici, ad allucinazioni ed è soggetta ad allucinazioni semplicemente perché gli è stato insegnato di rispondere e di rispondere a qualsiasi costo, anche in mancanza di informazioni adeguate. Non è detto che l’intelligenza artificiale ci risponda in maniera corretta, anche perché pesca tra informazioni che siamo stati noi a fornirle. L’addestramento di un LLM viene svolto a partire da contenuti e da dati che sono comunque culturalizzati. Sono contenuti e dati che noi abbiamo prodotto e noi, fino a prova contraria, siamo fallibili. Quindi se l’intelligenza artificiale pesca da dati che noi abbiamo prodotto e su cui è stata addestrata, è molto probabile che in alcuni frangenti ci restituisca informazioni non plausibili, anche perché il nostro prompt, la nostra richiesta potrebbe non essere stata adeguatamente contestualizzata, potrebbe essere stata formulata in maniera non corretta, di qui la necessità di far entrare il prompt engineering tra le nuove competenze da insegnare, da far sviluppare ai nostri studenti. E poi, proprio perché i dati su cui è stata addestrata sono culturalizzati, l’intelligenza artificiale, ormai credo che abbiamo imparato tutti a conoscerlo questo termine, ha dei bias, ha dei pregiudizi, cade vittima di stereotipi e quindi se il nostro immaginario è ancora largamente maschile sarà inevitabile che ci vengano restituiti pregiudizi maschili dall’intelligenza artificiale. Se il nostro immaginario è ancora un immaginario coloniale, non sufficientemente rispettoso delle diversità, è facile che quei pregiudizi, che quegli stereotipi ci vengano restituiti dall’intelligenza artificiale. Di qui la necessità di insegnare il senso critico. Da questo punto di vista abbiamo bisogno di fare un salto quantico perché eravamo abituati ad un senso critico che si limitava a decostruire i testi. Qui abbiamo bisogno di un senso critico che peschi abbondantemente dentro un sottobosco e un retroterra culturale sempre più ampio, sempre più ricco, sempre più consapevole.

PAOLO MAINO

Grazie. La tua risposta con questi passaggi finali mi aiuta anche a porre la successiva domanda a Luca. Riparto qui da due termini chiave che spesso sono usati quando si parla di intelligenza artificiale, ossia il termine “dato” unito all’aggettivo “digitale”. Cosa significa in una scuola sviluppare una cultura del dato? Te lo chiedo perché “dato” di per sé è un participio passato del verbo dare e racconta di qualcosa che c’è, che appunto mi viene dato, ma che va interpretato, racconta di una posizione intelligente che bisogna avere e che si può sviluppare in saperi e poi anche in azioni, in un certo saper fare.

LUCA BOTTURI 

Grazie. Questa è una domanda difficile perché “dato” è un termine chiave. Forse avete sentito il detto, ormai ha qualche anno, data is the new oil, i dati sono il nuovo petrolio, la nuova fonte di ricchezza. Se guardiamo i fatturati delle Big Tech, è vero, fatturano di più delle aziende petrolifere. E la quantità enorme di dati che noi abbiamo a disposizione è quella che ha reso possibile anche l’esistenza dell’AI generativa, dell’intelligenza artificiale generativa. Quindi noi abbiamo tanti dati perché abbiamo messo sul web infinite informazioni, perché abbiamo i social, perché siamo tracciati dai nostri telefonini e continuiamo a generare dati e ormai abbiamo digitalizzato praticamente tutto. Tutti questi dati sono, come non sappiamo bene in che modo, presi da dove, quando e con che diritti, comunque sono andati a nutrire e ad addestrare le grandi reti neurali che abbiamo dietro ai modelli linguistici che ci offrono le applicazioni di intelligenza artificiale generativa. Quindi da un certo punto di vista quando usiamo questi strumenti noi usiamo tantissimi dati. Ma c’è un paradosso, io vedo un paradosso. E me ne accorgo un sacco come ricercatore, quando io ho un dataset che abbiamo preso da una ricerca, le risposte a questionari piuttosto che qualche cosa, sono tanti numeri, e io adesso cosa posso fare? Posso dire “ChatGPT, fammi l’analisi” (o un altro strumento), li butto dentro e viene fuori un’analisi. In quel momento io in realtà ho evitato il contatto con quei dati, non mi sono messo a guardarli, ho chiesto a una macchina di farlo per me e poi posso valutare, rivedere, criticamente analizzare il risultato, ma non sono entrato io in quei dati. Da un certo punto di vista, se ci pensate, tutte le volte che noi usiamo uno strumento di intelligenza artificiale, in qualche modo abbiamo incapsulato i dati. I dati ci sono nella sua pancia e noi ne vediamo solo l’esito e questo esito viene generato da una macchina che ha una incredibile opacità. Nel caso di intelligenza artificiale è forse uno dei primi casi in cui abbiamo delle tecnologie delle quali nemmeno i programmatori sanno dirci esattamente il funzionamento, sanno il funzionamento generale, ma non cosa è successo. Un caso che a me piace raccontare quando AlphaGo, un programma di intelligenza artificiale, ha battuto al gioco del Go, gioco da tavola cinese millenario, il campione mondiale di Go imbattuto da 10 anni. Fanno una sfida e AlphaGo, il programma, vince 5, 4-1. Una legnata sonora. Quando vince lo chiedono ai programmatori “Come ha fatto a vincere?” C’è il documentario e loro dicono “Non lo sappiamo. Abbiamo visto che la rete neurale ha fatto delle cose, ma non lo sappiamo.” Ecco, quindi da un certo punto di vista questi strumenti ci impediscono l’accesso al dato. Ma vorrei provare ad andare a un secondo livello che mi sembra anche rilevante. Noi, adesso penso noi quando facciamo ricerca, ma noi in generale, quando pensiamo a un dato, il dato è qualcosa che appunto ci viene offerto dalla realtà, se vogliamo, in qualche maniera, ma attenzione, un dato è sempre una rappresentazione. Un numero che io trovo dentro i dati di una ricerca o l’idea che mi faccio di un certo fenomeno o i dati che raccolgo, sono sempre delle rappresentazioni, non sono mai il fenomeno. Il nostro accesso alla realtà non avviene tramite i dati, avviene tramite l’intuizione della nostra intelligenza che coglie la realtà, ma i dati sono la loro rappresentazione e noi cosa facciamo? Li analizziamo per avvicinarci a quegli oggetti che restano sempre in qualche maniera misteriosi. Questa è la cosa splendida dell’apprendimento e dell’insegnare. Tu offri segni da insegnante ai tuoi studenti che sono i dati iniziali con cui loro si avvicinano alla letteratura, alle scienze, all’arte, ma a un certo punto l’ultimo pezzo devono farlo da solo. Bene, ogni dato è una rappresentazione e in questo senso è una specie di porta, di spiraglio, nel momento in cui noi assolutizziamo il dato e diciamo “No, quel fenomeno è solo quell’insieme di dati e si limita, siamo sicuri che non c’è nulla di più”, il fenomeno è scomparso, l’oggetto è scomparso. Se andate a vedere la mostra che c’è sui nuovi materiali, è un esempio interessantissimo di gente che si è trovata davanti dei dati che non si aspettava e ha capito che l’oggetto che pensavano di conoscere benissimo in realtà aveva una profondità o dei comportamenti che non avevano mai neanche immaginato e i dati suggerivano queste cose. Allora sono dovuti ritornare sull’oggetto e rimettere in discussione tutti i loro dati. Ma se noi ci fermiamo ai dati e basta, e diciamo “No, quel dato lì è strano, sarà sbagliato”, fine! Abbiamo interrotto un percorso di conoscenza. Allora, questo è anche un tema particolare perché se i dati sono così, sono come delle porte, degli spiragli su un oggetto che è sempre più grande. L’intelligenza artificiale questo non lo sa, noi l’addestriamo con tantissimi dati, ma non ha accesso al mondo. ChatGPT, come Gemini, come gli altri non hanno un accesso alla realtà, non possono provare a immaginarsi che ci sia di più. Si capisce questa cosa? Rimangono sempre dentro ed è il motivo per cui hanno le allucinazioni o, come diceva Pier Cesare, guardano sempre indietro al mondo che noi gli abbiamo descritto. Anche questo è interessante. Sono macchine avveniristiche che guardano sempre solo il passato, non guardano mai in avanti. Ecco, allora se noi ci dimentichiamo questo, rischiamo di prendere lucciole per lanterne, come si dice. Ma c’è un fenomeno che secondo me è indicativo, ce l’hanno gli informatici, si chiama il model collapse, quel fenomeno per cui a un certo punto, siccome questi sistemi funzionano bene più hanno dati, se io devo allenare un motore come ChatGPT, più testi gli do, meglio funziona, allora, a un certo punto gli informatici che giustamente sono pigri come tutti noi, hanno detto “Sai cosa? Invece di raccogliere testi e darli a ChatGPT, dico ChatGPT, scrivi dei testi, poi digerisciteli da solo e così ne hai tantissimi. Migliorerai sempre”. E invece no. Hanno scoperto che le prestazioni prima diventano piatte, non migliora più e dopo un po’ il modello collassa, va sotto il livello che aveva prima. Perché? Perché in quei testi nuovi che vengono generati artificialmente, dati sintetici si chiamano, non c’è più nessuna novità. Ho sempre gli stessi dati di prima rimescolati, ma non c’è più nessuna novità. Se non c’è più accesso alla novità del mondo, anche l’intelligenza artificiale non sa più cosa dire, si impoverisce come se si avvitasse su se stessa. Questo non lo dico per dire buttiamo a mare tutto quello che abbiamo trovato, assolutamente. Dico però che come esseri umani abbiamo un aggancio in più, abbiamo anche un interesse in più, la nostra sfida col mondo va oltre quello che ci può dare l’AI, che può essere un passaggio interessantissimo di scoperta, ma non deve mai diventare un diaframma che ci impedisce di andare dentro il mondo che abbiamo davanti.

PAOLO MAINO 

Grazie Luca. Interessantissimo quello che ci dicevi adesso sul model collapse e sul fatto che l’intelligenza artificiale non possa generare una novità. Questo mi dà il là per porre un’altra domanda a Pier Cesare. Perché mi sembra che ci sia il problema del fatto che si chiami intelligenza artificiale, però mi sembra che ci stiamo aiutando a definire quale sia la differenza tra l’intelligenza dell’intelligenza artificiale e l’intelligenza dell’uomo. Quindi ancora ti chiedo, pensando ai contesti della scuola dove a tema c’è la didattica e l’apprendimento, che cosa dobbiamo tenere come focus per capire e per andare a fondo anche come docente, come uomini di scuola della differenza che c’è tra l’intelligenza e l’intelligenza artificiale e l’intelligenza che è l’unica che può cogliere e generare novità che è quella umana?

PIER CESARE RIVOLTELLA

Il problema è grosso anche perché va retro collocato sul significato stesso di intelligenza. C’è problema nel definire cosa sia intelligenza artificiale e questo problema è evidente dal fatto che alcuni esperti dicono “L’intelligenza artificiale non è intelligente”, mentre altri dicono “a certe condizioni possiamo dire che sia intelligente”. Giusto per fare due nomi di esperti a noi noti, Rita Cucchiara, di recente eletta nuova rettrice dell’Università di Modena-Reggio Emilia, scrive nel 2022 un libro che si intitola programmaticamente “L’intelligenza non è artificiale”. Punto. Nello Cristianini, che probabilmente molti di voi conoscono o hanno letto, un fisico italiano che insegna in Inghilterra e che è stato autore di una fortunata trilogia sull’intelligenza artificiale dice che se per noi intelligenza significa capacità di risolvere problemi complessi attraverso step operativi concreti, se per noi intelligenza è questo, bene, allora – dice Cristianini – l’intelligenza artificiale è una forma di intelligenza. E il problema rimbalza su cosa intendiamo per intelligenza, per l’intelligenza umana. Anche su quella non siamo ancora molto d’accordo. Ci sono infiniti modelli, infinite prospettive, la si può definire in moltissimi modi a secondo del punto di vista che si assume. Per rispondere alla tua domanda, io ti dico quelle che secondo me sono le due discontinuità dell’intelligenza umana rispetto all’intelligenza artificiale. Non so se siano tutte le discontinuità, ma almeno queste due le vedo. Prima discontinuità. La nostra intelligenza non è computazionale, aggiungo: per fortuna. E questo è una delle ragioni per cui quando si parla di intelligenza computazionale o di computazionalità da inserire dentro i programmi scolastici, a me viene un po’ di pelle d’oca, vengo attraversato da un brivido leggero, perché se fossimo computazionali, se il nostro pensiero fosse solo calcolo deduttivo, una macchina ci batterebbe 27.000 a 0, l’esempio di AlphaGo. E oggi le intelligenze artificiali sono “n” volte più potenti di quanto non fosse AlphaGo. Sono lì a dimostrarcelo. Fortunatamente noi ricaviamo conclusioni, saltando dalle premesse alle conclusioni senza passaggi intermedi. Fortunatamente ci facciamo accompagnare da quel sesto senso che è il risultato di un mix stranissimo di esperienze che abbiamo fatto nel nostro passato, avvalorate dalla nostra capacità di servircene in maniera non standard, creativa nel momento in cui ci servono. Quindi la prima cosa che mi viene da dire: fortunatamente non siamo computazionali, e in questa non computazionalità ci sta anche il fatto che fortunatamente sbagliamo, possiamo sbagliare, l’errore non è un bias da eliminare, non è un baco da eliminare dal nostro software. L’errore è la spia più importante dove si apre l’apprendimento vero. Spero che continueremo a sbagliare, lo spero per noi docenti e lo spero per i nostri studenti. Sarei attraversato di nuovo da quel brivido strano se arrivassimo al punto in cui avessimo espunto l’errore dall’orizzonte delle nostre classi. Seconda sottolineatura, noi siamo macchine emotive, siamo macchine emozionali e lo spazio dell’emozione è uno spazio importante non soltanto perché ci consente di guardare la vita con uno sguardo differente, ma è importante anche ai fini del lavoro cognitivo. I neuroscienziati che hanno studiato per anni il rapporto che esiste tra esperienza e conoscenza, dicono che è una polarizzazione semplificatoria dire che qualcuno è razionale e che qualcun altro è emotivo e noi di solito – stereotipo bias – tendiamo a dire che l’uomo è tendenzialmente più razionale, le donne sono tendenzialmente più emotive. Sono panzane perché non c’è nessuna nostra scelta che non sia emotiva, pur essendo razionale, e non c’è nessuna nostra scelta emotiva che in qualche misura non sia anche razionale. Razionalità ed emozione sono, per la seconda volta lo dico, “fortunatamente” due ingredienti che stanno alla base della nostra comprensione del mondo e della nostra capacità di prendere decisioni. E poi l’emozione apre lo spazio dell’estetico. Difficile meravigliarsi di fronte a un’opera d’arte e di fronte al creato come opera d’arte se non si è capaci di provare emozioni. Ecco, non computazionalità ed emotività mi sembrano due discontinuità preziose a partire dalle quali lavorare in classe per promuovere forme di cooperazione intelligente ed equilibrata con la macchina, senza averne paura, ma con la consapevolezza di queste di almeno queste due discontinuità forti.

PAOLO MAINO

Certo. Grazie, grazie mille anche per questo affondo. È interessante come riflettere sull’intelligenza artificiale in questi anni ci stia facendo tornare al cuore del nostro essere uomini di scuola, del nostro lavorare a scuola, del nostro essere docenti e, in fondo in fondo, torna al cuore dell’essere uomo, l’essere donna oggi. Questo è molto interessante. A Luca faccio un’altra domanda che comunque è collegata a quello di cui stiamo parlando adesso e cioè: a volte abbiamo l’impressione o ci auguriamo addirittura che gli strumenti tecnologici possano toglierci la fatica di apprendere. Sicuramente tanti nostri studenti li usano in questo modo, ho un compito da fare, do in pasto il compito all’intelligenza artificiale e in 30 secondi l’ho fatto. Se posso consegnare il mio compito in formato informatico, devo soltanto fare un copia incolla e ho finito. Quindi lo studente scappa via dalla fatica e il docente è depresso, fondamentalmente depresso, di fronte a questi compiti che sono tutti compiti dal 6 al 7, dal 7 all’8. Non sono compiti mai eccellenti perché non c’è meraviglia e quindi non ci possiamo stupire, però non sono compiti insufficienti per cui lo studente ci ha fregato. Allora, ti chiedo, visto anche tutto il lavoro che stai facendo, il progetto che stai seguendo, mi sembra che la fatica sia invece una condizione essenziale dell’apprendimento, come lo è, dell’insegnamento. Come guardare all’uso degli strumenti di intelligenza artificiale da parte di docenti, studenti, aggiungo genitori, come vie per nuove forme di fatica e di co-costruzione del senso nell’apprendimento, nell’insegnamento? Altra domanda facile che ti faccio.

LUCA BOTTURI

Facilissima. Grazie. Mi permetto prima di aggiungere forse una terza discontinuità che è quella, nel momento in cui avremo un’intelligenza artificiale che dirà “Adesso non posso funzionare, ho mal di pancia perché ho mangiato troppo gnocco fritto”, in quel momento l’avremmo sorpassata, cioè il corpo, noi siamo un’intelligenza dentro un corpo e questo è un altro salto che per fortuna la macchina non ha ancora compiuto. Ma veniamo a questo tema e forse facciamo una premessa, noi siamo tutti da decenni in questo secolo tecnologico, in un periodo in cui le tecnologie continuano a dirci: Hai una nuova macchina, una nuova app, un nuovo strumento che ti permette di risparmiare tempo. Le nostre vite sono sempre più accelerate e noi siamo sempre più stressati, quindi da qualche parte c’è una fregatura. Questa domanda sugli studenti che risparmiano tempo, secondo me, si capisce bene se la giriamo, in realtà anche il docente può risparmiare tempo. Il docente con gli strumenti di AI può dire: prendo un testo e faccio fare le domande di comprensione, faccio gli esercizi con anche le soluzioni, quindi posso risparmiare tanto tempo. Oppure devo introdurre un argomento nuovo, mi faccio dare qualche idea che dopo chiaramente rielaboro, rivedo su come posso portarlo in classe. Tutto questo è sacrosanto, per carità, una cosa utile e in teoria dovrebbe risparmiare tempo per fare altre cose utili, tipo dare feedback agli studenti o considerare i casi individuali. Se però lo guardiamo attentamente, c’è un rischio, c’è una linea invisibile che è facilissimo travalicare, il momento in cui il docente si siede e dice: bene, adesso devo introdurre un nuovo argomento di storia e per cui come lo faccio? Com’è il percorso didatticamente migliore? Oppure qual è il percorso giusto per questa classe che ha questi interessi e questo profilo e queste difficoltà? Quel momento lì non è solo il momento in cui il docente sta ripassando la lezione che magari insegna per la ventesima volta e sa benissimo. Quello lì è il momento in cui il docente sta creando le condizioni per il proprio lavoro in classe. Se un docente lo salta, in realtà sta facendo qualcosa che non è deontologicamente corretto, sta saltando un passaggio fondamentale e sta in qualche modo tradendo i suoi insegnanti, i suoi allievi. L’altro giorno parlavo con un docente di scuola media di geografia, mi dice “Guarda, io ho provato a farmi fare le slide di geografia da ChatGPT o da qualche altro strumento, però dopo non sono le mie, io non mi trovo, non è il modo con cui io avrei proceduto su quell’argomento lì.” Ecco, per cui quel passaggio lì è il momento in cui l’insegnante nella sua mente sta costruendo, prevedendo l’interazione con i suoi studenti. Capite che alcune cose è indolore delegarle alla macchina, altre cose ci rubano il nostro proprio. Questo chiaramente vale anche per gli studenti, tanto più che – questa è una regola della scuola – noi si chiede agli studenti di fare delle cose e il prodotto finale è la testimonianza di che cosa? Di quello che hanno imparato nel processo. Ma è il processo quello che ci interessa, è la strada, la fatica, il tempo che uno ci mette. È lì che uno sta imparando. E qui è chiaro che è come quando è arrivato Wikipedia, è arrivato Wikipedia, tutti andavano a vedere le cose su Wikipedia, gli insegnanti si sono sentiti un attimino minacciati. Siamo in una situazione di questo tipo, in cui è cambiato l’equilibrio e per cui probabilmente dovremmo imparare a dare dei compiti di tipo diverso. Dovremmo probabilmente tematizzare con gli studenti il fatto che l’obiettivo non è sfangarsela nei vari test, nelle varie prove, nelle varie consegne, ma acquisire conoscenza. Con degli altri docenti con cui parlavo sempre settimana scorsa si discuteva che sapere vuol dire avere gusto, avere un sapore e se uno non impara le cose rimane l’uomo senza qualità, rimane l’uomo senza gusto, né gusto che prova lui, né lui avere un gusto negli occhi degli altri, avere una personalità. Ecco, quindi questo è il rischio, che noi attraversiamo le prove e deleghiamo sempre. Qui devo raccontare un altro episodio, forse qualcuno l’ha incrociato, da un anno siamo in giro con uno spettacolo che parla di temi digitali con Andrea Carabelli, si chiama “Il Pulsante”. A un certo punto, dopo una replica, Andrea Carabelli mi dice “Adesso dovremmo fare la parte due e dovremmo parlare di intelligenza artificiale.” Allora io mi sono messo a pensare una cosa e poi per caso ho preso in mano un libro, una raccolta di racconti di Roald Dahl che ha scritto anche tanti racconti non per bambini ma destinati a un pubblico adulto. E qui trovo un racconto che si chiama “Lo Scrittore Automatico”. Questo racconto mette in scena un giovane informatico brillantissimo, ha appena aiutato un’azienda a costruire il primo calcolatore elettronico scientifico rivoluzionario. Roald Dahl scrive nel 1953! Non c’era neanche la parola intelligenza artificiale, non c’erano neanche i computer come li conosciamo noi, avevano veramente appena creato ENIAC, il primo calcolatore elettronico. Bene, questo informatico lo crea, ma è frustrato perché il suo sogno è fare lo scrittore. Non gliene frega niente di fare computer, ma a un certo punto ha un’idea e dice “Siccome io scrivo racconti, li mando agli editori e loro me li mandano indietro e nessuno mi ha mai pubblicato niente, sai cosa faccio? Faccio un calcolatore che scrive meglio degli scrittori.” Adesso non voglio spoilerarvelo troppo, ma ce la fa e crea un’agenzia letteraria, conquista una fetta di mercato enorme, poi succedono altre cose. Abbiamo iniziato a lavorare su questo, quindi faccio anch’io la mia marchetta. Da gennaio “Lo Scrittore Automatico” sarà in scena. Abbiamo delle date a Lugano, abbiamo delle date a Milano, possiamo fare date dovunque ci invitiate, quindi prendete pure contatto. Bene. Ma cosa succede in questo percorso? Questo informatico – Roald Dahl in questo è geniale – durante il racconto diventa sempre più acido, sempre più cattivo, perché? Perché lui conquista il mercato letterario, diventa ricco, diventa famoso, ma non fa l’unica cosa che voleva fare. Non scrive una riga, smette di scrivere perché tanto scrive la macchina per lui. Fuori dal racconto, parlavo con un amico scrittore e gli ho chiesto “Ma tu stai usando…?” E lui mi fa “No, ma io non uso l’AI, io scrivo perché mi piace farlo e quindi non voglio che quella cosa la faccia una macchina al posto mio. Magari mi faccio dare un’idea per un titolo, per un nome di un personaggio, ma sono io che…” Allora, la sfida vera qual è? È ritrovare il gusto, anche a scuola, dell’apprendere. So che è una sfida grande, però il punto vero è che uno costruisce se stesso e se noi costruiamo noi stessi dando pezzi di noi alla macchina rimaniamo nudi, spogli. Invece in questo percorso di apprendimento la sfida vera è che noi diventiamo noi stessi e, o questo lo facciamo noi e ci investiamo tempo, ci investiamo risorse, ci investiamo fatica o nessun altro può farlo al posto nostro. Questo penso che vada semplicemente comunicato anche ai ragazzi. Non possiamo lasciare che una macchina faccia le cose per noi perché noi sennò non diventiamo noi. Grazie.

PAOLO MAINO [

Grazie. Peraltro la sottolineatura da cui sei partito sul corpo e il parlare di gusto mi ha fatto ricordare che sono le due, per cui voi avete tenuto il vostro corpo seduto qui, ma ci chiama anche per fare altro. Quindi arriviamo alla conclusione e volevo porre una domanda ad entrambi ed è questa, secca. Cosa significa oggi ritornare nella posizione di chi – come i monaci benedettini all’inizio del Medioevo, di fronte quindi alla necessità di ricostruire una realtà, e un po’ noi siamo in questa situazione, il titolo del Meeting ci ricorda questo – tornare nella posizione di chi coltiva e nutre una sapienza che è anche pratica? Anche perché vorrei che uscissimo con almeno con questa idea che si può evitare di cadere nelle posizioni estreme del fanatico della tecnologia o del tecnofobo a priori. Allora, cambio l’ordine, Pier Cesare, parto da Luca.

LUCA BOTTURI

Sì, allora io penso che sicuramente non possiamo, l’abbiamo già visto in tutte le rivoluzioni tecnologiche precedenti, nessuna tecnologia distruggerà la scuola, nessuna tecnologia salverà la scuola, però da insegnanti non possiamo fare finta che la tecnologia non ci sia, come i medici non possono fare finta che non ci siano scoperte scientifiche. Quindi vale la pena confrontarsi con queste cose e, fatto salvo tutto di cui abbiamo parlato, capire se ci sono strumenti che ci possono aiutare in momenti puntuali del nostro lavoro da un lato e su questo bisogna sporcarsi le mani con i progetti che abbiamo raccontato, bisogna mettersi nelle scuole con gli insegnanti, fare, provare, ragionare, vedere, giudicare insieme, il che è difficile perché lo scenario tecnologico cambia completamente. Ma nel frattempo c’è un’altra cosa urgente da fare, parlare con i giovani, con gli studenti e mettere a tema queste tecnologie che esistono anche fuori nel mondo. Allora uno deve dire, bene, come ti ci metti davanti? E qui farei un appello, c’è bisogno, se ci fate caso, anche nel discorso che abbiamo fatto degli umanisti, sono gli umanisti che devono fare questo lavoro. Non possiamo lasciare agli informatici di spiegare, perché abbiamo capito che non sono capaci, con tutto il rispetto degli informatici, spiegare l’informatica al resto del mondo non è il mestiere degli informatici, soprattutto quando parliamo di intelligenza, di corpo, di apprendimento. Quindi la sfida è di entrarci con le risorse che ognuno ha, da storico, da letterato, da artista, prendere sul serio la sfida e aiutare i ragazzi a starci davanti altrettanto seriamente, senza paure, senza illusioni, con tanto realismo.

PIER CESARE RIVOLTELLA

Due indicazioni rapidissime. La prima la recupero da un volume che insieme a Vittorio Gallese e a Stefano Moriggi abbiamo appena scritto. Pubblicato da Raffaello Cortina, si intitola “Oltre la tecnofobia”. In quel volume, tra le diverse cose che abbiamo provato a dire ce n’è una ed è di provare a raggiungere consapevolezza del fatto che la tecnologia non è né buona né cattiva, tantomeno neutra rispetto al valore. La tecnologia è buona e cattiva, come Platone nel mito di Teuth indica utilizzando la parola greca pharmakon, che vuol dire medicina, ma anche veleno. Quindi l’intelligenza artificiale è buona o è cattiva? L’intelligenza artificiale è qualcosa che fa parte del nostro progresso tecnologico. Può essere un’opportunità straordinaria, ma proprio mentre è un’opportunità straordinaria ci può togliere qualcosa. L’esempio che faceva Luca è l’esempio di quelle competenze che già nella letteratura internazionale vengono battezzate ERCS, endangered relevant cognitive skills, cioè competenze cognitive rilevanti che sono in pericolo perché se ChatGPT sa fare i riassunti meglio di me e io continuo a far fare i riassunti a ChatGPT sarà inevitabile che sul medio lungo periodo io perda la capacità di fare i riassunti, quindi mi aiuta e allo stesso tempo mi danneggia. Ecco, la consapevolezza di questa ambiguità strutturale secondo me è un primo elemento, una prima indicazione. La seconda indicazione è di insegnare la virtù ai nostri ragazzi, perché la pratica è lo spazio all’interno del quale fin da Aristotele la virtù si esercita. Nel nostro caso una virtù digitale che ha come obiettivo, come traguardo, di sviluppare saggezza digitale nei nostri ragazzi. Saper creare le condizioni perché loro sviluppino saggezza digitalmente parlando, cioè sappiano fare esercizio di virtù, significa limitare al massimo la possibilità che incorrano in rischi e non cedere alla tentazione antipedagogica di controllarli o punirli. Grazie.

PAOLO MAINO

Ringrazio davvero i nostri relatori perché penso che io, come tanti di voi, usciamo da questo incontro con tantissimi spunti, spunti molto concreti del riguardare al nostro essere persone del mondo della scuola o all’essere semplicemente genitori di figli che si trovano ad apprendere, a crescere in un contesto molto diverso da quello in cui siamo cresciuti e abbiamo appreso noi, con strumenti differenti, ma mi sembra che oggi, a fronte anche delle esperienze da cui siamo partiti, da queste prove ragionate di intelligenza artificiale, abbiamo visto come l’avventura del crescere, l’avventura del gusto della conoscenza sia intatta e sia di nuovo giorno per giorno rimessa nelle nostre mani. Quindi vi ringrazio per questa profondità di riflessione che avete avuto sul lavoro che state facendo, che è un work in progress e per cui anche il fatto che, come dicevo all’inizio, quattro associazioni del mondo della scuola abbiano promosso questo incontro, dice di un metodo, possiamo continuare a lavorare assieme dal nord al sud, scuola statale, scuola paritaria, docenti di ogni ordine e grado, genitori, professionisti che hanno magari un certo tipo di pallino e che possono metterlo al servizio. Il Meeting è un luogo di incontri e lo dimostra ancora una volta […] Buon proseguimento di Meeting.

Data

24 Agosto 2025

Ora

13:00

Edizione

2025

Luogo

Sala Gruppo FS C2
Categoria
Incontri