Rimini, 24 agosto 2025 – L’intelligenza artificiale non è più un tema riservato a laboratori di ricerca o riviste specializzate. È entrata nelle case, nelle scuole, nei luoghi di lavoro e perfino nelle conversazioni quotidiane. «Siamo in un territorio completamente nuovo – ha osservato Nello Cristianini, professore di Intelligenza Artificiale all’Università di Bath – ci siamo avventurati seguendo la nostra natura umana, esplorando un mondo che fino a dieci anni fa non era neppure immaginabile». L’incontro di Rimini ha visto dialogare Cristianini con Sergio Belardinelli, già docente di Sociologia dei processi culturali all’Università di Bologna, e con padre Paolo Benanti, francescano, esperto di bioetica e membro del New Artificial Intelligence Advisory Board delle Nazioni Unite. A moderare, Fabio Mercorio, professore di Computer Science all’Università Milano-Bicocca e rappresentante della Fondazione per la Sussidiarietà.
Tra potenza di calcolo e ansie collettive
Cristianini ha ricostruito i passaggi che hanno reso possibile l’attuale scenario: la crescita esponenziale della potenza di calcolo, la connessione globale tramite Internet, la produzione immensa di dati e lo sviluppo di algoritmi capaci di “imparare”. «Parliamo di sistemi che consumano l’energia di un’intera città in un anno, leggendo e rielaborando tutto ciò che è stato digitalizzato. Oggi queste macchine superano esami universitari e gare di programmazione, svolgendo compiti cognitivi al livello umano». Eppure, ha aggiunto, «mancano ancora gli strumenti culturali per vivere in questo mondo. La sfida è conoscere, studiare, partecipare. Solo così possiamo indirizzare lo sviluppo dell’IA: altrimenti saremo passivi e spaventati, mentre la tecnologia avanzerà da sola».
L’uomo davanti alla macchina: cooperazione e rischio
Padre Paolo Benanti ha posto l’accento sull’impatto antropologico: «Siamo una specie che ha saputo cambiare la propria posizione nel mondo grazie alla cooperazione. Ma con l’IA nasce un fenomeno inedito: la tendenza ad attribuire a queste macchine una “teoria della mente”, come se avessero pensieri ed emozioni». L’esperto ha ricordato come molti utenti abbiano dichiarato di sentirsi “orfani” passando da GPT-4 a GPT-5: «Hanno percepito di aver perso un amico, qualcuno che li capiva. Questo ci interroga: fino a che punto possiamo permettere che una relazione con un artefatto diventi sostitutiva di un legame umano?». Benanti ha insistito anche sul tema del lavoro: «Non si tratta di chiedersi se la macchina ruberà il posto all’uomo, ma di ridisegnare i processi produttivi affinché l’umano non sia ridotto a esecutore di task marginali. È fondamentale che possa portare nel lavoro il suo contributo unico: la capacità di generare senso, di dare valore».
Verità, linguaggio e realtà: la sfida culturale
Il sociologo Sergio Belardinelli ha scelto di spostare l’attenzione su tre nodi culturali e filosofici: linguaggio, realtà e verità. «In questi tre campi l’intelligenza artificiale non crea problemi, ma li esaspera. Viviamo da decenni un impoverimento del linguaggio, al punto che il 30% degli italiani fatica a comprendere un testo di media complessità. ChatGPT può sembrare una scorciatoia, ma rischia di aggravare il problema: è una risorsa solo per chi possiede già strumenti linguistici». Ancora più radicale la questione del rapporto con la realtà: «È come se da tempo identificassimo la realtà con le sue rappresentazioni. Se dimentichiamo la differenza, perdiamo il senso della verità. E senza verità, anche l’etica rischia di diventare ridicola». Belardinelli ha richiamato infine l’urgenza di recuperare un senso di responsabilità collettiva: «In un mondo dove tutto fluisce indistintamente – online e offline, umano e artificiale – diventa sempre più difficile distinguere. La nostra responsabilità educativa è coltivare la capacità di distinguere, di giudicare, di dire sì o no».
Scienza e tecnologia: un rapporto da ripensare
Il dibattito si è poi concentrato sul rapporto tra scienza e tecnologia. «Per secoli – ha ricordato Benanti – la tecnologia nasceva dalla scienza. Oggi, con l’IA, sembra accadere anche il contrario: strumenti tecnici che funzionano senza una teoria scientifica chiara». Questo pone domande radicali: «Che tipo di conoscenza producono questi sistemi? Sono davvero conoscenza o solo schemi statistici?». Cristianini ha sottolineato che la novità non può essere liquidata come un “imbroglio statistico”: «I pappagalli non vincono le Olimpiadi di matematica. Queste macchine mostrano percorsi cognitivi diversi dai nostri, ma capaci di risolvere problemi complessi. Questo ci costringe a interrogarci anche su noi stessi: non siamo l’unico modo di pensare. Forse l’IA ci aiuterà a scoprire leggi che la nostra mente non riesce a concepire».
Responsabilità e limiti: il compito dell’umano
Tutti i relatori hanno concordato sul fatto che la vera questione non sia tecnica, ma umana. «Abbiamo la responsabilità del limite – ha detto Benanti –. Non come divieto esterno, ma come riconoscimento dell’identità propria della macchina e dell’uomo. È questa la decisione storica che ci tocca prendere: come convivere con attori umani e attori computazionali». Belardinelli ha richiamato la necessità dell’educazione: «Non possiamo pensare che esista un “ministero della verità”. L’unico antidoto a fake news, bolle informative e manipolazioni è una nuova alfabetizzazione culturale, una responsabilità educativa più forte». Cristianini, infine, si è soffermato sul dovere della trasparenza: «Se abbiamo capito qualcosa, dobbiamo dirlo in modo chiaro. Se non l’abbiamo capito, dobbiamo avere l’onestà di ammetterlo. È l’unico modo per ridurre ansia e confusione».
Mattoni nuovi nel deserto digitale
Il Meeting di Rimini non ha offerto facili risposte, ma un metodo: il dialogo. «Il futuro non ci deve spaventare – ha concluso Mercorio –. Non sappiamo dove ci porterà l’IA, ma sappiamo che la responsabilità di costruire resta nostra». In un contesto in cui l’intelligenza artificiale rischia di trasformare il paesaggio in un “deserto digitale”, gli ospiti hanno indicato la strada per nuove costruzioni: studio, partecipazione, responsabilità educativa, limiti etici condivisi e, soprattutto, comunità. Perché, come ha ricordato Benanti, «nessuno può affrontare da solo questa sfida. Abbiamo bisogno di luoghi e amicizie fedeli, dove continuare a interrogarci e a costruire insieme». Un dialogo che non chiude le domande, ma le rilancia, in linea con lo spirito del Meeting: un luogo che genera dialoghi, approfondisce la conoscenza e sostiene la fiducia, una testimonianza di speranza nel cuore ferito del presente.







