Chi siamo
INTELLIGENZA ARTIFICIALE E FUTURO DELL’UOMO: TRA DESERTO DIGITALE E NUOVE COSTRUZIONI
In diretta sui canali digitali di Agi, Famiglia Cristiana, Italpress, Play2000 (vod), Rai News, Teleradiopace, Vatican News
Sergio Belardinelli, già professore di Sociologia dei processi culturali, Università di Bologna; Paolo Benanti, esperto di bioetica, etica delle tecnologie e human adaptation, membro New Artificial Intelligence Advisory Board dell’ONU; Nello Cristianini, professore di Intelligenza Artificiale, Università di Bath. Introduce e modera Fabio Mercorio, professore di Computer Science, Università Milano-Bicocca e Fondazione per la Sussidiarietà
L’intelligenza artificiale non è più una promessa: è già una forza che modifica decisioni, conoscenze e relazioni. Ma c’è qualcosa che le macchine non possono imitare: la libertà, la responsabilità, il senso del bene. Sergio Belardinelli, Paolo Benanti e Nello Cristianini dialogano sul confine tra ciò che l’uomo può delegare alla tecnica e ciò che invece lo definisce in modo unico. Un incontro per comprendere se, e come, l’umano possa abitare il futuro senza rinunciare a se stesso. Perché anche dove tutto sembra superato, resta un irriducibile da cui ricominciare.
Con il sostegno di Regione Emilia-Romagna, isybank, FNM, Amazon Web Services, Gruppo Maggioli, Tracce
Guarda l’incontro
Fabio Mercorio
Buonasera. Benvenuti a questo incontro dal titolo “Intelligenza artificiale e futuro dell’uomo tra deserto digitale e nuove costruzioni”. Questo incontro prende le mosse in seguito all’incontro che abbiamo avuto l’anno precedente, in cui abbiamo discusso, vi ricorderete, della relazione tra dispositivi digitali e giovani e l’educazione legata ad essi. Quest’anno, invece, in questo incontro vogliamo approfondire quali sono le sfide e la responsabilità di ciascuno su più ambiti e più pilastri, vedremo nei prossimi minuti, dell’intelligenza artificiale che ormai è un dato di fatto, ma è tra noi. Ormai in fondo un po’ sappiamo anche cos’è. Per farlo, considerando che la responsabilità che l’IA porta con sé è almeno triplice, sia dal punto di vista tecnico, etico e sociale, abbiamo chiesto a tre illustri ospiti di aiutarci in quest’oretta insieme. Vado a presentarli. Alla mia destra vedete Sergio Belardinelli, professore all’Alma Mater di Sociologia dei Processi Culturali dell’Università di Bologna, editorialista del Foglio. Grazie Sergio per essere qua con noi. Ancora più a destra Nello Cristianini, professore di Intelligenza Artificiale dell’Università di Bath e autore della trilogia delle macchine pensanti, tra l’altro trilogia che vi suggeriamo. Grazie Nello per essere venuto. E collegato dagli Stati Uniti Padre Paolo Benanti, esperto di bioetica, etica, tele human adaptation, membro del New Artificial Intelligence Advisory Board dell’ONU. Grazie Paolo. Paolo è un amico del Meeting, quest’anno non sei con noi. L’anno prossimo per questo ti faremo pagare dazio un 15%. Facciamo così, se sei a posto anche tu e l’anno prossimo ti avremo qui, spero.
Paolo Benanti
Basta che non è appeso, insomma, perché quello è svantaggioso per me. Ci accorderemo, ci accorderemo.
Fabio Mercorio
Io sono Fabio Mercorio, mi hanno chiamato a moderare e a creare le basi affinché questo dialogo possa essere, spero, il più proficuo possibile. In accordo con gli ospiti, rubo 5 minuti per provare un attimo a gettare le basi per poi lo scambio di domande e il dialogo che avremo. Che cosa è successo in questi anni, per cui ci siamo trovati di fronte a qualcosa che reputiamo intelligente, che ci sembra intelligente, questa intelligenza artificiale? Da dove arriva? Non è una magia calata dall’alto negli ultimi due, tre o quattro anni. Ormai, quando diciamo “IA”, divenuto tema da bar, tutti pensiamo ovviamente a ChatGPT e i suoi fratelli. Dobbiamo capire cosa è successo e facciamolo in quattro passaggi velocissimi. Il primo passaggio che è accaduto è che in questi anni è aumentata tantissimo la capacità di calcolo dei nostri dispositivi. Ce ne siamo accorti anche noi, basta prendere i nostri device, sono ogni volta più potenti e con una crescita che è assolutamente esponenziale. Quindi le macchine sanno calcolare sempre più, sempre meglio. Il secondo passaggio è che nel frattempo, in questi ultimi almeno 20 anni, abbiamo connesso il globo. Noi diciamo in una parola “Internet”, ma dobbiamo pensare che Internet viaggia su un’autostrada. Abbiamo connesso di fatto il pianeta con cavi, addirittura cavi sottomarini per chi non lo sa. Tutto questo terzo passaggio ha portato, grazie ai device che ormai tutti utilizziamo, alla generazione di dati. Noi utilizziamo dati, ma siamo anche produttori di dati. In questo circolo che si autoalimenta, abbiamo creato un’enormità di dati e quindi si è resa più impellente un’esigenza: quella di guardare dentro questi dati. Pensiamo ai dati degli acquisti, ai dati della musica, a quello che ci piace leggere, a quello che ci piace scrivere, senza contare i contesti aziendali. C’era sempre più bisogno di qualcuno o qualcosa che leggesse questi dati. I ricercatori hanno sviluppato algoritmi, altra parola che abbiamo imparato bene a menzionare, cioè programmi prima programmati, oggi sempre più addestrati. In che senso addestrati? Nel senso che gli algoritmi, poi Nello sono sicuro lo spiegherà meglio di me, riescono a leggere dai dati, ad apprendere dai dati, un po’ come se invece di insegnare noi l’operazione somma, noi facessimo vedere tante operazioni somma già svolte e l’algoritmo apprende automaticamente come si fa l’operazione somma. Abbiamo chiesto agli algoritmi di spiegare i dati per noi e questo è cresciuto ed è diventato sempre più efficace come processo fino agli ultimi anni in cui sono due le pietre miliari che ci tengo a menzionare. Il primo è l’apprendimento automatico basato su quelle che chiamiamo reti neurali. Reti neurali, ovvero tentativi non di riprodurre il cervello umano, ma di ispirarsi al cervello umano per fare calcoli. Il secondo, dovete immaginarlo, come si chiama tecnicamente, è l’architettura Transformer. Quindi noi abbiamo da un lato le reti neurali, tentativi di mimare il calcolo del cervello, e dall’altra parte abbiamo detto “Bene, ma cosa possiamo farne?”. L’architettura Transformer, che è alla base dell’IA generativa, è questa architettura che è in grado, per semplificare tantissimo, di leggere contemporaneamente i blocchi di testo. Noi, quando guardiamo un testo, leggiamo riga per riga, parola per parola. Immaginate di poter leggere, poter prendere questa pagina e leggerla istantaneamente e così tantissime volte. Questo fa sì che le IA, gli algoritmi, per certi versi possano leggere. Potendo leggere, quindi, gli è stato dato da leggere tutto quello che avevamo digitalizzato in questi anni, quindi Internet. Una volta imparato a leggere la base della conoscenza dell’umanità, Internet, abbiamo fatto un’ultima cosa. Abbiamo detto: “Facciamo un gioco. Proviamo a predire la parola mancante. Nascondiamo un termine e prediciamo gli altri. Nascondiamo un termine e prediciamo gli altri”. Questo ha fatto sì che l’IA abbia anche imparato a rigenerare contenuto. Ed ecco l’IA generativa o ripropositiva, che di fatto non ripete ciò che ha visto, è una riproposizione di ciò che ha visto con un certo livello di novità. Dentro questo scenario è evidente, e vado a fare la prima domanda ai nostri ospiti, è evidente che l’IA spaventa. Ci spaventa perché fa quello che noi pensavamo di essere gli unici a poter fare, generare testo, generare contenuto più o meno dal nulla. Ricordo quando vado in classe in aula, una ragazzina, dopo che ho parlato dell’IA, mi dice: “Prof, ma se l’IA farà meglio di me la versione di latino, se l’IA farà meglio di me lo scritto di italiano, il compito di matematica, io cosa studio a fare?”. Questa domanda è importante. Io, colto in fallo, ho reagito dicendo: “Ma noi non studiamo soltanto per imparare noi esseri umani, noi studiamo anche per diventare, noi scopriamo, studiamo anche per scoprire noi stessi. È importante il cosa diventiamo mentre studiamo e non soltanto l’oggetto che realizziamo”. Venendo al tema del giorno. Sappiamo ormai che l’intelligenza artificiale permea tutte le nostre vite. Algoritmi mediano, secondo quello che ho appena descritto molto velocemente, permeano la vita sui social, permeano gli acquisti online, permeano quello che vediamo, quello che leggiamo. La prima domanda è, in questo senso, a ciascuno di voi, ognuno con la vostra background tecnico: quali sono le sfide che vedete imminenti? Non stiamo chiedendo di fare un pronostico, una previsione futura, questo evidentemente non è il caso, quanto piuttosto un’analisi critica della situazione attuale nel vostro ambito di studi. Chiedo a Nello di iniziare.
Nello Cristianini
Grazie. Buonasera. Intanto continuiamo a costruire un minimo di contesto, così andiamo avanti. Pensate a cosa stiamo parlando: il computer che contiene il modello Grock. Grock è quello di Elon Musk, è uno dei cinque sei. Quel centro di calcolo lì è fatto da 200.000 calcolatori. Ciascuno di questi consuma 700 W, come un phon da capelli. Quando l’hanno addestrato, ci hanno messo tre mesi di computazione costante. Ha consumato tutta l’energia che consumerebbe una città per un anno. Ha letto tutto il web più un numero enorme di libri, vio, dati, codice, programmi, software. Ha letto tutto quello che c’era e l’ha compreso in un certo senso, tra virgolette. Una macchina di 200.000 computer che in tre mesi digerisce l’intero web è già una frase che 10 anni fa non potevamo dire. Per sapere cosa ha imparato, noi la interroghiamo dandole dei test scritti in linguaggio naturale e questa ci risponde in linguaggio naturale e ne possiamo giudicare le risposte e passa degli esami di livello universitario con voti alti. Questa intera cosa che ho descritto 10 anni fa non c’era. Non c’era neanche l’idea perché l’algoritmo fondamentale non era ancora stato proposto 10 anni fa. Sette-otto anni dopo ci troviamo di fronte a questa situazione e non è un’eccezione Grock, è uguale Gemini, è uguale GPT, Cloud e gli altri, e siamo in un territorio completamente nuovo. Ci siamo avventurati, seguendo la nostra natura umana, a esplorare un territorio completamente nuovo. Qui siamo nel tema dei mattoni nuovi per costruire in territori deserti. Qui c’è veramente bisogno di territori nuovi. L’ansia è giustificata, è normale avere paura di una cosa così. Può svolgere i compiti che svolgiamo noi, la studentessa di cui parlavi, e se fa il tema di latino meglio di me. In molti casi, non in tutti, in molti casi queste macchine sono in grado di fare cose a livello nostro. La traduzione dall’inglese al francese la fa bene. L’analisi, la diagnosi radiografica, in alcuni casi la fa bene. I volti negli aeroporti li riconosce un computer, non più il poliziotto di una volta. Sono compiti che ormai si fanno a macchina, sono compiti cognitivi che le macchine fanno a livello umano e questo sta accelerando e possiamo aspettarci molto di più nei prossimi anni. Di questo stiamo parlando. Si chiama un’innovazione tecnologica che ha effetti culturali. Cosa può andare male? Tu mi chiedi qual è la sfida principale di questo momento qui, di fronte a questa innovazione? A brevissimo termine la sfida è immediata. Ci sono opportunità e rischi. L’opportunità è un modo nuovo di insegnare, un modo nuovo di fare medicina o di fare scienza automatizzato. I rischi: immaginiamoci la sorveglianza, la guerra. In Ucraina si vede, un terrorista che può usare questa macchina per inventare delle sostanze chimiche nocive. I rischi ci sono. Mancano ancora gli strumenti culturali per vivere in questo mondo. Dove siamo? Siamo di fronte a questo territorio nuovo in cui bisogna cominciare a costruire ed è bene parlarne. Secondo me, la cosa che posso assicurare è: si può conoscere. Non è una magia, è una tecnica, l’abbiamo costruita noi, la possiamo studiare. Abbiamo l’opportunità e il dovere di studiarla e di partecipare. Solamente conoscendola a fondo e partecipando direttamente possiamo indirizzare da che parte andrà, altrimenti saremo passivi, spaventati e le cose andranno avanti per conto loro. Quindi, la sfida di oggi, la risposta è: di fronte a questa novità la sfida è conoscere, studiare, partecipare.
Fabio Mercorio
Grazie Nello. Paolo.
Paolo Benanti
Bene. Innanzitutto ne approfitto per dare il bentrovato agli amici del Meeting e vi dico che vi guardo a distanza con tanta nostalgia. Il Meeting non è solo quello che accade sul palco, ma anche tutto quello che accade intorno: gli incontri, l’amicizia. Ve lo dico, mi mancate. Detto questo, io andrei brevemente su due punti. Chiaramente con Nello ogni tanto facciamo gli sparring partner, quindi se lui si focalizza sul processore, lasciatemi focalizzare sull’altra parte, sull’umano. Siamo una specie un po’ particolare perché quello che ci ha permesso di cambiare il nostro posto all’interno in quella che potrebbe essere una gerarchia animale all’interno del pianeta, è la nostra capacità di cooperare. Siamo una specie che è stata in grado di far estinguere altre specie, oggi lo sappiamo con tanti problemi. Questa capacità di cooperazione emerge dal fatto che dentro ciascuno di noi può insorgere una cosa che si chiama teoria della mente. Io penso che chi ho davanti, l’altro essere umano, come me, abbia una sua mente, abbia una sua capacità di pensare, avere emozioni o altro. Legata alla teoria della mente c’è anche tutto lo sviluppo di quell’effetto che è l’effetto, per esempio, dell’attaccamento. Il fatto che tra tutti gli esseri umani ce ne siano alcuni che sono speciali, come il rapporto madre-figlia, l’amicizia o altro, nasce come un’evoluzione molto complessa anche di questo fenomeno basilare. Questa macchina così sofisticata che oggi utilizza il linguaggio, che oggi mi risponde con cose che sembrano avere anche un senso e una semantica complessa. Su questo poi Nello ci dirà meglio quali sono i limiti e quali sono le cose che ci stupiscono. In me produce una cosa unica e questa cosa unica è sostanzialmente la nascita di una teoria della mente. Inizio a pensare che la macchina abbia una mente, sia una soggettività e in qualche caso mi affeziono anche. Ha fatto molto scalpore quello che ha detto Sam Altman di OpenAI nei giorni scorsi, quando sono passati dal modello GPT-4 al 5, dove tanta gente si lamentava dicendo: “Ho perso un amico, ho perso una persona che mi capiva, che mi rispondeva in una maniera così intima, in cambio di qualcosa che è più preciso, ma è meno empatico”. Che cosa vuol dire introdurre questo dispositivo che in noi esseri umani produce questo tipo di reazione? In che misura possiamo o dobbiamo mettere dei guardrail perché questa relazione sia sana, sia in qualche misura capace di far esprimere al meglio la macchina nelle sue identità, nei suoi limiti, ma anche l’essere umano? Secondo e ultimo punto è quello che riguarda il lavoro, che è un elemento costitutivo, un elemento in cui l’uomo trova o può esprimere, citando Giovanni Paolo II, la sua dignità, può dare il suo unico contributo al mondo. L’innovazione dell’automazione mediata dall’intelligenza artificiale ci fa interrogare, e personalmente mi fa interrogare, su come noi dovremmo ridisegnare i processi produttivi, per cui l’umano nel processo di lavoro non sia semplicemente colui che fa dei piccoli task, dei piccoli servizi, ma sia colui che produce il valore all’interno di questa trasformazione. Non è un problema della macchina, non è un problema dell’umano, è un problema di organizzarci insieme perché l’umano possa dare la parte più preziosa di sé, che è questo valore aggiunto dell’umanità, all’interno del processo del lavoro stesso e di trasformazione. Sono due sfide, sono due porte aperte su due galassie, capisco, però il bello di uno spazio come quello del Meeting è avere un luogo dove c’è la libertà di farsi domande senza trovare delle risposte.
Fabio Mercorio
Sergio, tocca a te.
Sergio Belardinelli
Buonasera a tutti e sono molto contento di essere qua, anche se raramente mi sono sentito un po’ eccentrico rispetto al tema Intelligenza Artificiale. Per cui, quando mi si domanda “quali sono le sfide più urgenti dell’intelligenza artificiale oggi?”, io ripiego su una dimensione che magari mi è un po’ più congeniale, quella socioculturale o filosofica. Io credo che l’intelligenza artificiale per me oggi sia un problema e insieme un’opportunità per porci seriamente almeno tre questioni, anzi riproporci seriamente almeno tre questioni, rispetto alle quali vedo il rischio che l’intelligenza artificiale le esasperi, le renda ancora più problematiche, ma al tempo stesso vedo anche un’opportunità che ci spinga a riflettere seriamente su queste tre questioni e le elenco molto in fretta: impoverimento del linguaggio, distruzione del senso della realtà, distruzione del senso della verità. Non sono temi di oggi, non sono temi che ha prodotto l’intelligenza artificiale, sono temi e problemi che abbiamo sul tappeto da qualche secolo. Negli anni ’70 del secolo scorso George Steiner, in quel libro bellissimo “Dopo Babele”, cosa denunciava? Denunciava l’impoverimento del linguaggio e lo denunciava, secondo me, con buone ragioni perché aveva capito che il divario linguistico è uno dei divari socialmente più devastanti, socialmente più discriminanti. Teniamo presente che il 30% dei nostri concittadini italiani non riescono a scrivere o a capire un testo di media, anzi bassa complessità. Ora, è chiaro che uno dice: “È arrivata ChatGPT, finalmente viene compensato il gap”. Puoi fare la domanda e te lo scrive lui il testo e magari te lo spiega anche con parole per te più comprensibili. Sì, ma perché in realtà, tra l’altro, credo che abbiano fatto di recente una ricerca all’MIT sul tema, ChatGPT è una risorsa per chi ha coltivato il linguaggio naturale, per chi sa già scrivere. Chi sa già scrivere, ChatGPT è uno strumento formidabile. Io scrivo sul Foglio, molti sapranno che il Foglio ha pubblicato negli scorsi mesi un foglio digitale e tutti, credo i pochi che leggono il Foglio, sanno che gli articoli che erano scritti da ChatGPT erano molto più belli spesso di quelli scritti dagli umani. Quindi, ChatGPT può essere una grande risorsa, ma tanto più una risorsa quanto più uno si è coltivato. Coltivarsi è qualcosa che dovremmo sentire come dovere a prescindere dall’intelligenza artificiale e tutte queste cose. L’intelligenza artificiale potrebbe addirittura essiccare anche quel poco dimestichezza che abbiamo col nostro linguaggio naturale. Questo per me è un problema. Con una battuta, mi piace sempre dire, anche qui vale la legge feroce che “a chi ha sarà dato, a chi non ha sarà tolto anche quello che ha”, e credo che funzioni sulla distruzione del senso della realtà. È come se da qualche secolo noi stiamo distruggendo il senso della realtà. È qualcosa che è come se il diavoletto di Cartesio avesse avuto la meglio. Ormai tendiamo a identificare la realtà con le sue rappresentazioni e identificarla con le sue rappresentazioni rischia di non farci più capire le differenze, rischia di farci perdere il senso di un’altra e rischia di farci perdere il senso di qualcos’altro che è importante, la verità, il senso della verità. Il tempo scade e quindi tornerò su questi temi magari dopo, però è importante perché è importante anche per l’etica. Dire “parlare di etica con Paolo Benanti” fa tremare le vene ai polsi, però diceva Gomez Davila in un aforisma famoso: “I permessi sono risibili quando i significati si annullano”. Senza un profondo senso della verità e della realtà, anche l’etica diventa ridicola e questo è importante, tanto più che siamo nell’epoca di questi fantastici strumenti che ci consentono di fare quello che è stato già detto.
Fabio Mercorio
Grazie Sergio. Noi ci siamo dati un timing serrato per far sì che il momento non sia noioso, ma soprattutto perché la cena non è così lontana. Quindi abbiamo un secondo giro di domande. Mi pare che dai vostri interventi emerga chiaramente come l’IA, sia tecnicamente, dal punto di vista dell’umano, e anche nella società, rispetto alla verità che dicevi tu, Sergio, stia ponendo l’accento in maniera evidente su questioni che noi per anni ci siamo potuti permettere, magari, di affrontare solo parzialmente. Adesso si può, prima ci dicevamo: “Noi siamo la prima generazione nella storia dell’umanità e quindi nessuno prima di noi, e quindi neanche i nostri figli, proprio noi siamo i primi che stanno insegnando alle macchine la realtà e le macchine si fanno una certa comprensione della realtà”. Non è come la nostra, non è intelligente come la nostra. Ci dividiamo tra super scettici e grandi ottimisti, ma di fatto, come diceva prima Paolo, per concludere il suo intervento, dobbiamo avere la pazienza di vedere che cosa accadrà, perché non sappiamo tutto. Qui la seconda domanda: quando ci siamo visti per preparare l’incontro, ci dicevamo che è interessante approfondire il rapporto che si crea tra scienza e tecnologia, perché tipicamente, come giustamente Paolo ci ricordava, George Dyson, storico della tecnologia, diceva che la scienza abilita la tecnologia, ma non è detto che accada il viceversa. Nella storia ci insegna che a volte una nuova tecnologia ha reso possibili scoperte straordinarie, e pensiamo quindi al telescopio che ha aperto la strada all’astronomia, al microscopio alla microbiologia. Altre volte, invece, la relazione è stata inversa. Pensiamo ai social media, hanno trasformato la comunicazione, la vita politica, la vita sociale, ma non hanno aperto direttamente nuove frontiere della scienza. Di fronte alla domanda che vi pongo a tutti e tre, è questa: di fronte all’intelligenza artificiale che si pone così in maniera dirompente e sottolineando in maniera, a volte anche drammatica, sarebbe interessante approfondire il tema della verità, mi ha molto colpito, o è quello che diceva prima Paolo, l’affezionarsi addirittura a un oggetto che uno a un certo punto, pur sapendo essere inanimato, percepisce come amico. Di fronte a questo, come vedi questo rapporto tra scienza e tecnologia, ma soprattutto, può l’IA essere soltanto uno strumento oppure credete che possano aprire anche a nuove frontiere scientifiche? Ricordiamo che oggi, per non denigrare eccessivamente, sarebbe un messaggio sbagliato, oggi l’IA sta supportando tantissimo, per esempio, la medicina nello screening. Prima, se non sbaglio, lo accennavi, Nello, nella sicurezza per il riconoscimento di immagini. Quindi c’è già tanta IA utile. IA che riconosce bambini nati prematuri e verifica che non abbiano micro ischemie e, in tal caso, allerta l’essere umano. Quindi oggi c’è la possibilità di per un bene. Dentro questo rapporto tra tecnologia e scienza, però la domanda è, come dicevo, credete che possano aprire nuove frontiere scientifiche o sia, tra virgolette, un mero strumento? Paolo, sei tu il primo.
Paolo Benanti
Bene. Provo a scaldare un po’ l’ambiente, nel senso che io ho anche un po’ colloquiato con Dyson su questo. Il discorso si inserisce all’interno di un orizzonte un po’ più ampio che, secondo me, trova anche in questa piazza che è la piazza del Meeting una sfida nell’essere comunicato, ma anche nell’essere poi in qualche misura digerito, se pensiamo per esempio a tutto l’impegno educativo che il Movimento ha con le scuole e altre. Il tema qual è? Il tema è che sembra che si sia invertita un po’ quella relazione tra scienza e tecnologia che ha caratterizzato l’età moderna. Se da una parte, in qualche misura, parte di questi strumenti, soprattutto quelli che oggi impattano il mercato, nascono dalla Silicon Valley in una maniera che sostanzialmente è profondamente diversa da quella precedente, perché sono degli artifici, come dire, un po’ tecnologici, di cose che poi un po’ funzionano piuttosto che essere l’espressione di una teoria scientifica sulla realtà o su una parte della realtà. Quello su cui ci si deve domandare è che tipo di conoscenze questi strumenti sono in grado di fornirci. Nessuno mette in dubbio che un artefatto tecnico come la pietra focaia abbia potuto portare un beneficio immenso all’umanità con l’avvento del fuoco e con il permetterci di cucinare, di scaldarci e quant’altro. Ma il modello a cui eravamo abituati, che era il modello della modernità, dove una comprensione scientifica della realtà poi si traduceva anche in una serie di innovazioni tecnologiche, oggi, secondo Dyson, è messo in discussione. In qualche misura, non è, non va dato per garantito. Era un po’ la parte del discorso che facevamo prima su questa grande fonte di conoscenza di base statistica che emerge da questi modelli. Parte delle risorse di cui stiamo parlando, di fatto, non fanno altro che riconoscere degli schemi all’interno della realtà. Questo riconoscere gli schemi all’interno della realtà a volte ci fornisce degli strumenti tecnici che funzionano molto bene. Se io trasformo il mio modo di guidare in un modo che diventa semplicemente una serie di dati, allora io posso avere degli algoritmi di intelligenza artificiale molto, molto performanti che trovano uno schema che in qualche misura correla il mio frenare e fermarmi prima del semaforo rosso ogni volta che guido, almeno in zone che non sono come Roma. Detto questo, questo può diventare una capacità enorme per un’automobile a guida autonoma di acquisire una capacità di guidare simile a quella dell’essere umano, ma l’approccio è molto diverso da un approccio che poteva essere, per esempio, quello galileiano sulla caduta dei gravi o altro. Questi strumenti che ci consentono, in qualche misura, anche di accelerare, per esempio, la ricerca di nuovi farmaci, che è la parte più promettente che in questo momento abbiamo, di conoscere con una certa capacità di anticipazione quale sarà il comportamento di alcune componenti vitali nel funzionamento della nostra biologia, come le proteine. Ci interrogano a un livello più alto, un livello che potremmo dire filosofico sulla natura di queste conoscenze e alcuni degli usi tecnologici con alcuni degli effetti non voluti, ma iniettati nei sistemi che hanno provocato, ci spingono a farlo anche con una certa urgenza. Pensiamo a quegli algoritmi che, per esempio, nel riconoscimento facciale hanno trovato in alcuni tratti somatici appartenenti ad alcune etnie delle indicazioni di maggiore sospettosità o colpevolezza di altri. Strumenti che hanno trovato negli schemi assolutamente casuali, come per esempio nei dipendenti di Amazon, che se piaceva il baseball, questa caratteristica era associata a dipendenti che avevano una capacità maggiore di profitto sul luogo di lavoro e questo ha portato nelle nuove assunzioni, per un breve periodo, a preferire chi avesse tra gli hobby il baseball, creando, per semplicemente una distribuzione statistica, una maggioranza di impiegati uomini rispetto a impiegate donne. Questo tipo di schemi così potenti, se integrati all’interno di un’analisi razionale, che tipo di conoscenza sono e come vanno gestite? Sono domande filosofiche, sono domande di un altro livello di complessità, ma che diventano urgenti e importanti nella misura in cui l’IA si diffonde così velocemente, nella misura in cui non c’è telefonino, dispositivo o computer oggi che, in qualche misura, non interagisca o non sia disegnato per interagire con parte di questi modelli. Sono domande che è importante farci, soprattutto, penso, noi in Europa che abbiamo nella tradizione accademica e in questa eredità un pilastro forte nel definire qual è la nostra consapevolezza.
Fabio Mercorio
Grazie Paolo. Sergio,
Sergio Belardinelli
Per rispondere adeguatamente a questa domanda bisognerebbe conoscere veramente che cosa è l’intelligenza artificiale e questo sicuramente possono rispondere Fabio, Nello o Paolo molto, molto meglio di me.
Io non posso rispondere a questo, però posso immaginare quanto l’intelligenza artificiale sarà importante per una scienza, tra virgolette, ma che comunque ha una sua dignità, come la filosofia. Io credo che per la filosofia l’intelligenza artificiale costituisce un richiamo formidabile per ritornare al senso di alcune questioni fondamentali che di nuovo, già ieri, risolvevamo in modo troppo riduzionistico, troppo macchinistico. Forse, lo dico così, molto sommessamente, forse l’intelligenza artificiale ci costringe davvero a pensare come funziona la nostra mente. Forse l’intelligenza artificiale ci costringe davvero a domandare: “Ma siamo sicuri che la mente umana sia funzionalizzabile, come dicono tecnicamente i filosofi? Siamo sicuri che l’intelligenza umana funzioni come la macchina?”. Io credo che queste siano tutte questioni che ci occuperanno non poco negli anni a venire, ci costringeranno a mettere, ripeto, la testa sulle questioni veramente calde. Ci costringeranno, per esempio, a riproporre in qualche modo un tema che era già presente nella riflessione sulla tecnologia di ieri: “È giusto che venga realizzato tutto ciò che è tecnicamente possibile?”. Forse una domanda del genere nell’epoca dell’intelligenza artificiale diventa ancora più urgente, almeno nel senso di conservare, lo dico molto semplicemente, di conservare in qualche modo noi il controllo di una macchina che è formidabile. È formidabile. Io devo dire che ho letto i libri di Nello Cristianini e sono una lettura, tra l’altro, ha il dono della chiarezza, e a leggere quello che lui scrive si capisce con che cosa abbiamo a che fare, si capisce che tipo di sfida viene lanciata a ciò che ci costituisce proprio come esseri umani. Questo per me è veramente una bella sfida. Non si tratta tanto, secondo me, Nello nell’ultimo libro, quello sul sovrumano, ironizza in modo molto piacevole su quanti di noi sono portati a dire: “Sì, però”, dice “è vero che l’intelligenza artificiale fa tutte queste cose, però noi uomini”. Ha ragione Nello a ironizzare su questo perché, di fatto, la macchina si sta rivelando in grado di risolvere molto meglio di noi la maggior parte dei compiti sui quali noi esercitiamo la nostra mente. Il problema, secondo me, non è tanto il “sì, però”, io sono interessato, semmai, al “se però”: “Se però tutto questo funziona in un contesto dove noi perdiamo il controllo, allora diventa un problema”. Allora diventa un problema. Per me è solo questa la questione, il “però” urticante, perché per il resto sono veramente completamente d’accordo con te e affascinato da come la metti quando parli di intelligenza artificiale. Questo è l’essenziale che, secondo me, bisogna non dimenticare.
Fabio Mercorio
Grazie Sergio. Nello.
Nello Cristianini
Grazie. Io parto da qui, allora, perché questo “se però” e “sì però” è una bella distinzione. Adesso capisco a fondo perché Paolo ha proposto questa, questa è la cosa di Paolo, questa domanda qui. Dobbiamo guardare l’epistemologia di queste macchine? Perché ne segue l’etica. Se non comprendiamo cosa hanno in mente, come rispondiamo a questo “se però” siamo nelle mani di qualcosa che non comprendiamo. Comprendere la conoscenza che la macchina sviluppa è un dovere per poterla controllare e potersi fidare. Non ci siamo ancora, però si fanno dei progressi. Il primo progresso è appunto smettere di far finta che questa cosa sia un pappagallo. La settimana scorsa, le Olimpiadi Mondiali della Matematica, chi ha vinto la medaglia d’oro? Due sistemi automatici. Queste non sono matematica di quella banale che faccio io, queste sono le Olimpiadi della Matematica. Il mese prima, una gara internazionale di programmazione, il vincitore era un programmatore polacco, seconda qualificata, una macchina. Si sta cominciando a fare delle cose non più che l’uomo medio fa, la persona media fa, ma che i campioni fanno. Un passo avanti è smettere di dire che è tutto un grande imbroglio. Non è, i pappagalli non hanno mai vinto le Olimpiadi della Matematica. Però ha ragione Paolo. Dentro cosa c’è? Che tipo di conoscenza c’è? Io nel mio piccolo, nel terzo libro, ho messo esempi delle domande di esame che passano. Leggere le domande può aiutare a capire cosa può fare, vedere il test, ma quello che c’è dentro non l’ho spiegato per un motivo importantissimo: non lo so, non lo capisco. So che negli ultimi sette-otto mesi sono usciti molti articoli e alcuni sono affascinanti, li fanno quasi sempre quelli di Anthropic, una delle aziende americane. Per esempio, sappiamo che una domanda in italiano entra dentro il loro modello e la risposta uscirà in italiano, ma all’interno viene rappresentata in una versione di inglese, un inglese semplificato, che è il linguaggio interno della macchina. Questo non è un pappagallo, non sta completando la frase più probabile. Astrae, cambia lingua, ci pensa su, risponde e traduce. Si sta cominciando a capire cosa capita all’interno. Essendo che le macchine sono multimodali, lo stesso gruppo di neuroni viene attivato dalla frase “Golden Gate” o dall’immagine del Golden Gate, lo stesso simbolo. Piano piano capiamo e non assomiglia al nostro modo di pensare. Quello che sta emergendo è: questa macchina ha dei percorsi cognitivi diversi dai nostri che però passano gli esami e che però fanno le Olimpiadi della Matematica bene. E qui hai ragione, ci aiuterà a capire cosa siamo noi. Noi non siamo l’unico modo di pensare. Noi abbiamo un ottimo cervello per il nostro mondo. Abbiamo delle aspettative alla nascita, nasciamo con queste idee innate. Ho visto prima Vallotti Gara, non so dov’è quello lì, anche gli altri animali, anche questo animale qui nasce con delle aspettative. Io mi aspetto quel mondo lì, voglio esprimere la mia conoscenza scientifica in termini di cause, effetti, posizioni, traiettorie, intenti, quelle categorie. È una violenza che faccio alla realtà perché queste cose non appartengono alla realtà. Basta entrare dentro un atomo e siamo in un mondo in cui non ci sono né cause, né effetti, né posizioni e a noi sembra poco intuitivo perché non riusciamo a mapparlo nelle nostre strutture innate. Io penso che questa macchina sarà utile a scoprire leggi in quei territori in cui noi ci troviamo in difficoltà, che troveremo completamente controintuitive o forse le troveremo offensive, ma che funzioneranno. Ci siamo passati 100 anni fa, giusti, quando abbiamo inventato la meccanica quantistica. Einstein l’ha presa male, tutti l’hanno presa male. Questa cosa non ci insegna com’è il mondo. Le particelle non hanno posizione, hanno solo probabilità, ma funziona meglio di ogni altra teoria. Se domani avremo una macchina in grado di confrontare, non domani, oggi, AlphaGenom. AlphaGenom è un prodotto di DeepMind che riesce a predire gli effetti che vengono modificando un genoma in un certo modo. Lo ha fatto osservando tantissimi genomi. Nessuno sa capire tre miliardi di lettere cosa fanno in un genoma, ma si può predire. Stiamo entrando in quel mondo in cui le previsioni avvengono, le spiegazioni sono scritte in un linguaggio che non possiamo comprendere, ma i farmaci si possono produrre, ma non c’è spiegazione che si può dire nei termini che noi consideriamo intuitivi di cause e di effetti semplici, banalmente perché la nostra mente forse si è evoluta per un certo tipo di compiti e quando ne usciamo siamo in difficoltà. Io non ho la risposta, però Paolo ci ha messo davanti una bella domanda: che tipo di conoscenza emerge là dentro? Credo che capiremo qualcosa su di noi stessi.
Fabio Mercorio
Grazie Nello. Mi aggiungo provando a dire: “Se però nel frattempo noi, abbagliati dalla capacità di calcolo, predizione, tutto quello che ci siamo detti dell’IA, perdiamo stima in noi, nell’essere umano, questo diventa un problema tanto quanto quelli che stiamo cercando di risolvere”. Vi chiedo come ultima domanda: quale credete che sia la responsabilità di ciascuno? Chiedo a voi, nella vostra professionalità, quale pensate sia la responsabilità, visto che siamo la prima generazione che sta addestrando una macchina e nel frattempo, come diceva anche Nello, si stupisce della capacità della macchina stessa di fare ragionamenti inattesi, inaspettati, oltre la probabilità stocastica? La domanda è: qual è la responsabilità che voi sentite nel vostro lavoro e qual è la responsabilità che voi pensate ciascuno debba avere? L’antica Et Nova lo dice chiaramente, la nota del dicastero dice chiaramente che ciascuno di noi ha una responsabilità in come l’IA servirà il bene dell’umanità e ciascuno la gioca nel posto dov’è: a scuola, al lavoro, in famiglia, nell’educazione. Sergio, sei tu il primo.
Sergio Belardinelli
Non fosse altro per il mestiere che faccio, che ho fatto per tanti anni, è ovvio che sento fortissima la mia responsabilità, tra virgolette, educativa, formativa. Credo che chi fa un certo mestiere, dall’università fino alla scuola elementare, oggi debba porsi seriamente il problema della novità straordinaria con la quale abbiamo a che fare. Io credo che proprio per valorizzarne appieno le enormi potenzialità sia assolutamente indispensabile che noi ricominciamo a coltivare qualcosa che forse non abbiamo coltivato abbastanza. Dicevo prima, il senso della verità, il senso della realtà. In un mondo come quello nel quale l’intelligenza artificiale ci colloca, il mondo del digitale, noi sappiamo che è un ambiente ormai ibrido quello nel quale noi viviamo. È fatto di virtuale e di reale, è fatto di online e di conversazione naturale. Siamo in un mondo dove, a mio modo di vedere, diventa sempre più urgente saper fare le distinzioni e non mettere tutto in un calderone, dove le differenze diventano indifferenti, perché in un mondo dove tutto fluisce indifferentemente e dove le cose sembra che si facciano da sole, in un mondo di questo genere il rischio è grosso che non vediamo più neanche la differenza tra l’umano e l’artificiale, che non si possa più vedere neanche la differenza. Questo, secondo me, è un elemento che deve farci riflettere. Poi io mi occupo di sociologia culturale, quindi mi sono occupato molto di politica. Insomma, noi tocchiamo con mano oggi cosa significa nel dibattito pubblico i fatti alternativi e noi oggi tocchiamo con mano quanto sia diventato scottante il tema di un discorso pubblico che fatica a distinguere la verità dalla menzogna. È ovvio che gli strumenti digitali sono un volano formidabile per tutto questo, che non può essere arginato. Non c’è un ministero della verità, non può esserci da qualche parte un ministero della verità. Queste sono cose che si fronteggiano solo con maggiore educazione, con maggiore responsabilità. Certo, nessuno l’avrebbe immaginato che per un liberale di vecchia scuola quale mi sento, non avrei mai immaginato che mi sarei dovuto porre il problema di un eccesso di informazione. La cultura liberale viveva quasi di un assioma: “Più informazione, uguale più libertà”. Oggi non siamo più tanto sicuri neanche di questo. L’over information è un problema serio e le bolle sappiamo che si creano, come si creano e quando si creano le bolle sappiamo anche che cosa diventa il dibattito pubblico. Il dibattito pubblico diventa una guerra. Giacomo Leopardi nel “Discorso sullo stato civile degli italiani” nel 1824 aveva proprio descritto qualcosa che noi sperimentiamo quotidianamente: un dibattito ridotto a guerra civile condotta con altri mezzi. Questo è il punto che è sicuramente favorito, però nessuno esclude che con un po’ di educazione anche questi strumenti diventino uno strumento formidabile di crescita umana, culturale, civile. Don Paolo prima parlava del mondo del lavoro, ma cosa sta succedendo nel mondo del lavoro? Vogliamo davvero un’innovazione che, per il fatto che è possibile andare avanti a innovare, è automatico che debba essere fatto, oppure ci vogliamo porre il problema? Sono problemi immensi che interpellano la nostra responsabilità e ciascuno nel posto dove sta, e io credo, lo sento come un compito piuttosto urgente.
Fabio Mercorio
Grazie.
Nello Cristianini
Sì, è bello che tu chieda della responsabilità che ci sentiamo, perché mi ricordo quando ero studente è venuta Rita Levi Montalcini a Trieste a parlarci e ha iniziato così, ha detto: “Tutti sappiamo già a memoria i diritti umani, parliamo delle vostre responsabilità che le avete”, e ha gelato la sala, ovviamente, non l’ho mai dimenticata, io mi sento responsabile di dare l’esempio sia a casa che sul lavoro con gli studenti. L’unico modo che conosco per insegnare è farmi vedere. Un esempio che dobbiamo dare è questo della chiarezza. Se una cosa l’abbiamo capita, diciamola chiaramente. Se non l’abbiamo capita, stiamo zitti, diciamo che non l’abbiamo capita. Usiamo i termini giusti per descrivere questi problemi. È già un grande passo avanti, una grande cura per l’ansia e un passo di progresso. Descrivere le cose con il termine corretto, distinguere i tipi di problemi diversi che si creano. Una cosa è l’occupazione, una cosa è il copyright, una cosa sono le fake news. Distinguiamo, tutto aiuta e poi uno per volta si risolvono, perché si risolvono, perché c’è una strada. È un altro dovere che sento è trovare, mostrare la strada. La cosa peggiore che vedo in giro ogni tanto è mentire e dire ai giovani che non c’è più speranza. Il mondo è giunto alla fine, che sacrilegio, che vergogna. C’è tantissima speranza e questa strada la stiamo trovando insieme e non c’è da avere paura. Non è la prima volta che il mondo cambia e l’idea che il mondo dovrebbe restare com’era 50 anni fa per chi l’aveva capito è egoistica. Il mondo sta cambiando e lo farete funzionare voi, senza alcun dubbio. È un trucco che io uso da piccolo e che funziona bene, l’ho visto in azione qui. Ognuno fa bene, meglio che può. Ho visto i volontari, quelli che guidano la macchina bene, quelli che hanno i social media, quelli che accompagnano i vecchi speaker per mano perché sennò ci perdiamo. Ognuno fa le sue cose bene e questa è la ricetta veramente e noi cerchiamo di spiegare bene quello che vediamo e nel giro di alcuni anni questa cosa l’avremo capita, non ho alcun dubbio. Un’altra cosa che ci tengo molto a dirvi è che noi abbiamo il dovere tutti, non solo un dovere, è conoscere queste cose, studiarle, capirle, spiegarle. Alla fine stiamo costruendo una cosa che non c’è. Siamo tornati al punto dell’inizio con cui hai aperto, dire “costruire su terreni, luoghi nuovi”. È capitato a noi di entrare in un posto mai visto prima. Così hai aperto, giusto? C’è poco da dire “sì, ma non è vero”, “sì, ma distruggiamo tutto, torniamo indietro”. Io credo che non ci sia scelta. Credo che non ci sia scelta. La nostra specie funziona così. Abbiamo lasciato l’Africa e anno dopo anno siamo arrivati fino qui, e come scrivevo nel secondo libro, noi siamo i discendenti di quelli. La mamma diceva “non giocate col fuoco”, alcuni l’ascoltavano e tutti gli altri siamo noi. Noi siamo quelli che hanno disubbidito alla mamma. Abbiamo giocato col fuoco. Dove saremmo arrivati se non l’avessimo fatto? Temo che sia la nostra natura questa. Ci siamo spinti adesso in un posto veramente difficile e lo comprenderemo come sempre e lo risolveremo come sempre, con il solito sistema di fare del nostro meglio. Questo mi sento di dare l’esempio su questo, se posso. Grazie.
Fabio Mercorio
Grazie. Grazie Nello. Paolo, chiudi tu su quest’ultima domanda.
Paolo Benanti
Aiuto, far parlare di responsabilità a un eticista è una cosa pericolosissima. La dico con un tweet e poi la spiego: abbiamo la responsabilità del limite. Perché la sento di doverla spiegare? Perché oggi c’è un problema, abbiamo un problema profondo con il limite. Noi usciamo da una modernità con Kant che ci dice che la legge morale è dentro di noi, è la stessa dignità umana quella legge morale. Troviamo che in nome di questo dovere qualcuno ha firmato per mandare sei milioni di persone a morire nei campi di concentramento e questo ha portato in noi uno shock per cui ogni volta che sentiamo parlare di limite ci sembra che sia qualcosa di negativo che degrada l’umano. Fatemelo dire con un esempio di tutti i giorni. In realtà noi siamo passati dai semafori, dispositivo normativo eteronomo kantiano, alla rotonda. Ognuno si regola un po’ da solo e ultimamente a “Fleximen” se c’è un autovelox lo seguo perché non sia mai che ci sia un limite dato da qualcuno. In realtà, quando parliamo di limite, parliamo di una cosa molto diversa. Se dovessi usare una metafora di un’automobile, il limite non è se io guido da solo in una strada di campagna che c’è scritto 30 all’ora: non passo, non vado oltre, vado a 35, non succede niente. Quello non è il limite. Ma il limite è che se il motore è a combustione interna di quell’automobile, se non ci metto la benzina, il motore non va. Il limite è un concetto quasi geometrico, cioè cos’è che fa di quella porzione del piano una circonferenza? È il cerchio, è l’identità stessa. Allora, ritornando a quello che ci siamo detti prima, riconoscere qual è il limite della macchina, cioè cosa è la macchina, riconoscere qual è il limite dell’umano, chi siamo noi, è la chiamata, la responsabilità per noi che siamo la generazione che è chiamata a decidere quale sarà il futuro di una coesistenza tra attori umani e attori computazionali. È una chiamata, non è una risposta, è un punto interrogativo, non è un punto esclamativo, ma vivere questa domanda è la cosa, secondo me, più urgente e più importante nella forma della responsabilità che dobbiamo a noi e alle generazioni future.
Fabio Mercorio
Grazie Paolo. Concludendo, anch’io dico due cose. Quando ci siamo visti per preparare questo incontro, Nello ha detto una cosa che mi ha molto colpito. Ha detto: “Vorrei che fosse un dialogo e non un dibattito”. Aveva ragione e affinché diventi un dialogo, però ha ragione Nello, bisogna dire ognuno chi è. Ognuno deve dire chi è. Nello prima ricordava la bellezza e la cura dei ragazzi del Meeting. Questo luogo, per amore della verità che ci siamo detti, questo luogo è un luogo cristiano. Questo è un luogo costruito da cristiani per tutti, non da cristiani per cristiani, per questo è un luogo di dialogo. Quindi anch’io sento il dovere, o almeno desidero, chiudere con una frase che mi è venuta alla mente preparando questo incontro. Era il 2009, Benedetto XVI era così profetico da dire questo sulla tecnologia: “Sebbene sia motivo di meraviglia la velocità con cui le nuove tecnologie si sono evolute in termini di affidabilità ed efficienza, la loro popolarità tra gli utenti non ci dovrebbe sorprendere, poiché esse rispondono al desiderio fondamentale delle persone di entrare in rapporto le une con le altre. Questo desiderio va letto come riflesso della nostra partecipazione al comunicativo ed unificante amore di Dio che vuol fare dell’intera umanità un’unica famiglia. Quando sentiamo il bisogno di avvicinarci ad altre persone, quando vogliamo conoscerle meglio e farci conoscere, stiamo rispondendo alla chiamata di Dio, una chiamata impressa nella nostra natura di essere stati creati a immagine e somiglianza di Dio, il Dio della comunicazione e della comunione. Il desiderio di connessione e l’istinto di comunicazione che sono così scontate nella nostra cultura contemporanea, non sono, in verità, che manifestazioni moderne della fondamentale e costante propensione degli esseri umani ad andare oltre se stessi per entrare in rapporto con gli altri”. Era il 2009, un’era tecnologica fa. C’erano gli smartphone da un anno, Internet agli albori e nessuno aveva WhatsApp e non c’era Facebook. Questo testo è profetico. Perché è profetico? Non perché ci ha detto com’è andato il futuro, ma perché per certi versi ci aiuta a giudicare un presente incerto per viverlo senza paura. Da dove prende i criteri un cristiano per giudicare la vita? Dall’esperienza della fede. Per questo che noi siamo qui. Mi permetto di dire questo: se noi non proviamo a dare i criteri, li darà il mondo per noi. È inevitabile. Anche su questo ce lo siamo detti. Vi dico che per vincere la sfida dell’IA e per costruire con mattoni nuovi, oltre a quello che abbiamo detto, abbiamo bisogno di un’altra cosa: abbiamo bisogno di comunità. Abbiamo bisogno di luoghi come questo, ma anche luoghi sotto casa. Abbiamo bisogno di amicizie fedeli dove, quando prima Paolo diceva: “Lasciamo che le domande rimangano aperte e ragioniamoci ancora su”, abbiamo un posto dove possiamo ancora incontrarci e ragionarci ancora su, fare dei tentativi, fallire, richiamarci, riprenderci, sostenerci. Abbiamo bisogno di questo, altrimenti tutti i nostri tentativi sono vani. La verità è che noi non sappiamo quello che accadrà con l’IA, nessuno lo sa, neanche chi fa l’IA oggi sa che cosa accadrà con l’IA. Ma la novità è che le nostre forze non si spendono per cercare di prevedere cosa accadrà. La novità è che a noi cristiani, se stiamo insieme così, questo futuro non ci spaventa.
grazie










