LA LEGGE DELL’AI

In diretta sui canali digitali di Rai News

Organizzato da Compagnia delle Opere e Gruppo AI Fondazione per la Sussidiarietà

Antonino Rotolo, professore di informatica giuridica, Università di Bologna, responsabile di EURAIR; Giovanni Ziccardi, professore di informatica giuridica, Università degli Studi Milano, esperto di criminalità informatica; Federico Bonomi, co-fondatore Asimov AI. Modera Erik Longo, professore di diritto costituzionale, Università di Firenze, esperto di regolazione dell’IA.

Il regolamento europeo sull’intelligenza artificiale (AI Act) costituisce uno dei primi tentativi sistematici di disciplinare il ricorso all’IA, introducendo una classificazione per livelli di rischio, obblighi di trasparenza e requisiti di affidabilità. Per il mondo del diritto e per le professioni legali, ciò solleva sfide complesse: dalla ridefinizione delle responsabilità alla tutela dei diritti fondamentali, dalla gestione della crescente complessità normativa all’adeguamento delle competenze professionali. L’incontro si propone di offrire una riflessione articolata sui principali nodi critici e sulle prospettive attualmente al centro del dibattito tra studiosi, operatori e istituzioni.

Guarda l’incontro

 

ERIK LONGO

Buonasera. Buonasera a tutti e benvenuti a questo incontro del ciclo ospitato dalla Compagnia delle Opere, dalla Fondazione per la Sussidiarietà, il gruppo sull’intelligenza artificiale, dal titolo, direi sintetico ma anche allo stesso tempo ambizioso, “La legge dell’intelligenza artificiale e la legge dell’IA”. Anzitutto vorrei ringraziare la Compagnia delle Opere e la Fondazione per la Sussidiarietà per aver costruito questo incontro e anche il ciclo di incontri che poi è stato messo in piedi proprio sul tema dell’intelligenza artificiale. Ringrazio in particolare Fabio Mercorio che ha guidato uno degli incontri precedenti anche per aver dato la possibilità, per aver costruito questo incontro e, non da ultimo, desidero ringraziare, e tra un attimo li presenterò, i nostri tre ospiti per aver accettato e per aver passato un pomeriggio insieme qui al Meeting. Io sono Erik Longo, insegno Diritto Costituzionale all’Università degli Studi di Firenze. Mi occupo da alcuni anni, anche insieme, in alcuni progetti e attività con i nostri tre ospiti, di questioni legate ai problemi che hanno a che fare con le tecnologie digitali, con l’intelligenza artificiale, in particolare i problemi che riguardano sia i diritti sia le regole per questi temi. E oggi parleremo di regole sull’intelligenza artificiale. Non sarò lungo in questa mia introduzione, però lasciatemi dare semplicemente alcune coordinate per aprire questo incontro e mi scuso anche per la sinteticità con la quale tratterò questo argomento, perché chiaramente, come immaginate, c’è tutta anche oggi una letteratura scientifica, una serie di problemi che ogni giorno, per esempio, noi vediamo e con i quali, tra l’altro, vedremo anche nella discussione per come emergeranno. Io parto da una provocazione, una provocazione chiaramente anche forse molto, direi forse semplicistica: stabilire regole che hanno a che fare, che disciplinano, che ci dicono cosa deve fare l’intelligenza artificiale nella nostra vita è difficile. È difficile per tante ragioni. Perché è difficile?

Innanzitutto perché il primo problema è come noi ci stiamo ponendo anche in questi mesi, per esempio, con il contrasto che vediamo, per esempio, a livello europeo, a livello geopolitico internazionale. La prima domanda che ci poniamo è, per esempio, perché regolare l’intelligenza artificiale. Se stiamo parlando di un settore, per esempio, che ha a che fare con la tecnologia, perché dovremmo stabilire regole. Come mai c’è bisogno di regole. La seconda domanda, e che poi butto anche così nel là della discussione, è: quali regole stabilire, per esempio, per alcuni problemi. Ieri c’è stato qui, sullo stesso luogo dove stiamo conducendo questo incontro oggi, chi ha parlato dei problemi etici dell’intelligenza artificiale. Pensate alle discriminazioni, pensate ai problemi, per esempio, anche che hanno a che fare con gli usi distorti di questi strumenti. Eppure tutte queste tecnologie, forse la più importante, la più conosciuta è ChatGPT, che dal 22 novembre del 2022 abbiamo imparato a conoscere, è, per esempio, quali regole. Ora, quando parliamo delle regole, per esempio, oggi abbiamo un soggetto istituzionale che ha creato moltissimo e ha fatto moltissimo e sta facendo un’azione proprio per stabilire regole anche certe, una certezza su questi ambiti: è l’Unione Europea. L’Unione Europea è il luogo, potremmo dire, istituzionale dove in un certo qual modo noi tutti ci muoviamo insieme evidentemente allo Stato italiano e alle altre realtà istituzionali. Ma l’Unione Europea ha stabilito regole nel 2024 sull’intelligenza artificiale all’interno di un nuovo regolamento che prende il nome, ma immagino molti di voi lo conosceranno, AI Act, cioè Artificial Intelligence Act, una legge, lo tradurremmo e lo traduce così il legislatore europeo a livello italiano, una legge per l’intelligenza artificiale. Un terzo tema, un terzo problema di cui, per esempio, il legislatore europeo si è dovuto proprio fare carico, e anche la difficoltà, è quando regolare, quando stabilire regole sull’intelligenza artificiale.

Subito, per esempio, come ha fatto il legislatore europeo, o attendere, magari come stanno facendo in altri paesi del mondo, attendere che altri lo facciano, che sbaglino e poi imparare dagli errori. Un ultimo profilo, e scendo un po’ più sul tecnico, è cosa regolare, ma soprattutto chi è il destinatario di queste regole e faccio semplicemente riferimento a tre profili, non tanto dell’attualità, ma che, potremmo dire, ci troveremo di fronte forse domani, dopodomani. Dobbiamo anche ragionare così in relazione, per esempio, all’intelligenza artificiale. Il primo, ma forse ne abbiamo già sentito parlare, è l’intelligenza artificiale che agisce per noi, quella che viene chiamata AI agentica, cioè l’intelligenza artificiale che fa cose per noi, ci compra un biglietto al teatro semplicemente dicendo: “Io questa settimana ho questo programma di cose da fare, scegli tu quando magari in relazione a quanto costa meno comprarmi un biglietto al cinema, un biglietto al teatro oppure, per esempio, comprarmi il biglietto aereo quando costerà meno”. Ecco, avremo sempre di più a che fare con questi soggetti. Il secondo tema che, anche qui, getto nel là della discussione è l’insieme delle sfide geopolitiche che hanno a che fare con l’intelligenza artificiale, che non sono soltanto sfide legate alle regole, ma sono sfide legate, come abbiamo visto, con Trump e con i dazi e con tutte le questioni che forse magari conosciamo, che hanno a che fare proprio con la sfida geopolitica, per esempio anche il problema ambientale che c’è dietro o anche tutti i profili che hanno a che fare con quello che potremmo dire, proprio relativamente alle regole, è una sorta di dumping regolatorio, cioè se l’Unione Europea stabilisce regole e non lo fa gli Stati Uniti, gli Stati Uniti si potranno trovare magari in una condizione di vantaggio per certi aspetti. Ma ce n’è un ultimo che secondo me è più importante, cioè la sfida per il lavoro.

Qui siamo in uno stand della Compagnia delle Opere e uno dei profili che magari ci troveremo ad avere molto più nella nostra vita è la sfida che l’intelligenza artificiale pone per il lavoro. E, dico, veramente sto chiudendo, un lavoro che però non deve essere considerato più soltanto come il luogo di lavoro o l’attività lavorativa. In questo potremmo dire che c’è tanto altro. Quando parlo di uso dell’intelligenza artificiale nell’ambito di lavoro, potrei anche parlare dell’uso dell’intelligenza artificiale che faccio io come professore universitario, per esempio in relazione ai miei studenti. Certo, parliamo di educazione, ma anche quello è un ambito di lavoro. Oppure pensiamo, per esempio, all’intelligenza artificiale utilizzata nell’ambito del welfare oppure nell’intelligenza artificiale utilizzata in altri mondi come potrebbero essere, per esempio, quelli legati alla finanza o aspetti di questo genere. Ecco, capite che i temi sono tantissimi, i problemi sono altrettanto rilevanti, c’è una sfida giuridica, e c’è una grande sfida giuridica che stiamo, potremmo dire, assorbendo anche nelle nostre attività. Ed è per questo che abbiamo invitato, abbiamo l’onore e la fortuna di avere qui con noi tre persone che si occupano a diverso livello, con una diversa anche con prospettive interessantissime, poi perché, conoscendoli, diventa anche un, empaticamente, la possibilità di vedere anche i mondi che loro vedono. Tre esperti, tre professionisti. Il primo alla mia destra è Giovanni Ziccardi, professore di Informatica Giuridica all’Università Statale di Milano, che ha anche una, potremmo dire, non soltanto, nella sua faretra, una conoscenza approfondita da anni di questi temi, ma svolge anche un’attività di divulgatore e, potremmo dire, è una delle persone che nel mondo dei giuristi che si occupano di questi temi, ha, come prima parlavamo di Minecraft, dei videogiochi, ha aperto nuovi mondi, potremmo dire.

Ecco, quindi Giovanni, e su questo ci consente forse, magari, di guardare anche, perdonami l’aggettivo, oniricamente a questo aspetto. Federico Bonomi invece è un giovane laureato in Scienze Politiche che ha una grande competenza su questi aspetti, che, addirittura, è in un certo qual modo colui che adesso ci corre come la lepre, nel linguaggio metaforico, perché ha messo su, dopo una laurea in Scienze Politiche e anche una passione per questi aspetti, una startup. Adesso, state andando verso la fase successiva di questi temi e si occupa, la startup si chiama Asimov, e si occupa di utilizzare l’intelligenza artificiale nel mondo del diritto. Ci siamo incontrati in un contesto istituzionale alla Camera dei Deputati per un premio, per una, potremmo dire, una sorta di bando che era stato fatto dalla Camera dei Deputati per progetti innovativi sull’uso dell’intelligenza artificiale proprio nel mondo del drafting normativo e quindi ci farà vedere quello. Last but not least, Antonino, il professor Antonino Rotolo, che è stato anche prorettore alla ricerca per l’Università Alma Mater di Bologna, ma è anche lui un professore di Informatica Giuridica, ha una grandissima competenza su questi aspetti, ma soprattutto sta guidando anche lui, ma anche Giovanni, una serie di progetti europei sulla fase anche più evolutiva delle regole sull’intelligenza artificiale, dei problemi proprio della regolazione. Un tema sul quale stiamo lavorando anche insieme. Lui è il Principal Investigator di un progetto che si chiama EUSAIR che si sta occupando di capire e costruire un nuovo metodo anche giuridico per la costruzione di ambiti normativi di sperimentazione per l’intelligenza artificiale. Il nome in inglese si chiama Regulatory Sandboxes, previsto dall’articolo 47 dell’AI Act, ma che sta vedendo la luce grazie anche al suo lavoro.

Ecco, dentro questa, e veramente ancora vi ringrazio, vi faccio subito una domanda generale e che sulla quale poi vi lascio la parola. Ma quali, secondo voi, sono le principali sfide che l’intelligenza artificiale oggi pone ai giuristi? Prego, Giovanni.

 

GIOVANNI ZICCARDI

Grazie, grazie per l’invito innanzitutto e grazie per la presenza. Ma secondo me la sfida riguarda le competenze, ossia non solo i giuristi, ma un po’ tutta la società. Valutare se hanno le competenze per gestire una rivoluzione come quella che è portata e sarà portata dall’intelligenza artificiale. Per quale motivo vi dico le competenze? Perché io conosco bene il mondo dei giuristi e il mondo dei giuristi, ad esempio, non è stato mai molto attento alla tecnologia. È un mondo molto conservativo, come sapete, come approccio. Io insegno una materia, l’Informatica Giuridica, che 25 anni fa era un po’ la cenerentola delle materie. Tranne casi eccellenti come Bologna, come Milano, poi ultimamente è diventata una delle materie più in voga per un motivo molto semplice: perché tutto il diritto si è trasformato in tecnologia. La domanda che ci dobbiamo fare però è: la società oggi, non solo i giuristi ma in generale, è pronta per affrontare i cambiamenti che saranno portati dall’intelligenza artificiale? Per quale motivo vi dico questo? Perché io, come tanti altri, ho avuto la fortuna di vedere arrivare le tecnologie in società che ogni volta venivano definite come epocali o rivoluzionarie. Io sono della generazione tra i 55 e i 60 anni. Ho visto arrivare i primi personal computer a metà degli anni ‘80, i Commodore, gli Spectrum. Ho visto arrivare i primi telefoni cellulari, i Nokia, poi gli smartphone, poi il commercio elettronico nel 2000, internet, le reti, i social network e ogni volta, ognuna di queste tecnologie, vi ricordate, veniva individuata come rivoluzionaria o epocale. E qual era il problema e la differenza? Che allora noi avevamo più tempo per abituarci alle tecnologie, per abituarci al telefono cellulare, per abituarci a internet. Avevamo mesi o anni. Nel fatidico novembre-dicembre del 2022, quando è arrivata l’intelligenza artificiale, in particolare ChatGPT, che vi assicuro che è di una complessità tecnica elevatissima comprendere come funziona, non abbiamo avuto tempo per prepararci. È arrivata e, secondo me, parere molto personale, a livello di rivoluzione non è nemmeno lontanamente paragonabile alle tecnologie che vi ho nominato prima. È molto più potente, è veramente una tecnologia capace di cambiare la società, la storia, il modo di pensare. Non abbiamo avuto tempo per pensare, per comprenderla.

Oggi l’intelligenza artificiale si è diffusa un po’ ovunque, la utilizza chiunque. La domanda che ci dobbiamo fare è: chi la sta utilizzando ha ben compreso il suo funzionamento, che cosa può dare, che cosa non può dare. E qui ho un paio di osservazioni da fare. Intanto, secondo me, il termine “intelligenza” nella tecnologia che usiamo adesso, ad esempio ChatGPT, è un retaggio che ci portiamo dietro dalla storia. Ha l’idea di far replicare a una macchina l’intelligenza dell’essere umano, ma se l’analizzate con cura c’è ben poco di intelligente in questo tipo di tecnologia, che non vuol dire che non sia estremamente potente. Badate bene, però, chi dovesse cercare in ChatGPT empatia, pensiero critico, memoria, sensibilità su certi temi, originalità, fa molto fatica. Seconda cosa, la velocità con cui è arrivata e la facilità di utilizzo ha reso tutti più o meno consapevoli di saperla utilizzare. Ad esempio, in molti hanno utilizzato e stanno utilizzando questa intelligenza artificiale come un motore di ricerca, che è la cosa più sbagliata che si possa fare, perché sono due mondi completamente diversi. Non è in grado di darvi delle informazioni, come un motore di ricerca, che siano verificate o reali. E altre persone stanno utilizzando l’intelligenza artificiale, anche molti professionisti, come scorciatoia per generare contenuti o creare contenuti, appunto, cercando di risparmiare tempo. Secondo me un utilizzo corretto dell’intelligenza artificiale noi lo avremo quando comprenderemo bene la natura di questi strumenti, in che cosa ci possono aiutare e in che cosa invece non ci possono aiutare. Questo si può fare soltanto tramite un’opera di literacy, di alfabetizzazione, di educazione digitale e purtroppo in Italia e in Europa in generale siamo molto indietro da questo punto di vista. Gli indici dell’Unione Europea, anche gli indici dell’anno scorso, pensate, sull’alfabetizzazione digitale dei cittadini in Europa tra i 14 anni e i 90 anni, danno dei risultati che sono pessimi. Noi anche in Italia abbiamo una persona su due, il 52% delle persone che voi incontrate, non ha le competenze di base dal punto di vista tecnologico. Non sono in grado di mandare una mail con un allegato in maniera corretta. Quando capita qualche cosa di strano sul cellulare o arriva una mail dove avete vinto un iPhone a €1 oppure un viaggio in una località esotica, cliccano immediatamente. Le truffe, pensate, correlate alle tecnologie aumentano del 50% ogni anno e arriva l’intelligenza artificiale in un quadro di questo tipo.

Allora, il mio timore è che questa tecnologia, pur estremamente potente e pur estremamente utile, sia arrivata in un terreno dove non siamo ancora pronti, dove, se mancano le digital skills di base, le competenze di base, mancano anche quelle relative all’intelligenza artificiale, che è ancora più complicata. Sono stato a un convegno prima dell’estate, un convegno internazionale, dove uno dei rappresentanti per l’intelligenza artificiale di un tribunale si è scusato perché non sapeva l’inglese, ha parlato in italiano. Noi il quadro in Europa e anche in Italia lo sopravvalutiamo dal punto di vista della conoscenza della lingua e della tecnologia. E, guardate, ve lo dico io che insegno informatica giuridica, quindi io amo l’informatica. Quindi, secondo me, bisognerà puntare su alfabetizzazione con calma, comprendere veramente come funziona. Se voi comprendete bene come funziona ChatGPT, Claude, Perplexity, gli strumenti oggi utilizzati, anche il vostro utilizzo ne avrà un grande miglioramento. Non è facile perché sono molto intuitivi, immediatamente vi danno un prompt, un riquadro che parla con voi, tra l’altro in linguaggio naturale, con il vostro linguaggio e vi porta immediatamente a utilizzarla. Secondo me la necessità nei prossimi 2 anni, non per niente il regolamento europeo all’articolo 4 prevede l’obbligo per tutti gli Stati di garantire un livello minimo di alfabetizzazione e di conoscenza di questi strumenti. Secondo me è la sfida più importante, prima di tutto anche per i giuristi, perché, guardate, i giuristi non sono fuori da questa cosa. Anche un avvocato su due, un magistrato su due, un notaio su due che io incontro non ha le basi tecnologiche. Secondo me il punto di partenza è sicuramente un bel piano di alfabetizzazione e di comprensione dell’utilizzo. Solo in quel modo riuscirà a essere realmente utile. Grazie.

ERIK LONGO

Prego.

 

FEDERICO BONOMI

Bene, bene. Grazie, grazie Erik e buonasera a tutti. Io sono molto allineato a quello che ha detto Giovanni. Io ho il punto di vista dell’imprenditore, dell’operatore economico, quindi imprenditore che ha fondato una società specializzata nella produzione di modelli di intelligenza artificiale. Noi lavoriamo prevalentemente con le istituzioni italiane, i nostri principali clienti sono Camera dei Deputati e Senato della Repubblica e noi forniamo servizi per aiutare in particolare la professione legislativa. Vi spiego un attimo cosa facciamo, così potete anche capire qual è l’impatto dell’intelligenza artificiale, in modo particolare nel settore legislativo, così poi si può capire anche, traslando il ragionamento che faccio, quale può essere l’impatto su settori simili. Allora, la mia società è nata perché io, lavorando dentro al Senato, mi occupavo di analizzare in modo spesso molto noioso l’attività di produzione legislativa in ambito parlamentare. Il tipo di lavoro che ci capitava spesso era quello di prendere i testi dei provvedimenti e scrivere gli emendamenti. Gli emendamenti sono delle modifiche a singole o più porzioni di un testo legislativo che il parlamentare scrive per, in qualche modo, modificare una norma a proprio piacimento. Poi questi emendamenti vengono posti in votazione ed eventualmente approvati. Gli emendamenti sono a migliaia, di solito in legge di bilancio si arriva anche a 5.000 emendamenti. Questi emendamenti spesso contengono anche dei riferimenti normativi, per cui bisogna, per capire cosa fa un emendamento, andare a ricostruire il quadro normativo citato, applicarlo al testo legislativo modificato e, come una specie di parole crociate, riscoprire qual è il senso dell’emendamento. Questo moltiplicato per migliaia di emendamenti. Andava a finire che per fare le cosiddette griglie di emendamenti, una spiegazione dell’effetto di ogni emendamento, ci si impiegava ore. Io impiegavo, arrivava una griglia di un decreto mille proroghe e stavo una settimana a fare questo procedimento a mano.

Facendo questo tipo di lavoro molto pesante, mi è venuto in mente con il mio socio, che è un informatico, di automatizzare questo processo e si è passati da griglie che impiegavano ore di lavoro al sistema che abbiamo inventato noi che trasforma, in 20 minuti, in un quarto d’ora, la produzione di queste griglie di emendamenti. Inoltre con i vari chatbot, ne abbiamo anche sviluppato uno noi, è possibile filtrare questi emendamenti e questo ha un impatto importante sulla democrazia perché i cittadini, le imprese, le associazioni sono interessate a cosa fanno i parlamentari in Camera e Senato. Se ci sono emendamenti, ad esempio, qua siamo alla Compagnia delle Opere, ci sono emendamenti all’interno di un testo di una legge di bilancio che riguardano la Compagnia delle Opere o gli associati della Compagnia delle Opere. È chiaro che l’attività parlamentare viene resa infinitamente più trasparente se ci sono processi di intelligenza artificiale che permettono di tradurre dal linguaggio legislativo al linguaggio naturale quella che è l’attività parlamentare. Ora le sfide sono tantissime, si va da una sfida del lavoro. Per noi legislativi fare le griglie di emendamenti era, e questo, in questa professione ci si faceva le ossa sulle griglie. Nel momento in cui questo compito così noioso, così brutale, così ripetitivo non è più necessario, è chiaro che questo pone una sfida a chi vuole affacciarsi a questa professione. Questa cosa, guardate, è verissima anche per gli avvocati, perché gli avvocati non devono fare le griglie, ma devono fare magari dei pareri, delle ricerche sulla giurisprudenza, sulle sentenze. Quindi questa cosa che dico sui legislativi è vera anche, in parte, per i giuristi, per gli avvocati, ma anche per i magistrati che iniziano la loro professione dopo aver passato il concorso. E poi ci sono sfide di democrazia perché rendere tutte queste informazioni così trasparenti poi può esserne fatto un uso distorto anche per la disinformazione.

Pensate ad esempio a quanto può essere facile con l’intelligenza artificiale generare degli emendamenti o dei testi finti, anche mandare in massa elementi di disinformazione, dire: “Guarda, questo parlamentare ha fatto questa cosa”, e creare anche dei video in cui un parlamentare parla ma non ha mai parlato. Quindi è un’invenzione. Un parlamentare che dice: “Io propongo questa cosa”, ma è un’invenzione. Questo ha un impatto sulla democrazia che può essere devastante perché va a minare la fiducia tra il cittadino e l’eletto. È qua che interviene il regolamento sull’intelligenza artificiale che, secondo me, in modo molto corretto, identifica quelli che sono gli ambiti in cui l’intelligenza artificiale non può essere usata. Il regolamento identifica, appunto, vari elementi che sono vietati all’interno dell’Unione Europea. Uno di questi è, appunto, la disinformazione politica a fini elettorali. Ci sono anche livelli di rischio. Altre attività di intelligenza artificiale che hanno un effetto di tipo elettorale o democratico possono essere classificati come ad alto rischio e questo porta le aziende ad avere delle misure di sicurezza ulteriori. Quindi noi, essendo una società che lavora in ambito istituzionale, siamo estremamente a favore della regolazione perché crea dei paletti e dice cosa è lecito e cosa non è lecito. Ovviamente la regolamentazione va fatta in modo intelligente per non vincolare troppo le imprese con carichi burocratici eccessivi. Molto spesso le imprese fanno fatica, non hanno le risorse umane per studiare, per comprendere quello che questi regolamenti, che spesso cambiano, comportano. In Italia poi abbiamo tante piccole medie imprese, per una piccola media impresa è molto più complicato rispetto alle grandi imprese essere sempre al passo con la normativa che cambia e su questo l’intelligenza artificiale può chiaramente aiutare perché può dare strumenti alle imprese per essere sempre aggiornati sull’evoluzione della regolamentazione e anche adattare i processi interni delle aziende a un’evoluzione normativa costante.

Tuttavia, però, la regolamentazione è fondamentale perché il rischio che l’IA venga utilizzata in modo malevolo è molto elevato e rischiamo di avere problemi per la qualità della nostra democrazia. Le sfide sono tante. Quello che io vi ho raccontato per i legislativi vale per tutte quelle professioni che si basano sulla scrittura e su compiti spesso ripetitivi, quindi vale per i giuristi, gli avvocati e in generale, ma vale anche per gli informatici stessi. Gli informatici che scrivono codice spesso fanno un lavoro di scrittura ripetitivo. Adesso una delle applicazioni che Giovanni non ha menzionato, ma che secondo me è estremamente interessante, è Cursor. Cursor è un sistema che permette, sulla base di istruzioni molto semplici, di creare software informatici in modo molto semplice. Io adesso ho provato: io non sono un informatico, non sono un tecnico esperto di programmazione e non conosco Python, non conosco Java, non conosco i linguaggi di programmazione, però chiedendo a un software di crearmi un’applicazione per scrivere, ad esempio, raccogliere, navigare i siti di Camera e Senato e trovarmi quello che fanno i parlamentari nelle commissioni e quando si riuniscono le varie commissioni, in mezza giornata di lavoro mi ha costruito un prototipo di applicazione che avrei messo settimane a sviluppare senza e magari facendo lavorare degli informatici specializzati. Ecco, poi chiaramente a livello industriale questi codici non vanno bene, vanno riscritti, ci sono tutti aspetti di cybersicurezza, di qualità del codice, di ottimizzazione che vanno. Però per fare questi prototipi, queste applicazioni rudimentali, basta veramente uno strumento come Cursor. Cito un ultimo caso, poi lascio la parola ad Antonino. Il caso della piattaforma Tea, non so se ne avete sentito nominare, è stata questa specie di applicazione di referenze sentimentali dove le donne si trovavano per valutare le loro esperienze sentimentali con gli uomini. Bene, questa applicazione, a quanto poi è emerso, è stata sviluppata in questo modo, con il “no-code”, cioè fatta da persone non troppo esperte di programmazione. È andata a finire che degli hacker sono riusciti con molta facilità a bucare le difese di questa applicazione, a scaricare una marea di dati personali e quindi le donne che hanno scritto tutte le loro recensioni sulle loro avventure sentimentali andate male, hanno trovato i loro dati personali pubblicati e resi disponibili su internet. Quindi, un altro grande rischio è quello di scrivere codici di cattiva qualità e creare dei danni alla privacy mortali. Uno può ridere su questa vicenda dell’applicazione Tea, vedere il nerd che si vendica sulla ragazza che lo ha lasciato, ecco, però sono casi drammatici perché insomma c’è in gioco la privacy, c’è in gioco anche la sicurezza fisica delle persone, quindi occhio perché l’intelligenza artificiale nell’entusiasmo può, se non accompagnata con la professionalità, con anche la specializzazione, se usata in modo generalista, in modo troppo entusiasta, avere effetti estremamente drammatici.

 

ANTONINO ROTOLO

Allora, intanto grazie anche da parte mia per l’invito. Allora, intanto, secondo me, una sfida che l’intelligenza artificiale pone è sul concetto stesso di regolazione, quindi la metto proprio sulle fondamentali. Se noi pensiamo al diritto, non so se nella platea ci sono persone che conoscono il diritto, però anche se non conoscete cos’è il diritto, un’idea ve la siete fatta. Il diritto è: io ho una regola che mi stabilisce quello che devo fare. Se non lo faccio, già questa è la domanda, già il punto è se non lo faccio, arriva qualcuno che mi dà una multa, mi manda in carcere, succede qualcosa che non mi va bene. Quindi il modello del diritto è fatto così. Ora questo modello per l’intelligenza artificiale va bene e prima Giovanni diceva che l’intelligenza artificiale è una tecnologia molto potente. Si dice una tecnologia disruptive perché ha un impatto potenzialmente enorme sulle nostre vite. Cosa vuol dire questo? Vuol dire che quel modello lì forse non funziona di diritto, forse non funziona più. Perché se l’intelligenza artificiale viola una regola del diritto, non è come quando il vigile arriva, trova la macchina parcheggiata fuori dalle linee blu e ci fa la multa perché è fuori dalle righe.

Verificare che l’IA è fuori dalle linee blu è un compito complicatissimo. Faccio un esempio. Prima si citava ChatGPT, Claude. Ok, uno di questi strumenti ha un problema. Adesso hanno aderito a delle regole europee, però uno dei problemi è la violazione del copyright perché sono state allenate su una quantità di dati protetti da copyright. La domanda è: è possibile verificare in maniera certa la violazione del copyright? Io su questa domanda cito sempre un brano di un libro meraviglioso di Amos Oz, “La storia d’amore e di tenebra”, dove a un certo punto lo zio di Amos Oz dice, se non ricordo male: “Se tu copi da un libro commetti un plagio. Se copi da 10 libri sei uno studioso. Se copi da 30 o 40 libri sei un eminente studioso. E se copi da miliardi di libri?” Cioè, se tu impari e violando il copyright da miliardi di libri, quello che produrrai è originale, è nuovo? E se io voglio scoprire se c’è una potenziale violazione del copyright, la risposta è: sì, forse si può fare, ma sapete chi è che lo può scoprire? Altra intelligenza artificiale. E questo pone il primo problema: che il poliziotto dell’intelligenza artificiale è altra intelligenza artificiale e questo ha portato alcuni giuristi che conoscono il tema a dire che quel modello lì è un modello che non funziona più. Quindi o noi costruiamo l’intelligenza artificiale e la rendiamo compliant by design, cioè facciamo in modo che l’intelligenza artificiale sia rispettosa delle regole by design, però è molto complicato farlo, oppure devo fare un modello tipo quello dell’AI Act di valutazione del rischio. E questo è un tema importante perché un’azienda, quando produce qualcosa, deve sapere se c’è un potenziale danno da prodotto, per esempio, perché l’intelligenza artificiale in Europa viene considerata un prodotto. E quindi questo cambia completamente il paradigma della regolazione perché se voi parlate con un ingegnere civile, l’ingegnere civile vi dirà: “Ma questo vale anche sulle costruzioni”.

Un ingegnere civile ci dice che vengono fatti tutti i calcoli dell’edificio, tutto è perfetto, tutto è conforme, ma in un caso su un milione la casa viene giù e non c’è modo di spiegare perché. Ora, se voi raccontate questa storia a un giudice, il giudice impazzisce perché dice: “Non è possibile, io devo trovare un responsabile”. Vi faccio un altro esempio di sfida regolatoria che mi è stata raccontata da una persona che lavora nell’ambito dell’automotive, una grande multinazionale europea: guida autonoma. Immaginate di guidare nel traffico. C’è il limite dei 50 all’ora, tutti vanno ai 70. Rispondetemi: a quanto devo andare per essere sicuro? Non a 50. Devo violare i limiti di velocità e questo rende la totale automazione della guida autonoma in Europa impossibile, perché non c’è nessun ente certificatore di conformità che omologherà mai un’automobile dicendo, in casi di sicurezza, per tutelare la sicurezza della persona che io trasporto, di deviare il limite previsto dal codice della strada. Questa è una grande differenza che separa l’Europa dagli Stati Uniti. Perché negli Stati Uniti questo pare non essere un problema, per gli europei lo è. Ora questi sono degli esempi che vi fanno capire quanto è disruptive l’intelligenza artificiale, cioè rivoluzionaria, ma non solamente in quanto tecnologia, perché scuote alle fondamenta ciò che i giuristi per secoli hanno assunto essere la dottrina di base. Ecco, questo è un aspetto che potrebbe accadere, anzi, secondo me non potrebbe, accadrà sicuramente, è che questa tecnologia cambierà il modo di regolare il comportamento delle persone.

 

ERIK LONGO

Grazie, grazie a tutti e tre per questo primo giro. Traggo semplicemente qualche spunto. Se utilizziamo uno strumento dobbiamo sapere come utilizzarlo. Le forbici non le posso utilizzare dalla punta, ma la devo utilizzare impugnandole in maniera corretta, ma non è così semplice come utilizzare una forbice. Non c’è, potremmo dire, quella manualità, per esempio, di una sedia, cioè non si adatta a noi, quindi è qualcosa di oltre anche la nostra immaginazione, anche forse l’utilizzo normale. Appunto, come Giovanni ci diceva, ci vuole una literacy, cioè ci vuole anche un’educazione a questo. Il tema fondamentale su questo mi è sempre piaciuto, che è molto connesso alla literacy, il tema anche dell’amatorialità. Non possiamo utilizzare uno strumento così complesso in modo amatoriale, cioè non esiste l’amatorialità perché appunto devo conoscere lo strumento anche per i rischi. Poi la questione che citava Nino, i rischi e soprattutto poi, quando per esempio si lavora con le aziende, uno dei problemi più importanti è: sì, ma io se compro questo software e se faccio questa attività e se consento di utilizzare certi strumenti, che responsabilità ho? Che cosa succede se, appunto, la trasformazione del diritto? Ora ripartirei in senso inverso. A questo punto utilizziamo il termine della modalità inglese. Ritorno a Nino. Tu stai guidando un progetto, appunto, all’interno, dicevamo prima, dell’AI Act, del cappello grande delle trasformazioni che sono connesse all’AI Act, che si chiama EUSAIR, che ha a che fare con questo metodo nuovo di regolazione che è le sandbox, gli spazi di sperimentazione normativa, molto ambizioso e su questo forse ti chiedo anche che cosa vedi per le aziende, soprattutto per le piccole e medie – l’Italia, ma tutta l’Europa, è fatta di queste aziende. Come possiamo innovare, perché poi anche questo è il tema, la regolazione, anche su questo ci hai già iniziato a dire, ma se ci fai un approfondimento su questo aspetto, anche la pretesa di EUSAIR su questo.

 

ANTONINO ROTOLO

Allora, grazie. Allora, il progetto è un progetto che dà supporto alla Commissione Europea, agli Uffici e ai 27 Stati membri, quindi è un progetto piuttosto complesso perché parliamo con tutti e 27 gli Stati e per sviluppare le Regulatory Sandboxes, sono previste nella sezione del regolamento europeo e sono ambiti nella sezione del regolamento relativi agli strumenti di supporto all’innovazione. Cosa sono le Regulatory Sandboxes e perché sono interessanti per il mondo delle aziende? Perché, un po’ per quello che vi dicevo prima, un po’ tutti lo abbiamo detto, il regolamento è già lì, ma in realtà manca molto ancora perché il vero tema è che molte delle norme, poi magari nel prossimo giro possiamo anche spiegare perché a livello più geopolitico, però molte delle norme richiedono un’attuazione di tipo tecnico che in questo momento non sappiamo ancora fare. E il regolamento europeo, ma anche altri regolamenti che insieme al regolamento europeo si sovrappongono, determinano dei problemi regolatori. Quando un’azienda sviluppa tecnologie deve sapere una delle prime cose che deve sapere è: quello che sto progettando rispetta le regole? La domanda non è ovvia perché in molti casi la risposta non c’è ancora. Voi dite: “Ma il regolamento è lì”. Cari, benvenuti nell’epoca dell’intelligenza artificiale. Il regolamento è lì, ma molte cose non si sanno ancora. Quindi cosa si deve fare? Si deve consentire agli imprenditori di sperimentare in fase pre-market, cioè prima di andare sul mercato, a costo zero per le piccole e medie aziende, perché la sperimentazione nelle Regulatory Sandboxes e negli strumenti a contorno, per esempio le AI Factory che, come conoscete, ce n’è anche una in Italia, sono accessibili per le piccole e medie aziende e per le startup a costo zero. Ovviamente zero non significa che ci sono dei costi interni che le aziende hanno, però non c’è nessuna fee da pagare. E cosa si fa lì dentro? Sì, io imprenditore ho un’idea, prima di svilupparla nelle diverse fasi dello sviluppo, faccio delle sperimentazioni insieme alle autorità che presidiano la compliance, quindi in Italia l’autorità di vigilanza del mercato. E questo è fondamentale perché certi problemi regolatori li apprendiamo attraverso la sperimentazione, li risolviamo attraverso la sperimentazione, a partire dalla stessa idea di intelligenza artificiale. Per esempio, c’è un caso d’uso che noi stiamo esaminando in cui il tema è se quel tipo di tecnologia è intelligenza artificiale oppure no. E questa cosa pesa enormemente perché una grande azienda, se è intelligenza artificiale, potrebbe spendere milioni di euro ogni anno in più. Questo è un problema regolatorio. La risposta c’è già? Non c’è. Bisogna sperimentare e questo forse è uno dei limiti della regolamentazione europea. Abbiamo voluto regolare senza esaminare molto in profondità i casi d’uso. Da questo punto di vista noi giuristi continentali abbiamo un po’ un approccio top-down: regola generale, caso concreto, gli anglosassoni procedono più dai casi. Questo è un punto che però le Regulatory Sandboxes consentono di fare: sperimentare, analizzare i casi specifici consentendo alle aziende di sviluppare e programmare il proprio sviluppo in maniera sicura, in maniera tale che poi, quando andranno sul mercato e dovranno ottenere una conformità, saranno relativamente rassicurate circa il rispetto delle regole. Questa è la grande innovazione perché il regolamento vive della sperimentazione. Ripeto, stiamo parlando di tecnologie talmente disruptive, ma ancora acerbe dal punto di vista regolatorio. Questo è il tema. Per cui quando tu concretamente la regolazione la devi applicare spesso non sai ancora come si fa. Ecco, da questo punto di vista il progetto è estremamente sfidante. Devo dire, e chiudo, che da questo punto di vista c’è un grandissimo entusiasmo da parte della Commissione, da parte delle autorità, ma anche da parte degli imprenditori. Nel senso che Asimov, per esempio, ha espresso interesse, nel senso che tutti percepiscono in questo tipo di strumento un qualcosa davvero a supporto dei processi di innovazione. Quindi io credo che noi ci stiamo divertendo molto, devo dire, stiamo lavorando anche molto.

 

ERIK LONGO

Federico, il punto di vista dell’imprenditore a questo punto, reagiamo, avevo pensato un’altra domanda, ma penso che l’acquolina viene mangiando.

 

FEDERICO BONOMI

È chiaro, è chiaro. Intanto bene, è una vera fortuna avere un progetto come quello che guida Antonino, perché un imprenditore tende sempre a vedere le regole come qualcosa di intrusivo e che distoglie l’attenzione dalla concretezza dello sviluppo dell’impresa. Poi la regolamentazione non fa fatturare. Nel nostro caso, dato che il nostro business è l’attività normativa, a noi un po’ piace anche, però la stragrande maggioranza delle aziende vuole pensare al fatturato, non vuole pensare alle regole, quindi va detto in modo molto chiaro. Certo, e certo. Quindi, è chiaro che, anche poi la mentalità degli informatici è quella di dire: “Ma questo è un costo, ma io non lo voglio, vado in un paese dove questa cosa non c’è, dove tutte queste regole non ci sono”. Chi ce lo fa fare di stare in Europa quando noi possiamo comunque vendere le cose all’Europa e sviluppare le cose, ad esempio, in Argentina, adesso vanno molto di moda i programmatori in Argentina che costano poco, sono bravi. La cosa, secondo me, molto interessante invece dell’approccio della Commissione adesso, che poi si è calato sul progetto EUSAIR, è quella dell’accompagnamento delle imprese. Certo, come diceva bene Antonino, le imprese hanno dei costi interni, per noi, imprese, ovviamente dobbiamo dedicare delle risorse a seguire questo progetto, però il fatto di avere in anticipo delle informazioni sul fatto che il nostro modello non soltanto sia conforme, ma il nostro prodotto possa fungere da guida per le autorità, cioè noi possiamo attraverso la nostra sperimentazione insegnare alle istituzioni a come regolamentare meglio. Questa è una risorsa incredibile, non penso sia mai successa una cosa del genere dove sono le istituzioni che imparano dalle imprese a come regolare, di solito la regolamentazione arriva e gli operatori economici si adeguano. Ma questo approccio che denota anche una certa umiltà in senso positivo da parte della Commissione, di dire: “Questa è una cosa talmente nuova che noi non abbiamo l’arroganza di dire come le cose devono essere”. All’inizio io mi ricordo che con l’AI Act mi ero un po’ spaventato perché c’era questa divisione in due tra provider e deployer. E noi ci domandavamo: noi cosa siamo? Un provider o un deployer? La risposta che c’eravamo dati è: siamo entrambi. E poi leggendo anche fino in fondo abbiamo anche capito, ma il nostro servizio è un servizio che alla fine serve a ottimizzare delle cose che precedentemente si facevano a mano, questi “narrow procedural task” che sono indicati come quelle fattispecie da parte del regolamento AI Act tali per cui un sistema viene di fatto catalogato automaticamente come a basso rischio. Quindi noi in qualche modo ci sentivamo sicuri perché, essendo il nostro un servizio che aiutava i funzionari a fare meglio il loro lavoro con l’unico obiettivo di aumentarne la produttività. Allora noi ci sentivamo tranquilli perché noi non è che, come dire, sostituiamo il Parlamento, noi aiutiamo chi aiuta i parlamentari a scrivere le norme o ad analizzare le norme, quindi ci sentivamo un po’ più sicuri. Però il fatto di avere un approccio invece per cui le istituzioni imparano dalle aziende, magari poi tutta questa distinzione tra provider e deployer si sfumerà in futuro, chi lo sa. Noi non sappiamo anche come andrà il mercato, io con la mia azienda vedo lo sviluppo di un singolo prodotto che in parte si basa su questi grossi modelli di mercato, in parte si basa su dei modelli che abbiamo sviluppato noi, però non è detto che in futuro ci sarà ancora il dominio di questi poche grandi aziende americane e cinesi che sviluppano modelli di intelligenza artificiale. Abbiamo visto, ad esempio, il caso di Pic che con una quantità di risorse infinitamente inferiore è riuscita a sviluppare dei modelli molto potenti. Chi lo sa in futuro, i grandi delle intelligenze artificiali non saranno appannaggio di pochi grandi attori su cui in parte è tarata questa regolamentazione, ma saranno modelli distribuiti, open source e anche relativamente incontrollati che saranno disponibili sul mercato, quindi il mercato lo sarà per quelle aziende tipo la nostra che sviluppano prodotti specializzati. È veramente difficile prevedere come andrà il mercato, sono troppe le variabili, cambiano le relazioni internazionali, i rapporti tra Italia e Stati Uniti o tra Europa e Stati Uniti e cambia tutto. Sfide ambientali: Trump ha detto che riaprirà centrali a carbone per alimentare i data center di intelligenza artificiale. L’Unione Europea magari decide di non intraprendere questa strada perché vuole restare sulla linea del Green Deal. Visto come sta andando il dibattito in questi giorni, penso che l’Unione Europea ammorbidirà un pochino questo aspetto di regolamentazione ambientale, e chi lo sa. Quindi questo significa che tutti i provider di dati si sposteranno negli Stati Uniti perché l’energia costerà di meno. È veramente complicato prevedere come andrà il mercato e quindi è complicato prevedere come deve adeguarsi la regolamentazione. Da piccolo imprenditore penso che l’approccio della Commissione sia un approccio molto positivo perché si pone in ascolto e si pone anche in una prospettiva di attesa. Antonino giustamente diceva che molte parti del regolamento non ci sono ancora. Ci sono dei passaggi per cui alcune parti del regolamento entreranno in vigore successivamente, anche questo è giusto. Ovviamente pone dei problemi per chi le soluzioni le ha già sul mercato. Noi abbiamo sviluppato e messo nel mercato la nostra soluzione prima dell’entrata in vigore del regolamento e se qualcuno ha messo prima dell’entrata in vigore del regolamento una soluzione che non andava benissimo e non ha rispettato tutti gli standard, questo potrebbe essere un problema. Insomma, è un groviglio questo. È veramente complicato navigare tutte le incertezze della regolamentazione. Noi, devo dire, siamo stati anche contattati dall’ufficio europeo e ci è stato chiesto anche di raccontare, ad esempio, le iniziative che facciamo sulla AI literacy, cioè le iniziative culturali che noi facciamo, tipo partecipare a convegni, organizzare corsi, intervenire in università per spiegare come funziona l’intelligenza artificiale. Ecco, questo ce l’ha chiesto la Commissione. Noi abbiamo anche pubblicato le nostre pratiche di divulgazione sull’intelligenza artificiale e abbiamo anche aderito a questo codice di condotta a cui le aziende possono assolutamente partecipare. Secondo me è una cosa molto positiva. Quindi io, come dire, non sono a disposizione, spero che anche altre società lo siano nel collaborare. Ovviamente questo comporta dei costi di risorse, di personale dedicato a questo progetto, ma secondo me è un investimento perché porterà ad avere una regolamentazione efficace e utile anche al bene comune.

 

ERIK LONGO

Grazie. Grazie mille Giovanni. Allora, prima ci hai detto che la sfida è la literacy, la sfida è l’alfabetizzazione. Tu hai tantissimi anche corsi di perfezionamento oltre agli insegnamenti. Come costruiresti anche magari la formazione del giurista in questo momento proprio su questi temi?

 

GIOVANNI ZICCARDI

Allora, quello che ho notato io, anche formando, ad esempio, interi ordini di avvocati, ormai migliaia di avvocati, è che il giurista tendenzialmente ha una sovrastima delle proprie competenze tecnologiche. È legato un po’ forse alla vanità tipica dell’avvocato, come sapete, o del giurista, però metà dei giuristi che voi incontrate già sanno le cose. Però mettetevi un po’ nei loro panni, l’avvocato è anche un po’ seccato dai clienti che oggi arrivano e sanno già tutto. Grazie anche all’intelligenza artificiale. Quindi il primo passo che noi facciamo è proprio partire dalle basi e faccio un esempio, già spiegare che strumenti come ChatGPT inventano la risposta, ma l’inventare la risposta, cioè inventare da zero un insieme di testo in base a regole matematiche, non è un errore, ma è il suo modo di lavorare, già questo apre delle prospettive molto importanti. Per cui se voi dite a un avvocato: “Guarda che qualsiasi cosa che sta per dirti ChatGPT lo sta inventando”, capite che l’approccio che ha è un approccio molto differente. Abbiamo avuto il primo caso anche in Italia, sapete, finalmente, perché agli studenti io facevo soltanto esempi stranieri: Tribunale di Firenze, un avvocato che ha presentato un atto con delle sentenze completamente inventate da ChatGPT e tra l’altro era una causa per contraffazione di prodotto e l’avvocato ha presentato delle sentenze contraffatte, quindi, non dico che dovesse essere premiato, però era molto in topic come tematica. E se voi andate a vedere in questi casi, la prima dichiarazione dell’avvocato è: “Ma io non avevo la minima idea che questi strumenti inventassero il risultato”. In realtà è il loro modo di funzionare. Quindi come bisogna procedere? Bisogna procedere dalle basi perché è una delle tecnologie più complicate che ci siano da comprendere. E io di solito, e vado molto rapido in un minuto, la prima cosa che si fa è si spiega la differenza tra un motore di ricerca e gli strumenti di intelligenza artificiale generativa, perché non è vero che non utilizzeremo più i motori di ricerca, utilizzeremo ancora i motori di ricerca insieme all’intelligenza artificiale. Poi si spiega la funzione delle banche dati giuridiche o delle banche dati istituzionali dove ancora si trova la fonte di riferimento e si fa vedere come nel nostro quotidiano si possano utilizzare tutti questi strumenti senza problemi perché, se utilizzati bene, ma per quello per cui sono pensati, possono essere estremamente utili. Seconda cosa, non si impara l’intelligenza artificiale, secondo me, dai libri o dalla teoria. Ho notato che ormai nelle librerie ci sono intere librerie dedicate a pubblicazioni sull’intelligenza artificiale. Ormai tutti stanno pubblicando libri sull’intelligenza artificiale, ce ne sono centinaia. In realtà noterete che si impara, come l’informatica giuridica ha sempre insegnato, mettendo le mani e utilizzando questi strumenti e avete la possibilità di utilizzare le versioni gratuite inizialmente di gran parte di questi strumenti che comunque hanno un grado di potenza molto interessante. Terza cosa, ultima che voglio dire, noterete che più uno o una è intelligente e meglio usa gli strumenti di intelligenza artificiale. Non dovete pensare che l’intelligenza artificiale possa migliorare situazioni critiche, tendenzialmente, anzi, le amplifica. Sono stato alla Cineteca Milano a Milano un paio di giorni fa a vedere “Il Maestro e Margherita”. Il film che vi consiglio, tra l’altro, un film delizioso, che è il mio romanzo preferito. C’è un passaggio nella seconda parte del “Maestro e Margherita” di Bulgakov, vi ricordate, dove Azazello, che è l’inviato, l’emissario del diavolo, dà a Margherita un unguento, una crema che lei si spalma per diventare una bellissima strega. Ringiovanisce Margherita di 30 anni nel romanzo di Bulgakov, ma allora a 30 anni una donna era già considerata anziana, torna di 20 anni. E quando io parlo con alcune persone sull’intelligenza artificiale, loro la interpretano come la pomata di Azazello, l’unguento del “Maestro e Margherita”. Tu prendi l’intelligenza artificiale e la metti nel tribunale più scalcagnato di questo mondo, dove non hanno un archivio dati ridondanti, dati inesatti, e come l’unguento di Azazello migliora assolutamente tutto. Non funziona in questo modo. Più sarete intelligenti, curiosi, creativi, meglio saprete utilizzare l’intelligenza artificiale. Mentre se rimane quello stato di poca conoscenza, di poco interesse, ci sarà sempre un utilizzo pessimo dell’intelligenza artificiale e arriverà ad amplificare anche le discriminazioni, gli errori e la ridondanza nei dati, i dati sporchi, la mancata pulizia nei dati. Quindi io investire oggi nel conoscere questi strumenti, anche se può sembrare un po’ difficoltoso, ma utilizzandoli domani, pagherà, secondo me, in una migliore produttività. Sapete che ci sono state, chiudo, tante persone che hanno approfittato di questo periodo breve, dal dicembre 2022, gennaio 2023, quando ChatGPT ha avuto, come sapete, milioni di accessi a oggi, per guadagnare un buon vantaggio competitivo anche nell’offrire servizi, nell’utilizzarlo, semplicemente studiando con cura il funzionamento e non usandola in maniera superficiale. E questo, secondo me, è il percorso che dobbiamo fare. Tanta umiltà, corsi fatti da veri esperti e tante prove sul campo e vedrete che l’idea di un giurista aumentato, come si dice, cioè di un giurista che sfrutta la tecnologia come un secondo cervello con una potenza di calcolo incredibile o un imprenditore aumentato, non è fantascienza, non è Asimov, per tornare all’azienda dell’amico, ma può essere realtà, però tanta umiltà, tanta pazienza e tante prove, secondo me.

 

ERIK LONGO

Grazie, Giovanni. Prego. Abbiamo veramente, per la cortesia del pubblico, io vi chiedo un minuto, un minuto e mezzo a testa. Abbiamo avuto Draghi qui al Meeting, il primo, proprio all’introduzione, ha posto problemi anche che hanno a che fare con la tecnologia. Il nostro mondo, anche il mondo dei giuristi, guarda chiaramente a tutto ciò che ha a che fare con gli sconvolgimenti geopolitici che riguardano l’intelligenza artificiale. Allora, una battuta a ognuno di voi, vi chiedo sul problema “intelligenza artificiale, diritto e profonde trasformazioni geopolitiche”. Cosa vedete anche nel futuro? Prego, Giovanni.

 

GIOVANNI ZICCARDI

Ma questa idea del mondo diviso in tre parti, Cina, Stati Uniti ed Europa, nell’approccio all’intelligenza artificiale mi vede molto legato all’approccio europeo. A me piace tanto il lavoro che è stato fatto dall’Unione Europea negli ultimi 10 anni. Mi piace il regolamento sull’intelligenza artificiale. L’idea che l’Unione Europea, anche se non ha l’intelligenza artificiale, ma ha i dati degli europei, che sono i più richiesti al mondo, e alla nostra forte tradizione dei diritti, uscita dalla Seconda Guerra Mondiale, le carte costituzionali, e sia l’unico luogo al mondo che ancora voglia mettere al centro l’essere umano e la sua dignità nell’uso dell’intelligenza artificiale, a me piace molto. Che poi sia una posizione difficile da sostenere, fuori dalla storia, che possa frenare l’innovazione, è un altro conto, ma a me come giurista il lavoro finora fatto piace molto, quindi io voto Europa da questo punto di vista.

 

FEDERICO BONOMI

Grazie. Bene, secondo me il discorso di Mario Draghi, se non avete avuto modo di sentirlo o di leggerlo, dovete assolutamente recuperarlo perché il succo di quello che dice Draghi è: l’Europa l’abbiamo costruita in varie fasi, è stata fatta con degli ideali molto forti alla base da dopo la guerra. L’idea che gli Stati non debbano risolvere le controversie con il conflitto, ma con la cooperazione, con la politica, si basa su dei valori che sembrava fosse sufficiente il mercato per difenderli in un mondo post anni Novanta in cui sì, effettivamente il fatto che noi fossimo un mercato enorme con 450 milioni di cittadini/consumatori ci dava quella potenza di fuoco per contare nel mondo. Questo mondo è finito, Draghi lo ha ricordato e per fare questo l’Europa deve trasformarsi e poi implicitamente Mario Draghi ci dice anche come: con una forma di governo di tipo federale. Il tema del federalismo nel pensiero di Draghi è costante, quindi la soluzione ce la offre anche, che ci dice anche: “Trasformate il vostro scetticismo”. Ovviamente si rivolge al governo italiano che parte da una posizione critica verso l’Unione Europea: “Trasformate il vostro scetticismo in azione”. Bene, io mi sentirei molto più al sicuro se i valori dell’Unione Europea fossero sostenuti da una forma di governo di tipo federale che garantisce una solidità in un mondo che purtroppo, non per colpa nostra, sta diventando sempre più aggressivo.

 

ANTONINO ROTOLO

Allora, una battuta. Innanzitutto dell’intervento di Draghi c’è qualcosa di estremamente importante relativamente alla regolazione stessa dell’AI. Regolare efficacemente l’AI lo si può fare se prima o poi l’AI la fai tu, ok? Sennò diventa uno strumento difensivo a livello geopolitico, può funzionare, ma c’è un tema di investimenti, di come gli investimenti funzionano nell’ambito dell’innovazione tecnologica. Qui c’è uno studio interessante, penso fatto da Bocconi, che era un po’ critico su come i soldi in Europa sono spesi in innovazione, perché l’Europa non è vero che non spende in innovazione, spende un bel po’. Il tema è che l’Europa spesso spende in maniera incrementale, cioè si supporta ricerca e sviluppo incrementale e non disruptive. E questo è un grande problema perché sull’intelligenza artificiale bisogna avere dei rischi. Questo è un primo tema. Per prendersi dei rischi però ci vogliono investimenti e quindi c’è un tema di capacità di investimento su cui Draghi ha detto molto, nel senso che se vogliamo giocare la partita per poter fare la nostra AI europea e quindi farla alle nostre regole, dobbiamo fare massa critica. L’ha detto proprio qua al Meeting. Poi c’è l’altro tema, quello della governance, perché l’AI richiede. E qui entriamo su un tema, una battuta. ERIK, tu sei un costituzionalista. E lo sai bene, spesso sempre più i regolamenti europei assomigliano più a delle direttive. Adesso è una questione tecnica, ma le direttive non sono dei regolamenti, i regolamenti si applicano direttamente, le direttive no. E sapete perché sta accadendo questo? Perché abbiamo una Commissione debole e degli Stati deboli. In questa situazione geopolitica c’è una dialettica in cui la Commissione è debole, ma gli Stati stessi sono deboli, in un gioco in cui alla fine si lavora su dei compromessi politici e in cui i regolamenti non sono più veri regolamenti, ma sono direttive, cioè sono delle norme aperte che poi richiedono un’implementazione tecnica da parte della Commissione, la quale poi implementa e poi gli Stati si lamentano perché è implementato. Questo gioco è un gioco che può essere risolto solamente, come dicevi tu, rafforzando le autorità europee in un modello federale, perché se non facciamo così regoleremo male e non saremo in grado di fare la nostra AI e quindi saremo oggetto di un non saremo noi a decidere il nostro futuro.

 

ERIK LONGO

Grazie. Io ringrazio ancora i nostri tre professori e tutti coloro per gli interventi, anche per tutte le suggestioni che ci hanno dato. Ringrazio tutti voi per essere stati qui pazienti a sentirci. Vi do un ultimo avviso che mi preme particolarmente anche proprio perché per la costruzione di questo luogo certamente c’è bisogno di noi e c’è bisogno non solo dei volontari, ma tutti coloro che partecipano. Ognuno di noi può dare un contributo decisivo, quindi al Meeting. Ogni dono, come dice il titolo, mattone nuovo per continuare a costruire insieme luoghi di incontro, bellezza e speranza come quello in cui siamo. Lungo tutta la fiera si possono trovare le postazioni dove c’è il “dona ora”. Si può fare anche all’interno, per esempio, dei ristoranti, c’è un cuore rosso che vedete. Vi ricordiamo che la Fondazione Meeting è un ente del terzo settore. Chi sostiene il Meeting può usufruire chiaramente dei benefici fiscali al momento della dichiarazione dei redditi attraverso la dichiarazione. Io ringrazio ancora il professor Giovanni Ziccardi, il dottor Bonomi e il professor Rotolo per aver partecipato e davvero grazie, grazie ancora e buona serata e buon Meeting. Buon fine Meeting.

Data

27 Agosto 2025

Ora

17:30

Edizione

2025

Luogo

Arena cdo C1
Categoria
Incontri