La legge dell’AI

Redazione Web

Rimini, 27 agosto 2025 – All’Arena Cdo C1 del Meeting di Rimini si è svolto l’incontro dal titolo “La legge dell’AI”, trasmesso in diretta da Rai News e organizzato da Compagnia delle Opere e dal Gruppo AI della Fondazione per la Sussidiarietà. Sul palco si sono confrontati Antonino Rotolo, professore di informatica giuridica all’Università di Bologna e responsabile di EURAIR; Giovanni Ziccardi, professore di informatica giuridica all’Università degli Studi di Milano ed esperto di criminalità informatica; Federico Bonomi, co-fondatore della startup Asimov AI. Ha moderato Erik Longo, professore di diritto costituzionale all’Università di Firenze ed esperto di regolazione dell’intelligenza artificiale. Un dialogo che ha toccato i nodi centrali della regolazione dell’IA, alla luce dell’entrata in vigore, nel 2024, dell’AI Act europeo, primo quadro normativo organico al mondo per disciplinare l’uso dell’intelligenza artificiale.

Perché regolare l’intelligenza artificiale

Nel suo intervento introduttivo, Longo ha posto subito le domande chiave: «Perché regolare l’IA? Quali regole introdurre? Quando intervenire? E chi deve essere il destinatario delle norme?». Ha ricordato la difficoltà di applicare schemi giuridici tradizionali a tecnologie così pervasive: «Non basta più dire “c’è una regola, se la violi arriva la sanzione”. Con l’IA i confini sono sfumati: basti pensare alle violazioni di copyright nei modelli linguistici o ai rischi della guida autonoma». Il diritto si trova così davanti a una sfida inedita: non più solo punire le infrazioni, ma costruire norme “by design”, integrate fin dalla progettazione dei sistemi.

Ziccardi: “La sfida è l’alfabetizzazione digitale”

Il professor Giovanni Ziccardi ha individuato nella mancanza di competenze il vero nodo: «La società – e i giuristi in particolare – non sono pronti. Manca la literacy, l’alfabetizzazione digitale di base. Oggi un cittadino su due in Europa non è in grado di inviare una mail con allegato in maniera corretta. Eppure usiamo strumenti di IA di cui non comprendiamo né il funzionamento né i limiti». Ha ricordato come l’arrivo dell’IA generativa, a partire dal novembre 2022, sia stato «rapidissimo, senza darci il tempo di prepararci». E ha ammonito: «Non possiamo usare ChatGPT come un motore di ricerca: inventa risposte, non restituisce verità. Se non capiamo questo, corriamo rischi enormi, anche nella giustizia e nella pubblica amministrazione». La via, secondo Ziccardi, è investire in educazione e consapevolezza: «Non basta scrivere regole. Serve preparare avvocati, magistrati, professionisti. L’IA non migliora automaticamente situazioni critiche: amplifica ciò che trova. Più sei competente e creativo, meglio la usi. Altrimenti moltiplica errori e discriminazioni».

Bonomi: “Trasparenza e democrazia a rischio”

Dal lato imprenditoriale, Federico Bonomi, co-fondatore di Asimov AI, ha portato l’esperienza di una startup che sviluppa strumenti per il lavoro legislativo: «Con la nostra piattaforma riduciamo da giorni a minuti il tempo necessario per analizzare migliaia di emendamenti. L’IA rende più trasparente l’attività parlamentare, traducendo testi tecnici in linguaggio naturale comprensibile a cittadini e imprese». Ma ha avvertito: «La stessa tecnologia può essere usata per disinformazione politica, per generare testi o video falsi attribuiti a parlamentari. Il rischio per la fiducia democratica è enorme». Bonomi ha accolto con favore l’AI Act: «È giusto vietare l’uso dell’IA per manipolazioni elettorali. Le imprese, specie quelle piccole, temono i costi burocratici, ma avere regole chiare è meglio che muoversi nel vuoto normativo. Per noi la regolazione è un’opportunità, non un ostacolo». Ha aggiunto un monito sul mercato globale: «Se l’Europa impone vincoli ambientali stringenti e gli Stati Uniti riaprono centrali a carbone per alimentare i data center, rischiamo un dumping regolatorio. Le regole devono essere equilibrate, altrimenti le aziende scapperanno altrove».

Rotolo: “Le sandbox regolatorie come laboratorio di futuro”

Il professor Antonino Rotolo ha raccontato l’esperienza del progetto europeo EUSAIR, che coordina: «Le sandbox regolatorie, previste dall’articolo 47 dell’AI Act, permettono alle imprese di sperimentare in contesti controllati, insieme alle autorità di vigilanza. È un modo per testare le tecnologie prima del mercato e per aiutare i regolatori a capire come applicare le norme». Rotolo ha sottolineato la novità: «Per la prima volta sono le istituzioni a imparare dalle imprese. Non è più solo l’azienda che deve adeguarsi a regole calate dall’alto, ma si costruisce un dialogo. È un modello di umiltà e realismo che può fare scuola». Ha ricordato che «molte definizioni dell’AI Act, come la distinzione fra provider e deployer, sono ancora incerte. Le sandbox servono proprio a sciogliere questi nodi e a garantire che le regole siano realistiche».

Geopolitica e diritto: l’Europa di fronte a Stati Uniti e Cina

Nel giro conclusivo, i relatori hanno riflettuto sullo scenario internazionale. Ziccardi ha difeso l’approccio europeo: «Solo l’Europa, forte della sua tradizione di diritti e di tutela della dignità umana, ha avuto il coraggio di mettere l’uomo al centro dell’IA. È una posizione difficile da sostenere, ma è la più giusta». Bonomi ha richiamato il discorso di Mario Draghi: «Il mercato non basta più. L’Europa deve dotarsi di una governance federale, capace di reggere alla competizione globale. Solo così potremo giocare la partita». Rotolo ha avvertito: «Non basta regolare: serve investire. L’Europa spende in ricerca, ma troppo spesso in innovazione incrementale, non disruptive. Per costruire una vera IA europea servono coraggio e massa critica». Il moderatore Longo ha chiuso sintetizzando: «L’IA non è una forbice che impariamo a usare in pochi minuti. È uno strumento complesso, che richiede alfabetizzazione, regole chiare e responsabilità». L’incontro si è concluso con un appello: «Ogni dono al Meeting è un mattone nuovo per costruire luoghi di incontro, bellezza e speranza. Così come l’IA, se ben regolata, può essere uno strumento non di paura ma di bene comune».

Scarica