Dialogo, propaganda…

Redazione Web

Rimini, 23 agosto 2025 – La serata dal titolo Dialogo, Propaganda… Il rischio della guerra cognitiva, svoltasi presso la Sala Neri Generali Cattolica, ha offerto un momento di riflessione su uno dei temi più delicati e attuali del nostro tempo: il rapporto tra tecnologia digitale, opinione pubblica e libertà cognitiva. L’incontro, trasmesso in diretta sui canali digitali di Play2000, Rai News e Teleradiopace, ha visto la partecipazione di Luciano Violante, presidente dell’Associazione Futuri Probabili; Paolo Carozza, professore di diritto internazionale e co-chair del Meta Oversight Board; Mauro Magatti, sociologo e docente dell’Università Cattolica del Sacro Cuore.

A moderare, Andrea Simoncini, costituzionalista e vicepresidente della Fondazione Meeting. Il dibattito si è aperto con un video realizzato da Futuri Probabili per Expo Osaka, che ha dato voce alle preoccupazioni e alle speranze delle giovani generazioni rispetto al futuro della tecnologia, dell’intelligenza artificiale, dei conflitti e della possibilità stessa di mantenere spazi di libertà.«Che Musk sia più potente dell’Italia è molto spaventoso», affermava uno dei ragazzi intervistati, mostrando come la percezione di un potere tecnologico smisurato possa incidere sul sentimento democratico delle nuove generazioni. Per introdurre il tema, il moderatore Andrea Simoncini ha letto un brano di Gianni Rodari, scritto nel 1962, in cui un bambino sogna di vedersi sottrarre il cervello in cambio di una macchina capace di fare i compiti. «Meno male – concludeva la favola – era stato solo un sogno. Vi assicuro che mi son messo subito a fare i compiti». Simoncini ha osservato come oggi quell’incubo sia diventato realtà, con strumenti digitali capaci di sostituire attività un tempo considerate esclusivamente umane. «Se una macchina può sostituire il mio pensiero – ha sottolineato – quella macchina, prima o poi, catturerà anche la mia libertà».

Luciano Violante: difendere la libertà cognitiva

Nel suo intervento, Luciano Violante ha tracciato tre rischi principali legati al potere digitale.
«Il primo rischio – ha affermato – è che non ci sia separazione tra potere digitale e potere politico». Il potere politico toglie regole al potere digitale e il potere digitale può fare campagne a favore del potere politico Quando i governi usano le tecnologie per orientare subdolamente l’opinione pubblica, la libertà dei cittadini ne esce compromessa. Il secondo pericolo è la disinformazione, che può orientare masse di persone senza che esse ne siano consapevoli. Infine, un rischio emergente è quello del condizionamento tecnologico dell’attività cerebrale: «Una società di Musk  ha sviluppato  impianti cerebrali che consentono a un paraplegico di compiere azioni, ma la stessa tecnologia potrebbe essere utilizzata per influenzare decisioni e pensieri».

Paolo Carozza: il rischio di una libertà ridotta a sola autonomia

Collegato dagli Stati Uniti, Paolo Carozza ha portato la sua esperienza di membro dell’Oversight Board di Meta. «Le tecnologie di intelligenza artificiale e algoritmi stanno scatenando un potere sorprendente – ha affermato – ma accanto alle possibilità di bene stiamo già assistendo a segni evidenti di degrado della vita umana». Le tecnologie dell’IA sono strumenti che possono promuovere il bene comune e quindi lo sviluppo umano integrale   oppure possono  ridurre l’esperienza e le libertà umane.  Carozza ha sottolineato come il pericolo maggiore sia quello di un uso dei dati personali per orientare desideri e opinioni per fini economici  o ideologici: «La rete digitale sfrutta enormi quantità di dati per orientare i nostri desideri verso i fini di qualcun altro». Per affrontare questa sfida non bastano nuove leggi: «È un problema antropologico prima che tecnologico. Dobbiamo chiederci che cosa significa essere umani». Il giurista ha poi individuato quattro dimensioni essenziali della dignità umana da preservare: La corporeità: «La tecnologia non può sostituire l’esperienza incarnata della realtà». La relazionalità: «Scopriamo e sviluppiamo il senso della vita solo in relazione con gli altri». L’interiorità: «Il cuore, inteso come sede della coscienza,di cercare il senso della realtà , non può essere colonizzato dagli algoritmi». Il limite: «È solo nell’incontrare l’incontrollabile che sperimentiamo davvero cosa significa vivere». In sintesi se si vuole rispondere alla guerra sull’integrità cognitiva  abbiamo bisogno bisogna costruire norme ma soprattutto rinvigorire la questione umana come il salmista 3000 anni fa cantava “cos’è l’uomo perché tu te ne curi”.

Mauro Magatti: una società che pensa di più

Mauro Magatti ha definito la tecnologia  un farmaco, riprendendo il termine greco pharmakon, che significa sia medicina sia veleno. «La digitalizzazione – ha spiegato – riduce la distanza tra uomo e macchina. Le macchine diventano più simili a noi, mentre noi tendiamo a diventare sempre più simili a loro». «Abbiamo inventato macchine capaci di catturare l’energia cognitiva, così come le macchine della rivoluzione industriale catturavano l’energia fisica». Per affrontare questa sfida occorre una società capace di «pensare di più», recuperando il valore del pensiero spirituale oltre a quello strumentale, calcolante, raggiungimento dello scopo. L’umano pensa spiritualmente.«Lo spirito ha due elementi in cui si radica, uno è il corpo lo spirito è incarnato nella nostra esperienza di viventi, pensiamo sentendo, avvertendo, volendo bene o odiando. L’altra dimensione è la sorpresa, la domanda , la meraviglia , la curiosità, il sapere che non tutto può essere messo sotto controllo.». Abbiamo bisogno di una società che pensa di più tenendo presente che la dimensione del pensiero ha a che fare con la razionalità strumentale e la razionalità spirituale.

Etica e responsabilità nel tempo della guerra digitale

Nella parte conclusiva, Violante ha ribadito l’urgenza di un «nuovo statuto etico del digitale», capace di porre limiti alle applicazioni più rischiose dell’intelligenza artificiale, in particolare nel campo militare. «Quando una macchina sfugge totalmente al controllo umano – ha ammonito – lì c’è un rischio».

Il valore delle domande

Il moderatore Andrea Simoncini ha chiuso l’incontro con una riflessione tratta da Georges Bernanos: «Il pericolo non è nelle macchine, ma nel tipo d’uomo che questa civiltà si sforza in ogni momento di formare». E ha aggiunto: «Queste macchine sono progettate per dare risposte, ma quello che ci salverà sono le domande».

Scarica