Giovedì 25 agosto

"LA SCIENZA DI FRONTE AL FUTURO DELL'UOMO"

Partecipano:

Prof. Ugo Amaldi, Fisico Nucleare, Ricercatore presso il CERN;

Dott. Guido Grandi, Ricercatore di Tecnologie Molecolari presso l'ASSORENI di Milano;

Prof. Giuseppe Giunchi, Primario della Clinica Medica di Roma.

Moderatore:

Prof. Gianpaolo Bellini, Ricercatore presso il CERN.

G. Bellini:

Vorrei presentare innanzitutto le persone che fanno parte di questa tavola rotonda; alla mia sinistra c'è il prof. Ugo Amaldi, fisico sperimentale delle particelle elementari del Centro Europeo per le Ricerche Nucleari di Ginevra; alla mia destra ci sono il prof. Giuseppe Giunchi, illustre clinico dell'Università di Roma e studioso di bioetica, cui accenneremo durante la tavola rotonda, e il dott. Grandi, ricercatore nel campo dell'ingegneria genetica. Infine io mi chiamo Bellini e sono anch'io un fisico sperimentale delle particelle elementari del Centro Europeo di Ginevra. Il tema della nostra tavola rotonda è la scienza di fronte al futuro dell'uomo. Cercheremo di affrontare questo tema dicendovi cosa l'uomo può aspettarsi dalla Scienza e dalla Tecnica nel vicino futuro. Se ci rifacciamo alla sigla del Meeting: "Uomo Scimmia Robot", si può notare che fra la scimmia e il robot, l'unico che fa della Scienza è l'uomo; e la Scienza è un modo di indagare che è tipica solo dell'uomo e non della scimmia né del robot. La Scienza è una delle sfide che l’uomo fa a se stesso. La psicologia del ricercatore, in fondo, non è molto diversa da quella ad esempio di un alpinista che cerca di superare i propri limiti fisici in una ascensione. Chiaramente non c'è niente di eroico nella ricerca scientifica, ma la spinta che l'uomo sente, parte dello stesso tipo di interesse, cioè, il superamento dei propri limiti, che in questo caso sono i limiti che gli vengono posti dalla cultura del tempo nel quale lo scienziato vive. Cioè i limiti sono dei limiti di conoscenza. Certamente la difficoltà della conoscenza scientifica è la frattura che essa crea fra addetti ai lavori e non addetti ai lavori, nel senso che questi ultimi partecipano a questa conoscenza molto meno che non nel caso di altri tipi di conoscenza. Una persona, che ha una cultura media, partecipa alla conoscenza filosofica, alla produzione artistica, molto più che non alla conoscenza scientifica. Inoltre, almeno in uno stato democratico, il singolo cittadino cerca di partecipare alle scelte politiche ed economiche, ma non partecipa quasi per nulla alle scelte di sviluppo, per esempio, della Scienza applicata, anche se la Scienza applicata ha un impatto molto maggiore sul nostro vivere di quello che probabilmente ha la politica stessa. Uno dei problemi cui ci troviamo di fronte è questo: come è possibile far sì che l'opinione pubblica non senta la Scienza come qualche cosa della quale avere paura: l'opinione pubblica, l'uomo medio ha paura della Scienza, ha paura della Tecnica, perché non la conosce. Come è possibile far capire che la Scienza è una grande possibilità che l'uomo ha di fronte e di cui certamente non bisogna aver paura? Per approfondire il tema è necessario fare una certa distinzione fra Scienza come conoscenza, cioè come ricerca fondamentale, e Scienza applicata. Certamente non è possibile fare una divisione netta fra una ricerca fondamentale che porta ad una conoscenza della natura e una ricerca applicata che porta allo sviluppo di metodi o di mezzi che possono cambiare la vita dell’uomo. Molte volte, le due cose sono mescolate tra di loro; tuttavia, metodologicamente, il punto di arrivo di questi due processi è diverso. Quando si parla di Scienza come conoscenza bisogna dire che essa è solo positiva. Un aumento della conoscenza non può mai essere negativa per l'uomo; se l'uomo ha paura di conoscere di più, esso abdica ad una delle sue caratteristiche fondamentali. Quindi non ci possiamo aspettare altro che qualche cosa di positivo dal progredire della Scienza come conoscenza. Naturalmente non ci possiamo aspettare che la Scienza dia delle risposte definitive ai quesiti fondamentali dell'uomo. E’ chiaro che la Scienza opera su dati osservabili o addirittura su cose misurabili e su fenomeni che si possono osservare più volte. Quindi, non ci dobbiamo aspettare nemmeno nel futuro che la Scienza dia delle rispose fondamentali. Ma, in fondo, nessuna delle conoscenze dà risposte fondamentali, non dà la filosofia, non la dà l'arte. Tutte queste conoscenze ci rendono possibile non il raggiungimento della verità ma semmai una frequentazione di una parte di verità. Tuttavia, non dobbiamo dimenticare che nel campo puramente conoscitivo la Scienza, anche nei riguardi delle domande fondamentali dell'uomo, ha avuto un grossissimo ruolo che è stato quello di essenzializzare queste domande. in altri termini, la Scienza ha tolto dalla natura quel senso di mistero che l'uomo tendeva dargli, in quanto esso si trovava di fronte a fenomeni che non conosceva, che non riusciva a spiegare. La Scienza ha contribuito a collocare quello che normalmente si chiama "immanente", al posto giusto. Nei confronti della religione, la conoscenza scientifica ha fatto in modo che il rapporto uomo-Dio diventasse qualche cosa di molto più diretto e non mediato attraverso dei fenomeni che stanno al di fuori dell'uomo. Sono venute così sparendo quelle religioni, che, in qualche modo, tentano di dare un ruolo di divinità alle varie componenti della natura. Quindi certamente la Scienza ha fatto una certa chiarezza anche per quello che riguarda i problemi esistenziali dell'uomo. Il problema della Scienza applicata è molto più complicato, perché le possibilità che vengono fornite all'uomo dalla Tecnica sono enormi ma, nello stesso tempo, la Scienza non ha in sé un criterio etico per distinguere fra usi diversi di queste possibilità. Anzi l’utilizzazione dei ritrovati della Scienza viene generalmente decisa al di fuori della Scienza stessa. Quindi, da questo punto di vista, non ci possiamo aspettare un indirizzo chiaro dalla Scienza. La Scienza ha molti fondamenti etici; chiaramente la Scienza riafferma la necessità di una verità, anche se è in continuo divenire, anche se è parziale; riafferma la necessità di una conoscenza oggettiva, la necessità di una onestà scientifica. Ma la Scienza non ha in sé dei criteri etici che possano distinguere fra un utilizzo di un tipo o dell'altro della conoscenza scientifica. Quindi tali scelte sono al di fuori della Scienza. Il problema fondamentale è di creare le condizioni per cui ci siano delle garanzie dell'uti1izzo di queste conoscenze scientifiche nel campo applicativo, e questa è una delle cose che toccheremo in questa tavola rotonda. Volevo sottolineare il fatto che questo controllo da parte dell'opinione pubblica dell'utilizzo delle applicazioni scientifiche non è così semplice, perché in certi campi, le applicazioni scientifiche sono frammiste alle ricerche di base. Un franamento o una accelerazione delle ricerche, che venga dal di fuori della Scienza, rischia di creare allora dei "bias", cioè delle polarizzazioni, delle visioni parziali della conoscenza. Cerchiamo di affrontare, in i questa tavola rotonda, questi problemi mostrandovi diverse sfaccettature: chiaramente non possiamo essere completi spero che nessuno ce lo chieda. Amaldi può parlarvi di un campo, fisica e astrofisica, nel quale la Scienza come conoscenza è abbastanza ben separata dalla Scienza applicata; il suo discorso sarà riferito quindi alla Scienza come conoscenza. Il dott. Grandi, invece, vi parlerà proprio di un campo, l'Ingegneria Genetica, in cui le due cose, conoscenza e applicazione sono mescolate. Infine il prof. Giunchi, vi parlerà di medicina, cioè di un campo nel quale la Scienza è prettamente Scienza applicata. La tavola rotonda è organizzata in modo da avere una prima serie di interventi e poi una seconda serie; rimarrà forse poco tempo per le domande dal pubblico perciò fin da ora ci diamo appuntamento oggi pomeriggio alle tre, in un’altra sala per il dibattito. A questo punto do la parola al prof. Ugo Amaldi.

U. Amaldi:

In questi ultimi anni la microfisica (cioè lo studio dei componenti più minuti accessibile all'osservazione dei nostri strumenti) e l'astrofisica (la scienza dell’universo e dei suoi costituenti) ci sono inaspettatamente apparsi come due aspetti diversi di uno stesso problema scientifico. Tenterò di descrivere nel poco tempo che ho a disposizione ciò che questi due campi della scienza fondamentale hanno insegnato e potranno insegnare all'uomo che è curioso di sapere sia come sono fatte le cose, "dentro" sia come è nato e si è sviluppato l'universo, sia infine, come la terra, le galassie e l'universo stesso evolveranno in futuro. Poiché ci interessano non soltanto i fatti ma anche il come l’uomo si pone davanti ad essi, voglio sottolineare innanzitutto le differenze tra i metodi adottati dagli scienziati che si occupano di microfisica e di astrofisica. Nel campo della fisica delle particelle fondamentali, che è la denominazione più usuale impiegata per indicare la microfisica, l'approccio è quello che caratterizza la maggior parte delle scienze della natura: innanzitutto la sperimentazione, poi la proposta di schemi interpretativi, le teorie (che nel caso della fisica sono particolarmente potenti, perché si può fare uso del linguaggio universale della matematica), infine la deduzione da questi schemi interpretativi di conseguenze e confronto di queste conseguenze con altri risultati sperimentali. La teoria deve essere e può essere conservata soltanto sino a quando non ci si imbatte in una contraddizione con i risultati di altri esperimenti. Se si trovano contraddizioni la teoria deve essere rigettata ed è necessario costruirne un'altra. Gli strumenti che sono utilizzati per studiare nella microfisica l'infinitamente piccolo e per fare esperimenti sono gli acceleratori di particelle; essi permettono di portare alcune particelle fondamentali, che sono stabili e quindi vivono molto tempo, ad altissime energie per farle collidere. Le particelle stabili sono quelle di cui è fatta la materia che ci circonda; esse sono i neutroni e protoni che legati insieme, formano il nucleo degli atomi, e gli elettroni che girano intorno ad essi come in un sistema planetario in miniatura; sono queste le particelle che, vivendo a lungo, possono essere accelerate e fatte collidere. In queste collisioni, che sono gli esperimenti della microfisica, con la trasformazione di energia in massa vengono prodotte moltissime altre particelle che vivono pochissimo e che non esigono intorno a noi. Lo studio di queste particelle, delle loro proprietà e delle loro interazioni, ci permette di capire come la materia è fatta. Per studiare dimensioni che sono sempre più piccole, cioè per raffinare le nostre conoscenze, è necessario far uso di particelle di energia sempre più elevata e quindi di acceleratori sempre più potenti. Ciò giustifica la costruzione dei grandi acceleratori di particelle della nostra epoca; taluni di essi sono circolari, altri sono lineari; qualsiasi sia la loro forma sono questi gli strumenti che permettono di studiare l'infinitamente piccolo. Le dimensioni che siamo riusciti a studiare, a tutt'oggi, sono circa mille volte più piccole delle dimensioni di un nucleo. Ricordo che il diametro di un atomo è tale che sono necessari dieci milioni di atomi messi in fila per fare un millimetro e che il nucleo è circa centomila volte più piccolo di un atomo; come ho detto, con gli strumenti nostra disposizione sappiamo oggi distinguere due punti dello spazio che distano tra loro mille volte meno delle dimensioni di un nucleo. Mentre nella fisica delle particelle fondamentali si possono eseguire e ripetere esperimenti i cui risultati si tenta poi di inquadrare in una teoria coerente, ciò non è possibile in astrofisica. In astrofisica infatti lo scienziato deve limitarsi ad osservare i fenomeni celesti con strumenti, quali telescopi e radiotelescopi, sempre più potenti e quindi che loro di dimensioni sempre più grandi, e poi ad inquadrarli in uno schema teorico interpretativo che spieghi l'universo che oggi osserviamo. Il laboratorio dell'astrofisico, in altre parole, è l'universo stesso e gli esperimenti, quali la nascita di una galassia o la morte di una stella, non sono sotto il suo controllo. Alcuni fenomeni, e in particolare quello più importante di tutti, e cioè la nascita dell'universo stesso, sono addirittura unici, non sono ripetibili. Non è quindi possibile applicare la metodologia scientifica di cui parlava il prof. Bellini poco fa, e che è quella che applichiamo nel campo della fisica delle particelle elementari; lo scienziato deve necessariamente fare uso di un approccio diverso. Riassumendo, due capitoli della scienza fondamentale che fino a qualche decina di anni fa erano separati, la fisica dell'infinitamente piccolo e la fisica dell'infinitamente grande, ci appaiono oggi come aspetti diversi di una stessa conoscenza scientifica; le metodologie che dobbiamo adottare per studiarli sono però completamente diverse appunto perché sono diverse le dimensioni dei fenomeni naturali in gioco. Passo adesso a considerare più in dettaglio i risultati della microfisica. I concetti su cui si basa la nostra interpretazione del mondo fisico, e in particola re della struttura della materia, sono vecchi quanto l'uomo filosofico e risalgo no al tempo dei greci. Ancora oggi basiamo la descrizione del mondo fisico su due concetti: materia e forza.

Nella visione moderna la materia è costituita di particelle, di corpuscoli; essi sono pacchetti allo stesso tempo di materia ed energia perché, come ho accennato prima, materia ed energia sono la stessa cosa, l'una si può trasformare nell'altra. Le particelle possono essere create spendendo energia e, proprio studiando i fenomeni di creazione che avvengono nelle collisioni di particelle stabili, è stata scoperta l'antimateria; i fisici hanno osservato che, contemporaneamente alla creazione di nuovi corpuscoli costituiti di materia ordinaria, vengono create particelle fatte di un tipo diverso di materia a cui è stato dato il nome di antimateria. Un corpuscolo di antimateria avvicinandosi all'omologo corpuscolo di materia lo annichila in modo che entrambi scompaiono con liberazione di tutta l'energia prima "congelata" nella massa delle due particelle. Esistono vari tipi di particelle e non voglio qui entrare nella loro zoologia; basti ricordare che di una di queste famiglie molti hanno sentito parlare per merito del titolo della popolare trasmissione televisiva di Piero Angela "Quark". I quark sono le particelle di cui sono fatti i protoni e di neutroni che stanno nel nucleo. Esistono poi altre particelle, che molti non hanno sentito mai nominare e che noi classifichiamo sotto il nome generale di "leptoni", che in greco vuole dire particelle leggere; tra queste l'elettrone è la particella più nota. Quark e leptoni sono la realizzazione moderna dell'antico concetto di corpuscolo, di materia. L'altra idea fondamentale nella descrizione del mondo fisico è il concetto di forza. Le forze sono viste dal fisico moderno con occhio molto diverso da quello che usava il fisico di qualche centinaio di anni fa. Nella visione di Newton le forze sono azioni a distanza tipicamente rappresentate dall'effetto di attrazione della terra sulla luna: la !terra con la sua presenza modifica lo spazio circostante e un corpo, la luna o un satellite artificiale, posto a una certa distanza dalla terra ne sente l'influenza. Questa misteriosa azione a distanza prende il nome di forza nel linguaggio quella fisica che noi chiamiamo "classica". La fisica moderna ha cambiato l'idea di forza e ha introdotto, secondo me, una notevole semplificazione. Prendiamo il caso di due elettroni che, venendo uno verso l'altro collidono e cambiano direzione. Secondo la descrizione della fisica moderna, nel momento della collisione la forza elettrica repulsiva che agisce che si vengono incontro, è dovuta allo scambio tra i due corpuscoli di materia di una particella speciale, detta "mediatore" della forza; nel caso della forza elettrica il mediatore è un "fotone". Per capire come ciò possa accadere facciamo un esempio. Immaginiamo di trovarci su un lago tranquillo sul quale galleggiano due barche ciascuna occupata da un barcaiolo. Uno dei due barcaioli lancia all'altro un grosso sasso; il fatto di lanciare un sasso fa sì che la prima barca rinculando si metta in movimento; colui che riceve il sasso, stando nella seconda barca, riceve anche una spinta in modo che la seconda barca si allontana. Come si vede dall'esempio, lo scambio di un corpo tra due oggetti produce una forza repulsiva. Questo esempio aiuta a capire come nella visione moderna delle forze lo scambio di alcuni tipi particolari di particelle sia la causa delle forze; una forza tra due particelle non è altro che l'effetto dello scambio di una "particella mediatrice" o più semplicemente, come ho detto sopra, di un "mediatore". È questo un grande passo verso l’unificazione di concetti diversi: forze e materie non sono completamente disparate perché la materia è fatta di particelle e le forze sono scambio di particelle. Abbiamo così descritto uno dei passi fondamentali nell'unificazione della nostra visione del mondo fisico; ciò nonostante v'è un'importante differenza tra le particelle della materia e le particelle mediatrici delle forze. Per usare un linguaggio figurativo possiamo dire che mentre le particelle della materia non si amano, le particelle delle forze invece si amano. Prendendo in prestito il linguaggio di altri campi della scienza, accade come se le particelle della materia desiderino avere un proprio "territorio"; di modo che non si possono avere molte particelle di materia sovrapposte nella stessa zona di spazio; e ogni particella ha bisogno intorno a sé di spazio libero. Questo è uno dei motivi per cui la materia esiste nelle diverse forme chimiche, e quindi biologiche, che conosciamo. Tutte le particelle che si comportano così hanno preso il nome da un grande fisico italiano, Enrico Fermi, e si chiamano in tutto il mondo "fermioni". Le particelle che invece con il loro scambio sono le cause delle forze hanno tutt'altra proprietà: esse amano stare insieme nello stesso punto dello spazio. Le particelle che godono di queste proprietà sono indicate con il nome di un altro grande fisico e si chiamano "bosoni". Non è tanto importante ricordare il nome quanto sapere che proprio per questo motivo si possono costruire i laser. I laser sono fasci di fotoni (particelle di luce) e i fotoni sono i mediatori della forza elettrica; i fasci laser sono realizzabili proprio perché è possibile mettere tanti fotoni l'uno sull'altro a formare un fascio molto intenso e collimato. L'unificazione fra i concetti di forza e materia non è che un primo passo. Un ulteriore passo avanti è stato fatto in questi anni, anzi possiamo dire, proprio in questi mesi: infatti con teorie ed esperimenti recentissimi, delle varie forze che esistono in natura e di cui parlerò ora brevemente, si è riusciti a dare una visione unificata. Esistono, per quel che sappiamo oggi, quattro tipi di forze in tutto l'universo: la forza elettrica di cui ho già parlato, è la seconda per intensità; la prima è la forza forte, di cui non parlerò; la terza è detta forza debole, che produce la radioattività, e la quarta è la forza gravitazionale, che tiene insieme i corpi che costituiscono l'universo. La seconda e la terza di queste forze, cioè la forza elettrica e la forza debole ci appaiono adesso come manifestazioni diverse di una stessa forza. Cosa si vuol dire con questa affermazione? Poiché la forza è scambio di particelle, ciò non può che voler dire che le particelle che vengono scambiate quando agiscono questi due tipi di forze devono essere simili; tra i mediatori delle due forze vi è, in altre parole, una relazione di parentela. Voglio sottolineare il fatto che, purtroppo, contrariamente a ciò che era stato precedentemente annunciato, non abbiamo qui con noi Carlo Rubbia, colui che ha più contribuito alla recentissima scoperta dei mediatori delle forze deboli con la quale è stato dimostrato in modo definitivo che effettivamente la forza debole, che produce la radioattività, e la forza elettrica, che lega gli elettroni ai nuclei, sono manifestazioni diverse di una stessa forza. Cosa possiamo aspettarci dallo viluppo della fisica delle particelle fonda mentali? Penso che la presentazione delle unificazioni avvenute nel passato indichi la probabile via di evoluzione. Innanzitutto, l'unificazione ulteriore delle quattro forze che agiscono in natura, cioè l'emergere di uno schema interpretativo nel quale tutte le forze che agiscono tra corpuscoli di materia non sono altro che manifestazioni diverse di uno stesso fenomeno. Più in là, ma ancora più importante, sta l'unificazione tra i concetti di particella-materia e di particella-forza. Per adesso tra di essi non v'è alcuna relazione; i corpuscoli che causano le forze, i bosoni, sono diversi e disconnessi dai corpuscoli che costituiscono la materia, i fermioni. Invece nelle teorie a cui molti fisici stanno lavorando oggi, le due famiglie di particelle stanno tra loro in una stretta relazione di reciprocità; soltanto i risultati di nuovi esperimenti potranno dire se la visione di grandiosa unificazione offerta da queste teorie dette "supersimmetriche" descrive l'universo che abitiamo. Passo ora a considerare la microfisica, cioè la fisica del sistema universo e dei suoi costituenti. Per ciò che ho detto all'inizio sulla metodologia necessariamente diversa dell'astrofisica rispetto alla fisica delle particelle, è bene sottolineare che alcune affermazioni che si fanno in questo campo non hanno il livello di sicurezza che è possibile attribuire a risultati ottenuti eseguendo esperienze in laboratorio. Comunque tutto ciò che conosciamo sull'universo ci permette di affermare che esso è nato in una grande esplosione di spazio avvenuta circa quindici miliardi di anni fa, quella che noi chiamiamo la grande esplosione o "big bang". Nell'immaginarsi questa gigantesca esplosione è importante sottolineare che lo spazio non è preesistente alla materia che lo occupa; lo spazio non è come questo teatro, che era vuoto prima che noi venissimo, e che è stato riempito man mano dagli ascoltatori prima del dibattito; lo spazio è creato dalla materia. L'esplosione del big bang è un'esplosione di spazio nel senso seguente: si osserva che le galassie si allontanano continuamente, ma in realtà le galassie non si muovono, è lo spazio tra le galassie che viene continuamente creato; è l'aumento dello spazio intergalattico che produce l'allontanamento di questi corpi celesti, e non una velocità loro attribuita rispetto a un osservatore esterno. Quindici miliardi di anni fa iniziata questa esplosione di spazio. Il tema del nostro dibattito è: che cosa succederà nel futuro? Il futuro dell'universo è determinato da quanta materia c'è nello spazio. È questo che è stato capito in questi ultimi quarant’anni: se la quantità di materia nello spazio è maggiore di un certo valore, lo spazio alla fine ritornerà a chiudersi su se stesso e vi sarà una riimplosione; se la quantità di materia è al di sotto di questa soglia, si avrà una continua espansione dell'universo. Questa soglia corrisponde a una densità media di un protone ogni 300 litri di spazio; sembrerebbe poco, ma in realtà è moltissimo perché osservando lo spazio che ci circonda, gli astrofisici sono giunti alla conclusione che la materia e la luce che si vedono di questa densità di materia. Cioè la parte visibile dell’energia e della materia è solo un decimo di quella che sarebbe necessaria perché l'universo si richiudesse su se stesso. A questo punto si pone il problema: esiste una componente dell'universo che non è visibile coi nostri telescopi perché non emette luce? Questo è il grande problema dell’astrofisica di oggi; se tale componente esiste lo spazio si richiuderà su se stesso; se non esiste lo spazio continuerà ad espandersi. E qui il legame tra microfisica ed astrofisica divento essenziale perché, tra le tante particelle che sono state studiate in laboratorio, ve n’è una molto particolare che si chiama "neutrino"; in realtà esistono, e con gli acceleratori di particelle sono stati studiati, tre tipi di neutrini, che sono dei leptoni come gli elettroni, ma molto più leggeri. Sino a pochi anni fa, anzi, si riteneva che queste particelle avessero addirittura massa nulla. La teoria dell'espansione dell'universo insegna che particelle così fatte sono state abbondantemente create durante il big bang e sono ancora oggi molto numerose nell’uni verso: in media ve ne sono circa 300 per centimetro cubo di spazio. È sufficiente che ciascuno di questi neutroni possegga una massa, anche centomila volte più piccola della massa di un elettrone, perché la massa totale sia sufficientemente grande tanto da superare la soglia di cui ho parlato prima e, quindi, far implodere l'universo alla fine della sua storia. È questo uno dei problemi fondamentali che ci troviamo dinanzi il che dimostra come lo studio della fisica delle particelle fatto in laboratorio possa addirittura determinare la visione del futuro dell'universo. Sono in corso molte esperienze che hanno lo scopo di misurare la massa dei neutroni e personalmente lavoro in questi mesi proprio ad una di esse. Spero che risulti ora chiaro che la definitiva conferma che i neutroni, queste particelle cosi difficili da mettere in evidenza, hanno massa, modificherebbe la nostra visione del mondo. Quando Copernico affermò che il sole è al centro dell'universo l'uomo si sentì inizialmente spodestato e solo più tardi l'umanità comprese la ricchezza di questa nuova visione. Successivamente la nostra galassia ha perso il ruolo centrale che le veniva attribuito e ci è apparsa come una fra i milioni di galassie che popolano l'uni verso; abbiamo cosi raggiunto una prospettiva ancora diversa del ruolo dell'uomo nel mondo. Se fosse vero che il 90% della massa che forma e plasma la storia dell'universo è portata da neutroni cosmici che nessuno sa ancora rivelare, come esseri fisici ci sentiremmo ancora più messi da parte in questo enorme universo, la maggior parte del quale sarebbe invisibile anche agli strumenti più raffinati. In realtà ciò non farebbe altro, a mio giudizio, che dimostrare una volta di più quanto è potente lo spirito dell'uomo che è riuscito in soltanto trecento anni, da quando ha cominciato a utilizzare il metodo sperimentale, a uccidere tanti miti e a dare una visione così unificata dell'universo in cui vive.

G. Bellini:

Ora la parola al dott. Grandi, che ci illustrerà l'Ingegneria Genetica e quali problemi essa comporterà.

G. Grandi:

Devo innanzitutto chiedere scusa se, a causa della vastità dell'argomento di cui devo parlare, cadrò nella superficialità e forse nella banalità; spero successivamente, nel secondo round, di poter entrare più nel dettaglio di certi argomenti che possono essere, invece, più specifici. Ci sono voluti circa cento anni dalla scoperta del DNA per riuscire a capire i fenomeni di ereditarietà, di trasmissione dei caratteri genetici. Ma negli ultimi dieci anni si sono fatte scoperte, dei miglioramenti straordinari nel campo della Biologia Molecolare grazie a nuove tecniche comprese sotto il nome di "Ingegneria Genetica o DNA Ricombinante" che sono il frutto di un lungo studio dei fenomeni biologici e genetici. Nel 1869 è stato lo svizzero Miescher a scoprire il DNA nel nuclei dei globuli bianchi, le cellule che stava studiando e da lui chiamato nucleina, proprio perché localizzato nel nucleo di queste cellule. In seguito, essendosi appassionato alla pesca del salmone lungo le rive del Reno, ha avuto modo di analizzare lo sperma di questi pesci il cui nucleo è molto grande e contenente, in rapporto alla massa cellulare, una grossa quantità di questa sostanza. Pochi anni più tardi è stato Flemming ad identificare che la nucleina era differenziata in cromosomi e che questi erano i responsabili della continuità genetica tra le varie generazioni cellulari. La continuità cromosomica durante la divisione cellulare era garantita dalla replicazione dei cromosomi stessi durante ogni divisione. Anche gli studi sulla fecondazione condotti in quegli stessi anni dimostravano che la cellula figlia riceveva i cromosomi materni e paterni, il cui numero si dimezzava prima della fusione dei nuclei. Si stava così affermando l'idea che la cromatina fosse la responsabile della trasmissione dei caratteri ereditari, ma negli anni successivi l'uso di tecniche di colorazione faceva sembrare questa sostanza troppo instabile, variando apparentemente la sua quantità eccessivamente durante il ciclo cellulare. Solo nel 1948-49, due gruppi di ricercatori evidenziavano che invece la quantità di DNA era assolutamente inalterata e costante nel diversi tipi di cellule di qualsiasi organismo. Inoltre i cromosomi in cui questo DNA era distribuito erano specifici e caratteristici per ogni differente specie. Nel frattempo si evidenziava che era proprio il DNA il patrimonio genetico presente in tutti gli organismi, dai monocellulari a quelli superiori, e si identificavano anche le sue molecole costituenti. Così nel 1953 veniva proposta da Watson e Crick il famosissimo modello a doppia elica del DNA con il quale si potevano spiegare i fenomeni di replicazione e quindi di trasmissione caratteri. Nel 1972, due ricercatori americani Cohen e Bojer, facevano il primo esperimento di Ingegneria Genetica, in cui riuscivano a trasmettere un nuovo carattere ad un microrganismo grazie al trasferimento di un specifico frammento di DNA. Tale carattere veniva mantenuto stabilmente in tutta la progenie di quella cellula. Dal 1972 ad oggi c'è stato un proliferare enorme di ricerche sul DNA Ricombinante, ricerche che hanno permesso di capire una innumerevole serie di fenomeni fisiologici e patologici cellulari. Vediamo ora, molto genericamente, la struttura e la funzione del DNA. Si può immaginare il DNA come una treccia formata da due corde, dette in realtà filamenti, avvolte l’una sull'altra e legate tra loro da forze chimiche che si stabiliscono tra le molecole costituenti. Le principali molecole che compongono questi filamenti sono quattro basi azotate: timina, citosina, adenina, guanina. Esse si ripetono lungo i due filamenti in un modo che inizialmente sembrava caotico ma che in realtà riflette una funzione ben precisa. È proprio l'interazione tra queste molecole che tiene insieme i filamenti in modo estremamente specifico; infatti l'acetina si appaia solo alla timina perché le forze di legame (legami ad idrogeno) si instaurano solo se queste due basi sono giustapposte. Ugualmente la citosina si appaia solo alla guanina. Questo comporta che se uno conosce la sequenza delle basi su un filamento, automaticamente può risalire a quella dell'altro proprio per questo fenomeno di complementarità. Vorrei sottolineare che su queste quattro basi e sul concetto di complementarità è basata tutta la trasmissione dei caratteri, cosa meravigliosamente semplice ed affascinante. Vedi amo ora la funzione del DNA. Come voi sapete le sostanze che differenziano una cellula dall'altra sono le proteine, polimeri formati da lunghe sequenze di aminoacidi. La differenza tra le varie specie in realtà consiste proprio nella varietà del contenuto proteico cellulare. Ora, come il DNA dice alla cellula di fare questa proteina e non quell'altra? Gli aminoacidi, in tutte le cellule, vengono legati a delle molecole chiamate TRNA le quali posseggono una tripletta di basi, cioè una sequenza di tre basi scelte tra le quattro a disposizione, che possono complementare con la sequenza delle basi corrispondenti sul filamento di DNA. Quindi se noi immaginiamo di prendere tutti questi TRNA legati ai rispettivi aminoacidi e di allinearli lungo il filamento di DNA, otteniamo una sequenza di aminoacidi, cioè una proteina. È quindi evidente che cambiando l'ordine delle basi lungo il DNA, si cambia corrispondentemente l'ordine degli aminoacidi e si ottengono proteine diverse. Questo codice genetico è universale, uguale per tutti gli organismi, e quindi interpretabile da essi nello stesso modo. Ciò significa che se immaginiamo di prendere un frammento di DNA presente in una cellula umana e di inserirlo in una cellula di un'altra specie, addirittura in un microrganismo, quest'ultimo dovrebbe essere in grado di capire il messaggio del frammento e quindi dare origine alla proteina codificata. Questa è la base dell'Ingegneria Genetica e delle tecniche di ricombinazione del DNA. L'insieme delle conoscenze acquisite sul DNA e di un lungo studio biochimico che ha evidenziato gli enzimi implicati nei processi biologici, ha permesso di mettere a punto le tecniche di Ingegneria Genetica che in linea teorica ci permettono di modificare il patrimonio genetico di una qualsiasi cellula in modo ben determinato e specifico. L'Ingegneria Genetica è dunque semplicemente una tecnica di enorme potenzialità che ci permette di studiare processi di estrema importanza. Voglio velocemente accennare alle conoscenze acquisite nel campo dell'immunologia, precisamente riguardo i geni che codificano gli anticorpi, materia sino a poco tempo fa inesplorabile. Un altro campo di estremo interesse che si è aperto grazie all'Ingegneria Genetica, è lo studio delle proteine presenti nelle cellule del cervello ed in qualche modo implicate nelle complesse funzioni cerebrali. Anche evoluzionisticamente parlando l'Ingegneria Genetica è di estremo aiuto: la comparazione tra le corrispondenti sequenze di DNA delle cellule di specie diverse permette di disegnare una scala evolutiva in un modo molto più preciso rispetto a ciò che si ottiene con le tecniche tradizionali. Un altro esempio del contributo dell'Ingegneria Genetica alla nostra conoscenza è infine lo studio del differenziamento cellulare nell’ambito delle cellule di uno stesso organismo. Ovviamente le tecniche dell'Ingegneria possono portare a delle utili applicazioni pratiche ed a questo proposito vorrei distinguere l’Ingegneria Genetica nei microrganismi da quella nelle cellule superiori. I microrganismi sono organismi monocellulari utilizzati dall'uomo da millenni per uso alimentare in alcuni processi fermentativi e da quarant'anni impiegati per la produzione di antibiotici. Ora l'Ingegneria Genetica permette di ampliare l'impiego dei processi fermentativi in campo alimentare, farmaceutico, chimico ed agrario. Per esempio, gli ormoni umani possono essere prodotti dai microrganismi inserendo in essi il gene codificante per essi. Il microrganismo modificato viene cresciuto in grossi fermentatori e la proteina purificata dalle masse cellulari. A questo punto mi fermerei e lascerei al secondo intervento il discorso relativo all'Ingegneria Genetica nelle cellule superiori ed ai possibili rischi che ne possono derivare. Grazie molte.

G. Bellini:

Do adesso la parola al prof. Giunchi.

G. Giunchi:

Come avete appreso dalla presentazione del nostro Moderatore sono un medico, un vecchio medico, che ha alle spalle il peso e l'esperienza di 45 anni di attività clinica. Quando fui invitato a partecipare a questa Tavola rotonda ebbi qualche perplessità, perché mi sembrava che il contributo, che avrei potuto dare allo svolgimento di un tema di altissimo livello scientifico, sarebbe stato modesto e poco significativo. Il Clinico infatti è tradizionalmente considerato il cultore di un'arte, piuttosto che uno scienziato. In realtà questa concezione tradizionale ha subito negli ultimi decenni un radicale mutamento e proprio considerando questo fatto ed altri ad esso connessi, ho deciso di partecipare a questo Simposio, con l'intento di presentare alcune riflessioni sui tre punti seguenti. l. La validità sul piano scientifico della moderna medicina. 2. La profonda influenza esercitata dalla medicina sulla popolazione del pianeta Terra con conseguenze di ordine demografico, nutrizionale, socio-economico di enorme importanza. 3. La emergenza di problematiche nuove, derivanti dall'impiego delle tecnologie mediche più avanzate, con implicazioni di natura morale, che pongono in primo piano, già per l'uomo di oggi, ma ancor più per quello del prossimo domani, l'importanza di una nuova scienza, la bioetica. Per quanto attiene al primo punto, dobbiamo riconoscere che la medicina attuale non è più quel nobile artigianato, che fino all'inizio del nostro secolo costituiva l'essenza della pratica medica. La moderna medicina ha subito una profonda trasformazione, assumendo la caratteristica di una vera scienza, anzi di campo applicativo di numerose branche scientifiche. La biochimica, la biologia molecolare, la microbiologia, la immunologia e tanti altri specialistici settori delle scienze di base forniscono il loro apporto allo sviluppo attuale delle scienze mediche. Non è possibile analizzare in questa sede l'importanza e il valore di questi contributi, che le singole scienze offrono alla medicina, ma è necessario osservare che tutti questi contributi sono diretti verso un obiettivo finale, che è quello di assicurare un migliore futuro per l’uomo. Perché la medicina è nata per l'uomo e si è sviluppata per realizzare un uomo migliore. Negli ultimi 50 anni (prendendo convenzionalmente gli anni '30 come termine di riferimento) le scienze mediche hanno realizzato progressi, che sono indubbiamente superiori a quelli intervenuti nei millenni precedenti. È stato uno sviluppo esaltante e, in una certa misura, anche drammatico. La generazione, alla quale io appartengo, ha vissuto in prima persona lo svolgersi di eventi memorabili per i quali sono stati creati termini quali "era antibiotica", "era immunologica", "era microbiologica", e così via per sottolineare la fondamentale importanza delle scoperte, che di anno in anno hanno portato contributi di importanza radicale per la durata e la qualità della vita umana. In un cartellone, che fa spicco su di una parete di questa grande sala, è scritto: "L’uomo è libero di fronte al suo destino". Questa affermazione, che oggi sentiamo di poter fare nostra, fino a 50 anni fa appariva discutibile e per un medico difficilmente accettabile, perché per millenni incombevano sull'uomo due condizioni, che ne limitavano enormemente le possibilità di sviluppo e di regolare svolgimento del fisiologico ciclo vitale. La vita dell'uomo era compromessa fin dal momento della nascita dalla mortalità infantile e, nel corso ulteriore del suo svolgimento, dalla malefica influenza delle grandi epidemie. Nel corso del primo anno di vita, su 1.000 bambini ne morivano più di 800. Uomini di giovane età e nel pieno del vigore venivano falciati a centinaia di migliaia dalle epidemie, soprattutto dalla peste bubbonica. Metà della popolazione del nostro pianeta poteva soccombere al diffondersi di una pandemia di peste. Il ricordo di questi terribili eventi è diventato per l'uomo di oggi un ricordo letterario, collegato alla lettura di Autori classici, quali il Boccaccio o il Manzoni. Dal 1944 non sono state più registrate epidemie di peste sul nostro pianeta e nel 1979 l'O.M.S. ha ufficialmente dichiarato la scomparsa di un'altra grave malattia epidemica, il vaiolo. Restano ancora da risolvere alcuni gravi problemi, riguardanti soprattutto la malaria e la tubercolosi nei paesi del cosiddetto "terzo mondo", ma si tratta di problemi, che troveranno adeguata soluzione nei prossimi 20 anni. È lecito sperare che, entro il 2000, il condizionamento della vita umana ad opera delle malattie infettive, che è stato determinante per molti millenni, apparterrà ad un passato remoto. Queste conquiste recenti e definitive, operate dalle scienze mediche nel volgere di pochi decenni, sono derivate dall'applicazione di un complesso di ricerche scientifiche di base e costituiscono un eloquente documento di quali vitali progressi la scienza possa essere apportatrice all'uomo. Accanto a questi entusiasmanti progressi sono però sopravvenute situazioni che non è esagerato definire "drammatiche". La regressione della mortalità infantile e il prolungamento della vita umana hanno avuto come conseguenza un nuovo assetto demografico della popolazione del nostro pianeta. Fino alla fine del 1600 la popolazione della terra era rimasta stazionaria intorno ad una cifra, calcolata con larga approssimazione in circa 500 milioni di abitanti. Negli ultimi tre secoli, in conseguenza di diversi fattori, tra cui una importanza preminente spetta ai progressi delle scienze mediche, si è verificato un incremento progressivo del numero degli abitanti del nostro pianeta ed oggi la popolazione della terra aumenta di circa 80 milioni ogni anno. Negli ultimi dieci anni è cresciuto il numero degli uomini in misura pari alla popolazione della Cina. Questo fatto crea tremendi problemi relativi alle risorse alimentari e alla possibilità di mantenere per tutti gli uomini uno standard di vita accettabile. Sono sorti così i problemi della fame nel mondo, di cui tanto si discute in questi anni, della pianificazione familiare, dell'aborto quale tentativo di porre rimedio alla sovrappopolazione della terra e infine è sorto il problema del valore che si deve attribuire alla vita umana. È questo un tema, che la nostra generazione non era forse sufficientemente preparata ad affrontare ed ha creato, soprattutto in noi medici, una crisi di coscienza. Dal 2400 avanti Cristo all'era di Pericle quando fiorì la scuola Ippocratica, tutti i medici hanno sempre aderito alle regole espresse in un famoso nobilissimo codice deontologico che è conosciuto con la denominazione di "Giuramento di Ippocrate". Il fondamento di questo codice - che è stato accettato per 2500 anni da tutti i medici, a qualunque religione o ideologia o filosofia o scuola scientifica essi appartenessero - era costituito dalla constatazione che la vita e sacra. È toccato purtroppo alla nostra generazione di assistere alla distruzione del fondamentale principio della sacralità della vita. Oggi esistono in molti paesi, soprattutto in quelli ritenuti all'avanguardia dell'odierna civiltà, norme legislative che sanciscono la distruzione della vita e non è lontano il tempo, in cui verranno legittimate nuove modalità di distruzione della vita con l'accettazione dell'eutanasia e in particolare della geroeutanasia. Come l'aborto, che non Offre di certo una congrua soluzione al problemi della pianificazione familiare così la geroeutanasia non potrà costituire la opportuna soluzione al problemi della terza età, tuttavia, una volta rifiutato il principio della sacralità della vita, sarà ben difficile sbarrare il cammino al facile progredire della geroeutanasia, che apparirà come la esecuzione della volontà espressa del diretto interessato. Un ultraottantenne, solo, senza interessi, con molti acciacchi, potrà con estrema facilità essere indotto a sottoscrivere un modulo, con il quale richiederà di essere sottoposto al trattamento, che gli procuri la dolce morte. Non può sfuggire a nessuno il valore morale di questi problemi. Del resto tutto ciò che si riferisce all'uomo e quindi ogni attività medica, ha un contenuto etico. Perfino la prescrizione di una semplice compressa di aspirina ha un valore etico, per il fine che si propone, che è quello di recare giovamento alla salute dell'uomo e per il rischio che viene affrontato, poiché ogni medicamento, e più in generale ogni atto terapeutico, possono recare nocumento al paziente. Siamo giunti così a prender in esame il terzo punto delle mie considerazioni, quello che si riferisce Bioetica, nata dalla constatazione che è impossibile disconoscere il contenuto morale insito nei problemi biologici. Nel suo significato letterale la Bioetica potrebbe essere definita come "la morale applicata alla vita biologica". Una definizione più completa e soddisfacente della Bioetica potrebbe essere la seguente: "La Bioetica ha come oggetto lo studio del comportamento dell'uomo nelle diverse aree di competenza delle scienze della vita e della cura della salute, esaminato e valutato alla luce dei principi, dei valori e delle regole della morale". Un esame analitico di questa definizione richiederebbe del tempo e ci porterebbe lontano dal tema di questa Tavola rotonda. Mi sia consentito però di sottolineare che la Bioetica è materia interdisciplinare, nella quale confluiscono l'Eugenia, la Demografia e l’Ecologia. La Bioetica riguarda però principalmente la Medicina, cosicché l'Etica medica costituisce una parte fondamentale della Bioetica. Anziché approfondire gli aspetti teoretici della Bioetica - cosa che sarebbe impossibile in questa sede - ritengo utile presentarvi alcuni esempi della vastità e complessità dei problemi, che le moderne tecnologie hanno creato o stanno creando. Poco fa avete ascoltato un altro relatore, che vi ha esposto alcuni dati basilari relativi all'ingegneria genetica. Questa nuova tecnologia ci consente di creare dei robot biologici che al nostro comando possono produrre ormoni, anticorpi monoclonali, interferone ed altre sostanze di enorme interesse biologico. Questo è l'aspetto positivo della genetica. Ma nel momento cui si pone il problema di modificare il patrimonio genetico dell'uomo, sorge un gravissimo problema morale. Alcuni giuristi hanno proposto una soluzione integrale del problema, affermando che venga proibito in assoluto qualsiasi intervento medico che agisca sul patrimonio genetico dell'uomo. L'accettazione di questo principio renderebbe piuttosto semplice la soluzione del problema etico, tuttavia precluderebbe la possibilità, che al momento attuale appare remota, ma che potrebbe divenire in tempi brevi attuale e concreta, di intervenire sul patrimonio genetico umano per correggere alcuni difetti. Esistono numerose malattie metaboliche, dipendenti da un difetto genetico, la cui correzione porterebbe alla scomparsa della malattia. In campo ematologico esistono numerose condizioni patologiche dipendenti da un difetto genetico. Basti ricordare la talassemia, la quale nella sua espressione minima colpisce oltre due milioni di italiani e nella sua manifestazione massima, il cosiddetto morbo di Cooley, realizza una malattia grave, sovente mortale. Dobbiamo rinunciare a priori alla possibilità di arrecare un effettivo vantaggio a questi pazienti, nel timore che la manipolazione genetica possa costituire un intervento che manometta la integrità della persona umana? Al momento attuale la risposta a questo imbarazzante quesito non è univoca. Occorrerà una più matura esperienza per trovare la giusta soluzione. Ma altri problemi incombono e restano per ora insoluti. Ne cito alcuni: la scelta dei pazienti da sottoporre ad alcune terapie intensive o eccezionali (quali trapianti di organo) delle quali non tutti coloro, che potrebbero trarne vantaggio possono essere ammessi ad usufruire, dato il costo e la limitazione dei mezzi. E ancora: la determinazione del costo/beneficio, applicato alla medicina, potrebbe apparire addirittura immorale, poiché per assicurare la salute dell'uomo a qualsiasi costo dovrebbe essere affrontato. Questo atteggiamento però appare solo teoricamente valido e sconfina nell'utopia. Nella realtà concreta bisogna fare i conti con le limitate disponibilità finanziarie delle società, anche le più ricche, e del tremendo costo delle indagini e delle cure mediche. Questa situazione costringe a fare delle scelte, per le quali il criterio discriminante del costo/beneficio diventa di decisiva importanza. Soprattutto quei paesi, nei quali sono stati istituiti i Servizi Sanitari Nazionali, si trovano a dover affrontare decisioni difficili e a superare crisi finanziarie molto gravi. Ciò che sta accadendo in Italia, in questi ultimi mesi, nel campo della Sanità pubblica è a tutti noto e fornisce un chiaro esempio dell'importanza pratica dei problemi ora ricordati. Vorrei concludere questo mio intervento riaffermando la validità scientifica della medicina attuale, sottolineando l'importanza dei progressi realizzati negli ultimi decenni per creare migliori condizioni di vita per la grande maggioranza degli uomini e infine richiamando l'attenzione sul problemi morali, che sono strettamente connessi con gli avanzamenti finora realizzati e con quelli già prevedibili per il prossimo futuro. Nonostante le difficoltà, che dovremo superare, noi abbiamo fiducia nelle qualità e capacità dell’uomo, il quale dovrà creare una civiltà nuova, fondata - a nostro avviso - su di una preparazione scientifica più approfondita ed inspirata a più solidi principi morali. Al centro di questa civiltà dovrà essere l'Homo sapiens, dotato dei due fondamentali attributi di "scientifico" ed "etico".

G. Bellini:

Nell'iniziare una seconda tornata volevo introdurre due nuovi spunti, anche alla riflessione degli altri partecipanti alla tavola rotonda. Il primo spunto riguarda la scienza come conoscenza. Cioè, mi sembra chiaro, da tutto quanto è emerso che è molto importante fare uno sforzo per capire le dimensioni culturali della scienza. E questo sforzo deve essere fatto sia dagli scienziati stessi, i quali debbono per esempio, cercare di trovare meglio le connessioni interdisciplinari, sia dai non addetti al lavori, che - ritornerò su questo problema dopo - devono dedicare un loro sforzo intellettuale per capire meglio, che cosa è la scienza. In un discorso di cosa la scienza può fare nell'immediato futuro, in una situazione di crisi culturale nella quale siamo, certamente un posto importante è dato dalla metodologia che usa la scienza, perché il suo metodo, rispetto a altri tipi di conoscenza, ha la grande caratteristica di un continuo realismo. Cioè nella scienza, quello che succede è che le idee che l'uomo si fa non hanno nessuna importanza se non hanno un supporto con quanto l'uomo vede nel reale. Cioè l'uomo per riconoscere se 1 proprie idee sono giuste o sbagliate cerca di interrogare fuori di sé la realtà e su questa base evolve le proprie idee. Questo in un momento di crisi culturale dominata dalle ideologie, questa metodologia scientifica si pone in una posizione fortemente antiideologica perché è chiaro che questo metodo è profondamente diverso da quello usato dalle ideologie. Il secondo spunto riguarda la scienza applicata. Dato che abbiamo bisogno di questa possibilità del mondo non scientifico di capire e di intervenire nelle scelte che vengono fatte, mi sembra che un appunto importante sia avere, da una parte un’idea di uomo a cui fare riferimento, e dall'altra avere una maggiore conoscenza delle tematiche scientifiche che non può essere fatta certamente attraverso una divulgazione scientifica. Infatti essa generalmente è fatta non facendo riferimento al metodo per cui non si capisce la portata della conoscenza, qualche volta viene anche manipolata e quindi diventa mistificante. Il problema probabilmente può essere risolto introducendo nella scuola fino dalle prime classi, uno studio delle scienze, cosa possibile perché viene fatta in tanti altri paesi, in modo molto più massiccio di come viene fatto adesso. Ecco io vorrei vedere se questi due punti possono in qualche modo servire per continuare questo dibattito. Darei la parola, nell'ordine ad Amaldi, Grandi e Giunchi. Prego.

U. Amaldi:

Nel primo intervento ho cercato di dare un'idea delle unificazioni concettuali che sono avvenute e stanno avvenendo oggi nel campo della microfisica e dell'astrofisica. Ho parlato dell’unificazione tra le forze che agiscono tra le particelle, poi del possibile sviluppo futuro dell’unificazione tra forze e particelle e infine dei problemi che sono comuni alla microfisica e alla macrofisica. Ascoltando poi gli altri oratori può essere rimasta l'impressione che la fisica che, pur portando a conoscenze fondamentali, non ha relazione con i vari problemi dell'uomo. Per questo motivo in questa seconda tornata vorrei dare uno spunto, una possibile apertura della fisica a quello che, a mio giudizio, è il problema fondamentale dell'uomo "scientificus" del 2000. Il problema fondamentale che l'uomo del 2000 dovrà affrontare dopo aver capito la fisica, la chimica, la biologia, la biochimica e il modo di controllare le malattie il problema della relazione tra il cervello in quanto oggetto fisico e la mente. Questo è il problema dei problemi. Sono convinto che non giungeremo a dare una risposta definitiva rimarrà sempre una domanda che non avrà una risposta completamente soddisfacente ma questo è un problema maturo per essere posto nei prossimi 10 o 20 anni e a cui gli scienziati si dedicheranno durante il millennio che seguirà. Si tratta di capire come è possibile che, su un substrato biologico fatto come noi conosciamo e come conosceremo meglio in futuro si innesti l'attività dell'autocoscienza. Voglio adesso sottolineare che uno dei concetti che non ho potuto discutere precedentemente, ma che sono fondamentali nella descrizione del mondo fisico, può essere utilizzato nell’interpretazione del funzionamento della mente dell'uomo. Mi riferisco al fatto che la descrizione del mondo fisico, in particolare microscopico, è basata sopra un concetto di causalità che non è il concetto di causalità deterministica come poi noi lo intendiamo nel mondo macroscopico, cioè nel mondo delle palline da biliardo e degli oggetti meccanici grandi. Secondo la concezione deterministica di Laplace, conoscendo le condizioni iniziali (cioè sapendo tutto della posizione e della velocità di questi corpi, a un certo istante), tutto il susseguirsi dello sviluppo del fenomeno è perfettamente determinato. Questa è la visione della fisica detta "classica". Ebbene, è oggi verità scientifica certa che vi sono dei risultati sperimentali in contraddizione con questa teoria deterministica della fisica. È stato quindi necessario costruire una nuova fisica, la fisica moderna; il termine tecnico più preciso è "meccanica quantistica". In questa nuova meccanica la causalità è una causalità di tipo probabilistico. In altre parole, dato un certo sistema fisico, è possibile determinare soltanto la probabilità dello sviluppo di questo sistema in una direzione piuttosto che in un'altra. Parlando di causalità probabilistica anziché di causalità deterministica non si vuole dire che non vi siano più relazioni di causa ed effetto; tali relazioni esistono ma sono puramente probabilistiche. Data una particella che passa attraverso una certa regione di spazio, non è possibile dire con sicurezza dove essa sarà in futuro; è possibile soltanto affermare che essa si troverà più probabilmente qui che là, ma non potremo predire, prima di averla rivelata, dove essa si troverà. Il concetto di causalità probabilistica può sembrare astruso, qualcosa che non ha niente a che vedere con la realtà della nostra esistenza. Al contrario tale concetto che è alla radice della nostra interpretazione della fisica moderna, può, secondo alcuni pensatori, avere una relazione col problema del libero arbitrio nella mente dell'uomo e quindi col problema fondamentale della scienza del 2000, che è la relazione tra il cervello e la mente. Si può pensare, (ed è interessante sottolineare qui oggi perché questo è un altro ponte tra discipline diverse, un'altra unificazione), che il modo di funzionamento della mente dell'uomo che sceglie fra possibili azioni diverse, quello che noi chiamiamo "libero arbitrio" sia legato al funzionamento secondo la causalità probabilistica di punti particolari del cervello dove le leggi della microfisica entrano in gioco, per esempio, nei contatti delle sinapsi dei neuroni, dove avvengono fenomeni microscopici e dove quindi i fenomeni di tipo probabilistico possono dominare. Non dico che questa sia una certezza, ma mi sembra sia importante mettere in evidenza questa linea di pensiero per almeno due motivi. Innanzitutto per fare capire che il linguaggio della scienza può apparire molto diverso - e lo abbiamo sentito oggi in questa Tavola rotonda - ma che poi alla fine tutto si unifica se si guarda ai problemi da un punto di vista abbastanza generale. In secondo luogo perché sono qui presenti molti giovani che stanno forse scegliendo o dovranno scegliere presto il proprio futuro; a loro suggerisco di pensare che il 2000 sarà il millennio del problema della relazione tra cervello e mente, con la speranza che qualcuno di essi sia spinto a scegliere un campo di ricerca che lo porti a dare un contributo alla comprensione di questo fondamentale problema scientifico ed umano.

G. Grandi:

Nel primo intervento ero rimasto alle applicazioni dell'Ingegneria Genetica nel campo della Microbiologia, cioè la costruzione di quello che il prof. Giunchi ha ben definito "robot monocellulari" in grado di compiere dei processi di nostro interesse. Per quanto riguarda ora l'Ingegneria Genetica applicata alle cellule superiori, i successi raggiunti sino ad ora riguardano principalmente due campi: la costruzione di linee cellulari producenti "anticorpi monoclonali" ed il "trapianto di geni". Gli anticorpi sono proteine prodotte dagli organismi superiori in risposta alla presenza in essi di sostanze estranee denominate con il termine generale di antigeni. Essi esplicano la loro funzione legandosi specificamente ad un dato antigene ed inattivandone l’attività patogena in collaborazione con cellule e/o altri fattori ematici. Per queste loro caratteristiche gli anticorpi possono essere utilizzati sia per potenziare la risposta immunitaria, sia per la diagnosi di certe malattie caratterizzate dalla presenza di certe sostanze antigieniche. Sino ad ora gli anticorpi e venivano ottenuti solo purificandoli dal siero di animali immunizzati con l'antigene specifico, ma era praticamente impossibile avere una preparazione omogenea dell'anticorpo di interesse. Grazie alle tecniche di fusione cellulare, si è ora in grado di isolare linee cellulari capaci di produrre un tipo di anticorpo. Ciò permette una molto più accurata analisi diagnostica ed una maggiore efficacia in campo terapeutico. Poiché si è visto che almeno certi tumori producono particolari antigeni , in un breve futuro si potranno unire agli anticorpi monoclonali, delle tossine in grado di causare il "Killing" delle cellule tumorali bersaglio, leganti l'anticorpo. Il trapianto di geni in cellule di organismi superiori è forse l'aspetto più esaltante e nel contempo più preoccupante dell'Ingegneria Genetica. Oggi si è in grado di correggere difetti genetici in colture di cellule umane essendo ormai conosciute le basi molecolari che portano ai fenomeni patologici. Non è fantascienza pensare che si potrà modificare il patrimonio genetico delle cellule somatiche non solo, come si dice "in vitro", ma anche in vivo vale a dire operando direttamente sull'individuo. Ciò potrebbe permettere di risolvere malattie genetiche (quali la talassemia) che causano stati patologici spesso irreversibili e letali. La correzione o modificazione del patrimonio genetico può essere effettuata anche a livello della cellula uovo una volta che questa, fecondata, incomincia il processo di duplicazione e differenziamento. A questo proposito è stato a lungo pubblicizzato l'ottenimento del "topo gigante" dopo l'inoculazione, di una cellula uovo fecondata, del gene che codifica per l'ormone responsabile dello sviluppo e crescita del ratto. È evidente che questo apre possibilità di manipolazione teoricamente illimitate e sconcertanti. Se quindi l'Ingegneria Genetica offre prospettive di indagine enormi e di utilissime applicazioni, può senza dubbio rappresentare un potenziale pericolo per l'umanità. La tecnologia, infatti, nelle mani dell'uomo può essere utilizzata sia a fini di bene che di male. Se regolamentazioni esistenti, riguardanti il modo di operare ed il tipo di esperimenti ammessi, riduco al minimo il rischio di danni derivanti da contaminazioni ambientali o "fughe di microrganismi modificati", solo l'etica del ricercatore può evitare l'impiego dell'Ingegneria Genetica a fini che esulano dalla ricerca della conoscenza, e dal desiderio di migliorare le condizioni sociali dell'uomo. E’ per esempio nota l'esistenza di gruppi di lavoro che cercano di sviluppare forme viventi di possibile applicazione nella cosiddetta "guerra biologica". Concludendo, ritengo che là ricerca non si può e non si deve fermare. La ricerca è del futuro e direi che il futuro dell'uomo dipende dalla ricerca. È necessario, però, che si formino ricercatori con dei principi etici solidi e ben chiari che gli permettono di stabilire bene cosa si può e cosa non si può fare indirizzando così la ricerca solo al fine di migliorare la condizione umana.

G. Giunchi:

L'intervento del prof. Amaldi, relativo al principio di indeterminazione offre la opportunità di prendere in considerazione addirittura un fondamento fisico per l'accettazione della dottrina che attribuisce all'uomo il "libero arbitrio". Le dottrine positivistiche avevano negato l'esistenza del "libero arbitrio", dandoci una visione dell'uomo sottoposto a tutta una serie di condizionamenti di carattere genetico e ambientale, che gli toglievano ogni reale libertà nelle sue scelte e quindi ogni responsabilità etica. Noi siamo invece profondamente convinti che l'uomo è dotato del "libero arbitrio" e assume la diretta responsabilità morale delle proprie azioni. Ma a quali principi etici egli dovrà ispirarsi? Esiste un'etica teologica, che ha il suo fondamento nella religione e dobbiamo riconoscere che l'etica cristiana ha raggiunto le più alte vette della morale, indicando soluzioni adeguate per i maggiori problemi etici, che l'uomo deve affrontare nel corso della sua vita. Non vi è dubbio però che l'attuale società consumistica ha largamente un’etica, che potremmo chiamare "utilitaristica", secondo la quale "é bene ciò che è utile". Un'altra etica largamente diffusa nel mondo attuale è quella del "consenso", utilizzata in questo secolo soprattutto dai regimi dittatoriali. Noi riteniamo che la società di domani debba creare un'etica laica, nella quale confluiscano da un lato tutte le sublimi conquiste delle etiche teologiche e dall'altro vengono tenuti nel massimo conto i progressi scientifici e le migliori conoscenze relative alla natura e agli esseri viventi. Il altri termini noi auspichiamo l'avvento di una società, le cui azioni siano regolate da principi morali, che tengano conto dal progressi realizzati dalla Bioetica. Alcuni problemi, che ora turbano le nostre coscienze potranno trovare adeguate soluzioni. A titolo d'esempio ricordo le situazioni, caratterizzate da conflitti di interessi, quali possono crearsi, allorquando si debba effettuare una scelta tra la conservazione della vita della madre e di quella del feto. Oppure la definizione della morte reale di un individuo e la eventuale interruzione di macabre applicazioni tecnologiche, che tentano di prolungare una vita vegetativa, quando la persona umana più non esiste. E ancora, restando sempre nel campo medico, la tutela della libertà del malato, che è problema controverso e suscettibile di porre in stato di accusa la classe medica. Mai, in passato, i rapporti tra medici e pazienti sono stati difficili come nell'epoca attuale. La verità è che il progresso scientifico ha creato situazioni nuove, che richiedono nuovi comportamenti e molto spesso noi siamo impreparati ad affrontare queste situazioni. Soltanto mediante la collaborazione di molte competenze si potrà trovare la giusta soluzione dei complessi problemi che la scienza proporrà all'uomo di domani, destinato ad effettuare difficili scelte per l'impiego di tecnologie sempre più sofisticate, le quali non sono "per se stesse" buone o cattive, ma potranno assumere l'una o l'altra qualificazione a seconda dei fini, buoni o malvagi, che l'uomo intenderà perseguire.