La
Materia: realtà o chimera ?
a cura di
Claudio Caracci
Sono passati duemilacinquecento
anni dall'epoca in cui Democrito pronunciò il nome di atomon ad Abdera. La nozione è ormai divenuta sostegno delle
filosofie materialiste, ma anche il bersaglio dell'idealismo dopo Platone,
Berkeley, ..., fino ai più moderni sviluppi.
Oggi la microfisica si occupa
degli atomi e dei suoi costituenti: particelle elementari e sub-particelle.
Nonostante ciò la meccanica quantistica ha messo notevolmente in discussione
l'effettiva realtà (e dunque persino la reale esistenza) di una simile
concezione.
Nel nostro viaggio all'interno
dei più piccoli meandri dell'universo, attraverso un excursus
storico-divulgativo, mostreremo quali sono le attuali controversie
filosofico-scientifiche che contrappongono da un lato le teorie positiviste e
dall'altro la svolta cosiddetta neorealista degli ultimi anni.
I passi da percorrere sono:
1) Breve storia del concetto di materia
attraverso i secoli
2) Avvento della fisica quantistica nel
tentativo di spiegare alcuni fenomeni altrimenti incomprensibili
3) Le variabili nascoste
4) Particelle o onde? Positivismo e nuovo
realismo scientifico forse non necessariamente in antitesi
Già nell'antichità si
contrapponevano due scuole filosofiche che hanno poi condizionato il pensiero
umano nei secoli successivi. Platone, il maestro, da un lato, con il suo mondo
delle idee e la sua concezione idealista dell'universo, inteso come uno
specchio dell'ideale e dunque privo di una vera forma di realismo, e
Aristotele, l'allievo che tentava di recuperare il valore oggettivo della
natura. Tale contrapposizione possiamo dire che sia rimasta immutata nei secoli
anche se con argomentazioni e conoscenze diverse.
La materia come concetto dinamico, una visione
della natura come principio di movimento e di cambiamento, insieme alle concezioni democritee portarono
alla visione meccanicistica di Newton. Tale visione comprendeva un universo
regolato da ferree leggi a cui tutti i corpi sono sottoposti e il tutto
sembrava svolgersi nello spazio vuoto, fisso, immutabile e indipendente dal
tempo.
La legge di gravitazione sembrava
realmente dare una risposta esauriente a tutte le domande che l'uomo si era
posto da secoli e costituisce uno dei più grandi passi avanti dell'umanità.
Ciò che venne messo in
discussione più avanti non era il risultato scientifico, di per sè valido
allora come oggi nei limiti imposti da determinati ordini di grandezza, bensì
tutti i presupposti filosofici e le implicazioni che ne derivavano.
Secondo Newton la massa dei corpi
esercitava una azione a distanza nei confronti della massa di altri corpi.
Questa azione istantanea a distanza era come una specie di magia insita nei
corpi stessi.
Solamente più tardi si cominciò a
parlare di campo gravitazionale e quindi di una proprietà della materia di
modificare lo spazio circostante, il che poteva almeno eliminare quel concetto
di istantaneità che sarà poi confutato da Einstein con la sua teoria della relatività.
Nonostante ciò ancora non si
sapeva bene da cosa fosse composta la materia: gli atomi non erano ancora stati
osservati anche se i chimici utilizzavano la teoria atomica già dai primi anni
del XIX secolo. La chimica trattava già insiemi statistici di atomi e di
molecole e le sue leggi non potevano essere altrimenti spiegate se non con
l'ipotesi atomica. La fisica apportò il suo sostegno più tardi, con la
formulazione della legge dei gas, la creazione della termodinamica,
dell'elettrolisi e poi la spettroscopia.
La visione di Democrito è stata
dunque confermata con due millenni di ritardo tramutando l'atomo da concetto
filosofico a scientifico anche se le sue proprietà di compattezza e
indivisibilità furono subito contraddette dalla scoperta dei protoni e degli
elettroni.
Da un lato fu la vittoria della
corrente dei materialisti, convinti che comunque alla base di ogni visione ci
fosse una realtà oggettiva indipendente dall'osservatore, ma nel contempo le
correnti positiviste cominciarono a farsi strada avvalorate da questa specie di
frantumazione atomica.
Bisogna aspettare l'avvento della
fisica quantistica per dare una rappresentazione formale di quello che succede
nel mondo dell'infinitamente piccolo. I risultati furono quanto di più
straordinario ci si potesse aspettare ed ancora oggi tali scoperte risultano
sconosciute alla maggioranza delle persone comuni, ferme ad una concezione
planetaria dell'atomo che è così lontana dalla realtà come lo può essere una
visione piatta della Terra.
I positivisti non hanno fatto
altro che avvalorarsi dei risultati della meccanica quantistica per distruggere
il concetto di realtà del mondo fisico, ma prima di parlare di come ciò sia
potuto accadere e come sia nata una corrente neorealista in grado comunque di
riaffermare l'oggettività della realtà, abbiamo bisogno di una breve premessa
sulla scoperta dei quanti.
Le origini della teoria
rivoluzionaria di Max Planck, secondo cui la luce poteva essere emessa e
assorbita solo sotto forma di certi pacchetti discreti di energia, risalgono a
studi precedenti effettuati da Boltzmann, Maxwell, Gibbs.
La teoria elettromagnetica di
Maxwell aveva messo in risalto l'aspetto ondulatorio della luce e inoltre
risultava evidente da molti esperimenti che la luce si comportava come un'onda:
poteva riflettersi, rifrangersi, interferire e diffondersi da una fenditura.
Risultavano invece completamente oscuri alcuni esperimenti secondo i quali la
luce veniva emessa o assorbita in quantità prestabilite e soltanto secondo tali
quantità. Si pensò ad una proprietà peculiare degli atomi, ma ulteriori
esperimenti riconobbero il quanto di luce come una entità fisica esistente
indipendentemente dal meccanismo di interazione con gli atomi.
L'effetto fotoelettrico e
l'effetto Compton furono decisivi nel dare un completo sostegno a questa
ipotesi di Planck per cui il contenuto di energia di un quanto di luce è
direttamente proporzionale alla sua frequenza da cui la relazione:
E=hv
in cui v è la frequenza e h una
costante universale nota col nome di costante di Planck. Il valore numerico
estremamente piccolo di tale costante fa sì che la teoria quantistica non abbia
importanza quando si considerano fenomeni su grande scala. Questa formula
spiega come il contenuto di energia di un certo quanto di luce ( E ) sia dato
dalla frequenza moltiplicata per una certa costante. Due quanti hanno dunque
energia 2hv, tre quanti 3hv e così via.
A partire da Planck questo
risultato è stato poi verificato non soltanto per la luce (la cui particella è
stata chiamata fotone), ma per qualsiasi altra particella! Quindi, se da un
lato la luce ha subito un processo di 'materializzazione', dall'altro si è
avuto un processo di riduzione dell'intera realtà materiale in onde.
A dare inoltre una ulteriore
spinta verso una sorta di distruzione della consistenza della materia è stato
il principio di indeterminazione di Heisenberg, che ha dimostrato
l'impossibilità di definire simultaneamente nell'ambito del mondo microscopico
la posizione e la velocità di una particella, dato che qualsiasi sistema di
misurazione disturberebbe la particella nel suo moto e quindi darebbe un valore
erroneo.
Senza addentrarci nei dettagli
matematici, basti sapere che Schroedinger introdusse per la meccanica
quantistica il concetto di equazione d'onda, ovvero quell'espressione che ci
permette di calcolare la probabilità di trovare la particella in una certa
posizione dello spazio ad un certo istante di tempo. Tale funzione riassume il
nuovo modo di pensare in termini probabilistici invece che in maniera
deterministica come si usa in fisica classica. Il carattere probabilistico di
questa disciplina ha creato una serie di possibili interpretazioni che ne
spiegano la presenza. Taluni pensano che, analogamente alla fisica dei gas,
esista una realtà molto complessa della quale non interessano i comportamenti
delle singole particelle bensì il loro comportamento medio su grandi numeri.
Secondo questa interpretazione la meccanica quantistica nasconde una serie di
fenomeni che si potrebbero spiegare in maniera deterministica.
La cosiddetta scuola di
Copenaghen, capeggiata da Niels Bohr che aveva introdotto per primo le orbite
quantiche dell'atomo, fa intendere invece che il carattere probabilistico è
insito nella microstruttura stessa della realtà. Ovvero, secondo la loro
concezione, non possiamo misurare la velocità di una particella quando ne
conoscessimo la posizione perchè tale velocità non esiste!
Tali risultati furono a dir poco
sconvolgenti, in quanto da un lato propongono un mondo in cui la realtà è
inconoscibile e dall'altro distruggono l'esistenza stessa di una tale realtà
oggettiva, a meno che non si decida di abbandonare le abituali argomentazioni
meccanicistiche nell'ambito del mondo microscopico. Questi ragionamenti hanno
portato alla ricerca di variabili nascoste che potessero in qual modo dare una
visione completa del reale che la meccanica quantistica non è in grado di
fornire. La cosiddetta scuola di Copenaghen, madrina della fisica dei quanti
aveva asserito che la meccanica quantistica dava una descrizione completa del
mondo microscopico. Schierato dalla parte degli oppositori, Einstein si
proponeva di dimostrare l'esistenza di tali variabili nascoste, in grado di
confutare tale affermazione.
E' evidente che il tentativo dei
fisici, fedeli allo spirito meccanicistico, di ridurre la descrizione
probabilistica della meccanica quantistica ad una descrizione dinamica, non era
cosa evidente tantomeno facile. Come abbiamo già accennato tali leggi
quantomeccaniche hanno avvalorato la tesi dell'indeterminismo nei microfenomeni
da parte della corrente positivista.
La scuola realista composta da
altrettanti fisici eminenti quali Einstein, De Broglie e Schroedinger reagì
immediatamente. Così si pose immediatamente la questione della possibilità di
spiegare l'evento probabilistico introducendo variabili supplementari nel
vettore di stato per arrivare ad una descrizione dinamica completa
dell'evoluzione del sistema. Possiamo già anticipare che il dibattito sorto a
quell'epoca non si è mai concluso.
In realtà si dovrebbe parlare di
variabili non conosciute o supplementari e in ogni caso esporre l'argomento in
termini non tecnici presenta difficoltà aggiuntive. Cercheremo di evitare
questi problemi con una trattazione che mette in luce più che altro gli aspetti
paradossali che interessano il lettore.
Uno delle prime controversie fu
quella relativa alla separabilità dei sistemi quantistici.
Secondo Eistein due sistemi che
hanno interagito durante un tempo dt possiedono grandezze e proprietà che sono
mutuamente determinate; in altre parole, durante il tempo della loro
interazione si stabiliscono certe correlazioni. Una misura effettuata su A,
dopo la separazione dei due sistemi, non influenza B. Tuttavia una misura di A
ci dà la possibilità di prevedere il valore di questa o quella grandezza di B.
Questa possibilità non significa che i due sistemi continuino a formare un solo
sistema dopo la loro separazione spaziale. Essa significa semplicemente che i
risultati della misura sono correlati a causa dell'interazione precedente tra A
e B.
Il famoso paradosso di Einstein,
Poldosky, Rosen (EPR) ha avviato il dibattito sulla separabilità dei sistemi in
microfisica. Il lettore digiuno di nozioni di fisica troverà maggiori dettagli
nei libri citati in bibliografia.
Consideriamo un sistema composto
da due particelle di spin 1/2 (lo spin è un momento angolare intrinseco delle
particelle) che hanno interagito per un tempo dt. Vengono poi separate da un
procedimento che conserva lo spin totale. Quando le due particelle sono
sufficientemente lontane tra loro da non interagire più, si misura, per
esempio, la componente dello spin di A secondo un certo asse. Se troviamo il
valore +-1/2 possiamo prevedere con certezza che la componente corrispondente dello
spin di B è uguale a -+1/2 senza eseguire su di essa alcuna misura, e
viceversa.
Se il sistema fosse stato
classico non ci sarebbe stato nessun problema, in quanto tutte le componenti
dello spin di ogni particella avrebbero in ogni istante un valore ben preciso.
Anche la meccanica quantistica prevede i risultati precedenti, ma non può
spiegarli. Come si può giustificare questa conclusione?
Oggi, dopo Maxwell e la
relatività, sarebbe difficile accettare un'azione a distanza. Dunque la ricerca
di variabili nascoste alla meccanica quantistica sembrerebbe una logica
conseguenza.
La bilancia potrebbe dunque
pendere a favore del realismo se non ci fosse lo zampino dei matematici e dei
logici a rimettere tutto in discussione.
Il famoso teorema di von Neumann,
che è una dimostrazione formale e non un'analisi epistemologica, costituisce
una solida base per ogni confutazione alle teorie sulle variabili nascoste.
Infatti von Neumann riuscì a dimostrare che l'introduzione di parametri
nascosti è impossibile senza arrivare a dei risultati in contrasto con la
meccanica quantistica stessa.
Questo fatto costituì un profondo
smacco per la corrente realista e le cose non migliorarono nel 1965 quando J.S.
Bell pubblicò un ulteriore articolo sul paradosso EPR.
Bell apparteneva alla corrente
realista e riproponendo l'esperimento delle due particelle di spin 1/2
allontanate l'una dall'altra, determinò le probabilità di trovare le particelle
in determinati stati in funzione dell'angolo formato dalle direzioni degli
apparati di misura.
Le cosiddette disuguaglianze di
Bell avrebbero dovuto dimostrare che in quelle particolari condizioni le
variabili nascoste si sarebbero dovute manifestare, contraddicendo le
previsioni della meccanica quantistica.
Dal 1967 iniziarono gli
esperimenti che si dimostrarono nella totalità
a favore della meccanica quantistica e contro le disuguaglianze di Bell.
Alcuni specialisti considerarono decisivi gli esperimenti di A. Aspect che
aveva utilizzato degli analizzatori variabili nel tempo in modo da poter
escludere la trasmissione di un segnale relativistico tra A e B. Questi
risultati ancora una volta davano ragione alla fisica dei quanti.
Fu Schroedinger, per mezzo di un
divertente esperimento teorico, a mettere in evidenza alcuni aspetti
paradossali della meccanica quantistica.
Un gatto, così dice Schroedinger,
è posto in una scatola di acciaio collegata ad un certo meccanismo. In un
contatore Geiger c'è una quantità assai piccola di sostanza radioattiva tale
che nel giro di un'ora c'è una probabilità del 50% che un atomo subisca una
disintegrazione. Se tale disintegrazione si verifica il contatore scatta e
mette in moto un martelletto che rompe un'ampolla di cianuro. Dopo un'ora, se
non c'è stata disintegrazione il gatto sarà sempre vivo, in caso contrario sarà
morto. La funzione d'onda del sistema globale esprime questa situazione
contenendo parti sovrapposte di gatto vivo e di gatto morto.
Secondo la scuola realista non
c'è paradosso: la funzione d'onda descrive il comportamento di un insieme
statistico. Dopo un'ora c'è una probabilità del 50% che il gatto sia vivo e
un'analoga probabilità che sia rimasto avvelenato.
Secondo la scuola di Bohr la
funzione d'onda descrive il comportamento di un unico sistema quantistico. Così
l'apparato contiene 50% di gatto vivo e 50% di gatto morto. Ancora peggio! La
povera bestia resterà per l'eternità in questa scomoda condizione finchè un
essere umano non decida di compiere un'osservazione sul nostro sistema, cioè
salverà o ucciderà il gatto.
Tale paradosso (molto noto come
"Gatto di Schroedinger") dimostra che l'impossibilità attuale di
descrivere i sistemi quantistici con un formalismo lineare viene trasformato in
una sorta di fenomeno illusorio.
Abbiamo accennato già prima che
forse non è del tutto assurda l'ipotesi che le due correnti non siano del tutto
incompatibili, illustrando meglio la situazione nel prossimo paragrafo.
E' indubbio che gli esperimenti della
meccanica quantistica portino a dei risultati sconcertanti: abbiamo detto che la
luce è un'onda che segue le leggi elettromagnetiche di Maxwell, però si
comporta anche come una particella
quando interagisce con la materia. Per meglio spiegare questo dualismo si può
citare l'esperimento teorico di un fotone (il nome coniato per un quanto di
luce) lanciato attraverso due fenditure vicine. Si tratta di una particella
oppure di un'onda? Notando sullo schermo posto al di là delle fenditure un
fenomeno di interferenza non esiteremmo a definirlo un'onda, ma in tal caso il
fotone è passato per la fenditura di destra oppure per quella di sinistra? Come
può una particella passare per due fenditure contemporaneamente?
Forse dovremmo dare una
definizione più precisa al termine particella. Nel linguaggio comune una
particella è una specie di trottola che viaggia nel microcosmo ad una certa
velocità, che si trova in una certa posizione e possiede in un un certo qual
modo delle 'pareti solide' che ne determinano la struttura. Ma nessuno potrà
mai vedere queste pareti, dal momento che una qualsiasi interazione con esse
disturberebbe il sistema (mandandogli un raggio di qualunque natura con un
microscopio significa portare comunque ad una collisione tra due particelle). E
se queste "pareti" non esistessero? Se fossero unicamente una
proprietà delle onde di manifestarsi come particelle in determinate condizioni?
Forse una teoria a variabili nascoste di tipo probabilistico, come suggerisce E. Bitsakis, renderebbe ragione ad
entrambe le scuole... e il concetto di materia compatta ed indistruttibile di
Democrito andrebbe frantumandosi sempre di più, in un universo dove la materia
si scopre essere sempre più vuota.
Ma il vuoto non è il nulla.
Claudio Caracci
Bibliografia:
N. Bohr, "Phys. Rev.", vol. 48,
p. 696, 1935.
E.
Schroedinger, "Proc. Camb. Phil. Soc.", vol.31, p. 555, 1935.
F. Selleri, "Found. of
Physics", vol. 12, p. 645, 1982.
M. Born, "Atomic Physics", p.
572, 1969.
G. Gamow, "Thirty Years That Shook
Physics", Science Study Series, p. 205, 1966.
A.
Einstein, B. Poldosky, N. Rosen, "Phys.
Rev.",
vol. 47, p. 777, 1935.
J. M. Jauch, "Foundations of Quantum
Mechanics", Addison-Wesley, London 1968, p. 93.
Claudio Caracci - nato a Macerata
nel 1963, laureato in Fisica, si occupa di Intelligenza Artificiale al CNR di
Roma. Tra i suoi interessi ci sono la Cosmologia e la Filosofia della scienza.
Si occupa attivamente di
fantascienza da oltre dieci anni. Ha collaborato con la rivista Sfere
pubblicando diversi racconti nel 1986 e qualche anno più tardi è uno dei pochi
italiani ad aver partecipato alla Saga americana del Mondo dei Ladri (edito
dalla Fanucci).
Tra l'altro è anche il socio
fondatore della F. R. F.