Meccanica quantistica … per stupidi (6). La non-località e l’esperimento di Alan Aspect.

Nonostante i suoi straordinari successi sperimentali, la Meccanica Quantistica (MQ) è stata afflitta da difficoltà concettuali sin dalla sua nascita circa novanta anni fa. Il problema principale è questo: che cosa descrive, in realtà, la meccanica quantistica? Le proprietà di particelle elementari come gli elettroni o i processi di misurazione?
L’interpretazione ortodossa, quella di Copenaghen, propende per la seconda ipotesi: la MQ, secondo questa interpretazione, riguarda fondamentalmente le osservazioni e i risultati degli esperimenti. E’ la ‘misurazione‘ o ‘osservazione’ che, attraverso il processo di ‘collasso’ della funzione d’onda, ‘crea’ in modo ‘random’, cioè casuale, un valore osservabile (per esempio, posizione o momento di una particella) attualizzando uno tra i tanti valori potenzialmente possibili.
Ma cosa c’è prima dell’osservazione? C’è la funzione d’onda la cui dinamica nel tempo, definita dall’equazione di Schroedinger, ricorda da vicino l’evoluzione classica, deterministica, di un sistema fisico.
Ma com’è possibile riconciliare il collasso casuale della funzione d’onda all’atto della misurazione con la dinamica deterministica della stessa funzione d’onda in assenza di misurazione? Esiste una realtà pre-misurazione deterministica e una realtà post-misurazione generata casualmente dall’osservatore? Come e perché un processo continuo e deterministico si trasforma in un processo discontinuo e indeterministico? Ma quando e come avverrebbe questo sconvolgimento delle ‘regole’ fondamentali della natura?
Il problema è che la teoria quantistica dei libri di testo non stabilisce né descrive quando e come ciò succede. Un sistema evolve in modo ‘liscio’ e deterministico finché non è eseguita una misura, quindi salta casualmente in un autostato dell’osservabile misurato, dal quale riprende la sua evoluzione ‘liscia‘ fino alla misurazione successiva. La natura sembra comportarsi in maniera goffamente capricciosa o, meglio, sembra adeguarsi ai capricci dell’osservatore e alle sue decisioni su cosa misurare e cosa non misurare.
La realtà sembra procedere su due binari paralleli:
(1) sul binario deterministico dell’equazione di Schroedinger che definisce l’evoluzione nel tempo dello stato del sistema e le sue future probabilità;
(2) sul binario del collasso della funzione d’onda che fa sì che il sistema scelga casualmente uno solo dei suoi possibili stati. E’ la misurazione o osservazione che, secondo l’interpretazione di Copenaghen, provoca il salto o lo scambio di binario: da quello deterministico a quello casuale.
Luna mi guarda corrucciata di sottecchi e sembra chiedere: ma che cos’è questa benedetta misurazione?
Vediamo di analizzare insieme un processo di misurazione. C’è evidentemente un qualcosa da misurare, per esempio, la posizione di una particella, c’è uno strumento di misura e, infine, un osservatore dotato di occhi e cervello. La misurazione di un sistema consiste in un processo d’interazioni tra il sistema, lo strumento di misura e la coscienza dell’osservatore. C’è insomma una catena d’interazioni che conduce dal sistema da osservare alla coscienza dell’osservatore. Per esempio, il sistema da osservare è collegato a una parte dello strumento di misura, che a sua volta è collegata a un’altra parte dello stesso strumento che interagisce con l’occhio dell’osservatore che a sua volta stimola il cervello.
La catena d’interazione arriva così alla coscienza dell’osservatore modificandone lo stato. L’osservatore ‘conosce’ quale valore ha l’osservabile, nel nostro esempio la posizione della particella, perché lo stato dalla sua coscienza è modificato dagli stati del sistema sotto osservazione e dello strumento di misura.
Da qualche parte lungo quest’articolato percorso è avvenuto il collasso della funzione d’onda, altrimenti il risultato finale della catena sarebbe che la coscienza dell’osservatore esibirebbe lo stesso stato probabilistico dell’osservabile. Se l’osservatore invece legge uno specifico valore sullo strumento, vuol dire che l’onda di possibilità è collassata (ha scelto un valore specifico) in qualche punto lungo la catena d’interazioni tra il sistema e la coscienza dell’osservatore. Ma in quale punto? Cosa esattamente causa il collasso? Lo strumento? L’interazione con gli atomi o elettroni che costituiscono lo strumento? O con gli atomi/elettroni della retina dell’osservatore, o con il suo sistema nervoso, o con la sua coscienza?
Che cosa costituisce un valido osservatore? Deve essere grande? Deve essere nel cervello? Deve essere cosciente? Deve essere un uomo? Luna protesta vivamente con un deciso miao: “Anch’io sono in grado di osservare. Dovresti averlo capito anche tu che, se io non ti osservo, per me, tu non esisti”. Proprio vero cara Luna … ma meglio non indagare questa tua intuizione … altrimenti mi viene il mal di testa.
Che dire poi dell’arbitraria separazione dell’osservatore (ente del macrocosmo) da quanto osservato (particella del microcosmo)? In fin dei conti anche l’osservatore è fondamentalmente un insieme di particelle elementari. O no? Luna scuote la testa per dire che … no, lei non è solo un insieme di particelle. Anche qui hai ragione cara Luna … tu, più che altro, sei una palla di peli.
“Quando considero l’interpretazione classica della meccanica quantistica vedo una teoria impataccata. La formulazione della meccanica quantistica che si trova nei libri di testo pretende di dividere il mondo tra osservatore e osservato, ma nessuno spiega dove esattamente il mondo dell’osservatore si distacca dal mondo osservato. Su quale lato dei miei occhiali o a quale estremità del mio nervo ottico avviene la divisione ?” (John Bell, 1986)
Insomma il grande mistero inspiegato della MQ ufficiale è l’indecifrabile, oscuro processo di collasso causato da un non ben definito, fumoso processo di misurazione.
Se è l’atto di ‘misurare’ o di ‘osservare’ che crea, casualmente, la realtà fisica, non ha senso tentare di studiare e descrivere le proprietà delle ‘piccolissime cose’ sotto osservazione perché le stesse non hanno una realtà oggettiva. Per esempio, non ha senso cercare di determinare la posizione di un elettrone … esso apparirà in un posto o in un altro, secondo leggi probabilistiche, solo quando andiamo a osservarlo. Prima dell’osservazione non ha senso parlare di posizione dell’elettrone.
Questo è l’antirealismo. Nella filosofia della scienza, la posizione antirealista sostiene una visione puramente agnostica nei confronti dell’esistenza di cose piccolissime non osservabili direttamente. Secondo l’antirealismo, non c’è alcun bisogno di determinare l’esistenza o la non esistenza di enti inosservabili. Poiché noi non possiamo percepire direttamente le cose piccolissime del microcosmo, è inutile speculare sulla natura della materia su tale scala. E, implicitamente, è inutile cercare una spiegazione dei misteri della meccanica quantistica.
Propongo un’analogia: immagina una foto digitale ad alta definizione di una bella montagna innevata. I pixel della foto corrispondono, nell’analogia, ai fatti della scienza, mentre l’intera immagine corrisponde alle implicazioni o significato complessivo dei fatti della scienza. L’antirealismo dice che ci è solo permesso di prestare attenzione ai pixel … non abbiamo niente a che fare, né ci deve interessare il senso dell’immagine complessiva.
All’antirealismo si contrappone il realismo di Einstein e di pochi altri.
Pur accettando l’equazione fondamentale della MQ, quella di Schroedinger, e la sua precisione nel predire in termini probabilistici i possibili futuri di una particella, Einstein era profondamente insoddisfatto dell’interpretazione antirealista. Il fatto che la posizione dell’elettrone nel suo apparire, quando osservato, ubbidisse a leggi probabilistiche voleva dire, per Einstein, una sola cosa: che la teoria quantistica era una teoria giusta ma incompleta.
Secondo Einstein, la funzione d’onda non è altro che il ‘ricoprimento statistico’ di processi d’interazione più fini e sottili che avvengono a un livello sottostante. E’ vero, dice Einstein, la posizione dell’elettrone segue la legge delle probabilità, ma la stessa probabilità segue la legge della causalità (il contrario di casualità).
Faccio un esempio per chiarire questo concetto.

L’ISTAT, Istituto nazionale di statistica, pubblica mensilmente l’indice dei prezzi al consumo o indice di inflazione. Guardando il grafico a fianco, si vede che i prezzi al consumo nel febbraio 2012 sono cresciuti del 3.3 per cento su base annua.
Questo dato però non è altro che il ‘ricoprimento statistico’ della variazione di prezzo di una grande quantità di prodotti (per esempio, del prezzo al consumo della verdura).
Il valore dell’inflazione al 3,3% nel febbraio 2012 riflette, fra l’altro, una ‘causa sottostante’ come le gelate avvenute nel corso del freddo inverno 2012.
Sia l’interpretazione realista che quella antirealista concordano sull’accuratezza dell’equazione di Schroedinger nel predire dove troveremo l’elettrone quando andremo a osservarlo (per esempio, diciamo che è stato calcolato che abbiamo il 3,3 % di probabilità di trovarlo vicino il bordo destro del nostro schermo di rilevamento). Non concordano invece da dove viene fuori il valore di 3,3%.
Per l’interpretazione di Copenaghen esso è definito dall’ irriducibile indeterminatezza del mondo subatomico. Per Einstein invece, è logico supporre, che come nel calcolo dei dati ISTAT, quel particolare valore di probabilità sia determinato da processi più fini e sottili ma ancora sconosciuti (quindi nascosti). Per questo motivo, egli riteneva che la MQ fosse una teoria incompleta e sollecitava il mondo scientifico a completare la teoria andando a scoprire le ‘variabili nascoste’. Lui stesso impiegò gli ultimi anni della sua vita in questa ricerca.
Ai fisici della corrente di pensiero dominante, quella di Copenaghen, l’espressione variabili nascoste faceva rizzare i capelli in testa. Credo che il motivo fosse principalmente di ordine filosofico. La funzione d’onda della MQ aveva definitivamente messo alla porta il determinismo dalla visione del mondo: in fondo, secondo questa corrente di pensiero, a un livello fondamentale, tutto avviene casualmente … fine del discorso … e anche di Dio. Non solo del Dio-Padre del cristianesimo che è facilmente liquidabile da un punto di vista logico-razionale, ma anche del coerente Dio-Necessità, che non gioca a dati, di Spinoza e di Einstein. Ora la teoria delle variabili nascoste faceva rientrare il determinismo, e il Dio di Spinoza e di Einstein, dalla finestra ponendolo a un livello ancora più fondamentale.
Per il pensiero dominante, fondamentalmente ateo, era allora di primaria importanza dimostrare l’impossibilità di una teoria a variabili nascoste.
John von Neumann, uno dei più grandi matematici del XX secolo, lo stesso che sosteneva che il collasso della funzione d’onda è causato dalla coscienza dell’osservatore, nel 1932 pubblicava lo scritto ‘Mathematische Grundlagen der Quantenmechanik’. Fra le altre cose von Neumann cercava di dimostrare, e riteneva di averlo fatto, che la funzione d’onda non può essere un ricoprimento statistico di una sottostante teoria deterministica. Egli in pratica sosteneva di aver dimostrato che il sogno di Einstein, quello di un completamento deterministico della teoria quantistica, era matematicamente impossibile. Egli concludeva: “ … non è quindi un problema di completamento della meccanica quantistica; un’interpretazione diversa da quella statistica richiederebbe che l’attuale sistema della meccanica quantistica fosse oggettivamente falso”.
Quasi tutti i fisici e filosofi della scienza accettarono la dimostrazione di von Neumann. Ad esempio, il grande fisico Max Born, nel 1949, scriveva: “Non è possibile introdurre parametri nascosti in grado di trasformare la descrizione indeterministica della MQ in una deterministica”.
Un altro grande fisico Eugene Wigner, nel 1964, scriveva “… a mio parere, l’argomento più convincente contro la teoria delle variabili nascoste è stato presentato da John S. Bell”.
Questa idea è ancora oggi molto diffusa nel mondo scientifico ma è una mistificazione bella e buona. Noi conosciamo bene il teorema di Bell perché l’abbiamo trattato diffusamente nella puntata precedente (per rivederlo clicca qui) e sappiamo che non è così. Bell dimostra l’impossibilità delle variabili nascoste locali e quindi del realismo locale ma non l’inammissibilità delle variabile nascoste in generale. Anzi, avendo dimostrato con il suo teorema l’ineluttabilità della non-località, Bell sembra propendere per una teoria a variabili nascoste non-locali.
Vediamo cosa scrive Bell in proposito, sempre nel 1964, nell’introduzione del suo scritto:
“There have been attempts to show that even without such locality requirement no ‘hidden variable’ interpretation of quantum mechanics is possible. These attempts have been examined and found wanting. Moreover, a hidden variable interpretation of elementary quantum theory has been explicitly constructed. That particular interpretation has indeed a non-local structure and reproduces exactly the quantum mechanics predictions”.
“Ci sono stati tentativi di dimostrare che anche senza il requisito di località nessuna interpretazione della meccanica quantistica a ‘variabile nascosta’ è possibile. Questi tentativi sono stati esaminati e giudicati manchevoli. Inoltre, un’interpretazione a variabile nascosta della teoria quantistica è stata costruita in modo esplicito. Tale particolare interpretazione ha una struttura non-locale e riproduce esattamente le predizioni della meccanica quantistica.”
Quando parla di ‘tentativi giudicati manchevoli’ Bell si riferisce principalmente al teorema di von Neumann. Alla luce di questa chiara presa di posizione a favore dell’ammissibilità di variabili nascoste non-locali, come si fa a sostenere che Bell sia stato il proponente ‘dell’argomento più convincente contro la teoria delle variabili nascoste‘ ? … misteri della scienza.
L’interpretazione a variabili nascoste non-locali ‘esplicitamente costruita’ cui fa riferimento Bell è l’interpretazione causale-ontologica di David Bohm e Basil J. Hiley. L’approfondimento di questa particolare interpretazione è l’approdo finale del mio viaggio nel mondo della meccanica quantistica. Per il momento proseguiamo con la non-località andando a vedere gli esperimenti che il fisico francese Alain Aspect condusse, fra il 1981 e 1982, con due suoi colleghi, per provare sperimentalmente il teorema di Bell.
Brevemente ripropongo i termini della questione. Einstein sosteneva il realismo locale e ipotizzava che una particella possiede posizione e velocità anche quando non è osservata con una misurazione. Questo in pratica equivale a negare il processo di collasso della funzione d’onda e a smitizzare il processo di misurazione. Il fatto che la MQ non riesce a rilevare i valori oggettivi di posizione e velocità, secondo Einstein, è solo dovuto all’incompletezza della teoria quantistica che evidentemente non è ancora riuscita a identificare tutti i parametri coinvolti.
L’interpretazione ortodossa, quella di Copenaghen, dice invece che, prima dell’osservazione, non esiste una particella oggettiva con una certa posizione, velocità, energia, ecc. Esiste solo una nuvola di potenzialità rappresentata dalla funzione d’onda. In questa prospettiva, la frase “la particella si trova in una tale posizione e si muove a una tale velocità” è priva di senso anche perché una simile asserzione, oltretutto, non può essere verificata sperimentalmente.
Bell con il suo famoso esperimento mentale conferma le previsioni della MQ ufficiale e dimostra che il realismo ‘locale’ di Einstein non funziona. Egli pubblicò il suo famoso teorema nel 1964; fra il 1981 e 1982, Alain Aspect verificò sperimentalmente le previsioni di Bell con una serie di tre esperimenti.
Aspect presenta i risultati del primo esperimento nel 1981 (Experimental Tests of Realistic Local Theories via Bell’s Theorem, Agosto 1981) insieme a Philippe Grangier e Gérard Roger, suoi colleghi all’Istituto di ottica teorica e applicata dell’università di Parigi. Il primo esperimento consiste essenzialmente nella riproposizione pratica dell’esperimento mentale di Bell.

La sorgente S è, in pratica, un atomo di calcio il cui decadimento produce una coppia di fotoni entangled, cioè correlati, che sono costretti a muoversi lungo percorsi opposti.
Ogni fotone incontra sulla sua strada un polarizzatore, che, in base all’orientamento impostato dallo sperimentatore, permette o meno il passaggio del fotone sul rilevatore di fotoni. Il rilevatore di fotoni è in grado di registrare un +1 o un -1 a seconda che il fotone riesce a passare o meno attraverso il polarizzatore. Per esempio, se il polarizzatore è disposto verticalmente, un fotone polarizzato verticalmente passerà e sarà registrato sul contatore di coincidenze con un bel +1, mentre un fotone polarizzato orizzontalmente sarà bloccato e registrato come -1. I segnali che emergono dal canale di sinistra, rilevatore A, e da quello di destra, rilevatore B, sono controllati e le coincidenze (+1,+1 e -1,-1) sono conteggiate dal contatore di coincidenze.
Per la specifica configurazione utilizzata, un approccio a variabile locale nascosta (LHV) prevede che, manipolando opportunamente il tasso di coincidenze con apposite formule, il risultato S deve essere –1 =< S =< 0, cioè un numero compreso fra –1 e 0. Il risultato, secondo le previsioni della MQ classica, deve essere invece S = 0,118 +/- 0,005.
Quando Aspect e colleghi compiono l’esperimento, trovano un valore S = 0,126 +/- 0,014. La differenza fra il valore massimo LHV, S = 0, e la loro misurazione, S = 0,126, è nove volte maggiore dell’indeterminazione dovuta ai limiti tecnici della misurazione (0,014). Le possibilità che il risultato S sia dovuto al caso sono infinitesimali, circa una probabilità su 1036.
Pertanto, il risultato S risulta essere in buon accordo con le previsioni della MQ.
Aspect conclude scrivendo: “As a conclusion, our results are to a high statistical accuracy a strong evidence against the whole class of realistic local theories”.
“Per concludere, i nostri risultati sono, con un elevato grado di accuratezza statistica, una forte evidenza contro l’intera classe di teorie realistiche locali”.
Possiamo a questo punto considerare chiusa la controversia e concludere che una sub-struttura a variabili nascoste, SE LOCALE, non può essere ammessa.
C’è però un problema. L’esperimento è perfettamente valido solo se i rilevatori A e B sono efficienti al 100%. Purtroppo non esistono rilevatori assolutamente perfetti: può capitare che un rilevatore non registra un fotone che, in effetti, è passato oltre il polarizzatore. Allora, se il rilevatore registra un –1 non è possibile sapere se il fotone è stato perso dal rilevatore o se è stato bloccato dal polarizzatore. Conseguentemente, il conteggio delle coincidenze è falsato in modo tale da compromettere, come caso limite, il risultato dell’esperimento.
Per ovviare all’inconveniente, Aspect e gli stessi collaboratori condussero un secondo esperimento pubblicato nel luglio 1982 con il titolo: Experimental Realization of Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A New Violation of Bell’s Inequalities, Luglio 1982.
Questo è il diagramma schematico del secondo esperimento.

Come nel primo esperimento, il decadimento di un atomo di calcio produce una coppia di fotoni correlati al ritmo di parecchi milioni di coppie al secondo.
I due fotoni sono costretti a muoversi lungo percorsi opposti: uno verso il cubo polarizzatore A, l’altro verso il cubo polarizzatore B.
I cubi sono polarizzatori a due canali perché sono in grado di far passare onde polarizzate su due piani ortogonali, per esempio, verticale e orizzontale. Ciascun cubo contiene un cristallo birifrangente montato su un meccanismo rotante solidale con due rilevatori disposti ortogonalmente.
Il cristallo funziona come uno specchio semiriflettente in grado di dirigere ogni polarizzazione al rilevatore giusto. Il Cubo A, per esempio, trasmette il fotone polarizzato orizzontalmente sul rilevatore R1 mentre riflette il fotone polarizzato verticalmente sul rilevatore R2. Il Cubo B funziona alla stessa maniera. Il contatore di coincidenze tiene costantemente sotto controllo le quattro porte di input con una finestra di lettura di 20 nanosecondi, ovvero 20 miliardesimi di secondo.
In questa configurazione, il fotone che sbatte contro lo specchio semiriflettente del cubo A deve per forza di cose essere registrato da uno dei due rilevatori del polarimetro A. Se non viene registrato né da R1 né da R2, vuol dire che uno dei due rilevatori si è ‘perso’ il fotone e, conseguentemente, la manche dell’esperimento non viene considerata.
Nella seguente tabella riporto la logica semplificata del conteggio di coincidenze.

Per ognuna delle angolazioni impostate sui polarimetri (22,5° e 67,5°) vengono condotte cinque sessioni di cento secondi ciascuna con l’emissione di oltre cinquanta milioni di coppie di fotoni il secondo.
Il risultato?
Prima vediamo le previsioni delle due ipotesi a confronto.
Per la configurazione utilizzata in questo secondo esperimento a due canali, il realismo locale a variabile nascosta (LHV) prevede S =< 2; la MQ classica, invece, prevede S = 2,70 +/- 0,05.
Il valore S ricavato dall’esperimento è S = 2,697 +/- 0,015 molto vicino alle previsioni della MQ e in netto disaccordo con le previsioni LHV. Infatti, la differenza fra il valore massimo LHV (2) e la misurazione di Aspect(2.697) è ben quarantasei volte maggiore dell’indeterminazione dovuta ai limiti tecnici della misurazione (0,015).
Aspect, in tal modo, prova due cose:
(1) che effettivamente durante il tragitto fra la sorgente S e il cristallo birifrangente i due fotoni non hanno una polarizzazione determinata, quindi è provata l’inammissibilità del realismo locale;
(2) che, nel momento in cui il cristallo birifrangente inserito lungo un percorso produce la deviazione di un fotone, evidenziata dal rivelatore posto alla fine del percorso stesso, anche l’altro fotone, che aveva proseguito in direzione opposta (senza alcun elemento che ne può influenzare la traiettoria ), istantaneamente subisce una deviazione: si verifica cioè un effetto istantaneo a distanza che prova la non-località.
Il primo aspetto è subito accolto con soddisfazione dalla fisica ufficiale, il secondo invece è fondamentalmente ignorato. Ancora oggi i fisici ortodossi del ‘taci e calcola’ evitano accuratamente di proporre ipotesi sull’origine e natura della non-località.
Ho appena detto che con il secondo esperimento Aspect prova “l’inammissibilità del realismo locale”. Questo non è vero al 100%. Vediamo perché.
Il realismo locale presuppone l’esistenza di parametri nascosti che governano il comportamento speculare di due particelle entangled. Questi parametri sono nascosti, quindi sconosciuti, ma si può supporre che essi siano fondamentalmente ‘informazioni’ aggiuntive in grado di governare il movimento delle particelle. Per esempio, la contemporanea deviazione di un fotone della coppia sul rilevatore R2 e del suo gemello sul rilevatore R3, può essere attribuito al fatto che i due fotoni sono stati informati per tempo, abbiano cioè ricevuto ‘informazioni’ sull’orientamento dei polarizzatori contro di cui vanno a sbattere. Se è possibile che queste informazioni nascoste siano scambiate, durante l’esperimento, a velocità inferiore a quella della luce, allora l’esperimento di Aspect NON prova “l’inammissibilità del realismo locale”.
Ora, il primo e secondo esperimento di Aspect sono stati condotti usando una configurazione statica.
In pratica, i polarizzatori erano regolati con una certa angolazione prima della sessione di esperimenti e tenuti con la stessa angolazione per tutta la durata della sessione. Non è possibile, in questo caso, escludere a priori che si venga a creare, durante la sessione, un mutuo rapporto fra sorgente e strumentazione tale che l’emissione dei fotoni sia condizionata dalla ‘conoscenza’ dello stato dei polarizzatori mediante lo scambio di segnali ‘nascosti’ che viaggiano a una velocità uguale o inferiore a quella della luce. Se queste correlazioni esistono, allora, i precedenti esperimenti di Aspect, ma anche lo stesso teorema di Bell, vanno a farsi friggere.
Lo stesso Bell, che seguiva a distanza il lavoro di Aspect, era consapevole del problema e indicava la necessità di condurre:
“experiments of the type proposed by Bohm and Aharanov, in which the settings are changed during the flight of the particles”, cioè
“esperimenti del tipo proposti da Bohm e Aharanov nei quali il settaggio della strumentazione avviene mentre le particelle sono in volo”.
Se l’angolazione dei polarizzatori è definita quando i fotoni sono già stati ‘sparati’ dalla sorgente, allora non c’è alcuna possibilità che la sorgente venga ‘informata’ circa l’orientamento dei polarizzatori nel momento in cui i fotoni sono emessi. Cade così la possibilità che i fotoni siano emessi dalla sorgente con polarizzazioni determinate.
Con il terzo esperimento, Aspect segue il suggerimento di Bell, Bohm e Aharanov e fa in modo che l’orientamento dei polarizzatori avvenga quando la coppia di fotoni è già stata emessa dalla sorgente. I risultati del terzo esperimento sono pubblicati, sempre nel 1982, con il titolo: Experimental Test of Bell’s Inequalities Using Time-Varying Analyzers, Dicembre 1982.
In figura 3 riporto la configurazione del terzo esperimento.

Per cambiare l’orientamento dei polarizzatori mentre i fotoni sono in volo, Aspect e colleghi usano interruttori ottici rapidi, in inglese fast optical switch.
I due fotoni gemelli, emessi dalla sorgente al ritmo di circa cinquanta milioni il secondo (una coppia ogni 5 ns o miliardesimo di secondo), sono diretti uno verso lo Switch ‘A’, e l’altro verso lo Switch ‘B’.
Gli interruttori ottici sono in grado di dirigere una luce incidente su due canali diversi. Per esempio, quando il fotone generato dalla sorgente incontra lo Switch ‘A’ può essere deviato sul canale Polarizzatore P1-Rilevatore R1-Porta 1, o sul canale Polarizzatore P2-Rilevatore R2-Porta 2, in relazione alla posizione del commutatore. Lo Switch ‘B’ funziona alla stessa maniera.
I due Switch commutano ogni 10 ns indipendentemente uno dall’altro e in modalità ‘random‘. Ora, conoscendo la distanza tra la sorgente e lo Switch ‘A’ (6 metri) e la velocità della luce (300.000 km/s) sappiamo che il tempo che impiega il fotone per coprire la distanza Sorgente-Switch è di 20 ns. Quindi, mentre il fotone viaggia per 20 ns, lo Switch ‘A’ commuta casualmente fra le due posizioni ogni 10 ns. Quale sarà l’orientamento dello Switch quando il fotone lo raggiungerà? Non è dato saperlo fin a quanto il fotone non investe lo Switch. Con tutte le buone intenzioni, la sorgente non può in alcun modo informare il fotone circa il setup dell’esperimento con messaggi locali.
Anche il terzo esperimento di Aspect boccia l’ipotesi di Einstein di realismo locale.
La configurazione del terzo esperimento è simile a quella del primo nel senso che c’è un solo Rilevatore per ogni Polarizzatore (questo in pratica riapre il problema dell’efficienza dei rilevatori risolto con il secondo esperimento). Come nel primo caso, manipolando opportunamente il tasso di coincidenze con le giuste formule, il risultato S deve essere –1 =< S =< 0 cioè un numero compreso fra -1 e 0. Il risultato, invece, dell’esperimento è S = 0,101 +/- 0,020. La deviazione, rispetto alla teoria LHV, è pari a cinque volte l’indeterminazione dovuta ai limiti tecnici della misurazione.
I risultati sono invece concordi con previsioni della MQ classica che predicono S = 0,112.
La cosa più interessante dell’esperimento di Aspect è che, all’atto della rilevazione, i fotoni della coppia esibiscono lo stesso orientamento di polarizzazione. Se è vero che durante il volo verso gli Switch i fotoni non hanno una polarizzazione definita, altrimenti S sarebbe S =< 0, questo significa che l’evento di rilevamento sul lato A, e conseguente collasso della funzione d’onda, causa l’evento di modifica dell’orientamento sul lato B (e viceversa).
I fotoni al momento dell’impatto sugli Switch sono distanti 12 metri, una distanza esagerata a scala quantica (rapportati agli oggetti macroscopici della nostra quotidianità, 12 metri corrisponderebbero a svariati miliardi di chilometri). Come fa l’evento di rilevamento del primo fotone a causare, ISTANTANEAMENTE, la definizione dell’orientamento del secondo fotone distante 12 metri?
Copio direttamente da Aspect:
“In this experiment, switching between the two channels occurs about each 10 ns. Since this delay, as well as the lifetime of the intermediate level of cascade (5 ns), is small compared to L/c (40 ns), a detection event on one side and the corresponding change of orientation on the other side are separated by a SPACELIKE INTERVAL”.
“In questo esperimento, la commutazione tra i due canali si verifica circa ogni 10 ns. Poiché questo ritardo, come pure la durata di 5 ns del livello intermedio della cascata (frequenza di emissione dei fotoni) è piccolo rispetto ai 40 ns di L/c, (tempo che impiega la luce per percorrere i 12 metri dallo Switch ‘A’ allo Switch ‘B’), un evento di rilevamento su un lato e la corrispondente modifica dell’orientamento sull’altro lato sono separati da un intervallo SPACELIKE”.
Che cosa vuol dire intervallo SPACELIKE, cioè intervallo di tipo spazio ?
Per una discussione approfondita su separazione o intervallo fra due eventi di tipo spazio, SPACELIKE, tempo, TIMELIKE e luce, LIGHTLIKE vedi il mio articolo La TEORIA della RELATIVITA’ … per stupidi (9).
Ricapitolo velocemente per chi non ha tempo. Secondo la Teoria della Relatività, ogni evento nello spaziotempo ha una sua precisa struttura causale nella quale esso è correlato a eventi nel passato ed eventi nel futuro. Dato un certo evento, la struttura causale, individua gli eventi del passato che possono averlo influenzato e quelli del futuro che potranno essere da esso influenzati.
Ebbene due eventi con separazione SPACELIKE non possono avere alcun collegamento causale.
Che significa? Significa che tutta la fisica conosciuta, basata sulla sequenzialità nel tempo di causa-effetto, se ne ‘va a puttane’, come si dice in termini scientifici. Com’è possibile che il mondo scientifico prenda alla leggera, direi allegramente, lo sputtanamento della causalità di Einstein? … misteri della scienza.
Ma soprattutto, com’è possibile che due eventi evidentemente correlati, cioè l’evento di rilevamento su un lato e la corrispondente modifica dell’orientamento sull’altro lato, siano simultanei, cioè non implichino il tempo, pur essendo uno causa dell’altro? C’è qualcosa oltre lo spaziotempo, ovviamente a un livello sub-quantico, che si prende la briga di ‘informare’ le particelle del contesto generale? Bohm dice che questo qualcosa esiste e lo chiama ‘potenziale quantico’.
Ma in generale, non è ragionevole pensare che ci sia qualcosa di ancora sconosciuto che è responsabile delle interazioni immediate a distanza?
Rispondo citando ancora una volta John Bell.
“The ‘microscopic’ aspect of the complementary variables is indeed hidden from us. But to admit things not visible to the gross creatures that we are is, in my opinion, to show a decent humility, and not just a lamentable addiction to metaphysics. “ (John Bell, 1987)
“In effetti, l’aspetto ‘microscopico’ delle variabili complementari è per noi nascosto. Ma ammettere l’esistenza di cose invisibili a noi rozze e grossolane creature è, a mio parere, un segno di un’onesta umiltà e non di una deplorevole dipendenza dalla metafisica”.