Amici della Scienza – Notizie & Scoperte

Un nuovo metodo per dimostrare l’entanglement quantistico

L’entanglement quantistico, noto anche come teoria di azione a distanza, è un particolare fenomeno quantistico per cui una particella acquista istantaneamente una proprietà a causa della misura della stessa proprietà su un’altra particella, anche se le due particelle sono lontane fra di loro. Un fenomeno così strano e antintuitivo che fu messo in discussione da Albert Einstein e altri due ricercatori, già nel 1935 e che è stato riconfermato oggi.

Negli anni Trenta del Secolo scorso uno dei dilemmi più ricorrenti della fisica riguardava come interpretare i risultati quantistici ed è in quel periodo che si è sviluppata l’Interpretazione di Copenaghen, ovvero la spiegazione della meccanica quantistica maggiormente accettata a livello scientifico, basata soprattutto sugli studi dei fisici Niels Bohr e Werner Karl Heisenberg.

L’interpretazione non convinceva tutti e ne nacquero discussioni accese che sfociarono in un famoso articolo pubblicato da Albert Einstein, Boris Podolsky e Nathan Rosen e noto come paradosso EPR. In questo testo, pubblicato nel 1935, veniva presentato un esperimento mentale per dimostrare come la meccanica quantistica, per quanto porti a risultati interessanti, sia incompleta.

entanglement quantistico

Al centro del paradosso vi è proprio l’entanglement quantistico accennato poco sopra in quanto, secondo Einstein, una particella deve avere una certa proprietà indipendentemente dalla misurazione di essa o di un’altra particella in un’altra posizione. Gli effetti istantanei su diverse particelle sarebbero quindi incompatibili col principio di località e in particolare con un postulato cardine della relatività ristretta che impone la velocità della luce come velocità limite. Assumendo questo principio come vero, secondo gli autori, il paradosso si potrebbe risolvere solamente facendo decadere il principio di realtà, cosa non possibile, o ritenendo la teoria quantistica incompleta, presupponendo l’esistenza di variabili nascoste ancora da scoprire. Avevano ragione?

Purtroppo per loro no. Infatti il fisico John Bell, nel 1964, dimostrò, in quello che è ricordato come principio della disuguaglianza di Bell, che il principio di località che Einstein aveva considerato non funzionava nella meccanica quantistica.

Nei decenni a seguire sono stati numerosi gli scienziati che hanno cercato di verificare questa disuguaglianza: uno di questi è stato Alain Aspect che nel 1981 è riuscito a provare che le correlazioni misurate seguono le previsioni della meccanica quantistica, verificando il fenomeno non locale dell’entanglement e confutando sia l’ipotesi di variabili nascoste nella meccanica quantistica che il principio di località, alla base del paradosso EPR.

Nel 2015, altre due dimostrazioni sul tema. La prima risale a Marzo 2015, con un esperimento innovativo, e che per la prima volta ha utilizzato un solo fotone (e non due) come apparato sperimentale: l’esperimento, i cui risultati sono stati pubblicati su Nature Communication da un team di ricercatori delle Università di Tokyo, Varsavia e Brisbane, è basato su un fotone sparato su uno specchio e su due osservatori, posti da una parte e dall’altra rispetto allo specchio. In questo modo si è dimostrato che, a livello microscopico, esiste una sovrapposizione di stati, in questo caso di fotone e assenza di fotone.

Nel secondo articolo invece, che risale a fine Agosto 2015l’esperimento è stato svolto con due fotoni in due differenti laboratori del campus di Delft (Olanda), a 1,28 chilometri di distanza l’uno dall’altro. Quando i fotoni venivano sparati verso una terza posizione, i ricercatori avevano “addirittura” 4.27 microsecondi per eseguire entrambe le misure, prima che un segnale alla velocità della luce si spostasse da una stazione all’altra. Grazie a questo esperimento si è riuscito a dimostrare nuovamente il principio di Bell, ma senza dover fare assunzioni supplementari come si era dovuto fare in passato.

La dimostrazione più recente

Una delle caratteristiche essenziali richieste per la realizzazione di un computer quantistico è l’entanglement quantistico. Un team di fisici dell’Università di Vienna e dell’Accademia delle scienze austriaca (ÖAW) introduce una nuova tecnica per rilevare l’entanglement anche in sistemi quantistici su larga scala con un’efficienza senza precedenti. 

Ciò avvicina gli scienziati all’implementazione di un calcolo quantistico affidabile. I nuovi risultati sono di diretta rilevanza per le future generazioni di dispositivi quantici e sono pubblicati nell’attuale numero della rivista Nature Physics .

entanglement
Impressione artistica del rilevamento di entanglement. Il flusso di luci verdi e rosse rappresenta le risposte richieste dal protocollo, rivelando così la presenza di entanglement tra i fotoni. (© Rolando Barry / Università di Vienna)

Il calcolo quantico ha attirato l’attenzione di molti scienziati per il suo potenziale di sovraperformare le capacità dei computer standard per determinate attività. Per la realizzazione di un computer quantistico, una delle caratteristiche essenziali è l’entanglement quantico . Questo descrive un effetto in cui diverse particelle quantistiche sono interconnesse in modo complesso. 

Se una delle particelle entangled è influenzata da una misura esterna, anche lo stato dell’altra particella entangled cambia, indipendentemente dalla distanza tra loro. Molti scienziati stanno sviluppando nuove tecniche per verificare la presenza di questa caratteristica quantistica essenziale nei sistemi quantistici. Metodi efficienti sono stati testati per sistemi contenenti solo pochi qubit, le unità di base delle informazioni quantistiche. Tuttavia, l’implementazione fisica di un computer quantistico comporterebbe sistemi quantistici molto più grandi. Tuttavia, con i metodi convenzionali, verificare l’entanglement in sistemi di grandi dimensioni diventa impegnativo e richiede molto tempo, dal momento che sono richieste molte serie sperimentali ripetute.

Basandosi su un recente schema teorico, un team di fisici sperimentali e teorici dell’Università di Vienna e dell’ÖAW guidato da Philip Walther e Borivoje Dakić, insieme ai colleghi dell’Università di Belgrado, hanno dimostrato con successo che la verifica dell’entanglement può essere intrapresa in modo sorprendentemente modo efficiente e in un tempo molto breve, rendendo questo compito applicabile anche a sistemi quantistici su larga scala. Per testare il loro nuovo metodo, hanno prodotto sperimentalmente un sistema quantico composto da sei fotoni entangled. I risultati mostrano che solo poche prove sperimentali bastano a confermare la presenza di entanglement con altissima sicurezza, fino al 99,99 percento.

Il metodo verificato può essere compreso in un modo piuttosto semplice. Dopo che un sistema quantistico è stato generato in laboratorio, gli scienziati scelgono accuratamente misure quantistiche specifiche che vengono poi applicate al sistema. I risultati di queste misurazioni portano a confermare o negare la presenza di entanglement. “È in qualche modo simile a fare domande sì-no al sistema quantistico e annotare le risposte date: più risposte positive sono date, maggiore è la probabilità che il sistema mostri entanglement”, dice Valeria Saggio, prima autrice della pubblicazione in Physics Nature . 

Sorprendentemente, la quantità di domande e risposte necessarie è estremamente bassa. La nuova tecnica risulta essere di ordine di grandezza più efficiente rispetto ai metodi convenzionali. Inoltre, in alcuni casi il numero di domande necessarie è addirittura indipendente dalla dimensione del sistema, confermando così la potenza del nuovo metodo per i futuri esperimenti quantistici.

Mentre l’implementazione fisica di un computer quantistico sta ancora affrontando varie sfide, nuovi progressi come la verifica dell’entanglement efficiente potrebbero far avanzare il campo, contribuendo così al progresso delle tecnologie quantistiche.

Perché è tanto interessante l’entanglement quantistico? Non solo perché è un argomento affascinante, ma perché, come la meccanica quantistica in genere, può fornire informazioni fondamentali per la realizzazione di dispositivi all’avanguardia come sensori, simulatori e strumenti di comunicazione.

Computer quantistici

Per decenni l’aumento della potenza dei computer è andato di pari passo con la miniaturizzazione dei circuiti elettronici, fenomeno codificato empiricamente nella Legge di Moore: la densità dei transistor su un microchip e la relativa velocità di calcolo raddoppiano ogni 18 mesi.

La miniaturizzazione dei componenti però si è fermata alle soglie della meccanica quantistica, rendendo impossibile aumentare ulteriormente la densità dei transistor e la riduzione delle dimensioni dei circuiti integrati (accorgimenti fino ad oggi adottati per incrementare le prestazioni di calcolo dei microprocessori).

Con una felice intuizione dell’informatica teorica, la meccanica quantistica è stata trasformata in un’opportunità per realizzare macchine con una potenza di calcolo enormemente superiore ai computer convenzionali: i computer quantistici.

Al posto dei convenzionali bit – unità d’informazione binaria, indicate convenzionalmente con le cifre 0 e 1 e codificate dai due stati “aperto” e “chiuso” di un interruttore – nel computer quantistico si usano i qubit, elementi base dell’informazione quantistica codificati dallo stato quantistico in cui si trova una Particella o un atomo. Lo spin di una particella, per esempio, ha due stati che possono codificare informazionibinarie. A rendere interessanti, ai fini del calcolo, le particelle atomiche e subatomiche è il fatto che possono esistere anche in una sovrapposizione di stati, ampliando enormemente le possibilità di codifica delle informazioni, quindi permettendo di affrontare problemi estremamente complessi.

Tuttavia, né la manipolazione controllata di atomi e particelle, né la loro reciproca comunicazione né, infine, la stesura di algoritmi adatti, sono obiettivi facili da raggiungere, per cui la strada per realizzare un computer quantistico è appena agli inizi.

Sono note alcune decine di algoritmi quantistici che si suddividono tra algoritmi algebrici e di teoria dei numeri, algoritmi oracolari, e algoritmi di approssimazione e simulazione.

Come valutare i computer che non esistono ancora

volgono a uno strumento standard: una serie di algoritmi chiamati LINPACK che verificano la velocità con cui la macchina risolve i problemi con un numero enorme di variabili. Per i computer quantistici, che potrebbero un giorno risolvere alcuni problemi che sommergono i computer convenzionali, non esiste uno standard di benchmark di questo tipo.

Una ragione è che i computer, che mirano a sfruttare le leggi della meccanica quantistica per accelerare determinati calcoli, sono ancora rudimentali, con progetti radicalmente diversi che si contendono. In alcuni, i bit quantici, o qubit, necessari per il calcolo sono incorporati nello spin di stringhe di ioni intrappolati, mentre altri si basano su patch di metallo superconduttore che risuona con le microonde. Confrontando le architetture embrionali “è come visitare una scuola materna per decidere quale dei più piccoli diventerà una star del basket”, dice Scott Aaronson, un informatico dell’Università del Texas ad Austin.

Eppure i ricercatori stanno facendo alcuni dei loro primi tentativi di prendere la misura dei computer quantistici. La scorsa settimana, Margaret Martonosi, una scienziata informatico della Princeton University, e colleghi hanno presentato un confronto testa a testa di computer quantistici da IBM, Rigetti Computing a Berkeley, California, e l’Università del Maryland (UMD) a College Park. La macchina UMD, che utilizza ioni intrappolati, ha eseguito la maggior parte di 12 algoritmi di test in modo più accurato rispetto alle altre macchine superconduttori, il team ha riferito al Simposio internazionale sull’architettura dei computer a Phoenix. Christopher Monroe, un fisico UMD e fondatore della compagnia IonQ, prevede che tali confronti diventeranno lo standard. “Questi algoritmi giocattolo ti danno una risposta semplice – ha funzionato o no?” Ma anche Martonosi mette in guardia dal fare troppi test. Infatti,

Un computer convenzionale manipola bit di informazione, codificati in transistor che possono essere attivati ​​o disattivati ​​per rappresentare zero o uno. Un qubit, tuttavia, può essere impostato su zero e uno simultaneamente, ad esempio, codificandolo in uno ione che può ruotare per zero, su per uno o in entrambi i modi contemporaneamente. I Qubit consentono alla macchina di elaborare molti input contemporaneamente anziché uno alla volta. Ma il vero potere della macchina non passa attraverso quel parallelismo massiccio, ma nei problemi dove possibile le soluzioni possono essere codificate in onde quantiche che si insinuano tra i qubit. Le onde interferiscono quindi in modo che le soluzioni sbagliate vengano eliminate e quella giusta emerga.

Un computer quantistico sarebbe in grado, ad esempio, di decifrare schemi di crittografia di Internet basati sul factoring di numeri enormi: un problema difficile per un computer classico. Ma risolvere tali problemi richiederebbe 100.000 qubit e i mezzi per correggere gli errori nelle delicate onde quantiche. Queste macchine sono lontane decenni, dicono i ricercatori. Ma i computer quantistici con qualche dozzina di qubit rumorosi saranno presto i migliori computer convenzionali in determinati compiti, dicono gli sviluppatori, e stanno cercando le metriche per dimostrarlo.

computer quantistici
I computer quantici si affidano a chip superconduttori come questo di Rigetti Computing a Berkeley, in California.

Un salto di qualità

Con un computer quantico che si basa su un chip superconduttore, Rigetti Computing sta cercando un’applicazione che gli dia un vantaggio pratico rispetto ai computer convenzionali. Altre società stanno spingendo altre metriche per valutare i progressi.

AZIENDA / 
UNIVERSITÀ
TIPO DI COMPUTERNUMERO DI QUBITSMETRICO PREFERITO
GoogleSuper- 
conduttore
72Supremazia quantistica
IBMSuper- 
conduttore
20Volume quantico
Rigetti ComputingSuper- 
conduttore
16Vantaggio quantico
Università del MarylandIoni intrappolati5Confronto di riferimento

Risolvere un problema che un computer convenzionale non può – la cosiddetta supremazia quantistica – è una metrica ben pubblicizzata. “È un” Ciao mondo! ” Il progetto che mostra il tuo computer quantico funziona “, afferma John Martinis, un fisico di Santa Barbara, in California, che guida gli sforzi di Google per raggiungere la supremazia su una macchina con 72 qubit superconduttori.

Il problema che i ricercatori di Google hanno scelto è estremamente astratto. Essenzialmente, programmano il computer quantico per eseguire ripetutamente un insieme casuale di operazioni sui qubit. Grazie all’interferenza quantica, la macchina dovrebbe sputare determinate stringhe di zeri e una con maggiore probabilità di altre, invece di produrre tutte le stringhe con pari probabilità, come sarebbe se non ci fossero interferenze. Inoltre, la previsione di questa esatta distribuzione dei risultati travolge i computer classici una volta che il numero di qubit sale troppo in alto. Quindi, se i ricercatori di Google possono misurare quella distribuzione rivelatrice per la loro macchina a 72-qubit, allora, in un certo senso, avrà raggiunto la supremazia quantistica calcolando qualcosa che un computer convenzionale non può. Tuttavia, l’esercizio arcano non introdurrà i computer quantistici pratici, dice Greg Kuperberg, un matematico all’Università della California, Davis. “È la supremazia fare qualcosa di completamente inutile.”

Al contrario, i ricercatori di Rigetti mirano a dimostrare che un computer quantistico può eseguire qualche compito utile in modo più accurato, veloce o economico rispetto ai computer convenzionali, una metrica che chiamano il vantaggio quantico. “Quello che vogliamo sono le cose che ci mettono sulla via più breve al valore commerciale”, dice Chad Rigetti, un fisico e fondatore della startup. Ad esempio, afferma, un computer quantistico potrebbe essere l’ideale per modellare la complessa interazione di attività finanziarie in un hedge fund.

Nel settembre 2018, Rigetti ha promesso $ 1 milione al primo utente che ottiene il vantaggio quantistico sulle sue macchine disponibili pubblicamente. La versione attuale ha 16 qubit superconduttori. Poiché la misura include fattori come il costo, il vantaggio quantistico non è definito in modo così preciso, afferma Aram Harrow, un fisico del Massachusetts Institute of Technology di Cambridge. “Se è un po ‘vago, non è male per Rigetti”, dice Harrow.

I ricercatori IBM hanno definito una metrica, chiamata volume quantico, che misura le prestazioni di un computer quantico senza confrontarlo con una macchina convenzionale. Si tratta di testare un computer quantistico usando calcoli casuali come quelli che sta usando Google. E dipende sia dal numero di qubit che dal numero di cicli di calcolo che una macchina può gestire prima che il suo stato quantico si esaurisca.

Utilizzando una macchina con 20 qubit superconduttori, gli scienziati IBM hanno raggiunto un volume quantico di 16 e mirano a raddoppiarli ogni anno, dice Jay Gambetta, un fisico del Thomas J. Watson Research Center di IBM a Yorktown Heights, New York. Le applicazioni innovative seguiranno naturalmente, dice. “Non penso che la supremazia sia qualcosa per cui speri. È qualcosa che riconosceremo una volta passati a cose sempre più grandi. “

Poi ci sono confronti diretti come quelli di Martonosi. Nel suo test, la macchina a 5 qubit basata sugli ioni ha risolto la maggior parte dei problemi di test correttamente il 90% delle volte, rispetto al 50% o meno per le macchine superconduttori-qubit. Questa differenza riflette gli attuali stati delle tecnologie e non il loro potenziale, dice Martonosi. Ad esempio, in una macchina superconduttiva ogni qubit interagisce solo con i suoi vicini, ma ogni ione della macchina UMD interagisce con tutti gli altri, dandogli un vantaggio. Le più grandi macchine basate sugli ioni non condivideranno questo vantaggio, comunque.

Martonosi afferma che tali confronti mostrano che tutti i computer quantistici hanno ottenuto risultati significativamente migliori quando programmati per tenere conto delle differenze nel rumore di qubit e nella connettività. “Attraverso una vasta gamma di implementazioni [hardware], sembra funzionare”, afferma. “È molto eccitante.”

Harrow mette in dubbio l’utilità di una qualsiasi delle metriche attuali a lungo termine. La sfida principale nell’informatica quantistica continua a trovare una tecnologia in grado di scalare fino a migliaia di qubit, dice. “Queste metriche sono solo vagamente correlate alla domanda di ridimensionamento.”

 

Riferimenti e approfondimenti

  1. Valeria Saggio et al. Experimental few-copy multipartite entanglement detection, Nature Physics (2019). DOI: 10.1038/S41567-019-0550-4
  2. How to evaluate computers that don’t quite exist – Di Adrian Cho doi: 10.1126 / science.aay5207
  3. Experimental loophole-free violation of a Bell inequality using entangled electron spins separated by 1.3 km – B. Hensen, H. Bernien, arXiv:1508.05949
  4. Experimental proof of nonlocal wavefunction collapse for a single particle using homodyne measurements – Maria Fuwa, Shuntaro Takeda, Marcin Zwierz, Nature Communications volume6, Article number: 6665 (2015) 

Lascia una recensione

avatar

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

  Subscribe  
Notificami