Corso di Religione

Sommario




Il Computer quantistico (o computer quantico)
Cos’è, come funziona e qual è il suo futuro source :https://www.ai4business.it Nicoletta Boldrini 17 Dicembre 2018 Intelligenza Artificiale

È dagli anni ’80 che gli scienziati si cimentano nello sviluppo del computer quantistico (o computer quantico), un super elaboratore che sfrutta le leggi della fisica e della meccanica quantistica per superare le barriere dei supercomputer di oggi e aprire nuovi orizzonti per l’ Intelligenza Artificiale .

Attualmente sono già disponibili sistemi basati su pochi qubit ma la sfida della ricerca è costruire computer quantistici basati su centinaia o migliaia di qubit, condizione che permetterebbe un vero “salto quantico” nel numero e nella qualità di calcoli che un computer quantistico potrebbe fare.

Sistemi contenenti migliaia di qubit potrebbero comunque arrivare entro un decennio e a giocarsi la partita ci sono IBM, Google, Microsoft, Intel ma anche centri di ricerca come quelli del MIT e di Harvard negli Stati Uniti che si scontrano, quasi al limite di una guerra fredda politica, con i centri di Russia e Cina.

Anche l’Unione Europea ha deciso di assumere un ruolo importante investendo un miliardo di euro nei prossimi dieci anni, grazie al “push” fatto dal fisico italiano Tommaso Calarco, direttore del Centro per le Scienze e Tecnologie Quantistiche Integrate dell’Università di Ulm (in Germania).

Cos’è un computer quantistico

La definizione di computer quantistico è abbastanza semplice: è un computer che sfrutta le leggi della fisica e della meccanica quantistica per l’elaborazione dei dati sfruttando come unità fondamentale il qubit (a differenza del calcolo elettronico, alla base dei computer come li abbiamo sempre conosciuti, la cui unità fondamentale è invece il bit).

Per comprendere come si è arrivati al computer quantistico bisogna risalire alla miniaturizzazione dei circuiti e alla  Legge di Moore : dagli anni ’60 in poi si è assistito ad un progressivo aumento della potenza di calcolo dei computer, aumento che è andato di pari passo con la miniaturizzazione dei circuiti elettronici da cui ne è derivata la famosa Legge di Moore secondo la quale “la complessità di un microcircuito, misurata con il numero di transistor in un chip (processore), e la relativa velocità di calcolo raddoppia ogni 18 mesi”.

Seguendo questa legge – che è diventata nel tempo un vero e proprio parametro di misura e anche guida di obiettivi per i produttori di processori – siamo giunti ad avere microchip integrati, ossia processori che integrano al loro interno una Cpu, una Gpu, un Digital Signal Processing, all’interno dei nostri smartphone.

Una soglia che però oggi ha raggiunto i limiti della meccanica quantistica rendendo molto complesso (quasi impossibile) proseguire il percorso della miniaturizzazione unitamente all’aumento della densità dei transistor. Limite che ha in realtà aperto la strada ad un cambio di paradigma cercando di sfruttare le leggi della fisica e della meccanica quantistica per raggiungere una potenza di calcolo superiore a quella dei computer basati sul calcolo elettronico senza necessariamente pensare alla miniaturizzazione dei circuiti.

Nasce così l’approccio teorico al computer quantistico che anziché modellato sui bit (binary digit), le unità di informazione che codificano due stati, aperto e chiuso (i cui valori, come accennato sono 1 e 0) di un interruttore, sfrutta quelli che vengono chiamati qubit, le unità dell’informazione quantistica che sono codificati non da 1 o 0 ma dallo stato quantistico in cui si trova una particella o un atomo che può avere contemporaneamente sia il valore 1 sia il valore 0, per altro in una varietà di combinazioni che producono differenti stati quantistici (una particella può essere per 70% allo stato 1 e per il 30% allo stato 0, o 40% e 60%, o 15 e 85…).

Una condizione che assume un significato incredibile se si pensa alla progressione matematica: 2 qubit possono avere 4 stati contemporaneamente, 4 qubit hanno 16 stati, 16 qubit hanno 256 stati e via dicendo.

Le particelle atomiche e subatomiche, infatti, possono esistere in una sovrapposizione di stati quantistici, situazione che amplia enormemente le possibilità di codifica delle informazioni aprendo la possibilità di sfruttare tale capacità di elaborazione per la risoluzione di problemi estremamente complessi, come quelli alla base dell’ Intelligenza Artificiale .

In altre parole, il computer quantistico è in grado di processare – nello stesso momento, attraverso il calcolo parallelo – più soluzioni ad un singolo problema anziché svolgere calcoli sequenziali come avviene ora con l’elaborazione elettronica.

Quantum Computing: il problema da cui è nata la necessità di un nuovo modello fisico della computazione.

Calcoli complessi necessitano di molto tempo di elaborazione e devono essere eseguiti in sequenza. La comunità scientifica ha quindi iniziato a chiedersi “perché non eseguirli in parallelo?” come fa il cervello umano?

Nasce così l’approccio teorico al computer quantistico: anziché calcolare con dei bit (binary digit), le unità di informazione che codificano i due stati aperto e chiuso (1 e 0) di un interruttore, si sfruttano quelli che vengono chiamati qubit, le unità dell’informazione quantistica che sono codificati non da 1 o 0 ma dallo stato quantistico in cui si trova una particella o un atomo, che può avere contemporaneamente sia il valore 1 sia il valore 0.

Non solo: possono considerare una varietà di combinazioni che producono differenti stati quantistici (una particella può essere per 70% allo stato 1 e per il 30% allo stato 0, o 40% e 60%, o 15 e 85, e così via).

Una condizione detta sovrapposizione quantistica e che assume un significato incredibile se si pensa alla progressione matematica. Infatti, proprio per via di questo principio 2 qubit possono avere 4 stati contemporaneamente, 4 qubit hanno 16 stati, 16 qubit hanno 256 stati e via dicendo. Se pensiamo al fatto che la quantità di informazione contenuta in n qubit è pari a 2 alla n bit classici, ci rendiamo conto che si sta parlando di numeri astronomici.
In altre parole, il computer quantistico è in grado di processare  – nello stesso momento, attraverso il calcolo parallelo  – più soluzioni ad un singolo problema anziché svolgere calcoli sequenziali come avviene ora con l’elaborazione elettronica.

Prima di passare a leggere come funziona un computer quantistico potete approfondire ulteriormente il tema con la lettura di questo articolo: “ Quantum computing: quando 0 e 1 non bastano più

Come funziona un computer quantistico

Le criticità che finora hanno rallentato la corsa allo sviluppo di questi sistemi è legata alla manipolazione controllata di atomi e particelle (possibile con pochi qubit ma per elaborazioni complesse servono centinaia e migliaia di qubit), la loro connessione e comunicazione, nonché lo sviluppo di algoritmi adatti al computer quantistico.

Il funzionamento del computer quantistico si basa su due leggi della meccanica quantistica:
– il principio di sovrapposizione dal quale deriva, come abbiamo visto, la possibilità per le particelle di trovarsi contemporaneamente in più stati diversi (e quindi al qubit di poter essere sia 1 sia 0 simultaneamente, finché il suo stato non viene “letto” e quindi codificato);
la correlazione quantistica (entanglement) che esprime il vincolo, la correlazione appunto, che c’è tra due particelle o due qubit; secondo questo principio, è possibile conoscere lo stato di una particella (o di un qubit) misurando l’altra con la quale ha il vincolo, processo che “trasportato” nell’informatica si traduce con una accelerazione dei processi di calcolo.

Per quanto riguarda il funzionamento del computer quantistico da un punto di vista pratico, ad oggi ci sono due approcci predominanti:
– il primo, attraverso il raffreddamento dei circuiti vicino al cosiddetto zero assoluto (0 Kelvin, corrispondente a -273,15 gradi Celsius) in modo che funzionino come superconduttori senza resistenze che interferiscano sulla corrente; in questo caso si parla di “punti quantici” per indicare una nanostruttura con materiale semiconduttore inserita in un altro semiconduttore con intervallo di energia più grande;
– il secondo metodo ricorre agli “ioni intrappolati”, un atomo o molecola con una carica elettrica “intrappolati” in campi elettromagnetici e manipolati affinché lo spostamento degli elettroni produca un cambiamento dello stato degli ioni e quindi possa funzionare da qubit;

Seguendo i principi della meccanica quantistica e sfruttando le leggi della fisica quantistica, il computer quantistico (o computer quantico) sfrutta dunque i qubit per eseguire calcoli complessi in parallelo ad una velocità inimmaginabile rispetto ad un supercomputer di oggi (impiegando secondi anziché anni).

Come accennato, però, ci sono ancora alcuni limiti da superare tra cui la corretta manipolazione delle particelle (che sono volatili e fragili, proprio perché cambiano stato, e potrebbero quindi comportare perdita di dati e informazioni utili al processo di calcolo) nonché lo sviluppo di infrastrutture hardware idonee (oggi il raffreddamento dei sistemi richiede l’elio e le infrastrutture devono essere mantenute in ambienti privi di vibrazioni) e di algoritmi opportunamente sviluppati per il quantum computing.

Il computer quantistico generalista e i quantum annealer

Questi limiti portano i “puristi” della materia a ritenere i computer quantistici oggi presenti sul mercato (in particolare D-Wave, il sistema scelto dalla NASA e da Google; quest’ultimo lo ha poi immesso sul mercato nel 2013 pubblicizzandolo come “primo computer quantico pubblico e commerciale al mondo”, anche se la D-Wave Systems ne aveva già sviluppati altri in paio di anni prima) non dei veri e propri computer generalisti ma dei cosiddetti “quantum annealer”, computer che sfruttano la fisica e la meccanica quantistica per problemi di ottimizzazione combinatoria (cioè computer che devono essere ottimizzati al massimo affinché possano affrontare adeguatamente lo specifico problema da risolvere).

Di fatto, i quantum annealer sono sistemi utili per l’ottimizzazione combinatoria (cioè per risolvere problemi trovando la migliore soluzione fra tutte le soluzioni fattibili dove le variabili sono discrete). Sul mercato, in questo senso, sono già disponibili microchip cosiddetti “digital annealer”, si tratta di processori tradizionali ma che si ispirano al funzionamento del quantum computing per abilitare processi di calcolo molto rapidi (anche se siamo ben lontani dal calcolo in parallelo e quindi le prestazioni superiori di un digital annealer rispetto alle normali CPU dipenderebbe in realtà dal processo stesso di elaborazione, cioè da come viene impiegato e per che tipo di calcoli, considerando che CPU moderne, GPU e gpGPU sono già in grado di reggere calcoli massivi).

L’inizio del computer quantistico: Feynman e Deutsch

Sebbene la storia del computer quantistico si faccia risalire al 1982, anno in cui il fisico statunitense Richard Feynman ne espone la teoria ipotizzandone la realizzazione grazie al principio di sovrapposizione di stati delle particelle elementari, con ripresa poi nel 1985 da parte di David Deutschche riuscì a dimostrare la validità della teoria di Feynman, la primissima idea di una simile possibilità venne allo scienziato Murray Gell-Mann che nei primi anni ‘80 intravide nel comportamento delle particelle elementari la possibilità di sviluppo di una nuova tipologia di scienza informatica (il fisico statunitense ricevette il Premio Nobel per la Fisica nel 1969 per gli studi sulle particelle elementari, in particolare sulla teoria dei quark).

Nel 1982, Richard Feynman teorizzò quelli che oggi vengono classificati come “simulatori quantistici” ossia macchine di elaborazione che permettono lo studio di sistemi quantistici difficili da studiare in laboratorio e impossibili da modellare con un supercomputer. I simulatori quantistici, nell’idea di Feynman, sono dunque dispositivi per scopi speciali progettati per fornire informazioni su problemi fisici specifici (quindi potremmo dire che sono dei quantum annealer).

Attraverso i suoi studi Feynman cercò di andare oltre e mostrò che una macchina di Turing classica avrebbe sperimentato un rallentamento esponenziale nella simulazione dei fenomeni quantistici, mentre il suo ipotetico simulatore quantistico universale non lo avrebbe fatto. Feynman nel suo lavoro dell’ ‘82 disse in sostanza che la Macchina di Turing può simulare un sistema quantistico solo con un rallentamento esponenziale (nel senso che la complessità algoritmica richiesta rallenterebbe la capacità computazionale) mentre un computer basato su qubit (che Feynman identificò come simulatore quantistico universale) non è “affetto” da tali limiti.

È partendo da queste teorie che nel 1985 il fisico britannico David Deutsch, in un articolo intitolato “ Quantum theory, the Church-Turing principle and the universal quantum computer ”, poté descrivere le caratteristiche del computer quantistico:

– possibilità di elaborazione generalista (quindi non basata su calcoli specifici e soprattutto senza obbligo di predeterminare le interazioni tramite interruttori/funzioni “OR”, “AND” e “NOT”);
– sfruttamento del parallelismo quantico (per il calcolo in parallelo e non più in sequenza).

Oltre alle prime ipotesi di Feynman, Deutsch prese spunto anche dalla teoria di Church-Turing (dal nome dei due matematici dai matematici Alonzo Church e Alan Turing, che la introdussero tra gli anni trenta e gli anni quaranta), secondo la quale “se un problema è umanamente calcolabile, allora esisterà una macchina di Turing (o un dispositivo equivalente, come il computer) in grado di risolverlo (cioè di calcolarlo)”.

In particolare, David Deutsch andò oltre la tesi Church-Turing affermando che “ciascun sistema fisico finitamente realizzabile può essere perfettamente simulato da un modello universale di macchina computazionale operante con risorse finite”, principio secondo il quale un computer quantistico dovrebbe quindi in grado di simulare qualsiasi esperimento fisico.

L’ultimo ventennio del computer quantistico

Il primo prototipo di computer quantistico è stato realizzato nel 1997 da IBM nel suo Centro di Ricerca di Almaden (San Jose, California) misurando lo spin dei nuclei atomici (ossia la grandezza, o numero quantico, associata alle particelle, che concorre a definirne lo stato quantico) di particolari molecole tramite la risonanza magnetica nucleare (misurando cioè lo spin e determinando quindi lo stato quantistico di una particella quando è sottoposta ad un campo magnetico).

Solo un anno dopo, Bruce Kane, fisico australiano della University of New South Wales propone la costruzione di un elaboratore quantistico su atomi di fosforo disposti su uno strato di silicio spesso solo 25 nanometri; nell’ipotesi di Kane, i vecchi chip di silicio non vanno in cantina ma vengono utilizzati inserendovi all’interno degli atomi di fosforo; lo spin dei nuclei di fosforo rappresenterebbe quindi i qubit che potrebbero ospitare operazioni logiche grazie alla loro “manipolazione” attraverso capi elettrici esterni (fermo restando che il sistema dovrebbe avvicinarsi allo zero assoluto per poter operare).

È comunque nel 2001 che l’Almaden Research Center di IBM presenta il primo elaboratore quantistico a 7 qubit (composto da una sola molecola con 7 spin nucleari).
Da lì in poi – come riportato nell’ultimo aggiornamento di  Wikipedia alla voce “computer quantistico ;alla quale abbiamo aggiunto alcune voci più recenti – una serie di tappe ed innovazioni importanti ci portano ai giorni nostri:

  • il 13 febbraio 2007 la D-Wave Systems mostra pubblicamente l’Orion, quello che si ritiene il primo computer quantistico adiabatico (cioè isolato, impenetrabile al calore) a 16 qubit;
  • nel 2009 viene costruito il primo processore che sfrutta 2 qubit;
  • l’11 maggio 2011 la D-Wave Systems annuncia il D-Wave One, elaboratore a 128 qubit, che risulta essere il primo computer quantistico ad essere commercializzato;
  • nell’aprile del 2012 gli scienziati del Max Planck Institute, istituto di ottica quantistica, riescono a creare la prima rete quantica funzionante;
  • nel maggio 2013 Google e Nasa presentano il D-Wave Two, nel Quantum Artificial Intelligence Lab, in California;
  • nel febbraio 2016 IBM mette a disposizione pubblicamente l’elaboratore IBM Quantum Experience, il primo computer quantistico in modalità cloud con un processore a 5 qubit;
  • a maggio 2017 IBM annuncia di aver realizzato un processore a 17 qubit più strettamente ingegnerizzato che potrebbe essere la base per sistemi commerciali;
  • a giugno 2017 Google rilancia con un processore da 20 qubit e dice di voler raggiungere i 49 qubit entro la fine dell’anno;
  • a ottobre 2017 IBM rilancia dicendo che attraverso la simulazione del funzionamento del computer quantistico (attraverso sistemi convenzionali) ci si può già spingere verso la “barriera” dei 56 qubit – simulazioni che per oggi sono confermate dal lavoro dello Swiss Federal Institute of Technology di Zurigo (che fino ad oggi ha simulato 45 qubit su un processore con 500 terabyte di memoria);
  • a febbraio 2018 Google annuncia un nuovo traguardo: un nuovo processore per computer quantistici da 72 qubit
  • a marzo 2018 l’Istituto di Fisica e Tecnologia di Mosca presenta un articolo sugli sviluppi di una Internet quantistica ad alta velocità.

Internet quantistico ad alta velocità

I computer quantistici possono essere il game changer quando si parla di sicurezza dei dati. Dmitry Fedyanin, ricercatore senior presso l’Istituto di Fisica e Tecnologia di Mosca (MIPT), ritiene che una Internet ad alta velocità quantistica sarà in grado di mantenere i dati al sicuro.

Fedyanin ha detto che il modello di comunicazione classico condivide le informazioni su internet utilizzando (tramite fibra ottica) un trasmettitore e un ricevitore. I segnali elettrici vengono convertiti in bit ottici e poi di nuovo in bit elettrici. Lungo il flusso (composto da dati che si alternano tra uno e zero), i segnali possono essere intercettati.


Fedyanin immagina che la nascita definitiva di un computer quantistico è decisamente probabile, in quanto mancano affatto le aziende interessate a portare avanti lo sviluppo di queste tecnologie, da IBM a Google. “Possiamo essere molto lontani dal debutto del computer (quantico) stesso”, ha riconosciuto Fedyanin , “ma il cambiamento avverrà in un colpo solo”.

“L’idea è che se qualcuno costruisce un computer quantistico, può risolvere i problemi matematici (su cui si basa l’attuale crittografia) quasi immediatamente… a causa di questo, tutte le comunicazioni classiche diverrebbero insicure,” ha detto Fedyanin. “Per superare questo problema, abbiamo bisogno della cosiddetta comunicazione quantistica.”

I fotoni alla base della comunicazione quantistica

Alla base del concetto di comunicazione quantistica c’è il fotone, ossia un quanto di luce, che può essere usato per trasportare stringhe di bit di informazioni (codificate in quei fotoni) tra le parti. Il team di ricerca di Mosca ha trovato qualche speranza nel carburo di silicio, che è stato utilizzato nei semiconduttori e può essere utilizzato per emettere fotoni.

Ma, ha avvertito Fedyanin, “abbiamo bisogno di trasmettere un solo fotone”. Un solo fotone per portare i dati è fondamentale  poiché se ce ne fossero di più si potrebbero catturare e decodificare per ottenere una copia dei dati.

A causa delle caratteristiche della fisica quantistica, i singoli fotoni non possono essere copiati o intercettati senza che le parti su entrambi i lati della comunicazione se ne accorgano. In un cenno alle linee di comunicazione one-to-many, Fedyanin ha detto che la comunicazione quantistica può essere trasferita da un nodo a qualsiasi numero di altri nodi. L’articolo completo tradotto in italiano è disponibile sul blog Medium di VISIONARI


Crittografia quantistica satellitare, le recenti ricerche della Cina 

Recentemente la Cina ha annunciato di avere rilasciato online il più grande network a chiave quantistica. Le chiavi quantistiche sono lunghe stringhe di numeri  –  chiavi per aprire file crittografati proprio come quelle utilizzate nei computer moderni  –  ma sono codificate tramite lo stato fisico delle particelle quantistiche. Ciò significa che sono protetti non solo dai limiti del computer, ma anche dalle leggi della fisica.  Le chiavi quantistiche non possono essere copiate.

 Possono crittografare le trasmissioni tra computer classici e nessuno può rubarle senza che il mittente o il destinatario se ne accorgano  (una legge della meccanica quantistica afferma che, una volta osservata una particella subatomica, il suo stato viene alterato).

A fine 2017, i ricercatori cinesi hanno criptato quantisticamente delle immagini codificandole come stringhe di numeri basate sugli stati quantistici dei fotoni, e le hanno inviate attraverso distanze fino a 4.722 miglia (7.600 km) tra Pechino e Vienna  – infrangendo il precedente record di 251 miglia (404 km), anch’esso ottenuto dalla Cina grazie all’utilizzo del satellite cinese Micius, un potente rivelatore e trasmettitore di fotoni.

Il computer quantistico di IBM

IBM è innegabilmente una delle primissime realtà ad aver investito risorse economiche, “cervelli” e tempo alla ricerca e allo sviluppo del Quantum Computing e alla realizzazione di un computer quantistico generalista e accessibile al pubblico delle aziende. Oggi Big Blue mette in commercio sistemi da 20 qubit (IBM Q “pronti all’uso”) ma pochi giorni fa ha annunciato di essere pronta a mostrare a breve il prototipo dell’IBM Q di prossima generazione con un processore da 50 qubit.

Si tratta di un ulteriore passo avanti nell’ambito dell’evoluzione dell’hardware quantistico ma va sottolineato che IBM è impegnata sul fronte dello sviluppo dell’intero stack tecnologico di informatica quantistica, concentrando le proprie energie su sistemi, software, applicazioni nonché sulla formazione di competenze.

Tre generazioni di sviluppo, da 5 a 16, da 20 a 50 qubit

I progressi hardware più recenti sono il risultato di tre generazioni di sviluppo da quando IBM, per prima, lanciò sul mercato, nel maggio 2016, un computer quantistico funzionante online, permettendo a chiunque di accedervi liberamente. In 18 mesi IBM ha reso disponibili online sistemi da 5 e 16 qubit ad accesso pubblico attraverso la piattaforma IBM Q experience e ha sviluppato un avanzato ecosistema di calcolo quantistico pubblico.

“Nel corso del prossimo anno, scienziati e ricercatori IBM Q continueranno a lavorare al miglioramento dei dispositivi IBM agendo su diversi aspetti tra cui la qualità dei qubit, la connettività dei circuiti e il tasso di errore operativo, al fine di aumentare la profondità di esecuzione di algoritmi quantistici. Ad esempio, in sei mesi, il team IBM è stato in grado di accrescere i tempi di coerenza del processore da 20 qubit raddoppiandoli rispetto ai sistemi da 5 e 16 qubit a disposizione dei clienti sulla IBM Q experience”, si legge in una nota rilasciata dall’azienda.

I primi sistemi IBM Q online (disponibili entro la fine di quest’anno) sono dotati di un processore da 20 qubit e presenteranno miglioramenti nella progettazione dei qubit superconduttori, nella connettività e nel packaging. I tempi di coerenza (quantità di tempo disponibile per eseguire calcoli quantistici) si attestano su un valore medio di 90 microsecondi, permettendo di eseguire operazioni quantistiche ad elevato livello di affidabilità.

L’approccio open e il contributo della community di sviluppatori Come accennato, IBM mira a costruire un solido ecosistema di calcolo quantistico che comprende anche strumenti software open source, applicazioni per sistemi a breve termine e materiali didattici per la comunità quantistica. Ad oggi più di 60.000 utenti hanno eseguito oltre 1,7M esperimenti quantistici e hanno prodotto oltre 35 pubblicazioni scientifiche; le registrazioni al progetto sono arrivate da utenti provenienti da oltre 1500 università, 300 scuole superiori e 300 istituzioni private di tutto il mondo.

Per incrementare questo ecosistema di ricercatori quantistici e lo sviluppo di applicazioni, IBM ha lanciato all’inizio di quest’anno il progetto QISKit  (www.qiskit.org), un kit di sviluppo software open source per la programmazione e l’utilizzo di computer quantistici.
 
Il kit continua ad arricchirsi di funzionalità e oggi consente agli utenti di creare programmi di calcolo quantistico ed eseguirli su uno dei veri processori quantistici o simulatori quantistici IBM disponibili online (le ultime funzionalità prevedono per esempio nuovi strumenti di visualizzazione per studiare lo stato del sistema quantistico, l’integrazione del QISKit con la IBM Data Science Experience, un compilatore che traccia gli esperimenti desiderati sull’hardware disponibile, nonché esempi dimostrativi di applicazioni quantistiche).

Questione di “chimica”

L’informatica quantistica promette di essere all’altezza di risolvere determinati problemi – come le simulazioni chimiche e certi tipi di ottimizzazione – che saranno sempre al di là della portata pratica delle macchine tradizionali. In un recente articolo apparso sulla rivista Nature, il team IBM Q ha aperto la strada ad un nuovo modo di analizzare i problemi in ambito chimico attraverso l’utilizzo di hardware quantistico, in grado di trasformare un giorno, probabilmente, le modalità per scoprire nuovi farmaci e nuovi materiali [un notebook Jupyter che può essere utilizzato per ripetere gli esperimenti che hanno portato a questa chimica quantistica innovativa è disponibile nei tutorial del QISKit.

Sono inoltre previsti tutorial simili per descrivere dettagliatamente l’implementazione di problemi di ottimizzazione come MaxCut e Traveling Salesman sull’hardware quantistico IBM – ndr].


La simulazione del computer a 56 qubit IBM è intenzionata a “rompere la barriera” dei 49-50 qubit (in particolare a dare la sua risposta tecnologica alle dichiarazioni di Google che ha proclamato la “quantum supremacy” annunciando un computer quantistico a 49 qubit entro la fine dell’anno) e un team di fisici e ingegneri ha annunciato pochissimi giorni fa di aver sviluppato un algoritmo in grado di simulare un computer quantistico a 56 qubit.

L’analisi degli scienziati rientra ovviamente nell’alveo della ricerca teorica: si parla di simulazione di un processore quantistico per la quale si ricorre a sistemi computazionali tradizionali. Un aspetto non banale da prendere in seria considerazione anche dal punto di vista delle memorie necessarie a “reggere” le simulazioni. Ogni singolo qubit aggiunto al processore simulato comporta un raddoppio della memoria del processore realmente impiegato per lo studio e la simulazione.

Quello che vantano i ricercatori di IBM è una risposta anche a questo tipo di complessità: gli scienziati sostengono sia possibile simulare 56 qubit utilizzando solo 4.5 terabyte di memoria. Per riuscirci, il team di ricerca ha prima dovuto concentrare gli sforzi sullo studio di un metodo di calcolo più “efficiente”, in particolare puntando a “rompere” la simulazione in processi più piccoli, ognuno dei quali richiede quindi una capacità di memoria inferiore ai petabyte che servirebbero invece per il processo integrale di simulazione.

Come provare un computer quantistico direttamente da casa

Oggi IBM offre a chiunque l’accesso ad un processore quantistico a 5 qubit. Mentre  il gigante della tecnologia lavora ad un computer con decine di qubit, sta mettendo online il suo chip più piccolo: «Vogliamo renderlo accessibile a persone che potrebbero non sapere molto sul quantum computing, ma che sono interessate a conoscere la tecnologia», dice Jerry Chow di IBM Research a New York.

È possibile programmare il chip di IBM utilizzando un servizio web chiamato  Composer, così chiamato perché l’interfaccia assomiglia a una partitura musicale . I tutorial spiegano come trascinare e rilasciare diverse porte logiche quantistiche per creare un algoritmo, che può poi essere eseguito sul chip fisico del laboratorio di IBM  (per accedere al Composer, clicca  qui ).

Le porte quantistiche sono i mattoni elementari per il calcolo quantistico, agendo sui qubit nello stesso modo in cui le porte della logica classica agiscono sui bit per cambiare il loro stato in maniera controllabile. Il Composer è un’interfaccia utente grafica per la programmazione di un processore quantistico. Pensatelo come strumento per costruire algoritmi quantistici usando una libreria di misure e porte ben definite (operazioni che cambiano lo stato del qubit).


Il Composer permette di creare un valore quantico — in senso musicale. In una partitura quantistica, proprio come con la musica, il tempo progredisce da sinistra a destra. Ogni rigo rappresenta un qubit (così come ciò che accade a quel qubit nel tempo). Proprio come per le note musicali, ogni qubit ha una frequenza diversa. Un algoritmo quantistico (circuito) inizia preparando i qubit in stati ben definiti (ad esempio “0” nella figura sottostante), quindi eseguendo una serie di porte a uno e due quadranti in tempo da sinistra a destra.

I dettagli del funzionamento sono ben spiegati in questo servizio pubblicato sul blog della Community  Visionari : “ Quantum computing: prova un computer quantico direttamente da casa “.

D-Wave, il computer quantistico “di Google”

Su cifre di qubit enormemente più elevate si attesta il computer quantistico presentano nel 2013 da Google e dalla NASA, nel Quantum Artificial Intelligence Lab in California, il D-Wave Two, computer quantistico a 512 qubit.

Realizzato in realtà dalla D-Wave Systems di proprietà dell’ex dottorando dell’Università della British Columbia, il quarantenne canadese Geordie Rose (che lavora al computer quantistico già dal 2007), il D-Wave nasce “ufficialmente” nel 2011 come elaboratore a 128 qubit (D-Wave One).

Come funziona il D-Wave Two Il D-Wave Two si presenta come un computer quantistico con un processore a 512 qubit, ognuno dei quali è un circuito superconduttore mantenuto a temperature bassissime (2 o 3 K, -271 Celsius) grazie all’utilizzo dell’elio e ad alcuni dischi di rame che provvedono sia a dissipare il calore sia a schermare il sistema da eventuali interferenze elettromagnetiche; l’interno del D-Wave si presenta come una grande griglia metallica composta da centinaia di piccoli anelli di niobio (un metallo molto elastico).

Quando la temperatura si alza, la corrente può con uguale probabilità girare in senso orario o antiorario: questa indeterminazione viene sfruttata come unità di informazione usata per svolgere i calcoli.

D-Wave 2000Q, il computer quantistico da 2000 qubit Mille volte più veloce del predecessore il D-Wave 2000Q è stato annunciato dalla società canadese all’inizio di quest’anno e si presenta, ancora una volta, come un computer quantistico con un processore da 2000 qubit in grado di effettuare calcoli sfruttando il cosiddetto quantum annealing(come abbiamo spiegato nei paragrafi precedenti, sfruttando l’ottimizzazione combinatoria per eseguire compiti o risolvere problematiche molto specifiche).

Nello specifico caso del D-Wave 2000Q, il processore trasforma un problema da risolvere in una sorta di “mappa”, ossia elabora l’enorme quantità di dati che riceve in input e attraverso sofisticati algoritmi matematici trasforma questi dati in una sorta di “paesaggio”; una mappa che è il risultato di tutte le potenziali soluzioni possibili al problema da risolvere.

Questo “paesaggio di soluzioni” rappresenta uno “stato quantico” che la macchina inizia ad esplorare attraverso il tunneling quantico, l’entanglement e la sovrapposizione, via via escludendo le soluzioni meno probabili/possibili e via via identificando quelle più corrette, fino ad arrivare alla soluzione più idonea.

Solo pochi giorni fa la D-Wave Systems ha anche annunciato nuove funzionalità al sistema, in particolare un sistema di reverse annealing che utilizza potenti algoritmi di ricerca euristica per l’ottimizzazione e l’apprendimento automatico e applicazioni come la sicurezza informatica o la scoperta di farmaci.

Il reverse annealing consente agli utenti di specificare il problema che desiderano risolvere insieme a una soluzione prevista al fine di restringere lo spazio di ricerca per il calcolo. La soluzione prevista può essere il risultato di una precedente computazione – quantistica o classica – o un’ipotesi plausibile.

Molti algoritmi di ottimizzazione e apprendimento automatico sono comunemente descritti come “problemi di grafico”. Ad esempio, i modelli grafici vengono spesso utilizzati per analizzare il flusso di traffico tra le città o la trasmissione di informazioni tra i neuroni in una rete neurale artificiale. D-Wave ha quindi pensato di introdurre una nuova funzionalità per la realizzazione di “grafici virtuali” per migliorare la precisione del sistema, in particolare consentendo il controllo dell’interazione di gruppi di qubit, per modellare un nodo o un collegamento in un grafico complesso consentendo agli utenti di lavorare con modelli di probabilità più complessi.

Gli attacchi al D-Wave: “non è un computer quantistico” Il “processo quantistico” sviluppato da D-Wave porta ad una serie diversificata e complessa di risposte a seconda del “compito” cui è chiamata la macchina. Questa descrizione è drasticamente semplicistica ma necessaria per far comprendere come funziona nella pratica un quantum annealer, oggetto di “attacco” di una parte della comunità scientifici nei confronti della D-Wave Systems, “accusata” di proporre sistemi che non hanno nulla a che vedere con il computer quantistico universale a cui stanno lavorando IBM, Google e molti centri di ricerca.

Il primo a mostrare il suo scetticismo nei confronti del D-Wave è stato Matthias Troyer, docente dell’Università ETH di Zurigo, il quale dopo aver condotto alcuni studi specifici è giunto alla conclusione che, fatta eccezione per un piccolo sottoinsieme di problemi, il computer quantico D-Wave mostra prestazioni paragonabili a quelle di un comune computer con un avanzato processore Intel.

C’è poi una ricerca pubblicata dal professore Umesh Vazirani dell’Università di Berkeley in California dalla quale emergerebbe che il modello computazionale seguito dal sistema D-Wave sia di tipo tradizionale e non basato sui principi della meccanica quantistica.

Altri esponenti della comunità scientifica contestano il fatto che un quantum annealer non possa essere considerato a tutti gli effetti un computer quantistico perché impiegabile solo per specifici problemi verso i quali il sistema viene preventivamente ottimizzato. Al momento, in effetti, il D-Wave si presta ad attività molto specifiche e non al calcolo generico, anche se Google sostiene sia ideale per i suoi studi sull’Intelligenza Computazionale.

Google dichiara la quantum supremacy

Era la metà di luglio di quest’anno quando, in occasione della Conferenza Internazionale sulle Tecnologie Quantistiche (ICQT) di Mosca, John Martinis, fisico pluripremiato responsabile del laboratorio di ricerca quantistica di Google, dichiarò al mondo che Big G «è vicina alla creazione di un computer che sarà in grado di dimostrare la “quantum supremacy”, la superiorità del calcolatore quantistico sui supercomputer tradizionali», lasciando implicitamente intendere che il proclama di supremazia debba essere letto anche nei confronti dell’azienda rispetto ai concorrenti.

Il nuovo chip progettato dal colosso americano sfrutta le leggi della fisica quantistica ed entro l’anno verrà realizzato un nuovo dispositivo per il calcolo computazionale basato sui quanti, in particolare su ben 49 qubit. Questo l’obiettivo dichiarato e più volte confermato dallo stesso Martinis.

Google sta di fatto conducendo esperimenti con un nuovo circuito basato su una griglia di 49 qubit lavorando in particolare al disegno architetturale del chip; gli scienziati sono convinti che la stabilità, la scalabilità e le prestazioni dei qubit dipendano dalla configurazione degli stessi all’interno della ‘griglia’ e dalla conformazione del circuito.

Martinis, infatti, ha già sperimentato, sul chip a 6 qubit, un nuovo sistema di produzione del circuito, separando di fatto la griglia dei qubit dal tradizionale sistema di cablaggio che li controlla (posizionando quest’ultimo su un secondo chip poi saldato al primo).

«L’idea – spiega Martinis – è eliminare le linee di controllo supplementari necessarie in un chip più grande che in realtà possono interferire con la funzione dei qubit». Per ora l’esperimento è dichiarato ‘sulla carta’ ed è dunque di natura ‘accademica’: ammesso che funzioni, resterà da capire come sviluppare chip scalabili e programmabili.

Google sviluppa un nuovo processore per computer quantistici da 72 qubit Tra febbraio e marzo 2018 Google ha lanciato Bristlecone, il suo ultimo processore quantistico con l’obiettivo di fornire ai suoi ricercatori un banco di prova “per la ricerca sui tassi di errore del sistema e sulla scalabilità della tecnologia basata su qubit, così come sulle applicazioni di simulazione quantistica, ottimizzazione e machine learning” (si legge nella nota rilasciata dalla stessa Google.

Uno dei principali problemi che tutti i computer quantistici devono affrontare è il tasso di errore ( riportano in questo articolo alcuni analisti di TechCrunch ). I computer quantistici funzionano tipicamente a temperature estremamente basse (nell’ordine dei millikelvin) e sono schermati dall’ambiente perché i bit quantistici di oggi sono ancora molto instabili e qualsiasi rumore può portare a errori.

Per questo motivo, i qubit dei moderni processori quantistici (le versioni di calcolo quantistico dei bit tradizionali) non sono in realtà dei singoli qubit, ma spesso una combinazione di numerosi bit per contribuire a ridurre i potenziali errori. Un altro fattore limitato in questo momento è che la maggior parte di questi sistemi può conservare il proprio stato solo per meno di 100 microsecondi.

I sistemi che Google ha dimostrato in precedenza mostravano un tasso di errore dell’ 1% per la lettura, dello 0,1% per i single-qubit e dello 0,6% per porte a due-qubit.


Ogni chip Bristlecone è dotato di 72 qubit. L’ assunto generale nel settore è che ci vorranno 49 qubit per raggiungere la supremazia quantistica, ma Google mette in guardia anche che un computer quantistico non è solo formato da qubit (“l’utilizzo di un dispositivo come Bristlecone a basso errore di sistema richiede una perfetta sincronizzazione di tecnologie che vanno dal software e l’elettronica di controllo al processore stesso. Per ottenere questo risultato è necessaria un’attenta progettazione dei sistemi in diverse iterazioni”, dicono dal tema di ricerca di Google).

Il futuro del computer quantistico

A descrivere il futuro – non troppo lontano – del computer quantistico è Christopher Monroe, fisico dell’Università del Maryland e fondatore di IonQ, una start-up che lavora alla realizzazione di un computer quantistico utilizzando il metodo degli ioni intrappolati. Lo fa attraverso le pagine di  Scientific America in un articolo pubblicato lo scorso luglio  dove compara i due metodi ad oggi prevalenti nello sviluppo dei computer quantistici: circuiti superconduttori (come quello alla cui base ci sono i sistemi di IBM Q o quelli di Google) o ioni intrappolati (su cui sta per esempio lavorando Harvard).

Facendo delle comparazioni eseguendo alcuni algoritmi identici su un sistema a ioni intrappolati da 5 qubit  ed un processore superconduttore da 5 qubit, Monroe è giunto alla conclusione che le prestazioni siano simili.

Lo scienziato vede però tra i due sistemi una differenza nel collegamento dei qubit: gli ioni intrappolati sono tutti collegati tra loro tramite forze elettromagnetiche mentre in un circuito superconduttore solo alcuni qubit sono connessi, condizione che potrebbe rallentare il passaggio di informazioni (e quindi qualche errore) tra un qubit e l’altro in processori che contano centinaia o migliaia di qubit.

L’aumento del numero di qubit, in realtà, rappresenta un problema per qualsiasi computer quantistico, indipendentemente dal modello architetturale adottato, perché la criticità maggiore sta nel riuscire a mantenere lo stato quantico per il tempo sufficiente all’operazione di calcolo (tenete presente che parliamo di millisecondi).

«Quanto più un sistema quantistico viene estesa (espanso), quanto meno rimane nello stato quantistico», dice Monroe; significa che quanti più atomi o elettroni vengono raggruppati tanto perdono “potenza” le proprietà quantistiche delle singole particelle lasciando spazio alle regole della fisica classica.

Ad ogni modo, la visione futuristica di Monroe è positiva: secondo lo scienziato potremmo vedere sistemi contenenti alcune migliaia di qubit entro un decennio o poco più. I ricercatori capiranno cosa si potrà essere in grado di fare con computer quantistici di questa portata mano a mano che verranno costruiti.




Top





Sommario

DISCLAIMER. Si ricorda - ai sensi della Legge 7 marzo 2001, n. 62 - che questo sito non ha scopi di lucro, è di sola lettura e non è un "prodotto editoriale diffuso al pubblico con periodicità regolare" : gli aggiornamenti sono effettuati senza scadenze predeterminate. Non può essere in alcun modo ritenuto un periodico ai sensi delle leggi vigenti né una "pubblicazione"  strictu sensu. Alcuni testi e immagini sono reperiti dalla rete : preghiamo gli autori di comunicarci eventuali inesattezze nella citazione delle fonti o irregolarità nel loro  uso.Il contenuto del sito è sotto licenza Creative Commons Attribution 2.5 eccetto dove altrimenti dichiarato.