Qualche giorno fa, sul sito della Nasa è apparsa una comunicazione di Google, in cui l’azienda presentava i risultati del suo computer quantistico, una macchina in grado di eseguire calcoli finora considerati impossibili.
Dopo poche ore è scomparso, ma nel testo, rilasciato dal dipartimento di Ricerca, Big G scriveva di aver raggiunto la “Quantum supremacy”, la supremazia quantica sui computer tradizionali: l’esempio portato era stato quello di effettuare in 3 minuti e 20 secondi i calcoli che un supercomputer classico esegue in 10mila anni.
Ovviamente queste affermazioni, di cui peraltro non è stato possibile verificare l’esattezza, va considerata come il frutto di una sperimentazione che è ancora molto lontana dal momento in cui il Quantum Computing potrà diventare una tecnologia operabile normalmente, anche se limitata solo ad alcuni ambiti specifici.
Il comunicato pubblicato “per errore” sarebbe stato un lavoro sperimentale che non aveva ancora superato la peer review necessaria per la sua asseverazione.
I Quantum Computer come è noto, lavorano con i qubit, capaci di assumere più valori contemporaneamente, al posto del tradizionale 0-1 dei bit. Per questo un computer quantistico ha “margini di potenza” estremamente più alti di un PC tradizionale. E vanta consumi ridotti di un fattore diecimila/centomila volte: si parla di decine di chilowatt invece di alcuni megawatt.
Ma attenzione: il Quantum Computing, in teoria non garantisce solo una velocità infinitamente maggiore di un computer tradizionale (quantum adventage) per risolvere gli stessi problemi, ma soprattutto la capacità di risolvere insolubili (in tempi compatibile con la vita umana) per l’altra tecnologia (quantum supremacy).
A giudicare la brevissima notizia apparsa sulla Nasa, e registrata dal New York Times prima che scomparisse, questo obiettivo sarebbe stato raggiunto dai Google AI Lab.
Vi è tuttavia un aspetto per così dire “concorrenziale” da considerare: cinque giorni fa l’IBM, il principale concorrente statunitense di Google nel settore, ha rilasciato la notizia che un computer quantistico da 53 qubit troverà posto nel nuovo Quantum Computation Center che IBM inaugurerà presto nello stato di New York. Un’unità dalla potenza esponenzialmente superiore rispetto a quella ora gestita da Big Blue (20 qubit), che a partire da ottobre verrà messa a disposizione a livello commerciale all’interno del Q Network, una rete di ricercatori, aziende, università, che hanno cominciato a costruire quantum computer letteralmente “dalla teoria alla pratica”. Dai Q Network si è sviluppato un ecosistema, l’IBM Q Ecosytem, con il primo quantum computer in cloud, del quale fanno parte oltre 85.000 utenti in tutti i continenti, con oltre 1.500 università aderenti,e 300 istituzioni pubbliche e private.
Google, da parte sua, sta sviluppando un quantum computer da 72 qubit, denominato Bristlecone, (benché la notizia trapelata sia relativa a un più vecchio computer da 53 qubit) di cui in passato aveva anticipato, con un comunicato, che “anche se nessuno ha ancora raggiunto questo obiettivo, calcoliamo che la supremazia quantistica possa essere facilmente dimostrata con 49 qubit, una profondità del circuito superiore a 40 e un errore con due qubit inferiore allo 0,5%. Riteniamo che la dimostrazione sperimentale di un processore quantistico che supera in prestazioni un supercomputer costituirebbe uno spartiacque per il nostro settore e rimane uno dei nostri obiettivi chiave”.
Perché la corsa verso il Quantum Computing porta con sé importanti implicazioni commerciali, non solo sbalorditivi record di laboratorio.
Lo scorso giugno, a Milano, uno dei massimi esperti mondiali di quantum computer, Bob Sutor, Vice President IBM Q Strategy and Ecosystem, aveva delineato queste possibili applicazioni, indicando tre comparti in cui avrebbero potuto avere il massimo sviluppo. Innanzitutto la chimica, nelle suoi tre declinazioni: della scienza dei materiali, dell’oil&gas, e della ricerca farmaceutica; per lo sviluppo di nuovi materiali o compositi ma anche per il miglioramento dell’impatto e dell’efficienza dei processi. In secondo luogo l’Intelligenza Artificiale. In questo caso Sutor aveva indicato due differenti approcci possibili: per velocizzare alcune operazioni e per sviluppare nuovi algoritmi. Ultimo, ma non meno importante, è il Fintech, per comprendere ad esempio i profili di rischio, oppure quali reti di cause ed effetti possono influenzare i portafogli finanziari.
Tutti ambiti molto competitivi, dove arrivare primi può fare la differenza…