Così SEEQC punta al computer quantistico completamente basato su chip
L’approccio dell’azienda intende superare i problemi di scalabilità e di consumi energetici elevati delle attuali piattaforme.
Sebbene il quantum computing sia uscito da tempo dai laboratori accademici, così come da tempo ha iniziato a prendere forma anche come offerta commerciale, la strada per realizzare su scala industriale quantum computer generalisti in grado di affrontare qualsiasi tipologia di applicazione digitale è ancora molto lontana.
Questo lo stato dell’arte odierno su una tecnologia di cui oggi si sente sempre più parlare, ma che pochi hanno effettivamente compreso, tracciato in una recente conferenza per la stampa italiana organizzata da SEEQC (acronimo di Scalable energy efficient quantum computing). L’azienda USA presente anche a Londra e a Napoli realizza piattaforme di elaborazione quantistica complete – full stack- per quelle organizzazioni che chiedono un quantum computer dedicato alle loro esigenze oppure anche solo della componentistica specializzata.
Le competenze di SEEQC vanno quindi dalla progettazione di processori quantistici (conosciuti anche con la sigla QPU), alla loro produzione, grazie alla fonderia per circuiti superconduttivi presente nel quartier generale SEEQC nello stato di New York, ma anche allo sviluppo e all’integrazione del firmware, dell’interfaccia grafica, dell’infrastruttura cloud e degli algoritmi applicativi richiesti dai clienti. “Grazie alle nostre competenze sui superconduttori e alla nostra fonderia, che oggi è la più grande e la più avanzata al mondo per questo tipo di tecnologia, siamo in grado di costruire i primi quantum computer al mondo completamente basati su chip”, dichiara John Levy, cofondatore e CEO di SEEQC (nella foto in alto).
Le sfide in campo
Per iniziare a impostare in chiave commerciale l’avvenire dei quantum computer le sfide da vincere sono oggi soprattutto due: la scalabilità e l’efficienza energetica; come indicato nel nome stesso di SEEQC.
I quantum computer odierni sono architetture hardware molto complesse: uno dei sistemi oggi più importanti – il Sycomore di Google – è costituito da 53 qubit fisici, e ogni qubit richiede un numero di cavi elevato e un elevato numero di dispositivi a contorno per il raffreddamento, per la correzione degli errori e altro ancora. “Pensare di costruire con questo modello un quantum computer realizzato, per esempio, da 1.000 qubit, significa moltiplicare enormemente la complessità e le dimensioni dello spazio necessario per ospitare il nuovo sistema e tutti gli apparati a supporto: servirebbe un quantum data center da 7.200 metri quadrati. A questo poi si aggiunge tutta la problematica del consumo energetico legato anche alla tematica del raffreddamento”, spiega Marco Arzeo, ricercatore e lab manager del laboratorio SEEQC-EU presso l’Università Federico II di Napoli.
Per l’azienda quindi la sfida della scalabilità si vince ‘colassando’ in un chip tutta questa complessità: “L’obiettivo più immediato a cui stiamo lavorando è quello di ottenere un processore quantistico che al suo interno integri 5 qubit insieme a tutta la parte di elettronica digitale superconduttiva necessaria per il controllo e la lettura dei qubit e che sia inoltre compatibile con un coprocessore matematico CMOS”, dichiara Arzeo.
La sfida collegata alla dissipazione di calore e all’efficienza energetica delle QPU viene invece affrontata utilizzando all’interno dei chip elementi superconduttivi, come il niobio e l’ossido di alluminio, e facendo lavorare il computer quantistico a una temperatura di 10 millikelvin, ovvero vicino allo zero assoluto (-273 gradi centigradi), utilizzando a questo scopo una miscela per il raffreddamento di elio-3 o elio-4. “I benefici in termini di consumi energetici di un computer quantistico interamente basato su chip sono evidenti – tiene a sottolineare Arzeo. Si passa da consumi di decine di MW a qualche decina di KW. Tutta la gestione della lettura e la scrittura dell’informazione è fatta in maniera digitale utilizzando elettronica superconduttiva, energeticamente efficiente e completamente integrata con la parte quantum”.
Computer quantistici per applicazioni specifiche
“L’obiettivo di un quantum computer generalista fault tolerant con correzione automatica degli errori e totalmente scalabile si potrà raggiungere tra diversi anni. Tutti gli operatori del settore, anche i big player che offrono sul mercato dei servizi di quantum computing, sono consapevoli di questo. Per noi concentrare oggi tutte le risorse per raggiungere esclusivamente questo obiettivo non è realistico né economicamente giustificabile; dobbiamo essere umili e procedere un passo alla volta – afferma Levy. Quello che possiamo fare oggi è concentrarsi su delle problematiche specifiche, semplificarle e ridurle al livello più piccolo possibile, progettare quindi l’algoritmo quantistico che può affrontarle e, di conseguenza, integrarlo in un quantum computer specifico costruito per affrontare quel determinato problema”. Il tempo dirà se questo sarà l’approccio vincente al mercato del quantum computing e nei prossimi tempi vedremo se player come Google, Amazon, Microsoft, Intel e IBM seguiranno invece altre strade.
Per l’oggi si può dire, facendo un parallelo storico con gli Anni ’60, che il mercato del quantum computing è totalmente ‘taylor-made’, come all’epoca dei primi mainframe, quando si realizzavano dei sistemi specifici dotati ognuno di un suo sistema operativo e di un suo linguaggio di sviluppo… Il mercato ha dovuto aspettare diversi anni perché l’evoluzione della tecnologia portasse a una logica di standardizzazione e quindi al rilascio di sistemi in grado di svolgere compiti diversificati.
“I quantum computer oggi non nascono per essere più piccoli o più potenti dei computer a logica booleana tradizionali, ma per fare cose nuove che attualmente sono impossibili. Si pensi per esempio al fatto che per elaborare la molecola della penicillina è necessaria una matematica in grado di affrontare numeri di più di 80 cifre, una cosa impossibile da fare oggi, e nei prossimi anni, anche dal computer tradizionale più potente; mentre questo tema è affrontabile da un quantum computer”, dichiara Arzeo.
Per questo motivo oggi il mercato del quantum computing in generale risulta essere molto ristretto: entità governative, programmi di ricerca istituzionali ad hoc, come quelli finanziati dall’europeo Horizon 2020, università, centri di ricerca, ma si stanno anche muovendo le prime industrie private in diversi settori, tra cui anche quelle farmaceutiche, come Merck che ha investito in SEEQC e collabora attivamente con la società. Mentre tra gli attuali clienti della fonderia di chip superconduttivi l’azienda cita: l’italiano INFN, il Fermilab, la NASA, l’US Department of Energy e IBM; diverse università americane ed europee tra cui anche Tor Vergata di Roma.
“Le applicazioni dei quantum computer vanno dalle simulazioni di molecole per studiare nuovi farmaci e vaccini all’ottimizzazione, per esempio, in ambito finanziario e nei processi ingegneristici, allo studio dei materiali, dei sistemi e dei fenomeni fisici complessi, riguardano poi anche la crittografia e la cybersicurezza… Ma un domani potremmo affrontare anche temi che oggi non riusciamo a immaginare. Più saranno complesse queste applicazioni e più sarà necessario integrare centinaia e poi migliaia, di qubit in un quantum computer”, dichiara Levy.
Il ruolo di Napoli e dell’Italia
SEEQC è nata nel 2017 come divisione interna focalizzata sul tema del quantum computing di Hypres azienda che realizza chip basati su superconduttori, mentre ha iniziato a operare come società autonoma dal 2019. La collaborazione con l’Università Federico II di Napoli nasce però già prima del 2017, poiché all’epoca questa era già tra le realtà accademiche più avanzate in Europa per la ricerca nei circuiti superconduttivi. Oggi SEEQC è presente a Napoli con un laboratorio di sua proprietà all’interno dell’università dove, racconta Arzeo: “Diverse pietre miliari negli sviluppi sono state raggiunte. Qui abbiamo fatto la prima misurazione di un qubit e poi di un gate a due qubit, mentre attualmente stiamo lavorando sulla capacità di lettura di uno stato di un qubit realizzata completamente in digitale, con tempi estremamente veloci e latenze minime”.
Il laboratorio è aperto alla collaborazione con l’esterno, vengono spesso ospitati studenti e ricercatori di diverse università e centri di ricerca italiani e stranieri: “Il laboratorio di Napoli è entrato a far parte dell’ecosistema quantistico europeo. È l’unico operativo in Italia per il testing e la validazione dei quantum bit. Vogliamo che l’Italia possa giocare un ruolo di primo piano, da protagonista nella partita del quantum computing”, dichiara Arzeo. Un ruolo per Napoli e per l’Italia nel quantum computing certamente non banale che auspichiamo si possa rafforzare nei prossimi anni.