16 febbraio 2021

Un nuovo modello di intelligenza artificiale sviluppato su un computer quantistico. Uno studio coordinato da Enrico Prati pubblicato su Advanced Quantum Technologies

Un nuovo modello di intelligenza artificiale sviluppato su un computer quantistico. È il risultato di uno studio, coordinato dall'Istituto di fotonica e nanotecnologie del Consiglio nazionale delle ricerche (Cnr-Ifn) di Milano, pubblicato (come storia di copertina) sull’ultimo numero della rivista Advanced Quantum Technologies.

Nel 2016 alla NASA era stata sperimentata su un computer quantistico una particolare famiglia di reti neurali chiamate macchine di Boltzmann. In quel caso per rappresentare ciascun neurone artificiale era stato utilizzato un solo qubit. Ma cosa è il quit? Il bit tradizionale, l’unità di informazione del calcolatore classico, può assumere i valori 0 e 1. Nel computer quantistico invece, proprio grazie alle proprietà della fisica quantistica, si utilizza il qubit, il quale può assumere più valori contemporaneamente e questo permette di effettuare più calcoli e diverse operazioni in maniera parallela e con più velocità rispetto ai computer tradizionali. 

Il gruppo di ricerca di Enrico Prati invece è riuscito a raggruppare più qubit per mezzo di una tecnica denominata embedding. E il qubit virtuale così originato eredita le connessioni di quelli che lo compongono, facendo incrementare enormemente la connettività del computer quantistico risultante.

Per capire bene cosa è successo nel laboratorio del CNR Linguaggio Macchina ha intervistato Enrico Prati.

Avete ottenuto questo risultato utilizzando un computer della società canadese D-Wave da 2.048 qubit. Per i lettori e le lettrici del blog Linguaggio Macchina possiamo spiegare cosa significa, materialmente, programmare un computer come questo?

«A differenza dei computer desktop, un computer quantistico a superconduttori è molto voluminoso - qualche metro cubo - perché include tutto l'impianto di raffreddamento che contiene il chip, che invece è di dimensioni del centimetro. Non occorre trovarsi materialmente davanti a questo computer per usarlo, e quindi lo si usa da remoto mediante un accesso che richiede autenticazione. All'atto pratico le chiamate al processore quantistico avvengono tramite un programma in un linguaggio standard ampliato da librerie che fanno la chiamata al computer quantistico.»

Il vostro lavoro con l'intelligenza artificiale ha anche lo scopo di orientare e migliorare i metodi di apprendimento delle reti neurali artificiali. In questa ricerca in particolare avete utilizzato un approccio semantico e con la tecnica del reverse annealing. In che cosa consiste?

«Il computer quantistico adiabatico come il DWave consente di essere utilizzato per generare una distribuzione di probabilità. Questa caratteristica risulta naturale per certi algoritmi, come l'algoritmo di Netflix basato sulla cosiddetta macchina di Boltzmann. Nei primi esperimenti, si era pensato di sfruttare solo questa caratteristica e poi svolgere il calcolo senza ulteriori ottimizzazioni, iniziando il training da stati casuali. Con a tecnica del reverse annealing si può partire da stati iniziali a immagine di elementi validi del dataset, in modo da sfruttare l'informazione fino dall'inizio, con maggiore analogia rispetto al caso noto per i computer convenzionali.»

Per vedere i risultati delle vostre ricerche pubblicati su Advanced Quantum Technologies in quanti avete lavorato e con quali competenze?

«Il lavoro è nato dalla tesi magistrale di Lorenzo Rocutto, all'epoca studente dell'Università Milano Bicocca, che ha trasformato l'idea di partenza in realtà, ed è stato sviluppato con la collaborazione del Professor Claudio Destri dell'Università Milano Bicocca, uno dei maggiori fisici teorici italiani, che ha accettato la sfida di applicare la sua conoscenza a un tema emergente come questo. Devo però dare merito al Quantum Team, l'eterogeneo e dinamico gruppo di giovani collaboratori che coordino, di aver continuamente supportato con critiche, idee, e discussioni il progresso di questo lavoro.» 

Prossimi passi?

«Questo algoritmo si presta a molte varianti matematiche e a molte applicazioni, che vanno dalla quantum security alla quantum finance, all'imaging. Quello che è certo è che le aziende hanno capito che il momento di muoversi è ora, e che la sperimentazione è il primo passo verso l'utilizzo.»

Andrea Mameli, blog Linguaggio Macchina, 16 Febbraio 2021

Lorenzo Rocutto, Claudio Destri, Enrico Prati
Advanced Quantum Technologies. First published: 14 December 2020
https://doi.org/10.1002/qute.202000133

Abstract - Restricted Boltzmann machines (RBMs) constitute a class of neural networks for unsupervised learning with applications ranging from pattern classification to quantum state reconstruction. Despite the potential representative power, the diffusion of RBMs is quite limited since their training process proves to be hard. The advent of commercial adiabatic quantum computers (AQCs) raised the expectation that the implementations of RBMs on such quantum devices can increase the training speed with respect to conventional hardware. Here, the feasibility of a complete RBM on AQCs is demonstrated, thanks to an embedding that associates the nodes of the neural networks to virtual qubits. A semantic quantum search is implemented thanks to a reverse annealing schedule. Such an approach exploits more information from the training data, mimicking the behavior of the classical Gibbs sampling algorithm. The semantic training is shown to quickly raise the sampling probability of a subset of the set of the configurations. Even without a proper optimization of the annealing schedule, the RBM semantically trained achieves good scores on reconstruction tasks. The development of such techniques paves the way toward the establishment of a quantum advantage of adiabatic quantum computers, especially given the foreseen improvement of such hardware.

Nessun commento: