Informatique quantique : cherchez l’erreur !

Les mois qui précèdent ont été très fructueux pour le domaine de l’informatique quantique et chaque jour de nouveaux progrès sont relatés par la presse spécialisée. On a appris fin 2017 que Microsoft proposait son propre langage de programmation quantique (dont les résultats sont simulés sur un PC classique), Q#, qui rejoint ainsi les nombreux autres systèmes déjà présents sur le marché. Mais, peut-être plus important, Intel a annoncé en ce début 2018 avoir mis au point un ordinateur quantique de 49 qubits. IBM a de son côté annoncé en novembre 2017 la mise au point d’une machine comportant 50 qubits.

50 qubits, c’est un chiffre important pour la communauté de chercheurs impliqués dans le développement de ces nouvelles machines : c’est en effet le stade où un tel ordinateur atteindrait la suprématie quantique, c’est-à-dire la capacité d’effectuer certains calculs impossibles à réaliser en un temps raisonnable par un ordinateur classique.

Mais tout est-il rose dans le domaine de l’informatique quantique ? Pas encore, car il reste un certain nombre de problèmes à résoudre, sur lesquels se penchent notamment un long article de Philip Ball pour Quanta Magazine (une revue en ligne consacrée aux mathématiques) mais aussi un papier du physicien John Preskill publié en janvier 2018.

Car le nombre de qubits ne résout pas tout : un des principaux défis qui se posent aux concepteurs reste la gestion et la correction des erreurs.

Comment corriger sans mesurer ?


Nous avons déjà expliqué dans nos colonnes la théorie qui fonde l’informatique quantique. Pour comprendre ce qui va suivre, il faut juste savoir que cette technologie repose sur deux piliers. La capacité d’un qubit d’être en état de superposition, et donc de prendre plusieurs valeurs à la fois, mais aussi – et c’est cette faculté qui va nous intéresser ici – la capacité de ces qubits d’être dans un état d’intrication, c’est-à-dire de se trouver corrélés les uns aux autres. Preskill explique bien dans son papier ce que signifie un tel état d’intrication. Lorsqu’on lit un livre de 100 pages explique-t-il, à chaque fois qu’on lit une page, on acquiert 1 % de la connaissance incluse dans l’ouvrage. Mais ce n’est pas le cas si ce livre est un « livre quantique ». Dans ce cas, chaque page est totalement incompréhensible. C’est la manière dont les pages sont reliées entre elles qui recèle de l’information. Pour comprendre de quoi parle le texte, il faudrait lire plusieurs pages d’un coup.

Non seulement cet état d’intrication est de plus en plus difficile à maintenir au fur et à mesure que les qubits sont plus nombreux, mais de plus, il est sujet à de multiples fluctuations (du « bruit ») et peut donc générer des erreurs de calcul.

Comme l’explique Philip Ball, le gros problème avec l’informatique quantique, c’est que chaque fois qu’on « mesure » un qubit, celui-ci perd sa capacité à prendre plusieurs valeurs et à rester intriqué : il entre dans un état de « décohérence » et prend alors une unique valeur classique de 1 ou 0. Le calcul quantique est alors terminé. Comment dans ces conditions pouvoir repérer et corriger une erreur ? Un tel processus implique forcément une « mesure » !

Il existe, continue-t-il, plusieurs méthodes pour effectuer cette correction d’erreur, mais elles impliquent un coût computationnel considérable.
« Un schéma ingénieux consiste à regarder indirectement, en couplant le qubit à un autre qubit «esclave» qui ne participe pas au calcul, mais qui peut être examiné sans écraser l’état du qubit principal lui-même. C’est cependant compliqué à mettre en place. De telles solutions signifient que, pour construire un véritable « qubit logique » sur lequel le calcul avec correction d’erreurs peut être effectué, vous avez besoin de nombreux qubits physiques. »

Le nombre varie selon les experts, continue Ball, de l’estimation pessimiste envisageant 10 000 qubits nécessaires pour créer un seul de ces « qubits logiques », selon Alán Aspuru-Guzik de Harvard, à celle plus optimiste de Jens Eisert de l’université libre de Berlin, qui pronostique plutôt 800 qubits. Mais même dans ce cas, c’est un nombre qui ne peut être atteint avec la technologie actuelle.

Il existe d’autres techniques. Comme celle développée par IBM, qui consiste à calculer le taux d’erreurs possible et extrapoler ce que serait le résultat d’une computation sans erreurs. Autre possibilité, utiliser comme hardware certains matériaux moins sujets aux fluctuations que d’autres.


Image : L’informatique quantique de Dilbert, par Scott Adams.

Bienvenue dans l’ère NISQ


Dans son long papier, John Preskill se pose lui aussi la question de cette correction d’erreurs. Preskill est un physicien théoricien qui le premier a énoncé le concept de suprématie quantique. Nous entrons selon lui dans l’ère de la technologie NISQ, acronyme pour Noisy Intermediate-ScaleQuantum, autrement dit , une informatique quantique « bruitée » et intermédiaire. Intermédiaire, parce que les machines dont nous disposerons dans les prochaines années tourneront seulement avec entre 50 et 100 qubits. Bruitée, à cause précisément de ces fluctuations susceptibles de générer des erreurs. Preskill pense, pour les mêmes raisons que Philip Ball, que la correction d’erreurs ne sera pas disponible dans un futur proche. Il suggère des solutions moins onéreuses, comme par exemple recommencer plusieurs fois la même simulation pour approcher un résultat optimal.

Mais pour lui, il faudra s’adapter aux imprécisions des ordinateurs quantiques pendant encore plusieurs années. « Nous ne devrions pas nous attendre à ce que la NISQ change le monde par elle-même ; à la place, elle devrait être considérée comme un pas vers des technologies quantiques plus puissantes que nous développerons à l’avenir. Je pense que les ordinateurs quantiques auront par la suite des effets transformateurs sur la société, mais cela peut prendre encore des décennies. Nous ne savons pas exactement combien de temps cela pourra prendre. »

Quelles seront les technologies qui profiteront des machines NISQ ? Qu’en sera-t-il d’un « deep learning » quantique, par exemple ? Là encore, il faut adopter une attitude wait and see : « Il se pourrait que les réseaux de deep learning quantique présentent des avantages par rapport aux systèmes classiques ; par exemple, ils pourraient être plus faciles à entraîner pour certains buts. Mais nous ne le savons pas vraiment – c’est une autre occasion d’essayer et de voir comment cela fonctionne. »

Il imagine également des systèmes de recommandation quantique. Ceux-ci se montreraient en effet bien plus rapides pour gérer l’explosion combinatoire propre à ces technologies. Mais rien ne prouve, pour l’instant, qu’ils seront véritablement supérieurs à des algorithmes classiques. Et surtout, « là aussi, cet algorithme est probablement trop coûteux pour être validé au cours de l’ère NISQ. »

Preskill se pose aussi la question de futurs jeux quantiques : « Les physiciens disent souvent que le monde quantique est contre-intuitif parce qu’il est si étranger à l’expérience ordinaire. C’est vrai aujourd’hui, mais cela pourrait-il être différent à l’avenir ? Peut-être que les enfants qui grandiront en jouant à des jeux quantiques acquerront une compréhension viscérale des phénomènes quantiques qui manquent à notre génération. En outre, les jeux quantiques pourraient s’avérer une opportunité pour expérimenter les méthodes de machine learning quantique, ce qui permettrait d’améliorer le gameplay dans des situations où l’intrication quantique possède un rôle essentiel ».

Mais qu’on n’aille pas penser que Preskill soit fondamentalement pessimiste quant aux possibilités de l’informatique quantique, bien au contraire : « J’ai adopté une position prudente dans mes remarques, parce que je pense que nous devrions affronter les débuts de l’ère NISQ avec des attentes réalistes. Mais s’il vous plaît, ne vous méprenez pas – comme beaucoup d’entre vous, j’attends avec impatience les découvertes qui accompagneront l’ère NISQ au cours des prochaines années »

Preskill est avant tout un physicien théoricien. Ce qui l’intéresse, le plus, ce ne sont pas des applications traditionnelles, mais la capacité des ordinateurs quantiques à simuler le monde quantique lui-même.

« Pour un physicien comme moi, ce qui est vraiment excitant à propos de l’informatique quantique, c’est que nous avons de bonnes raisons de croire qu’un ordinateur quantique serait capable de simuler efficacement les processus qui se produisent dans la nature. Ce n’est pas vrai pour les systèmes numériques classiques (c’est-à-dire non quantiques) qui ne peuvent pas simuler des systèmes quantiques fortement intriqués. Avec les ordinateurs quantiques, nous devrions être en mesure de sonder plus profondément les propriétés des molécules complexes des matériaux exotiques, mais aussi d’explorer de nouvelles voies de la physique fondamentale, par exemple en simulant les propriétés des particules élémentaires, ou le comportement quantique d’un trou noir, ou l’évolution de l’univers juste après le Big Bang. « 

C’est certainement plus important que l’élaboration de nouveaux systèmes de recommandation !

Rémi Sussan

MAJ : A compléter par une critique de la possibilité de réduction du bruit dans l’informatique quantique.

À lire aussi sur internetactu.net