L’informatique quantique vers la maturité ?

Il y a du nouveau sur le front du seul ordinateur quantique commercialement disponible, le très controversé D-Wave. Tout d’abord, la société a sorti un nouveau modèle, le 2000Q qui contient pas moins de 2000 qubits… Et annonce déjà la mise au point d’un prochain système possédant 4000 qubits. Autre nouveauté, D-Wave met en open source un outil pour développer des applications quantiques, Qbsolv. Faut-il croire que l’informatique quantique est en train d’atteindre la maturité ? Les controverses autour de D-Wave, qui durent maintenant depuis des années, sont-elles closes ?

Qu’est ce qu’un ordinateur D-Wave ?



Avant toute chose, rappelons le principe de base d’un ordinateur quantique (on trouvera des explications plus élaborées ici) : alors que les machines classiques reposent sur la notion de bits, qui peuvent être à 0 ou 1, les ordinateurs quantiques utilisent des qubits, des « bits quantiques » susceptibles de prendre à la fois les valeurs de 0 et de 1. Ils sont comme le « chat de Schrödinger« , qui est à la fois mort et vivant. Si les ordinateurs quantiques intéressent tellement les chercheurs, c’est parce qu’ils permettraient des calculs en parallèles extrêmement rapides sur des problèmes où il s’agit de trouver une solution dans un vaste espace de possibilités. En revanche, ils ne seraient pas spécialement plus efficaces quand il s’agit d’exécuter une tâche linéaire.

Pour l’instant (à l’exception de D-Wave, justement) les ordinateurs quantiques appartiennent plutôt au domaine de l’expérimentation.

Les systèmes élaborés par D-Wave reposent sur une technologie particulière nommée le quantum annealing ou, en français, « recuit simulé quantique« . Concrètement, on utilise une série d’aimants arrangés en forme de grille, nous explique Ars Technica. Les champs magnétiques interagissent les uns avec les autres, ce qui oblige les aimants à constamment changer leur orientation. On commence par envoyer beaucoup d’énergie dans le système, entraînant un fort mouvement des aimants, puis, petit à petit, on baisse le niveau d’énergie, jusqu’à ce que la grille atteigne un état stable, qui est censé représenter la solution au problème cherché.

Pendant longtemps, les ordinateurs D-Wave ont suscité l’ironie et la critique. Certains ont même affirmé qu’il ne s’agissait pas d’ordinateurs quantiques du tout. Depuis quelque temps, cependant, les persiflages ont tendance à se montrer plus discrets. Certaines recherches effectuées par Google et la NASA ont en effet montré l’existence de réels effets quantiques au sein des machines et une supériorité réelle des systèmes D-Wave sur les ordinateurs classiques dans certains types de calcul précis. En utilisant un D-Wave hébergé à la NASA et le mettant en compétition avec un ordinateur classique, les chercheurs ont affirmé obtenir un résultat cent millions de fois plus rapide avec le processeur quantique.

Mais même cette expérience a été contestée. En effet certains ont objecté que cette importante différence de temps de traitement était due au fait que la machine traditionnelle n’avait pas utilisé un algorithme optimisé pour sa structure, mais avait au contraire eu recours à un algorithme analogue à celui employé par D-Wave, ce qui bien évidemment privilégiait ce dernier…

Jusqu’ici, comme le souligne Scott Aaronson dans Nature, on a toujours trouvé un algorithme classique capable de traiter plus rapidement un problème donné qu’avec un procédé quantique. Mais aujourd’hui cela a peut-être changé, précise encore Nature : avec le 2000Q, les chercheurs de D-Wave affirment avoir prouvé que leur calcul quantique s’est montré capable d’aller 2600 fois plus vite pour résoudre un problème que n’importe quel algorithme classique actuellement connu. A noter que cette recherche, publiée en janvier dans ArXiv, n’a pas encore été soumise à une évaluation par les pairs.

Pour résumer, il semble bien admis aujourd’hui que D-Wave vend d’authentiques ordinateurs quantiques, sauf que la question de savoir s’ils sont vraiment plus efficaces que leurs équivalents classiques demeure… « Mais cette incertitude, souligne Nature, « n’empêche pas le nombre des utilisateurs d’augmenter. Au mois de septembre plus de 100 scientifiques ont assisté la première conférence D-Wave pour les utilisateurs, qui s’est tenu à Santa Fé, au Nouveau Mexique. »

Et certains commencent à trouver des applications précises. Mark Novotny, physicien à l’université Charles à Prague, travaille par exemple sur les échanges en ligne et la cybersécurité. Selon Nature, son équipe a découvert que les machines D-Wave se montraient plus efficaces pour repérer d’éventuelles attaques. A noter d’ailleurs, souligne la Technology Review, que le nouveau modèle 2000Q a été acquis pour la modique somme de 15 millions de dollars par une société de cybersécurité, Temporal Defense Systems.

Pour autant, la technologie employée par D-Wave possède de véritables limites, même pour les applications de sécurité. Tout d’abord, contrairement à d’autre technologies d’informatique quantique plus expérimentales et non commercialisées, la méthode du « recuit simulé quantique » n’est pas capable d’implémenter tous les types d’algorithmes, notamment les plus connus, ceux de Shor (qui permet de factoriser les grands nombres et donc de « casser » les clés cryptographiques basées sur lesdits grands nombres) et de Grover (qui sert à chercher des informations dans une très large base de données). Autre souci : la limitation de l’interconnexion entre les qubits. Actuellement chaque qubit à l’intérieur de la machine est connecté à 6 voisins. Augmenter le nombre de connexions accélérait grandement la puissance de calcul, et, nous dit Nature, D-Wave est en train de travailler à cela avec son processeur de cinquième génération : ce qui entraînera une refonte complète de l’architecture du système pouvant permettre, à terme, d’atteindre les 10 000 qubits.

Qu’en déduire sur les performances des D-Waves ? Selon Chris Lee d’Ars Technica, l’ordinateur de D-Wave ne sera pas en mesure de résoudre toutes les catégories de problèmes, notamment en raison de la limitation de l’interconnexion. Un constat qui montre que nous sommes donc encore loin d’un calculateur universel. Cependant, poursuit-il « je pense que l’architecture convient à de nombreux problèmes que j’aurais souhaité ne pas voir résolus. En fait, j’aime avoir une connexion sécurisée avec ma banque, et je suis inquiet de voir que le calcul quantique semble être en avance sur les algorithmes de chiffrement. » (Une inquiétude qui m’étonne un peu, puisque, on l’a vu, les D-Wave ne peuvent utiliser l’algorithme de Shor pour casser les clés cryptographiques ; pourquoi donc la connexion sécurisée avec la banque pourrait elle être mise en danger ?)

Le calcul quantique ouvert à tous


La seconde annonce concerne la mise en open source de Qbsolv, un outil permettant aux développeurs de créer leurs programmes pour D-Wave, sans, précise Wired, nécessiter de compétences en physique quantique – ce qui ne signifie pas que QBsolv soit en quelque manière compréhensible pour nous autres non-initiés !

Pourquoi cette mise en open source ? La raison n’en est pas seulement charitable ou idéologique, nous explique SingularityHub. Car si les machines quantiques commencent à exister, reste à savoir les utiliser. Il est nécessaire pour cela de laisser un grand nombre de développeurs jouer avec les programmes pour permettre l’élaboration de nouveaux algorithmes, permettre de nouveaux usages. Bien sûr, pour faire tourner ces nouveaux programmes dans un environnement optimal, il faut louer du temps de calcul sur un D-Wave, mais sinon, il est toujours possible de les exécuter à l’aide d’un simulateur. Ce sera bien sûr bien plus long mais permettra au moins de vérifier que son code fonctionne.

Wired souligne que Qbsolv n’est pas le premier outil du genre, et cite un autre exemple, Qmasm, qui permet également de développer des programmes sur D-Wave sans avoir une connaissance approfondie du hardware (dans InternetActu, nous avons mentionné aussi une série d’outils de développements quantiques ou de simulateurs, tels QCL ou Quipper, mais ces systèmes ne fonctionnent pas avec la technologie D-Wave).

Un autre avantage fourni par l’open source, qui pourrait paraître paradoxal, serait de permettre aussi le perfectionnement des machines, souligne encore SingularityHub. « Ce fait surprenant est dû à la relation symbiotique entre le logiciel et le matériel, une boucle de rétroaction se traduisant par une progression exponentielle des deux. Meilleur est le logiciel, plus grande sera la motivation d’innover sur le matériel. Meilleur est le matériel, plus grande est la motivation d’innover en matière de logiciel « 

La chose est bien sûr vraie pour l’informatique en général, mais peut-être plus encore dans un domaine pionnier comme le calcul quantique : on est en effet un peu au stade des années 50 dans ce domaine, l’époque ou le hard et le soft étaient fortement associés, le temps ou les bugs étaient étaient de véritables cafards qui parasitaient l’intérieur des ordinateurs. Il est encore loin le temps où les progrès du logiciel et ceux du matériel quantiques seront complètement décorrélés. Dans le monde quantique, on est encore comme aux premiers temps de l’informatique traditionnelle !

Rémi Sussan

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *