Nous sommes sur le point de franchir la limite de la “suprématie quantique” en informatique

La 4e conférence internationale sur les technologies quantiques, qui s’est tenue à Moscou le mois dernier, était censée mettre en avant Google, qui s’apprêtait à donner une conférence sur un ordinateur quantique de 49 qubits en préparation.

Le matin, Mikhail Lukin, de l’université de Harvard, a toutefois devancé l’événement de la soirée en annonçant lui-même une petite nouvelle : son équipe de chercheurs américains et russes a testé avec succès un dispositif de 51 qubits, posant ainsi un jalon dans la course à la suprématie quantique.

Les ordinateurs quantiques sont considérés comme faisant partie de la prochaine génération de technologies révolutionnaires ; des dispositifs qui utilisent les états “intermédiaires” étranges des particules quantiques pour accélérer la puissance de traitement des machines numériques.

La vérité est à la fois fascinante et décevante. Il est peu probable que nous jouions à Grand Theft Auto VR8K-3000 sur une Playstation 7 à soupe quantique dans un avenir proche. Désolé, les amis.

L’informatique quantique ne consiste pas seulement à échanger un type de puce contre un autre plus rapide.

Ce qu’il fait, c’est nous donner un troisième type de bit là où les ordinateurs classiques n’en ont que deux. Dans l’informatique quantique, nous appliquons la superposition quantique – cet étrange nuage de “peut-être” qu’une particule occupe avant que nous observions son existence cimentée dans l’un des deux états différents – à la résolution de problèmes de calcul très complexes.

Alors que ce type de problèmes est un processus long et fastidieux qui met à l’épreuve même nos meilleurs superordinateurs, le mélange de 1, de 0 et d’espace supplémentaire entre les “qubits” d’un ordinateur quantique peut rendre des exercices tels que la simulation de systèmes quantiques dans des molécules ou la factorisation de nombres premiers beaucoup plus faciles à résoudre.

Cela ne veut pas dire que l’informatique quantique ne pourra jamais être un complément utile pour votre ordinateur personnel. Mais pour commencer à rêver de ces possibilités, il faut d’abord résoudre un certain nombre de problèmes.

L’un d’eux consiste à faire passer une poignée de qubits de moins de 20 à quelque chose qui puisse commencer à rivaliser avec nos meilleurs superordinateurs classiques pour les tâches les plus délicates.

Ce nombre ? Une cinquantaine de qubits, un chiffre que l’on qualifie souvent de suprématie quantique en des termes plutôt élogieux.

Le dispositif de Harvard était basé sur un réseau d’atomes de rubidium surfondu maintenus dans un piège d’aimants et de “pinces” laser, qui ont ensuite été excités de manière à ce que leurs états quantiques puissent être utilisés comme un seul système.

Les chercheurs sont parvenus à contrôler 51 de ces atomes piégés de telle sorte qu’ils ont pu modéliser une mécanique quantique assez complexe, ce qui est bien hors de portée de votre ordinateur de bureau quotidien.

Bien que la modélisation ait surtout servi à tester les limites de ce type d’installation, les chercheurs ont obtenu des informations utiles sur la dynamique quantique associée à ce que l’on appelle les phénomènes à corps multiples

Heureusement, ils ont été en mesure de tester leurs découvertes relativement simples à l’aide d’ordinateurs classiques et ont constaté que leur technique était tout à fait appropriée.

La recherche est actuellement sur le site de pré-publication arXiv.com, en attente d’un examen par les pairs. Mais cette annonce a certainement fait réfléchir la communauté de l’informatique quantique sur les possibilités et les conséquences de l’atteinte de telles limites.

Le nombre magique de 50 qubits ressemble davantage à un horizon relatif qu’à un véritable point de repère. L’annonce de Harvard n’a pas changé grand-chose dans le monde de l’informatique quantique, et il reste encore beaucoup de chemin à parcourir avant que ce type de technologie ne soit utile pour faire des découvertes significatives.

Le projet de Google pour un dispositif de 49 qubits utilise un processus complètement différent de celui de Lukin, en s’appuyant sur des puces quantiques à qubits multiples qui utilisent une structure supraconductrice à l’état solide appelée jonction Josephson.

Ils ont prouvé leur technologie avec une version plus simple de 9 qubits et prévoient d’atteindre progressivement leur objectif.

Sans entrer dans les détails, chacune de ces technologies a ses avantages et ses inconvénients en matière de mise à l’échelle et de fiabilité.

L’un des problèmes majeurs de l’informatique quantique sera de rendre le système aussi fiable et exempt d’erreurs que possible. Alors que l’informatique classique permet de dupliquer les processus pour réduire le risque d’erreur, la nature probabiliste des qubits rend cela impossible pour les calculs quantiques.

Il y a aussi la question de savoir comment connecter un certain nombre d’unités ensemble pour former des processeurs toujours plus grands.

Personne ne sait quelles méthodes répondront le mieux à ces préoccupations à long terme

“Plusieurs plates-formes sont très prometteuses, et elles entrent toutes dans le régime où il devient intéressant, vous savez, des tailles de système que vous ne pouvez pas simuler avec des ordinateurs classiques”, a déclaré Lukin à Himanshu Goenka de l’International Business Times.

“Mais je pense qu’il est bien prématuré de désigner un vainqueur parmi eux. De plus, si nous pensons à des échelles vraiment grandes, des centaines de milliers de qubits, des systèmes qui seront nécessaires pour certains algorithmes, pour être honnête, je pense que personne ne sait comment y aller.”

Ce n’est qu’un petit pas sur la route des cent mille qubits, mais cela ne rend pas le passage de cette étape moins significatif.

Joyeux 51e anniversaire, Harvard !