Intervention de Philippe CHOMAZ

Réunion du jeudi 21 octobre 2021 à 9h30
Office parlementaire d'évaluation des choix scientifiques et technologiques

Philippe CHOMAZ, directeur scientifique du CEA :

. ‑ En introduction, je voudrais souligner que nous devons savoir de quelles « ruptures » nous parlons et quelles sont les promesses du quantique, et maîtriser le verrou de la décohérence.

Cette rupture du quantique « 2.0 » provient du fait que des avancées scientifiques et technologiques permettent de maîtriser les objets quantiques individuellement et de travailler dans l'espace gigantesque des états quantiques, d'atteindre des propriétés et d'obtenir des capacités nouvelles et ultimes. Les promesses sont extraordinaires, avec une sensibilité extrême des capteurs, des communications inviolables et des calculs massivement parallèles. Il est en effet possible de calculer dans l'espace des états quantiques en atteignant des dimensions de calcul gigantesques et de résoudre des problèmes insolubles autrement. J'insiste sur un verrou en particulier, celui de la décohérence, c'est-à-dire la perte de notre maîtrise des objets quantiques, de notre capacité à rester dans l'espace des états quantiques, ce qui obligerait à revenir dans une physique classique et à un ordinateur classique. Maîtriser ce verrou de la décohérence conditionne la capacité à rester dans l'espace des états quantiques.

Le CEA aborde cette question avec un biais : il est l'un des acteurs français et européens de la microélectronique et possède des capacités importantes en matière de puces électroniques ; il oriente donc ses recherches sur les systèmes à l'état solide et travaille sur des puces quantiques. Lorsque j'évoquerai les projets d'équipement de nos centres de calcul avec nos partenaires (universités, CEA, Inria, Genci), il sera question de l'ordinateur Pasqal. Nous faisons du développement hardware et nous avons conscience, dans les applications et les centres de calcul, que d'autres sont plus avancés et nous souhaitons les soutenir et faciliter ce déploiement. Le CEA limite donc ses travaux aux systèmes à l'état solide.

Pour aborder le verrou de la maîtrise de la décohérence, deux voies sont aujourd'hui identifiées à l'international. La première voie s'appuie sur la théorie de la correction des erreurs. Si on laisse un système quantique à deux états (qubit) évoluer seul, il perdra rapidement sa capacité à exister simultanément dans ces deux états, c'est-à-dire qu'il sortira de l'espace des états et ne sera plus quantique. Pour maîtriser la décohérence de cet unique qubit, il est nécessaire de corriger les erreurs. Or, pour faire un calcul quantique, il faut combiner plusieurs systèmes à deux niveaux pour obtenir des états quantiques à 2n valeurs, n étant le nombre de qubits créés. Pour maîtriser la décohérence du système global, il faut donc coupler un très grand nombre de qubits (on appelle ceci un code de surface, qui est une sorte de calcul de correction des erreurs quantiques) : il faut en fait des milliers de qubits physiques pour obtenir un qubit logique. Il est nécessaire de passer à l'échelle et nous estimons que la technologie du silicium – pour laquelle le record de nombre de transistors sur une puce avoisine 50 milliards – permet d'aller vers un très grand nombre de transistors quantiques de qubits, et qu'elle est donc un pari intéressant pour obtenir des puces dotées d'un très grand nombre de qubits couplés pour faire de la correction d'erreur et maîtriser la décohérence. Le CEA travaille avec le CNRS, les universités et l'Inria sur cette première voie.

La deuxième voie est alternative en ce qu'elle cherche à s'appuyer sur de nouveaux concepts de qubits robustes et intrinsèquement protégés d'un certain nombre de sources de décohérence. Ces dernières années, la start-up Alice et Bob s'est par exemple appuyée sur des avancées académiques portant sur des « qubits de chat ». D'autres qubits sont protégés par des propriétés topologiques du système ou par des symétries. Des systèmes hybrides permettent de coupler des qubits issus du spin du noyau, très protégés, avec des qubits qui feront les calculs – à cet égard, un article récent de Physical Review Letters évoque le calcul dans la mémoire quantique.

Le CEA explore donc deux voies : les recherches sur le silicium pour aller vers un très grand nombre de qubits et corriger les erreurs, et les voies alternatives relevant de la physique de l'état solide qui ouvrent vers de nouveaux concepts et paradigmes, en travaillant au plus près des fondements physiques de la cohérence quantique.

Cette stratégie fait écho au PEPR quantique qui, pour sa partie calcul, distingue deux grands projets : un projet dénommé Presquile adossé à tous les développements sur le silicium, domaine qui s'appuie également sur un financement du Conseil européen de la recherche par le mécanisme « ERC Synergy Grants », obtenu par les centres CEA et CNRS de Grenoble, et sur un projet Flagship ; un projet PEPR dénommé RobustSuperQ sur les puces supraconductrices, avec la volonté d'équiper Grenoble et Saclay en capacité de fabrication et de travailler avec l'ensemble des acteurs de ces voies alternatives (Alice & Bob et d'autres encore).

En dernier lieu, dans le cadre du consortium européen HPC-QS et du programme « Grand Défi NISQ » sur le calcul, nous commençons à préparer la communauté du calcul haute performance (HPC) – qui possède des centres de calcul structurés aux niveaux français et européen – à l'équipement de ses centres avec des ressources de calcul quantique. Les premiers concernés sont les centres français de Bruyères-le-Châtel et allemand de Jülich, avec une machine Pasqal qui fonctionnera en analogique et peut-être ensuite, nous l'espérons, avec un système de portes. Cette première ressource quantique sera mise à disposition de nos communautés avec deux objectifs : être en capacité de maîtriser toute la chaîne jusqu'à l'utilisateur ; être en capacité d'attirer de nouveaux utilisateurs, notamment le CERN, qui a lancé un programme d'utilisation de ressources quantiques, et les théoriciens français qui travaillent autour du problème à N-corps quantique non seulement en chimie mais aussi en physique nucléaire. On voit en effet à l'étranger que les chercheurs qui font des développements de calcul de chimie quantique utilisent des approches ab initio de résolution du problème à N-corps issu de la physique nucléaire qui ont été développées dans les toutes dernières années.

Aucun commentaire n'a encore été formulé sur cette intervention.

Cette législature étant désormais achevée, les commentaires sont désactivés.
Vous pouvez commenter les travaux des nouveaux députés sur le NosDéputés.fr de la législature en cours.