La révolution quantique : entre stratégie et adoration !

Bien que toujours à l’état de concept, les propriétés de la physique quantique, permettent d’envisager une puissance de calcul considérable.

Si les défis théoriques et techniques restent considérables avant d’envisager la première réalisation d’un ordinateur fonctionnant avec des Qubits (unités d’informations quantiques), l’ordinateur quantique suscite déjà des intérêts multiples de par le monde. Cédric Villani, Député de l’Essonne, Premier Vice-Président de l’Office parlementaire de l’évaluation des choix scientifiques et techniques (OPECST1) revient sur les grands enjeux de l’ordinateur quantique et dresse une prospective sur l’utilisation future de l’ordinateur quantique et sa cohabitation avec les technologies actuelles.

Par Mélanie Bénard-crozat

Le calcul numérique tient une place de plus en plus importante dans notre société. Actuellement, les supercalculateurs les plus puissants sont de type « pétaflopique » (un million de milliards d’opérations par seconde) et demain « exaflopique » (un milliard de milliards d’opérations par seconde).« À titre dexemple, un supercalculateur pétaflopique exécute une prévision météorologique à 24 heures en 30 minutes alors quil faudrait plus dune année à un ordinateur personnel pour en faire de même. » détaille l’OPECST.

L’ordinateur quantique : la fin de linformatique classique ?

L’ordinateur quantique est basé sur les principes du qubit, unité d’informatique capable d’encoder un grand nombre de valeur à la fois grâce au principe de superposition des états quantiques.

Ainsi, une machine quantique de 10 qubits peut traiter simultanément 210= 1 024 états (contre 10 pour une machine classique disposant de 10 bits). Un ajout de 10 qubits équivaut en conséquence à environ 15 ans d’évolution de machines classiques s’inscrivant dans la loi de Moore. « Mais si les développements technologiques ont pu sappuyer, jusqu’à présent, sur une augmentation exponentielle de la densité de transistors des ordinateurs, grâce à cette loi de Moore, cette dernière arrive à ses limites (palier attendu à l’horizon 2022) ce qui rend nécessaire une rupture technologique. Cest dans ce contexte que lordinateur quantique apparaît comme une solution ambitieuse. » détaille l’OPECST.

L’objectif actuel des différents acteurs du marché, qu’ils soient industriels ou académiques, consiste à créer un ordinateur disposant de plusieurs centaines de qubits, voire de plusieurs milliers, et capable de rivaliser en vitesse et en fiabilité avec les supercalculateurs classiques de pointe qui restent cependant indispensables face à l’accroissement des volumes et des débits de données à traiter, mais également face au développement de simulations numériques toujours plus précises et complexes.

De nombreuses équipes de chercheurs sont constituées à travers le monde et étudient différentes formes de qubits. « Il y a les techniques basées sur les ions piégés, les atomes froids, les supraconducteurs, les semi-conducteurs… » explique Cédric Villani.

Des approches alternatives se mettent également en place. Ainsi, le CEA-Leti (Grenoble) notamment (mais aussi les Néerlandais et les Australiens) explore une approche de réalisation des qubits en utilisant le spin des électrons dans un matériau semi-conducteur, le silicium. Avec des temps de cohérence suffisants pour pouvoir effectuer des calculs, « lusage de silicium permettrait (également) d’adapter les standards actuels de fabrication électronique et microélectronique, afin denvisager une production en série à grande échelle et de positionner la France sur l’échiquier mondial des technologies de qubits. » souligne l’OPECST.

Mais alors que l’enjeu scientifique est d’identifier, à court ou moyen terme, la forme de qubit la plus rentable et qui se prête le mieux à une intégration à grande échelle « il paraitrait important de choisir un standard international permettant une comparaison objective de la qualité des qubits et prenant en compte les spécificités de chaque technologie (27). » précise l’OPECST.

Les acteurs choisissent et investissent en effet dans la technologie qui leur semble la plus prometteuse. Les grands industriels semblent, pour leur part, favoriser, jusqu’à présent, les qubits supraconducteurs mais « bien malin celui qui dira la technique qui l’emportera » modère le Député d’autant que de nombreux défis technologiques restent à surmonter et différentes technologies sont entrées en concurrence. « Une attention devra être portée à leurs développements respectifs, tout en considérant les « effets dannonce » avec prudence. » précise Cédric Villani.

Dans le scénario le plus optimiste, les prochaines années verront donc probablement une cohabitation entre un processeur classique et un processeur quantique. À court terme, plusieurs dizaines de qubits, même imparfaits, pourront être utiles, notamment pour l’accélération de la résolution de problèmes d’optimisation, dont la commercialisation permettra d’engager des cycles vertueux d’investissement, indispensables pour le développement à long terme. « A l’avenir donc, l’ordinateur quantique n’a pas vocation à remplacer l’ordinateur actuel mais à s’y ajouter. » souligne le Député mathématicien.

La programmation quantique

Bien que l’ordinateur quantique n’ait pas encore de réalisation pratique, les chercheurs et certaines entreprises comme Atos travaillent depuis les années 1990 à l’élaboration d’un nouveau langage de programmation fonctionnant sur les propriétés de la physique quantique.

« Le calcul quantique concerne aussi bien le support physique dinformation (les qubits) que les langages de programmation permettant de les manipuler et den optimiser lutilisation. Ces deux domaines, a priori distincts doivent être développés de manière synchronisée. » souligne Cédric Villani. Pour développer la communauté et les recherches, des plateformes ont été mises en place par différents acteurs. Atos a ainsi lancé, par exemple, une plateforme de programmation, la Quantum Learning Machine (QLM), qui simule sur un supercalculateur classique le fonctionnement d’un ordinateur quantique qui aurait une trentaine ou une quarantaine de qubits. « Les domaines de la programmation et de lalgorithmie quantiques ne doivent pas être négligés, notamment afin de déployer pleinement le potentiel de linformatique quantique et de répondre à des applications spécifiques comme des calculs d’optimisation qui trouvent de nombreuses applications allant de la santé et de la chimie (configuration de molécules), à la finance (optimisation de portefeuilles), en passant par la logistique et la gestion de ressources. Des efforts dinvestissement vont devoir être menés dans ce domaine afin danticiper lutilisation de machines quantiques et leur mise en application. » souligne la note de l’OPECST, sans oublier la question majeure de la formation : « il importe en effet de former rapidement des compétences de programmation suivant ces méthodes totalement nouvelles et dont la demande croît rapidement est ».

Même s’il est difficile de prévoir à quelle échéance un ordinateur quantique disposant de plusieurs centaines, voire milliers, de qubits sera disponible, « il reste nécessaire danticiper son arrivée, via lutilisation d’émulateurs quantiques, par exemple. Cette méthode pourra aussi permettre la mise en évidence, par sérendipité, de nouveaux problèmes inaccessibles aux processeurs classiques mais à la portée de registres de qubits. » ajoute Cédric Villani.

L’ordinateur quantique : une menace pour la sécurisation des données ?

La puissance potentielle du calcul de l’ordinateur quantique menace la sécurisation des communications. Des communications, terrestres ou satellitaires, qui tiennent une place centrale dans notre société.

Des outils efficaces ont été mis au point ces dernières décennies afin de sécuriser les données échangées et de se prémunir des attaques. Mais si le chiffrement classique reste particulièrement difficile à résoudre pour les ordinateurs classiques, un ordinateur quantique pourrait réaliser ces opérations en un temps record.

« Pour répondre à cette menace, deux axes principaux et complémentaires se développent : dune part, la cryptographie post-quantique, qui se base sur de nouveaux concepts mathématiques pour chiffrer les protocoles de communication, dautre part, la cryptographie quantique, basée sur les propriétés de la mécanique quantique, à savoir l’intrication et la superposition d’état – qui utilise donc les propriétés de la physique quantique pour sécuriser le transport de l’information. »

L’ordinateur quantique pourrait donc menacer la sécurité du RSA actuel… Mais si d’énormes progrès ont été réalisés, les machines actuelles ne comptent que quelques dizaines de qubits et sont donc loin d’être une menace imminente, puisque, pour utiliser l’algorithme de Shor dans une attaque contre les clefs RSA 1024 ou 2048, il faudrait disposer de plusieurs milliers de qubits.

« Bien qu’il soit impossible de prédire si et quand un ordinateur quantique suffisamment puissant sera disponible pour réaliser des attaques, certains experts estiment quil existe 50 % de chances quau moins une des méthodes de cryptographie existante soit brisée dans les quinze prochaines années. » souligne l’OPECST.

Vers de nouveaux standards de cryptographie post-quantique

Le National Institute of Standards and Technology (NIST) américain a lancé en 2017 un appel à projets mondial pour la définition de nouveaux standards de cryptographie dits « post-quantiques », à la fois pour le chiffrement, la signature numérique et l’échange de clé.

En janvier 2019, une dizaine de chercheurs français ont été retenu. Une ou deux phases supplémentaires sont prévues d’ici 2022 pour déterminer les algorithmes les plus résistants et les nouveaux standards de cryptographie.

De son côté, la Chine a lancé sa propre compétition, officiellement ouverte à tous, mais sur une plateforme rédigée en mandarin, non traduite…

En France, le projet RISQ, labellisé « Grand Défi du numérique » dans le cadre du Programme d’Investissement d’Avenir, ambitionne de regrouper les compétences françaises en cryptographie post-quantique. Il fédère plusieurs acteurs industriels (Thales, Secure-IC, CryptoExperts) et académiques (INRIA, CNRS), afin de donner à la filière cryptographique française un poids dans la définition de nouveaux standards.

L’intrication et la cryptographie quantique

En parallèle de la cryptographie post-quantique, et pour anticiper la nouvelle génération de protection des communications, se développe donc la cryptographie quantique.

De manière très générale, elle permet de générer des clefs, localement ou à distance puis de les utiliser dans des protocoles de chiffrement (symétriques ou asymétriques) classiques, ou à terme, post-quantiques. Concrètement, il s’agit de coder l’information que l’on souhaite échanger sur l’état d’un système physique quantique. La méthode la plus utilisée actuellement utilise la polarisation de la lumière, via les photons, particules vecteurs de lumière.

« La décohérence (45) quantique constitue le principal verrou technologique car elle limite les distances sur lesquelles lintrication peut être maintenue. » souligne Cédric Villani. Toute une R&D se met donc en place pour développer des répéteurs quantiques, qui permettraient de relayer, de façon synchronisée, l’information quantique à deux endroits distants sur la ligne de communication. Les Chinois ont récemment fait la démonstration de transfert d’informations quantiques par ces cryptographies quantiques sur de très longues distances. « Nous ne sommes donc plus dans la science fiction. Cette expérience réalisée par les Chinois offre une alternative aux liaisons quantiques terrestres limitées et ouvre la voie à des communications quantiques à longue distance voire intercontinentales, premières briques d’un éventuel futur réseau Internet quantique ultra-sécurisé. Pour limplémenter à l’échelle mondiale, ce réseau devra être multiforme, c’est-à-dire combiner des liaisons satellites (spatial) et le réseau de fibres optiques déjà existant (terrestre). » détaille Cédric Villani.

Bien que cette menace puisse s’inscrire plutôt à moyen, voire à long terme, ces deux techniques demandent de l’anticipation et des améliorations à la hauteur des enjeux ; notamment la sécurisation quasi-parfaite des données et des communications avec une qualité au moins équivalente à celle d’aujourd’hui. « Ces deux axes demanderont encore des années de R&D, mais cette évolution, inévitable, requiert des choix stratégiques pour les États, dès maintenant. Les différents acteurs doivent anticiper cette transition vers de nouveaux protocoles de chiffrement, notamment pour répondre à des enjeux stratégiques et de souveraineté» conclut Cédric Villani.

Entre intérêts politiques, stratégiques, économiques, et menaces multiples, l’ordinateur quantique fascine et enthousiasme à l’image du PDG d’Atos, Thierry Breton, qui déclarait « La première révolution quantique, menée au début du XXe siècle par de jeunes européens, comme Einstein, Heisenberg, Pauli ou Schrödinger, a donné naissance au fil des années à des inventions majeures, telles que la supraconductivité, le transistor, le laser, les communications par fibre optique, lIRM, le GPS, etc. De nos jours, grâce à notre expertise en supercalculateurs et en cybersécurité, nous nous engageons pleinement dans la seconde révolution quantique qui bouleversera, au cours des prochaines décennies, toutes les activités commerciales de nos clients de la médecine à l’agriculture en passant par la finance et lindustrie. Une véritable aventure collective, humaine et technologique souvre à nous. Ceux qui ont aimé l’évolution du numérique vont adorer la révolution quantique. »

1. L’Office parlementaire de l’évaluation des choix scientifiques et techniques (OPECST) vient de publier trois notes scientifiques sur les technologies quantiques appliquées à l’informatique – sources de cet article : http://www2.assemblee-nationale.fr/15/les-delegations-comite-et-office-parlementaire/office-parlementaire-d-evaluation-des-choix-scientifiques-et-technologiques/(block)/48190