Les barrières technologiques et physiques des supercalculateurs conventionnels se rapprochent inexorablement. L’alternative et le changement de paradigme proposés par le calcul quantique sont prometteurs. Le domaine évolue très vite, les applications et les cas d’utilisation potentiels se multiplient. Définir et suivre les jalons du développement de l’informatique quantique (matériel et logiciel) est un rôle que Systematic, l’écosystème Deep tech Francilien, remplit avec cette nouvelle édition de sa feuille de route « quantique ».
Ces sujets vous intéressent ? La feuille de route Quantique du Hub Digital Engineering est à votre disposition !
I a
L’évolution des moyens de calcul haute performance suivait jusqu’à quelques années la loi de Moore. Elle stipulait que la puissance de calcul fournie par les ordinateurs doublait tous les 18 à 24 mois grâce en particulier à l’augmentation de la densité des transistors sur une puce. Or cette puissance n’augmente plus que de 4% par an depuis 2015.
Si les meilleures finesses de gravure des puces sont aujourd’hui inférieures à 7 nm, elles ne pourront pas descendre beaucoup plus bas car limitées par les dimensions atomiques (seul 0,3 nm sépare deux atomes dans le cristal de silicium). Pour débloquer ce verrou, des alternatives sont donc recherchées comme la mise en parallèle de processeurs de plus en plus nombreux. Mais ces supercalculateurs, très énergivores, sont eux-mêmes confrontés à d’autres barrières comme la loi d’Amdahl qui limite l’efficacité de la parallélisation.
On a imaginé assez tôt à partir des années 70 que des machines quantiques pourraient améliorer des algorithmes de calcul grâce aux propriétés de superposition et d’intrication, phénomènes clés de la physique quantique. David Shor a démontré en 1994 la réalité théorique d’accélérations véritablement exponentielles avec son algorithme de factorisation. Ce coup de tonnerre a lancé la course au calcul quantique. En 1998, ont suivi les premières expérimentations physiques de qubits (IBM).
Depuis quelques années les premiers processeurs existent et fonctionnent, validant ainsi les concepts de base et permettant d’être confiant pour l’avenir de ces technologies alors qu’ils n’étaient encore que hypothétiques il y a seulement 10 ans. Ces démonstrations restent cependant éloignées de tout usage industriel car les ordinateurs quantiques actuels sont trop limités. La qualité des éléments quantiques (qubits pour quantum bits) n’est pas suffisante pour envisager une exploitation économique.
L’enjeu aujourd’hui, pour tous les acteurs, est de construire le processeur quantique qui permettra d’offrir un gain économique par rapport aux technologies classiques sur un cas d’usage. C’est ce que l’on appelle l’avantage quantique. Cette rupture est envisagée à l’horizon 2023-2024.
Avantage ne veut donc pas dire obligatoirement une accélération exponentielle par rapport à un ordinateur classique, une accélération polynomiale est aussi bonne à prendre. Même à accélération nulle un gain financier et écologique est attendu en raison du gain important en consommation électrique ( >20 MW/h pour une machine exaflopique classique).
a- On distingue 3 volets matériels, comme pour le HPC traditionnel :
- Réseau : essentiellement fondé sur les propriétés quantiques des photons, ce volet est traité dans le hub Optique.
- Stockage : un système de n qubits peut en théorie séparer et stocker 2n éléments d’information, ce qui constitue une forme d’accélération, mais qui repose sur le concept de QRAM, qui n’a pas été expérimenté à ce jour dû à la propriété / difficulté du non clonage de l’information quantique. Encore plus que le calcul, la QRAM souffre des problèmes de stabilité inhérents aux superpositions et intrications forte quantiques. Ce verrou technologique est intégré dans le Hub “Digital Engineering” en veille technologique.
- Calcul : au cœur du Hub “Digital Engineering”, la partie optique du calcul quantique est traitée conjointement avec le hub “Optics & Photonics”.
b- On distingue aussi 2 volets logiciels :
- Couche logiciel, du bas niveau au middleware
- Applicatif : parmi ceux-ci, on peut distinguer une catégorie particulièrement importante, les outils d’émulation, par exemple de type QLM d’Atos (émulateur matériel-agnostique et permettant de tester la robustesse des algorithmes au bruit) ou Perceval de Quandela.
c- Les différentes architectures d’accélération quantique en visibilité aujourd’hui sont les suivantes :
- Calcul quantique adiabatique
- NISQ (Noisy Intermediate Scale Quantum computing), à qubits physiques
– circuits à portes quantiques
– simulation analogique
- LSQ (Large Scale Quantum Computing), à qubits logiques
d- Ces architectures peuvent être émulées par des logiciels classiques ce qui permet de développer des algorithmes quantiques sans disposer encore de QPU :
- QLM (émulateur matériel-agnostique) et myQLM
- Emulateurs propriétaires des fournisseurs de QPU (Perceval, émulateur Pasqal,…)
- Emulateurs Open Source
Les bases matérielles sont défrichées. Les progrès nécessaires (en termes de passage à l’échelle et de stabilité) font l’objet de recherche par le secteur académique grâce aux financements étatiques (PEPR quantique, plateforme nationale de calcul quantique hybride…) ou européens (Quantum Flagship), mais aussi par le secteur privé (Grands groupes américains et européens, écosystème dynamique de Start Ups, notamment françaises). C’est un domaine en pleine ébullition, les créations de start ups se multiplient ainsi que les levées de fonds. Nous assistons aussi à une structuration des efforts au travers des plans quantiques nationaux (Français, Allemand, Finlandais, Hollandais, etc.) et européens (JU EuroHPC, FPA, Horizon Europe, Digital Europe, etc.)
De plus en plus de groupes industriels s’intéressent à l’usage potentiel du calcul quantique, ceci nous amène à des concepts de plateformes de calcul hybrides, étape naturelle de la prise en compte du calcul quantique dans la chaîne de calcul. Les enjeux industriels s’expriment maintenant également en termes d’applications et de développement de logiciels, ce qui inclut les questions de simulation/émulation et contrôle de systèmes quantiques (cf. QLM d’Atos, Perceval de Quandela et Pulser de Pasqal).
Le développement de ces couches logicielles est indispensable à l’exploitation de ces différentes architectures et à la mutualisation d’outils de développement pour ces architectures notamment au travers d’émulateurs capables de fournir une couche agnostique au back-end physique.
Pour
Pour découvrir toute la feuille de route Quantique du Hub Digital Engineering de Systematic, téléchargez-la en un clic ci-dessous !
Pour