Fondements et étapes des technologies quantiques

12/05/2018
Auteurs : Marc Leconte
Publication REE REE 2018-2
OAI : oai:www.see.asso.fr:1301:2018-2:22866
contenu protégé  Document accessible sous conditions - vous devez vous connecter ou vous enregistrer pour accéder à ou acquérir ce document.
Prix : 10,00 € TVA 20,0% comprise (8,33 € hors TVA) - Accès libre pour les ayants-droit
 

Résumé

Fondements et étapes des technologies quantiques

Métriques

5
0
1 Mo
 application/pdf
bitcache://f60805f68925712f985159b4ba0742e5353013aa

Licence

Creative Commons Aucune (Tous droits réservés)
<resource  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
                xmlns="http://datacite.org/schema/kernel-4"
                xsi:schemaLocation="http://datacite.org/schema/kernel-4 http://schema.datacite.org/meta/kernel-4/metadata.xsd">
        <identifier identifierType="DOI">10.23723/1301:2018-2/22866</identifier><creators><creator><creatorName>Marc Leconte</creatorName></creator></creators><titles>
            <title>Fondements et étapes des technologies quantiques</title></titles>
        <publisher>SEE</publisher>
        <publicationYear>2018</publicationYear>
        <resourceType resourceTypeGeneral="Text">Text</resourceType><dates>
	    <date dateType="Created">Sat 12 May 2018</date>
	    <date dateType="Updated">Sun 15 Jul 2018</date>
            <date dateType="Submitted">Mon 13 Aug 2018</date>
	</dates>
        <alternateIdentifiers>
	    <alternateIdentifier alternateIdentifierType="bitstream">f60805f68925712f985159b4ba0742e5353013aa</alternateIdentifier>
	</alternateIdentifiers>
        <formats>
	    <format>application/pdf</format>
	</formats>
	<version>37928</version>
        <descriptions>
            <description descriptionType="Abstract"></description>
        </descriptions>
    </resource>
.

40 Z REE N°2/2018 Fondement et étapes des technologies quantiques Les technologies de l’ordinateur quantique et du chiffrement quantique L'ARTICLE INVITÉ MARC LECONTE Membre émérite de la SEE L es théories quantiques ont été formulées dans les années 1930. Elles ont permis à partir des années 60 le fantastique dévelop- pement du laser mais on assiste seulement maintenant à l’émergence d’un ensemble de technolo- gies utilisant ce qui constitue le cœur de la théorie quan- tique : le phénomène d’intrication. Nous verrons en effet dans cet article que les applications de la théorie quantique se sont développées en plusieurs phases. La première phase à la fin des années 50, a vu le dé- veloppement du laser dont l’utilisation a permis la deuxième phase. Nous allons montrer comment certaines propriétés conceptuelles déduites de la théorie, d’expériences de pen- sée et d’expériences réelles sont au cœur de la deuxième révolution des technologies quantiques que nous vivons au- jourd’hui. Le principe de superposition est à la base de l’infor- r r matique et du calcul quantiques cependant que le théorème de Bell, l’intrication sont les fondements des technologies de chiffrement et de téléportation quantiques. La première révolution quantique En 1900, Max Planck propose l’hypothèse, hardie pour l’époque, selon laquelle les échanges d’énergie dans le corps noir s’effectuent de manière discontinue. Il ouvre ainsi, sans trop y croire, la voie à la révolution quantique. Le rayonne- ment du corps noir en effet posait un problème ardu aux physiciens. Le modèle classique permettait de décrire la ré- partition de l’énergie en fonction de la température par l’inté- This article is about the development of quantum techno- logies that emerged after the second quantum revolution. The first revolution was marked by the introduction of the concept of quantum of energy, which made it possible to explain a number of physical problems and gave birth to the laser in the 1960s. The second quantum revolution concerns the superposition of quantum states and entanglement, the validity of which was demonstrated, in the 1980s only, by Alain Aspect’s experiments. From there, we see developing today a set of application researches that will lead to key achievements such as quan- tum computing, quantum cryptography and teleportation. These challenges and the degree of progress of the various technologies are discussed. However, the practical realization of machines capable of operating sets of qubits sufficiently stable to resist the pheno- menon of decoherence remains problematic. Trapped ions, Josephson superconducting junctions and CMOS qubits are among the possible candidates. However, there is still much work to be done, but given the stakes, it is essential that France remains at the forefront of these technologies. ABSTRACT Cet article s’intéresse au développement des technologies quantiques qui ont vu le jour après la deuxième révolution quantique. La première révolution avait été marquée par l’introduction de la notion de quantum d’énergie qui a per- r r mis d’expliquer un certain nombre de problèmes physiques et a donné naissance dans les années 60 au laser. La deu- xième révolution quantique est celle de la superposition des états quantiques et de l’intrication, dont le bien-fondé a été démontré, dans les années 80 seulement, par les expé- riences d’Alain Aspect. Partant de là, on voit aujourd’hui se développer un ensemble de recherches applicatives qui déboucheront sur des réa- lisations essentielles telles que le calcul et l’informatique quantiques, la cryptographie quantique et la téléportation. L’article expose la problématique et le niveau d’avancement de ces différentes technologies. Cependant la réalisation pratique de machines capables d’opérer sur des ensembles de qubits suffisamment stables pour résister au phénomène de décohérence reste problé- matique. Les ions piégés, les jonctions Josephson supracon- ductrices et les qubits en technologie CMOS figurent parmi les candidats possibles. Il reste cependant beaucoup de travail à accomplir mais, compte tenu de leurs enjeux, il est indispensable que la France reste aux avant-postes de ces technologies. RÉSUMÉ REE N°2/2018 Z 41 L'ARTICLE INVITÉ gration de tous les modes possibles d’oscillation du champ électromagnétique en tenant compte des conditions aux limites. La formule en résultant, dite de Rayleigh, prévoyait que le rayonnement émis par le corps noir était proportion- nel à la température absolue et inversement proportionnel au carré de la longueur d’onde. Mais elle montrait une diver- gence vers l’infini pour les fréquences élevées, typiquement dans l’ultraviolet, ce qui était totalement en contradiction avec l’expérience. Ce problème a été appelé la “catastrophe ultraviolette” par le physicien autrichien Paul Ehrenfest. Planck introduisit alors une discrétisation des fréquences des oscillateurs avec un facteur de proportionnalité qui était une constante calculée expérimentalement, dite constante de Planck. Cinq ans après, Albert Einstein reprit l’hypothèse de Planck pour théoriser l’effet photoélectrique qui avait été découvert au XIXe siècle, notamment par Hertz et Lenard. Il postula en 1905, dans l’un de ses cinq articles célèbres, que les électrons d’un métal absorbaient de l’énergie par paquets qui deviendront plus tard les photons. En 1913, Niels Bohr proposa un modèle d’atome qui parvenait à dépasser le modèle d’atome de Rutherford. Ce modèle était comparable à un système planétaire constitué par un noyau autour duquel gravitent un ou plusieurs élec- trons. Or ce modèle ne peut pas être stable car l’électron en orbite rayonne de l’énergie et devrait finir par tomber sur le noyau. En incorporant l’hypothèse de grains d’énergie pro- portionnels à la constante de Planck et à la fréquence, Bohr montra que l’on pouvait bâtir un atome stable et retrouver les raies d’émission des atomes connues jusqu’alors par le modèle numérique qui avait été proposé de façon empirique par Johann Balmer en 1885. A partir de 1926 une nouvelle génération de physiciens élabora une physique plus abstraite mais cette physique posa d’emblée des problèmes d’interprétation qui subsistent en- core aujourd’hui. Une première théorie ondulatoire fut initiée par Louis de Broglie, puis par Erwin Schrödinger, qui semblait permettre de décrire les phénomènes avec une théorie clas- sique des ondes légèrement modifiée par l’introduction de la constante de Planck. Mais les physiciens abandonnèrent cette voie car trop de phénomènes ne pouvaient être décrits par cette théorie ondulatoire, notamment les diffusions après les collisions de particules. Max Born proposa alors une interpré- tation probabiliste de la fonction d’onde qui est à la base de l’équation de Schrödinger. Selon lui, les processus quantiques étaient fondamentalement non déterministes et la probabilité de trouver à un instant donné une particule au voisinage d’une position donnée était proportionnelle au carré du module de la fonction d’onde. Partant de cette idée, avec les travaux de Heisenberg, Jordan, Dirac, Pauli et de quelques autres, émer- gea une nouvelle physique axiomatique au cœur de laquelle se trouve la fonction d’onde, ou vecteur d’état, qui évolue dans le temps dans le cadre de l’équation de Schrödinger, en l’ab- sence de toute mesure. Mais si une mesure est effectuée sur le système considéré, il y a alors réduction du vecteur d’état ou « réduction du paquet d’onde », principe selon lequel, après une mesure, un système physique voit son état entièrement réduit à celui qui a été mesuré. Ce principe de réduction du paquet d’onde pose le problème de la « réalité » dans la mesure où la théorie fait l’hypothèse que ce que nous considérons comme « réalité » possède une infinité théorique d’états tant qu’elle n’est pas «mesurée» ou plus exactement perturbée par une mesure, provoquant ce qui sera appelé plus tard une décohérence quantique. Beaucoup de discussions autour de l’interpréta- tion de la fonction d’onde et de sa réduction, donnant lieu notamment à ce qu’on a appelé l’interprétation de Copen- hague, sont intervenues dans les années suivant sa formu- lation, avec des critiques souvent très pertinentes de physi- ciens historiques dont le plus célèbre fut Einstein. Le principe de superposition Le formalisme de la physique quantique repose sur l’algèbre linéaire des espaces vectoriels et en particulier des espaces de Hilbert1 . La fonction d’onde appartient à cet espace et toute combinaison linéaire de fonctions d’onde appartient au même espace. La conséquence très importante de cette propriété est le principe de superposition quantique illustré par l’expérience des fentes d’Young en mode quantique, c’est-à-dire lorsque la source n’émet qu’un photon à la fois (figure 1). 1 Un espace de Hilbert constitue une extension de l’espace euclidien. C’est un espace vectoriel muni d’un produit scalaire qui permet de mesurer des longueurs et des angles et de définir une orthogonalité. Figure 1 : Le principe de superposition illustré par l’expérience des fentes de Young. Dans cette expérience en mode quantique, les photons émis isolément finissent par constituer une figure d’inter- férence après diffraction par les fentes d’Young, ce qui ne peut être expliqué par la théorie classique mais qui s’interprète en théorie quan- tique en considérant qu’après le passage au travers des fentes, le photon prend un état superposé dans lequel à chaque endroit, il existe une probabilité de le trouver dans l’un ou l’autre des deux états correspondant au passage par l’une ou l’autre des deux fentes. 42 ZREE N°2/2018 L'ARTICLE INVITÉ Selon ce principe, un même état quantique peut possé- der plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement, etc.), chaque état étant représenté par un vecteur dans un espace de Hilbert dont chaque observable correspond à une base donnée. Lors d’une opération de mesure, le vecteur représentant toutes les positions possibles se retrouve projeté sur l’un des vecteurs de la base et est donc mesuré à une observable précise. John Von Neumann s’est demandé comment la super- position pouvait conduire à une mesure unique lors de la réduction du paquet d’onde et a introduit l’idée de traiter les appareils macroscopiques comme des objets quantiques, à partir d’un objet observé puis l’appareil censé le mesurer puis l’appareil mesurant l’appareil de mesure et ainsi de suite. On a appelé cette récurrence infinie la chaîne de Von Neumann dans laquelle il incluait en final la conscience d’un opérateur. Erwin Schrödinger (figure 2) a posé le problème quelques années après, dans des termes qui sont restés célèbres, avec son animal préféré. C’est ainsi que le chat de Schrödinger est apparu dans un article en 1935 décrivant la situation de la physique quantique de l’époque (figure 3). Schrödin- ger imaginait une situation burlesque dans laquelle le sort d’un chat enfermé dans une boîte aux côtés d’une fiole de cyanure, était lié au statut d’une particule radioactive qui au bout d’une heure avait 50 % de chance de se désintégrer en entraînant, après détection et amplification par un marteau, la brisure de la fiole. Lorsque l’heure était écoulée, le chat se trouvait dans un état indéterminé ayant 50 % de chances d’être vivant et 50 % de chances d’être mort. Il serait donc Figure 2 : Erwin Schrödinger – Source : Wikipédia. Figure 3 : Le chat de Schrödinger – Source : 49 Society.com. REE N°2/2018 Z 43 L'ARTICLE INVITÉ dans une superposition d’état vivant et d’état mort jusqu’à ce qu’on ouvre la boîte. Cette situation, appelée paradoxe du chat de Schrödinger, pose le problème du passage du microscopique au macroscopique : comment se fait-il que le monde macroscopique que nous connaissons ne nous appa- raisse pas comme des superpositions d’états ? La décohé- rence que nous évoquerons plus loin, apporte une réponse pratique à cette interrogation. L’intrication En 1935, Albert Einstein, Boris Podolsky et Nathan Rosen (figure 4) publièrent dans la « Physical Review » un article devenu très célèbre sous le nom de paradoxe EPR du nom de ses auteurs. Dans cet article, Einstein tentait une nou- velle fois de montrer l’incomplétude de la physique quan- tique soutenant l’existence de variables cachées que n’aurait pas pris en compte la fonction d’onde. Si, disait-il, il nous est possible, sans perturber aucunement un système, de pré- dire avec certitude la valeur d’une quantité physique, alors il existe une réalité attachée à cette quantité. Pour cela, il proposa avec ses coauteurs une expérience de pensée dans laquelle il faisait interagir deux photons conditionnés de ma- nière à avoir un moment angulaire total égal à zéro (spins anti-corrélés). L’expérience de pensée assez complexe ten- dait à démontrer que la mesure du spin sur l’un des photons permettait de connaître de façon certaine le spin de l’autre photon, quelle que soit la distance séparant les deux photons et sans avoir à opérer de mesure sur le deuxième photon ce qui était contraire à l’hypothèse de Copenhague. Il en résultait, selon Einstein, que les deux photons devaient avoir embarqué des « grandeurs cachées » non prises en compte par la fonction d’onde. Ce qui posait en fait un problème à Einstein n’était pas le caractère indéterministe de la physique quantique mais il pensait qu’elle était incomplète et que le formalisme ne donnait pas une description complète de la réalité car il n’acceptait pas la non-localité induite par le phé- nomène d’intrication. Einstein s’opposait ainsi au principe d’intrication ou d’enche- vêtrement introduit par Erwin Schrödinger dans un article pu- blié en 1935 et appelé en anglais entanglement. Schrödinger soulignait que cette propriété était la caractéristique principale de la physique quantique. Elle impliquait que deux particules décrites par une même fonction d’onde ont des propriétés physiques corrélées, quelle que soit la distance qui les sépare, ce qui semble contredire le principe de localité formulé par Einstein dans sa théorie de la relativité restreinte. Mais selon la théorie de l’intrication, soutenue par Niels Bohr, l’état des deux photons de l’expérience EPR est indé- terminé avant la mesure de la polarisation d’un des photons, et c’est la mesure de la polarisation de l’un des deux photons qui entraîne instantanément une polarisation de l’autre pho- ton perpendiculairement à celle du premier. Les inégalités de Bell Pendant longtemps, le débat sur l’argument EPR et l’in- trication n’a pas retenu l’attention des physiciens. Il a fallu attendre les années 60 pour qu’un physicien écossais, John Stewart Bell, reformule l’argument EPR en énonçant les re- lations mathématiques que doivent respecter les mesures sur des états intriqués dans l’hypothèse d’une théorie déter- ministe locale à variables cachées. Ces relations dites Iné- galités de Bell sont des relations qui doivent être satisfaites lors du produit de variables aléatoires ayant des corrélations classiques issues de leur passé. Le calcul théorique montre en effet qu’il existe des relations mathématiquement néces- saires, pour un ensemble d’hypothèses donné, entre des fonctions de corrélation afférentes aux grandeurs caracté- risant les variables aléatoires corrélées et donc que si ces relations sont violées, il en résulte qu’une des hypothèses au moins est fausse. Figure 4 : Les trois auteurs officiels de l’article de 1935. En fait le texte a été écrit par Boris Podolsky et Einstein a indiqué par la suite qu’il pensait que l’essentiel de l’argument aurait pu être présenté plus simplement. 44 ZREE N°2/2018 L'ARTICLE INVITÉ Le grand intérêt des inégalités de Bell est d’avoir replacé dans un cadre pouvant donner lieu à expérimentation un dé- bat qui avait gardé jusqu’alors un caractère épistémologique voire philosophique. Il revient à Alain Aspect d’avoir dans les années 80 réa- lisé avec son équipe à l’institut d’optique d’Orsay une expé- rience avec des spins d’électron montrant que les inégalités de Bell pouvaient être violées, apportant ainsi une réponse expérimentale au paradoxe EPR en établissant un résultat irréfutable permettant de valider le phénomène d’intrication quantique et l’hypothèse de non-localité. Une partie des phy- siciens ont été surpris par le résultat mais cela ne changeait pas la pratique de la physique quantique dont tout le monde connaissait l’efficacité depuis longtemps. Mais le concept d’intrication, validé par cette expérience, s’est affirmé comme la propriété essentielle à la base de la deuxième révolution des technologies quantiques. Calcul et informatique quantiques Le développement du calcul et de l’informatique quan- tiques remonte à 1982, année où le physicien américain Richard Feynman se pencha sur le problème de la simula- tion numérique de certains systèmes quantiques. Il arriva à la conclusion que les ressources de calcul nécessaires ne laissaient guère d’espoir de succès avec les ordinateurs clas- siques et suggéra la possibilité de mener à bien de telles simulations par des machines faisant intervenir des effets quantiques en particulier le principe de superposition. L’idée du calcul quantique est de baser des calculs numé- riques portant non plus sur des bits classiques qui peuvent prendre les valeurs en binaire 1 ou 0, mais sur des bits quantiques appelés qubits qui sont des systèmes quantiques faisant partie d’un espace d’états à deux dimensions. Les expériences menées sur les polarisations (spins) des pho- tons, comme celles d’Alain Aspect, ont montré que le spin était un support matériel à deux dimensions approprié pour représenter presque idéalement les grandeurs binaires de l’informatique ainsi que des communications de clés de chif- frement. Principe de l’informatique quantique L’ordinateur quantique idéal ou théorique est constitué de registres et de portes qui effectuent des opérations élémen- taires sur les qubits afin de réaliser les étapes d’un algorithme. La superposition des états des qubits fait que, pour N qubits, la dimension du nombre d’états possibles est 2N et c’est ce qui donne toute sa puissance à l’ordinateur quantique. Après une initialisation dans un registre, l’algorithme réalise grâce à des portes quantiques une évolution des états superposés et effectue de temps en temps une mesure (figure 5). En informatique quantique, une porte quantique est un circuit quantique élémentaire opérant sur un petit nombre de qubits. Les portes quantiques sont les briques de base des circuits quantiques, comme le sont les portes logiques clas- siques pour des circuits numériques classiques. Cependant les portes logiques des algorithmes quantiques sont dans la plupart des cas différentes de celles de la logique classique. Les portes agissant sur k qubits sont représentées par des matrices carrées unitaires de dimensions 2k x 2 k et s’applique au vecteur représentant l’état des k qubits. S’il s’agit d’un qu- bit isolé, la matrice est une matrice 2 x 2 (encadré 1). La question se pose de déterminer le type de pro- blème que peut traiter un ordinateur quantique. Quelques usages ont été clairement identifiés : le calcul quantique, de manière naturelle, est très bien adapté au problème à N corps pour trouver la configuration d’une molécule, car il est adapté à la combinatoire des électrons sur les orbi- tales des atomes. Des acteurs, comme IBM ou Microsoft, Figure 5 : Exemple de schéma d’algorithme quantique à trois qubits avec les notations conventionnelles des portes logiques. Voir l’interprétation dans l’encadré 1. REE N°2/2018 Z 45 L'ARTICLE INVITÉ Les portes les plus simples sont celles à un qubit et qui change l’état de celui-ci. C’est le cas de la porte X (ou NOT) qui échange l’état en et l’état en . La matrice correspondante est : avec bien entendu NOTNOT=I Plus compliquée est la porte de Hadamard noté H qui transforme l’état en et l’état en La matrice correspondante est . Cette porte crée une superposition des états. On la trouve en entrée de la plupart des algorithmes. La porte CNOT agit sur deux qubits : un qubit de contrôle et un qubit de données. Elle n’effectue l’opération NOT sur le second qubit que lorsque le premier qubit est et sinon elle le laisse inchangé. Elle est représentée par la matrice : La porte Z laisse l’état inchangé et transforme l’état en – La matrice correspondante est travaillent sur la chimie quantique pour le marché des en- grais qui représente 15 % de la consommation en énergie dans le monde, les gains en rendement peuvent donc être énormes. Google s'intéresse au « machine learning » avec les technologies quantiques. Les grands acteurs ne veulent pas laisser passer une technologie porteuse. Mais les re- cherches d’applications dans d’autres domaines comme la théorie des nombres ont connu une rapide expansion depuis une vingtaine d’années. Les technologies quantiques se déploient sur deux voies différentes, les algorithmes et la technologie des qubits. Les algorithmes quantiques Plusieurs questions se sont posées sur le plan fondamen- tal : quels types d’algorithmes est-il possible de développer et d’utiliser et avec quel gain par rapport aux ordinateurs clas- siques ? Les premiers algorithmes utilisant les principes qu’avait imaginés Richard Feynman ont été proposés peu après 1985. Le problème de David Deutsch Le premier, historiquement, est le problème de David Deutsch2 . Ce chercheur de l’université d’Oxford, publia en 1985 un mémoire théorique important, décrivant un calcu- lateur quantique universel. Peu après, avec Richard Jozsa, David Deutsch proposa un algorithme connu comme l’algo- rithme de Deutsch-Jozsa montrant pour la première fois la supériorité du quantique sur le classique en termes de cycle d’horloge. Le gain obtenu est direct en un coup comme l’af- firme les physiciens et est donc relativement facile à quan- tifier. Les états superposés en entrée permettent de tester 2 Dans le problème de Deutsch, on considère une fonction booléenne f(x1 ,x2 …xn ) prenant des valeurs 0 ou 1, en fonction des arguments x1 ,x2 …xn chacun étant égal à 0 ou 1. Il s’agit de déterminer si la fonction est constante (toujours égale à 0 ou 1) ou équilibrée (en probabilité égale à 0 ou à 1), en faisant des tests sur la valeur de la fonction auprès d’un oracle. Par un algorithme classique, on voit, si f est constante, qu’il faut poser au moins 2n-1 +1 questions à l’oracle pour savoir que la fonction n’est pas équilibrée. Encadré 1 : Quelques portes logiques quantiques classiques apparaissant dans la figure 5. Figure 6 : Schéma de l’algorithme de Deutsch Jozsa – Source : Wikipédia. 46 ZREE N°2/2018 L'ARTICLE INVITÉ simultanément la valeur d’une fonction Uf alors qu’il fallait deux passes pour y parvenir de manière classique. L’algorithme permet de tester si f(0) = f(1) ou à l’inverse si f(0) est différent de f(1). Avec un ordinateur classique, il faut tester les deux valeurs de f (x). Avec cet algorithme, on a la réponse avec une seule mesure en sortie. Si le photon est transmis la fonction est constante, sinon la fonction ne l’est pas et cela sans rien connaître de la fonction. L’algorithme est simple car il utilise peu de portes et c’est la raison pour laquelle il sert de test dans les laboratoires pour valider des systèmes de quelques qubits. L’algorithme de Lov Grover Il permet de trouver de manière efficace un élément dans une base de données non structurée. La base de données comprend N éléments non triés et numérotés. L’objectif est de trouver dans la liste un élément présentant une fonction de discrimination appliquée à un test. Avec un algorithme classique reposant sur les probabilités, il faut en moyenne N/2 tirages pour trouver le bon élément. Lov Grover avec l’algorithme qui porte son nom trouve le bon élément avec tirages. Comme le précédent, cet algorithme sert de test aux différents systèmes de qubits. L’algorithme de Peter Shor L’algorithme de Peter Shor appartient à une autre catégo- rie. En 1994, Peter Shor, chercheur des laboratoires d’ATT, proposa un algorithme quantique susceptible de mettre en échec le code de chiffrement RSA classiquement utilisé dans les technologies Internet. Le chiffrement RSA exploite la très grande difficulté à factoriser un grand nombre entier naturel N en un produit de deux nombres premiers p et q. La com- plexité du meilleur algorithme pour réaliser cette factorisation augmente de manière exponentielle avec la taille du nombre N alors que l’algorithme de Peter Shor est susceptible de résoudre le problème dans un temps dit « polynomial ». Ces travaux ont montré, pour la première fois l’utilité et la supériorité d’un ordinateur quantique dans le domaine très particulier de la factorisation des nombres entiers et plus généralement dans celui de la théorie des nombres. Cepen- dant le résultat ne peut pas être un résultat exact : il donne la réponse correcte avec une haute probabilité et la proba- bilité d’échec peut être diminuée en répétant l’algorithme. Cet algorithme, beaucoup plus complexe que celui de Da- vid Deutsch, a changé de manière décisive le regard porté sur l’informatique quantique qui est passée d’un domaine théorique réservé à une poignée de spécialistes à un sujet de recherche pouvant avoir des implications stratégiques et commerciales en matière de sécurité. L’algorithme de Shor a été mis en œuvre en 2001 par un groupe d’IBM, qui est parvenu à factoriser 15 en 3 et 5, en utilisant un calculateur quantique de 7 qubits. Mais, malgré l’impact de l’algorithme de Shor, il reste d’une certaine manière une exception car rien d’équivalent n’a été proposé depuis. Les technologies de qubits Nous avons vu que le principe de base de l’informatique quantique est la superposition d’états. Or cette superposi- tion d’états est extrêmement sensible à l’environnement et à toute interaction avec le milieu. Pour maintenir un qubit, il faut éviter à tout prix une réduction du paquet d’onde ou décohérence qui fait disparaître les propriétés initiales de su- perposition par intrication. La décohérence en pratique inter- vient très rapidement et est fonction du nombre de degrés de liberté et cette rapidité explique que le monde macros- copique ne montre pas les superpositions quantiques qui existent au niveau microscopique. Pour obtenir des qubits, il est nécessaire de les confiner dans des dispositifs physiques dans lesquels la maîtrise de l’environnement extérieur est cruciale. La réalisation physique des qubits est donc le défi fondamental de l’informatique quantique. Des confi- nements de photons dans des boîtes ont été réalisés à partir des années 90 dans des conditions de laboratoire et il existe aujourd’hui différentes stratégies pour obtenir des qubits. Les qubits de laboratoire Les physiciens peuvent, avec un appareillage complexe et encombrant, maintenir pendant des temps substantiels des Figure 7 : Schéma de l’algorithme de Shor (partie quantique) – Source : Wikipedia. REE N°2/2018 Z 47 L'ARTICLE INVITÉ photons ou des ions dans des états superposés. Les spins des ensembles de résonance magnétique sont cohérents et très stables mais ne peuvent convenir car il n’est pas possible de les initialiser ni d’effectuer une lecture. En optique quantique, les photons sont cohérents mais ils interagissent peu et il est difficile de mettre au point des portes logiques entre photons. Une stratégie a été proposée qui consiste à mettre toute la ressource dans l’état initial et seules des opérations linéaires sont faites et les sources utilisées sont à un seul photon. Les ions piégés La plate-forme la plus avancée est basée sur des ions pié- gés. Plusieurs laboratoires travaillent sur ce type de qubits, Rainer Blatt à Innsbruck, David Wineland à Boulder et Chris Monroe à l’université du Maryland. Les ions sont confinés dans un piège électrostatique et forment une chaîne dont chaque ion est contrôlé par laser (figure 8). Dans les expériences d’ions piégés, chacun d’entre eux est suspendu à l’aide de champs électriques, les états 0 et 1 pouvant correspondre à l’orienta- tion de leur spin. Le refroidissement par laser diminue l’énergie cinétique des ions par absorption de photons et cela contribue à immobiliser les ions dans le piège. Les ions se trouvant dans une enceinte à vide, ils sont isolés de l’environnement et leurs répulsion électrique entre eux est susceptible de créer une intrication. Les portes logiques sont réalisées par des transi- tions Raman. Ce sont des dispositifs lourds et compliqués mais ils ont l’avantage de fonctionner à température normale et ce sont des dispositifs isolés de l’environnement, ce qui est un facteur fondamental pour éviter la perte de cohérence. Au cours des dernières années, les différents laboratoires ont réalisé des expériences qui montrent la possibilité de réaliser des calculs quantiques en exécutant des algorithmes simples avec des calculateurs allant jusqu’à huit qubits. Les projets dans les années à venir portent sur une cinquantaine de qubits. Il sera peut être possible de répartir les pièges sur des structures comme sur la figure 9. Figure 8 : En appliquant une tension aux pôles du piège linéaire, il est possible de maintenir pendant des jours une cohorte linéaire d’ions piégés (représentés en rouge dans la photo et également dans l’insert). Chaque ion est un qubit que des faisceaux laser peuvent manipuler. Leur valeur se lit par un écran CCD (visible sur la photo) en fonction de présence ou non de fluorescence – Source : Rainer Blatt & al. (Innsbruck Universität). Figure 9 : Vue d’artiste montrant comment, à partir d’un piège à ion classique, peut se concevoir la duplication des ions piégés en vue de réaliser des portes à plusieurs qubits – Source : Quantum Optics and Spectroscopy (Innsbruck Universität). 48 ZREE N°2/2018 L'ARTICLE INVITÉ Les supraconducteurs Dans les années 90, les physiciens ont découvert que les supraconducteurs pouvaient servir de support à des qubits. Des expériences ont montré le comportement quantique du composant supraconducteur le plus simple : la jonction Josephson3 . Constituée de deux électrodes supraconduc- trices séparées par un mince isolant électrique, la jonction 3 On rappelle que l’effet Josephson se manifeste par l’apparition d’un cou- rant entre deux matériaux supraconducteurs séparés par une couche faite d’un matériau isolant ou métallique non supraconducteur. Bien que les paires de Cooper ne puissent pas exister dans un isolant ou un métal non supraconducteur, si la couche qui sépare les deux supraconducteurs est suffisamment mince, elles peuvent la traverser par effet tunnel et garder leur cohérence de phase. C’est la persistance de cette cohérence de phase qui donne lieu à l’effet Josephson. Josephson (figure 10) est la brique de base d’une famille de circuits quantiques qui se comportent comme des atomes artificiels utilisables comme qubits. C’est un système à un degré de liberté et la différence de phase supraconductrice entre les deux côtés de la jonction constitue deux variables conjuguées fonction du nombre de paires qui traversent la jonction. La grande facilité de duplica- tion de composants identiques sur une même puce permet d’envisager la conception d’un processeur. Un circuit à deux qubits développé en 2011 a été testé avec l’algorithme de Grover au CEA (figure 11). La contrainte majeure de ces qubits est que la supracon- ductivité nécessite des températures proches du zéro absolu et la qualité des opérations d’écriture et de lecture, limitées Figure 10 : Schéma d’une jonction Josephson et, à droite, les variables conjuguées e et N constituant les états superposés du qubit. Figure 11 : Réalisation d’un système supportant l’algorithme de Grover. Le schéma de principe est en haut et le circuit est en bas de la figure. REE N°2/2018 Z 49 L'ARTICLE INVITÉ par la décohérence, n’atteint pas la qualité des systèmes à ions piégés. Les qubits en technologie CMOS La microélectronique a offert le premier qubit obtenu par des techniques industrielles à partir de deux transistors couplés en technologie CMOS. Un seul électron est mani- pulé par un champ électrique et cela a permis d’observer des oscillations de Rabi.4 Un circuit a été développé par un 4 Les oscillations de Rabi sont des oscillations dans l’occupation des états d’un système à deux niveaux excité à une fréquence proche de la réso- nance. Ce phénomène se produit notamment lorsqu’un champ électrique extérieur agit sur les transitions d’un système quantique – atome ou molé- cule – d’un état électronique de ce système à un autre. Il permet de prépa- rer des superpositions d’état dans les recherches actuelles sur l’information quantique. équipe du LETI de Grenoble (figure 12). C’est une solution de microélectronique très prometteuse. Le problème des corrections d’erreurs La décohérence est l’ennemi de l’ordinateur quantique. En pratique le processus dépend du nombre d’objets (photons, électrons ou ions) et plus ils sont nombreux plus la décohé- rence est rapide. Face à ce phénomène, diverses stratégies ont été adoptées par les chercheurs. La première stratégie consiste à fabriquer des qubits « meilleurs », permettant de construire des systèmes phy- siques capables de porter des qubits sur lesquels on pourra opérer avec des portes logiques pendant une période suf- fisamment longue. L’idée centrale est donc de trouver le moyen d’isoler suffisamment longtemps ces qubits du bruit, par exemple thermique, généré par l’environnement. On Figure 12 : Qubit en technologie CMOS – (a) Schéma simplifié à trois dimensions du qubit à deux portes, gate 1 et gate 2. (b) Vue colorisée d’une image prise au microscope électronique après fabrication du composant. (c) Vue colorisée du composant selon une section longitudinale (barre d’échelle = 50 nm) – Source : R. Maurand & al. – A CMOS silicon qubit. Université Grenoble Alpes (2016). 50 ZREE N°2/2018 L'ARTICLE INVITÉ essaye donc de faire en sorte qu’il soit possible de profiter au maximum de l’effet de calcul en parallèle rendu possible par la superposition quantique des états sur un grand nombre de qubits. Parmi les voies de recherche prometteuses, on peut citer celles notées ci-dessus des pièges à ions, ainsi que celle des circuits supraconducteurs. Cette stratégie est générale- ment suivie par les laboratoires de physique. Une autre stratégie consiste à transposer dans le domaine de l’information quantique les codes correcteurs d’erreurs bien connus dans le cadre de la théorie de l’information classique. Ces techniques de codage sont basées sur la redondance qui permet de détecter et de corriger des erreurs dans un mes- sage transmis. Mais en physique quantique, il est impossible de dupliquer un état quantique : c’est le théorème de non- clonage et la correction d’erreur basée sur la redondance n’est donc pas possible. L’idée est alors d’intriquer chaque qubit avec plusieurs autres, de sorte qu’il soit possible de détecter des erreurs lors d’un traitement de l’information et d’y remédier. Une méthode de correction étudiée est celle des codes de surface, réseau bidimensionnel, avec des qubits de données et de contrôle, des mesures étant effectuées en permanence pour détecter la présence d’erreurs. Mais le surcoût en nombre de qubits physiques est très important et peut atteindre 1 000 voire 10 000 qubits logiques. Les grands acteurs comme IBM ou Google adoptent cependant cette stratégie. Des résultats intéressants ont été publiés portant sur l’utilisation, à tempéra- ture ambiante, de qubits portés par des centres colorés azote- lacune (Nv) dans le diamant. Cryptographie par distribution de clés quantiques Contrairement à ce que pourrait laisser croire sa dénomi- nation, la cryptographie quantique ne code pas de manière quantique les messages. C’est une méthode qui concerne uniquement la transmission entre deux personnes de clés de chiffrement par l’intermédiaire de protocoles quantiques mais l’utilisation des clés une fois transmises reste classique. Le but est de transmettre la clé sans risque d’interception. En fait l’utilisation des techniques quantiques va assurer aux utilisateurs une sécurité parfaite car ils seront informés de toute interception de la clé par un tiers. Il existe aujourd’hui deux protocoles de transmission de clé quantique, le BB84 et EPR. Dans le présent numéro de la REE, le lecteur trouvera un encadré sur le protocole BB84 dans le Flash info « Réussite de l’expérimentation de clé quantique par satellite ». Le protocole EPR Le protocole EPR proposé par Artur Ekert (1991) est une variation du BB84 basée sur l’utilisation du paradoxe EPR. C’est un protocole qui est une application des propriétés citées plus haut d’intrication et de corrélations de type EPR. Ici le proto- cole est symétrique et Alice et Bob reçoivent tous deux des particules issues de paires intriquées émises par une source commune. Alice et Bob appliquent de façon aléatoire, chacun de leur côté, une parmi trois mesures convenues sur les qubits reçus. Comme dans la BB84, ils se révèlent mutuellement les choix de base effectués mais pas les résultats. Chacun parti- tionne ses résultats en deux catégories : l’une correspondant aux mesures identiques, l’autre aux mesures différentes qui permet de vérifier une violation des inégalités de Bell. Toute intervention, à supposer qu’elle ait eu lieu, se traduirait par une moindre violation des inégalités de Bell. La clé issue de ces opérations est totalement aléatoire et ni Alice ni Bob ne peuvent imposer la suite qui constitue la clé alors qu’Alice pouvait éventuellement la choisir dans le BB84. Ce protocole est cependant plus sûr car si une intru- sion est effectuée par une mesure, elle a pour conséquence de réduire l’état de la paire intriquée ce qui peut être immé- diatement détecté par Alice et Bob. La téléportation Le concept de téléportation est issu lui aussi des expéri- mentations EPR de non-localité quantique. Ce n’est pas une particule matérielle qui est téléportée mais un état et l’idée est d’utiliser les corrélations de deux particules intriquées dans un état défini pour téléporter à distance l’état d’une troisième particule. Une source de particules intriquées émet deux par- ticules (B et C), l’une vers Alice et l’autre vers Bob (figure 13). Alice reçoit également une particule A dans un état qu’elle ne connaît pas et fait une mesure de cette particule et de celle de B issue de la paire envoyée par la source EPR de particules intriquées. Les particules A et B sont définitivement pertur- bées par la mesure mais Alice communique par voie publique le détail de l’opération (scan) à Bob qui à son tour exécute la même opération sur la particule C ce qui lui permet de transférer cette particule dans le même état que la particule A initialement fournie à Alice. La téléportation a été essayée en champ libre par Anton Zeilinger en 1997 et expérimentée Figure 13 : Principes de la téléportation quantique. REE N°2/2018 Z 51 L'ARTICLE INVITÉ récemment dans l’espace par les Chinois qui ont battu des records de distance (voir Flash info dans ce numéro de la REE). Les technologies quantiques en Europe et en France La France est assez bien placée dans le domaine des technologies quantiques. Les figures 14 et 15 identifient les acteurs du domaine respectivement en région parisienne et dans le reste de la France. Conclusion La révolution des technologies quantiques était en germe dès le début de la physique quantique, dans les années 30. Les propriétés de l’intrication et les caractères de non loca- Figure 14 : Centres de recherche dans le domaine quantique en Île de France. Figure 15 : Centres de technologies quantiques en France. 52 Z REE N°2/2018 L'ARTICLE INVITÉ lité intriguaient et il y avait parmi les fondateurs, allant de Dirac à Einstein en passant par Bohr, de nombreuses diver- r r gences d’interprétation de la théorie. L’attitude de la majo- rité des praticiens était positiviste, la théorie « marchait » et était confortée par des résultats expérimentaux. A partir des années 60, avec les progrès des lasers qui permettaient de réaliser des expériences au niveau des électrons et des pho- tons, les expériences de pensée imaginées dans les années 30 ont pu être testées. L’expérience d’Alain Aspect validant la physique quantique par la démonstra- tion de la violation des inégalités de John Bell a constitué une étape fondamentale. Le chiffrement puis le calcul quantique sont apparus comme possibles et une deuxième étape fondamentale est interve- nue avec l’algorithme de Peter Shor qui a véritablement lancé la course à l’ordinateur quantique. Beaucoup de physiciens qui étaient sceptiques dans les années 90, avouent aujourd’hui qu’ils n’auraient jamais imaginé les systèmes de qubits qui sont dévelop- pés aujourd’hui. Beaucoup de techniques existent mais aucune n’est parfaite. Les ions piégés sont les techniques les plus avancées mais certaines autres sont très prometteuses comme la microélectro- nique avec le double transistor CMOS. Peter Shor, encore lui, a montré qu’il était possible d’utiliser des codes correcteurs au prix d’une augmentation du nombre de qubits et l’avenir se situe probable- ment dans cette voie. Il y aura peut être également d’autres découvertes du côté des algorithmes avec les recherches actuelles en intelligence artificielle. Les technologies quantiques sont donc bien un domaine en pleine expansion comme le montre le nombre de centres de recherche qui consacrent leurs études à ce su- jet dans le monde. Il est essentiel que la France, qui possède des équipes solides dans ce domaine, préserve ses positons. Bibliographie s-ERMIN . $AVID ET /LIVIER !LIBART Calculs et algorithmes quantiques: méthodes et exemples. EDP sciences (2010). s&RANCK,ALOÑ Comprenons-nous vraiment la mécanique quantique ? 2e édition, révisée et augmentée. EDP sciences (2018). s -ICHEL ,E "ELLAC Le monde quantique. EDP sciences (2012). s $OSSIER POUR LA SCIENCE
,E MONDE quantique n°68, juillet-septembre (2010) s 0RÏSENTATIONS Dg%LISABETH 'IACOBINO ET Daniel Estève à la journée Technologies quantiques organisée par la F2S le 11 janvier 2018. s 2%%
 PP
 ,ANCEMENTPARLA Chine d’un satellite quantique. s 2-AURANDAL!#MOS3ILICONSPINQUBIT Nature Communications, volume 7, Article n° 13575 (2016). Remerciements L’auteur remercie Jean-Pierre Hauet, rédacteur en chef de la REE, pour sa re- lecture attentive et ses contributions à la mise au point de cet article. Q Marc Leconte est ancien secrétaire du club RSSR de la SEE (radars, sonars et systèmes radioé- lectriques), membre du comité de rédaction de la REE, membre émérite SEE et médaillé Ampère. Au sein de Dassault Electronique il a passé une quinzaine d’années à l’étude, au développement et aux essais en vol du radar RDI du Mirage 2000. Ensuite pendant trois ans, il a participé à l’étude d’un démonstrateur laser franco-britan- nique CLARA. A partir de 1995, il a élargi son activité aux domaines des études concurrentielles et stratégiques dans les domaines des radars aéroportés et de la guerre électronique. Il a exercé les mêmes activités dans la division aéronau- tique de Thales après la fusion de Dassault Electronique et de Thomson-CSF. A partir des années 90 et en parallèle, il s’est intéressé à l’histoire des sciences et des tech- niques et a publié plusieurs articles s’y rapportant.