Les Editions Jean Paul Bayol
Contact
Publications
annexes
   

Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire


L’ordinateur quantique

Cette annexe a été écrite en commun par l'auteur, et par Christophe Jacquemin*, en janvier 2004.
Voir également l'article plus récent de Christophe Jacquemin :
Un ordinateur quantique commercialisé dès 2008 ?


Le département de la défense américain (DOD) dispose au Los Alamos National Laboratory du 2e ordinateur le plus puissant du monde, nommé ASCI Q (avec à terme 30-teraflops). Celui-ci complète les ressources du précédent, Blue Mountain (3-teraflops). Le DOD a demandé récemment au Laboratoire de concevoir pour 2008 une machine capable d'effecteur 1 million de milliards d'opération par seconde, soit 1 petaflop. Ces machines servent à la simulation des essais nucléaires. Mais des machines de même puissance ont dans le civil de nombreux autres usages tels que la simulation des molécules biologiques en bio-informatique, ou celles de la Terre en écologie (Earth simulator japonais). Elles coûtent extrêmement cher, sont très encombrantes et, finalement, de très mauvais rendement car elles ne peuvent utiliser qu'environ 10% de la puissance informatique totale, le reste servant essentiellement à faire coopérer les processeurs.

La course à la puissance des ordinateurs classiques n'a cependant pas atteint son terme. En application de la loi de Moore, les matériels vont encore accroître leurs performances dans les 15 prochaines années. En matière de logiciels, on pourra faire appel à l'intelligence artificielle distribuée pour améliorer les traitements. Mais la limite approche. Notamment parce que les composants commencent à travailler au niveau de l'atome, ce qui représente une barrière infranchissable si l'on veut détecter les signaux. Au-delà, on passe dans la physique subatomique ou quantique.

Conscients de cette barrière technologique inéluctable, et déjà depuis une vingtaine d'années, des chercheurs en informatique se sont demandé comment utiliser les propriétés de la matière au niveau quantique. Le premier qui en eut l'idée a été Richard Feynman. Il le suggéra pour solutionner les problèmes dits "NP-hard" (le nombre des calculs nécessaires pour résoudre un de ces problèmes croît exponentiellement avec le nombre des variables en cause, si bien que le problème est insoluble sur un ordinateur ordinaire). L'idée a été reprise quelques années plus tard par David Deutsch. Ces réflexions ont donné naissance à de nombreux projets dans le monde visant à définir puis expérimenter un ordinateur quantique.

Propriétés du bit quantique ou qbit

On ne décrira pas ici un ordinateur quantique possible. Disons seulement qu'il utilisera les propriétés des bits quantiques ou qbits. Un qbit est un système quantique monté en laboratoire. Il peut s'agir d'un atome ou d'une particule, entouré d'un champ magnétique intense et subissant des impulsions radio de haute fréquence qui modifient sa rotation (son spin). On attribuera la valeur 1 à une rotation dans le sens des aiguilles d'une montre et la valeur 0 à la rotation en sens inverse, c'est-à-dire les deux valeurs utilisées dans le langage binaire des informaticiens. Compte tenu de la difficulté que l'on rencontre pour manipuler de tels atomes, le nombre maximum des qbits qui ont pu être mis en œuvre dans les prototypes les plus récents d'ordinateur quantique ne dépasse pas 7 - ce qui paraît risible au regard des dizaines de millions d'unité composant le processeur d'un simple micro-ordinateur.


"Ordinateur quantique", oui mais liquide, physique ou gazeux ?

Comment se présentera l'ordinateur quantique dont certains prévoient des applications industrielles dès les années 2020 ? Sera-t-il solide, liquide ou gazeux ? Aura-t-il la taille d'un immeuble ou tiendra-t-il dans la main ? Bien malin qui aujourd'hui pourrait le dire...

L'un des résultats ayant le plus défrayé la chronique est celui de la factorisation du nombre 15 par l'équipe d'Isaac Chuang (centre de recherche Almaden d'IBM) à l'aide d'un ordinateur quantique à 7 qbits [notre actualité du 19 décembre 2001] faisant ainsi la première démonstration de l'algorithme de Shor (voir plus bas, corps de l'article).
Ici, l'approche prend en compte la Résonance Magnétique Nucléaire (RMN) appliquée sur des molécules dans un milieu liquide : molécule à 7 spins conçue et fabriquée par les chimistes (noyau de 5 atomes de fluor et 2 atomes de carbone) pouvant interagir avec les autres comme des bits quantiques, et programmés par des pulsations d'ondes radio.
Identifier la factorisation grâce à l'algorithme de Shor est revenu à contrôler un milliard de milliard de ces molécules.

Rappelons qu'Isaac Chuang avait déjà réalisé en 1998 un premier ordinateur quantique à 2 qbits, dans un dé à coudre de chloroforme, pour rechercher les diverses périodicités d'une fonction. Avec 2qbits, il a pu aussi mettre en oeuvre l'algorithme de Lov Grover (voir plus bas, corps de l'article) et retrouver une donnée parmi quatre en une seule étape. L'année suivante, il passe à l'ordinateur à 3 qbits, dans une base à 8 éléments. Enfin, en 2000, c'est la réalisation d'un ordinateur à 5 qbits en utilisant les 5 atomes de fluor d'une molécule complexe spécialement conçue. Le système permet en une seule étape de trouver la bonne combinaison parmi deux éléments, alors qu'il en faut jusqu'à 4 dans une approche traditionnelle (2 des 5 qbits servant dans la recherche de la solution, les trois autres au calcul du résultat).

La lecture par utilisation de la résonance magnétique est une des méthodes. Il existe d'autres approches, par exemple celle des "pièges à ions", faisant également appel à un milieu fluide (notamment étudiée aux Etats-Unis et en Autriche).
Cela dit, certains chercheurs pensent qu'il sera désormais très difficile de développer et de synthétiser des molécules dotées d'un nombre de qbits supérieur à sept. Chuang lui-même, pourtant optimiste, n'imagine pas pouvoir aller beaucoup plus loin que 10 à 20 qbits avec son système parce que les signaux magnétiques qui mesurent l'orientation des spins et déterminent sa valeur (1, 0 ou les deux), deviennent de plus en plus faibles au fur et à mesure que le nombre de qbits augmentent. C'est pour cela que d'autres scientifiques - tel Colin Williams du Jet Propulsion Laboratory de la Nasa - préconise de se concentrer sur les voies dites "solid state" en tablant sur des qbits fixés sur des substrats solides ou sur des photons prisonniers dans des cavités optiques. Les systèmes étudiés (y compris par IBM) vont des spins d'électrons confinés dans des nanostructures semi-conductrices, aux spins de noyaux associés avec des impuretés mono-atomiques dans un semi-conducteur, en passant par les flux électroniques ou magnétiques à travers des super-conducteurs.

Alors, un premier prototype d'ordinateur quantique "solid state" d'ici 10 ans ?

NB : A côté de l'ordinateur quantique, mentionnons aussi un nouveau paradigme qui pourrait s'imposer à terme comme une véritable révolution : l'avènement du calcul biomoléculaire via l'ordinateur à ADN.

Mais la particule isolée peut, comme l'enseigne la mécanique quantique, se trouver dans deux états à la fois. C'est ce que l'on appelle l'état de superposition cohérente. Si on veut s'en servir comme unité de représentation de l'information (bit) elle peut donc présenter simultanément l'état 1 et l'état 0. L'ordinateur quantique calcule ainsi en manipulant des bits pouvant prendre soit la valeur 1, soit la valeur 0, soit la superposition 1 et 0. Avec deux bits, un ordinateur classique peut représenter un des 4 nombres traduits en binaire par 00, 11, 01 ou 10. L'ordinateur quantique, lui, peut représenter simultanément ces 4 nombres. Trois qbits, de même, pourront représenter simultanément 8 nombres, au lieu de 1 nombre à la fois. La suite en proportion, chaque nouveau qbit ajouté aux autres doublant la quantité de nombres représentés par la séquence: quatre qbits représentent 16 nombres, cinq qbits 32 nombres… dix qbits 1.024 nombres (au lieu de 1, répétons-le, dans un calculateur classique). N qbits peuvent mémoriser 2 puissance N nombres. Il en résulte que si on utilise trois qbits comme donnée d'entrée en vue d'un calcul (diviser par 2 ou extraire la racine carrée), comme ils représentent 8 nombres, ils feront 8 calculs à la fois chaque fois que l'on changera l'état d'un des bits. L'ordinateur quantique est donc d'abord un calculateur massivement parallèle. Avec 13 atomes (ce qui n'est pas envisageable pour le moment), il atteindrait la puissance de calcul en parallèle de l'ordinateur Blue Mountain évoqué ci-dessus.
Un ordinateur quantique peut utiliser n'importe quelle particule susceptible d'avoir deux états en superposition. Des ordinateurs quantiques peuvent être construits à partir d'atomes qui sont à la fois excités et non excités au même moment. Ils peuvent être construits à partir de photons de lumière qui sont à deux endroits simultanément. Ils peuvent être construits à partir de protons et de neutrons ayant un spin soit positif soit négatif ou les deux en même temps. Une molécule peut contenir plusieurs millions de protons et de neutrons. Elle peut donc, théoriquement, être utilisée comme ordinateur quantique doté de plusieurs millions de qbits. Les capacités potentielles de calcul correspondraient, avec un ordinateur classique, à des durées de plusieurs fois l'âge de l'univers. On imagine ainsi le gain de temps calcul et d'utilisation mémoire à laquelle peut conduire cette nouvelle technologie. Mais elle promet aussi beaucoup plus : les vrais progrès viendront aussi de nouveaux algorithmes qui vont permettre de résoudre des problèmes jusqu'alors inaccessibles pour l'informatique classique
La course à la conservation de l'état de superposition

Il y a donc un intérêt stratégique majeur à maîtriser cette puissance, sachant que les nombres et les calculs sont aujourd'hui à la source de toute connaissance et de toute action sur le monde. De nombreux laboratoires se sont donc mis en piste. Mais une énorme difficulté a jusqu'ici arrêté les chercheurs : la difficulté de maintenir en état de superposition un ensemble de plus de 1 particule. La localisation ou l'impulsion d'une particule quantique en état de superposition ne peuvent être définies que par une probabilité statistique découlant elle-même de la fonction d'onde de la particule. Pour connaître exactement ces valeurs, il faut faire interférer la particule avec un instrument, comportant par définition une grande quantité d'atomes. Mais alors, la fonction d'onde s'effondre et l'observateur n'obtient qu'une seule des deux valeurs, l'autre étant définitivement perdue, en application du principe d'indétermination. C'est ce que l'on appelle aussi le phénomène de la décohérence.

Pour qu'un ou plusieurs qbits conservent leur caractère quantique, et puissent donc travailler en état de superposition, il faut les isoler de toute matière ou énergie avec lesquels ils interféreraient - ce qui paraissait impossible ou très difficile dès que le nombre de qbits dépassait deux ou trois. Aujourd'hui cependant, en utilisant diverses techniques, un certain nombre de laboratoires ont annoncé (comme un grand succès célébré unanimement par la communauté des physiciens) avoir maintenu à l'état quantique de courtes séquences de bits (4 à 7) et pour des durées de temps suffisantes à la réalisation de quelques opérations.
L'avenir de l'ordinateur quantique repose donc sur les technologies qui seront utilisées pour générer et maintenir en état de superposition cohérente des chaînes de bits de plus en plus longues. La démarche consiste à réaliser d'abord une porte logique quantique (ou système microscopique), généralement de 2 qbits, capable de réaliser une opération quantique élémentaire dans une longueur de temps donnée. Les physiciens ont depuis longtemps réussi à maintenir en état de superposition un atome ou un photon isolé. Mais si on veut créer des circuits avec ces portes, en les ajoutant les unes aux autres, les risques de décohérence augmentent rapidement, du fait de l'interaction avec les atomes de l'environnement. L'information utile se trouve donc dissipée. Il faut donc réaliser des systèmes microscopiques ou les qbits interagissent avec eux-mêmes et non avec ceux de l'environnement. C'est là l'enjeu essentiel de la course à l'ordinateur quantique, engagée depuis une dizaine d'années dans les principaux pays du monde. Différents substrats et différentes méthodes de détection (par exemple la résonance magnétique nucléaire) sont actuellement expérimentés.

Mais une autre difficulté devra être résolue. Il s'agit des modalités de la programmation d'un ordinateur quantique. On comprend bien que l'on ne puisse utiliser une programmation classique pas à pas. Il faut définir de nouveaux algorithmes qui exploitent un état de superposition pouvant contenir un nombre exponentiel de termes différents. Ainsi une instruction pourra être de la forme suivante : "prendre la superposition de tous les nombres résultant de l'opération précédente". De telles instructions permettent de programmer la résolution d'un problème de factorisation (écrire une somme sous forme d'un produits de facteurs), qui est encore actuellement considéré comme le domaine d'excellence de l'ordinateur quantique. Différents langages de programmation ont été réalisés avant même que des ordinateurs quantiques opérationnels aient été réalisés. Citons par exemple l'algorithme de Shor, proposé en 1994 par le chercheur d'ATT Peter Shor, qui met à profit les propriétés des qbits pour factoriser de très grands nombres dans un temps “polynomial”(1) (c'est sur cet algorithme que s'est appuyé Isaac Chuang d'IBM pour factoriser le nombre 15 dans un véritable ordinateur quantique à 7 qbits [voir encadré ci-dessus] Citons aussi, Lov Grover (chercheur au Bell Labs), qui dans un autre domaine a publié en 1996 un algorithme quantique permettant la recherche d'un élément dans un ensemble de n objets beaucoup plus rapidement que par les méthodes classiques (application potentielle riche de promesses en ce qui concerne la recherche dans les bases de données). Isaac Chuang l'a d'ailleurs démontré pratiquement en 1999 dans son ordinateur quantique à 2 qbits.

Toujours dans le cadre des difficultés, insistons sur le fait qu'avec l'ordinateur quantique, le résultat final d'un calcul n'étant déterminé que par des lois de probabilités, un calcul peut a priori donner n'importe quel résultat. Il faut donc disposer d'algorithmes qui permettent d'augmenter la probabilité que le système "décohère" dans l'état correspondant à la bonne réponse, sachant que lorsqu'on regarde un résultat dans un registre quantique (réseaux de qbits), tous les autres états disparaissent...

Qui a besoin de l'ordinateur quantique ?

Les scientifiques reconnaissent qu'on est encore bien loin du but : produire un ordinateur quantique de grande puissance et manipulable comme un micro-ordinateur. Ils comparent la situation actuelle de la recherche à celle ou se trouvait la connaissance de l'atome quand Marie Curie étudiait la désintégration du radium. Cependant, comme dans tous les domaines, les progrès seront d'autant plus rapides que les recherches disposeront de plus de moyens. Pour cela, il faut que les décideurs institutionnels se persuadent de l'intérêt d'un tel ordinateur.
On retrouve dans ce domaine le même phénomène qui a marqué la prise en considération de la fusion nucléaire destinée à produire de l'énergie industrielle. Pendant des années, les réacteurs expérimentaux ont vécu dans une certaine indifférence générale. Puis subitement, à la suite de l'intérêt manifesté par les Etats-Unis dans une ambiance de compétition avec l'Europe et le reste du monde pour la maîtrise de cette énergie du futur, le programme ITER s’est emballé.

Une question d'ordre stratégique est désormais posée non pas aux chercheurs mais aux autorités gouvernementales qui financent les recherches fondamentales en matière de physique quantique: convient-il de laisser les recherches sur l'ordinateur quantique se poursuivre dans un grand nombre de laboratoires, au rythme nécessairement lent que suppose l'expérimentation de techniques difficiles et souvent différentes, alors que les hommes et les crédits y affectés sont rares ? Faut-il au contraire changer de vitesse ? Si oui, comment ?

On ne s'étonnera pas de nous voir recommander ce dernier choix. Il faut bien voir que les industriels de l'informatique qui les premiers mettront sur le marché un ordinateur quantique performant prendront sur leurs concurrents une avance industrielle et commerciale considérable. C'est pourquoi chez IBM, les recherches sur le sujet bénéficient de moyens importants (voir les publications du centre de recherche IBM d'Almaden consacrées à la computation quantique http://www.almaden.ibm.com/st/quantum_information/index.shtml). Il en est de même concernant les moyens importants dédiés par Microsoft aux recherches concernant l'ordinateur topologique.
Mais les industriels informatiques ne sont pas seuls en cause. Dans un monde ou les technologies sont aussi et surtout de souveraineté, les pays qui disposeront en premier d'une industrie du calcul quantique compétitive en bénéficieront pour maintenir ou accroître leur influence sur le reste du monde. C'est ce qui, depuis 50 ans, s'est produit avec l'informatique classique, puis avec l'Internet. Les Etats-Unis ayant perçu l'enjeu de ces outils ont encouragé leurs laboratoires de recherche et leurs entreprises à s'en donner la maîtrise technologique et à en généraliser l'usage à leur profit, bien avant les concurrents. Chacun sait aujourd'hui que la capacité de la science et de l'industrie américaine à s'appuyer sur des réseaux de très grands calculateurs constitue l'un des principaux moyens leur permettant d'assurer leur suprématie.

L'histoire risque de se répéter dans le domaine des calculateurs quantiques, comme sans doute dans celui des calculateurs à ADN (non étudiés ici) si ces derniers voient le jour avant ceux-là. D'ores et déjà les perspectives offertes par les calculateurs quantiques sont très attrayantes, dans les domaines de la cryptographie, de la recherche en base de données avec multiples entrées et, bien évidemment aussi en matière de calcul numérique, calcul dont les applications seront de plus en plus importantes. Plus généralement, toutes les modélisations supposant des calculs massivement parallèles, dans le domaine militaire, en bio-informatique, en économie et surtout en physique quantique elle-même (gravitation quantique), comme en cosmologie, pourront enregistrer des progrès d'efficacité considérable avec ces ordinateurs révolutionnaires. On peut imaginer aussi qu'implanter de petits calculateurs quantiques dans des robots autonomes devrait accroître sensiblement leurs capacités d'auto-adaptation (des chercheurs en intelligence artificielle distribuée, tel Alain Cardon, voudraient par exemple étudier le comportement de systèmes multi-agents adaptatifs constitués de qbits).

Ajoutons qu'apprendre à manipuler couramment les particules en état de superposition cohérente constitue le sine qua non de toutes les applications possibles de la physique quantique.

En Europe, les laboratoires travaillant sur l'ordinateur quantique sont relativement nombreux, comme le montre la carte établie par le Centre for Quantum Computation britannique(2) : 
http://www.qubit.org/phpscripts/places.php?cat=areaname&value=europe.
Mais ils sont dispersés, abordent souvent des domaines très spécialisés qu'il sera difficile de mettre en synergie dans un produit final. De façon plus grave, ils ne sont certainement pas considérés comme prioritaires dans l'allocation des ressources budgétaires. L'Europe va-t-elle perdre la bataille de l'ordinateur quantique comme elle a perdu celle de l'ordinateur classique ?

Vu l'état actuel des connaissances, il serait contre-productif de vouloir regrouper plusieurs laboratoires dans un programme unitaire. Mais ceci ne veut pas dire que les Pouvoirs Publics ne devraient pas s'intéresser au sujet. Il faudrait que des projets précis soient encouragés au sein des programmes cadres de l'Union européenne ou dans des projets conjoints entre plusieurs pays, avec des méthodes d'évaluation et de diffusion des résultats communes. Pour cela s'affirme constamment le besoin d'engager un grand travail de sensibilisation.
Rappellerons au lecteur qu’un nombre croissant de physiciens, le plus représentatif étant Seth Lloyd, présenté dans le chapitre 1 de ce livre, considère que l’univers fonctionnerait fondamentalement comme un immense ordinateur quantique, ce qui expliquerait ses performances passées et futures. On voit que la question de l’ordinateur quantique prendra de plus en plus d’importance dans les années à venir, au plan tant conceptuel que pratique. Nous pourrions aller jusqu’à suggérer que ce sera l’enjeu scientifique majeur du XXe siècle. Il serait peut-être utile que les jeunes étudiants en sciences, candidats à de futurs prix Nobel, y réfléchissent.

* Co-rédacteur en chef, avec l'auteur, du site www.automatesintelligents.com


(1) : Façon mathématiques de dire que l'accroissement de la taille des clefs de cryptage n'est plus un obstacle insurmontable, sachant que la factorisation des grands nombres est l'un des principes de base du décryptage. En d'autres termes, ce qui prendrait plusieurs milliards d'années de calcul à l'ordinateur classique actuel le plus puissant au monde pour trouver les diviseurs d'un nombre de 300 chiffres en les essayant laborieusement les uns après les autres, ne nécessiterait que 30 heures de calcul avec un ordinateur quantique.

(2) : Il est significatif que l'équivalent d'un tel Centre n'existe pas en France, ce qui montre bien le manque d'intérêt des décideurs et de l'opinion pour cette question. Les chercheurs existant sont bien isolés et bien peu mis en valeur.


Pour en savoir plus : 

Center for Quantum Computation :
http://www.qubit.org/

Groupe de recherche 2285 "Information et communication quantique" :
http://www-lsp.ujf-grenoble.fr/vie_scientifique/gdr/info_quantique/labosGDR.html

Programme européen "Quantum Information Processing & Communication" :
http://www.cordis.lu/ist/fet/qipc.htm

Un ordinateur quantique commercialisé dès 2008 ?
http://www.editions-bayol.com/PMF/ordi_quantique2.php

 

Retour au sommaire