Les Editions Jean Paul Bayol
Contact
Publications
annexes
   

 

Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire

 

Emergence de l’émergence. Un pont entre la physique quantique et la science macroscopique

 

Le scientifique moderne, même s'il ne pratique pas la philosophie de la connaissance, ne peut pas éviter de s'interroger sur la pertinence des modèles du monde qu'il utilise, au regard de ce que pourrait être la réalité ultime. Cette question inspire aussi l'intérêt du public pour la science et pour les nouvelles hypothèses scientifiques découlant de l'utilisation d'instruments de plus en plus perfectionnés. Pour beaucoup de gens, en dehors de ses apports utilitaires, la science telle qu’elle est traditionnellement comprise doit permettre de mieux connaître la nature profonde de l'univers, en permettant d'échapper à des descriptions métaphysiques qui ne se sont pas renouvelées depuis des siècles (mais il s'agit sans doute nous allons le voir d'une illusion qui relève d'une nouvelle sorte de métaphysique)

C'est la physique qui apporte le plus d'ouvertures sur ce que pourrait être l'univers. Mais malheureusement, pour ceux qui voudraient obtenir de la science une description aussi simple et homogène que possible de la réalité, la physique semble proposer des solutions différentes, sinon contradictoires. Nous l’avons rappelé, depuis le début du XXe siècle, elle s'est divisée en trois branches également fécondes, la cosmologie qui traite de l'univers dans son entier, la physique des particules élémentaires ou microphysique qui étudie les constituants ultimes de la matière et la physique de la matière macroscopique, aux multiples applications technologiques et industrielles. Toutes aujourd’hui, y compris la physique macroscopique, doivent tenir compte des observations de la physique quantique. Mais comment la physique macroscopique et plus généralement les sciences macroscopiques, qui travaillent sur des modèles à l'échelle de nos sens ordinaires, peuvent-elles établir un pont épistémologique avec la physique quantique ?

Ce pont nous paraît aujourd’hui devoir être fourni par le concept d’émergence. Celui-ci était jusqu’ici réservé aux sciences cognitives et aux sciences de la vie, dites aussi sciences de la complexité, qu'elles soient biologiques ou artificielles. Il n’intéressait que peu de chercheurs. On peut considérer, nous semble-t-il, que le physicien Robert Laughlin (Robert Laughlin. A Different Universe 2005) , précité, représente bien la génération de ceux que l'on pourrait appeler les militants de l'émergence, grâce à qui le concept est devenu indispensable.

De quoi s’agit-il ? Pour un nombre croissant de physiciens, la physique théorique, à elle seule, n'est pas capable d'expliquer la génération de complexité correspondant à l'apparition de la vie ou des grands systèmes cognitifs collectifs propres aux sociétés humaines modernes. Il faut trouver un autre paradigme explicatif. Depuis les travaux fondateurs de Stuart Kauffman (Stuart Kauffman. At Home in the Universe, the Search for Laws of Complexity and Organisation, 1996), on sait aujourd'hui que ce paradigme existe, c'est celui de l'émergence. Il peut être formulé d'une façon qui d'ailleurs n'est simple qu'en apparence :le Tout ne peut être déduit des parties. En forçant le trait, on dira que la théorie de l'émergence prend acte de l'échec de la pensée scientifique traditionnelle, analytique et mathématique, pour représenter le complexe. L'émergence n'explique pas tout, loin de là. Elle ne permet pas en général de comprendre pourquoi tel phénomène complexe apparaît. A fortiori elle ne permet pas de prévoir comment évoluera ce phénomène. Elle permet seulement d'affirmer que cette apparition n'est pas due à un miracle mais qu'elle relève d'un processus physique. Elle est un peu comparable en cela à la théorie de la sélection darwinienne en biologie (Voir chapitre 2.). La diversification des espèces s'explique en général par la sélection darwinienne, mais le détail de celle-ci comme la façon dont l'évolution se poursuivra à l'avenir ne peuvent être explicités par ce principe général. Ils ne peuvent qu'être constatés a posteriori.

Au plan d'une vision générale sur l'Univers, la théorie de l'émergence ne permet pas de comprendre immédiatement pourquoi le monde est ce qu'il est et moins encore ce qu'il deviendra. Elle permet juste de comprendre qu'aucune théorie réductionniste, fut-elle très détaillée, ne permettra jamais d'analyser et reproduire la complexité du monde. Mais en vérité elle fait beaucoup plus. Elle oblige à ouvrir les yeux sur des problèmes non résolus, voire insolubles en l'état, ce qui aura le grand avantage d'éviter que leur soient données de fausses solutions. Parmi ces problèmes non résolus se trouvent les mécanismes eux-mêmes qui permettent l'émergence. Rien ne dit qu'ils seront un jour explicités par la science. Sont-ils généraux ou propres à tel ou tel domaine de la matière et de la vie ? On ne peut le dire encore. Mais il n'est pas interdit qu'à force de travail et en évitant les fausses bonnes solutions, on puisse en faire progressivement apparaître quelques-uns.

La théorie de l'émergence relève en effet du domaine scientifique. Elle ne se borne pas à constater l'hétérogénéité ou la non-prédictabilité des phénomènes, ce qui n'aurait aucun intérêt pratique – ou laisserait le champ libre au surnaturel. Lorsque le scientifique constate l'apparition d'un phénomène émergent, il a tout à fait le droit de l'étudier, en faire la typologie, l'incorporer au corpus des connaissances du moment. Il ne dira pas que le phénomène émergent révèle la réalité en soi du monde, il dira seulement qu'il s'intègre à l'ensemble des relations établies ici et maintenant entre un réel inconnaissable en essence, des instruments permettant de générer des phénomènes nouveaux et des esprits humains générateurs de systèmes de représentation symbolique. Dans cette perspective, le scientifique se doit d'être d'abord un expérimentateur instrumentaliste, aux yeux ouverts. C'est en effet en observant les phénomènes inattendus générés par le fonctionnement des appareils traditionnels ou nouveaux qu'il peut identifier des émergences pouvant expliquer ces phénomènes. Il ne prétend pas en faisant cela accéder à une quelconque réalité en soi, à un quelconque univers fondamental. Il se borne à dire qu'il construit une réalité relative à lui et à ses observations, s'inscrivant momentanément et parfois localement dans le devenir de la société scientifique humaine, qui constitue elle-même une émergence plus globale.

Le physicien Robert Laughlin s'est principalement intéressé, au cours de sa carrière, à ce que l'on pourrait appeler les états ou propriétés émergentes de la matière, lorsque celle-ci est soumise en laboratoire à des conditions extrêmes. L'exemple classique en est la superconductivité, déjà citée, grâce à laquelle des métaux conducteurs de l'électricité n'opposent plus de résistance au courant lorsqu'ils sont convenablement refroidis. Ce qui a frappé Robert Laughlin est qu'il est généralement impossible de prévoir les résultats d'une expérience lorsque les conditions de celle-ci s'écartent un tant soit peu des normes jusque-là pratiquées L'effet Hall quantique (voir ci-dessous) dont il a assuré la formulation théorique, ce qui lui a valu le prix Nobel, partagé avec ses deux collègues, a ainsi été découvert par hasard. Selon lui, aucune recherche a priori n'aurait pu aboutir à ce résultat, car nul esprit humain n'aurait été capable de l'imaginer. Pourtant, l'effet Hall quantique est aujourd'hui à la source de très nombreuses applications scientifiques et industrielles. L'observation initiale a été rendue possible par la conjonction, à un certain moment et en un certain lieu, d'un instrument produisant des résultats inattendus et d'esprits humains suffisamment alertes pour s'étonner de ces résultats et chercher à les comprendre. Il en est de même, selon lui, de toutes les découvertes importantes de la physique moderne. On voit que pour lui, l'émergence se produit à partir des composants primaires de la nature, inconnus de nous, et elle intéresse toutes les structures associant la matière et l'énergie. Elle ne concerne donc pas seulement les phénomènes biologiques ou leurs modèles informatique tels les automates cellulaires (Voir chapitre 5. Un monde artificiel bientôt plus vrai que nature.), comme on le croit souvent. Cependant, pour le grand public, c'est évidemment en biologie et en anthropologie que le phénomène de l'émergence est le plus visible et le moins discutable.

Robert Laughlin n'ignore évidemment rien de la mécanique quantique, dont il a eu en permanence à appliquer les principes ou les résultats dans ses propres travaux. Il a lui-même été surnommé le Robert Feynman de sa génération. Mais pour lui comme pour la plupart des physiciens, la mécanique quantique ne permet pas de comprendre l'univers en profondeur, et moins encore d'agir sur lui. Elle permet juste d'interpréter un certain nombre des phénomènes nouveaux que révèle le développement des instruments et des expériences, par exemple au sein des accélérateurs de particules. Le monde quantique, dans ses profondeurs, est et restera pour lui inconnaissable. C'est ainsi que parler de vide quantique représente simplement une façon de désigner quelque chose d'inconnaissable, sous-jacent à la réalité matérielle, dont on constate seulement telle ou telle manifestation dans telle ou telle expérience. De même les particules qui émergent du vide quantique ne sont ni des ondes, ni des particules ni les deux à la fois. Elles sont définitivement autre chose. Ceci ne nous empêche pas de les utiliser, dans certaines conditions.

Robert Laughlin n'ignore pas plus la cosmologie que la physique quantique. Mais là il se sépare profondément des travaux des cosmologistes théoriciens. Pour lui, toutes les hypothèses visant à décrire de façon réaliste les états passés, présents et futurs de l'univers relèvent non seulement de la science fiction mais d'une méconnaissance profonde de ce qu'est selon lui l'univers, c'est-à-dire le produit d'une émergence. Il s'en prend particulièrement à la Théorie du Tout, qui prétendrait trouver une équation unique à partir de laquelle on pourrait déduire toutes les autres formes de connaissances. Cette ambition, triomphe du réductionnisme, selon laquelle les lois des mécanismes élémentaires permettent de déduire la loi du système complexe, ignore dramatiquement, selon lui, la théorie de l'émergence.(1)

Pour comprendre les grands systèmes auxquels nous avons affaire dans la nature, il n'est pas nécessaire de connaître les lois qui régulent leurs composants microscopiques, mais seulement les principes d'organisation collective qui permettent leur apparition. Plus généralement, ce ne sont pas les lois des parties qui expliquent l'émergence de l'organisation, mais plutôt cette dernière qui donne un sens et des lois aux parties. Cela signifie notamment qu'il est illusoire de prétendre que la connaissance des lois élémentaires, intéressant par exemple les particules quantiques et les processus chimiques à l'œuvre dans la nature, suffiront à décrire et prédire exhaustivement l'ensemble du monde auquel nous avons affaire. On reprend là le combat jamais clos contre les prétentions du réductionnisme du démon de Laplace (2) à pouvoir nous dire de quoi est fait le monde et vers quoi il va. Certes, comme tous les scientifiques, Robert Laughlin reconnaît ne pas pouvoir éviter d'être réductionniste, c'est-à-dire rechercher d'abord d'éventuelles causes élémentaires ou premières aux phénomènes encore incompris. Mais il refuse les abus du réductionnisme, conduisant à penser qu'aujourd'hui la science a tout compris et n'a plus rien de profond à découvrir.

Les systèmes complexes, comme les événements météorologiques, sont régulés par les lois de leurs composants microscopiques (en l'espèce les atomes des molécules d'eau) mais dans le même temps leurs aspects les plus sophistiqués sont insensibles à ces lois et parfois même en contradiction avec elles. L'organisation en ce cas prend le dessus sur les parties et les transcende. Le concept d'organisation ne désigne pas seulement un principe théorique mais un phénomène du monde physique, aussi « réel » que les phénomènes microscopiques. Cela s'applique évidemment aussi aux êtres vivants et à l'homme lui-même. Tous les systèmes physiques étudiés par la science découlent de mécanismes d'organisation collective, et pas seulement les plus complexes. Il est illusoire de distinguer des lois fondamentales dont découleraient des lois subordonnées. Cela entraîne la conclusion que la prétention consistant non seulement à identifier ces lois fondamentales, mais à leur donner une formulation mathématique qui permettra ensuite de représenter par des équations les systèmes émergents à base d'organisation est également une illusion. Ce point de vue n’est pas partagé par tous. Nous le verrons dans le chapitre 2 en présentant les travaux de chercheurs visant à élaborer une théorie générale de la vie.

Il en résulte que la recherche des lois physiques, à quelque niveau qu'elle se fasse, ne peut se faire par la seule déduction, ni même par induction (Exemple de déduction : les quadrupèdes ont 4 pattes. Cet animal que je rencontre n’en a que 3. J’en déduis (déduction fausse) qu’il s’agit d’un représentant d’une espèce vivante inconnue – ou bien alors (déduction vraie) qu’il a subi une amputation.)

- Exemple d’induction : l’homme dispose d’un cerveau qui le rend apte à l’intelligence. J’en induis que le singe, qui dispose aussi d’un cerveau, devrait être également apte à l’intelligence. Selon les définitions que l’on donnera de celle-ci, l’induction se révèlera soit fausse, soit très fructueuse. On parle de plus en plus aussi d’abduction, qui consiste à formuler des hypothèses de très grande ampleur, pouvant conduire à des théories très générales. On ne confondra pas ce type d’abduction avec l’abduction ou enlèvement temporaire dont plus d’un million d’américains prétendent avoir été victimes du fait d’extra-terrestres. Elle doit faire appel à l'expérimentation, seule à même de faire apparaître les phénomènes complexes d'organisation que l'on serait conduit à ne pas voir en s'en tenant aux explications par les lois élémentaires. Mais encore faut-il expérimenter avec une grande ouverture d'esprit. Comment acquérir celle-ci ? Il faudrait commencer par se persuader que le monde est empli de choses pour le moment incompréhensibles, à commencer par nous-mêmes. La science doit nous aider à les comprendre en nous mettant, grâce à la force brute de l'expérimentation, elle-même constamment rendue plus efficace grâce à l'évolution technologique, en présence de phénomènes que nous n'avions pas vus jusqu'ici et qu'il nous faudra bien introduire dans notre représentation générale du monde. Mais ce n’est pas pour autant que tout s’éclaircira.

Vivre avec l’incertitude

Les biologistes et les chercheurs en sciences humaines admettent que l'incertitude est inséparable de leurs représentations de la nature. On ne peut jamais prédire exactement, en s'appuyant sur les lois censées réguler les composants biologiques ou psychologiques, la façon dont se comportera un système associant plusieurs de ces composants. Cela se manifeste à tous les niveaux d'organisation du vivant, de la molécule biologique à l'homme. Par contre, pour les physiciens du monde macroscopique, il importe d'éliminer l'incertitude, laquelle ne peut découler que d'expérimentations insuffisantes. Cela les conduit à procéder à des mesures de plus en plus précises. Faire apparaître des erreurs de mesure conduit logiquement à remettre en cause une théorie jusque là admise. Mais le fait d'obtenir une très grande précision dans la mesure ne doit pas conduire à penser que le phénomène est définitivement décrit et maîtrisé. Ainsi la physique contemporaine repose sur la connaissance de ce que l'on appelle des constantes universelles. Il s'agit en réalité d'expériences donnant un résultat universel. Il en existe dix à vingt, telle la vitesse de la lumière dans le vide. Mais le caractère apparemment universel de telles expérimentations est un piège. Il conduit à faire penser que ces constantes ont mis en évidence les briques primitives à partir desquelles est construite la réalité.

Pour Robert Laughlin, si la vitesse de la lumière apparaît constante aujourd'hui, ce ne serait pas parce que la lumière serait une composante élémentaire de l'univers. Prendre en considération les phénomènes d'émergence montre que cette constante elle-même résulte d'un phénomène d'organisation sous-jacent. La lumière pourrait être le produit d'une émergence. Fondamentalement, derrière les constantes, on peut retrouver si on s'en donne la peine l'incertitude et l'inconnu. Toutes les constantes dites fondamentales requièrent un contexte environnemental organisationnel pour prendre un sens. La réalité quotidienne est un phénomène d'organisation collective, se traduisant par des « vérités » statistiques ou probabilistes (ce qu'ont dit depuis longtemps les biologistes comme les physiciens quantiques). On peut pour des besoins pratiques, dans le monde quotidien, décrire les objets macroscopiques comme des constructions d'atomes situés dans l'espace-temps newtonien, mais l'atome isolé n'est pas newtonien. Nous avons vu dans la section précédente que c'est une entité quantique « éthérée » manquant de la première des caractéristiques du monde newtonien, la possibilité d'être définie par une position identifiable. Cela apparaîtra non seulement dans les expériences de la physique quantique, mais dans les expériences de la physique des matériaux et des états de la matière intéressant la vie quotidienne. Les physiciens s'intéressant aux phénomènes macroscopiques doivent donc eux aussi apprendre à gérer l'incertitude née de l'émergence, considérée comme un aspect incontournable de toute « réalité » et la voie permettant d'accéder à de nouvelles découvertes.

Cela s’applique à la physique quantique, notamment au processus de la mesure. Nous avons indiqué plus haut qu’il faut se garder de la tentation d'expliquer par des termes du langage courant, masquant l'irréductibilité du monde quantique sous-jacent, des phénomènes comme l'intrication. La matière quantique n'est pas faite d'une superposition d'ondes et de particules, comme on le dit souvent. Elle est faite ni d'ondes ni de particules, mais de quelque chose de différent, qu'il faut se résoudre à qualifier d'« autre chose » sans chercher à en définir l'essence. Mais cela n'empêche pas d'utiliser la fonction d'onde pour représenter l'entité quantique avec la précision nécessaire aux applications de plus en plus nombreuses requises par la technologie moderne.

Qu'est ce que l'Effet Hall quantique,
théorisé par Robert Laughlin, travail qui lui a permis d'obtenir le Prix Nobel?

Qu'est-ce d'abord que l'effet Hall?

La découverte remonte à 1879 lorsque le physicien américain Edwin Herbert Hall, étudiant en thèse du professeur Rowland de l'université Johns Hopkins de Baltimore, plaça une feuille d'or dans un champ magnétique et lui appliqua un courant électrique.

Il observa alors une tension perpendiculaire à la direction du courant et à celle du champ magnétique. Cette tension transverse, dite tension de Hall VH, résulte de la force de Lorentz FL qui dévie la trajectoire des électrons vers un bord de la feuille, entraînant une accumulation de charges négatives sur ce bord, un excès de charges positives sur l'autre bord, et l'apparition d'un champ électrique E.

L'équilibre est atteint lorsque la force électrique FE, due au champ de Hall, compense la force de Lorentz. Une tension VH, perpendiculaire au courant I, peut être alors mesurée. Celle-ci est proportionnelle à la densité de flux magnétique B, alors que la tension longitudinale Vxx, liée aux processus classiques de diffusion des électrons dans le métal, reste faible et constante en présence d'un champ magnétique.
La tension de Hall VH, ou la résistance de Hall RH, est une grandeur intéressante à mesurer dans le domaine de la magnétométrie.

Cette mesure présente aussi un grand intérêt dans la caractérisation des semi-conducteurs au cours de leur élaboration. La mesure de VH donne en effet accès aux paramètres principaux d'un semi-conducteur, à savoir la nature des porteurs (électrons ou trous), leur densité n et leur mobilité µ.

L'Effet Hall possède des utilisations dans des domaines variés et très différents.

Par exemple, il est utilisé dans les gaussmètres, les ampèremètres, les wattmètres, les moteurs à courant continu, les multimètres analogiques, les compas magnétiques et de nombreux autres instruments et dispositifs. Ceci sous forme de sonde à Effet Hall, qui est une sonde magnétique utilisant l'effet Hall et dont la réponse est proportionnellle au champ magnétique.

L'effet Hall quantique

L'effet Hall quantique est observé sous certaines conditions:

- le mouvement des électrons doit être restreint de telle manière qu'ils ne puissent se mouvoir que dans un "flatland" à deux dimensions. Cela peut être accompli en confinant les électrons dans une couche extrêmement fine d'un semi-conducteur, ainsi les transistors à effets de champ de types MOSFET sont un terrain d'exploration très fructueux.

- la température doit être très basse (aux alentours de 4.2 K ou en dessous).

- un champ magnétique très intense (de l'ordre de 10 Tesla) doit être utilisé.

Le champ magnétique, appliqué perpendiculairement à la couche de semi-conducteur, produit la tension transversale de Hall, VH, comme pour l'effet Hall ordinaire. Le rapport entre VH et le courant est la résistance de Hall.

Toutefois, à certaine valeur de température, la conductivité et la résistivité du solide tombent à zéro, comme dans le cas des supraconducteurs. Le graphique de résistance de Hall en fonction de B fait apparaître des marches, qui correspondent aux valeurs pour lesquelles la conductivité vaut zéro. Rxx et Rxy sont respectivement la résistance longitudinale et transversale

L'effet Hall quantique (EHQ) est observé à très basse température (<1 K) dans un gaz électronique à deux dimensions de haute mobilité (µ > 2 T-1), soumis à un fort champ magnétique perpendiculaire au plan de conduction. Un gaz électronique bidimensionnel peut par exemple être réalisé dans un transistor MOSFET ou dans une hétérostructure en GaAs/AlGaAs. Si l'on mesure la résistance de Hall en fonction de la densité de flux magnétique B dans ces conditions expérimentales, des plateaux de résistance constante apparaissent. La résistance de Hall RH est quantifiée sur ces plateaux et la relation Rh=h/i-e2 s'applique, i étant un nombre entier.
La résistance h/e2 est également appelée constante de von Klitzing RK. La résistance longitudinale de l'échantillon révèle un comportement oscillatoire marqué (effet Shubnikov de Haas). Les plateaux de résistance Hall coïncident avec des minima étendus de la résistance longitudinale. Aux plus basses températures, la résistance dans ces minima devient infiniment petite et ne peut plus être mesurée. Par conséquent, pour le zéro absolu de température au moins, le transport de courant à travers l'échantillon s'effectue sans perte.

Application métrologique

L'effet Hall quantique est utilisé par la plupart des Instituts nationaux comme résistance étalon primaire depuis le 1er janvier 1990. A cette fin, le Comité international des poids et mesures (CIPM) a fixé la constante de von Klitzing RK à une valeur de RK-90 = 25812.807 Ω, soit la meilleure valeur possible pour l'état des connaissances à l'époque de la détermination. L'incertitude relative de cette constante dans le SI est d'environ 2 x 10-7 et est ainsi deux ordres de grandeur supérieure à la reproductibilité basée sur l'effet Hall quantique. L'incertitude au sein du SI n'a cependant d'importance qu'en cas de combinaison d'unités électriques et mécaniques.

Un pont de mesure de résistances de haute précision permet de comparer des résistances étalons traditionnelles (100 Ω et 10 Ω ) à la résistance de Hall quantique et par-là même de les étalonner de manière absolue. Ces résistances étalons servent dans une étape ultérieure d'étalons de transfert pour étalonner des étalons de clients. La structure de mesure mise en place par METAS permet de comparer une résistance étalon à la résistance de Hall quantique avec une précision relative de 1x10-9 (3). Cette incertitude de mesure a été confirmée en novembre 1994 lors de la comparaison directe avec l'étalon de Hall quantique transportable du BIPM.
L'effet Hall quantique intégral est dû, (en partie seulement), à la présence d'un gap d'énergie (celui entre les niveaux de Landau). Pour expliquer l'effet Hall quantique fractionnaire, il est essentiel de considérer l'effet des interactions coulombiennes entre électrons. Dans ce cas, c'est l'ensemble du gaz d'électrons qui doit être décrit par une fonction d'onde (une fonction d'onde à N particules). L'étude des deux effets Hall quantiques est un domaine de recherche très actif de la physique de la matière condensée où sont introduites des idées comme les charges électriques fractionnaires, les anyons, les excitations topologiques (skyrmions et mérons), les états de bords, etc.

L'effet Hall quantique est aujourd'hui un défi pour la physique théorique. De façon surprenante, des structures mathématiques riches ont pu être dégagées des résultats expérimentaux. De la même manière que la spectroscopie a influencé le développement de la mécanique quantique, ces structures sont des guides incontournables pour la modélisation et la compréhension de ce phénomène.

1 : Observons que dans la vie de tous les jours, nous sommes constamment en présence de l’émergence, ceci sans l’avoir théorisée. L’observateur politique qui cherche à pronostiquer l’avenir de la constitution européenne, par exemple, sait bien qu’il ne pourra rien pronostiquer de solide. Il sera obligé d’attendre que l’Europe institutionnelle émerge de la confusion apparente des évènements politiques pour pouvoir commencer à l’étudier. Certains physiciens ont fait la même observation à propos des concepts de superposition d’état ou d’intrication évoqués ci-dessus. Constamment, dans la vie quotidienne, nous nous trouvons personnellement en superposition d’état : à la fois assis à notre table de travail et rêvant à mille choses différentes. De même, les couples amoureux ou les équipes soudées donnent de bons exemples d’intrication. On objectera qu’il ne s’agit pas des mêmes phénomènes que ceux désignés par la physique quantique. C’est vrai… ou est-ce vrai ?.

2 : Le physicien français Pierre Simon Laplace (1749-1827) a réalisé des travaux remarquables en astronomie et en mathématiques. Déterministe convaincu, il était persuadé qu’avec une bonne théorie et en connaissant les données de départ, un démon imaginaire pourrait calculer tous les développements d’un système, fut-il aussi compliqué que l’univers. Laplace avait également expliqué à Napoléon médusé qu’il n’avait pas besoin de Dieu dans ses équations. Aujourd’hui, on sait qu’un tel déterminisme mathématique ne peut être utilisé que dans un nombre de cas limité. On le remplace par le déterminisme statistique s’appliquant aux grands nombres. Il n’est donc pas nécessaire de réintroduire Dieu dans les équations.

3 : Hypothèse de l’inflation cosmologique. Dans les premiers instants de la vie de l’univers, celui-ci aurait subi une énorme augmentation de taille. Celle-ci expliquerait pourquoi aujourd’hui il nous apparaît illimité dans l’horizon visible. Cette hypothèse, qui explique beaucoup de choses, semble aujourd’hui de plus en plus contestée. Elle parait vraiment conçue, selon l’ancienne expression, pour sauver les apparences. On en saura davantage après le lancement de la sonde européenne Planck, vers 2010/2012, destinée à mesurer de façon plus précise qu’actuellement les anisotropies ou différences dans le rayonnement micro-onde à 4° résultant du Big Bang.


Retour au sommaire