Les Editions Jean Paul Bayol
Contact
Publications
annexes
   
Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire

 

La morphogenèse artificielle et la théorie constructale

L'art de la morphogenèse artificielle intéresse principalement l'ingénierie, c'est-à-dire la conception de systèmes technologiques aussi efficaces que possible. On conçoit bien en effet que si la nature a découvert le secret de la réalisation de formes et de systèmes parfaits, il serait dommage de ne pas s'inspirer d'elle.

Mais le monde naturel est-il parfait ? Il est clair que cette question n'a pas de sens. Sauf à faire appel à des théories idéalistes selon laquelle non seulement l'univers est parfait puisqu'il a réussi à survivre jusqu'à présent, mais aussi parce qu'il est capable d'auto-correction pour maintenir sa perfection face à des perturbations extérieures. On reconnaît là l'hypothèse dite Gaïa, selon laquelle l'écosystème terrestre pourrait maintenir son équilibre (ou homéostasie) en produisant spontanément les mesures correctives aux multiples agressions dont il est l'objet. Une autre version de l'univers parfait pourrait être trouvée dans l'hypothèse anthropique selon laquelle tous les paramètres caractérisant l'univers précis dans lequel nous sommes sont conformes aux exigences de l'apparition de la vie et de l'intelligence. Il s'agirait au regard de nos propres intérêts d'une forme de perfection, mais l'ennui est qu'elle n'est pas finalisée par l'objectif de produire la vie et l'intelligence. Celles-ci, dans l'hypothèse anthropique, sont les conséquences a posteriori de l'apparition d'un certain type d'univers parmi l'infinité des univers possibles. Rien ne garantit que ces paramètres favorables se maintiendront à l'avenir.

Si donc on ne saurait affirmer que la nature produit des formes parfaites, peut-on dire qu'elle produit des formes optimisées ? En ingénierie, nous l'avons dit, l'optimisation consiste à rechercher par essais et erreurs (ou par des processus de simulation numérique) les meilleures catégories de solutions possibles à des contraintes prédéfinies. Elle répond donc à une finalité fixée par l'ingénieur. Dans la nature, par définition, tout ce qui existe dans le monde physique et biologique est là parce qu'il s'est révélé viable, adapté à la survie. Il s'agit donc d'une forme d'optimisation qui peut fournir des références intéressantes à l'ingénieur recherchant des solutions inspirées de celles de la nature. Mais ce type d'optimisation n'est guidé par aucun objectif fixé a priori par qui que ce soit. Les systèmes vivants que nous pouvons étudier aujourd'hui, bien qu'ayant survécu à d'innombrables phénomènes sélectifs, peuvent présenter des défauts tels que l'ingénierie n'aurait aucun intérêt à les copier. De plus, nous l'avons dit, ils ont évolué dans des espaces fortement contraints par des lois physiques bien définies. Si l'homme veut s'affranchir de celles-ci, il devra rechercher des modes d'optimisation originaux.

Si la nature ne crée pas de formes particulièrement parfaites, et ne crée que des formes optimisées pour faire face aux conditions du passé, quel est l'intérêt de s'interroger sur les processus de la morphogenèse naturelle, c'est-à-dire de la création des formes dans la nature ? Le premier de ces intérêts est relatif au simple développement des connaissances. Nous avons vu précédemment que les hommes ont toujours cherché à comprendre pourquoi le monde était fait de tant de formes à la fois différentes et riches en régularité. La question reste plus que jamais posée aujourd'hui, alors que le progrès des sciences fondamentales comme des technologies va permettre le développement d'entités artificielles dont les propriétés et formes plus ou moins complexes ne seront pas fixées nécessairement a priori par les hommes (ni par la nature) mais pourront émerger à partir de la combinaison d'éléments simples mis en œuvre par une science comme la robotique.

Cependant, la compréhension de la morphogenèse naturelle présente aussi un grand nombre d'avantages pratiques. Nous avons vu que la genèse des formes physiques ou vivantes obéit à des lois générales, telles que la recherche du meilleur rendement énergétique, dont nul ingénieur n'aurait la prétention de s'affranchir. Même si on ne veut pas copier servilement les formes naturelles, il est indispensable de connaître ces lois, et la façon dont elles contraignent le développement des formes naturelles, afin d'en tirer le meilleur parti.

Existe-t-il des méthodes pour imiter de la façon la plus efficace que possible les formes optimisées de la nature ? Une méthode empirique aussi vieille que l'humanité consiste à faire ce que l'on pourrait appeler une copie analogique globale du système naturel. On prend ce dernier comme un tout dont on ne cherche pas à analyser l'organisation de détail (le rôle des divers éléments les uns par rapport aux autres). A partir de ce modèle, on essaye de construire un objet dont les apparences soient aussi proches que possible de celles du modèle. Reste ensuite à tester le nouveau système, afin de vérifier si ses fonctionnalités sont proches ou non de celles du système naturel. Dans les cas simples (par exemple le dessin d'une arme copiant la forme d'une défense d'animal) le résultat est satisfaisant. Dans les cas plus complexes, comme l'imitation d'une aile d'oiseau, les échecs sont la règle. L'inventeur empirique doit alors s'engager dans un long processus d'essais et d'erreurs afin de rapprocher l'artefact du modèle. Le plus souvent, il n'y arrive pas et renonce à son projet.

Une méthode plus sophistiquée consiste à décomposer le modèle en éléments dont on étudie les rôles respectifs dans l'obtention de la performance finale. On appelle cela en ingénierie l'"analyse par éléments finis" ou "finite-element analysis". On construit ensuite l'artefact en conjuguant des éléments artificiels aussi proches que possible, anatomiquement et fonctionnellement, des éléments naturels. L'apparence globale de l'artefact peut alors être assez différente de celle du modèle, mais peu importe si le système donne satisfaction. Par la suite, le résultat peut être optimisé de façon continue, en faisant appel à l'analyse et à la conception assistées par ordinateur. C'est un processus de ce type qui a été suivi dans la conception des ailes des avions. On sait qu'aujourd'hui une analyse plus fine des ailes des oiseaux montre aux ingénieurs qu'ils pourraient désormais fabriquer des ailes prenant des formes et des consistances différentes selon les configurations de vol et les missions.

Nous verrons dans le chapitre 5 qu'aujourd'hui, les méthodes de la programmation et de la robotique évolutionnaires sont aussi utilisées pour obtenir des produits finis optimisés, sans partir d'un cahier des charges d'optimisation fixé à l'avance dans tous ses détails. On laisse les "parents", composants matériels et logiciels, entrer en compétition darwinienne à l'intérieur de contraintes fixées d'une façon assez large, et on conserve les "descendants" qui paraissent les plus aptes à satisfaire ces contraintes. La responsabilité de la conception est alors reportée très largement sur l'intelligence artificielle.

Quel rapport existe-t-il entre ces nouvelles méthodes de conception de formes artificielles optimisées, et ce que Adrian Bejan (Sur Adrian Bejan, voir Wikipedia http://fr.wikipedia.org/wiki/Adrian_Bejan), diplômé du MIT et professeur d'ingénierie mécanique à l'université Duke de Caroline du Nord, a nommé la "théorie constructale" dont il se présente comme l'inventeur ? Rappelons les grandes lignes de cette dernière.

Cette théorie s'inscrit dans la ligne des recherches relatives à la morphogenèse : pourquoi y a-t-il des formes (ou processus formalisés) dans la nature plutôt que rien ? Pourquoi ces formes semblent-elles se développer selon des algorithmes comparables sinon communs alors qu'elles apparaissent dans des domaines très différents : le minéral, le vivant, l’organisation et le fonctionnement des sociétés ?

La théorie constructale repose, comme beaucoup de théories modernes, sur une définition de la complexité devenue quasi obligée : la complexité, dans la nature, naît de la combinaison de processus élémentaires. Elle est dite ascendante ou émergente en ce sens que les résultats de cette combinaison ne peuvent être déduits de l'analyse des processus élémentaires générateurs. Le tout est plus que les parties, et survient de façon imprévisible. Cela paraît une banalité de le dire, mais beaucoup de gens s'imaginent encore que la complexité est descendante, c'est-à-dire qu'elle est donnée d'emblée et peut être réduite en éléments simples par l'analyse. Bejan présente à cet égard la théorie fractale comme contribuant (malgré les mérites qu'elle possède par ailleurs) à ce contresens. Pour la théorie fractale, les formes s'engendrent par fragmentation en répétant un dessin identique à chaque niveau descendant ou montant. Elles le font en application d'un algorithme constant, que l'on peut en principe analyser et réutiliser pour obtenir des résultats identiques. Il suffit de connaître la forme caractérisant un niveau pour en déduire toutes les formes que l'on trouvera aux niveaux supérieurs ou inférieurs. Or cela n'est vrai ni dans la nature ni en algorithmique informatique (dans le domaine des automates cellulaires (Sur les automates cellulaires, voir chapitre 4, encadré final) souvent évoqué en matière de fractals). La combinaison des règles simples fait toujours apparaître, à un moment ou un autre, une complexité inattendue et non explicable par une démarche réductionniste. Ainsi les formes adoptées par les végétaux dans la nature ne résultent pas uniquement de la reproduction, sur des échelles de plus en plus larges, d’une forme primitive comportant l’organe assurant la photosynthèse (la feuille), l’organe permettant la capture des éléments nutritifs du sol (la racine) et les organes de transfert et de liaison (la tige). Chaque espèce et au sein de l’espèce chaque végétal particulier développent des formes contraintes par la nature du sol, le climat et la compétition avec d’autres espèces.

Ainsi présentée, la théorie constructale n'a rien de très original. Elle est à la source de toutes les démarches dites précisément constructibles, utilisées notamment en Intelligence Artificielle (Sur l’Intelligence Artificielle, voir chapitre 5). Ce qui est intéressant est que Adrian Bejan propose de l'appliquer à la construction de systèmes artificiels ou artefacts optimisés, s'inspirant des processus d'optimisation des formes à l'œuvre dans la morphogenèse naturelle que nous avons présentée plus haut. C'est en effet d'abord pour résoudre des problèmes d'ingénierie qu'Adrian Bejan propose sa théorie constructale. Comment aboutir facilement à des solutions aussi optimisées (certains disent parfaites, mais le mot nous l'avons vu est excessif) que celles existant généralement dans la nature ?

Les études en plein développement relatives à la morphogenèse naturelle paraissent montrer que la construction de formes dans la nature résulte de l'action de lois physiques et chimiques, analysées depuis bientôt deux siècles par les sciences du macroscopique (On n'a pas besoin ici de faire appel aux processus quantiques, puisque le niveau d'approximation permis par la physique classique suffit largement à résoudre les problèmes globaux que pose la compréhension de la morphogenèse naturelle). Ces lois sont en très grand nombre : lois de la diffusion gazeuse, lois de la dilatation en fonction de la température, lois de l'écoulement des fluides, lois des frottements, etc. C'est une chance pour l'ingénieur, puisque le plus souvent il n'a pas besoin d'inventer des algorithmes spécifiques. Les formules mathématiques dont il a besoin existent déjà pour l'essentiel et peuvent être réutilisées sans problème, tant du moins que l'on restera au niveau d'approximation dont peut se satisfaire l'industrie d'aujourd'hui. Si on veut plus de précision, il sera possible de partir de l'existant afin d'affiner les équations.

Peut-on trouver un principe commun derrière toutes ces lois ? La question n'est pas sans intérêt, pratique mais surtout théorique. L'existence d'un tel principe commun nous permettrait de comprendre le fait, déjà signalé ci-dessus, que la morphogenèse naturelle ne génère pas n'importe quelles formes. Même si celles-ci paraissent incroyablement diverses, on sait bien qu'en physique comme en biologie, l'évolution, fut-elle darwinienne, s'exerce dans des fourchettes étroites. On ne verra pas, par exemple, les vagues de la mer ou les dunes de sable dépasser une hauteur limite, quelle que soit la force du vent. Et ceci dans tous les domaines. Pourquoi ? Si nous admettons que les systèmes étudiés s'inscrivent dans les principes de la thermodynamique et subissent par conséquent la loi de l'entropie croissante, il faut que pour conserver ou accroître leur "ordre", ils réalisent des dépenses d'énergie en puisant dans des sources extérieures. Dans ce cas, les systèmes les plus aptes à survivre, qu'ils soient physiques ou biologiques, seront ceux qui consommeront le moins d'énergie - ou plus exactement ceux dont la consommation d'énergie sera parfaitement ajustée aux exigences de leurs performances. En d'autres termes, les systèmes naturels, ayant survécu à des milliards d'années d'évolution, sont ceux qui sont optimisés au regard de la consommation d'énergie (ou de la consommation de ressources rares quand l'énergie dont ils ont besoin n'est pas obtenue directement). On peut montrer que c'est ce qui se produit en général dans la nature. Ce sera là le principe commun, ou un des principes communs, que nous recherchions. Ainsi en retire-t-on l'impression fausse que la nature est parfaite.

Dans ces conditions, si l'ingénieur veut réaliser un système artificiel qui soit aussi efficace qu'un système naturel, notamment en termes de consommation d'énergie, il lui suffit en principe de copier le système naturel. On analyse celui-ci dans ses détails et on reconstruit un système artificiel en accumulant les détails favorables à l'obtention d'une solution optimisée. Mais nous avons vu que cette approche globale (ou descendante) n'aboutissait généralement pas, car les systèmes naturels sont trop variés et détaillés pour permettre une analyse. Il faut procéder autrement.

C'est ce qu'Adrian Bejan propose de faire de façon systématique, en utilisant sa méthode constructale. Si l'ingénieur veut réaliser un système complexe optimisé, il découpera ce système en unités aussi petites que possible, pour lesquelles il deviendra alors relativement facile de définir les conditions de fonctionnement optimisé. On retrouve l'analyse par éléments finis évoquée plus haut. La forme élémentaire optimale étant trouvée, on reliera plusieurs de ces unités en réseau dont les lois physiques, là encore, permettent de définir la forme optimale. De proche en proche, en remontant par ce procédé les échelles une à une, on arrive à une forme globale optimale par rapport aux contraintes et objectifs désirés. Cette forme optimisée est donc construite de façon ascendante, compte tenu des caractères propres des unités qui la composent, elles-mêmes optimisées chacune à son niveau. Il est évident que sans l'ordinateur, cet assemblage de formes optimisées destiné à être lui-même globalement optimisé ne serait pas possible

Adrian Bejan et ceux qui s'inspirent de sa théorie donnent de nombreux exemples de l'intérêt de la méthode constructale. Tout laisse penser qu'elle se répandra de plus en plus, et sera appliquée à tous les problèmes d'ingénierie et de design faisant appel aux lois de la physique ordinaire. Elle pourra servir aussi dans le domaine de la construction de systèmes d'intelligence artificielle ou de vie artificielle optimisés au regard de contraintes non physiques (rapports performance-coûts).

Retour au sommaire