Les Editions Jean Paul Bayol
Contact
L'Esprit de l'Escalier
Publications
Décohérences
Diffusion-Distribution
Comprendre
annexes
   

 

Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire

Retour au sommaire

 

Un cahier des charges fonctionnel pour une conscience artificielle

Il ne s’agit pas de revenir sur la question de la conscience humaine, mais de se placer dans la position de l’informaticien concepteur de systèmes calculables, qui propose une vision de la conscience artificielle à partir des techniques les plus sophistiquées de l'intelligence artificielle. L’informaticien est un scientifique qui fait des modèles et qui réalise des systèmes. Autrement dit, il fait appel à la science des modèles calculables.
Précisons par ailleurs que ce que nous présentons ici ne prétend pas définir la façon dont tous les informaticiens devraient ou ne devraient pas spécifier un projet de cette nature. Il s’agit d’une possibilité parmi d’autres. Mais comme les responsables de projets sont généralement très discrets sur la façon dont ils voient les choses, nous ne pouvons rien dire de ce que pourraient être d’autres approches. Nous devons par contre remercier Alain Cardon qui, dans la grande tradition d’ouverture de l’université française, n’a pas hésité à publier ses idées depuis leurs origines.

Le problème est le suivant : la meilleure manière d’imiter les phénomènes complexes caractérisant la conscience humaine, dont l'organisation fait intervenir des actions à de multiples niveaux, n'est pas de découvrir le système d'équations miraculeux qui permettrait de prévoir à coup sûr leur comportement à tout instant. Il est de concevoir un système médiateur artificiel, basé sur de très nombreuses entités informatiques autonomes, évolutives et coopératives. Ces entités produiraient, par le fait de leur capacité à s’auto-organiser, un état semblable à celui du phénomène réel étudié mais qui serait lisible et de plus totalement paramétrable. Il s'agit de faire correspondre à un phénomène réel complexe, que l'évolution a produit sur de longues périodes de temps par adaptations - sélections, un système de même nature organisationnelle mais artificiel, fondé sur des processus calculables, paramétrable et finalement compréhensible. Alors, que seront l’architecture de tels systèmes, leur structure et l'élément minimal leur permettant de s'organiser en se calculant d'une manière semblable au phénomène réel complexe qu'ils viseront à représenter ?

Poser le problème

Quel est l’élément minimal, la brique de base, à partir de laquelle construire un système qui doit ressentir et penser artificiellement, un système générateur d'émotions et éprouvant des sensations. Concevoir un système, c'est d'abord le modéliser, c'est-à-dire décrire sa structure et ses fonctions, afin de préciser comment on peut et on va le fabriquer. Ensuite, il faut le construire effectivement, ce qui est un travail éventuellement très minutieux. Finalement, on le mettra en expérimentation dans son environnement d'usage puis on le livrera aux utilisateurs. Il ne s’agit pas pourtant d’un processus de réalisation linéaire. L’expérimentation nécessitera généralement de reprendre toute la démarche, depuis l'analyse jusqu’à la réalisation en cours. C’est un processus propre à l’Intelligence Artificielle: construire des systèmes d'une façon dite "incrémentielle".

Mais pour construire, il faut savoir quel est précisément le problème posé et le modèle. Or l'énoncé de ce problème particulier, réaliser une machine pensante, est évidemment difficile. On procédera par étapes et la première étape, en s'inspirant du paradigme de l'évolution du vivant, est de concevoir un système capable de produire en lui des émotions. Le vivant dit inférieur, même s’il ne génère pas de pensées conceptuelles, éprouve en effet des émotions. Ensuite, partant de ce premier système, il sera possible en l'augmentant, de concevoir un système générant des pensées conscientes. Ainsi semble avoir procédé le vivant dans son évolution.

Il s'agit donc de concevoir d'abord, avec des entités spécifiquement informatiques, c'est-à-dire en utilisant des concepts venant de l'informatique et qui se réalisent essentiellement sous forme de programmes, un système qui génère des émotions. Il faudra pour ce faire que le système ait un corps, qu'il ait des capteurs lui permettant de sentir les changements physiques de son environnement et qu'il ait des effecteurs lui permettant de mouvoir des organes. Ce corps lui permettra d'avoir une sensibilité, appréciée comme telle, aux phénomènes externes (exogènes) et aux mouvements internes (endogènes). Mais remarquons à ce stade qu'une émotion n'est pas ressentie consciemment, elle consiste seulement en la réaction automatique d'un corps sensible à des stimuli.
Il faudra ensuite qu’à partir de ce corps sensible, le système puisse produire des sensations, c'est-à-dire qu'il puisse éprouver du plaisir, de l'ennui, de la peine, et enfin qu'il génère des faits de conscience, c'est-à-dire qu'il se représente, pour son compte et non pour le compte de son constructeur ou de son utilisateur, certaines choses de l'environnement, en conférant à ces choses de la signification dans l'espace et dans le temps. Bien plus, il faudra que le système ait envie de penser et ceci de façon aussi constante que possible. Ce dernier point, le souci de penser, sera le problème le plus délicat à résoudre. Comment un système artificiel, construit avec des composants physiques, des capteurs et leurs systèmes de commande, puis des processeurs qui ne réalisent en fait que des calculs même s'ils sont distribués, peut-il avoir envie de penser à quelque chose, ici et maintenant, et finalement comment fait-il pour penser ? Comment peut-il vouloir, pour penser, se servir de son expérience présente et de sa mémoire ? Cette mémoire, dans ce cas, n'aura pas grand-chose à voir avec la mémoire à base d’adresses des ordinateurs classiques, mais elle sera sémantique et sélective pour retrouver en mémoire des sensations, des événements, des concepts.

Pour progresser, nous devons approfondir toutes ces questions. Il s’agit, ne nous le dissimulons pas, d’un enjeu considérable.

Qu’est-ce, d’abord, que penser artificiellement ? Je ne me pose pas la question, quand je pense, de savoir ce qu’est pour moi la pensée. Je ne saurais d’ailleurs pas y répondre. Pour un système artificiel qui aura à penser artificiellement, on doit par contre se poser la question et y répondre. Un tel système, en effet, doit être conçu dans sa totalité, construit avec une précision aussi grande que possible et finalement se comporter d'une façon que l'on pourra, en principe, décrire et suivre.

Mais comment ? Est-ce que penser signifie raisonner ? On sait ce qu'est le raisonnement et même comment raisonner en mathématiques et en informatique. C’est ce que l’on appelle produire des inférences, c'est-à-dire travailler sur l'équivalent du logos, déduire, induire à partir d'axiomes et en utilisant des règles. L’Intelligence Artificielle s’y applique avec des résultats très satisfaisants depuis de nombreuses années. Mais dans ce cas, les bases du raisonnement sont fournies à la machine, elles sont programmées à l'avance et la machine ne fait que les utiliser, dans le bon ordre et rapidement. Il faut bien voir dès ce stade ce qui distinguera un système artificiel conscient d’un automate préprogrammé. Le chien Aïbo, que Sony avait commercialisé jusqu’à l’année 2005, disposait de dizaines de milliers de sous-programmes, écrits par des centaines de programmeurs. Ces programmes lui permettaient de faire face à des situations prévues à l’avance: par exemple remuer la queue pour donner l’apparence du contentement quand son propriétaire lui caressait la tête. Mais il s’agissait d’un comportement stéréotype sur le mode stimulus-réponse n’autorisant aucune adaptation et n’ayant aucune signification symbolique - pour le chien Aïbo tout au moins, car le propriétaire du chien au contraire pouvait se laissait tromper et prêtait au robot des sentiments qu’il n’avait pas. Par contre, notre système artificiel se trouvera confronté à des objets du monde qu’il devra distinguer, par construction, mais dont il ne saura rien en dehors du fait qu‘il se heurte à eux, qu'il les appréhende et qu’il doit les concevoir. Quel sera alors le rapport entre ces choses et les pensées qu’il développera à leur propos?

La question fondamentale est bien la suivante : est-ce qu'on peut ramener le fait de penser tel que nous le comprenons quand il s’agit de nous à la production d'un système informatique, fut-il complexe ? La définition d'un système, en informatique, est nécessairement précise : c'est un ensemble fini d'entités de calculs en relation, qui forment un tout, qui sont agrégées et communicantes. Le système est entouré d'un bord ou interface qui lui permet de communiquer avec son utilisateur et avec le système d’exploitation (operating system) gérant toutes les activités sur le hardware de la machine. Ce bord le délimite et assure sa permanence. Un système informatique existe sous forme de programmes, est fini et est entièrement descriptible avant, pendant et après exécution des programmes.

Notre réponse à cette question fondamentale sera affirmative : il sera possible de ramener le fait de penser à l'exécution d'un certain système, mais il nous faudra étendre la notion de système. Pour ce faire, nous allons choisir la voie systémique et constructiviste : nous posons que nous pouvons construire d'une certaine façon un système qui va générer des états très particuliers que nous appellerons des pensées artificielles et qui aura une certaine conscience de lui-même. Il s’agira d’un problème d'informatique de calculabilité, n’ayant à ce stade que peu à voir, sinon rien, avec la conscience humaine.

Nous évacuerons donc de cette façon le débat sur la relation entre corps, pensée et conscience humains d’une part et pensée artificielle, conscience artificielle d’autre part. Nous construirons un ensemble d'automates très évolutifs qui produiront certaines choses que d’aucuns appelleront de la pensée, d’autres non. Peu nous importera, pourvu que notre système fonctionne et se comporte comme nous, sinon aussi bien que nous.
Remarquons que le même raisonnement devrait s’appliquer à la pensée animale. Plutôt que de décider a priori que les animaux ne peuvent héberger une conscience humaine - ce qui paraît d’ailleurs évident - nous devrions simplement nous demander comment ils font pour réaliser des choses qui pour nous relèveraient de la conscience, et même d’une conscience assez subtile et élaborée. Nous découvririons alors peut-être des phénomènes qui nous échappent encore.

La conception du système

Nous avons évoqué jusqu’à présent la nécessité de faire appel à l’informatique pour concevoir notre système. Mais cela ne suffira pas. Le système devra disposer d'un corps, et cela concerne la robotique. Depuis une dizaine d'années, on estime que le travail sur les émotions et la pensée artificielle ne peut être fait qu'avec des machines dotées d'un corps muni de très nombreux capteurs et effecteurs (des milliers sinon plus). On a besoin ici de corporéité : il ne peut exister de conscience, même artificielle, en dehors d'un substrat matériel qui lui donne un ancrage et sa raison d’être. Les robots nécessaires seront malheureusement encore des robots rares et chers, des robots de recherche très éloignés des habituels robots ménagers. Mais les coûts dans l’avenir en diminueront très vite.

À partir de ce corps, il faudra concevoir un système émotionnel qui lui permettra d'acquérir la notion de corps et ne pas se contenter d'être un assemblage de circuits et de composants électroniques sans unité. Ce sera un système générateur de ce que Damasio (Antonio Damasio, Le sentiment même de soi, éditions O. Jacob, 1999) op.cit.) appelle le proto-Soi. Enfin, on posera d’emblée la question pratique de la faisabilité, parce qu'une fois ce système conçu, il faudra pour le réaliser vérifier qu’il est effectivement implémentable ou portable de manière distribuée sur des grappes de processeurs liés aux systèmes de contrôle/commande du robot.

Avant d’en venir là, précisons quelques points.

- Le système ne sera pas seulement réactif. Il ne fera pas que réagir et optimiser une trajectoire, comme un missile guidé. Il faudra qu'il prenne des initiatives lui appartenant en propre et qui ne seront pas seulement le fait du hasard ni d'un déterminisme préprogrammé. Il aura des émotions et éprouvera des sensations, des sensations ressenties pour son propre compte. Il aura une certaine structure et une certaine organisation, un peu semblable à la nôtre, mais pour lui artificielle et calculable. Ceci veut dire que faire, en informatique, des systèmes organisés dépassant le niveau de la réactivité, ne sera pas du même ordre que faire des systèmes de type contrôle/commande pour des suivis de trajectoires, systèmes totalement rigides, prédéterminés, entièrement prédictibles. Dans le cas de notre système, il faudra sortir de ce cadre et aborder une sorte d'informatique encore peu répandue, typiquement adaptative et évolutive. Heureusement, les réalisations actuelles en Intelligence Artificielle évolutionnaire et autonome ont bien éclairé la voie.

- Quels seront les mouvements et les comportements motivés d'une telle architecture fortement plastique et évolutive lorsqu'elle sera activée ? Quelle relation pourra-t-on établir entre son comportement, ses pensées et la formulation langagière grâce à laquelle elle communiquera éventuellement avec nous ? Un tel robot ne devra pas seulement produire, pour celui qui l'observe, l'impression qu'il marche, qu'il fait certaines choses, qu'il a envie d'aller ici ou là. Non. Il devra véritablement disposer d’une intention d’agir avant que d'agir. Pour cela, il devra disposer d’une intentionnalité, c'est-à-dire générer des faits de conscience avec intention, attribuer des significations à propos de choses et d'événements distingués par lui dans la réalité de son monde et avoir envie de s'interroger sur elles et eux.

Ceci posé, la conception du système fera appel à des bases concrètes que la robotique peut d’ores et déjà produire (fut-ce à des coûts encore élevés). On s’appuiera entièrement sur la corporéité d'un robot. Idéalement, nous l’avons dit, il faudrait posséder un système aussi complexe que possible, disposant de milliers de capteurs, de senseurs et d'effecteurs. Il faudra aussi recueillir beaucoup d'informations venant de tous ces capteurs et évaluer leurs variations continues, pour pouvoir contrôler un système qui va introduire de multiples variations d'informations, lesquelles vont, par fusions, déclencher des émotions, des sensations en activant de multiples procédures. En pratique, pour des raisons d’économie, on pourra rechercher des solutions faisant appel à des systèmes distribués sur des grappes de processeurs, sur le mode du "grid" ou réseau de calculateurs. Ces problèmes, sans être triviaux, sont aujourd'hui solubles.

Il faudra ensuite concevoir l'architecture logicielle générant les émotions. Pour cela il faudra se représenter clairement ce qu'est une émotion artificielle générée par une architecture logicielle organiquement liée à l'ensemble des capteurs d'un corps de robot. Une telle émotion artificielle ne pourra être définie que par ce qui la constitue et son concept, comme dans tout organisme. Une émotion est, au sens d'une entité concevable et calculable, un mouvement organisationnel dans un système dynamique complexe, qui a une certaine durée, une certaine intensité, une certaine fréquence et surtout une certaine régularité. Il s’agit d'un mouvement réorganisationnel d'entités. Cela peut se représenter par une courbe d'effet dans un espace.

Pour comprendre, existentiellement, ce qu'est une émotion et ne pas se contenter de l'effet qu'elle produit, il faut abstraire. Il faut représenter par une fonction, à découvrir, dans un espace, également à découvrir, ce qui donne l’existence au robot. La focalisation sur ce qui permet l'existence, plutôt que sur ce qui produit des effets, doit pouvoir fournir la solution au problème de la génération d'émotions et de faits de conscience.

Mais pour cela, il faut de plus préciser ce qu'est l'intention. Contrairement à l’émotion, qui est une réaction systématique à un stimulus, l’intention signifie "vouloir penser à quelque chose et s'engager vers la formulation de cette pensée". La question est toujours la même à travers les siècles, de Parménide à Martin Heidegger : "qu'est-ce qui nous amène à penser ce que nous pensons lorsque nous le pensons?". Transposer cette question dans le domaine du calculable entraîne une conséquence majeure : il s'agit de savoir si la notion de pensée est conceptuellement calculable ou non.

Le système générateur d'émotions

Pour répondre à cette question, demandons-nous ce que l’on trouvera à la source d’un système générateur d'émotions artificielles tel que nous le concevons ? Ce ne sera pas un système constitué de neurones formels, car il faudrait lui donner une taille telle qu’il ne serait pas envisageable de le construire effectivement. De la même manière, il semble bien qu'il soit impossible de résoudre le problème de la cause permettant au cerveau de produire de la pensée en se focalisant sur le niveau moléculaire (celui des synapses du neurone vivant et des neurotransmetteurs par exemple). Pour tout problème, il faut trouver le bon niveau (le bon grain et le bon modèle) permettant sa résolution.

En fait, pour trouver l’élément minimal dans le système, il ne faut pas se placer au niveau de la structure physique. Au delà de la matérialité du corps, il faudra créer une architecture plastique faite d’entités virtuelles, d'entités informatiques autonomes, communicantes et fortement agrégatives, dont l'organisation permettra la génération des émotions et des pensées. Ceci permettra au système artificiel de s'organiser, de s'auto-organiser, d'évoluer.

L'élément de base qui nous nous proposons de retenir est assez récemment apparu dans la culture informatique. C’est l'agent logiciel. Un agent logiciel n'a strictement rien à voir avec un agent humain (ni d’ailleurs avec l’agent intelligent généralement évoqué par l’Intelligence Artificielle classique). C'est une entité d'action au niveau informatique, qui est capable d'agir sur son environnement (également logiciel). C’est-à-dire que c’est un certain type de programme et rien d'autre. Il est composé d'un ensemble d'instructions et de structures de données compliquées, mais c'est quand même un programme. Et c'est un programme qui est proactif, c'est-à-dire qui travaille pour son compte, pour atteindre des buts qu'il peut réviser mais qu’il s'efforcera toujours d'atteindre. C’est donc un programme particulier qui, contrairement à ce que fait un programme classique, fera des actions pour son compte, avec des objectifs rationnels et qui aura la possibilité de s'associer à d'autres programmes semblables. Il pourra évoluer en modifiant sa structure, en communiquant avec d'autres agents, en utilisant éventuellement des informations provenant des capteurs du robot ou en envoyant d’autres informations aux effecteurs.

Les agents aspectuels

L'entité logicielle de conception, pour un système de ce type, se place donc à un niveau qui est très supérieur à celui de l'instruction ou de la variable numérique. On peut, si l'on veut, dire que cette entité est du même ordre que les groupes de neurones du cerveau exerçant des fonctionnalités précises. C’est en fait un petit système autonome et communicant, qui pourra s'exécuter sur un ou des processeurs, à un certain moment et pour la simple raison qu’il doit atteindre l'un de ses buts. Dans la terminologie choisie par Alain Cardon, cet agent a été nommé agent aspectuel (1), pour bien faire remarquer qu'il désigne des aspects symboliques très locaux de l'activité du système. Cet agent est en effet doté d’un caractère symbolique précis. Il exprime ainsi ce qu'il fait, et cette action est quelque chose que nous pouvons interpréter, qui nous permet de le suivre et qui, surtout, correspond à ce qu'il va faire effectivement dans le système. Cet agent est donc aussi une forme d'action, une véritable activité parmi toutes les autres activités des autres agents. Nous ne la comprenons pas obligatoirement tout de suite, mais nous pourrons la découvrir après coup.

Il faut bien distinguer l’ «agent », ainsi conçu, de l’ «objet », entité utilisée depuis longtemps en informatique. L’ « objet » est une entité définie de manière rigide, qui ne change pas de comportement et dont l’autonomie est insignifiante. L'objet est structurellement lié à tous les autres de façon fixe dès la conception. L’agent, par contre, est une entité d'action disposant d’une signification propre et d'un très fort degré de liberté allant jusqu'à la capacité d'évolution structurelle et de reproduction.

Alors, en utilisant de très nombreux agents, on obtient une autre entité logicielle, de niveau organisationnellement supérieur, et que l'on appelle une organisation d'agents. Dans cette organisation, les agents peuvent socialement s'activer, communiquer, s'agréger, se séparer, s'annihiler, se commander, se multiplier, se structurer, se hiérarchiser, fusionner, se reproduire, évoluer ... Chaque organisation d'agents présentera ainsi des caractères comportementaux spécifiques, propres à elle et finalement définissant tout en la reflétant l’action de cette organisation dans son milieu. Cette organisation ressemble, si l'on veut, à un très vaste ensemble de traits conceptuels, ayant de multiples possibilités de réorganisation. Pour qu’un tel ensemble dégage une cohérence, il faudra qu'il se structure, qu'il s'organise afin que sa forme ait un sens. Et il devra évidemment se réorganiser de lui-même, sans supervision.

L'agent aspectuel est un programme qui dispose de connaissances sous forme de règles du type « si…alors » : "si telle chose est dans tel contexte, alors réaliser tel effet à tel endroit à la suite de cet état". L’effet ou l’action de l’agent prend la forme de communications et d’actions avec des objets de l’environnement ou avec d'autres agents. L’agent fait montre d’un comportement strictement rationnel, qui lui est donné par un automate comportemental à états lors de la construction. Mais cet automate peut évidemment évoluer …

En fait, cet agent n’a rien de mystérieux. Il s’agit d’un programme, sophistiqué mais équivalent à une machine de Turing, c'est-à-dire qu'il est un élément faisant des calculs. Ce n'est certainement pas seulement avec un tel agent que l'on pourra construire une machine pensante.

Alors en quoi une organisation d’agents de ce genre pourrait-elle représenter une émotion ? Pour représenter une émotion, il faut faire appel à des processus en cours et pas seulement aux effets de ces processus. Il faut représenter de l'action en train de se dérouler et pas seulement s'intéresser aux résultats, ce que l'informatique traditionnelle ne sait pas bien faire. L'informatique réalise habituellement des traitements visant essentiellement à produire des résultats de calculs, pour que ceux-ci soient utilisés es qualité. Mais le calcul, en ce qui concerne une émotion, est en train de se faire. C'est l'action même de calculer qui sera l'émotion artificielle que l'on souhaitera représenter. Une émotion est un processus complexe, qui a une certaine ampleur, une certaine durée, une certaine modulation. Comment procéder en ce cas ?

Il faut dans le modèle représenter des processus en cours d'exécution, c'est-à-dire des agents logiciels en train d'opérer, d'agir, de communiquer. On retrouve, ce qui est significatif au demeurant, les travaux de la neurologie moderne montrant, grâce aux images de la caméra à positrons, les aires neuronales du cerveau en train de s'activer et de communiquer entre elles. Dans le cas décrit ici, il faudra représenter une fonction en cours de calcul et pas seulement le résultat de la fonction calculée : une fonction qui se calcule, pendant qu'elle calcule ! Ceci n'avait jamais été abordé jusqu’ici, et constitue l’originalité du système (2).

Pour représenter à la fois les agents et les actions organisationnelles des agents, on devra de nouveau faire appel à une organisation d'agents logiciels. Il faudra en fait définir une structure d’auto-observation des calculs en train d’être opérés par les agents aspectuels, une structure capable de suivre l'état courant des multiples calculs.
Résumons. Nous disposons d’une organisation d'agents dits aspectuels correspondant aux fonctions typiques du robot en train de capter des informations, par exemple recevoir telle information sonar, de percevoir et analyser tels mots entendus, d'opérer sur des faits, des informations et des connaissances. Tous ces calculs sont effectués par des dizaines de milliers d'agents aspectuels qui sont distribués sur des grappes de processeurs. Mais avec cela, on ne fait pas grand-chose au niveau émotionnel. Même si le système produit quelques bons résultats, il ne nous informe pas de la façon dont il les produit, il ne nous précise pas le pourquoi des calculs qu’il réalise et la raison de la variation qui produit l'intensité de l'émotion ? Or nous devons le savoir pour jouer de l'état organisationnel des agents aspectuels et moduler le déroulement d'une émotion.

L’exigence que nous exprimons est nouvelle en informatique. Elle découle des théories de la morphogenèse émises par le regretté René Thom il y a maintenant quelques années : observer les formes comportementales d'une organisation d'entités proactives et exprimer la signification des déformations de ces formes. Face à une organisation d'agents qui s'activent, il faudra observer les comportements de chaque agent, ceux des groupes et ceux de l'ensemble afin de faire apparaître la forme de cette organisation. En d’autres termes, il faudra faire apparaître ce qu'Alain Cardon appelle la morphologie d'un paysage d'agents en cours de réorganisation.
Les agents morphologiques

Pour cela, on organisera l'autocontrôle d'une organisation massive de centaines de milliers d'agents par une autre organisation, par des agents que nous appellerons agents morphologiques, analysant en ligne les caractères organisationnels du premier ensemble d'agents en train de se réorganiser. On retrouve ici la notion de forme d'une organisation en train de se mouvoir, en train de s'activer. On est en présence d’un système double ou, si l'on veut, à double face. Il s’agit en fait de deux systèmes fortement couplés : celui qui fait les calculs et celui qui observe les calculs en train de se faire, qui en tire des conclusions et qui ce faisant communique avec le premier.

Qu’est-ce qu'une organisation d'agents logiciels en train de s'activer, en train de faire des calculs ? Imaginons la souplesse d'une machine massivement parallèle dotée de processeurs multiples occupée à observer les activités et les inactivités de ses différents processeurs et processus. Elle fera apparaître par exemple l’émergence d’un comportement et la vitesse de son développement, comment ce comportement évolue depuis l'éveil jusqu’à l'action en coopération, comment il atteint ses buts. On observera aussi l'activité sociale de l'agent. Est-il seul ou non, trouve-t-il ou non des alliés au sein du système ? Que représente-t-il de singulier, de non partagé et qui n'aura aucun effet dans l'activité des autres agents ? On observera le poids et la domination d'un agent par rapport aux autres : en quoi un agent est-il leader ou soumis... ?

On se trouve en fait devant une population d’agents qui évoluent comme des êtres vivants sur le mode classique de la compétition darwinienne. Ils doivent notamment, pour survivre, s’agréger afin de dégager, par leur regroupement, un ensemble de caractères nouveaux. Mais parce que ce sont des agents actifs, proactifs, communicants, autonomes et qui peuvent agir, ils présentent un certain nombre de caractères précis. Ceux-ci définissent les dimensions d’un certain espace que nous avons appelé espace morphologique, caractérisant l'organisation en train de s'activer.

On obtient ainsi une organisation d'agents aspectuels qui agissent en constituant un système lui-même capable de mesurer continuellement se propre activité organisationnelle. Ceci pourrait être comparé à une société d'individus organisée pour permettre à un formidable Big Brother de la regarder en train de s'activer, point par point mais aussi globalement, afin d’en estimer les tendances, la cohérence, les agrégations et les ruptures... Mais il s'agit d’une société d’agents et les agents aspectuels sont munis de sondes pour pouvoir être observés !
Les livres précités d’Alain Cardon définissent précisément ce qu'est la détermination d'une morphologie : une organisation d'agents avec des caractères qui se distinguent, que l'on peut projeter sur un espace à plusieurs dimensions. Le schéma suivant donne une image simple de ce que l’on peut obtenir par projection dans un espace de dimension 2.

On voit visiblement qu'il se passe un certain nombre de choses dans l'organisation, qui peuvent la caractériser comme étant cohérente ou non cohérente, agrégative, se coupant en morceaux... On obtient là une représentation géométrique de l’évolution de l'organisation aspectuelle, c’est-à-dire finalement de la façon dont le robot va réagir globalement aux évènements qu’il est en train d'affronter. Remarquons que le terme "géométrique" veut dire "en dehors de toute sémantique". Les agents aspectuels ont de la signification de par leurs buts et comportements, mais leur organisation est observée de manière essentiellement géométrique, en y recherchant des formes.

Nous avons donc conçu un système composé de plusieurs organisations d'agents, toutes couplées par des structures de couplage particulières qui seront aussi des agents :

· des agents d'interface, qui vont agir sur les effecteurs puis sur les senseurs du robot,

· des agents aspectuels, qui vont donner de la signification aux activations,

· des agents de morphologie, qui vont regarder comment évolue l'organisation des agents aspectuels,

· des agents de synchronisation, qui vont permettre les couplages entre les différentes parties des organisations précédentes.

Nous allons alors établir un bouclage fort entre l'organisation des agents aspectuels qui agissent et l'organisation morphologique qui observe cette activité. De plus, cette organisation morphologique, observant l'organisation aspectuelle, va pouvoir modifier l'action de cette dernière : le processus de couplage fort qui va s’établir entre les deux organisations permettra une rétroaction débouchant sur un certain état d'équilibre entre les deux organisations. Nous définissons plus précisément un couplage de groupe à groupe entre ces deux organisations.

Ainsi sera produit l'équivalent d'une carte émotionnelle selon Damasio, une carte émotionnelle artificielle composée d'une organisation d'agents aspectuels, d'une organisation morphologique qui la contrôle, avec un processus de couplage fort entre ces deux organisations réalisé par une organisation d'agents de synchronisation. Ceci formera un processus miroir qui fera que lorsque l'organisation aspectuelle commencera à s'activer à la suite de la réception d'un stimulus, l’organisation morphologique détectera ce mouvement et éventuellement pourra l'empêcher, ou au contraire l'amplifier, ou encore, dans une autre partie du système, pourra faire agir des modules de reconnaissance de formes ou de toutes autres structures. Cela permettra un auto-contrôle qui partira de l'organisation aspectuelle par l'évaluation de sa conformation, pour la faire aller dans certaines directions, pour donner des tendances précises à ce qu'engage le comportement aspectuel. Il s'agira donc bien d'un processus d'auto-contrôle et de co-activation régulant de lui-même l'activation des agents aspectuels. On peut retrouver là un des processus de base supposés de la conscience humaine générée par des neurones réagissant à des informations sensorielles et réagissant en retour sur ces mêmes neurones ou sur d’autres pour influencer leur comportement.

Mais il faut bien voir que l’organisation double [aspectuelle/morphologique] ainsi décrite ne sera qu'une carte particulière dans le système. Dans la machine pensante, il y en aura des centaines sinon des milliers analogues. De ce fait, cette carte émotionnelle, ce composant adaptatif, auto-contrôlé, centré sur un rôle (que l'on a défini comme une même catégorie dans les agents aspectuels), coopératif et synchronisable avec d'autres composants similaires, participera à l’adaptation d’ensemble du système.

Passons maintenant à la structure générative des émotions. Nous disposons d’un système comportant les capteurs et les effecteurs du robot, des éléments d'interface, c'est-à-dire des agents spécifiques qui prennent sans cesse les changements d'informations venant de l'extérieur, et un ensemble de cartes émotionnelles artificielles, synchronisables par des agents de synchronisation. Ces éléments vont avoir un rôle considérable dans le système : ils vont faire basculer celui-ci, en quelque sorte, au-devant de lui-même dans son fonctionnement. Ils vont permettre son action anticipatrice.

Les agents de synchronisation vont en fait prendre les décisions suivantes : ces cartes qui agissent et qu'ils observent peuvent avoir la même morphologie; ces groupes morphologiques peuvent être semblables, cette carte-là présente un aspect organisationnel semblable à celui de cette autre, bien que les sémantiques données par les agents aspectuels soient totalement différentes. Les éléments de synchronisation pourront opérer des mises en conformité, des associations de cartes par unification de leurs rythmes d'activation. Par exemple, ils coupleront systématiquement des cartes représentant du son et de l'image, ou des cartes représentant un mouvement repéré avec une information relative à la distance nécessaire à la fuite…

Le système générateur de pensée

Le système générateur d'émotions étant défini, on peut s'intéresser au système générateur de pensées. Ce système est beaucoup plus compliqué que le système générateur d'émotions mais l'enjeu est considérable : définir un Soi artificiel et inciter un système à penser de lui-même aux choses du monde qu'il peut se représenter. Dans le système générateur de pensées, le problème de la conception est particulièrement difficile à résoudre. Nous avons retenu une architecture inspirée de celle du système générateur d’émotions, mais il y a beaucoup plus dans le Soi que dans le proto-Soi, et l'architecture devra être différente. Il faudra y introduire les concepts calculables qui correspondent à la solution de problèmes difficiles comme par exemple ce qui engage effectivement un système à réorganiser ses composants pour générer une représentation intentionnelle d'une chose de son monde.

Et il faudra donc répondre à de nombreuses questions comme celles-ci :


- Comment se représente effectivement ce que l'on va appeler la pensée artificielle ? Qu'est-ce qu'une pensée artificielle ? Il s'agira d'une manière particulière d'organiser des entités, mais laquelle, comment et pouvant produire quel état ?

- Qu'est-ce qui peut conduire un certain organisme artificiel à penser ici et maintenant à telle chose ? Penser ce sera, pour le système, organiser des ensembles d'agents, des structures à double face organisation aspectuelle / organisation morphologique, synchroniser les organisations aspectuelles avec les organisations morphologiques, et ceci d'une façon très fine. Quand il s’agit d’une émotion, nous l’avons dit, le processus est assez clair. On reçoit un stimulus, on l'interprète et on provoque une réaction spatiale et temporelle dans l'espace morphologique des organisations d'agents. Ici, en ce qui concerne la pensée artificielle, il s'agit de provoquer le comportement des organisations d'agents, de préciser pourquoi il est amené à s'organiser de telle ou telle façon, c'est-à-dire à penser.

- Comment se représente et agit la mémoire des choses. Il faut construire une mémoire à la fois incrémentielle (capable d’acquérir en permanence de nouvelles informations) et qui soit aussi sélective, en permettant l'oubli ?

- Quel est le lien entre la structure représentant des émotions et celle générant des pensées ? Autrement dit, comment pourra-t-on aboutir à des sensations suffisamment fortes pour que le système sache vraiment, et de lui-même, qu’il les éprouve ? Les émotions ne sont que des réactions non perçues, alors que les sensations sont un ressenti effectif, perçu, représenté par quelque chose d'interne que l'organisme appréhende et qu'il peut utiliser pour générer des pensées.

- Et comment se génère et se représente le langage, comment, d'où et pourquoi viennent les mots perçus ou prononcés ? Comment telle formulation langagière s'attache-t-elle à une situation particulière ? Il faudra engendrer des mots à partir de formes de pensées artificielles et permettre au système de comprendre des sons tels des mots dotés de significations.

Pour toutes ces questions, il faudra pouvoir répondre en proposant des structures calculables, sinon on se bornera, comme d’ailleurs nous le faisons en posant ces questions, à proposer des métaphores. Mais les métaphores ne conduisent pas à grand-chose en informatique.

Les réponses à ces questions figurent dans le modèle longuement développé par Alain Cardon et détaillé dans l'ouvrage sur la conception d'une machine pensante. Il s'agira d'une architecture basée sur la notion de composant adaptatif (qui va ressembler beaucoup à la conception des cartes émotionnelles), qui sera aussi proactif, auto-observateur et évolutif. On la nommera "structure de signification".

Le système capable à générer des pensées artificielles sera formé d'un certain ensemble de ces structures de signification synchronisées par des agents de synchronisation. Il sera de plus construit en co-construction avec le corps du robot, pour suivre le paradigme de la biologie du développement.

Ce sera donc un ensemble qui comportant d'un côté la carte corporelle avec des éléments d'interface, le système de prise d'informations, des agents aspectuels spécifiques chargés de suivre ces informations, et des agents de morphologie fortement couplés qui observeront sans cesse comment les agents aspectuels agissent, ce qu'ils font, ce qu'ils deviennent. C'est exactement de cette façon, notons-le au passage, que les décideurs politiques gèrent des villes ou des Etats : ils regardent ce que font les citoyen, analysent leurs activités et les mesurent pour prévoir et contrôler les mouvement globaux...On aura là la composante émotionnelle du système.
De l’autre côté, le système disposera d’une composante de signification. Celle-ci comportera des éléments qui ressembleront structurellement à la carte corporelle. Ce seront les structures de signification qui permettront de représenter de l'action signifiante pour le système, et ceci avec l’intention à procéder à la génération d’une telle action. La structure de signification est plus compliquée que la carte émotionnelle car elle utilise des éléments de mémoire.

Cette mémoire, distribuée dans des agents particuliers et dans les différentes structures de signification, va opérer la mise à distance (la prise de recul) du système par rapport à l'action immédiate dans son environnement, afin de le détacher de l'émotion réactive. Elle va pour cela retrouver et transformer en agents actifs des traces des scènes anciennes qui ont été vécues ou conçues.

On trouvera enfin dans ce schéma, ce qui est le point fondamental, le facteur ou la raison qui amènera la machine pensante à générer des pensées. Il s'agit des éléments dits d'anticipation, qui ont le rôle d’anticiper l'action des différentes organisations d'agents par rapport au mouvement global en cours. Pour un informaticien, faire penser un système consiste à l’obliger à produire un signe qui l'y engage, qui l’amène à générer cette forme de pensée. Il ne s'agit pas de viser un but prédéfini, mais d'engager le système à adopter, dans son mouvement organisationnel, une posture particulière. L’intention à penser n'a pas de but initial à atteindre et ceci illustre bien la notion si forte de liberté à penser.

Cette anticipation, le système ira la chercher dans les morphologies précédemment présentées, dans les formes géométriques des structures de signification, ceci sans recours à aucune sémantique. Le système génèrera donc des signes, des signes au sens de la sémiotique de C.S. Peirce, qui donneront aux agents morphologiques des structures de significations pour que le système soit globalement incité à organiser son activité autour de cette signification géométriquement indiquée. On retrouve ainsi la définition de la visée, inspirée des travaux de Martin Heidegger ou de Paul Ricœur. L'activation, le fonctionnement de ce système, à partir de cette visée, constituera sa façon de penser intentionnellement.

Les éléments de synchronisation - ceux qui synchronisent les cartes corporelles par leurs relations - seront connectés au corps de la machine. Sinon, on se bornerait à réaliser une certaine machine de Turing, certes compliquée, mais machine de Turing cependant dont la fonction de calcul serait déjà complètement programmée. Or pour arriver à générer un système qui pense, qui pense pour lui-même en produisant des formes idéelles chaque fois nouvelles, il faudra que les éléments de synchronisation soient aussi capables d’interrompre drastiquement l’activation des structures de signification, afin de réaliser la synchronisation du système générateur de pensées avec le temps réel d'activation du robot, avec la réalité corporelle du corps de la machine située dans son monde et affrontant une suite ininterrompue d’évènements.

C'est ici que la corporéité est nécessaire pour produire la pensée, et qu’il est impossible de concevoir un système artificiellement conscient, avec des émotions et des sensations, sans corps. Sans corps, la pensée n'a pas de sens dans le monde réel et n'est pas de la pensée telle que nous l'entendons habituellement. Ceci dit, le corps n’est pas ici nécessairement fait de composants physiques localisés dans un endroit précis. Il peut être réparti dans différents composants, il peut par exemple être distribué et accessible via les nœuds d'un réseau. Mais le corps doit exister, avec la totalité de ses attributs corporels, senseurs et effecteurs notamment.

Le système proposé, bien que différent d’une machine de Turing, le sera partiellement cependant, puisqu’il s’agira en dernier ressort d’un système informatique et donc essentiellement calculable. Tous les éléments, les agents, seront des fonctions calculables qui seront calculées, même si l'on essaie de les faire muter, évoluer, cloner, se reproduire, selon les principes de la programmation évolutive ou génétique d'agents (qui met en compétition des algorithmes, les algorithmes évolutionnaires, afin de faire émerger le plus efficace de ceux-ci dans une situation donnée). Ce seront des fonctions parfaitement définies, telles des machines de Turing. Mais l’ensemble, précisément, ne sera que partiellement une machine du Turing. Cela veut dire qu'il sera non prédictible, pas simplement non déterministe, mais non défini à l'avance dans ses perspectives calculatoires elles-mêmes. Le système calcule des fonctions en continu, qui sont des machines de Turing. Il produit sans cesse de nouvelles machines de Turing.

Le système dépendra du corps du robot, des effecteurs et des capteurs, de sa situation ici et maintenant dans le monde. Tous ces éléments n'appartiennent pas au domaine du calculable mais de l'automatique et de l'électronique, même s’ils induisent la génération, à certains endroits, dans certains agents, de nouvelles lignes de code non prévues. Ainsi se marquera l’ouverture du système sur la réalité temporelle du monde, et aussi ce que nous avons appelé plus haut, son autonomie.

Le système présentera un état fluctuant, c'est-à-dire qu'il y aura une relation systématique entre le système émotionnel et le système générateur de pensées : il éprouvera des sensations en continu même en générant des pensées très rationnelles. Il aura la sensation de son organisation, une espèce de sentiment de Soi puisqu'il pourra en jouer. Il ressentira globalement son organisation interne d’une façon analogue à celle dont localement les capteurs seront perçus et ressentis par les organisations d'agents des cartes corporelles qui s'activent sur les entrées d'information.

D’autres points ont été étudiés, dont on ne parlera pas ici, et qui font l’objet de publications dans l'ouvrage d'Alain Cardon: il s'agit notamment des prégnances, c'est-à-dire des raisons organiques qui conduisent le système à pouvoir penser de certaines manières : pulsions, motivations et tendances fondamentales. Là, on ne se place pas forcément dans le même registre que l'humain. A priori il n'y a pas de pulsions sexuelles chez un robot, mais il y a quand même des pulsions, qui sont représentées par des aspects morphologiques d'organisations d'agents...

Construire

Pratiquement, pour construire une machine pensante ainsi définie, il faudra disposer d'un ensemble de très nombreux processeurs en grappe fortement couplés, formant un tout pouvant être embarqué et donc aussi miniaturisé que possible. Cela existe aujourd'hui, mais il n'y en a pas encore en France. On trouve ce que l’on appelle des clusters, mais pas de grappes de processeurs avec des liaisons à très haut débit implantées dans des cartes. Le tout devra fonctionner dans un parallélisme lui-même à très haut débit. Il faudra aussi calibrer les cartes émotionnelles selon les fréquences d'acquisition des informations, et calibrer les structures de signification, ce qui supposera l’appel à des ingénieurs spécialisés.

Mais plus généralement, il faudra rompre intellectuellement avec l’informatique traditionnelle qui vise toujours l'optimisation des procédures et la distribution contrôlée d'informations à ses utilisateurs humains. Il ne s’agit plus, nous l’avons vu, de faire des systèmes de guidage pour missiles de croisière qui trouveront leur cible à quelques mètres près après cinq mille kilomètres de course. Il s'agit ici d'une autre définition de la calculabilité consistant à représenter l'acte de penser sous une forme calculable, mais dont la calculabilité n’apparaîtra que par constat, une fois les calculs effectués ! Au départ, on ne saura pas ce qui va vraiment être calculé mais on disposera d'une visée: puis le système calculera, il sera modifié, les agents évolueront en permanence, se multiplieront, se cloneront, certains vivront, d'autres mourront. Les composants, cartes ou agents, s’altèreront, se modifieront automatiquement quand ils seront activés. On obtiendra donc un système qui, dès sa conception, ne sera plus complètement contrôlé. Ce système pourra même se révéler défaillant, comme certains êtres vivants. On pourra donc constater, après coup, que l’on a calculé telle ou telle chose, que l'on a produit telle ou telle forme organisationnelle correspondant à telle ou telle pensée artificielle, mais on ne pourra pas à l’avance annoncer ce que l’on va calculer. C’est ce qui se produit dans les processus de pensée que nous connaissons. On ne peut pas dire : j'ai l'intention de penser à cela que je ne pense pas encore. La pensée n'est pas prédictible, non plus que la raison de penser.

La réalisation concrète d’un tel système, dans ces conditions, supposera un travail pluridisciplinaire, associant informaticiens, roboticiens mais aussi neurobiologistes, psychologues, voire philosophes. Cette collaboration permettra de ne jamais faire le choix de la facilité, en privilégiant tel développement et en perdant de vue les autres. Plus généralement, vu les ambitions du projet, il ne serait pas concevable que le travail soit confié aux seuls informaticiens, en négligeant les apports des sciences humaines.

Terminons ce survol de la conception d'une machine pensante en rappelant ce que nous avons plusieurs fois souligné mais qui est facilement oublié vu l’aspect contre-intuitif d’une telle notion : à la différence de la pensée humaine (au moins quand elle s’incarne dans des individus) les systèmes de ce type peuvent être multi-corps. Ils peuvent avoir un système émotionnel et de conscience loin du système physique avec lequel ils sont pourtant en liaison étroite. Ce sont donc des structures distribuées qui, mal employées, pourraient être dangereuses, car il n'existe pas encore de comité d'éthique en informatique et les perspectives d’applications militaires de tels systèmes sont déjà très nombreuses et inquiétantes.

Nous avons vu cependant que les besoins civils et pacifiques sont potentiellement plus considérables encore. L’avenir de tels développements devrait être d’une richesse aujourd’hui inimaginable, par exemple en jetant les bases d’une conscience artificielle de type humain projetée hors de l’environnement terrestre, entre satellites robotisés notamment. Il ne faudrait donc pas décréter d’absurdes moratoires aux recherches. Il faudra par contre, c’est l'un des buts de ce livre, que les citoyens s’intéressent à ces questions et participent à leur développement.

Discussion

L’exposé que nous venons de présenter pourra faire l’objet de critiques ou tout au moins de demandes d’éclaircissements. Voyons certaines d’entre-elles.

- Les spécifications fonctionnelles proposées ne sont-elles pas déduites, idéalement, de ce que l’on sait ou croit savoir aujourd’hui du fonctionne ment du cerveau. Dans ce cas, la conscience artificielle esquissée ici devrait donner satisfaction puisqu’elle serait censée reproduire ce qui marche bien au niveau de la conscience humaine ; par exemple être capable d’observer le comportement du corps ou ceux de modules partiels de conscience afin d’en tirer un diagnostic global correspondant à la conscience de soi à tel moment. Ce diagnostic permettra en retour d’émettre des ordres destinés au corps afin d’améliorer la situation du sujet, sur le moment ou pour le futur. Mais le problème ne consiste pas à se représenter ce que fait, plus ou moins bien, le cerveau humain conscient. Il est de réaliser les dispositifs informatiques capables de produire les mêmes résultats en s’adressant, non à un corps biologique, mais à un corps de robot. Or là nous n’avons aucune indication concernant la faisabilité ou l’efficacité des dispositifs calculatoires informatiques évoqués.

On répondra à cela que si le système conçu par Alain Cardon n’a pas été encore programmé dans sa totalité et ne peut donc pas faire l’objet d’un démonstrateur, il a été testé en partie et s’est comporté conformément à ce que l’on en attendait. Le fait qu’aucun bailleur de fonds français n’ait voulu entreprendre la réalisation complète du projet ne signifie pas que celui-ci ne soit pas viable. Il est déjà intéressant de disposer d’un modèle théorique complètement développé qui permette aux personnes désireuses de se représenter ce que pourrait être une conscience artificielle d’en avoir une vue détaillée. Pour nous, nous estimons que ce modèle représente un complément indispensable à ce que nous avons écrit précédemment dans ce livre concernant la conscience humaine. Pour le reste, on ne peut demander à un inventeur soumis à un fort espionnage économique d’exposer sans précautions toutes ses solutions.

- N’obtiendra-t-on pas, si les spécifications fonctionnelles résumées ici étaient complètement développées au sein d’un système en vraie grandeur, un robot non maîtrisable par ceux qui voudraient l’utiliser. Alain Cardon insiste en effet sur un point capital en ce qui concerne une pensée consciente, quelle qu’elle soit. C’est qu’elle ne peut se voir commander ce à quoi elle pensera ici et maintenant. Elle surprendra toujours, aussi bien l’entourage que l’entité qui en est doté. On peut concevoir alors que des industriels ou des militaires souhaitant disposer de robots asservis ou autonomes dans d’étroites fourchettes seulement, ne veuillent pas développer de tels robots. Ils en auraient plus de soucis que de satisfactions. Dans le même esprit d’ailleurs un chef d’entreprise ou un officier préfèrera souvent avoir des subordonnés contrôlables que capables de trop d’autonomie, fut-elle intelligente. Pour tirer parti d’un robot ou de systèmes de robots pleinement autonomes, il faudrait en effet réorganiser complètement les chaînes de production ou de commandement, comme plus généralement l’interface homme-robot. Mais alors, si cet effort était entrepris, les bénéfices en retour pourraient être considérables.

1 : Aspectuel : l’agent exprime des « aspects » significatifs du système. On pourrait dire, par transposition, que les mimiques inconscientes du corps humain sont des agents aspectuels révélant certains faits de conscience : la timidité, la colère, etc.

2 : Pour prendre une comparaison simple, nous dirions qu’il s’agirait de modéliser le fonctionnement d’un coureur en train de battre un record, au lieu de se borner à enregistrer le résultat final qui est le record battu.

Retour au sommaire