Les Editions Jean Paul Bayol
Contact
Publications
annexes
   

 

Compléments du livre :
Le paradoxe du sapiens

 

Le paradoxe du sapiens

Êtres technologiques et catastrophes annoncées

 

Éditions Jean Paul Bayol – sortie mars 2010

 

Annexe VII. Sciences et techniques de l’artificialisation

1. L’intelligence artificielle (IA)

L’intelligence artificielle (dite ici IA) a connu des développements rapides, principalement
aux Etats-Unis, dans les années 1960/1970, en corrélation avec l’apparition des premiers ordinateurs scientifiques. Ces développements ont été ralentis pour diverses raisons, dont le manque de capacité des composants électroniques de l’époque. On a parlé d’une vieille IA, dont certains chercheurs (par exemple les linguistes et traducteurs) se sont détournés, déçus de ne pas voir leurs ambitions aussi pleinement satisfaites qu’ils le voulaient. Au début des années 1990, les progrès ont repris sur le mode exponentiel avec la généralisation des ordinateurs de bureau, des réseaux de télécommunications et des matériels incorporant de plus en plus de solutions IA liées à des besoins spécifiques. Par exemple les systèmes d’armes, les véhicules, les mobiles, les immeubles dits « intelligents ». Nous désignerons cette IA, dont les ambitions s’étaient beaucoup réduites et spécialisées par rapport à celles de la « vieille IA » (GOFAI, Good Old-fashion Artificial Intelligence), du nom d’IA faible. D’innombrables sociétés savantes, laboratoires, entreprises, écrits et études lui sont dorénavant consacrés.

On voit par ailleurs aujourd’hui se développer une IA qui vise à reproduire le plus grand nombre possible des fonctions et performances des cerveaux animaux et humains. Son ambition est globale, intéressant toutes les activités des corps biologiques : motrices, sensorielles, cérébrales. L’objectif est d’obtenir des systèmes capables de se représenter eux-mêmes dans leur environnement, d’élaborer des stratégies, de communiquer par des langages, et plus généralement de construire ce que Richard Dawkins avait appelé des « phénotypes étendus » ou sociétés d’IA. Nous parlerons ici d’IA forte pour désigner ces nouvelles générations d’IA. Il n’est pas possible d’affirmer que leurs vastes ambitions soient toutes atteintes, ni que les voies retenues pour y arriver soient toujours les plus pertinentes. Mais le mouvement est désormais bien lancé et semble se développer d’une façon irrésistible.

En pratique, ces IA fortes sont associés à des robots, à qui elles confèrent des propriétés d’autonomie de plus en plus marquées. Elles sont associées aussi à des systèmes de génération d’images de synthèse, dits de réalité virtuelle, dont les applications sont aujourd’hui multiples, les plus connues étant les jeux électroniques en réseau. Mais nous préférons présenter ces deux types de systèmes dans la section 3.2 suivante, en les distinguant de l’IA proprement dite, compte tenu de l’empreinte de plus en plus lourde qu’ils imposeront aux sociétés humaines. L’IA forte constituera si l’on peut dire leur cerveau logiciel, mais ces systèmes seront dotés de propriétés et capacités exigeant d’envisager globalement leurs conséquences économiques, scientifiques et politiques au regard de sociétés humaines qu’ils vont transformer profondément.

Définir l’IA constitue une activité très répandue dans la littérature scientifique. Sans entrer dans les nuances, disons que l’IA vise à simuler sur des ordinateurs et des réseaux électroniques, par l’intermédiaire de programmes informatiques et de processus d’acquisition de connaissances ne relevant pas de la programmation mais du raisonnement, un certain nombre des comportements cognitifs, ou façons de penser, des cerveaux animaux et humains. En cela, l’IA est conforme à la définition de l’intelligence pour laquelle celle-ci consiste à raisonner.

Par ailleurs, rappelons–le, simuler ne veut pas dire reproduire, car pour reproduire, il faut connaître en détail le mécanisme de la nature. Or la composition et le fonctionnement des cerveaux restent encore très difficiles à analyser et interpréter. Simuler veut dire « essayer d’obtenir, par n’importe quelle solution à notre disposition, un résultat analogue à celui qui nous intéresse dans la nature ». On ne copie pas a priori la nature, on cherche à obtenir un résultat équivalent. Ainsi, pour voler, les hommes ont compris qu’ils n’arriveraient à rien en copiant les oiseaux. Ils ont cherché et trouvé leurs propres voies. Autrement dit, on pratique le processus dit du « comme si ».

Mais ce faisant, une fois le résultat obtenu, on découvre souvent que les voies et moyens artificiels permettant de l’obtenir peuvent aider à comprendre le mécanisme naturel. On sait ainsi que l’invention du sonar dans les années 1940 pour détecter les cibles par écholocalisation a permis ensuite de comprendre comment de nombreux animaux, avec des techniques biologiques très différentes, arrivaient à identifier leurs proies (chauves-souris, dauphins, etc.).

C’est ce qui est en train de se passer avec l’IA. L’IA a dès le début cherché à simuler, plus ou moins bien, les résultats produits par l’activité des cerveaux et des sens. Ainsi en matière de reconnaissance des formes, des couleurs et des sons. Mais elle l’a fait par ses moyens propres, qui sont ceux de la programmation sur système informatique. Quand elle l’a pu, cependant, elle a utilisé les résultats que lui apportaient les sciences du vivant, physiologie, psychologie, pour mieux connaître les procédures retenues par le vivant. Mais ces résultats n’étaient pas très explicites, car ces sciences du vivant elles-mêmes, dans les années 1950/1960, étaient encore très rudimentaires, fortement teintées de psychologisme sinon de philosophie ou de métaphysique.

Depuis ces dates, les sciences du vivant ont découvert tout le parti qu’elles pouvaient tirer de l’observation scientifique détaillée des cellules, des organes et des fonctions, notamment cérébrales, en faisant appel à des techniques physiques telles que la spectrométrie de masse, ou, concernant les neurosciences, l’électroencéphalographie ou l’imagerie par résonance magnétique. Nous ne présenterons pas ces diverses techniques dans cet essai mais nous invitons le lecteur à se documenter à leur propos. Comme ces techniques font elles-mêmes appel à l’informatique dans l’interprétation de leurs résultats, une fructueuse collaboration s’est établie entre les sciences du vivant (biologie et neurologie) et l’IA. Aujourd’hui, sans se recouvrir exactement, l’IA et les neurosciences travaillent la main dans la main. Cela n’empêche pas que d’autres sciences cognitives, non réductibles à l’observation des neurones, se développent par ailleurs. Mais là encore l’IA devient pour elles un apport indispensable. C’est le cas de la linguistique et de diverses sciences sociales et humaines. Quand nous disons IA, nous voulons bien dire IA et pas simplement l’informatique. L’informatique, science à elle toute seule, est partout indispensable, mais seule l’IA lui apporte une valeur ajoutée dans les domaines qui nous concernent. Cette valeur est spécifique à chacune des grandes disciplines qui l’utilisent.

L’IA faible

L’IA dite faible est partout présente aujourd’hui. Mais elle est quasiment invisible. Ainsi, lorsque l’on navigue sur le Web en utilisant l’hypertexte, ou lorsque l’on procède à une recherche en utilisant un moteur (ne citons pas de nom…), on bénéficie d’un grand nombre de routines qui sont devenues standard, mais qui avaient aux origines demandé des mois et des mois de programmation à des équipes d’analystes et de programmeurs.

Nous nous bornerons ici à présenter en quelques mots les principaux outils qu’elle met à la disposition des concepteurs de systèmes pour rendre ceux-ci « intelligents » - le mot étant à prendre avec précaution.

Les systèmes experts

Un système expert est un logiciel capable de simuler le comportement d'un expert humain effectuant une tâche précise, dont il est seul à détenir le savoir-faire. L’objet du système-expert est de mettre en mémoire des connaissances théoriques ou factuelles difficiles à mémoriser autrement, de façon à ce qu’elles ne disparaissent pas avec le retrait de leur détenteur. Il est également de les globaliser et de pouvoir les retraduire sous forme d’aides au diagnostic.

Au début des années 1990, on avait cru voir dans les systèmes-experts un véritable sommet de l’IA et plus généralement de la simulation du cerveau. Celui-ci en effet mémorise à partir de la naissance du sujet d’innombrables connaissances et règles de comportement, auxquelles il fait appel en cas de besoin. Mettre en bibliothèque, mutualiser et faire évoluer les connaissances de nombreux experts, voire d’une collectivité tout entière, semblait le moyen de constituer un vaste cerveau global, auprès duquel tous les autres systèmes traitant des connaissances et des règles pourraient venir s’approvisionner. Des systèmes-experts plus ou moins ambitieux ont été réalisés.

L’avantage du système expert est qu’il raisonne comme l’expert. Il ne nécessite donc pas des mois de programmation. Il peut également être mis à jour en permanence, de façon à tenir compte de l’évolution rapide des connaissances. Cependant, pour des raisons complexes, aucun ordinateur ou robot dont l’intelligence serait constituée par un générateur de systèmes experts interagissant avec des humains n’a encore eu de débouché commercial. C’est pourtant là que le système expert trouverait des applications importantes.

La représentation des connaissances

Si l'on veut qu'un logiciel soit capable de manipuler des connaissances, il faut savoir les représenter symboliquement. La représentation des connaissances désigne un ensemble d'outils et de technologies destinés d'une part à représenter et d'autre part à organiser le savoir humain pour l'utiliser et le partager. Les connaissances ne se résument pas seulement à des mots et des phrases. Des schémas, des dessins, des plans, des images documentées sont utilisés en permanence. La représentation des connaissances nécessite leur classement par taxonomies ou classifications et par thésaurus.

Pour naviguer dans le monde des connaissances, des outils formels permettant de formaliser des connaissances complexes sont nécessaires. On parlera de graphes conceptuels ou de réseaux sémantiques. L’IA a systématisé et rendu traitables par l’informatique des modes de classements séculaires. Elle a standardisé la représentation en faisant appel à des objets logiques reliés par des propriétés, axiomes et règles. Des langages informatiques spécifiques utilisables dans le cadre du Web, notamment du Web récent dit sémantique qui s’intéresse aux contenus plutôt qu’aux références externes, ont été développés.

Le concept d’ontologie désigne l'ensemble structuré des termes et concepts fondant le sens d'un champ d'informations, notamment par le biais de métadonnées. L'ontologie constitue un modèle de données représentatif d'un ensemble de concepts dans un domaine, ainsi que les relations entre ces concepts. Elle est employée pour raisonner à propos des objets du domaine concerné. Tout ceci paraîtra abstrait, mais les raisonnements les plus courants procèdent de cette façon sans s’en rendre compte. L’IA, dans ce domaine comme dans celui voisin de la logique, a eu pour premier objectif de mettre en règles précises, mémorisables et utilisables par des robots, les processus ancestraux de l’intelligence animale et humaine.

La gestion des connaissances ou knowledge management

Cette technique complète et rend utilisable la représentation des connaissances. Elle rassemble les outils permettant d'identifier, d'analyser, d’organiser, de mémoriser, de partager et de restituer à la demande l’ensemble des connaissances produites et accumulées par une organisation sociale.

Mais là encore, le besoin immémorial avait fait apparaître dans les sociétés traditionnelles des méthodes empiriques de gestion des connaissances qui demeurent encore très actives dans de nombreux domaines. Les rituels religieux ou sociaux en représentent une forme.

Le traitement automatique du langage naturel

Le traitement automatique du langage naturel peut être rapproché des techniques précédentes. Il en constitue le complément indispensable puisque les données et les connaissances proviennent de multiples sources et langages, qu’il sera préférable d’harmoniser, notamment en les traduisant dans un langage unique. Qu'il s'agisse de traduire un texte dans une autre langue ou de le résumer, le problème crucial à résoudre est celui de sa compréhension. On pourra dire qu'un logiciel comprend un texte lorsqu'il peut le représenter sous une forme indépendante de la langue dans laquelle il est écrit.

Les traducteurs automatiques sont apparus d’abord dans des domaines spécialisés où ils peuvent être associés à des contenus et à des lexiques adaptés au domaine. Les traducteurs généralistes se multiplient également aujourd’hui. Ils répondent à un véritable besoin politique, notamment dans les organisations internationales refusant l’omniprésence de l’anglais. Mais la présence d’un traducteur humain reste encore nécessaire.

Les langages verbaux ne sont pas les seuls qu’utilisent les humains. Comme beaucoup d’animaux, ils utilisent aussi d’innombrables symboles, gestes ou images. Leur traduction automatique, notamment vers des langages verbaux et des bases de connaissances, sera de plus en plus nécessaire. Cela fera partie de la constitution d’une vaste culture globale transcendant individus et groupes spécifiques.

Le calcul formel

On peut mentionner dans cette rubrique le traitement informatique du langage mathématique. C’est le calcul formel qui est le plus concerné. Celui-ci, au contraire du calcul numérique, traite des expressions symboliques. Par exemple, calculer la valeur d'une fonction réelle en un point est du calcul numérique alors que calculer la dérivée d'une fonction numérique est du calcul formel. De nombreux logiciels très puissants sont commercialisés pour exécuter tous les calculs formels et bien d'autres nécessaires aux activités scientifiques et techniques.

La simulation du raisonnement humain

Les données et les connaissances servent aux humains à raisonner. Ils le font de façon plus ou moins rigoureuse, souvent inconsciemment. Ils sont capables de raisonner sur des systèmes incomplets, incertains et même contradictoires. Pour l’IA il est devenu indispensable de simuler le raisonnement humain, avec ses forces et ses faiblesses. De plus en plus les techniques de raisonnement artificiel seront capables de s’auto-optimiser. Des logiques dédiées (logiques modales, temporelles, floues, non monotones, etc.), formalisent les raisonnements humains, lorsqu’ils échappent à la logique courante intéressant les rationalités explicites, empiriques ou scientifiques.

La résolution de problèmes

Il s’agit de représenter, analyser et résoudre des problèmes concrets. Pour les premiers concepteurs de l’IA, celle-ci devait être une machine spécialisée (généraliste) dans la résolution de problèmes. Chaque être vivant le fait en permanence, les humains généralement sans y penser. Il peut s’agir simplement de marcher dans la rue afin de se rendre quelque part. Autrement dit un problème est une tâche qui exige l’exploration d’un certain nombre de réponses possibles avant de choisir la bonne, ou la meilleure. A un plus haut niveau, il faut résoudre les problèmes difficiles, ceux pour lesquels aucune solution n’apparaît à première vue. Le cas se retrouve constamment dans la recherche, l’industrie et plus généralement la vie sociale. Pour l’IA, la résolution de problèmes constitue donc un champ d’étude fondamental. Les premiers concepteurs de l’IA espéraient d’ailleurs trouver une méthode capable de résoudre n’importe quel problème, quel qu’il soit. C’était l’ambition du « general problem solving ». Ils y ont renoncé. Il a fallu segmenter les approches.

La difficulté, pour tous les problèmes intéressants (voire les plus simples en ce qui concerne les robots), est que « l’espace de recherche de solution » est très vaste. Il faut le réduire en trouvant des « heuristiques » ou méthodes d’invention évitant de chercher dans des directions inutiles. Il faut aussi faire appel à ce que l’on sait de problèmes similaires pour mieux modéliser leur représentation dans le système.

En dehors de la recherche et de l’industrie, les jeux offrent un vaste terrain d’application à la résolution de problèmes. La plupart des jeux ont fait l’objet d’applications faisant appel à l’IA. Rappelons cependant à cet égard qu’il faut distinguer entre des solutions faisant vraiment appel à des heuristiques évoluées et celles faisant simplement appel à ce que l’on nomme la force informatique brute. Vaincre un joueur d’échecs humain en mettant en face de lui un super-ordinateur géant ne présente guère d’intérêt, autrement que publicitaire. Il existe par contre des IA permettant de jouer aux échecs selon des règles bien plus « intelligentes » et donc plus économes de moyens.

Les humains comme les animaux utilisent bien d'autres méthodes que celles faisant appel à des formulations logico-mathématiques. La plupart sont même en fait incapables de raisonner mathématiquement, que ce soit inconsciemment ou consciemment. Leur moteur de raisonnement est basé sur l’imagerie sensorielle. De plus, ils raisonnent souvent par analogies, en comparant le présent au passé. Ils sont guidés enfin par des émotions qui les guident dans le choix des buts et des heuristiques pour les atteindre.

Le philosophe, logicien et informaticien célèbre Douglas Hofstadter a développé plusieurs programmes capables de raisonner par analogies. C’est le cas du programme Copycat. Il présente la caractéristique de s’inventer des rôles, autrement dit de se modifier lui-même, au fur et à mesure des questions qui lui sont posées. Il s’agit d’un bon précurseur de l’IA forte que nous allons examiner ci-après.

Un autre programme, aussi surprenant, est Phaeaco, conçu par Harry Fondalis et Douglas Hofstadter en 2005/2006. Il résout notamment les problèmes d’analogies visuelles dits aussi problèmes de Bongard. On conçoit que pour survivre dans la nature, les cerveaux des animaux ont besoin de programmes de cette sorte. Pour rechercher les caractéristiques communes des images, Phaeaco est guidé par les « idées » qu’il peut avoir à un moment donné relativement aux concepts possibles.

Pour que ces programmes deviennent vraiment intelligents, selon leurs concepteurs, il leur faudrait acquérir la capacité d’introspection, afin de comprendre les raisons de leur choix. Cela a été l’objet du programme « Metacat » dont les résultats ne sont pas évidents à ce jour. Il leur manque aussi la notion de « but », fondamentale dans le cadre de l’IA forte.

Les différentes reconnaissances de forme

L’IA, dès ses débuts, s’est attachée à fournir des outils permettant d’identifier les objets avec lesquels les animaux et les humains ont constamment affaire, et que leur cerveau ne rencontre apparemment aucune difficulté à traiter sans qu’ils en aient la moindre conscience. En réalité, comme l’ont montré les études neurologiques entreprises depuis Broca, c’est presque le cerveau entier qui est mobilisé pour construire des représentations utilisables du monde à partir des informations électromagnétiques ou sonores perçues par les sens. Des centaines d’aires différentes y contribuent. Beaucoup de processus de détail sont encore mal explorés.

Dès les origines de l’IA, on a voulu l’utiliser pour équiper des machines dotées de dispositifs d’émission et de réception de signaux divers. On voulait les rendre capables de performances voisines de celles des organismes vivants. Mais les difficultés ont été considérables. Non seulement il fallait trouver des méthodes adaptées au traitement de signaux différents, mais il fallait résoudre une bonne partie des problèmes logiques ou analogiques signalés ci-dessus. Ainsi, dans la reconnaissance de la parole, l’idéal serait un logiciel capable de reconnaître les paroles d'un locuteur quelconque. Mais ceci reste difficile, essentiellement parce que la compréhension d'un mot et à plus forte raison d'une phrase requiert beaucoup d'informations extra-langagières (le contexte, la connaissance du monde dans lequel vit le sujet, celle de ses buts, etc.).

La reconnaissance de l'écriture s’est révélée plus facile, sauf en ce qui concerne celle de l’écriture manuscrite où les variations dues à chaque « écrivain » jettent des ambiguïtés considérables sur les concepts et les phrases utilisées.

La reconnaissance des visages, sur photo puis d’après le modèle vivant, est de plus en plus requise par les systèmes sécuritaires et plus généralement par les robots qui doivent distinguer visuellement leurs interlocuteurs. Elle a longtemps été considérée comme quasi impossible. On sait cependant que le cerveau des nourrissons sait le faire très facilement. Aujourd’hui cependant des logiciels très performants sont apparus dans les laboratoires et même dans les produits du commerce.

Les actions en sortie, par exemple la synthèse de la parole, présentent moins de difficultés, car en ce cas le système « sait » déjà ce qu’il veut signifier. C’est sur son interlocuteur humain que repose la tâche de l’interprétation. Cependant l’IA, là encore, s’efforce de trouver les modes d’expression les moins ambigus et les plus économiques au regard des ressources et du temps.

L’apprentissage

On désigne par ce terme banal la façon dont un système d’IA conjuguera les techniques évoquées ci-dessus. Il devra, malgré les différences d’approche de ces dernières, se doter de représentations du monde et de lui-même conformes à ses buts (ou aux buts des humains qui l’utilisent). L’apprentissage, en IA, se fait principalement à l’usage. Un système d’IA ne cherche pas à se doter de toutes les informations que les techniques qu’il utilise lui permettraient d’acquérir. Bien plus, comme le cerveau, il doit impérativement désapprendre ce qu’il avait appris auparavant et qui cesse de lui servir.

Outils de l’IA

Ces différentes tâches énumérées ci-dessus font appel à de nombreux langages de programmation et outils de génie logiciels développés au fil des temps pour les besoins de l’IA. Nous nous bornerons à signaler trois d'entre eux, que nous ne décrirons pas ici, renvoyant le lecteur aux articles spécialisés. Le premier, très utilisé dès l’origine, fait appel aux réseaux de neurones formels. Les neurones formels simulent le fonctionnement des neurones biologiques, de façon extrêmement simplifiée. Leur emploi se heurte vite à des limites, dès qu’il s’agit de traiter rapidement beaucoup d’informations.

Une autre méthode, également très utilisée, simule la compétition darwinienne entre les êtres vivants. Mais cette compétition s’exerce à l’égard des programmes destinés à produire les meilleures solutions pour répondre à un problème donné. Il s’agit des algorithmes génétiques de la programmation évolutionnaire (ou evolving computing). Le but est d'obtenir une solution approchée à un problème d’optimisation, en un temps correct, lorsque l’on ne connaît pas de méthode exacte pour le résoudre dans un délai raisonnable. Un générateur produit une grande quantité de programmes représentant tous des solutions différentes (les pères). On les met en compétition, on retient les meilleurs (les enfants) et on recommence l’opération sur cette seconde génération, puis aussi longtemps que nécessaire. On se rapproche ainsi par “bonds” successifs d'une solution aussi bonne que possible, en un très court temps. La puissance de cette méthode est considérable. Elle permet d’économiser des milliers d’heures de programmes écrits à la main. Plus les ordinateurs utilisés pour réaliser les sélections nécessaires sont puissants, plus les délais sont courts. La méthode pourrait être employée par un système d’IA sans intervention d’humains, ouvrant ainsi la voie à l’auto-développement et à l’auto-adaptation aux contraintes externes.

Nous citerons enfin dans cette rubrique le concept de système massivement multi-agents (SMA). Il ne s’agit pas à proprement parler d’une méthode de production de programmes, mais d’une façon de modéliser des foules composées d’unités ou agents susceptibles d’activités autonomes (proactivité). Objets de longue date de recherches en IA distribuée, des SMA constitués de milliers de petits programmes disposant d’une certaine autonomie au sein d’une fonction déterminée permettent de réaliser des ensembles complexes évolutionnaires à moindre frais en termes de programmation. Le SMA évolue comme le fait une foule ou un organisme vivant. Il s’agit donc d’une méthode particulièrement intéressante pour l’IA forte, que nous allons maintenant présenter.

L’IA forte

L’IA forte, dans son acception la plus ambitieuse, vise à simuler les comportements d’un animal ou d’un humain capable, non seulement d’intelligence, mais de conscience. On parle aussi de cognition artificielle. L'IA forte ne se prononcera pas sur les caractères intrinsèques de l’intelligence ou de la conscience chez l’homme. Ceci lui évitera de s’engager dans les discussions métaphysiques que suscite inévitablement la question de la conscience humaine, sa nature matérielle ou spirituelle, ses capacités d’appréhender le monde.

L’IA forte se bornera à proposer un certain nombre de critères par lesquels on pourra comparer un automate doté d’une conscience artificielle, c’est-à-dire construite, et un humain ou un animal dotés de conscience. Il s’agira d’une nouvelle version du test dit de Turing. On sait que pour celui-ci, si un ordinateur et un humain, cachés par un rideau, répondent de façon identique à un enquêteur, il n’y aura pas de raison de refuser au premier l’équivalent de la conscience reconnue au second. Là encore, on dira que « tout se passe comme si » l’ordinateur était conscient.

Ceci posé, il est évident que l’IA forte, même associée à la robotique, est encore loin de permettre la réalisation, voire seulement la conception, d’un automate doté d’une conscience artificielle. Certains chercheurs évoquent des obstacles infranchissables dans cette voie. Mais peut-on leur faire confiance ? De toute façon, les avancées de la science, en ce domaine, sont rapides.

En principe, une des premières tâches des concepteurs de l’IA forte (que nous appellerons dorénavant l’IA, sans adjectif) devrait être d’identifier les différents processus caractérisant le fonctionnement du cerveau biologique et de mettre en place des assemblées d’agents informatiques capables d’accomplir des activités fonctionnellement voisines de ces processus(1).

Les cerveaux, selon les psychologues et neurologues, fonctionnent sur de multiples registres, à partir de l’activation de multiples sites neuronaux chargés de tâches de détail. En simplifiant beaucoup (il ne s’agit ici que de généralités illustratives, à ne pas prendre au pied de la lettre), on dira que le cerveau :

- reçoit, traite et conjugue les informations reçues des cinq sens ainsi que les informations dites proprioceptives concernant la position du corps dans l’espace.

- éprouve des sensations de plaisir et de douleur qui ont pour principale fonction de renforcer l’attrait des activités utiles à la vie et de provoquer l’évitement de celles qui ne le sont pas.

- construit des représentations internes de son environnement.

- inversement construit des représentations internes d’une situation désirée ou imaginée

- se situe lui-même sous forme d’auto-représentation dans l’un et l’autre de ces théâtres.

- dispose de deux modes de fonctionnement, inconscient et conscient. Les fonctions inconscientes sont pour l’essentiel motivationnelles, poussant à agir vers des buts jugés désirables, soit par déterminisme génétique, soit par suite des expériences réussies vécues par le sujet. Mais les fonctions inconscientes sont aussi en partie inhibitrices. Une « censure » éloigne l’attention des activités ou pensées pouvant avoir des conséquences dangereuses pour le sujet. Là encore, ces inhibitions découlent soit de déterminismes génétiques, soit d’expériences négatives vécues et mémorisées par le sujet. On sait que les animaux sont constamment bloqués dans leurs comportements exploratoires par diverses inhibitions très puissantes.

- dispose d’aptitudes exploratoires, sur le mode essais et erreurs, qui sont à la base des comportements de recherche ou heuristiques et de la reconfiguration permanente des contenus de mémoire.

- dispose d’une capacité langagière innée, qui se spécifie au cours de l’apprentissage. Il en est de même de beaucoup des fonctions intéressant l’esprit. A partir de compétences innées, celles-ci se construisent par apprentissage social en interaction avec le milieu.

- possède une mémoire à court terme et une mémoire à long terme, dont les capacités et les rôles sont différents.

- est sensible, soit globalement, soit partiellement, à des décharges de médiateurs chimiques suscitées par les émotions, qui modifient passagèrement ou durablement ses états.

- est capable de bâtir avec ses semblables des constructions sociales très diverses, reposant très largement sur des concepts, images et autres informations partagées. Celles-ci, en interaction avec l’environnement, constituent des éconiches culturelles ou « phénotypes étendus », selon le terme proposé par Richard Dawkins.

- au sein de ces éconiches, est capable d’entrer en compétition darwinienne plus ou moins vive avec ses semblables. Ces compétitions sont à la base de l’évolution des cultures et, sans doute aussi, par rétroaction, de l’évolution des génomes propres à l’espèce.

Les cerveaux, comme d’ailleurs les individus auxquels ils appartiennent, et comme en dernier ressort leurs productions intellectuelles, sont uniques, à partir d’un modèle d’ensemble fixé par la génétique. Autrement dit, aucun ne ressemble complètement à un autre. Leur histoire biologique et événementielle les façonne chaque fois différemment. Ces différences s’expriment ou ne s’expriment pas selon les circonstances. Néanmoins on peut parler d’un processus dit d’individuation par lequel un individu spécifique se construit tout au long de la vie. Ce processus est moins marqué mais présent également chez les animaux.

A partir du catalogue ci-dessus, on peut concevoir que le concepteur de l’IA simule un certain nombre de fonctions susceptibles de provoquer chez un automate la naissance de comportements analogues à ceux du cerveau animal ou humain. Il pourra aussi décider de ne pas retenir certaines fonctions héritées de l’évolution humaine et susceptible de représenter un handicap pour l’entité artificielle considérée. La simulation ne sera évidemment pas obligée de retrouver les sensations subjectives, en fait incommunicables, ressenties par un être humain. Ainsi la douleur ou le plaisir, indispensables pour renforcer ou éviter certains stimuli chez le vivant, seront programmés sous forme d’instructions informatiques.

Ajoutons que la simulation ne se fera pas au niveau de l’entité globale, mais au niveau de chacun des sous-niveaux ou agents responsables de chacune des grandes tâches énumérées ci-dessus. Cette spécialisation correspondra à ce qui se produit réellement dans le cerveau biologique, au moins dans les phases de traitement antérieures à la prise de décision globale réalisées dans le cortex associatif. On commencera ainsi par réaliser les modules correspondant à la reconnaissance des formes. Ils seront mis ensuite en interaction avec les autres modules, chacun d’eux, dans le cours de la vie de l’entité, pouvant réagir et modifier les autres dans le cadre d’une individuation de plus en plus complexe.

Ce sera en fait l’interaction des divers modules fonctionnels entre eux et avec l’environnement qui permettra de compléter les fonctions de détail et de les rendre opérants au niveau de l’organisme final. On retrouvera ainsi la méthode suivie par les constructeurs des robots évolutionnaires modernes : conjuguer l’approche top-down définie par les spécifications initiales et l’approche bottom-up résultant de l’interaction des différents composants dans le cadre d’un environnement non défini à l’avance. Il en résulte que le produit final ne pourra pas et ne devra pas être totalement conforme aux spécifications de départ. L’objectif ne sera pas de créer des clones, mais des sujets susceptibles d’interagir à partir de leurs différences, mécanisme indispensable permettant de générer de la diversité (dit aussi en anglais, sous forme de clin d’œil aux religions, GOD ou Generator of Diversity) dans le processus de création de lignées de robots. Sans cette diversité, correspondant en biologie aux produits des mutations génétiques, il n’y aurait pas de compétition et par conséquent pas d’évolution adaptative.

Par ailleurs, plus immédiatement, les processus bottom-up faisant émerger de la complexité à partir de l’interaction d’éléments simples éviteront aux réalisateurs de nombreuses heures de travail. Une partie des instructions nécessaires seront générées par le système lui-même, du fait de l’interaction de ses divers composants et de ses interactions avec son milieu, notamment l’humain. On sait qu’en robotique, Rodney Brooks a bâti une véritable success story en s’affranchissant ainsi des contraintes de la programmation top-down dans lesquelles s’était enfermés, par exemple, les concepteurs du premier chien robot Aibo de Sony.

Ceci, on le voit, nous conduit irrésistiblement à considérer que la construction d’une IA forte supposera l’existence d’un corps robotique physique. On peut cependant, comme nous l’avons dit, commencer la réalisation d’une IA forte en travaillant sur la base d’un corps simulé au sein d’un système informatique ou d’un réseau.

Ceci posé, revenons à ce que devrait être – ou pourrait être – une IA visant à simuler la conscience dans un organisme artificiel. On se limitera, sur ce sujet difficile, à des propositions très simplifiées.

Au départ, l’IA se construira essentiellement par auto-apprentissage à partir d’une base simulée. Il faudra donc disposer d’un programme générateur. Ce programme devra être capable de générer les autres formes d’IA. Selon Serge Boisse, précité, on pourra créer un certain nombre de “boîtes” virtuelles ou programmatiques, correspondant aux différents niveaux du fonctionnement de l’esprit : modalités sensorielles, concepts, pensées, délibération, buts et conscience globale. D’autres boîtes seront chargées de la régulation de l’ensemble. Chacune des boîtes possédera des entrées, des sorties et des fonctions bien définies. Il faudra les concevoir comme des « résolveurs de problèmes », le problème général consistant à calculer les sorties en fonction des entrées.

On pourra les décomposer à leur tour en sous-systèmes capables de traiter des problèmes particuliers. Chacun de ces sous-systèmes sera à son tour décomposé, ceci aussi loin que nécessaire. On arrivera aux systèmes du niveau le plus bas, correspondant à des agents informatiques dans un système massivement multi-agents. Chacun de ces sous-sous-systèmes pourra utiliser des heuristiques propres pour résoudre ses problèmes, en choisissant librement diverses stratégies : ne rien faire, se modifier aléatoirement, imiter un autre, déléguer la tâche à un autre, répéter, faire appel à des données en mémoire, gérer et tester les solutions, etc.

Cette dernière fonction, gérer et tester des solutions, paraît être, selon les travaux les plus récents des neuroscientifiques, la façon dont procèdent les différentes cellules fonctionnelles ou agents du cerveau. Ainsi, confronté à une entrée d’informations provenant de la rétine, le système visuel recherche en mémoire une scène (en 3D) correspondant grossièrement à ce qui est perçu. Il en fait une « hypothèse » qu’il confronte à la scène vue. Après différentes améliorations permettant d’améliorer à la fois la précision de la réception et celle de la représentation, il retient pour s’en servir la scène offrant la plus grande probabilité d’être aussi proche que possible de la scène visualisée (l’expérience) et de la scène antérieurement mémorisée (l’hypothèse interprétative).

Il s’agit d’un aspect du fonctionnement bayésien qui pourrait être le mode de fonctionnement standard du cerveau biologique. Les processus bayésiens peuvent facilement être utilisés par l’IA. Ils sont aujourd’hui largement utilisés, comme le montrent les travaux de la mathématicienne informaticienne américaine Daphne Koller(2) .

La programmation détaillée et complète de tout ceci serait une tâche impossible. Mais avec un générateur, lui-même travaillant éventuellement en interaction avec d’autres générateurs appartenant à d’autres systèmes en compétition darwinienne avec le premier, il ne sera pas nécessaire d’implémenter toutes les fonctions. Le générateur codera de lui-même les fonctions qui lui manquent. Elles pourraient être sélectionnées en fonction de leur compétitivité darwinienne, par la technique des algorithmes génétiques.

A partir de là, l’évolution devrait s’accélérer. Après plusieurs tours d’auto-perfectionnement, la jeune IA pourrait atteindre assez vite, selon Eliezer Yudkowski(3) une compréhension du monde analogue à celle d’un enfant de 6 ans. Quelques mois plus tard elle serait celle d’un adulte et quelques heures plus tard, elle serait devenue la véritable première super-intelligence. C’est alors qu’il faudra se poser la question de sa contrôlabilité éventuelle par les humains.

La solution présentée ici n’est qu’une des voies possibles. D’autres sont en cours d’étude et même de développement. L’IA y est associée ou non avec la robotique, mais de toutes façons un considérable travail de programmation et d’auto-programmation apparaît nécessaire pour réaliser des machines capables de générer de la pensée voire l’équivalent de pensées conscientes. Citons à cet égard le projet présenté par le professeur Alain Cardon, avec lequel nous avons collaboré à diverses occasions. Il a déjà écrit un nombre considérable d’instructions. Malheureusement, il n’a pas encore pu obtenir les quelques crédits qui lui seraient nécessaires pour développer son programme(4) .

Les sceptiques objecteront qu’aucune de ces idées, à part peut-être celles de Jacques Pitrat précité n’a encore abouti en France à des produits vraiment indiscutables. Cela ne doit pas nous empêcher de les prendre au sérieux. Il est à peu près certain qu’ailleurs dans le monde, notamment aux Etats-Unis, dans les laboratoires travaillant pour le défense et financés par la DARPA (Defense Advanced Research Projects Agency), des projets beaucoup plus avancés sont en cours d’aboutissement. Mais ils restent couverts par le secret-défense. Il est dommage que dans notre pays, comme plus généralement en Europe, les pouvoirs publics, de qui dépendraient inévitablement les décisions, ne jugent pas utile de dégager les quelques millions d’euros nécessaires pour obtenir une « super-IA » représentant un atout de compétition considérable.

2. La robotique

La prochaine décennie verra, sauf catastrophes malheureusement de plus en plus prévisibles, se multiplier les produits et services s’appuyant sur les sciences et technologies de la robotique. L’explosion de ces nouveaux outils et des comportements induits justifiera les arguments de ceux pour qui l’humain tel que connu traditionnellement serait en train de laisser place à une ou plusieurs civilisations technologiques dont les contours, bien qu’encore difficilement discernables, provoqueront plus de peurs que d’enthousiasmes.

Sans nous prononcer ici sur la question délicate de savoir où dans ces perspectives s’arrêterait l’humain et où commencerait un éventuel posthumain, nous pouvons donner quelques précisions relatives aux nouveaux domaines ouverts par l’évolution des principales de ces sciences et technologies, ainsi qu’à certaines de leurs conséquences prévisibles. Il convient de rappeler d’emblée que les techniques évoquées ici seront (malheureusement) dédiées dans leur grande majorité à des applications militaires et de police, du fait que leur financement sera pour l’essentiel pris en charge par des agences de défense et de sécurité. Ceci signifie que le monde de demain sera défini par les idées que s’en font les militaires. La généralisation des produits en découlant pourrait provoquer soit des conflits généralisés soit plus immédiatement des sociétés hyper-contrôlées.

Nous ne disons pas que les recherches militaires sont inutiles, surtout si elles sont entreprises par des pays qui veulent échapper à la domination des grands empires, Etats-Unis et Chine, notamment, ou à celle d’éventuels Etats dits « terroristes ». Mais il vaudrait mieux se placer dans une perspective plus optimiste, celle qualifiée par certains prospectivistes de Singularité où la multiplication de nouvelles ressources permettrait de répondre aux principales exigences de survie des humains et des écosystèmes. Dans ce cas, les recherches civiles seraient indispensables. Nous envisageons là non seulement des recherches conduites par des entreprises privées qui en conserveraient le monopole, mais des recherches que l’on pourrait continuer à dire publiques et mieux encore « citoyennes », bien que le terme soit malheureusement de plus en plus vidé de son sens.

Il paraît évident que, pour ne pas ajouter aux inégalités qui séparent déjà les humains entre ceux qui détiennent des savoirs scientifiques et les autres, les solutions de développement reposant sur les principes de l’Open Source ou Systèmes ouverts du Web devraient se répandre sur le mode darwinien, en exploitant des créneaux d’opportunités ouverts par l’évolution. Leurs promoteurs s’inspireront notamment des principes mis en œuvre pour la réalisation du système d’exploitation Linux et des programmes compatibles : à partir de spécifications ouvertes, librement publiées, non brevetées, des collectivités d’utilisateurs-développeurs en réseau produisent en permanence de nouvelles versions, en s’engageant à ne pas en faire des systèmes fermés mais au contraire à les mettre à la disposition de tous. Des procédures dites « éthiques » visant notamment à éviter les usages malveillants ou criminels sont cependant nécessaires.

Le mouvement Open Source s’essouffle un peu aujourd’hui parce qu’il est resté trop limité aux programmes d’ordinateurs. L’arrivée de l’IA forte et de la robotique autonome devrait lui donner un nouvel élan. Rappelons que l’acquisition d’un robot de travail, dit aussi plate-forme robotique, sur lequel de très nombreux programmes peuvent être implémentés, est désormais à la portée de tout citoyen capable d’acquérir une automobile. Il serait donc tout à fait possible de construire des robots très sophistiqués par l’association de centaines de développeurs à temps très partiel, acceptant les contraintes du travail coopératif en réseau.

Généralités sur la robotique

Un robot type comprend, comme tout organisme biologique, un corps et un système nerveux lui-même doté d’un cerveau.

Le corps

Le corps du robot est séparé du monde extérieur par une enveloppe ou frontière. Il interagit avec ce monde grâce à des capteurs sensoriels et à des organes d’actuateurs ou effecteurs permettant le déplacement, la saisie des objets extérieurs, l’émission de messages pouvant servir à la communication.

En principe, le système décrit ici peut être adapté à n’importe quelle plate-forme robotique moderne répondant des besoins d’application très divers. Ces plates-formes comportent toutes un ou plusieurs « corps » électro-mécaniques dotés de capteurs et d’effecteurs. Les capteurs, qui peuvent être très sophistiqués, correspondent aux organes des sens chez l’organisme vivant. Les actuateurs correspondent aux membres, bras, mains, jambes, de l’organisme vivant. Selon les usages recherchés, l’ensemble pourra prendre la forme d’un véhicule terrestre, aérien ou marin. Il pourra aussi s’agir de robots à forme humaine ou animale. Mais le robot pourra être entièrement virtuel, c’est-à-dire s’incarner dans des jeux d’instructions implantées dans des réseaux d’information. Lorsque le robot dispose de plusieurs corps répartis dans l’espace, ceux-ci peuvent ou non travailler de façon coordonnée, comme certains animaux opérant en meute.

Les capteurs et effecteurs du robot ne sont pas limités comme ceux des organismes biologiques. Ils peuvent bénéficier de tous les progrès technologiques marquant par ailleurs l’instrumentation scientifique. Ainsi les robots peuvent « voir » le monde bien mieux que nous. Ils reçoivent les émissions lumineuses ou radio dans les bandes de fréquences que les organismes vivants n’ont jamais utilisées parce que l’évolution darwinienne ne les avait pas orientés en ce sens. Les robots embarqués sur des satellites peuvent également, on le sait, s’affranchir des limitations imposées par l’atmosphère et par les radiations terrestres. Un robot peut par ailleurs être connecté au Web en permanence. Ainsi, simplement en explorant quasi en temps réel les moteurs de recherche à base de textes et d’images, il pourra se comporter en interlocuteur redoutable dans les débats académiques ou les conversations de salon. Les ignorants objecteront qu’il ne pourra pas pour autant émettre d’idées originales, mais les ignorants, comme nous le verrons, se tromperont lourdement en ce domaine.

Le corps du robot, par ailleurs, n’est pas limité comme celui des organismes vivants par des barrières anatomiques infranchissables. Il peut prendre toutes les formes imaginables, celles du moins que la technique du moment lui permettent d’explorer. Ce polymorphisme fait déjà et fera de plus en plus que les robots seront présents partout et dans toutes les applications civiles et militaires. Inutile de détailler ici ce point. Disons seulement que des microrobots de la taille d’un insecte, voire d’une taille inférieure, existent déjà. Ces robots pourront se regrouper, comme les insectes sociaux, en essaims qui constitueront de nouveaux systèmes robotiques de grande taille. Très différents, au moins « anatomiquement », les robots composés d’instructions ou agents informatiques, déployés sur les réseaux numériques et donc invisibles aux regards, déterminent en grande partie ce que l’on peut appeler la police et la régulation du Web, voulue par certains pouvoirs ou se mettant en place spontanément.

Les robots les plus impressionnants sont les robots humanoïdes, avec lesquels se multiplieront les communications reposant sur l’empathie. Les robots de compagnie, très nombreux au Japon pour le soin aux personnes, exploitent ces capacités. Les robots combattants surarmés développés par les agences de défense, telles la Darpa aux Etats-Unis, présentent un aspect bien moins sympathique. Il en est de même des véhicules militaires entièrement robotisés, sur le modèle des drones aériens et terrestres sans pilote.

Dans un autre registre, on connaît les robots animaloïdes, capables d’interagir efficacement avec les animaux et avec les humains. Il est possible également de considérer les grandes machines, comme l’actuelle station spatiale internationale IST, bourrée de microrobots, comme de vastes robots à elles seules. On sait que récemment l’arrimage à l’IST du cargo ravitailleur européen Automatic Transfer Vehicle ATV s’est fait entièrement sous robotique, préfigurant les prochaines explorations robotisées de la Lune et de Mars. Enfin, les usines du futur, elles aussi entièrement robotisées, mais sur le modèle de la gestion intelligente des ressources, remplaceront rapidement, dans certains pays, les chaînes de production conservant quelques travailleurs ou contremaîtres humains.

Le cerveau

Le cerveau artificiel du robot et plus généralement son système nerveux font partie de son corps, évidemment, mais vu leurs rôles spécifiques dans la maîtrise coordonnée du système et dans la prise de conscience qu’il aura de lui-même, il convient de les traiter à part. Le corps robotique, quelle que soit sa sophistication technologique, tire ses qualités de la puissance de son unité centrale de commande, organe correspondant au cerveau des vertébrés. Le cerveau artificiel implémente des IA plus ou moins performantes, du modèle de celles décrites ci-dessus. L’unité centrale est généralement constituée d’un ou plusieurs ordinateurs, les plus gros ne dépassant pas la taille d’un PC du commerce actuel. Ils seront de plus en plus répartis et travaillant en réseau à l’intérieur du corps, unique ou lui-même réparti, du robot. La miniaturisation et l’augmentation de puissance continuelle des composants électroniques laissent entrevoir le temps où des robots peu coûteux seront dotés d’autant de neurones artificiels que les cerveaux animaux sont dotés de neurones biologiques. Mais ils ne seront pas intelligents pour autant, si des IA performantes ne se développent pas sur ces réseaux physiques. Ces IA ne seront évidemment pas, sauf exceptions, constituées de programmes écrits à l’avance. Elles seront acquises par le robot (ou plus précisément par des robots travaillant en groupe) sur le mode de l’auto-génération, comme nous le précisons ci-dessous.

L’acquisition des compétences cognitives

Il s’agit d’une précision importante, que beaucoup de ceux qui discutent de la robotique n’ont pas encore assimilée. Il faut absolument distinguer entre les robots entièrement pré-programmés et donc asservis à leurs concepteurs humains, et les robots dits autonomes ou évolutionnaires, capables de se comporter et se complexifier en partie par auto-programmation, selon les processus d’auto-génération caractérisant l’IA forte discutée précédemment. N’en déplaise aux craintifs, les robots entièrement programmés et donc asservis seront de moins en moins nombreux, car leur coût est devenu prohibitif, aussi bien en écriture initiale qu’en maintenance. On ne les conservera que dans les machines ne tolérant qu’une infime marge d’erreur. Mais, même en ce cas, les bugs inévitables en informatique et l’impossibilité factuelle d’en détecter rapidement la cause prohiberont vite de telles solutions. Partout, l’auto-diagnostic, l’auto-maintenance et l’auto-développement se généraliseront.

Cependant, il y aura plusieurs types de robots évolutionnaires. Les premiers et les plus répandus seront ceux dont les capacités d’évolution seront « contraintes » dès la conception initiale par des limites fixées à l’avance. Les humains accepteront que leurs esclaves robotiques disposent d’une certaine liberté, mais ils ne voudront pas en donner trop. A l’inverse, dans les laboratoires ou dans les entreprises privilégiant l’innovation, le bouleversement des idées reçues, une autonomie aussi complète que possible sera considérée comme une qualité à rechercher, voire à privilégier. De tels robots présenteront certes des risques potentiels, mais c’est le propre de toute technologie réellement innovante. Pour nous, il serait aussi aberrant de refuser l’autonomie aux robots du futur que de refuser de communiquer avec des extraterrestres, si certains d’entre eux nous faisaient la grâce de nous visiter.

Ainsi, le robot autonome d’aujourd’hui, fût-il très limité en autonomie, utilisera des solutions d’IA incorporées (réseaux de neurones formels ou système massivement multi-agents) pour construire par apprentissage des associations stables entre les informations recueillies en entrée à partir des organes sensoriels et effecteurs. Ces informations, convenablement corrélées en fonction des retours d’expérience, construiront dans le cerveau du robot de véritables univers. Ils comporteront des détails indispensables à sa survie, aussi bien triviaux (par exemple la représentation d’un pied de table) que subtils et peu observables par l’homme (la lecture et l’interprétation d’une émotion passagère sur le visage d’un humain). Comme évoqué ci-dessus, les robots autonomes de l’avenir présenteront le grand intérêt de se doter de représentations du monde dont les humains n’auraient pas eu l’idée et qui pourront être très utiles à ces mêmes humains, comme le seraient les représentations du monde présentées par les extraterrestres précités.

Les robots autonomes ne se limitent pas à construire des images du monde. Ils formulent des hypothèses sur ce monde, ou prévisions hypothétiques, s’appuyant sur les représentations qu’ils en ont. Ils les testent ensuite en utilisant leurs organes sensoriels et effecteurs. Ainsi un robot s’avancera jusqu’à l’objet extérieur figuré dans son cerveau par les photons émis par le pied de table. Il vérifiera, dans le monde réel, l’influence de cet objet sur sa progression. Autrement dit, il fera la prédiction (ou l’hypothèse) que cet objet n’est pas un obstacle capable de l’arrêter (ou l’hypothèse contraire). Au cas où le pied de table se serait révélé un obstacle bloquant, l’information correspondante sera mémorisée et de tels obstacles seront à l’avenir contournés. Si par contre, les obstacles visualisés et expérimentés se révèlent faciles à déplacer, le robot n’en tiendra pas compte. Par essais et erreurs se construira donc dans le cerveau du robot un ensemble de représentations du monde extérieur, ou cartographie, de plus en complète. Le contenu de cette cartographie représentera pour le robot la « vérité » du monde, défini par les « lois » exprimant les relations entre les entités de ce monde, inconnaissable en soi, et leurs interactions avec les organes du robot. Si ces lois expriment des constantes souvent rencontrées, elles constitueront progressivement le corpus de références « scientifiques » sur lequel s’appuiera le robot pour distinguer entre les bonnes et mauvaises hypothèses, appréciées au regard de ses chances de fonctionnement efficace sinon de survie.

Tout ceci paraîtra trivial. Le moindre animal doté d’un rudiment de système sensori-moteur fait de même. Pour les robots, il s’agit pourtant d’une véritable nouvelle dimension que les plus sophistiqués d’entre eux sont en train d’acquérir, sous l’impulsion d’humains qui font confiance à cette approche(5). Ces derniers sont encore rares. Ceci parce que, répétons-le, les concepteurs des robots n’aiment pas concéder trop de liberté à leurs esclaves. L’exploration de Mars par les robots américains Spirit et Opportunity, aux résultats par ailleurs remarquables, s’est faite sous un contrôle permanent de la Terre. Comme les communications mettent plusieurs dizaines de minutes pour parcourir la distance entre celle-ci et Mars, on ne pouvait pas attendre des « rovers » beaucoup de réactivité. La crainte de voir des engins coûteux échapper à leurs contrôleurs terrestres était à l’époque trop grande. Mais la confiance grandissante mise dans la fiabilité des capacités d’auto-gestion des futurs orbiteurs, atterrisseurs et robots d’exploration fait qu’aujourd’hui les nouvelles générations de tels engins sont conçues comme comportant des systèmes robotiques autonomes. Le contrôleur à terre ne reprendra la main qu’en cas de difficultés inattendues.

Les cerveaux des robots autonomes de demain seront-ils capables d’inventer véritablement ? Techniquement, la réponse sera affirmative. Les bases de connaissances dont se sera doté le robot permettront de susciter de nouvelles explorations par essais et erreurs générées non seulement par le fonctionnement aléatoire du corps, si celui-ci fait partie des spécifications fonctionnelles du robot, mais par un mécanisme d’induction qu’il est facile d’organiser à l’avance et qui pourra se généraliser spontanément au sein du robot en cas de succès. Le robot, autrement dit, formulera des hypothèses s’appuyant sur ses bases de connaissance, les soumettra à des tests pratiques et les modifiera en fonction des retours d’expérience. En cas de succès, on pourra parler de véritables inventions(6). Mais pourquoi, dira-t-on, le ferait-il ? De telles démarches sont nécessairement coûteuses en temps et énergie. Darwin nous donnerait la réponse à cette question, qu’il s’était posée à propos des animaux. Le robot n’innovera pas parce qu’il sera programmé à l’avance pour le faire. L’innovation, l’heuristique, ne se programment pas. Il n’innovera (et ne se transformera en conséquence) que si la concurrence avec d’autres entités lui disputant l’accès aux ressources dont il se nourrit l’oblige à le faire. Mais comment cette concurrence peut-elle s’organiser ?

Les roboticiens intelligents étant tous darwiniens, ils ont commencé à comprendre que la capacité d’acquisition de connaissances propre à un robot isolé sera bien moindre que celle obtenue par une société de robots interagissant ensemble. Les conditions les plus favorables à l’innovation naîtront des pressions de sélection s’exerçant au sein de cette société, par exemple à l’occasion d’une concurrence pour l’accès à des ressources rares. La première des innovations qu’acquièrent des robots sociaux se traduit par une amorce de conscience de soi. Les études sur l’acquisition de la conscience de soi par les robots montrent comment progressivement un robot portant son attention sur un homologue avec lequel il interagit apprend progressivement la logique du comportement de celui-ci (théorie de l’esprit) puis l’applique à lui-même en apprenant à s’observer lui aussi de l’extérieur.

Après la conscience de soi vient le langage. Si ces robots sont placés dans un environnement sélectif leur imposant de coopérer pour survivre, ils utiliseront leurs organes d’entrée/sortie pour élaborer des messages leur servant à échanger des informations (par exemple, « alerte, voici un robot prédateur »). Ces échanges se simplifieront et se normaliseront à l’usage, ce qui donnera naissance à un proto langage commun, constitué de concepts et de syntaxes.

Dès qu’ils auront acquis ce langage, ils l’utiliseront pour échanger et normaliser, toujours sur le mode darwinien, leurs contenus de connaissances individuels. Une base de connaissance collective « robotique » (c’est-à-dire n’ayant en premier ressort d’intérêt que pour faciliter leur propre adaptation) sera progressivement élaborée. Les robots feront appel à elle quand leurs connaissances personnelles se révéleront insuffisantes. Développées et confirmées par des essais et erreurs collectifs, ces bases équivaudront aux connaissances, empiriques puis scientifiques, accumulées par les humains. Tout ceci est amplement démontré par divers programmes de recherche, dont le programme européen ECAgents, auquel nous conseillons vivement à nos lecteurs de se reporter(7) .

Rien n’empêcherait évidemment les humains d’utiliser ces bases de connaissances pour enrichir les leurs propres, voire de s’inspirer des processus d’acquisition des connaissances mis en œuvre par les robots (surtout s’ils sont dotés d’organes sensoriels et effecteurs particulièrement sophistiqués) pour améliorer les leurs.

Les processus décrits ci-dessus peuvent se dérouler sans que les robots individuels ne développent une conscience supérieure analogue à celle des humains. Leur conscience pourra se limiter à ce que l’on nomme la conscience primaire chez l’animal. Ceci étant, la conscience de soi ou conscience supérieure artificielle offrira aux robots des avantages supplémentaires. Ce seront en principe les mêmes que ceux de la conscience humaine : proposer une vision globale du monde, incluant le sujet, génératrice d’une meilleure adaptation. Il n’existe pas à notre connaissance de trace de conscience de soi supérieure chez les robots actuels. Un certain nombre de projets visent à obtenir ce résultat, dont la portée pratique, mais aussi l’importance scientifique et philosophique, seront considérables(8) .

La conscience de soi sera progressivement acquise par l’intermédiaire de capteurs dirigés vers l’intérieur du système, qui en dresseront en permanence l’état. Cet état, dès son élaboration, modifiera par feed-back le comportement des unités d’entrées et de sorties interagissant avec le monde. Ces nouvelles interactions généreront à leur tour un nouvel état global du système lequel, observé, modifiera à nouveaux les processus d’entrée-sortie, ceci à l’infini.

Cependant, il ne faut pas anticiper. Nous pensons que l’évolution vers des consciences artificielles est hautement probable. Mais pour le moment, si les robots évolutionnaires sont capables d’une certaine autonomie, par rapport aux instructions précédemment chargées dans leur mémoire ou, pour ce qui concerne les robots spatiaux, aux ordres envoyés par la station de contrôle, ils ne sont pas capables d’inventer véritablement des performances analogues à celles des êtres humains, dans le domaine de l’adaptation rapide aux changements et de la résolution de problèmes. A plus forte raison ils ne sont pas capables d’inventer des comportements nouveaux, créer des outils et moins encore d’éprouver des affects. D’une façon générale, on dira qu’ils ne sont pas capables de penser. Leurs performances, bien que déjà très remarquables, n’atteignent même pas celle des animaux de laboratoire, tels le rat ou la souris.

Pour les usages commerciaux ou militaires les plus courants, ces performances sont généralement considérées comme suffisantes. Or nous l’avons dit, les concepteurs de robots veulent depuis déjà quelques années obtenir des systèmes capables de se comporter véritablement « comme s’ils » étaient des hommes. Les concepteurs de robots domestiques ou de compagnie, principalement japonais, visent à produire des systèmes capables de remplacer en tous points les aides-soignants ou les auxiliaires domestiques. Les concepteurs de robots pour l’exploration spatiale ou les applications militaires, généralement américains, visent à obtenir des systèmes aussi performants, sinon davantage, que des astronautes ou des combattants humains.

Les machines pensantes

Dans ce but, certains projets étudient la réalisation des systèmes dits cognitifs (cognitive systems), selon la terminologie américaine. Nous avons évoqué ce concept dans les chapitres précédents consacrés à l’évolution des systèmes anthropotechniques. Ici il s’agit de réaliser sur les mêmes bases des prototypes de laboratoire opérationnels. Un système cognitif robotique doit pouvoir disposer de véritables états de conscience simulés, et générer l’équivalent de faits ou contenus de conscience. Mais ces recherches sont couvertes par le secret commercial ou de défense. L’Europe n’en aura connaissance que lorsqu’ils seront développés et proposés à la vente sous la protection de brevets les rendant incopiables.

S’engager dans la réalisation effective d’une véritable machine pensante représentera une véritable recherche du Graal pour notre civilisation. Pour la première fois, après les rêves des magiciens et les visions des auteurs de science-fiction, on entreprendra de rapprocher ce qui, jusqu’ici, est encore considéré comme inconciliable : l’homme qui pour beaucoup de philosophes ou de croyants doit conserver le monopole de la pensée consciente, et la machine, fût-elle un automate perfectionné, qui ne peut pas et ne doit pas penser.

La porte sera alors ouverte, diront les adversaires d’une telle démarche, non seulement à des machines qui rivaliseront avec des hommes, mais à une science qui développera des formes de vie artificielle capables de se retourner contre les humains ou contre l’environnement biologique actuel. Dans la mesure où les systèmes ainsi réalisés tiendraient leurs promesses, il n’y a pas en effet de raison a priori de penser qu’ils accepteront de rester asservis aux humains qui les auront conçus. Les concepteurs pourront certes prévoir des dispositifs permettant de désactiver ou neutraliser des entités artificielles devenues hostiles, mais par définition, si ces entités sont aussi intelligentes et capables d’évolution que les cahiers des charges l’auront prévu, elles seront capables de réactiver les désactivations, c’est-à-dire échapper aux contrôles.

Un autre risque, plus immédiat, est qu’elles soient utilisées par des groupes humains les mettant au service de politiques de conquête et d’asservissement visant d’autres humains. C’est déjà ce qui se fait avec des robots infiniment moins complexes que ceux proposés ici. Ils sont utilisés, notamment sur le Web et dans divers logiciels informatiques, par des militaires, des policiers, des entreprises de communication et bien d’autres intérêts économiques et politiques pour mettre en condition les esprits et les comportements des citoyens ordinaires. Nous sommes déjà, comme on peut le montrer facilement, soumis à des contrôles et des stimuli qui font de nous, au moins partiellement, les esclaves de forces que nous ignorons. L’alliance de ces forces avec des robots capables de penser ferait de nos sociétés de véritables bagnes.

Ceci dit, ces risques n’arrêteront pas les recherches, pour une raison simple : aucun principe de précaution, aucun moratoire n’empêchera que de tels systèmes ne se fassent, dès lors qu’ils seront technologiquement possibles et que des humains auront, quelque part dans le monde, compris l’intérêt qu’ils auraient à les développer. Telle est la logique des systèmes anthopotechniques étudiés dans cet essai. On verra peut-être alors apparaître, en parallèle, la solution la plus réaliste et la plus démocratique possible : entreprendre pour le compte d’une démarche associative ouverte au plus grand nombre ce que d’autres font déjà ou feront dans le secret. Ainsi les citoyens ordinaires et leurs représentants pourront, espérons-le, mieux comprendre les enjeux et les maîtriser pour le bénéfice du plus grand nombre.

Nous avons montré à propos de l’IA forte que ces perspectives sont techniquement très envisageables aujourd’hui. Manque la conviction politique relative à la nécessité urgente de les concrétiser.


Avenir de la robotique

La plupart des auteurs sérieux qui étudient les perspectives de la robotique confirment que celle-ci prendra une place de plus en plus grande dans nos sociétés, quelles que soient les contraintes économiques et sociales du prochain demi-siècle. Il est très probable que l’on verra les robots remplacer aussi bien les machines actuelles que les hommes dans la plupart des tâches industrielles. Par ailleurs, ils interviendront systématiquement dans les activités de service et de loisirs. Enfin et surtout, ils joueront un rôle prépondérant, en association avec les humains ou même sans eux, dans les programmes de sécurité défense et d’exploration des milieux hostiles, notamment ceux de l’espace. Nécessairement, de ce fait, leurs relations avec les humains se modifieront profondément. Nous nous interrogerons au terme de cette étude sur la nature de ces relations. Les robots et les humains seront, dans les sociétés ayant accepté le tournant de la robotisation, étroitement imbriqués dans ce que nous pourrons nommer des systèmes post-anthropotechniques.

Existera-t-il encore des sociétés qui refuseront les technologies robotiques, par idéologie, ou qui ne pourront pas les aborder, par pauvreté ? Une autre question d’importance concerne les prélèvements sur les ressources mondiales rares nécessaire à la fabrication de centaines de millions de dispositifs robotisés. Ces derniers ne resteront-ils pas le privilège de quelques favorisés. Il s'agit de questions d’importance, que nous évoquerons en conclusion de cette section.

Si nous faisons le recensement des domaines où les robots interviendront, directement ou indirectement, dans la vie des humains au cours des prochaines décennies, nous voyons que, sauf interruption accidentelle de la tendance actuelle, il n’existera pratiquement pas de secteurs ou d’activités leur échappant.

Les corps biologiques « augmentés »

On doit rappeler que, depuis la nuit des temps, les hommes n’ont pu survivre et se développer dans les milieux qu’ils exploraient ou qu’ils se créaient eux-mêmes qu’en se dotant de techniques de plus en plus loin des capacités d’un corps biologique non transformé. Les vêtements, les habitats, les véhicules, les moyens de communication représentent des concentrés de technologies innovantes accumulées au cours des âges. Depuis un demi-siècle, la révolution scientifique et technique a profondément modifié les outils et leurs usages. Le citoyen de la cité moderne, relié au monde entier par des réseaux de communications numériques, équipé de prothèses médicales performantes, est considéré comme un extraterrestre par les rares survivants des sociétés rurales traditionnelles.

Il faut bien voir que les progrès apportés par la robotisation aux corps biologiques seront des sous-produits de la fabrication de robots de plus en plus performants et multitâches. Il est généralement plus facile d’adapter au vivant une technique artificielle existante que concevoir celle-ci à partir de la page blanche. Les budgets destinés à réparer les handicaps sont par ailleurs trop faibles pour supporter des investissements spécifiques. Néanmoins les produits robotiques à destination « thérapeutique » seront sans doute de moins en moins coûteux, avec la diminution du coût des composants de base et l’automatisation de leur fabrication.

Les prothèses et augmentations des corps biologiques intéresseront aussi bien les animaux que les humains. On évoquera le risque que de telles techniques, commandant plus ou moins directement la production des actions et des idées, soient imposées, non seulement à certains animaux, mais aussi à certains humains, afin d’en faire des « esclaves ». On retrouvera ce risque tout au long des programmes de corps augmenté évoqués ici. Il devra être résolu par la société, comme bien d’autres risques technologiques. Sinon, les sociétés de demain s’enfermeront dans des processus d’auto-destruction.

Les réparations ou augmentations de capacité corporelle toucheront d’abord les membres. D’une part, l’on réparera les amputations, grâce à des membres robotisés commandés, soit par les nerfs s’il en reste de disponibles, soit directement par le cerveau. D’autre part, des membres renforcés, voire de véritables exosquelettes (squelettes extérieurs) permettront aux individus normaux d’améliorer leurs performances dans les tâches l’exigeant : production, exploration, champ de bataille. On ne peut pas penser, en l’état prévisible de ces technologies, qu’elles seront préférées par les individus à l’utilisation de leurs membres d’origine, car elles comporteront beaucoup de contraintes. Mais lorsque nécessité fait loi, on ne discute pas.

Des organes internes entiers pourront par ailleurs être remplacés par des appareils robotisés implantés et de plus en plus miniaturisés et fiables. On connaît déjà les stimulateurs cardiaques. Des cœurs artificiels de nouvelle génération implantables sont en vue. On peut penser qu’il en sera de même prochainement pour les poumons et sans doute aussi pour les reins. Les organes jouant le rôle d’usine de transformation biochimique ou secrétant des hormones, tels le foie, les intestins ou diverses glandes internes, ne pourront pas être complètement remplacés, sauf temporairement. Il ne semble pas envisageable, même à terme, de leur substituer des automates secrétant, par exemple, des nanoparticules de substitution. Mais qui sait ?

La réparation ou l’augmentation des capacités corporelles concernera par ailleurs, et sans doute de façon particulièrement spectaculaire, les différents organes des sens. Des champs de perception tout à fait nouveaux s’ouvriront là. Les techniques de recueil et de traitement des informations de type électromagnétiques, sonores, moléculaires (odorat), tactiles dans lesquelles nous baignons et que nous ne percevons pas naturellement pourront être considérablement enrichies. Les difficultés à résoudre ne se limitent pas au recueil et à la production de ces informations, que beaucoup d’appareils font déjà plus ou moins bien. Si l’on veut qu’ils augmentent réellement les capacités sensorielles, les capteurs doivent être mis en relation directe avec les centres compétents du cerveau. Beaucoup d’humains accepteront probablement des intrants cérébraux si le bénéfice le justifie. Mais les techniques de communication par casques ou autres systèmes moins invasifs se multiplieront sans doute par ailleurs, avec une résolution de plus en plus fine, afin de ne toucher que les faisceaux de neurones le justifiant.

Jusqu’où iront les ajouts robotiques connectés directement sur les centres nerveux. En sortie, les commandes générées par le système nerveux ne devraient pas poser de problèmes. Par contre, les stimulations en entrée resteront longtemps limitées à des points bien délimités. Le fonctionnement du cerveau est encore trop mal connu pour que l’on se risque, sauf urgence, à y intervenir de façon systématique. Les auteurs évoquent l’hypothèse de puces électroniques implantées à demeure, mais, outre les risques, on n’en voit pas l’intérêt réel. La communication entre les humains et les robots se fera beaucoup plus facilement par les voies naturelles. Les robots parleront les langages humains et les humains apprendront aussi à parler les langages des robots, quand ceux-ci ne seront pas immédiatement traduisibles dans les canaux de la communication sociale courante.

Nous pensons a fortiori que les perspectives souvent évoquées par certains futurologues, consistant à télécharger sur des mémoires électroniques le contenu de certains centres nerveux, voire du cerveau tout entier, afin de créer des cerveaux artificiels reprenant les spécificités des cerveaux humains correspondants, relèvent purement et simplement de la science-fiction. Il faudrait d’ailleurs reprendre et télécharger les milliers d’informations produites à tout instant par les corps vivants entiers, avec notamment leurs nombreux « générateurs d’émotions ». Si des cerveaux artificiels aussi riches que ceux des humains pouvaient être construits, ils resteraient cependant distincts. Les deux types d’entités, biologique et artificiel, pourraient alors communiquer très largement et s’enrichir respectivement.

On peut également concevoir que des cerveaux et des corps artificiels coupent tous liens avec les cerveaux humains et développent des vies intelligentes propres. Mais il semble bien que les processus et contenus de l’intelligence et de la conscience biologiques, telles qu’ils s’expriment spécifiquement dans chaque individu humain, ne puissent avant très longtemps faire l’objet, comme l’espère Ray Kurzweil, d’ingénierie inverse et de transfert sur des mémoires électroniques, aussi complexes et riches que puissent devenir ces mémoires. Il n’est donc pas urgent de disserter comme certains le font, sur ce que deviendrait l’unité du Moi s’il coexistait dans une enveloppe corporelle et dans un système artificiel.

Les robots dits de compagnie

Nous avons déjà donné suffisamment d’indications sur ce que sont déjà les robots dits autonomes pour qu’il soit facile d’imaginer ce qu’ils deviendront dans les prochaines décennies. Leurs places et leurs rôles seront multiples. On peut admettre que tout ce que font actuellement les humains, y compris les tâches de conception ou de commandement, pourront être accomplis par des robots. Le seul facteur limitant leur pénétration sera le coût que pourra représenter l’adaptation de plates-formes existantes à de nouvelles tâches. Il est évident que, lorsque le travail humain semblera présenter un rapport performance-prix avantageux, l’homme sera préféré. Mais il faut se souvenir de ce qui avait été dit à propos des ordinateurs. On pensait initialement qu’ils devaient rester limités aux calculs scientifiques ou techniques de haute intensité. Aujourd’hui, ils sont partout et sont devenus indispensables à tous.

Rappelons aussi que les robots de demain, comme d’ailleurs ceux d’aujourd’hui, n’adopteront de formes anthropomorphes que si celles-ci améliorent leurs capacités d’interaction avec des humains. Pour toutes les activités ne demandant que de l’efficacité fonctionnelle, les formes et modes d’intervention les plus efficaces seront seules retenues, même si elles paraissent contribuer encore davantage à la « deshumanisation » des environnements futurs.

Evoquons ici, pour n’y plus revenir, la question très théorique, n’intéressant encore que des juristes en mal de copie, des droits et devoirs des robots face aux humains et des humains face aux robots. Plus le robot sera autonome et humanisé, plus on sera tenté de le traiter comme un humain. Pourquoi pas ? Nous pensons cependant que ces questions ne seront abordées avec pertinence qu’en présence de difficultés concrètes. Elles trouveront alors des solutions adéquates. La question, bien plus urgente, des droits des animaux et des écosystèmes mériterait beaucoup plus d’attention. Ce n’est malheureusement pas le cas.

Les robots de compagnie qui sont déjà les plus utilisés se trouvent au Japon, dans les services aux personnes âgées ou handicapées. On sait que les sociétés à la fois développées et vieillies, telle la société japonaise, font largement appel, dès maintenant, à des assistants robotisés là où des aides humaines deviennent rares ou exigeraient de recourir à des immigrations dont ces sociétés ne veulent pas. Au-delà de cette motivation conjoncturelle, il est évident que lorsque le prix et les performances des robots « sociétaux » auront évolué favorablement, leur emploi se généralisera. A priori, de tels robots n’auront pas besoin d’être anthropomorphes.

L’expérience montre cependant que l’empathie nécessaire à de bons échanges entre humains et robots suppose que les humains puissent s’imaginer avoir affaire à des humains. Les conditionnements immémoriaux programmés dans les relations sociales interhumaines ne peuvent jouer à plein que si le robot ressemble à un humain ou à un animal familier. L’humain est ainsi fait, aujourd’hui, qu’il est capable de projeter sur un interlocuteur extérieur ses propres qualités ou demandes de qualités. Comme les robots seront parfaitement capables d’apprendre au contact des humains, ils deviendront très vite, s’ils ne le sont pas complètement au départ, aptes à se spécialiser dans des relations personnelles apportant aux personnes solitaires ou en manque d’affectivité ce dont elles croient avoir besoin.

On cite généralement, outre l’assistance aux personnes âgées ou handicapées, les tâches d’éducation ou de relation-publique-vente. La présence d’un éducateur humanoïde capable de communiquer avec les élèves en utilisant toute la panoplie des expressions verbales et gestuelles sera bien préférable à l’éducation par des machines. Il en sera de même de l’hôte(sse) d’accueil ou vendeur.

Mais pour des raisons tenant à une pudeur mal placée, les auteurs n’évoquent que rarement le rôle des robots dans les activités sexuelles. Le sujet, qui est immense, a été bien traité par l’ouvrage de David Levy, Love+Sex with Robots(9) . Nous y renvoyons le lecteur. Disons seulement qu’en ce domaine, la réalisation de robots dont l’enveloppe corporelle et les facultés cognitives seront proches, sinon plus satisfaisantes que celles des humains, générera un marché considérable et des investissements en proportion. Que ceux susceptibles de s’en indigner pensent au rôle que jouent déjà les substituts des partenaires humains dans la vie sexuelle, imaginaire et/ou physique de centaines de millions d’humains. Pour les psychologues, la matière mériterait de nombreuses études. On y verrait plus concrètement qu’ailleurs comment se construisent ce que nous désignons dans ce livre par le terme de systèmes anthropotechniques. Ajoutons que seuls s’inquiéteront de ces perspectives les individus humains doutant de leurs capacités corporelles ou intellectuelles à s’attacher des partenaires également humains. Les autres ne s’arrêteront pas dans leurs entreprises face à la concurrence des robots.

Les robots militaires et de sécurité

C’est là que s’investissent les capitaux les plus importants actuellement. Il n’y aura malheureusement pas de raison pour que cette priorité soit modifiée. Partout prédominera le souci d’épargner le combattant de première ligne, d’autant plus que son efficacité personnelle sera de plus en plus mise en échec par les formes de guerres de demain, exigeant à la fois technicité, réactivité et insensibilité psychique. On dit quelquefois que les futurs conflits seront ceux de la guerre des pauvres aux riches, dits aussi de la 4e génération. Dans les deux cas, les belligérants feront appel à des robots plus ou moins sophistiqués, dont le coût ne sera guère supérieur à celui de l’homme. Citons en particulier les drones et projectiles auto-guidés sur leurs cibles, agissant soit isolément soit, dans les grandes armées, au sein de réseaux complets de stations terrestres et satellitaires, tel l’actuel Future Combat System des Etats-Unis. Les robots de sécurité civile seront davantage axés sur la protection intelligente des installations techniques et des villes. A un moindre niveau, ils se généraliseront pour la garde des résidences particulières ou des jeunes enfants.

Les robots d’exploration en milieux inhospitaliers ou hostiles

On qualifie de robots, aujourd’hui, des véhicules tels que les sous-marins de poche d’assistance aux travaux sous-marins, les véhicules à roues dits Rovers utilisés sur Mars ou les divers sondes et satellites automatiques servant à l’observation ou à l’étude scientifique de la Terre, des planètes et plus généralement de l’univers. Mais tous ces engins, même lorsqu’ils sont inhabités, ne disposent que de très faibles capacités d’initiative. Ils sont largement programmés à l’avance ou sous contrôle humain. C’est pourtant dans l’espace et sur le mode de l’exploration confiée à des robots de plus en plus intelligents, de plus en plus capables d’initiatives, que reposera l’avenir à long terme de la robotique. Elle seule pourra concrétiser, dans la plupart des cas, la vieille et légitime ambition visant à étendre la science humaine à l’échelle cosmologique. D’importants progrès seront à accomplir, afin que les systèmes futurs puissent s’alimenter en énergie, se maintenir, se réparer ou se multiplier sur un mode quasi biologique. Mais les ingénieurs ne manquent pas de solutions. Aussi futuristes qu’elles puissent paraître aujourd’hui, elles deviendront banales demain. Ceci pour une raison simple, après la guerre et la défense civile, c’est l’espace qui constitue déjà une priorité stratégique pour les grandes puissances. Elles sont engagées dans des rivalités de conquête analogues à celles ayant opposé les Etats-Unis et l’URSS au temps de la guerre froide. Ni l’argent, ni les moyens scientifiques et techniques ne manqueront donc aux inventeurs. Ils ne manqueront pas davantage aux robots du futur quand ils seront suffisamment évolués eux-mêmes pour exiger des crédits de développement, sur le mode de ce que font déjà les industries de l’armement au sein des actuels lobbies militaro-industriels.

Mais alors ces robots, auxiliaires voire moniteurs des humains dans les opérations d’exploration spatiale, susciteront des interrogations métaphysiques. Comment leur refuser, non seulement l’intelligence mais la conscience, sur le mode de ce que les humains qualifient de ce terme. Comment ne pas s’attacher à eux ?

Supposons un groupe de robots développés par une agence spatiale qui se comporteraient en tous points sur Mars comme le ferait une équipe de cosmonautes humains. Ces robots éviteraient les risques, identifieraient les zones intéressantes, échangeraient entre eux et avec la Terre les résultats de leurs expériences, réfléchiraient à de nouvelles stratégies d’exploration, bref porteraient le meilleur de l’intelligence humaine sur une planète qui pour quelques années encore reste inaccessible aux humains. Il ne s’agit pas là d’une hypothèse gratuite, car c’est précisément ce à quoi travaillent les diverses équipes scientifiques qui visent à étendre l’exploration spatiale au-delà de limites qu’elle n’a guère dépassées depuis le débarquement américain sur la Lune. Ces robots sont conçus comme devant précéder l’arrivée de cosmonautes puis ensuite l’accompagner. Ultérieurement, des objectifs plus ambitieux leur seront confiés. On les enverra en mission sur des astres qui seront pour de nombreuses décennies voire de nombreux siècles hors de portée humaine. Ces astres sont déjà en partie explorés par diverses sondes plus ou moins automatiques. Mais les possibilités de ces dernières sont moindres que celles offertes par des robots dotés d’une intelligence quasi humaine sinon véritablement surhumaine qui pourraient débarquer et survivre sur place.

Or, à supposer que ces robots se comportent exactement comme des humains, en faisant montre de capacités que chez l’homme nous attribuons à la conscience, y compris une conscience morale et un apparemment libre-arbitre, allons-nous déclarer qu’ils sont dotés d’une conscience humaine ? Nous avons vu en examinant les possibilités de l’IA forte que celle-ci peut simuler des comportements de ce type, s’appuyant sur des « valeurs » qui seront soit celles des sociétés humaines traditionnelles, soit celles des nouvelles sociétés anthropotechniques étudiées précédemment. Malgré tout cela, la réponse commune risquera d’être longtemps négative. On dira : « Ces robots se comportent comme s’ils étaient conscients et moraux. Mais en réalité, ce sont nous, les humains, qui sommes conscients et moraux. Ils ne le sont pas. Ce ne sont que des machines. » Pourquoi cet ostracisme qui pourrait être qualifié d’anthropocentrisme exacerbé ? Longtemps les mâles humains ont expliqué de la même façon que les serviteurs et les femmes n’étaient que des machines à peine améliorées.

Sans aborder la discussion au fond, nous pouvons signaler une réaction significative du rejet que suscitent les robots destinés à remplacer des pilotes ou opérateurs humains. Ainsi, d’ores et déjà, l’armée américaine qui fait un usage massif de drones télécommandés voudrait généraliser leur remplacement par des systèmes robotiques à pilotage autonome. Mais les pilotes d’avions militaires ou civils manifestent la plus grande réticence face à cette orientation, en arguant de risques pouvant en résulter. Tout laisse penser cependant que des systèmes robotiques éliminant le redoutable facteur humain et suffisamment redondants pour prévenir les risques techniques seront plus fiables que les systèmes à pilotage manuel. La communauté spatiale sait de même que les spationautes sont très réticents à l’idée de se faire précéder ou assister par des robots autonomes. Ils ne protègent pas véritablement ainsi leurs emplois futurs. Ils éprouvent certainement une sorte de peur métaphysique dont les racines plongent loin dans l’inconscient.

Le jeu et la création artistique

Le jeu et l’art, conçus soit comme outils de formation des jeunes humains, soit comme activités développant l’imaginaire, la sensibilité et autres qualités rarement sollicitées dans la vie professionnelle, feront aussi appel à la robotique autonome. Inutile de s’attarder sur les compétitions sportives entre robots, ou les exhibitions de robots danseurs ou peintres dont le principal intérêt est encore pour le moment de stimuler les recherches en robotique autonome. C’est par contre dans le domaine de la réalité virtuelle que l’émergence de robots numériques capables de se comporter en interlocuteurs autonomes des humains impliqués dans de tels univers présentera de l’intérêt. Nous ne traiterons pas cependant de la réalité virtuelle dans cette rubrique, mais dans la section suivante.


3. Coopérations entre IA, robotique et sciences émergentes

On connaît la liste des sciences et technologies dites émergentes et convergentes, nanotechnologies, biotechnologies, cognotechnologies, infotechnologies. Elles font malgré la crise l’objet d’intenses développements. Elles sont au coeur du développement des grands systèmes anthropotechniques modernes. Les questions philosophiques et politiques posées sont innombrables. Nous aurions pu en discuter en détail mais le faire aurait nécessité des dizaines de volumes. Bornons-nous à évoquer ici leurs relations avec l’IA et la robotique. Elles seront vite aussi étroitement et réciproquement imbriquées que celles déjà entretenues avec l’informatique.

Les prothèses corporelles et mentales (hommes et animaux dits cyborgs)

Nous avons déjà abordé ce point plus haut, mais en nous en tenant aux ajouts provenant de de l’IA et de la robotique. En fait, les cyborgs de demain (ou leurs prototypes ludiques ou expérimentaux d’aujourd’hui) incorporent de nombreux ajouts de type biologique sous forme de greffes diverses. Ils font également appel à de nombreuses drogues ou stimulants complétant les ressources d’ores et déjà abondantes de la pharmacopée et de l’industrie. Beaucoup des comportements correspondants relèvent de tendances difficilement tolérables, dans les sociétés policées, et sont soumises à la répression émanant de ce que l’on nomme le bio-pouvoir ou pouvoir des autorités chargées de la prévention des grandes pathologies et du suicidaire. Mais, dans une approche plus darwinienne de l’évolution sociale, on peut les considérer comme les manifestations d’une heuristique inconsciente visant par essais et erreurs à susciter des mutations éventuellement salvatrices.

En ce qui concerne les relations de la robotique avec les comportements, déviants ou non, des cyborgs, il faudra prendre garde au fait que ces comportements pourraient déstabiliser des robots autonomes à la recherche de modèles. Ils provoqueraient chez eux des réactions agressives ou délirantes qui se répercuteraient sur l’ensemble de la société. Mais de tels risques existent déjà. Un militaire ou un chercheur sous l’empire de la drogue, plus banalement même un automobiliste sous imprégnation alcoolique ou hallucinogène, peut se révéler une redoutable machine à tuer.

Les réseaux intelligents (cerveau dit global)

La littérature mondiale sur ce sujet est immense. Dès les origines du Web, on a voulu y voir l’équivalent d’un cerveau biologique, disposant de neurones individuels dotés d’une autonomie locale (pro-activité), reliés par des canaux interneuronaux plus ou moins denses en fonction de la fréquence des trafics, et s’organisant autour de centres serveurs eux-mêmes distribués, sans contrôle hiérarchique central. La génération de contenus informationnels circulant sur le réseau dans une relative compétition a par ailleurs été comparée à celles des idées créées par des cerveaux individuels et échangées par les outils de la communication sociale. On s’est demandé enfin si les virus informatiques, dont l’apparition et la prolifération éventuelles sur le Web ressemblent beaucoup aux modes d’action des virus biologiques, ne seraient pas l’indice d’un début d’autonomisation de la part de certains éléments du Web lui-même considéré comme un cerveau global.

Il est certain que la réflexion sur les réseaux artificiels, que ce soit ceux du Web, des simples communications téléphoniques et postales ou des échanges de trafic entre centres urbains, présente beaucoup d’intérêts pour les neurologues. Ils peuvent ainsi mieux comprendre les échanges entre composants cellulaires du cerveau. Mais la question qui nous intéresse dans ce livre est un peu différente. Nous nous demandons si un réseau comme le Web et plus généralement tous les réseaux électromagnétiques reliant les humains peuvent donner naissance à des robots numériques qui prendraient de l’autonomie par rapport aux utilisateurs humains de ces réseaux, quitte à se retourner contre eux éventuellement. Une autre façon de poser la question consiste à se demander si des robots autonomes connectés au Web, comme beaucoup le seront, pourraient profiter de ces connexions pour se regrouper, renforcer leurs autonomies et devenir de plus en plus indépendants des humains, voire hostiles.

Ces deux questions sont un peu différentes, mais se complètent. La première consiste à se demander si un réseau comme le Web pourrait évoluer sur le mode darwinien en entités virtuelles acquérant des corps, des organes d’entrée sortie et des cortex associatifs virtuels les transformant en véritables entités artificielles quasi-biologiques. De telles entités pourraient alors se développer et se complexifier dans le cadre d’une compétition quasi biologique ressemblant à celles que les méméticiens croient déceler entre mèmes et mèmesplexes dans les actuels systèmes sociaux. Nous pensons qu’en théorie, rien n’interdit de penser que cette situation se produise. Nous avons vu, en étudiant l’IA, que de nombreux programmes auto-générateurs et auto-complexificateurs existent déjà. Leur population pourrait s’étendre, si le monde du virtuel et des réseaux, qui est en pleine expansion, leur offrait un terrain favorable. Ceux qui s’intéressent à la détection d’éventuelles formes de vie et d’intelligence extra-terrestres les rechercheront d’abord sous de telles formes. Les tenants d’une vie terrestre post-biologique pensent également que celle-ci pourrait émerger spontanément sous cette forme en se superposant à la vie biologique.

L’opacité du monde des réseaux contemporains, dont la complexité n’est analysable qu’en termes statistiques globaux, incite certains observateurs à penser que des centres de décision autonomes, échappant aux humains, sont déjà en train d’émerger sur le Web. La puissance des moteurs de recherche, le caractère touffu des réseaux de serveurs, pourraient favoriser la naissance discrète de telles entités.

Nous pensons cependant pour notre part que rien, pour le moment, ne semble justifier de telles hypothèses. Ces entités se révéleraient très vite par des manifestations explicites suscitant des résultats « aberrants » dont l’on ne manquerait pas d’analyser les causes, comme on le fait des multiples « bugs » générés en permanence par les systèmes actuels. Il faut davantage craindre les pouvoirs politiques ou économiques s’infiltrant sciemment et discrètement sur le Web pour contrôler les comportements et pensées de ses usagers. Nous sommes alors là en terrain plus connu.

La seconde question, concernant les « augmentations » que les robots pourraient acquérir en étant branchés sur le Web (voire en se branchant spontanément sur le Web), est beaucoup plus actuelle. Nous avons déjà indiqué qu’un robot autonome de demain, disposant d’une connexion permanente sur Internet, capable d’interroger les différents moteurs de recherches, bases d’images et de connaissances y figurant, deviendrait dans les relations quotidiennes ou professionnelles avec les humains un compétiteur redoutable. Le Web fera de tels robots ce que l’on pourrait nommer des post-robots, de même que le Web a fait incontestablement de nous des post-humains, par comparaison avec les humains des sociétés traditionnelles.

Ces facultés pourraient être exploitées par les humains. Ils utiliseraient alors les robots et les IA associées comme de super-machines à inventer, grâce à leurs puissances dans la recherche d’idées et dans la génération d’hypothèses. Ils s’éviteraient ainsi le mal de collationner eux-mêmes des informations et de les regrouper en modèles heuristiques. Cependant, si les humains prenaient prétexte de l’assistance des robots pour s’éviter de penser, ce serait grave. C’est un reproche que l’on fait déjà aux addicts de la télévision.

Il semble cependant que le risque de voir les humains se reposer sur des systèmes d’heuristique robotisés pour s’éviter de penser eux-mêmes est faible, sinon inexistant. Les cerveaux humains sont ainsi faits que, dans des corps bien portants, ils ne se laissent pas submerger par l’afflux d’idées neuves. Au contraire, ils les retraitent spontanément pour en extraire des idées nouvelles enrichies. Rien n’est pire que l’isolement sensoriel et informationnel pour la santé du cerveau. Nous pensons que si les robots de demain devenaient capables d’explorer, non seulement de nouveaux espaces physiques, mais de nouveaux espaces théoriques, ils apporteraient beaucoup à la cognition collective et aux cerveaux individuels eux-mêmes.

Les univers virtuels ou de synthèse

Nul n’ignore l’importance que prend désormais ce que l’on nomme en simplifiant la réalité virtuelle dans la création artistique, la recherche scientifique, les pratiques professionnelles et plus généralement la vie quotidienne. On peut la définir simplement comme une technique consistant, grâce à des algorithmes mathématiques et informatiques, à reproduire sur un écran des univers et des entités en 3 dimensions semblables ou au contraire très différents de ce que nous rencontrons dans le monde réel. La plupart des créatures du monde virtuel prennent l’apparence d’animaux ou d’êtres humains avec lesquels les humains proprement dits ont la possibilité d’interagir. On pourrait penser qu’il n’y a pas lieu ici de les distinguer des robots. Ils posent les mêmes questions que ces derniers quant aux possibilités d’introduire dans les sociétés humaines traditionnelles des agents artificiels dotés d’aptitudes à l’autonomie, face auxquels les individus et les groupes devront mieux définir leurs spécificités, s’ils en ont. Ce sera encore plus évident lorsque se généraliseront les créatures virtuelles dites haptiques ou « à retour d’effort », avec lesquelles le contact, bien que virtuel, donnera l’impression d’être réel. Cette propriété est déjà utilisée dans les émissions virtuelles à finalité sexuelle.

Nous ne détaillerons pas ici les différentes techniques permettant de construire un monde virtuel et y interfacer un être humain en lui donnant l'impression qu'il y perçoit et agit de manière naturelle : perception en 3 dimensions, immersion sensori-motrice (systèmes haptiques précités), interaction en temps réel, etc. Ces techniques sont des développements de ce qui a été fait à plus petite échelle dans le multimédia éducatif et ludique ou dans les simulateurs industriels, destinés notamment à la formation des pilotes. La conjonction de ces techniques conduit tout naturellement à la réalité dite “augmentée” (“augmentée” dans la mesure où elle utilise les techniques du virtuel puisque toute réalité, en principe, peut être dite augmentée par celui qui la perçoit avec un instrument quelconque). On aboutit à la “télé-présence” ou “sortie du corps”, qui n'ont pas là de dimension mystique, mais signifient simplement que l'expérimentateur est complètement détaché par le système des pesanteurs de sa cognition habituelle.

Un auteur comme Denis Berthier(10) s’est attaché à étudier ce qu'il appelle le “clonage de l'univers semiotico-cognitif” réalisé par l’IA appliquée à la création virtuelle. Il ne faut plus désormais distinguer les modèles mobilisant les perceptions sensorielles de ceux s'adressant, via les agents de l'IA, aux contenus de connaissance, c’est-à-dire à « l'univers des signes, des savoirs et de la raison". Cette IA aboutit à une augmentation sémiotico-cognitive du réel, qui duplique ou complète l'augmentation sensorielle permise par le virtuel. Ainsi par exemple le robot peut-il être considéré comme l'habillage perceptible par les sens d'un agent virtuel opérant dans notre monde, c'est-à-dire être considéré comme une augmentation sémiotico-cognitive du réel aisément perceptible du fait de son aspect humanoïde.

La réalité virtuelle, qui est dite aussi réalité « augmentée », pose à grande échelle la question de la prolongation des capacités sensorielles des organismes biologiques par divers moyens artificiels. On sait que le cerveau, s’il ne dispose pas de repères extra-sensoriels, peut se montrer incapable de distinguer entre un monde réel et un monde virtuel. Il n’y a là rien d’étonnant, si les messages en provenant sont identiques ou quasi identiques. Faut-il alors s’en inquiéter ou s’en réjouir ? Le risque vient de ce que, aussi parfaite que soit l’imitation du réel par le virtuel, cette imitation ne peut à elle seule embrasser les infinis aspects de l’univers réel. Elle concentre l’attention sur une toute petite lucarne en la détournant des dangers et opportunités du monde réel. Le cerveau infecté par le virtuel vit alors dans une étroite bulle au sein de laquelle il finira par dépérir.

Les films en réalité virtuelle, comprenant ou non des acteurs réels, donnent une bonne idée de la philosophie qui sous-tend la cosmogonie des mondes virtuels dans la production cinématographique et les jeux vidéo : notamment la difficulté à distinguer le virtuel du réel, la dimension mythique voire mystique de l'histoire, la récursivité de la virtualité c'est-à-dire le fait qu'un monde virtuel donne accès à un autre. Ils permettent d’étudier aussi les répercussions de la fréquentation des mondes virtuels sur les personnalités des personnages. Celle-ci se traduit par la difficulté à sortir du monde dans lequel ils sont immergés, la compulsion à faire certaines actions, pouvant aller jusqu'à un “verrouillage” dans le virtuel, selon le mot de Denis Berthier, verrouillage qui est un peu à l'image du verrouillage que subit le spectateur. D'une façon générale, on retrouve l'idée qu'il est difficile, sinon impossible, de faire la preuve de ce qu'un phénomène est réel face à son double virtuel. Certains physiciens ont émis l’hypothèse que nous ne serions nous-mêmes, dans notre monde supposé réel, que des acteurs virtuels verrouillés dans un univers créé par des intelligences émanant d’un super-univers extérieur à nous.

Ces films ou jeux vidéo, malgré leur apparente diversité foisonnante, posent la question, importante de l'aptitude qu'ont ou non les auteurs à imaginer des mondes virtuels véritablement innovants. Nous avons un peu l'impression qu'ils se répètent tous en exploitant un effet de mode. Au début, le caractère original de ces films leur a permis de créer leur public, en faisant sensation. Mais se renouvellent-ils aujourd'hui ? On retrouve dans ces films le même défaut qui a frappé les films et séries de science-fiction présentant des robots, chaque nouvelle œuvre semblant un remake de Star Trek. De plus, l'originalité n'est-elle pas finalement plus dans la forme que dans le fond. Les thèmes sont transposés du vieux fond, mélange de mystique, de préjugés et de manque d'ouverture aux autres sociétés, qui se retrouve depuis une cinquantaine d'années dans toutes les formes d'expression de la société américaine, roman et cinéma notamment(11). La question nous semble plus importante qu'il ne paraît. Pourrait-on inventer, ou plutôt voir apparaître un virtuel qui remette radicalement en cause les croyances et certitudes intellectuelles établies ? Sans doute pas, si dans ce domaine comme dans tous les autres de la création, on veut rester fidèle à des convenances qui sont, pense-t-on, le prix à payer pour réaliser un chiffre d'affaires suffisant.

Cette contrainte peut expliquer, en partie, la difficulté à faire, au moins dans ces films, la différence entre le réel et le virtuel. C'est qu'il s’agit un peu du même monde. Si l’on était capable de laisser des agents autonomes (comme le seraient par exemple des extraterrestres, ou des animaux) nous proposer des versions virtuelles de leur monde à eux, peut-être pourrions-nous identifier des logiques radicalement différentes à l'œuvre. Techniquement, c'est aujourd'hui impossible. Cependant, si on considère que la sphère du virtuel s'étend ou à vocation à s'étendre bien au-delà de la cognition humaine actuelle, il faut garder cette idée en tête.

Les raisons de la difficulté à distinguer le réel du virtuel s'expliquent en partie, avons-nous indiqué, par le fait que le réel et le virtuel émettent des messages sensoriels voisins, que notre cerveau n'a pas toujours la possibilité de distinguer. On en a eu la preuve depuis longtemps en étudiant les images produites par un miroir, ou diverses illusions d'optique. Mais alors se pose
la question de la consistance de ce que nous appelons le réel. Pour la philosophie scientifique moderne, il n'existe pas des entités réelles en soi ou ontologiques, indépendantes de l'homme, que celui-ci pourrait observer en se situant en dehors d'elles. Tout pour lui se traduit par des représentations internes à son cerveau, qui font l'objet de traitements différents selon l'expérience de chacun. Il est donc important de se rendre compte que les garde-fous mis par le bon sens traditionnel, permettant de ne pas confondre le réel et l'imaginaire, les choses et leurs apparences, sont en train de disparaître. Il faudra vivre dans un monde tout différent, dont les contours apparaissent à peine.

Une deuxième question vient dans la suite de celle-ci. Est-il possible de distinguer le virtuel du potentiel ? On répond généralement par la négative. Le virtuel vise très souvent à présenter des univers futurs, probables ou improbables, comme s’ils étaient réels. Il fait tout pour empêcher de les distinguer du réel. Il construit de véritables « hallucinations » qui risquent d’enfermer en elles-mêmes ceux incapables d’en sortir. Mais n’y a-t-il pas là un élément favorable au renouvellement de notre monde quotidien ? Les scénarios explorant des mondes virtuels qui, soit n'existent pas encore, soit même paraissent aujourd'hui impossibles, ne vont-ils pas créer les conditions favorables à leur réalisation, dans le sens où l'on dit que ce que l'homme imagine finit toujours pas se réaliser ? Il est seulement dommage que pour le moment, en raison sans doutes des déterminismes anciens à l’œuvre dans les systèmes anthropotechniques, ce soit dans la création de mondes hyperviolents que de tels scénarios trouvent le plus d’addicts.

Beaucoup de prévisionnistes, nous l’avons vu, envisagent le développement exponentiel des moyens de calcul, qui se traduira par le développement lui-même exponentiel des applications faisant appel au virtuel. Ceci s'accompagnera de la possibilité croissante d'interagir directement avec les cerveaux, dans les deux sens, soit pour créer des illusions sensorielles et cognitives, soit pour donner une consistance matérielle aux créations de l'imaginaire. Il paraît indéniable que, sauf catastrophe dans le développement technologique, ces perspectives se réaliseront un jour, peut-être même dans la première moitié de ce siècle. Dans quels mondes vivrons-nous alors ? Les gens préféreront-ils voyager dans des pays virtuels, reproduction ou non de pays réels, plutôt qu'affronter les frais et les risques du tourisme sur une planète surpeuplée et agressive. Préférera-t-on fréquenter des partenaires artificiels, humains ou animaux, si ceux-ci offrent autant de ressources que des êtres vivants, sans imposer leurs contraintes ? On serait tenté de répondre par l'affirmative, quand on voit la préférence déjà affichée par beaucoup de nos contemporains pour l'illusion. Nous avons effleuré cette question à propos des robots utilisés comme des partenaires de jeu ou de sexe, d’autant plus facilement qu’ils seront de plus en plus capables d’autonomie.

On peut également répondre à cette question en rappelant que l'homme a toujours construit sa niche dans l'univers en combinant inextricablement les ressources offertes par son organisation biologique, les constructions cognitives de son cerveau, les ressources de ses moyens de computation et finalement la mise en place de mondes virtuels s'enracinant dans un réel dont on ne peut rien dire, sauf qu'il paraît riche d'infinies possibilités (réel symbolisé aujourd'hui par le concept de vide quantique). Plus généralement, le monde dans lequel nous vivons serait fait d'une intrication permanente entre le quantique, le cognitif, le biologique et le virtuel, dont la pensée humaine contemporaine devra inévitablement tenir compte. Ceci d’autant plus qu’en tous ces domaines se manifeste un aspect fondamental de la rétroaction homme-machine : le prétendu clonage modifie l'original.

Les vivants génétiquement modifiés

Avec les manipulations génétiques, nous retrouvons des perspectives proches de celles de la robotique : la possibilité de créer des entités réelles qui seraient proches bien que différentes des humains et des animaux actuels. Par contre, ces entités ne seraient pas artificielles (à base de composants non biologiques). Au contraire, elles appartiendraient au monde biologique, mais à une biologie détournée des voies évolutives jusqu’ici suivies par la vie sur Terre. Ces détournements seront le fait des sociétés humaines poursuivant différents buts : l’intérêt économique, la curiosité scientifique et plus généralement la volonté d’intervenir dans des mécanismes jusque-là considérés comme inabordables ou ne devant pas être abordés.

Les manipulations génétiques auront un autre point commun avec la robotique. Elles permettront de créer des hybrides entre le vivant et le robot qui augmenteraient éventuellement considérablement les domaines d’action de l’un et de l’autre. Il en résulterait en effet des symbioses qui pourraient bénéficier des qualités respectives de chacun des ordres pour se développer dans le domaine d’action naturel de l’autre. On sait qu’il existe déjà de nombreuses expériences visant à implanter des électrodes ou des puces électroniques dans les cerveaux d’hommes et surtout d’animaux. Des recherches militaires assez poussées visent actuellement, par cet intermédiaire, à « piloter » des mammifères, des oiseaux voire des insectes afin de leur faire accomplir des missions offensives ou de surveillance. Mais les animaux ainsi transformés restent en général sous le contrôle d’opérateurs humains. Le temps n’est pas loin cependant où, grâce à la miniaturisation, il sera envisagé de remplacer une partie de leurs fonctions cérébrales par de véritables robots autonomes.

A l’inverse, de nombreuses expériences reposent aujourd’hui sur l’utilisation de neurones animaux ou même de fragments d’aires cérébrales provenant de cerveaux animaux, afin de piloter des systèmes robotiques. L’essai n’a pas encore été fait, semble-t-il, avec des neurones humains. Il s’agit plus pour le moment d’étudier le fonctionnement des interactions entre messages externes et tissu cérébral que de construire de véritables hybrides opérationnels, dont l’intérêt n’apparaît pas évident.

Les animaux “utilisés” ou “détournés” par le génie génétique souffrent on le sait de diverses incapacités naturelles que les généticiens essaient de pallier grâce à leurs manipulations. Ceci n’empêche pas les recherches de s’intéresser à la possibilité de réaliser des hybrides ou chimères entre individus d’espèces voisines ou même différentes visant à cumuler dans une même espèce au génome artificiellement modifié les qualités des espèces parentes. De tels animaux nouveaux, que l’on considérera très facilement comme du matériel de laboratoire, pourront se voir greffer des composants robotiques plus ou moins intrusifs. On aboutira à des résultats qui seront, selon la proportion des composants biologiques et artificiels, soit des animaux robotisés soit des robots animalisés.

Le génie génétique n’envisage pas encore, pour des raisons éthiques, de procéder à des hybridations véritables entre animaux et hommes. Par contre, nous l’avons vu, les « augmentations de capacité » offertes aux humains par l’apport de compléments chimiques ou robotiques sont considérées en général comme ne posant pas de trop graves problèmes. Ceci tant que ces ajouts n’ont pas d’influence sur les génomes reproducteurs et ne risquent donc pas de modifier l’espèce humaine en profondeur. Cependant, là encore, le génie génétique a commencé à proposer des méthodes permettant d’éliminer l’expression de gènes supposés apporter des invalidités ou maladies chez le sujet adulte. On le fait et on le fera de plus en plus aussi chez l’embryon, par l’intermédiaire notamment du « diagnostic pré-implantatoire », pour prévenir la naissance de sujets jugés non désirables. Certains parents enfin réfléchissent sérieusement à l’intérêt que représenteraient des interventions sur leurs propres systèmes reproducteurs afin d’éliminer d’emblée des gènes « nuisibles » ou d’y introduire des gènes « souhaitables ».

Tout ceci, on le sait relève encore d’acrobaties médicales et n’offre aucune garantie de résultats. Mais il ne faut pas s’illusionner. Ce que la génétique et la biologie associée pourront faire pour « améliorer » l’espèce humaine, ou certains de ses représentants, sera fait un jour, à plus ou moins grande échelle. On verra donc s’imposer la tentation de réaliser des hybrides biologico-robotiques, non plus cette fois avec des animaux mais avec des humains. Ces hybrides, contrairement aux « hommes augmentés » actuels, seront dotés de qualités génétiquement programmées leur permettant de coexister durablement et utilement avec des robots. Ceci pour le plus grand bénéfice, dira-t-on, des deux espèces concernées, l’humaine et l’artificielle.
De telles évolutions, évoquées aujourd’hui, soulèvent en général l’indignation. Mais seront-elles décidées « volontairement » par des chercheurs ou des entrepreneurs sachant très bien sur quel terrain glissant ils s’avancent et soucieux de respecter des limites d’ordre éthique ? Seront-elles au contraire engagées au hasard, sans finalités affichées et sans souci des suites possibles, en prolongement des processus évolutifs subis par la Terre depuis qu’elle est stabilisée sur son orbite. Nous pensons que cette seconde hypothèse est la plus probable, Cependant, rien n’exclut aujourd’hui que parmi de tels organismes mutants apparaissent certaines forces capables d’influencer l’évolution globale, dont l’action régulerait certains comportements anarchisants susceptibles de détruire complètement les écosystèmes.

Le vivant artificiel ou synthétique

On désigne par ce thème les expériences visant, non plus à intervenir sur les génomes des espèces vivantes afin de créer de nouvelles variétés ou espèces, mais à créer avec des composants entièrement artificiels des entités qui se comporteraient de façon plus ou moins fidèle comme des vivants. On dira que c’est bien l’objectif de l’IA depuis les années 1970 (avec par exemple le Jeu de la Vie de John Conway utilisant des automates cellulaires). C’est très exactement aussi, avec des moyens autrement puissants, l’ambition de la robotique. Mais la biologie synthétique est une démarche différente, apparemment à la fois plus simple et plus compliquée. Elle consiste à faire travailler ensemble des molécules ou atomes appartenant à la chimie minérale et non à la biochimie, afin de recréer des entités artificielles ayant les propriétés de la vie au niveau le plus fin, celui de la cellule et de ses composants (par exemple les ribosomes).

Les recherches sur la vie synthétique ont toujours intéressé les biologistes cherchant à connaître le fonctionnement des systèmes vivants naturels. L’espoir à plus long terme est de réussir une synthèse de la vie. Une manière simple et directe de vérifier notre compréhension actuelle des mécanismes du vivant est de construire un exemplaire (ou une version) d’un système selon notre compréhension de ce dernier. Le travail avant-gardiste de Michael Elowitz du Caltech est un bon exemple d’une telle approche. Michael Elowitz avait élaboré un modèle du fonctionnement de l’expression génétique dans les cellules vivantes. Pour le vérifier, il construisit un morceau d’ADN selon son modèle, le plaça dans les cellules vivantes et observa les résultats. De tels travaux utilisent beaucoup de mathématiques pour prédire et étudier les dynamiques des systèmes biologiques avant de les construire de manière expérimentale. Une difficulté clairement soulignée cependant par Jean-Jacques Kupiec tient à ce que dans ces tentatives de reconstruction, les biologistes ou biochimistes s’inspirent de ce qu’ils savent aujourd’hui de la vie, c’est-à-dire qu’ils y répercutent beaucoup d’erreurs – notamment celles de la biologie moléculaire traditionnelle. Mais ceci pourrait en principe être évité dans le futur.

Les systèmes biologiques sont des systèmes physiques composés de matériaux chimiques. Il y a environ cent ans, la chimie passa de l’étude des matériaux chimiques naturels à la conception et l’élaboration de nouveaux matériaux chimiques. Cette transition inaugura le domaine de la chimie de synthèse. Certains aspects de la biologie de synthèse peuvent être vus comme une extension et une application de la chimie de synthèse à la biologie, allant jusqu’à créer de nouveaux matériaux biochimiques qui puissent non seulement éclairer les origines de la vie sous sa forme actuelle mais proposer de nouvelles formes de vie biologique. De nombreux travaux américains explorent avec succès ces perspectives.

Les ingénieurs pour leur part voient la biologie comme une technologie. La biologie de synthèse inclut une large redéfinition et extension de la biotechnologie, avec le but ultime d’être capable de concevoir et construire des systèmes biologiques fabriqués qui traitent l’information, manipulent les éléments chimiques, produisent de l’énergie, fournissent de la nourriture et maintiennent et améliorent la santé humaine et notre environnement. Un des aspects qui distingue la biologie de synthèse de l’ingénierie génétique traditionnelle est son souci de développer des technologies fondamentales rendant l’ingénierie biologique plus facile et plus fiable. Les « réécrivains » sont des biologistes synthétiques souhaitant vérifier l’idée que, puisque les systèmes biologiques naturels sont si compliqués, nous ferions mieux de reconstruire le système naturel qui nous intéresse à partir de zéro, afin de fournir des produits plus faciles à comprendre et avec lesquels l’interaction serait plus facile.

Il faut savoir que les recherches avancent vite concernant la création de formes de vie artificielle dotées des propriétés de la vie biologique, notamment la réplication et la capacité de s'alimenter. A la XVe Conférence Internationale sur l'origine de la vie, qui s'est tenue à Florence les 24/29 août 2008, une équipe dirigée par le Dr Jack Szostak, de la Harvard Medical School, a présenté le prototype de protocellules comportant l'équivalent d'informations génétiques leur permettant de se reproduire. Ces protocellules comportent des molécules d'acide gras qui peuvent se lier avec des morceaux d'acides nucléiques contenant le code source nécessaire à la réplication. Conjuguées avec un processus permettant de capter l'énergie solaire ou d'utiliser l'énergie de réactions chimiques, elles peuvent former un système auto-réplicateur auto-évolutif qui, sans ressembler encore à la vie terrestre actuelle, pourrait simuler les formes de vie terrestre à ses débuts, ou telle qu'elle pourrait exister sur d'autres planètes.

Le modèle montré à Florence n'est pas encore pleinement autonome, mais représente la forme de vie artificielle utilisant des composés chimiques la plus achevée à ce jour. Il comporte des membranes capables de grandir et de se reproduire. Cependant, il faut aller plus loin et reconstituer les conditions de l'évolution darwinienne primitive en créant les forces sélectives s'appliquant à un grand nombre de séquences capables de se modifier arbitrairement, sur le mode des mutations aléatoires. Ce processus une fois enclenché sera particulièrement intéressant car les chercheurs ne pourront pas, par définition, prédire a priori les formes auxquelles il aboutira. Il s'agira de créer une forme de vie nouvelle que les humains n'ont jamais vue et qui n'a peut-être jamais existé (sauf sur d'autres planètes ?).

Les auteurs de cette communication(12) considèrent que les protocellules ainsi réalisées représentent une forme de vie artificielle plus complète que celle dite de la biologie synthétique étudiée par Craig Venter. Celui-ci s'efforce de construire une bactérie artificielle E. Coli disposant du plus petit nombre de gènes possibles compatibles avec la réplication. Mais le produit de cette recherche ne sera pas une forme de vie nouvelle, contrairement aux protocellules de Jack Szostak. Il se bornera à reconstituer une cellule comparable à celles qui existent déjà sur Terre. Or les cellules biologiques disposent de mécanismes développés au long de millions d'années d'évolution, qui en font de véritables petites usines ou nanomachines visant à asservir l'énergie pour faire des copies d'elles-mêmes. Il s'agit de systèmes déjà très perfectionnés disposant d'une machinerie moléculaire très complexe, qu'il n'est pas possible de synthétiser à partir de composés chimiques.

Les protocellules de Jack Szostak se situent bien en amont de telles réalisations. Elles se placent au niveau de ce qui pourrait être l'origine véritable de la vie terrestre, ou d'une sorte de vie n'ayant jamais encore existé sur Terre et pouvant éventuellement apparaître dans des planètes disposant d'un environnement physique et chimique différent, éventuellement dépourvu d'eau liquide.

L'équipe espère disposer en laboratoire d'un système auto-réplicateur complet dans un futur proche. Peut-être se trouve-t-on au début d'une véritable révolution des sciences de la vie. Depuis les premières expériences de Stanley Miller, comme on le sait, les chercheurs et les philosophes ont toujours espéré, mais en vain, pouvoir faire revivre le début du début de celle-ci. Le modèle de Szostak n'a pas cette ambition. Il ne nous dira pas nécessairement comment la vie est effectivement apparue sur Terre. Il montrera seulement comment elle aurait pu apparaître, quitte à évoluer de façon très différente. Ce serait, pensons-nous, encore plus intéressant, notamment pour les exobiologistes.

Concernant l’avenir de la robotique, on voit que la biologie synthétique ne présente pas les inconvénients éthiques ou les difficultés scientifiques obligeant à réaliser des symbioses viables entre de l’artificiel ou du biologique. On peut très bien envisager doter les robots de demain de corps exploitant les propriétés de la biologie synthétique et leur permettant d’interagir plus facilement avec les humains et les animaux. Ces interactions pourraient avoir des finalités thérapeutiques. Plus généralement, elles poursuivraient l’objectif de faire apparaître des robots compagnons beaucoup plus acceptables par les sociétés humaines traditionnelles et plus efficaces qu’ils ne sont actuellement.

On devra cependant se poser la question des risques pouvant éventuellement résulter de la mise en circulation dans nos écosystèmes de robots biosynthétiques pouvant se reproduire par emballement. Ces risques sont aussi à prendre en considération concernant les relations entre la robotique et les nanotechnologies.

Les nanomatériaux et nano-objets

Les nanosciences et nanotechnologies (NST) peuvent être définies comme l'ensemble des études et des procédés de fabrication et de manipulation de structures, de dispositifs et de systèmes matériels à l'échelle du nanomètre (milliardième de mètre). Dans ce contexte, les nanosciences sont l’étude des phénomènes et de la manipulation de la matière aux échelles atomique, moléculaire et macromoléculaire, où les propriétés physico-chimiques diffèrent sensiblement de celles qui prévalent à une plus grande échelle. Les nanotechnologies, quant à elles, concernent la conception, la caractérisation, la production et l’application de structures, dispositifs et systèmes par le contrôle de la forme et de la taille à une échelle nanométrique.
On considère très généralement aujourd’hui que les nanosciences ouvrent des perspectives considérables aux sciences de l’ingénieur et à la robotique, en permettant soit de réaliser de nanomachines ou nanorobots capables d’opérer par exemple à l’intérieur du corps, soit d’obtenir des matériaux de grande résistance (par exemple des nanotubes de carbone) offrant une grande résilience pour la réalisation des éléments physiques des robots. Nous pensons que ces perspectives sont intéressantes mais que pour le moment elles relèvent encore de la recherche fondamentale. Il est difficile de concevoir des nanorobots, faits d’une ou plusieurs nanoparticules, si l’on ne sait pas comment les doter de propriétés les rendant aptes aux opérations logiques.

La presse confond souvent à cet égard les nanomachines avec des machines travaillant à l’échelle microélectronique, les MEMS. Un MEMS ou microsystème électromécanique comprend un ou plusieurs éléments mécaniques, utilisant l'électricité comme source d'énergie, en vue de réaliser une fonction de capteur et/ou d'actionneur avec au moins une structure présentant des dimensions micrométriques. Issus de la technologie de la microélectronique, les MEMS font appel pour leur fabrication à cette dernière, laquelle permet une production à grande échelle. Leurs applications sont désormais nombreuses, notamment en robotique.

Un des avenirs des nanotechnologies en robotique repose sur la capacité d’utiliser les nanocomposants non de façon isolée mais en essaims de millions d’unités de base. Ces essaims pourraient alors se comporter comme des robots macroscopiques, disposant de corps et d’unités logiques leur permettant d’agir de façon coordonnée. Des applications militaires ou spatiales (smart dust ou poussières intelligentes) sont déjà à l’étude. De tels essaims pourraient en effet survivre sans les contraintes des organismes biologiques et préfigurer des formes de vie et d’intelligence en milieu hostile ou extraterrestre.

On sait que les chercheurs s’intéressent par ailleurs aux possibilités de l’ingénierie moléculaire. Certaines nanomolécules pourraient se reproduire spontanément, sur un mode quasi biologique. La science-fiction a exploité des scénarios selon lesquels des nuages de nanomatière dotés de propriétés organiques pourraient envahir notre environnement (grey goo). Dans une perspective plus concrète, il s’agirait d’une formule permettant d’obtenir des robots auto-réplicants susceptibles de coloniser le système solaire. Le risque d’un emballement mettant en péril la vie sur Terre existera à terme, comme dans tous les domaines de la science, mais il ne nous paraît pas justifier les peurs quasi religieuses que suscitent actuellement les nanotechnologies dans certains milieux, y compris semble-t-il à la Cour Royale d’Angleterre.

Les « objets » quantiques

Les progrès des calculateurs quantiques sont lents mais indéniables. Il faut les connaître car la possession d’un ordinateur quantique révolutionnera les perspectives de l’IA et de la robotique. Le premier pays qui maîtrisera complètement de tels dispositifs se donnera une avance stratégique indépassable sur les autres. Il pourra, en cas de conflit, rendre inutilisables la plupart des ordinateurs et réseaux actuellement en place.

On ne décrira pas ici un ordinateur quantique. Disons seulement qu'il utilisera les propriétés des bits quantiques ou qbits. Un qbit est un système quantique monté en laboratoire. Il peut s'agir d'un atome ou d'une particule, entouré d'un champ magnétique intense et subissant des impulsions radio de haute fréquence qui modifient par exemple sa rotation (son spin). On attribuera la valeur 1 à une rotation dans le sens des aiguilles d'une montre et la valeur 0 à la rotation en sens inverse, c'est-à-dire les deux valeurs utilisées dans le langage binaire des informaticiens. Compte tenu de la difficulté que l'on rencontre pour manipuler de tels atomes, le nombre maximum des qbits qui ont pu être mis en œuvre dans les prototypes les plus récents d'ordinateur quantique ne dépasse pas 7 - ce qui paraît risible au regard des dizaines de millions d'unité composant le processeur d'un simple micro-ordinateur.

Mais la particule isolée peut, comme l'enseigne la mécanique quantique, se trouver dans deux états à la fois. C'est ce que l'on appelle l'état de superposition cohérente. Si on veut s'en servir comme unité de représentation de l'information (bit) elle peut donc présenter simultanément l'état 1 et l'état 0. L'ordinateur quantique calcule ainsi en manipulant des bits pouvant prendre soit la valeur 1, soit la valeur 0, soit la superposition 1 et 0. Avec deux bits, un ordinateur classique peut représenter un des 4 nombres traduits en binaire par 00, 11, 01 ou 10. L'ordinateur quantique, lui, peut représenter simultanément ces 4 nombres. Trois qbits, de même, pourront représenter simultanément 8 nombres, au lieu de 1 nombre à la fois. La suite en proportion, chaque nouveau qbit ajouté aux autres doublant la quantité de nombres représentés par la séquence : quatre qbits représentent 16 nombres, cinq qbits 32 nombres… dix qbits 1.024 nombres/ N qbits peuvent mémoriser 2 puissance N nombres. Il en résulte que si on utilise trois qbits comme donnée d'entrée en vue d'un calcul (diviser par 2 ou extraire la racine carrée), comme ils représentent 8 nombres, ils feront 8 calculs à la fois chaque fois que l'on changera l'état d'un des bits. L'ordinateur quantique est donc d'abord un calculateur massivement parallèle. Avec 13 atomes (ce qui n'est pas envisageable pour le moment), il atteindrait la puissance de calcul en parallèle de l'ordinateur Blue Mountain d’IBM.

Un ordinateur quantique peut utiliser n'importe quelle particule susceptible d'avoir deux états en superposition. Des ordinateurs quantiques peuvent être construits à partir d'atomes qui sont à la fois excités et non excités au même moment. Ils peuvent être construits à partir de photons de lumière qui sont à deux endroits au même moment. Ils peuvent être construits à partir de protons et de neutrons ayant un spin soit positif soit négatif ou les deux en même temps. Une molécule peut contenir plusieurs millions de protons et de neutrons. Elle peut donc, théoriquement, être utilisée comme ordinateur quantique doté de plusieurs millions de qbits. Les capacités potentielles de calcul correspondraient, avec un ordinateur classique, à des durées de plusieurs fois l'âge de l'univers. On imagine ainsi le gain de temps calcul et d'utilisation mémoire à laquelle peut conduire cette nouvelle technologie. Mais elle promet aussi beaucoup plus : les vrais progrès viendront aussi de nouveaux algorithmes qui vont permettre de résoudre des problèmes jusqu'alors inaccessibles pour l'informatique classique.

Il y a donc un intérêt stratégique majeur à maîtriser cette puissance, sachant que les nombres et les calculs sont aujourd'hui à la source de toute connaissance et de toute action sur le monde. De nombreux laboratoires se sont donc mis en piste. Mais une énorme difficulté a jusqu'ici arrêté les chercheurs : la difficulté de maintenir en état de superposition un ensemble de plus de 1 particule. La localisation ou l'impulsion d'une particule quantique en état de superposition ne peuvent être définies que par une probabilité statistique découlant elle-même de la fonction d'onde de la particule. Pour connaître exactement ces valeurs, il faut faire interférer la particule avec un instrument, comportant par définition une grande quantité d'atomes. Mais alors, la fonction d'onde s'effondre et l'observateur n'obtient qu'une seule des deux valeurs, l'autre étant définitivement perdue, en application du principe d'indétermination. C'est ce que l'on appelle aussi le phénomène de la décohérence.

Pour qu'un ou plusieurs qbits conservent leur caractère quantique, et puissent donc travailler en état de superposition, il faut les isoler de toute matière ou énergie avec lesquels ils interféreraient - ce qui paraissait impossible ou très difficile dès que le nombre de qbits dépassait deux ou trois. Aujourd'hui cependant, en utilisant diverses techniques, un certain nombre de laboratoires ont annoncé (comme un grand succès célébré unanimement par la communauté des physiciens) avoir maintenu à l'état quantique de courtes séquences de bits (4 à 7) et pour des durées de temps suffisantes à la réalisation de quelques opérations.

L'avenir de l'ordinateur quantique repose donc sur les technologies qui seront utilisées pour générer et maintenir en état de superposition cohérente des chaînes de bits de plus en plus longues. La démarche consiste à réaliser d'abord une porte logique quantique (ou système microscopique), généralement de 2 qbits, capable de pratiquer une opération quantique élémentaire dans une longueur de temps donnée. Les physiciens ont depuis longtemps réussi à maintenir en état de superposition un atome ou un photon isolé. Mais si on veut créer des circuits avec ces portes, en les ajoutant les unes aux autres, les risques de décohérence augmentent rapidement, du fait de l'interaction avec les atomes de l'environnement. L'information utile se trouve donc dissipée. Il faut donc réaliser des systèmes microscopiques où les qbits interagissent avec eux-mêmes et non avec ceux de l'environnement. C'est là l'enjeu essentiel de la course à l'ordinateur quantique, engagée depuis une dizaine d'années dans les principaux pays du monde. Différents substrats et différentes méthodes de détection (par exemple la résonance magnétique nucléaire) sont actuellement expérimentés.

Même si l'état actuel de la technique ne permet pas de l'envisager à brève échéance, nous devons conclure cette rubrique en évoquant la perspective d'un robot dont le cerveau serait constitué d'un ordinateur quantique. Comme indiqué plus haut, peu d'organismes vivants ou matériels seraient alors capables d'entrer en compétition avec lui dans le domaine des facultés logiques, voire de la création affective. Faudrait-il alors parler d'un robot parfait, comme on parle de la tempête parfaite (Perfect storm)?

1.* Voir sur ces sujets Serge Boisse, L’Esprit, l’IA et la Singularité, éditions en ligne Lulu.com, 2007
* Voir aussi Jacques Pitrat, Artificial Beings. The Conscience of a Conscious Machine ISTE 2009
Retour

2. Daphne Koller http://robotics.stanford.edu/~koller/research.html
Retour

3. Cf. le Singularity Institute for Artificiel Intelligence http://www.singinst.org/
Retour

4.Voir pour plus de détails http://www.alaincardon.net/
Retour

5. On lira dans la Revue Philosophique de la France et de l’Etranger, N° 3 juillet-septembre 2008, Simulation et connaissance, un article de deux roboticiens français, Frédéric Kaplan et Pierre-Yves Oudeyer, sur ce sujet : Le corps comme variable expérimentale, p. 287
Retour6. Voir les perspectives offertes par les deux robots « scientifiques » ou « inventeurs » Adam et Eve, http://www.automatesintelligents.com/labo/2009/avr/adam.html
Retour

7. http://www.ecagents.org/
Retour

8. En France, le tout nouveau Pôle de productivité dit Cap Robotique pourrait soutenir de telles initiatives ; encore faudrait-il que des innovateurs audacieux se fassent connaître. Voir http://www.automatesintelligents.com/edito/2009/mai/edito.html
Retour

9. David Levy, Love+Sex with Robots, Harper 2007
Retour

10. Denis Berthier, Méditations sur le réel et le virtuel, Collection Impact des nouvelles technologies, L'Harmattan 2004
Retour

11. Rien de plus lassant que les personnages et les situations du jeu à succès Wow, World of Warcraft
Retour

12. Sheref S. Mansy & Jack W. Szostak, Thermostability of model protocell membranes, PNAS, 3 septembre 2008 (voir l'abstract)
Retour