Les Editions Jean Paul Bayol
Contact
Publications
annexes
   

 

Pour un principe matérialiste fort

Compléments du livre
"Pour un principe matérialiste fort"

 

Retour au sommaire

Retour au sommaire

 

Le web est-il un super-cerveau ? Peut-il le devenir ?

 

La question de savoir si le Web n'est pas en train de devenir un super-cerveau, générant une super-intelligence, a été posée par un article très stimulant de Kevin Kelly, spécialiste des télécommunications, publié sur Wired http://www.wired.com/wired/archive/13.08/tech.html . Cette phrase introduisait son propos :
The planet-sized "Web" computer is already more complex than a human brain and has surpassed the 20-petahertz threshold for potential intelligence as calculated by Ray Kurzweil. In 10 years, it will be ubiquitous. So will superintelligence emerge on the Web, not a supercomputer?

Le calculateur virtuel planétaire qu’est le web est aujourd’hui plus complexe que le cerveau humain et a dépassé le seuil des 20 petahertz de puissance que Ray Kurzweil considère comme nécessaire à l’apparition de l’intelligence. Dans 10 ans, il sera partout. La super-intelligence planétaire émergera-t-elle, non d’un super-calculateur, mais du web ?

Plusieurs systèmes techno-scientifiques prennent dans le monde actuel une importance industrielle et économique telle qu’ils apparaissent dotés d’une vie autonome, pouvant légitimement les faire qualifier de super-organismes d’un genre nouveau, quasi-monstrueux au regard de ce qu’étudient habituellement les sciences sociales. L’opinion générale et plus particulièrement celle de leurs dirigeants est que ces systèmes sont parfaitement sous contrôle. Les responsables, aux détails d’exécution près, se disent en état de planifier leur développement, prévoir leurs effets pervers et remédier, en cas de besoin, aux accidents de parcours. Les gouvernants, qui ne demandent qu’à être rassurés, ont longtemps cru ces affirmations – sauf, ces dernières années et dans certains cas seulement, à prendre, au nom du principe de précaution, des réglementations non suivies de mesures d’applications qui donnent une fausse impression de sécurité, alors que les situations dangereuses continuent à s’aggraver. On le voit clairement aujourd’hui en matière de contrôle des émissions de gaz à effets de serre (GES) , globalement un échec. Les courbes de production de GES pour les prochaines décennies sont toutes ascendantes.
- Voir Jean-Pierre Dupuy Pour un catastrophisme-éclair , Flammarion 2002/2006. Nous reviendrons sur ce point dans le chapitre 7. -

Les spécialistes des catastrophes évoquent quelques unes des raisons faisant que, malgré toutes les mesures préventives, les grands systèmes technologiques sont incontrôlables, aussi bien en théorie qu’en pratique. Ils sont opaques et rendus encore plus opaques par la volonté de leurs dirigeants qui veulent échapper aux regards indiscrets. Mais ce faisant, les dirigeants eux-mêmes se privent des moyens de connaître leurs propres ressources et d’évaluer l’efficacité de leurs actions. Ils mettent en jeu tellement d’intérêts économiques, chez les sous-traitants, les fournisseurs, les clients, les salariés, les collectivités territoriales, que nul ne veut envisager de réformes en profondeur. Le capitalisme financier, la recherche du profit à court terme s’accompagnant du refus de toute réglementation publique protectrice de l’intérêt général, ont ces dernières années considérablement accentué ces défauts (1). Dans les pays économiquement et politiquement dominés, la situation est pire car le droit des citoyens à s’informer, comprendre et réagir est dénié par l’Amérique, puissance dominante, ayant très bien pris le relais de l’Europe à cet égard (Voir ci-dessous section 3 : la Théocratie américaine.). A supposer même que des politiques visant à réformer certains de ces grands systèmes en vue de pallier leurs effets mortels soient décidées, le temps de l’action politique et administrative est toujours en décalage avec le temps des réalités économiques et sociales.

On le voit clairement quand on considère le complexe technique, industriel et économique constituant le transport routier, associé à celui des carburants pétroliers. On peut sans dramatiser considérer qu’il s’agit d’un véritable Léviathan, mettant les économies en coupe réglée, prélevant chaque années des dizaines de milliers de victimes, martyrisant les villes et les paysages. Aujourd’hui, des solutions alternatives existent et pourraient être développées dans les années prochaines. Mais il faudrait accepter de faire payer au transport routier des tarifs correspondants aux dépenses qu’il impose aux sociétés, réaffecter ces sommes au développement des solutions de remplacement et faire accepter aux citoyens, pendant un temps de transition, des inconvénients de jouissance que les avocats du transport routier ne manqueront pas de monter en épingle. Cependant, comment modifier en quelques années les innombrables équipements lourds et durables existant, en matière de voies de communication, de plateformes logistiques, de réseaux de distribution des carburants, de sites industriels de fabrication et de maintenance ? Comment espérer que des gouvernements vont s’engager dans des politiques aussi difficiles et impopulaires, talonnés qu’ils seront par les représentants des lobbies du transport routier, toujours prêts via les relais médiatiques dont ils disposent à dresser les électeurs contre d’éventuels réformateurs. On mesure la difficulté en voyant comment des mesures aussi évidentes que celles consistant à limiter la vitesse ont eu de mal à être prises et appliquées. (2)

Nous pouvons en déduire que, même si en théorie on pouvait s’imaginer que les super-organismes techno-scientifiques du type de ceux implantés dans les secteurs de l’énergie, du transport, de la distribution, de l’armement sont contrôlables par la raison humaine, on devrait en pratique reconnaître que, dans l’état actuel des capacités de gouvernance sociale, ils ne le sont pas. Ils se développent selon leurs logiques propres en exploitant, souvent sur le mode de la prédation, les ressources naturelles qu’ils prélèvent à leur profit dans le milieu terrestre et humain. Ils ne pourraient être arrêtés que par des méga-catastrophes, que personne raisonnablement ne peut souhaiter. Pour changer cela, il faudrait développer des outils scientifiques d’observation et de management participatif (étendu au monde entier) encore inconnus. Ce devrait être un programme prioritaire pour les sciences de demain, notamment en Europe dont certains représentants se voudraient un peu exemplaires dans ce domaine. On en est loin et nous ne pouvons que proposer de reporter le débat dans un autre cadre (Voir Jean-Paul Baquiast, Pour une Europe super-puissance, Editions Jean-Paul Bayol, à paraître.).

La question se pose différemment lorsque certains super-organismes technologiques atteignent ce que l’on pourrait appeler une complexité intrinsèque. Cela semble être le cas du réseau Internet dit aussi ici Web. On pourrait le comparer à un système dynamique tels que l’atmosphère terrestre. Les propriétés chaotiques de celle-ci la rendent indescriptibles et imprédictibles, sauf à grande échelle par des méthodes statistiques. Mais la comparaison ne serait pas suffisante. Les théoriciens des communications estiment en effet que la complexité de l’Internet atteint celle du cerveau humain. Ne serait-il pas alors capable de faits de conscience, analogues à ceux que nous avons étudiés précédemment, dans les organismes humains ou chez les robots. S’il n’en est pas capable aujourd’hui, ne le deviendra-t-il pas dans un avenir proche. L’hypothèse surprendra car ce sont partout des humains qui sont utilisateurs du web ou responsables de son fonctionnement. Comment pourraient-ils être dépossédés ? La question mérite cependant d’être posée, quand on considère que l’Internet et tous les réseaux et services associés hébergent déjà pratiquement toutes les connaissances humaines. S’ils se révélaient capables de les utiliser pour leur propre compte, aucun savant humain ne pourrait rivaliser avec eux. Ils prendraient donc le pouvoir.

Le Web, super-organisme et/ou super-cerveau

Le Web, nous rappelle Kevin Kelly, est devenu un super-organisme d'une nature et d'une taille encore jamais vues sur Terre à ce jour, du moins dans le domaine des systèmes créés par l'homme. D'ores et déjà il comprend plus de 1 milliard de correspondants potentiels, c'est-à-dire de machines capables d'émettre et de recevoir des messages : PC, téléphones portables, objets (3). Ceux-ci ont généré près de 50 milliards de pages. Dans 10 ans il connectera des milliards voire des dizaines de milliards de terminaux de toutes sortes et aura créé un nombre de pages et messages pouvant atteindre le milliard de milliard.

Derrière ces machines il y aura des utilisateurs, humains et automates. Dans une vision encore courante du Web, la grande majorité de ces utilisateurs s'informent, c'est-à-dire consomment passivement des informations créées par une petite minorité d'entre eux. Nous sommes en face d'un système à flux descendant, qui n'est pas très différent, hors sa taille, du système de création et de diffusion des contenus d'information caractérisant les médias traditionnels, y compris la presse et la littérature depuis des siècles. Mais dans la vision qui tend aujourd'hui à prévaloir, les utilisateurs produisent et diffusent des contenus en même temps qu'ils en consomment. Ils les produisent soit en retraitant directement des informations qu'ils ont prélevées sur le web (je lis un texte en ligne et cela me suggère des réactions, c'est-à-dire des idées originales que j'édite) soit même en créant des contenus de leur propre chef (je crée un site où je publie par exemple l'histoire de ma vie…). Autrement dit, les utilisateurs, sans cesser d'être consommateurs, deviennent aussi auteurs, en créant de l'information que d'autres consommeront. De ce fait, ils constituent un nouveau pouvoir, face aux anciens détenteurs de l'information et des savoirs, qui tentent mais en vain d'en conserver le monopole (4). On retrouve toutes ces questions dans les débats actuels sur les droits d'accès à la culture numérique.

Outre ces constatations qui tendent à devenir banales, Kevin Kelly rappelle ce que nous devrions savoir. D'une part, toute démarche, de lecture ou d'écriture sur le Web, est mémorisée quelque part, sans limite de temps, sauf quand des serveurs disparaissent (et encore. Leurs données sont généralement reprises ailleurs). Ceci signifie que se créent à chaque fois des liens nouveaux entre données jusqu'ici non reliées. Si je vais lire le contenu d'un site, je crée un lien entre mon adresse IP et celle de ce contenu. Si je fais davantage, en publiant un lien hypertexte sur ce site, je «durcis» le lien et le fait connaître, potentiellement, au monde entier. Le Web devient donc une gigantesque mémoire, qui, 24h sur 24, n'arrête jamais de travailler et de s'étendre. Nous avons vu que parmi ce que nous avons appelé des utilisateurs, se trouvent de plus en plus d'automates et d'objets. Je suis «tracé» par différents objets qui mémorisent les liens, physiques ou virtuels, que j'établis sans cesse dans ma vie sociale : ainsi je passe tel péage, je vais chez tel commerçant, etc. Ceci inquiète beaucoup de gens mais n'est qu'un aspect particulier de l'immense réseau de contenus mémorisés dans lesquels chacun s'inscrit dès qu’il procède à la moindre activité débordant le cadre de son for intérieur.

On considère généralement, non sans raison et comme nous l'avons rappelé, que le Web est un immense réseau interconnectant physiquement (même si toutes les connections ne sont pas à tous moments activées) des centaines de millions de machines. Mais si l'on prend en considérations tous les liens qu'il a mémorisés entre pages et contenus de pages, on atteint les milliards de milliards d'objets virtuels. Nous employons le terme d'objets virtuels car ceux-ci sont très proches de ce que Jean-Pierre Changeux avait appelé des « objets mentaux » dans son livre fondateur, l'Homme neuronal. Les objets mentaux de J.P. Changeux sont contenus dans notre cerveau et matérialisés par les liaisons synaptiques plus ou moins persistantes s'étant établies entre neurones –notamment dans le cortex associatif - au long de notre vie.
Ces données ne s'accumulent pas en désordre dans la mémoire collective du Web. Elles se distribuent spontanément ou sont volontairement classées par origines géographiques, linguistiques, fonctions assurées, etc. Mais d'une façon générale, une hiérarchie particulière apparaît, découlant de la fréquence de consultation. Il s'agit d'un système de sélection quasi-darwinien. Les sites et données les plus consultées sont présentés en tête des listes des moteurs, ce qui accroît la fréquence de leur consultation au détriment des données isolées. Cependant le système est chaotique. On constate que des données très consultées peuvent ne plus l'être et que des sources isolées peuvent brutalement s'étendre et conquérir momentanément une partie de la globosphère ou du Web.

Comment qualifier l'assemblée ou collection des objets virtuels (ou synapses numériques) que nous venons d'évoquer, faits de liens mémorisés sur le Web ? On peut dire qu'ils représentent un modèle dynamique d'un monde plus général, celui où s'exerce l'activité des humains et de leurs machines. Ce modèle dynamique est un monde physique à lui seul, fait de ces réalités (physiques) que sont les informations et liens entre informations figurant dans les serveurs et dans les réseaux de connexions entre serveurs. Nous pouvons le nommer monde numérique, afin de le distinguer d'autres types de mondes créés par des interconnexions entre objets naturels (par exemple le monde des bactéries, souvent lui-même qualifié de "web bactérien"). Le monde numérique se construit sans cesse, du fait de l'interaction permanente des humains et de leurs machines avec un monde biologique et physique plus général. Nous nommerons ce dernier l'Univers, afin de ne pas le confondre avec le monde numérique qui le représente. - Rappelons que pour le physicien Seth Lloyd, ceci n’est qu’un aspect très ponctuel du fait que l’univers est un immense système computationnel – et qui plus est, ce que n’est pas encore le web - computationnel sur le mode de l’ordinateur quantique (chapitre 1) -

Le monde numérique est-il un reflet passif de l'Univers, comme peut l'être l'image d'un animal dans un miroir ? Non pas et pour plusieurs raisons. La première est que, dès qu'un utilisateur du Web, homme ou machine, introduit un nouveau lien, ce lien sera perçu et pris en compte par un autre utilisateur, qui modifiera en conséquence, d'une façon non prévisible mais indéniable, son propre comportement, c'est-à-dire son action sur l'Univers. Si je lis sur un site web que je dois réduire mes émissions de CO2, je m'efforcerai de le faire (A moins que, hypothèse qu‘il faut toujours envisager, je décide sciemment de faire le contraire, par esprit de contradiction.) et j'agirai ainsi effectivement sur l'univers physique et biologique. Ceci tient au fait que les utilisateurs ne sont pas inactifs mais constituent des « agents pro-actifs », selon l'expression de l'Intelligence Artificielle. Ile le sont d'autant plus qu'ils sont dotés en propre, grâce à la possession d'un cerveau biologique et de contenus culturels accessibles à ces derniers, d'une aptitude à la création autonome (pour ne pas parler de conscience) que n'ont pas forcément les machines – du moins en leur état actuel.

Mais la pro-activité des agents humains n'est pas seule créatrice de nouveaux liens ou objets virtuels. Lorsque les liens génèrent eux-mêmes, par leurs interactions, de nouveaux contenus et que ces contenus arrivent à influencer des utilisateurs, hommes ou machines, ces nouveaux objets modifieront de leur propre chef, par émergence, selon le terme consacré, le comportement des agents. Ils modifieront par conséquent les effets qu'exercent ces comportements sur la marche de l'Univers. Mais est-ce possible, sans interventions humaines ? Oui, du fait de l'activité de tous les automates qui dorénavant opèrent sur les données du Web afin de les recenser, les analyser, les résumer et les transformer. Si un moteur de recherche du type de celui proposé un temps par Microsoft rassemblait de lui-même toutes les traces que j'ai laissées ma vie durant sur le Web, dressait le portrait ou plutôt le profil de moi qui en découle, et communiquait ce profil - soit à moi soit à d'autres – il modifierait inévitablement les comportements de ceux ayant connaissance de ce profil et donc la façon dont ceux-ci interagiraient ultérieurement avec l'univers extérieur. Pour prendre un exemple caricatural, si un tel profil établi automatiquement montrait que je suis un esprit très créatif, je pourrais postuler un poste dans une entreprise de création où j'inventerais peut-être une machine capable de modifier durablement l'univers.

Plus généralement, le réseau des serveurs et pages interconnectés générera inévitablement des mèmes (Voir chapitre 5, section 2) . Les mèmes, nous l’avons vu, sont des idées ou images qui se développent et se reproduisent spontanément, comme des virus, sur le mode de la sélection darwinienne, au sein des réseaux de communications animaux et humains. Dans une société classique, leur importance est fonction de la densité des échanges entre individus et groupes. Dans un système profondément câblé et interactif, elle a toutes les chances d'augmenter considérablement. C'est ainsi que les effets de mode, concernant des informations vraies ou fausses, sont particulièrement rapides à naître sur le Web et parfois à y prendre des dimensions mondiales.

Nous voyons donc se mettre en place une Méga-machine, incluant et transcendant l'activité des humains et de leurs petites machines. Cette Machine comptera désormais de plus en plus parmi les agents physiques et biologiques influant sur l'évolution de l'Univers, au moins à l'échelle de la Terre et de son environnement immédiat. Il faut ajouter un point très important : la Méga-machine n'est ni descriptible en totalité ni, évidemment prédictible, par aucun homme ou système que ce soit. Il s'agit donc pour reprendre le terme de Victor Hugo, d'une « force qui va » mais nul ne sait où elle va. Le seul argument qui rassurera les esprits craintifs est qu'elle dépend totalement de la technologie. Qu'une guerre nucléaire ou un cataclysme détruise les réseaux et les serveurs, la Machine s'effondrera…mais probablement avec elle toute société humaine un tant soit peu évoluée.

Resteront les prophètes et fanatiques religieux des premiers âges, prêchant dans les foires et marchés.
On objectera que la Machine ainsi décrite n'est qu'une extrapolation des systèmes de communication existant dans les sociétés humaines traditionnelles. Dans ces sociétés, même lorsque les échanges sont seulement langagiers, sans écrits, chaque individu est plus ou moins récepteur et émetteur de données. On connaît le rôle des « commères » dans les villages ruraux. Des effets de mode ou d'émergence imprévus peuvent aussi s'y faire sentir. La seule différence d'avec les sociétés modernes est la basse densité des informations reçues ou échangées par habitant et par unité de temps, ainsi que la faible étendue des connexions. Celles-ci ne dépassent que rarement les limites de la province et sont enfermées dans des isolats linguistiques et culturels entre lesquels n'existent pas d'outils de traduction. C'est il est vrai aussi un peu le cas sur le Web. Tout le monde n'y communique pas avec tout le monde et tout le monde n'a pas le temps de communiquer autant qu'il le voudrait. Mais au moins en ce qui concerne les mises en corrélation automatiques et l'ampleur des mémoires rendues disponibles, les échelles de grandeur sont sans comparaison. On obtient donc avec le Web de très grandes densités de créations et d'échanges, qui produisent probablement des changements qualitatifs et pas seulement quantitatifs, par lesquels les « infosphères » modernes se distinguent des infosphères primitives. (Le Web sémantique vise à suppléer à ces difficultés de communications, en permettant l’accès direct aux « données » ou « data » contenues dans les fichiers. )

Le Web et le cerveau

Ceci admis, le Web constitue-t-il véritablement un super-cerveau, créateur d'une super-intelligence ? Pour répondre à cette question capitale, il faut s'entendre sur ce que l'on entend par cerveau et intelligence, en prenant pour référence ce que nous connaissons de l'un et de l'autre dans l'état actuel des connaissances scientifiques.
Nous avons présenté précédemment l’état d’un certain nombre de connaissance concernant la formation de la conscience à partir des bases neurales et endocriniennes propres au cerveau. Nous avons vu également que les travaux sur les robots autonomes abordent le problème à partir de ressources différentes, les systèmes et agents informatiques, mais ils aboutissent à des conclusions de plus en plus proches de celles des neurosciences. Nous n'allons pas reprendre tout ceci, mais seulement résumer les caractères généralement attribués au cerveau et à ses états, afin de voir si nous les retrouvons dans la Machine du web telle que nous venons de la décrire. Distinguons en quoi les deux types d'organisations se ressemblent et en quoi elles diffèrent.

Le cerveau, comme le web, ne peut fonctionner sans un « corps ». le cerveau, biologique ou robotique, n'a pas de capacités cognitives s'il n'est pas relié à un corps qui le distingue de l'univers extérieur et avec lequel il interfère en permanence grâce à des organes sensoriels (ou senseurs) et des organes moteurs (ou effecteurs). Il s’agit d’une première ressemblance. Ce sont les données reçues par ces organes qui constituent les objets mentaux synaptiques contenus dans le cerveau. Ce sont également celles émises par eux qui modifient en retour l'univers dans lequel se meut et survit, non seulement le cerveau mais le corps tout entier. Or la Machine du web a-t-elle un corps et est-elle dotée de senseurs et d'effecteurs ? A priori, sans entrer dans les détails, nous pouvons répondre par l'affirmative. Son corps et ses organes sont faits des innombrables utilisateurs du web, humains ou machines. C'est un corps très réparti, mais il se distingue de l'univers extérieur, y compris des humains non connectés, par divers traits physiques. De plus et surtout, il dispose des organes sensoriels et effecteurs des humains connectés et de leurs propres machines. La structure ainsi formée n'est pas tout à fait comparable à l'ensemble des neurones constituant le cerveau. Elle ressemble plutôt à ce que l'on appelle un essaim ou une meute (swarm). Autrement dit, il s'agit plutôt d'un super-organisme que d'un organisme mais les différences, à notre niveau d'approche, ne sont pas significatives.

Le fait que les humains connectés au Web disposent de capacités propres de représentation, grâce à leurs cerveaux et leurs cultures individuelles, ne change pas grand-chose dans le schéma d'ensemble où ils sont assimilés à des neurones cérébraux plus ou moins passifs participant au fonctionnement du Web. On peut en effet considérer que si ces cerveaux et intelligences individuelles enrichissent les capacités de recueil et de production d'information des terminaux du Web, leur influence sur celui-ci est négligeable à grande échelle ; Elle reste soumise aux lois statistiques gouvernant la dynamique d'ensemble du système. Ainsi la production des intelligences individuelles à haut coefficient compense la sous-production des intelligences plus modestes. Dans le cerveau d'ailleurs, comme sur le Web, tous les neurones ne sont pas également passifs. Quelques neurologues considèrent qu'un certain nombre d'entre eux ne sont pas de simples machines à transmettre ou à traiter de façon linéaire l'information qui transite par eux. Disposant de millions de connexions synaptiques, ils se comportent probablement, dans certaines zones cérébrales tout au moins, comme des agents pro-actifs plus ou moins capables de créativité intelligente. Un neurone, ses dendrites et ses synapses doivent pouvoir, à lui seul et dans certain cas, computer c'est-à-dire créer de l'information, par exemple sur le mode des réseaux de neurones formels. Ils sont donc au moins aussi "intelligents" que certains hommes.

Une seconde ressemblance entre le cerveau et le Web tient à ce que celui-ci joue pour le corps le rôle d'une immense base de données mémorisant les expériences vécues par ce dernier. Il s'agit des associations ou objets mentaux précédemment évoquées. Celles-ci sont réparties à l'intérieur des zones cérébrales héritées génétiquement où elles servent de support aux activités réflexes ou aux mémoires de long terme. D'autres sont stockées dans des mémoires temporaires et permettent la mémoire immédiate. Certains neurologues considèrent que le cerveau avec son immense potentiel synaptique, est tout à fait capable de conserver, sinon d'utiliser efficacement, l'ensemble des informations reçues ou produites par un individu tout au long de sa vie. Nous pouvons donc admettre que le cerveau sur ce plan, n'est pas très différent du Web global qui conserve et conservera, sauf destructions occasionnelles, l'ensemble des données accumulées depuis sa création.
Le Web n’est pas – encore – un cerveau

En revanche, et c'est la différence essentielle, le cerveau est un système fortement interconnecté et fortement hiérarchique. Cette hiérarchisation dépasse de beaucoup celle que nous avons évoquée précédemment concernant la sélection des données qui apparaissent en tête de liste dans les moteurs de recherche. Elle est absolument systémique. Ceci apparaît particulièrement bien dans l'architecture anatomique et fonctionnelle du cerveau révélée par l'imagerie cérébrale moderne. On y voit l'organisation des six couches composant le cortex associatif. C'est la partie du cerveau dite aussi matière grise où l'on situe généralement le siège de l'intelligence et des états de conscience.

Selon l’opinion très recevable de Jeff Hawkins (Voir chapitre 3), les expériences accumulées par le cerveau reflètent la structure du monde tel qu'il est apparu au sujet tout au long de sa vie, sous la forme de séquences d'événements et de relations entre ces séquences. A partir de ces contenus de mémoire, le cerveau fait à tout instant des prédictions qui sont confrontées aux nouvelles expériences et mémorisées à leur tour après modifications éventuelles. C'est ce système de mémoire-prédiction qui constituerait l'essentiel de l'intelligence humaine, en organisant les perceptions, la créativité et même la conscience. Il est évident que la Méga-machine du web, aujourd'hui encore –sauf peut-être sous forme de traces ou d'amorces locales sans conséquences pratiques globales- est incapable d'une telle fonction qui permettrait de la prétendre vraiment intelligente.
Le système de prédictions permis par l’architecture du néo-cortex, qui ne se retrouve pas dans le Web, ne permet pas de confondre le cerveau avec un ordinateur classique ni même avec un système complexe comme le Web, lequel n'est pas hiérarchisé globalement. Ainsi, contrairement à un ordinateur qui produit une information en sortie à chaque entrée d'information venant de l'extérieur, le cerveau fait, à diverses échelles de complexité, des prédictions basées sur les expériences et les séquences préalablement enregistrées. Ces prédictions provoquent des sorties motrices qui modifient le monde environnant, l'Univers, et provoquent en retour le recueil de nouvelles informations au niveau des entrées sensorielles. Les organes sensoriels et moteurs ne fonctionnent pas isolément. Ils s'auto-influencent à tous les niveaux de complexité du cortex, du fait des nombreuses liaisons synaptiques qui les relient. Là encore, ce n'est pas le cas des usagers du Web qui demeurent généralement isolés, c'est-à-dire ignorants de ce que font les autres, même si parfois des effets locaux de contamination les mettent en phase.

Un autre caractère propre au cerveau ne se retrouve pas dans le Web, au moins dans son état actuel. Dans le cerveau, avec une densité de plus en plus grande lorsqu'on s'élève dans la hiérarchie des couches du néo-cortex, il existe des fibres de liaison qui, grâce aux synapses, permettent d'associer les mémoires et donc les prédictions formulées à chaque niveau hiérarchique. Ce sont ces fibres horizontales qui ont donné d'ailleurs au cortex son qualificatif d'associatif. L'existence de liaisons horizontales était connue depuis longtemps, mais on montre aujourd'hui qu'elles jouent un rôle permanent dans la modulation tant des informations émises en sortie que des informations reçues en entrée, ceci quelle que soit la complexité des patterns et des séquences transitant au sein des couches et à travers elles.

Un autre point important, qui permet au cerveau, malgré la lenteur de ses composants primaires, de réagir vite et de façon régulière, est l'invariance des patterns stockés à chaque niveau du cortex. Il s'agit d'une invariance relative, puisque les séquences mémorisées peuvent être modifiées si elles sont contredites par de nouvelles expériences. Mais lorsque ce n'est pas le cas, elles peuvent être immédiatement mobilisées pour produire des prédictions et entraîner des actions s'appuyant sur elles. Ceci ne constitue pas une observation nouvelle. On sait depuis longtemps que le cerveau commande de nombreux comportements sur le mode automatique, par exemple dans le cas de la conduite automobile, l'appel à des solutions plus complexes ne survenant qu'en cas de difficulté inattendue. Cette invariance des patterns ne doit pas être confondue, évidemment, avec les boucles sensori-motrices automatiques caractérisant l'ensemble de la vie organique et ne faisant pas intervenir le cortex. Ceci étant, ce phénomène de l'invariance des patterns au niveau du néocortex est absolument général. C'est pourquoi il caractérise le cortex comme un ensemble de mémoires prédictives. Dans chacune des couches et des colonnes, le néocortex stocke des séquences de patterns. Il s'agit d'un stockage auto-associatif, tel élément de séquence pouvant suffire à faire apparaître la séquence entière ou des séquences différentes dans lesquelles il figure. Là encore, c'est l'extrême connectivité synaptique du cerveau qui rend possible ces associations. Sur le Web, il existe une certaine invariance des données. Mais elle est très fragile et n'est pas indispensable au fonctionnement d'ensemble. Au contraire. Plus les données "mutent", plus la créativité globale du système semble en profiter. L'invariance apparaît a posteriori de façon statistique, certaines données se révélant plus consultées que d'autres et orientant la production de nouvelles données. Mais ceci de façon généralement peu permanente. Les données les plus invariantes à long terme sont les données qui ne sont plus consultées. Elles n'ont donc pas beaucoup d'influence fonctionnelle.

Enfin, dans le cerveau, les patterns sont stockés selon des architectures locales elles-mêmes invariantes et hiérarchiques. C'est ce caractère qui assure la permanence bien connue de la mémoire et le fait que les représentations primaires que nous nous donnons du monde s'articulent dans notre esprit en représentations de plus en plus complexes, débouchant dans certains cas sur des faits de conscience. Plus on s'élève dans la hiérarchie, plus les détails, importants dans les niveaux inférieurs, s'atténuent au profit des lignes générales. On voit ainsi apparaître, au sommet des couches néocorticales, des représentations correspondant à ce que l'on appellera en linguistique des concepts ou des noms. Les concepts sont seulement des abstractions épurées des détails. Ils n'ont pas besoin d'être nommés par le langage social pour exister et servir à orienter le comportement intelligent supérieur. Au plus haut de la pyramide, c'est le concept de « moi » qui synthétisera l'ensemble des expériences passées et actuelles enregistrées par le sujet. Mais de nouveau, on rappellera que la permanence et la hiérarchie ne sont que relatives. Elles peuvent laisser place à des variantes de représentations ou de hiérarchies si de nouvelles expériences imposent ces changements et si la plasticité d'ensemble du système permet d'en tenir compte pour assurer la réadaptation du système à un milieu profondément changé. Inutile de dire que jamais à ce jour on n'a surpris l'existence sur le Web d'une conscience de soi. Ou bien elle n'existe pas (et on ne voit pas comment elle pourrait se former, dans l'état actuel de l'interactivité des réseaux) ou bien il s'agit d'une forme d'intelligence ou de conscience pré-humaine, sinon extra-terrestre, que l'on pourrait retrouver dans les webs biologiques évoqués au début de cet article

Que conclure ? Il est inutile de faire de longs développements pour montrer que l'intelligence globale n'existe pas encore dans le Web, pour la raison principale que celui-ci n'est pas organisé comme un cerveau biologique. Le Web se borne, et c'est déjà considérable, à enrichir (augmenter) les intelligences individuelles et collectives de ceux qui l'utilisent. Cela leur confère un avantage compétitif considérable par rapport au reste de l'humanité. Ce sera sans doute l'objectif des futurs moteurs de recherche et d'édition que permettre l'émergence de patterns de représentation de plus en plus globaux, pouvant correspondre à l'apparition sur le Web d'une conscience voire d'une conscience volontaire globale. Sera-ce possible ? Sans doute. Qui en bénéficiera ? Les utilisateurs de la périphérie ? Des pouvoirs politiques centraux visant à réguler ou mobiliser les données du Web à des fins impériales ou impérialistes ? Bien pire ou bien mieux : ne s'agira-t-il pas d'émergences informationnelles et computationnelles qui s'imposeront d'elles-mêmes aux hommes connectés au Web et qui prendront le pouvoir sur eux, comme le prédisent certains auteurs de science-fiction ?

Il semble que nul ne puisse répondre à ces questions pour le moment. D'où la nécessité de continuer à observer l’évolution du Web, aux mains de ceux qui s’en servent ou se produisant spontanément. Nous sommes sans aucun doute en présence là d’un prototype des futurs systèmes intelligents susceptibles de se présenter en alternative à l’intelligence terrestre. Deux facteurs accéléreront cette évolution. Le premier tiendra au fait que le Web fera émerger des utilisateurs humains de plus en plus compétents et ambitieux, qui s’auto-complexieront avec lui jusqu’à atteindre des limites de compétences jusqu’ici inimaginables. Il s’agira sans doute de transhumains tels que ceux présentés à la fin de ce chapitre. Un deuxième facteur, plus hypothétique mais cependant probable, viendra du fait que très certainement dans l’avenir, des robots autonomes se connecteront au Web de leur propre chef et lui imposeront des modes de développement correspondant à leurs besoins propres de développement. Ce sera pour les humains à la fois une chance et un risque.

Le web sémantique, promesse ou menace

Depuis 1998, les spécialistes de l'Internet développent, au sein du World Wide Web Consortium, qui est en quelque sorte l'Académie des Sciences et le bureau d'étude du Web, un nouveau concept intitulé le Web Sémantique. L'inventeur du Web, anobli par la Reine d'Angleterre, Sir Tim Berners-Lee qui est actuellement directeur du W3C, a rappelé plusieurs fois ces temps-ci, dans la presse et lors de la dernière conférence WWW2006 à Edimbourg (http://www2006.org/), l'intérêt du Web Sémantique en vue de conserver le caractère ouvert et démocratique du réseau mondial. Peu d'utilisateurs de l'Internet perçoivent encore clairement ce qu'est le Web Sémantique. Pour tout savoir sur le sujet, le mieux est de se reporter aux pages que lui consacre le W3C (http://www.w3.org/2001/sw/).

Résumons cependant de quoi il s'agit. Le Web ordinaire, ouvert à tous les internautes, fait coexister et rend accessibles des milliards de documents. Cet encadré, s’il était publié sur le Web, serait un document. Les moteurs de recherche savent retrouver un tel document, à partir soit de méta-données le décrivant (nom de l'auteur, date, sujet abordé) soit par des recherches en texte intégral, pour lesquelles tous les mots de l'article, c'est-à-dire ses données, pourront être considérés comme des mots-clefs. Mais méta-données ou données d'indexation sont encore difficiles à rassembler. Les recherches en texte intégral pour leur part, restent coûteuses et ne peuvent actuellement être généralisées.

Aussi, les moteurs de recherche, pour le moment encore, ne savent pas comment traiter les données internes à un grand nombre d'articles, sans accéder directement aux documents qui les contiennent. Si je recherche le terme Semantic Web sur un moteur, j'aurai une liste très grande (trop grande) de documents abordant le thème du Semantic Web. Mais je ne pourrai pas savoir précisément comment le sujet est traité dans la littérature qui lui est consacrée. Je ne pourrai pas, par exemple, savoir si le Semantic Web est considéré par les auteurs comme un progrès important, une complication inutile ou bien encore une menace pour les libertés publiques.

La raison de cette impossibilité tient au fait que les auteurs des articles ne se sont pas mis d'accord sur un sens commun à donner aux termes, c'est-à-dire aux données, qu'ils utilisent. On retrouve là l'ambiguïté propre à tous les langages humains et à tous les documents faisant appel à ces langages.

Cependant, dans le domaine de la gestion administrative, bien avant l'apparition du concept de Semantic Web, il avait été décidé de chasser cette ambiguïté en convenant de significations communes à donner à un certain nombre de documents et d'informations échangées. On a commencé à définir des méta-données administratives et commerciales en grand nombre (voir http://www.w3.org/Metadata/). Des méta-données ont également été développées pour faciliter la documentation automatique. Par exemple, aujourd'hui, une codification commune décrit l'auteur d'un document, sa date, sa nature et, très sommairement, son objet. Les éditeurs html que nous utilisons tous pour préparer un article destiné à une mise en ligne permettent aux auteurs, notamment à travers la rubrique Propriétés de la page, de préciser ces données. Si les auteurs ne le font pas spontanément, l'éditeur extrait du texte un certain nombre de ces méta-données qui seront édités dans l'en-tête du code source du document.

Ces conventions ont permis le traitement automatique à grande échelle des documents respectant ces standards, en accédant directement aux données qu'ils contiennent. Ainsi, en rapprochant par une simple application informatique des milliers de déclarations en douane utilisant la nomenclature douanière internationale, il est possible de faire une étude sur les grands courants d'échange intéressant, par exemple, les produits pétroliers et dérivés.

Le Web Sémantique en pratique

L'ambition du Web Sémantique est de rendre ce processus applicable au plus grand nombre possible de documents administratifs ou commerciaux, voire à des documents de type «littéraire» tel que le présent encadré. Mais pour cela, il faudra que les architectes du Web proposent un cadre commun permettant aux informations contenues dans ces documents d'être traitées comme des données (data) normalisées. Ainsi ces données pourront être partagées et réutilisées indépendamment des applications, des entreprises et des communautés d'auteurs qui les auront générées. Il faudra ensuite que les auteurs acceptent de n'utiliser que des données ainsi normalisées. Ceci réduira leur liberté de création mais facilitera la circulation de leurs productions.

Le travail à faire sera considérable. Il faudra notamment définir, thèmes par thèmes et de façon coopérative, un cadre commun de description des ressources (Resource Description Framework ou RDF) qui utilisera évidemment les acquis syntaxiques (langage XML) ou d'adressage (URL) déjà offerts par le web. Les informations elles-mêmes seront progressivement normalisées à travers le Web Ontology Language (OWL). Par ontologie, on désigne le sens à donner à tel ou tel concept. Il conviendra évidemment de s'accorder sur des sens communs devant être attribués aux concepts que l'on utilisera. Le W3C précise cela très bien (introduction de http://www.w3.org/2001/sw/). Nous traduisons:

" Le Web sémantique est un web de données. De nombreuses données que nous utilisons tous les jours sont présentes sur l'Internet mais ne sont pas accessibles aux échanges (le Web proprement dit). C'est le cas de mon compte en banque, de mes photographies, de mes dates de rendez-vous. Mais je ne peux pas les rapprocher pour connaître par exemple ce que je faisais le jour où j'ai été photographié, ni l'état de mon compte en banque ce jour-là. Pourquoi ne peut-on pas le faire ? Parce que les données sont encapsulées dans des applications et que les applications ne sont pas conçues pour les échanger.

Le Web Sémantique porte sur deux choses. Il définit des formats communs pour l'échange des données, alors que le Web traditionnel ne définit que les modalités d'échange des documents. Par ailleurs, il offre un langage commun permettant aux données de renvoyer à des objets du monde réel d'une façon identique. Ceci permet à une personne ou à une machine de construire des bases de données puis des réseaux de bases de données qui ne seront pas connectée par des liens physiques mais par le fait qu'elles désignent des objets identiques".

Ainsi, si je veux construire une base de données sur les automobiles, je ne serai pas obligé de me connecter physiquement à des documents concernant des automobiles que j'aurai du identifier et trouver auparavant. Il me suffira de rechercher les données par lesquels les auteurs auront convenu de désigner de façon normalisée le concept d'automobile, ceci quel que soit le document ou l'application support de l'information.

Tout ceci, on le voit, est plus facile à dire qu'à faire. Quand on connaît la lourdeur et le coût des travaux de normalisation des données, tels que ceux entrepris au plan international par l'Edifact Board concernant les données administratives et commerciales, on peut se demander si étendre l'ambition au traitement de données plus générales sera utile. Ceci d'autant plus que ce ne seront pas seulement les normalisateurs qui devront travailler, afin notamment d'affiner ou de faire évoluer constamment les normes, mais les auteurs. Ceux-ci devront connaître les normes à utiliser et s'efforcer de les respecter du mieux possible, si du moins ils veulent être compris par les machines qui interpréteront leurs créations.

Applications possibles

Pour Tim Berners-Lee, qui est un idéaliste, l'enjeu mérite l'investissement. Dans les articles et interventions que nous avons évoqués, il explique que le Web Sémantique constitue aujourd'hui la seule façon de sauvegarder l'universalisme et la gratuité d'accès aux informations qui a fait et continue à faire la grandeur du Web. En effet, aujourd'hui, de nombreuses entreprises cherchent à rendre propriétaire et payant l'accès à leurs contenus. Or, la philosophie de l'Internet repose sur le concept de neutralité du réseau. Chacun a le même niveau d'accès aux contenus et toutes les données figurant sur le web doivent être traitées de façon égale. Microsoft et Google, c'est à noter, se sont prononcés publiquement pour la défense de cette philosophie. Mais des compagnies de téléphone américaines en ont pris récemment le contre-pied. Elles veulent définir un Internet partagé (two-tier system) où les émissions des entreprises capables de s'offrir des voies de communication large bande auront priorité sur les autres. Ceci est recherché, actuellement, dans la perspective de la diffusion des shows télévisuels, très gourmands en bande passante. Mais l'idée devrait être étendue et généralisée à tous usages. Avec le Web Sémantique, cette facturation du temps d'accès en fonction du débit deviendrait impossible ou très difficile, puisque ce seraient les données elles-mêmes qui feraient l'objet des échanges, sans références à leurs auteurs ni à ceux qui les utilisent.

Pour Sir Tim, le seul modèle acceptable reste donc celui où tous les fournisseurs de contenus payent tous le même tarif pour accéder au réseau et pour y diffuser leurs données. Ainsi les universités et les associations ne sont pas défavorisées par rapport aux grosses entreprises, ni en ce qui concerne les facturations ni en ce qui concerne les conditions de connexion. D'où le rôle éminent vertueux que jouera le Web Sémantique.

Les utilisateurs peuvent cependant s'interroger sur l'intérêt qu'ils trouveront à se couler dans les lourdes procédures du Web Sémantique, indépendamment du fait que celui-ci permettra de décourager la segmentation des réseaux et des tarifications en fonction des capacités financières des clients. Les textes en accès gratuit publiés sur le mode de l'open source sont accessibles à tous. Les internautes ayant accepté de louer des connections à large bande les reçoivent plus vite que les autres, mais l'égalité entre eux, à ce détail près reste entière. Pourquoi alors s’engager dans la définition coopérative de normes décrivant les données éditées, si l’udage permet de s’en passer ?

La réponse est que cette contrainte permettrait aux auteurs d'assurer une meilleure diffusion de leurs écrits et, au-delà de ceux-ci, de leurs idées. On retrouvera là, considérablement augmenté, l'avantage qu'offrent depuis quelques années les moteurs de recherche. Ceux-ci, en associant sur une base désormais très large les réponses aux questions, permettent à de très nombreuses personnes qui ne connaissaient pas tel auteur de le découvrir, à propos de la référence aux oeuvres portant sur tel ou tel concept précis qu’il aura utilisé, par exemple, un article portant sur les centrales nucléaires à eau pressurisée (PWR). Dans la perspective élargie du Web Sémantique, ce ne serait plus seulement l’article qui serait référencé, mais le sens que l’auteur aurait donné au concept de PWR, par comparaison avec de nombreux autres articles traitant du sujet. Ainsi, un internaute cherchant à se documenter sur le concept pourrait trouver, grâce au travail de rapprochement fait par l'ordinateur, une vision contrasté du problème des centrales PWR, résultant du rapprochement des sens différents donnés par des auteurs différents.

La perspective reste encore lointaine, s'agissant de journaux ou ouvrages traitant un grand nombre de sujets différents. En revanche, dans l'immédiat, il semble que le Web sémantique pourrait être utilisé au sein de l'Education Nationale, par exemple pour mieux informer les élèves de l'existence des nombreux documents pédagogiques en ligne et des modes d'accès à ces documents désormais mis à leur disposition par les académies ou les établissements. Le Web sémantique pourrait ainsi devenir le complément des «portails élèves» ou des «portails étudiants» qui, au cœur de réseaux de type Intranet, s'efforcent de faciliter l'accès des élèves aux ressources pédagogiques. La charge supplémentaire imposée aux auteurs qui se verraient obligés de participer aux travaux d'indexation et de normalisation ne serait pas excessive. Elle ferait en tous cas partie de leur métier d'enseignant. D'ores et déjà, le Web sémantique est très apprécié par les chercheurs scientifiques qui peuvent accéder grâce à lui à de nombreuses données expérimentales, afin de les analyser automatiquement.

Mises en garde

Mais, contrairement à ce que pense Tim Berners-Lee, le Web Sémantique ne risque-t-il pas de se révéler un nouvel instrument permettant aux pouvoirs de police de pénétrer dans l'intimité des comportements et des pensées des citoyens ? Dans un article intitulé « Keep out of MySpace » (N° 30 du 10 juin 2006, p. 30) le NewScientist britannique dénonce le fait que la National Security Agency des Etats-Unis finance des recherches visant à recueillir les données personnelles que les individus publient sur eux-mêmes ou rassemblent, au sein d'espace de documentation qui leur sont offerts à cette fin par des sociétés de service. C'est le cas de MySpace (http://www.myspace.com/), espace de rencontre et de convivialité qui avait été patronné par Microsoft, où lesabonnés sont invités à donner beaucoup d'informations les concernant afin de favoriser l'établissement de liens sociaux entre eux et d'autres personnes. Il existe de très nombreux autres sites ludiques où chacun est obligé pour participer de se raconter et de rapporter les comportements et préférences de ses amis. Par ailleurs, les blogs personnels se multiplient, dont les auteurs n'hésitent pas à se dévoiler ou à dévoiler la vie privée de leurs relations. Les images et photographies personnelles y abondent également.

La NSA espère que le développement du Web Sémantique au sein de ces espaces permettra de rapprocher facilement ces informations personnelles avec d'autres, bancaires, de santé, administratives ou d'achat. Ainsi pourraient être mis en évidence, sans que les intéressés s'en aperçoivent, les profils et donc les personnes qu'à tort ou à raison, les autorités de police jugeraient suspectes. On serait loin alors du scandale provoqué par le fait que la NSA se soit procuré ces derniers mois, via les opérateurs de télécommunication, les contenus desconversations téléphoniques d'un certain nombre d'individus a priori honorables suspectés de pouvoir éventuellement monter des réseaux terroristes. La NSA et autres agences d''intelligence", c'est-à-dire d'espionnage, pourraient pénétrer partout à l'insu des citoyens.

Les interconnections sont actuellement difficiles, mais avec le Web Sémantique, les liens apparaîtront d'eux-mêmes, à travers des applications visant à rapprocher les données (data) sans difficulté. En effet, le Resource Description Network précité visera à conférer à chaque type de donnée une identification (tag) unique, prédéfinie et non ambiguë. Les services d'intelligence économique, d'espionnage et de contre-espionnage seront les premiers à en profiter, car ils se seront les premiers dotés des outils permettant de le faire. Il est significatif de constater, comme l'indique le NewScientist, qu'un article intitulé Semantic Analytics on Social Networks, présenté au WWW2006 d'Edimbourg par des universitaires américains, avait été en partie financé par une organisation jusque là inconnue intitulée ARDA. ARDA, qui ressemble étrangement à DARPA, signifie Advanced Research Development Activity. Elle est budgétée par la NSA pour résoudre certains des problèmes que rencontre la communauté du Renseignement aux Etats-Unis. On ne saurait être plus explicite.

Ces jours-ci, l'ARDA a été rebaptisée Disruptive Technology Office (voir Wikipedia : http://en.wikipedia.org/wiki/Disruptive_Technologies_Office). Mais sa mission reste la même: faire du «profiling» à partir de systèmes d'espionnage (intelligence) automatisés. Les 80 millions d'abonnés des actuels sites du genre de MySpace auront tout intérêt à se méfier de ce qu'ils publieront sur eux-mêmes, en s'imaginant que ces détails intimes n'intéresseront jamais personne que leurs proches. Voici de quoi en éloigner beaucoup des perspectives culturelles offertes par le Web Sémantique.

1 : Ce n’est pas le lieu ici de faire la liste de tous les secteurs industriels et économiques (hors du militaire, des transports et de l’énergie, du tabac et de l’alcool souvent cités), dont on peut se demander s’ils ne sont pas devenus plus dangereux qu’apporteurs de bienfaits pour les humains. Mais cette liste serait longue : industries de la Big Food, déjà citée, industries chimiques (qui s’opposent de toutes leurs forces au programme européen REACH visant à identifier et évaluer l’impact de 50.000 produits sur 300.000 jugés suspects), industries pharmaceutiques, industries du tourisme, industries culturelles pour une grande part de leurs activités…A quoi servirait une telle liste ? Au moins, si elle était convenablement argumentée, par des experts aussi indépendants que possible des grands intérêts, à ouvrir les yeux des citoyens et des scientifiques eux-mêmes.
On peut mentionner d’autres super-organismes qui, sans être spécifiquement hostiles aux hommes, peuvent le devenir du fait de leur croissance désordonnée. C’est le cas des grandes villes ou mégapoles de plus de 20 millions d’habitants, dans lesquelles vivront au milieu du siècle peut-être les 4/5 de l’humanité. Il s’agit, notamment dans les pays pauvres, de machines à détruire les écosystèmes qu’il faudrait dès maintenant arrêter de laisser croître. Mais nul pouvoir n’en semble capable.

2 : On est encore loin du compte, tant en Europe qu’aux Etats-Unis. Dans ce pays, un certain Francis Slakey, professeur de physique et de biologie et co-directeur du Program on Science in the Public Interest de l’Université Georgetown, Washington DC, a fait un calcul assez simple (NewScientist, 13 mai 2006, p. 21). Le pétrole étant plus cher que jamais, même pour les automobilistes américains, une solution certes à court terme mais significative consisterait à imposer au niveau de la nation toute entière la vitesse limite de 55 miles/heure à l’ensemble des véhicules. Différentes raisons physiques font en effet que réduire la vitesse de 75 mph à 55 mph augmente l’efficacité du carburant (distance parcourue/consommation) de 25%. En moyenne l’automobiliste économiserait 0,5 dollar par gallon (bien davantage en Europe où l’essence est fortement taxée). Globalement, calcule-t-il, la mesure permettrait d’économiser 50 millions de gallons d’essence par jour, soit 1 milliard de barils par an, l’équivalent de ce que les Etats-Unis importent du Golfe Persique chaque année. De plus, il pense que les industriels, incités par une telle mesure à rendre les moteurs et véhicules plus économes, feraient en sorte que les rendements s’améliorent, d’où un second milliard de barils économisés supplémentaire. Convertissons ces données car les Américains en sont encore au Moyen-âge quand il s’agit de mesures. L’US Gallon vaut 3,7 litres. Le mile vaut 1,6 km. Le baril vaut 160 litres et pèse donc, en pétrole, environ 0,150 tonne. Une vitesse limite de 90 km/h permettrait d’économiser 0,5 euro pour 4 litres d’essence, soit 2 euros pour un plein de 40 litres (ceci, encore une fois, aux Etats-Unis). L’économie globale pour les Etats-Unis serait de 1 milliard de barils soit, approximativement, 150 millions de tonnes de pétrole par an, ou 300 super-pétroliers de 500.000 tonnes par an – auxquels s’ajouterait 1 autre milliard résultant de l’optimisation des moteurs. Transposé à la France, on se bornera à retenir que la limitation de vitesse à 90 km/h permettrait d’économiser 25% de carburant par rapport au plafond actuel de 130 km/h. Inutile d’y penser, n’est-ce pas ?

3 : L'Internet des objets. On donne désormais ce nom aux objets capables d'émettre des messages recueillis et mémorisés par le web, par exemple la puce antivol incorporée à une automobile qui signale en permanence la position du véhicule, indépendamment de la volonté du conducteur.
http://www.itu.int/osg/spu/publications/internetofthings/

4 : De quel type est ce pouvoir ? N’est-il pas une illusion ? C’est ce dont veulent convaincre les représentants des médias traditionnels. Du bruit et du désordre des prises de parole sur Internet, rien ne peut sortir. On répondra qu’au contraire, sur Internet comme plus généralement dans l’univers, on retrouve le principe bien connu des scientifiques de la complexité : order from noise, l’ordre naît du désordre. La question n’est plus aujourd’hui purement académique. Elle touche les activités politiques les plus immédiates. Un des paris faits par Ségolène Royal est qu’à partir des dialogues encouragés sur son site Internet pourrait émerger une « intelligence collective » jusqu’ici empêchée de se former.


Retour au sommaire