1 - Au delà de la révolution numérique



     

     Trop tard...

     Il est trop tard pour revenir en arrière.

     La croissance exponentielle de la puissance informatique en parallèle à la miniaturisation des composants a donné lieu à un nouvel ordre des choses.

     Les images du cosmos comme du Kilimandjaro, les archives des grandes bibliothèques mondiales, sont disponibles sur Internet.

     En revêtant un casque de Réalité Virtuelle, le spectateur peut visiter la cité turque de Catal Hüyk telle qu'elle existait 6 500 ans avant J.C.

     Des jeux d'une infinie complexité apparaissent dans lesquels évoluent des participants situés aux quatre coins du monde, sous le déguisement de leur choix.

     Des musiciens habitant de part et d'autre de l'Atlantique improvisent une répétition collective, comme s'ils jouaient dans la même pièce.

     Un réalisateur peut tourner une scène médiévale au milieu de Paris, effacer les traces de modernité et " peindre " les décors du dixième siècle à la palette graphique.

     Les possibilités de manipulation par ordinateur sont devenues telles qu'il est devenu impossible d'accorder foi à un document photographié ou filmé. Une révolution culturelle en soi.

     Les frontières du temps et de l'espace se dissipent et de nouvelles formes de communication, de travail et de spectacles émergent.

     A la base de cette mutation, se trouve la révolution numérique.

     Depuis les vingt dernières années, il se produit un transfert de la mémoire des peuples - livres, journaux, disques, photographies, films... - sous la forme de 0 et de 1 sur des supports optiques ou magnétiques. Les télécommunications évoluent en parallèle de l'analogique vers le numérique.

     Une extraordinaire masse d'information est devenue accessible à distance à partir de micro-ordinateurs reliés au réseau Internet. Les plus beaux tableaux du Louvre côtoient la plastique de Cindy Crawford, des mélopées New Age inédites, l'intégrale des Fables d'Esope ou un extrait du prochain Spielberg. Cet indescriptible geyser de littérature, spectacles et jeux sera bientôt accessible depuis l'écran de Home Cinema du salon. Télématique, informatique et audiovisuel convergent à un point tel que Ray Smith, président de la compagnie de télécom Bell Atlantic s'amuse à dépeindre la présente évolution par une boutade : "Dans le futur, vous serez trop occupé à regarder le téléphone pour répondre à la télévision."

     Et pourtant...

     Nous n'avons là que les aspects les plus spectaculaires de la révolution numérique.

     Une mutation plus profonde encore se situe dans l'invisible.

      La miniaturisation accélérée des ordinateurs

     Depuis l'invention du premier microprocesseur - ces " puces " à base de silicium qui gèrent l'information numérique - un dénommé Moore a énoncé une étrange loi selon laquelle leur puissance doublerait tous les 18 mois. Cette hypothèse s'est vérifiée au cours des vingt-cinq dernières années et devrait continuer pendant encore au moins dix ans. Le microprocesseur révolutionne l'ensemble des activités humaines car il devient possible de coder de plus en plus d'informations sur un volume de plus en plus réduit.

     Lorsqu'Alan Turing a décrit les grands principes de ce que serait une machine intelligente, en 1937, il ne savait pas qu'il enclenchait un engrenage irrésistible. L'ordinateur a connu une évolution vertigineuse, multipliant ses capacités de manière aussi exponentielle que sa taille se miniaturisait. Les microprocesseurs actuels sont cent mille fois plus rapides que leurs ancêtres des années 1950, avec un coût mille fois inférieur en francs constants. En 1946, l'ENIAC pesait près de 30 tonnes et nécessitait un local de 140 mètres carrés. Aujourd'hui, certains modèles de Hewlett-Packard ou Psion tiennent dans une poche et pèsent moins de 500 grammes. En 2020, un modèle de la taille d'une carte de crédit sera vraisemblablement aussi puissant que l'ensemble des ordinateurs actuels de la région parisienne. Une puissance de calcul phénoménale sera alors disponible.

     Nous n'avons là qu'une facette de la machine à broyer des nombres. Depuis une vingtaine d'années, les microprocesseurs se sont introduits dans les appareils les plus divers : four à micro-onde, camescope, machine à laver... L'automobile type de 1996 intègre une trentaine de microprocesseurs. Les puces amènent à tous ces objets une plus grande intelligence et une amélioration de la qualité : les téléphones GSM restituent la voix avec clarté, les CD apportent une nouvelle dimension à La Flûte Enchantée comme à Sultans of Swing.

     La miniaturisation atteint des niveaux extraordinaires, quasi surréalistes. Il existe aujourd'hui même des " micro-machines " dont le moteur n'est pas plus grand qu'un cheveu. Une nouvelle approche, la " nanotechnologie " envisage même la réalisation d'appareils de taille atomique !

     L'Intelligence Articielle

     Parallèllement à la miniaturisation des processeurs, une discipline baptisée Intelligence Artificielle a pris son essor. Au lieu d'amener un ordinateur à simplement stocker, analyser et brasser l'information, l'Intelligence Artificielle vise à reproduire le raisonnement d'un expert humain, et partant, une prise de décision optimale fondée sur l'analyse de milliers d'informations, lesquelles sont évaluées, mises en perspective et comparées à des modèles connus, à une vitesse éclair.

     L'histoire de l'Intelligence Artificielle remonte à un matin d'octobre 1955. Herbert A. Simon, professeur d'informatique à l'Université de Carnegie Mellon est saisi d'une inspiration alors qu'il se promène dans un parc. Serait possible d'amener un ordinateur à simuler une réflexion logique ? La question sera suffisamment alléchante pour qu'il occupe son week-end avec un autre informaticien, Alan Newell, à de réaliser un programme ad hoc. Le logiciel issu de ces travaux, Logic Theorist s'avérera capable de déterminer par lui-même la preuve de plusieurs théorèmes mathématiques simples. Le concept des " machines intelligentes " était né. Il ira jusqu'à influencer Stanley Kubrick lorsqu'en 1966, dans 2001, Odyssée de l'Espace, le réalisateur anglais mettra en scène HAL, un ordinateur si proche d'une comportement humain qu'il va jusqu'à faire preuve de perfidie.

     En dépit de ses débuts prometteurs, l'Intelligence Artificielle a longtemps cherché sa voie. Elle n'est arrivée sur le devant de la scène qu'au milieu des années 80, époque à laquelle des centaines de millions de dollars furent investis dans des entreprises telles que Symbolic, LISP Machines ou Gold Hill Computers. Toutes se targuaient défricher le terrain des " machines qui pensent ". 1990 fut l'année de la débâcle pour la plupart d'entre elles, au vu des maigres résultats obtenus.

     Pourtant, les " logiciels experts " vont progressivement acquérir une aura de respectabilité, le plus souvent en révisant à la baisse leurs prétentions et en se cantonnant à des secteurs d'activité précis : assurances, hypothèque, gestion bancaire... A en croire une enquête menée par le Ministère de l'Agriculture américain, 70% des 500 premières entreprises des Etats-Unis s'appuient aujourd'hui sur l'Intelligence Artificielle pour optimiser leur activité.

     Pourquoi un tel engouement ? Parce que les ordinateurs sont capables de poursuivre inlassablement une analyse en explorant des dizaines de millions d'hypothèses, là où un humain normalement constitué abandonnerait la partie après quelques dizaines ou centaines d'essais infructueux. Qui plus est, la machine peut être programmée de manière à opérer de manière judicieuse, en écartant progressivement les routes jugées stériles.

     Lorsque les concepteurs de GE ont reçu pour mission de concevoir une lame de ventilation plus efficace pour le 777 de Boeing, ils se sont trouvés face à un problème stupéfiant de par sa complexité. Les facteurs influençant les performances d'un ventilateur de jet représentent un nombre incommensurable, composé de 129 trios de zéro. Par la voie classique, un super-ordinateur capable d'opérer des milliards de calculs par seconde mettrait plusieurs milliards d'années à tester chaque combinaison. Grâce un logiciel d'Intelligence Artificielle, le problème a été résolu en moins d'une semaine.

     MasterCard International a réduit de 50 millions de dollars les pertes dues à des vols de carte. Son atout n'était autre qu'un un logiciel capable d'analyser le comportement d'achat de ses usagers. Toute boulimie d'achat sur des articles que le consommateur n'acquerrait pas en temps normal est considérée suspecte. Le programme est tellement efficace qu'il est en mesure de repérer qu'une carte a été dérobée avant même que son propriétaire ne le réalise !

     Au Japon, Nikko Securities Systems a développé un système en collaboration avec Fujitsu qui permet de prévoir les taux des titres convertibles. Depuis sa mise en oeuvre en 1992, ses conseils se sont avéré justes 92% du temps.

     Pour augmenter ses performances, le monde médical s'appuie depuis plusieurs années sur l'Intelligence Artificielle. Des logiciels développés par le General Hospital du Massachussets, l'Université George Washington, ou encore des firmes telles qu'Odin et Applied Informatics, aident à prévoir les éventuelles incompatibilités entre médicaments, analysent cinquante millions d'électrocardiogrammes par an et diagnostiquent des maladies de manière plus précise que ne le pourrait un médecin.

     Aujourd'hui, plusieurs spécialistes en Intelligence Artificielle estiment qu'il ne faudra pas plus de 15 ans avant de voir apparaître des machines capables d'actions et de décisions autonomes, déduites de leur propre expérience.

     Quand l'intelligence s'introduit dans les objets

     Quel est l'état des lieux à l'aube du 21ème siècle ?

     Nous avons, d'un côté, des microprocesseurs, dont la taille se réduit inexorablement tandis que leur puissance s'envole vers des cieux inexplorés.

     De l'autre, nous avons une discipline, l'Intelligence Artificielle, qui permet de doter ces mêmes microprocesseurs d'un raisonnement analogue à celui du mental humain.

     La prochaine étape de cette évolution s'appelle les " objets intelligents ". Dixit Richard Bolt, du Media Lab au MIT (Massachussets Institute of Technology) de Boston. " L'informatique n'est plus du tout limitée aux ordinateurs tels que nous les connaissons. Pas plus que la communication n'est limitée aux télécoms. Il est devenu possible d'introduire des technologies sophistiquées dans les moindres objets de la vie courante : chaussure, ceinture, chaise, fenêtre, pinceau, ... " L'ordinateur du futur ne ressemblera pas uniquement à une version réduite du PC d'aujourd'hui capable d'obéir à la voix et de reconnaître notre écriture. Il viendra se loger dans des centaines d'objets familiers de la vie de tous les jours.

     Accélération technologique

     Nous n'avons là qu'un vague aperçu de ce qui se prépare dans les universités et laboratoires de recherche futuriste à Tokyo et à San Francisco comme à Lausanne ou Toulouse.

     Dans un temps fort rapproché, apparaîtront des applications que la plupart des humains assimileraient à de la science fiction pure et simple. Parmi celles-ci ? L'injection dans le corps d'agents microscopiques capables d'accomplir des missions de guérison. Les appartements inviolables capables de reconnaître leur propriétaire. Des robots capables de faire le ménage dans l'appartement avec autant de grâce et de détermination que le plus intentionné des serviteurs. Des automobiles sans pilote capables de conduire de manière autonome en ville comme sur route. Toutes ces applications sont en cours de développement. Certaines sont déjà parvenues à un stade avancé.

     Le bouleversement qui se prépare donnerait le vertige au visionnaire le plus enhardi. Tout se passe comme si les ingénieurs, saisis d'une insatiable frénésie face aux capacités ouvertes par la technologie, s'étaient transformés en apprentis sorciers. Aucune limite ne semble envisagée. Celles qu'aurait pu imposer la physique - il était prévu qu'au-delà d'un certain degré de miniaturisation, les microprocesseurs cesseraient d'être effectifs - sont contournés allègrement par les travaux de ceux, qui proposent d'explorer de nouvelles voies en partant de l'atome.

     A l'instar de la montée en puissance des microprocesseurs, la tendance générale des progrès est exponentielle. Selon un rapport du cabinet Living Excellence, " toute la connaissance technologique dont nous disposons aujourd'hui ne représentera qu'1% de la connaissance disponible en 2050 ". Le problème ne consiste plus à trouver de la puissance de calcul et de communication, mais à découvrir comment l'exploiter. Les potentiels seront démultipliés avec l'accroissement de capacité des puces et la généralisation de la fibre optique.

     L'ère des objets intelligents annonce une évolution profonde du mode de vie des humains. Elle pourrait engendrer la tendance à déléguer de plus en plus de pouvoir décisionnel à des entités inanimées, sur la base du brassage à la vitesse de la lumière de myriades d'informations. Une tendance d'autant plus naturelle au fil des générations que celles-ci ne connaîtront ces aides électroniques que de manière conceptuelle ; elles se seront depuis longtemps fondu dans le décor. Mais il encore temps de maîtriser cette course vers la robotisation invisible afin de faire en sorte que les nouveaux agents de l'ombre soient affectés au service de l'humanité.

     " Le plus grand risque inhérent à une technologie invisible " déclare Mark Weiser, ancien directeur des centres de recherches avancée de Xerox, " est le fait que nous pourrions en arriver à oublier qu'il faut superviser celle-ci. Ce n'est pas parce que nous ne verrons plus les ordinateurs encastrés dans nos murs que ceux-ci ne seront plus à la merci de virus, de pirates ou de Big Brother ".

     Une entrée en matière on ne peut plus adéquate pour le voyage auquel nous aimerions vous convier dans les pages qui suivent. Une excursion au cœur d'un siècle qui va voir l'indiscernable intelligence informatique devenir l'élément essentiel de la civilisation. Frisson ou angoisse ? Vous le saurez en temps utile.