TROISIEME CHAPITRE

LES HYPER-MEDIAS

L'enseignement revisité

La bibliothèque du lycée a laissé la place à la salle des écrans. Devant l'un d'eux, Véronique, élève de première, prépare son exposé sur le roman français du XIXème siècle. Elle appelle le programme "littératorama" qui affiche aussitôt une série de petits dessins symbolisant les différents types de littérature qui existent : théâtre, roman, nouvelle, poésie etc. Elle dirige la flèche de sa souris sur l'icône qui représente le roman et "clique". Le programme lui demande alors de choisir entre plusieurs périodes, plusieurs pays, plusieurs auteurs. Elle tape "roman français du XIXème siècle". Plusieurs moyens d'explorer le roman lui sont aussitôt proposé romanciers, personnages de roman, moeurs, textes, etc. Elle choisit "romanciers". Un personnage apparaît à l'écran qui lui propose une visite des hauts lieux de la littérature à Paris. Elle peut ainsi voyager au pays de la littérature en choisissant son itinéraire. Sur un écran voisin, Fabrice prépare lui aussi un exposé sur le même thème. Il se sert du même programme mais aura une vision différente . au lieu de visiter Paris, il pourra choisir, par exemple, la visite de la Normandie de Flaubert et de Maupassant.

Science fiction ? Pas tout-à-fait. Cette approche nouvelle du savoir, appelée hypertexte est en train de bouleverser l'organisation du savoir. Alors qu'elle est en marche depuis quarante ans, la révolution informatique n'a jusqu'ici pas encore changé grand chose dans les rapports de l'homme et du savoir. L'émergence de l'hypertexte va sans doute modifier durablement notre façon de gérer les connaissances.

J'ai failli rater mon doctorat parce que je ne pouvais pas extraire l'information dont j'avais besoin des données que j'avais amassées (287) avoue Arno Penzia, prix Nobel de physique. C'était en 1960. Depuis, des progrès ont été faits. Mais le problème crucial reste de permettre un accès rapide à des données, selon un schéma qui ressemble à la manière dont notre esprit fonctionne. Autrement dit, la meilleure bibliothèque ne sert à rien si elle n'est pas organisée de manière à ce que le chercheur puisse naviguer dans la connaissance qu'il a à sa disposition. Plus généralement, le savoir, la science, ne sont pas autre chose qu'une certaine forme d'organisation des données. Par exemple, entre l'astronomie grecque de Ptolémée et celle de Copernic, au 16ème siècle, les données sont fondamentalement les mêmes . pendant les 14 siècles qui les séparent, les savants n'ont jamais disposé eu d'autre instrument que l'oeil nu pour observer le ciel. La révolution copernicienne qui met le soleil au centre de l'univers en supposant le mouvement de la Terre, est essentiellement une nouvelle organisation des faits. Cette nouvelle organisation permet à son tour de mettre en évidence de nouveaux rapports entre les choses.

287 : Arno Penzia, Intelligence et informatique, Plon, 1990.

Si les révolutions scientifiques sont assez nombreuses, les révolutions concernant le domaine même de l'intelligence se comptent sur les doigts d'une main. Curieusement les techniques utilisées par l'intelligence n'ont pas encore attiré les esprits comme les autres révolutions scientifiques. Nous n'avons pas encore eu un historien des sciences comme Thomas Kuhn pour expliquer la structure d'une révolution de l'intelligence. De plus, la notion même d'une révolution dans le domaine de l'intelligence ou dans celui de la gestion de la connaissance contient l'affirmation implicite que la connaissance est liée d'une quelconque manière à la façon de la représenter. Or, la tradition intellectuelle occidentale tend à refuser la liaison de l'intelligence avec un support technologique quelconque. A la suite de la critique heideggerienne de la technique, la plupart des philosophes regardent avec suspicion l'univers technologique et n'en voient pas l'intérêt pour l'esprit. Même Descartes, qui voulait nous rendre "maître et possesseur de la nature" grâce à la technique, n'a jamais accepté l'idée qu'elle puisse nous aider directement dans notre quête de la connaissance. Pour lui, elle n'est pas autre chose qu'un moyen de nous affranchir de certains problèmes d'intendance, un moyen de libérer notre esprit des tâches répétitives pour nous consacrer à l'essentiel. Dans une certaine mesure, la majorité de la communauté intellectuelle continue à raisonner sur ce modèle.

Pourtant, la manière dont nous stockons la connaissance la transforme en science. La technique que nous utilisons pour y arriver est aujourd'hui tellement répandue, tellement banale que nous avons tendance à oublier qu'elle ne va pas de soi. Depuis cinq siècles, nous avons pris l'habitude de consulter des livres, tous d'un format comparable, tous construits avec une structure aisément repérable. Pourtant, des siècles de tâtonnements ont été nécessaires pour en arriver là. Il a d'abord fallu accepter l'idée de l'écriture, puis celle d'une écriture sur papier au lieu d'une écriture gravée. Puis il a fallu apprendre l'art de plier une feuille de manière à obtenir un format optimal. Les in folio du Moyen-Age ont peu à peu laissé la place à des formats plus maniables et surtout plus transportables. Enfin, il a fallu penser à coudre le papier plutôt qu'à le laisser en rouleau et à numéroter les folio. Toutes ces techniques ne sont pas venues d'un coup.

Elles se sont constituées petit-à-petit pour devenir le livre que nous connaissons. Lorsque Gutenberg est arrivé, il a donné le point final à un processus évolutif. Le livre de Gutenberg est moins différent de ces prédécesseurs immédiats qu'on ne pourrait le croire. Le livre n'a pas changé de nature avec l'imprimerie, il a changé de prix, il est devenu plus courant. Or, toutes ces innovations ont permis de rassembler la connaissance dans un système unique dans lequel des renvois d'un livre à l'autre sont possibles, sous forme de notes, de bibliographies etc.

On peut dire sans exagération que le livre n'a connu aucune modification notable entre le quinzième siècle et aujourd'hui. Certes, nous avons amélioré la technique, nous avons des reproductions en couleur, des systèmes de reproduction et de diffusion du livre sans commune mesure avec les époques précédentes. Mais l'essentiel est toujours là : les livres sont constitués de pages en papier, ils ont un titre et une table des matières, les pages sont numérotées. Cette disposition implique une organisation de la connaissance en chapitres. Le lecteur peut ainsi avoir deux types de lecture. Une lecture cursive, linéaire, du début à la fin du livre. L'autre est synthétique : en jetant un coup d'oeil sur la table des matières, sur les titres de chapitre, on peut aller tout de suite vers la partie du livre qui nous intéresse. Enfin, la numérotation des pages permet des renvois précis, ce qui autorise une lecture modulaire. Qu'on le veuille ou non, depuis son avènement, le livre n'a que peu changé et aucune autre technique ne lui a jamais fait de concurrence sérieuse. Souvent on a écrit que l'audio-visuel allait remplacer le livre. Aujourd'hui, dans les universités, l'audio-visuel reste lettre morte. Le livre reste, sinon le seul, du moins la plus largement utilisée des techniques de conservation et d'utilisation de la connaissance.

Passer d'un support papier à un support de silicium ne constitue pas forcément un bouleversement dans l'organisation de la connaissance. Pour que ce soit le cas, il faut proposer un nouveau moyen de voyager dans le savoir. C'est le rôle dévolu à l'hypertexte, mot bizarre qui donne à penser qu'il y a un hypertexte de même qu'il y a un hyperespace dans les récits de science fiction. L'hyperespace est habituellement défini comme un espace en dehors de l'espace, une espèce de dimension inconnue aujourd'hui qui nous permettrait de voyager très vite à des distances fantastiques sans passer par le chemin "normal" qui prendrait trop de temps. Mutatis mutandis, l'hypertexte est aussi une façon entièrement nouvelle de se déplacer dans le champ du savoir.

"Sans aucun doute, explique Christian Lipowski, chercheur à Paris VIII, cette technique est la seule innovation vraiment importante en informatique. Jusqu'ici, la plupart des innovations n'étaient que des gains de temps, sans véritable nouveauté intellectuelle." Avoir une machine qui calcule très vite permet d'envisager des opérations d'une complexité à peine imaginable, mais, si l'informatique n'était qu'une technique de calcul, n'aurait qu'un impact très limité sur la connaissance. Si on regarde les innovations informatiques depuis les premières machines, on est frappé par l'extraordinaire inventivité matérielle et par la faiblesse de l'innovation logicielle. "Tout s'est passé comme si nous avionseu une approche strictement "machine", poursuit Christian Lipowski, comme si nous voulions avant tout construire un nouveau jouet sans trop savoir à quoi il servirait. Plus généralement, à part l'effervescence des débuts, entre 1960 et 1985, nous n'avons pas inventé le moindre concept nouveau en informatique. C'est évidemment paradoxal dans la mesure où, pour la plupart des gens, c'est la période où l'informatique prend son essor. Mais l'informatique, pendant cette période, reste globalement une calculette très perfectionnée. Même ce qu'on a pompeusement appelé "l'intelligence artificielle" n'est que l'utilisation en informatique de techniques connues par ailleurs."

L'informatique a radicalement changé de visage le jour où des informaticiens qui ont enfin compris qu'un ordinateur devait être autre chose qu'une calculette. La première étape vint de l'idée d'une interface homme-machine. A ces débuts, Apple avait une publicité très parlante : on voyait des gens en costume du XIXème siècle en train d'apprendre le morse pour pouvoir communiquer. Et les malheureux s'emberlificotaient à essayer de distinguer les "tits" et les "tuuuut" émis par un télégraphe. Jusqu'au jour où quelqu'un a eu l'idée d'apprendre le langage humain au télégraphe. Résultat, le téléphone pu voir le jour. C'est un peu la même révolution qui s'est produite dans les années 80 avec la naissance de la "micro conviviale" : au lieu d'obliger les hommes à apprendre l'informatique, on a appris l'humain à la machine. Une fois cette étape franchie, il devient possible de se servir intuitivement de la technique pour trouver de nouvelles idées.

Deux autres concepts vont voir le jour. Celui de simulation et celui d'hypertexte. A eux trois, ils constituent la véritable révolution informatique et dépassent très largement du cadre pour lesquels ils ont été inventés : comme la thermodynamique en son temps, il sont utilisés par la l'ensemble des autres disciplines, de la biologie à la sociologie en passant par la psychologie et la géologie. En informatique une interface assure la compréhension entre un être humain qui s'exprime en langage naturel, comme le français, le russe ou le chinois, et un programme ou une machine qui ne connaît qu'un langage binaire. Mais, plus généralement, l'interface assure la communication entre deux techniques, le passage entre deux types de spécialisation. Le concept peut paraître évident, tant cette notion de passage semble proche de celle de traduction. Mais dans ce dernier cas, on cherche à respecter un sens. Dans l'autre, on veut faire passer des informations d'un domaine à un autre pour qu'elles soit traitées. I1 suffit que les informations arrivent sans ambiguité, il est secondaire qu'elles soit comprises, il est secondaire que la machine sache de quoi il s'agit ou qu'elle connaisse les tenants et aboutissant de ce qu'on lui demande. Plus généralement, l'interface devient nécessaire lorsque les deux mondes qu'elle délimite sont si éloignés qu'une traduction est impossible.

La simulation est une distorsion du concept de calcul et de celui de prévision. Jusqu'ici, les hommes pouvaient prévoir un comportement, une situation en isolant quelques paramètres et en évaluant ce que pourrait donner ces paramètres dans un futur proche. En astronomie, la précision atteinte est voisine de l'exactitude. Mais dès que le nombre de paramètres devient trop grand, la prédiction devient impossible, les calculs à entreprendre étant trop fastidieux. L'ordinateur résout le problème par sa capacité de calcul qui permet la simulation des comportements ou des situations, quel que soit le nombre de paramètres. Grâce à l'interface, le calcul prend la forme d'une image, autrement dit devient immédiatement accessible au cerveau, devient "intuitif", utilisable par l'imaginaire pour trouver de nouvelles idées. Plus généralement, la notion de simulation débouche sur les réalités virtuelles, ces réalités fabriquées avec un grand luxe de détail et qui n'existent pourtant pas, sinon sous la forme d'un calcul. Simple jeu pour faire travailler l'imagination d'informaticiens ? Pas du tout. Il s'agit au contraire de sauvegarder la créativité. Or, si l'esprit est totalement absorbé dans une tâche analytique comme la rédaction d'un programme, il perd rapidement la capacité de faire une synthèse. La réalité virtuelle lui rend cette capacité. La simulation est donc à mi-chemin entre le calcul et l'interface. Dans une certaine mesure, on peut dire qu'elle est l'interface du calcul. Mais ces deux concepts ne sont rien s'ils ne sont pas accompagnés d'un troisième, l'hypertexte. De quoi s'agit-il ? De donner à l'ordinateur l'esprit d'escalier. Concrètement, l'hypertexte est une espèce de jeu d'aventure à l'intérieur de la connaissance. Elle devient un territoire à explorer, une réalité virtuelle à l'intérieur de laquelle on peut se déplacer. Dans ce système, l'étudiant ou l'apprenti devient un voyageur. L'intérêt d'un tel concept apparaît dès qu'on observe la manière dont fonctionne l'esprit humain. Comprendre un texte c'est d'abord le relier à ce que nous savons. si nous ne savons rien de la discipline dont parle le texte, nous ne comprenons pas grand chose. En revanche, si chaque phrase évoque en nous quelque chose, le texte devient plein de sens. Le summum est atteint quand le texte nous permet de créer des connexions entre certaines connaissances que nous avions mais auxquelles nous n'avions pas songé.

Précisément le réseau d'un hypertexte, explique Pierre Lévy professeur à Nanterre, est sans cesse en construction et en renégociation. il peut rester stable un certain temps, mais cette stabilité est elle-même le fruit d'un travail (288). Comme l'être humain, l'hypertexte fonctionne de manière analogique. Lorsque Prochiantz (289), par exemple, parle de la plasticité du cerveau, il veut dire que notre cerveau ne contient rien au sens ou il fabrique en permanence, il retrouve des connaissances, grâce à l'habitude qu'il a prise de les chercher, un peu comme la musique n'est pas contenue dans un piano, elle y est potentiellement. Dans une encyclopédie en hypertexte, la connaissance devient, à son tour une potentialité : à partir d'une seule définition, l'utilisateur peut dessiner un réseau aussi grand qu'il le veut. En outre, au lieu de ne donner qu'une même vision du paysage à tout le monde, comme il s'agit d'un voyage, chacun peut organiser son périple à sa guise. Pour caricaturer un peu, si on donne à trente élève un même manuel d'histoire, ils raconteront tous la même chose. Mais si on donne à trente élèves un même hypertexte, ils rapporteront tous des itinéraires différents. Le réseau n'a pas de centre, poursuit Pierre Lévy, ou plutôt, il possède en permanence plusieurs centres qui sont comme autant de pointes lumineuses perpétuellement mobiles, sautant d'un nœud à l'autre, entraînant autour d'elles une infinie ramification de radicelles, de rhizomes, fines lignes blanches esquissant un instant quelque carte aux détails exquis, puis courant dessiner plus loin d'autres paysages du sens (290).

288: Pierre Lévy, Les Technologies de l'intelligence, La Découverte, 1990.

289: Alain Prochiantz, La Construction du cerveau, Hachette, 1989

290 : Une version abrégée de ce chapitre est parue dans Libération du 12 septembre 1990 sous le titre la sexualité de l'ordinateur.