sixième partie : Approche ethnométhodologique des nouvelles techniques de l'information

PREMIER CHAPITRE

DES MENINGES DANS LES MACHINES
 
 

L'artifice de l'intelligence

L'un des problèmes rencontrés par l'informatique vient du désir de ses membres de résoudre des problèmes de plus en plus complexes. L'intelligence artificielle est arrivée à point nommé pour pallier les insuffisances des programmes existants. Mais, dans le village lui-même, l'unanimité n'a jamais été vraiment faite. Nous nous proposons de faire parler certains acteurs de ce village. Contrairement à l'usage établi dans le cadre universitaire nous donnerons la parole à des professionnels, à des industriels ou à des techniciens plus qu'à des chercheurs. La raison est simple : il s'agit de proposer une étude de l'informatique pratique et pas seulement une étude de l'informatique théorique et savante.
 
 

L'IA

Intelligence Artificielle ? Ne me faites pas rire !, s'exclame Dick Rogers, directeur du Neural Institute, dès qu'il entend ces deux mots, un ordinateur, si puissant soit-il, n'est jamais que de 1a tôle. Comment voulez-vous qu'une vulgaire boîte métallique, même bourrée de silicium, puisse devenir intelligente ? Pourtant, depuis 1958, date où l'expression a été utilisée pour la première fois pour désigner l'ensemble des raisonnements qu'une machine peut effectuer, des centaines d'entreprises se sont créées pour développer des ordinateurs intelligents. Qui puissent poser des questions, imaginer des scénarios, avoir de l'intuition...

Dans les années 60, les pionniers sont persuadés que l'Intelligence Artificielle (l'IA pour les initiés) bouleversera tout sur son passage. comme un raz de marée, elle devra déferler dans l'entreprise, s'infiltrer dans les moindres recoins accessibles aux humains. Séduire les particuliers. Permettre de gagner du temps. De l'argent. Bref, le mythe du Golem sera enfin réalisé. Hélas, en fait de raz de marée, on dut se contenter d'une tempête sous un crâne. Quant aux fabuleux bénéfices escomptés... les nombreuses faillites de ces deux dernières années sont là pour rappeler que ce sont plutôt les pertes qui sont au rendez-vous. En France, par exemple, Cognitech, numéro 1 européen des applications en IA, a essuyé entre 3 et 5 millions de pertes. Notamment à cause d'une mauvaise estimation du marché.
 
 

Un outil comme un autre

Aujourd'hui, l'intelligence artificielle semble avoir enfin atteint son âge de raison. Plus personne ne claironne qu'il s'agit d'une panacée capable de résoudre tous les problèmes. Ni must, ni jouet, l'IA est devenue un outil informatique comme un autre. Et l'utilisateur final peut parfaitement s'en servir sans le savoir. Un peu comme un automobiliste peut fort bien ignorer les principes de fonctionnement de son turbo.

L'expression Intelligence Artificielle a un sens très précis, explique Dick Rogers, à l'origine, elle désigne l'ensemble des opérations qui permettent à une machine d'imiter le raisonnement humain. Or, contrairement à ce qu'on pourrait croire, les calculs mathématiques les plus compliqués sont relativement simples â programmer. En revanche, parvenir à imiter le raisonnement d'un enfant s'est avéré d'une effroyable complexité. Un problème aussi simple que celui qui consiste à empiler des cubes les uns sur les autres a demandé plusieurs mois de recherche avant de pouvoir être traité à peu près convenablement par un ordinateur. Quant au bon sens, les machines sont encore très loin d'en approcher.
 
 

Imiter la vie courante

La recherche en I.A. s'oriente vers la mise au point d'outils théoriques qui permettent à une machine d'imiter les raisonnements de la vie courante. La question n'est pas de savoir si les machines pensent, remarque Yves Lecerf dans un cours, nous cherchons au contraire les moyens grâce auxquels une machine pourrait faire le travail d'un humain. Deux techniques radicalement différentes recouvrent ce qu'on appelle l"intelligence artificielle, les systèmes experts et les réseaux neuronaux.

Un système expert est un logiciel censé remplacer un expert humain. Il a l'avantage d'être toujours disponible et de ne pas être sujet à des baisses de performance pour cause de fatigue ou de maladie. Très schématiquement, il se compose d'une base de données, d'une base de règles et d'un moteur d'inférence. La base de données contient l'ensemble des connaissances nécessaires à l'expertise tandis que les règles ont pour fonction de reproduire le raisonnement d'un expert humain. Le moteur d'inférence, la partie logique du système, détermine le niveau de complexité du raisonnement. Un tel système doit essayer de coller au plus près des connaissances et des capacités de déduction ou de décision d'un expert humain. Pour cela, il faut bien sûr que les données soient assimilables par la machine ; il faut en outre que le moteur d'inférence puisse les traiter afin de parvenir à des conclusions dignes de celles d'un spécialiste humain. Un bon expert possède un savoir spécifique étendu mais il est surtout capable d'utiliser ses connaissances à bon escient, en respectant le sens commun. Certes, le bon sens est la chose du monde la mieux partagée, mais il est le moins facilement formalisable : l'humain est capable de rectifier une information mal donnée, il est capable d'inventer sur le champ des règles lui permettant de décider lorsqu'il ne dispose pas de tous les éléments ou lorsqu'il manque de temps. Cette capacité ne résulte pas d'un savoir théorique mais d'une pratique, celle qui fait tout le prix d"un expert expérimenté par rapport à un novice.

Le laboratoire d'ethnométhodologie de Paris VII s'est penché sur la question du sens commun et sur la possibilité de le formaliser. Les conclusions ont été très prudentes : l'essentiel du sens commun consiste à inventer des règles ad hoc pour chaque situation nouvelle. Il semble à première vue difficile de trouver un algorithme ou un programme générateur de systèmes experts capable de produire des règles ad hoc en fonction d'un contexte variable. C'est pourquoi les systèmes experts sont toujours limités à un domaine d'application très restreint.
 
 

Les systèmes experts

Un système expert ne peut se concevoir que dans les domaines où l'expertise existe, c'est-à-dire des domaines où le savoir-faire est suffisamment stable pour qu'il soit formalisable. Si dans le domaine de l'évaluation des risques, dans celui du calcul financier, une expertise ayant un haut coefficient de certitude est possible, dans le domaine boursier, une expertise semblable est beaucoup plus douteuse, étant donné que les règles du marché changent relativement vite.

Les constructeurs proposent surtout des générateurs de systèmes experts qui ne sont pas des produits finis, mais de simples coquilles attendant de recevoir la connaissance de l'expert. Ces générateurs peuvent en principe recevoir une grande variété d'application, comme Guru d'ISE-CEGOS ou TWAICE de Nixdorf. Choisir un générateur c'est choisir un moteur d'inférence. Ces derniers peuvent être classés selon leur ordre. Le moteur est d'ordre 0 ou 0+ s'il traite des propositions logiques simples. I1 est d'ordre 1 s'il fait appel à la logique des prédicats et d'ordre 2 s'il peut traiter non seulement les propositions mais les relations entre les propositions. La plupart des générateurs sont d'ordre 0 ou 0+, moins puissants mais plus faciles à développer. Ils sont en général suffisants pour les cas de diagnostic. Pour la prévision, les systèmes d'ordre 1 avec une logique floue (qui, au lieu de n'admettre que deux valeurs de vérité, vrai et faux, affecte un poids de vraisemblance aux faits) sont préférables, dans la mesure où toutes les informations n'ont pas le même caractère de certitude.

L'IA n'est pas seulement un outil de diagnostic, elle permet aussi une meilleure convivialité par la réalisation d'interfaces homme-machine qui sont susceptible de choisir des règles et d'afficher un commentaire en langage naturel pour justifier ce choix. Elle fournit par exemple des traces graphiques de paramètres, et, non seulement des raisonnements, mais des explications de ces raisonnements.
 
 

Le S.E. décortiqué

Un système expert est un programme conçu pour imiter le comportement d'un expert humain. Un tel programme, dans l'état actuel de la technique, n'est possible que si :

1_une expertise humaine existe,

2_le domaine d'application est suffisamment restreint

3_nous disposons de connaissances précises.

Le système expert proprement dit se compose de trois parties distinctes une base de connaissances, un moteur d'inférence et enfin une base de faits. La base de connaissance contient l'ensemble du savoir de l'expert humain, formalisé de telle sorte qu'il puisse être utilisé par la machine. Le moteur d'inférence constitue la partie logique de la machine, ce qui permet d'enchaîner les faits et les connaissances pour parvenir A une conclusion. La base de faits représente la partie interactive du programme, c'est-à-dire l'ensemble des informations fournies par l'utilisateur.

Fabriquer un système expert implique la formalisation du savoir d'un expert humain. Ce savoir se décompose en trois parties : la connaissance des faits, la connaissance des régularités, et la connaissance résultant des expériences. Un expert ne sait pas toujours s'exprimer et ignore assez souvent les règles grâce auxquelles il gère son savoir. Le travail de l'ingénieur cogniticien est de recueillir ces données et d'établir des règles A partir des régularités observés par l'expert humain. Son travail est ensuite transmis au programmeur qui l'adapte A l'outil informatique.

Exemple de règle tiré de Mycin, système expert historique utilisé pour le diagnostic des maladies du sang : si

1. l'identité d'un germe n'est pas connue avec certitude

2. le germe est gram négatif

3. la morphologie de l'organisme est bâtonnet

4. le germe est aérobie alors

il y a de fortes chances (0,8) que le germe soit de type entérobactériaceae.

Une fois que les règles sont établies, on élabore un prototype afin que l'expert puisse ajouter ou retrancher des connaissances ou des règles en le voyant fonctionner. Le système expert final est développé sur la base de ce prototype. Bien star, la machine n'est pas plus infaillible que l'expert humain, elle est comme lui incomplète et doit être entretenue, réactualisée régulièrement.

Par exemple, un système expert d'aide à la demande en mariage élaboré autour de l'expert Sacha Guitry pourrait fonctionner de la manière suivante

Règle 1. Si X est un homme et si Y est une femme S'ils s'aiment et qu'ils se marient, alors ils seront malheureux. Règle 2. Si X est un homme et si Y est une femme S'ils se détestent et qu'ils se marient, alors ils seront malheureux. Règle 3. On est moins malheureux quand on n'est pas déçu. Règle 4. Un mariage d'amour malheureux est cause de déception. Conclusion. I1 vaut mieux se marier avec une personne qu'on déteste.
 
 

Aide au diagnostic

Par exemple, la création d'une machine capable de donner des conseils pour faire le bonheur de l'humanité se heurterait à des difficultés, non pas pour des raisons informatiques mais plutôt pour des raisons philosophiques. Une fois que le domaine de connaissance est circonscrit, il faut établir des règles logiques qui permettent à la machine de tirer des conclusions à partir d'une situation donnée. Historiquement, le premier système expert, MYCIN, était un système d'aide médical qui permettait de diagnostiquer certaines maladies. L'utilisateur devait répondre à un certains nombres de questions posées par l'ordinateur, du type "le malade a-t-il de la fièvre ?" La réponse orientait les questions suivantes. A la fin, l'ordinateur rendait son verdict. Un tel système n'avait évidemment pas pour vocation de remplacer un véritable médecin, mais, plus humblement, il pouvait aider un personnel para-médical à soigner les maladies les plus fréquentes dans des situations difficiles.
 
 

L'ère industrielle

Après avoir fait figure de curiosité de laboratoire les systèmes experts sont entrés dans l'ère industrielle. Ils permettent, entre autre, le diagnostic des pannes et l'évaluation des risques. Par exemple, Charley, le système expert de Général Motors, mis au point par EDS, permet de trouver l'origine d'une défaillance dans une voiture. Parmi les multiples raisons qui ont poussé Général Motors a mettre au point un tel système, figure un souci de rentabilité présenté de manière assez curieuse : Charles Amble a travaillé chez nous pendant plus de trente ans, confie le directeur de la production. Il prend sa retraite cette année. Bien sûr, personne n'est irremplaçable et il existe sûrement des jeunes qui ont ses capacités. Mais avec Charles Amble, ce qui s'en va, c'est 30 ans d'expérience. Qui .seront à jamais perdu. A moins qu'on ne rassemble son expérience, son expertise, et qu'on en fasse un système expert. Une façon de montrer à Charles Amble que son travail n'a pas été vain, qu'il laisse une trace de son passage. Et une manière pour Général Motors de ne pas perdre le fruit de la longue formation de son personnel.
 
 

La logique temporelle

Un extraordinaire dynamisme anime la recherche en ce domaine. C'est ainsi que la logique temporelle qui, jusqu'à présent n'était rien d'autre qu'une fantaisie de logiciens amateurs de Lewis Carroll, est devenue, à son tour, opérationnelle. Jusqu'ici, en effet, les ordinateurs ne savaient pas rendre compte du temps dans leur raisonnement. Ils savaient calculer, mais n'arrivaient pas à utiliser les multiples conjugaisons de notre langage naturel. Ils n'arrivaient pas davantage à résoudre les classiques problèmes de croisement de trains qui ont fait l'enfer de nos études primaires. Et une machine restant muette devant un problème qu'un enfant est capable de résoudre, ça ne fait pas très sérieux ! La logique temporelle, logique qui parvient à formaliser le temps, est arrivée à point nommé pour permettre aux ordinateurs, aux systèmes experts en particulier, de résoudre des questions du type . étant donné que Jean a été chargé de cours pendant quatre ans avant de. devenir professeur et qu'il est devenu professeur en 77, était-il chargé de cours en 75 ? Le système Socrates est l'un des premiers à permettre une représentation des connaissances avec des indications de temps. I1 a été développé par GEC Marconi Ltd. et l'Université d'Edimbourg.
 
 

La deuxième génération

Par ailleurs, les systèmes experts sont en train d'évoluer pour aborder la deuxième génération. Dans la première génération, le concept de connaissance a remplacé celui de donnée. Autrement dit, au lieu de considérer qu'un ordinateur ne traite que des données brutes, non structurées, on s'est mis à envisager le traitement d'une information contenant un principe d'organisation, ce qu'on appelle une connaissance. De là sont nés les systèmes experts. Mais ces systèmes se sont heurtés à de nombreux problèmes, notamment celui de l'extraction de la connaissance. En effet, l'expert dont on veut récupérer la connaissance ne sait pas toujours communiquer sa connaissance. I1 n'est pas expert en expertise. La seconde génération de système expert pallie cet inconvénient en utilisant une deuxième couche de connaissances qui permet de chercher comment l'expert trouve son expertise. I1 s'agit là d'une puissante aide â la réalisation de système expert, d'où un gain de temps et d'argent.
 
 

Les réseaux neuronaux

Laboratoire Neural Computer en Californie. Terry White, style vieil hippy des années 60, s'escrime à expliquer les concepts de la Bourse à un ordinateur équipé d'une caméra. Il lui montre un graphique. Puis un autre. Puis un troisième, etc. Supposons que vous vouliez construire un ordinateur susceptible de reconnaître un objet usuel comme une cigarette, explique Terry White, avec un scanner et un bon logiciel, n'importe quel micro classique peut y parvenir. Toutes les cigarettes ont à peu près la même forme, la même. taille. et la même couleur. Il n'est donc pas très difficile de les définir. Si maintenant vous voulez que votre ordinateur favori soit capable de reconnaître un briquet, vous entrez dans un univers d'une redoutable complexité : un briquet peut avoir potentiellement toutes les formes, toutes les couleurs et sa taille. peut varier dans un rapport de 1 à 5. Ici, nous testons des réseaux neuronaux, capables d'apprendre eux-mêmes à reconnaître un type de situation financière à partir de paramètres flous et de données incomplètes.

Au lieu de définir, on présente à la machine un exemplaire de l'objet, puis un autre, puis encore un autre... plusieurs dizaines de milliers de fois. La machine se débrouille comme elle peut pour répertorier les informations. Quand le nombre de cas présentés à l'ordinateur est suffisant, il est en mesure d'identifier si un objet quelconque est ou n'est pas un briquet. En clair, il est devenu capable de faire son propre apprentissage. Et pour un peu moins de 100 dollars, un réseau neuronal peut être installé sur un micro.

Par exemple, le constructeur allemand Siemens en utilise régulièrement depuis deux ans pour détecter les défauts de fabrication des ventilateurs pour voiture. Le système marche dans 90% des cas, affirme Wolfgang Feix, le chef du projet, Siemens vérifie maintenant tous les ventilateurs de voiture avec des réseaux neuronaux. Quant à la Défense américaine, elle va dépenser plus de 400 millions de dollars sur huit ans pour financer des recherches. La DARPA (Defense Advanced Research Projects Agency) a lancé un appel d'offres pour développer des réseaux neuronaux susceptibles de reconnaître automatiquement des cibles, des paroles, des signaux radars et sismiques. A son tour, Thomson s'est lancé dans l'aventure pour interpréter correctement des signaux radars.
 
 

Mariage des mathématiques et de la biologie

Pourquoi a-t-il fallu attendre aussi longtemps pour que les spécialistes du secteur se ruent sur les réseaux neuronaux ? L'histoire commence au lendemain de la Deuxième guerre mondiale. Les premiers ordinateurs sont à peine sortis des usines que déjà un duo anglais composé d'un neurophysiologue et d'un mathématicien (Mc Cullogh et Pitts) imagine de construire des machines capables de voir, raisonner et de se souvenir. Dans la quiétude de leur laboratoire, les deux savants pensent qu'il suffit de s'inspirer de la structure du cerveau, des neurones en particulier, pour fabriquer des ordinateurs intelligents. Une dizaine d'année plus tard, en 1959, naît le Perceptron, première machine pensante conçue selon le modèle neuronal. De nombreux laboratoires américains se lancent avec enthousiasme dans l'aventure. Frank Rosenblatt, l'heureux papa du Perceptron, ignore encore que son bébé est mort-né et clame qu'il s'agit là de la découverte la plus importante du siècle.
 
 

La chasse aux sorcières

Malheureusement pour lui, Marvin Minsky, grand prêtre de l'intelligence artificielle, mathématicien génial et directeur de recherche au MIT, refuse de baptiser le bébé et tente plutôt d'exorciser le démon du Perceptron. Au terme d'une démonstration mathématique qu'il croit définitive, Minsky affirme que le perceptron est terriblement limité, qu'il ne pourra jamais distinguer un zéro pointé d'un coucher de soleil. Le coup est d'autant plus fatal que, derrière cette grand-messe d'experts en théologie mathématique, se cache en réalité un enjeu bien séculier : à qui et à quoi seront alloués les crédits de la recherche. Le résultat de l'excommunication du grand inquisiteur fut de transférer les crédits vers une informatique plus classique.

Pendant plus de vingt ans, nul ne songe à contester l'infaillibilité du grand Minsky tant est ancrée l'idée que les mathématiques sont le temple ultime de la vérité absolue. Les disciples croient donc dévotement qu'il est impossible de fabriquer des ordinateurs performants sur le principe des réseaux neuronaux. Malgré les restrictions budgétaires, les partisans de Mc Cullogh et Pitts continuent pourtant leur recherche.
 
 

Reconnaître un visage

De leur côté, les informaticiens tentent désespérément de mettre au point des ordinateurs capables de faire ce que le plus ahuri de nos contemporains fait instantanément, comme reconnaître un visage dans une foule ou regarder par la fenêtre pour savoir s'il va pleuvoir. Curieusement, ces opérations simples résistent aux assauts informatiques. L'idée de recourir à des machines susceptibles d'apprendre elles-mêmes refait surface. Et un beau jour, en 1984, la Thinking Machine corporation exhibe un magnifique réseau neuronal violant allègrement les impossibilités mathématiques établies par Minsky. I can't believe it !, s'exclame le mathématicien à l'annonce de la nouvelle. Mais il doit accepter les faits une machine multicouche capable d'apprendre elle-même vient effectivement d'être construite.