Modélisation de la CompleXité
Programme européen MCX
"Modélisation de la CompleXité"

Association pour la Pensée Complexe
Association pour la Pensée Complexe
 

Note de lecture

Rédigée par LE MOIGNE Jean-Louis sur l'ouvrage de VARENNE Franck :
« QU’EST-CE QUE L’INFORMATIQUE ? »
     Editions J VRIN (Librairie philosophique) 2009, ISBN 978 2 71116 2178, 125 pages.

Ce titre, d’emblée, m’a attiré comme, je l’espère, il attirera l’attention de beaucoup de lecteurs ? Car enfin, allons nous longtemps encore assurer chaque jours que nos civilisation vivent sous ‘l’emprise de l’informatique’ sans être capable de proposer une définition ’généralement acceptable et surtout acceptée’ de cette artificieuse entité crée par des humains qui se soumettraient à son hypothétique et pervasive emprise sans même s’interroger sur nature ou son statut . N’en va-t-il pas de la ‘Dignitas Humanisà laquelle nos civilisations sont légitimement fières de se référer ?

Pourtant, chacun en convient on rencontre rarement un accord stable et utile sur cette définition : certes, pragmatiquement on se dit que, comme pour ‘La Marseillaise’, l’air importe plus que les paroles ! Mais cette convention tacite risque de devenir fragile voire perverse quand ce mot passe-partout devient une discipline scientifique enseignable : Les français en particulier, sont fiers d’enseigner dans leurs universités puis dans leurs écoles la ‘Science Informatique’, science de plein rang disposant de facultés et de diplômes autonomes, et même, suprême honneur, de fauteuils réservés au sein de l’Académie des sciences.

Si l’informatique n’est plus seulement une collection disparate de technologies encore inclassables car trop nouvelles et trop vite évolutives, mais une disciplines scientifique dument assermentée, elle devient constituante de nos cultures et de notre entendement. Pourtant un relatif et pudique silence semble encore masquer cette inattention à sa légitimité épistémique : ne témoigne –elle pas d’une ‘inculture’ que les académies devraient tenir pour indigne d’un peuple civilisé. Pour se référer loyalement à son éthique, une pragmatique ne doit-elle pas s’exercer à sa légitimation épistémique ? Sinon, à l’instar de la théorie  (dite) scientifique de ‘la pureté ethnique’, on fait presqu’à son insu, des Auschwitz.

Aussi comprend-t-on que je me sois précipité sur ce petit livre d’un ‘philosophe & ingénieur en informatique’ dont je suivais avec intérêt les études sur la modélisation et la simulation. En intitulant son essai ‘Qu’est ce que l’informatique ? et en le publiant dans une collection dédiée ‘aux étudiants mais aussi au grand public cultivé’, ne relève-t-il pas courageusement un défi que depuis 50 ans nos cultures scientifique et philosophique, encore engoncées dans leur tradition scientiste et post scientiste affectent d’ignorer ? : Reconnaitre la pertinence de cette question, ce serait convenir que le Roi ‘Autorité Académique’ est nu !

Le fait que F Varenne écrive en philosophe s’adressant à des philosophes, en puisant l’essentiel de ses références dans la littérature de philosophie des science anglo saxonne est sans doute un petit handicap pour le ‘grand public cultivé’ qui aspire à une réponse moins ésotérique dans sa forme que celle proposée en conclusion (p.67) : « Qu’est ce que l’informatique ? …. Plus brièvement, elle est une technologie d’entrecroisement automatique et programmable des voies de la référence ».

Certes ce ‘public cultivé’ conviendra volontiers qu’il n’est pas inutile d’éclairer aussi la réponse par les voies de la critique des  philosophes de profession. Mais il sera tenté de rappeler la réponse qu’H A Simon ajoutait à ce constat résigné : « Si nous mettons de côté notre nostalgie pour un vocabulaire riche mais largement non opérationnel et que nous nous focalisons plutôt sur les processus de pensée observables, nous voyons que nous sommes beaucoup plus avancés dans la compréhension de ces processus que ce que nous accorde …( tels philosophes professionnels…) . Nous n’avons pas à attendre l’“ordinateur de demain” pour comprendre ... le phénomène de l’insight : … Il est entièrement visible dans le comportement des ordinateurs d’aujourd’hui lorsqu’ils sont programmés de manière appropriée pour simuler la pensée humaine.1 »

Cette tension entre ‘le langage opérationnel’ des praticiens réfléchissant  et ‘le langage non opérationnel’ des philosophes spéculant est perceptible dans tout le texte de F Varennes : On sent qu’il a assez de pratique réflexive pour aller de l’avant et on a l’impression qu’il a trop de sagesse académique pour prendre le risque d’être accusé de ne pas jouer le jeu des références aux maîtres dans leur langage. Ses critiques seront toujours feutrés et il n’osera pas convenir qu’il lui faut faire un travail critique d’épistémologue alors que tant  de ses pairs ne veulent connaitre qu’une philosophie des sciences qui doit ignorer les critiques épistémique internes qui se développent pourtant sous leurs yeux et les nôtres dans tant de disciplines.

L’exercice il est vrai est rendu plus difficile encore par un banal et classique problème linguistique.  Là où l’anglais dit ‘computer science’ le français dit ‘science informatique’, et le mot ‘informatique’ employé en français soit en attribut  soit en substantif, n’a pas en général un équivalent unique en anglais. Quant au mot français’ ‘intelligence’, il se traduit en général par ‘cleverness’ en anglais , mais  l’anglais ‘intelligence’ peut légitimement être traduit aussi par ‘intelligence’ en français (vivre en bonne intelligence, avoir des intelligences dans la place, etc…). De là dérive bien des maladresses d’interprétations auxquelles les traducteurs ne veillent pas assez.

 

F Varenne se livre ici a un travail de critique épistémique trop prudent à mon gré, même si in fine il s’attache à suggérer quelques critiques qui pourraient utilement être plus sévères. Mais qui osera dire par exemple que les définitions officielle de l’ordinateur et de l’informatique proposée par l’Académie française ne sont pas du tout satisfaisantes et ne correspondent pas à l’usage ? Pour l’avoir fait en 1984 puis en 1990, dans des textes que F Varenne ignore (il est vrai que je n’utilisais pas ‘un vocabulaire largement non opérationnel’), je sais d’expérience que les institutions universitaires et académiques n’ont pas voulu entendre ces appels valéryens au ‘nettoyage préalables de la situation verbale’: trente ans après, ces textes ne me semblent pas avoir pas perdu beaucoup de leur pertinence ! Si bien que le courage de F Varenne reposant ces mêmes questions de définitions réfléchies et argumentées, m’a récursivement encouragé à les retrouver en 2009  et à les proposer en Documents du Site du Réseau2 (L’informatique est-elle une science ?’(1984) et « La science informatique va-t-elle construire sa propre épistémologie ?» (1990). Il importe d’abord de pouvoir poser les questions avant de s’attacher à discuter des réponses.

Il reste quelques arguments importants qui me semblent devoir être retravaillé avec plus d’attention par la jeune science informatique qui se doit de s’exercer à sa propre critique épistémique interne plus encore que ses consœurs ‘Nouvelles Sciences (apparues après 1948 dans les académies et les enseignements).

Le premier et peut-être le plus important est explicité des 1962 par H A Simon dans un dialogue avec le logicien et épistémologue WO Quine, sous le titre : «The Computer as a Laboratory for Epistemology, (que l’on peut traduire dans le langage retenu ici par F Varenne : « L'informatique, un laboratoire de l'épistémologie»). On assiste ici à un renversement de la perspective : ce n’est plus l’informatique qui demande à l’épistémologie souveraine de légitimer sa scientificité, mais c’est l’informatique qui peut et doit s’attacher à contribuer, à partir de ses expériences, au développement de l’épistémologie. (H Simon reviendra sur cet argument dans un petit texte de 1990 significativement intitulé : ‘Epistemology :  Formal and empirical’3

Le suivant tient à la capacité de la science informatique à s’exercer à !a construction critique permanente de sa légitimation épistémique. On doit ici à HA Simon une contribution qu’il n’est pas légitime d’ignorer, d’autant plus que l’on ne dispose pas encore d’d’exposé alternatif satisfaisant, le premier chapitre de l’ouvrage de F Varenne en témoigne fort bien. Il m’a ainsi donné l’ idée de rendre accessible la traduction français du ‘Manifeste ‘ que H  Simon avait publié (avec A Newell et A Perlis) , en 1967, sous le titre  ‘What is computer science ?. Traduction (que j’avais publiée en 1984 puis 1990 dans des revues aujourd’hui disparues) qu’il devenait légitime de rendre à nouveau accessible en l’éditant dans la rubrique des ‘Introuvables de H Simon en langue française’ du Site du Réseau. Ce manifeste initial éclaire je crois la synthèse épistémologique que H Simon publiera en 1975 (avec A Newell) sous le titre « Computer science as Empirical Inquiry, Symbol and  Search », synthèse reliant, au sein de ce que nous appelons en français la science informatique, les sciences de la computation et l’intelligence artificielle4.

            Si F Varennes avait prêté attention à cette ‘Conférence Turing 1975’ il aurait probablement mieux souligné trois arguments qui s’avère toujours important pour notre entendement du phénomène informatique imprégnant désormais nos cultures

                        D’abord en reconnaissant que ‘le Computer’ n’est pas d’abord un ‘calculateur numérique’ au sens de J von Neumann, mais un ‘processeur de symboles’, permettant surtout des ‘Non-numérical-computations’ (selon le mot de H Simon et A Newell) : digitaliser n’est pas numériser  et l’ordinateur ne manipule pas des chiffres ou des nombres, mais des digits. Ce qu’avait souligné A Turing tentant dès 1947 de développer initialement l’ACE (Automated Computing Engine), alors que ‘l’école von Neumann imposait aux USA  le ‘super calculateur numérique’ n’acceptant que des programmes configurés à partir d’algorithmes de calculs numériques.

                        Puis en convenant qu’un ‘computer’ peut traiter des ‘heuristiques programmables’ traitant tous type de symboles et pas seulement des algorithmes numériques5. C’est sur cet argument que H Simon et A Newell surent dés 1952 développer les langages de programmation de listes de symboles (la série des programmes de ‘Iist processing’ (IPL 1 fonctionne dés 1956) permettant la computation de tâtonnement heuristiques, qui seront à la base des développements de l’intelligence artificielle … ( et par là, de notre ‘entendement de l’informatique’ ) puis de l’enrichissement de nos compréhensions des processus de cognition naturels et artificiels . C’est sur cette base aussi que la capacité d’un système computationnel à ‘construire récursivement’ (H von Foerster, 1976) des symboles (irréductibles à des ‘tokens’) peut –être entendue et par là interprétée. 

                        Enfin en restaurant dans son intelligible et irréductible complexité le concept de symbole : « Il convient de remettre au premier plan le rôle des symboles  … dans le fonctionnement de l’ordinateur  et dans les usages qu’on en fait » souligne très justement F Varenne (p.26). Mais il ne ‘poussera pas assez avant son avantage’, si j’ose cette métaphore échiquéenne. Certes il nous invite à retrouver des pages de F Dagognet (1979) ou de G Chazal’(1995). Ne fallait il pas inviter ses lecteurs à méditer plus avant la question qu’explore  H Simon et A Newell dans leur Conférence Turing de 1975 : «Qu'est-ce qu'un symbole, qu'une intelligence puisse utiliser, et qu'est-ce qu'une intelligence, qui puisse utiliser un symbole ?

            Mon troisième argument porte sur la complexité des concepts liés de symbole et de computation de systèmes de symboles. Concepts qui semblent encore embarrasser la plupart des philosophes des sciences s’interrogeant sur le phénomène informatique (et sur celui, évidemment lié, de l’information). F Varenne (p. 18+) propose de l’aborder de façon que je croie trop prudente là aussi, en tentant de contourner la solution formelle rassurante d’un bien hypothétique clivage de la syntaxe (pour l’informatique) et de la sémantique (pour l’information), par la théorie des ‘niveaux de langages’. Ce qui le conduit incidemment à un quasi contre sens (p.26) sur la puissante définition triadique de l’information entendue dans sa ‘complexité opératoire’ de G Bateson (1971) : « l’information est une différence qui engendre une autre différence ». Cet embarras des philosophes des sciences m’avait déjà surpris en 1991 lors d’un débat de la Société Française de Philosophie sur ‘les capacités et incapacités des machines’. Le clivage usuel syntaxe-sémantique se manifestait dans les échanges visant surtout à discuter de la position exacte du curseur entre la machine (bête et l’homme (intelligent). L’intervention d’un philosophe, Francis Jacques, qui ne retint guerre l’attention de ses collègues, mérite pourtant d’être rapportée :

« Vous avancez à juste titre que l'intelligence humaine est une aptitude à manipuler des symboles. Je tiens comme vous qu'elle peut continuer à être définie ainsi. Une première remarque : les symboles en question doivent être pris a la fois sous l'aspect de la syntaxe —  c'est le plus communément perçu —, sous l'aspect de la sémantiqueon vient de l'évoquer —, enfin sous celui de la pragmatique, dès lors que dans leur usage effectif les symboles sont en contexte de communication : on « signifie » toujours pour quelqu'un ou avec quelqu'un.  Or, les progrès de la science logique ont été, à cet égard, relativement lents. Le point de vue sémantique n'a été consciemment pris en compté qu'autour des années 1940 après les entretiens à Harvard de Carnap avec Tarski.  Le point de vue pragmatique, dernier venu, n'a été systématiquement examiné qu'une vingtaine d'années plus tard avec Bar Hillel et Montague.

            Cette reconnaissance du caractère fondamentalement triadique du concept de symbole et de celui associé, d’information, à la fois syntaxique, sémantique et pragmatique, inséparables, est aujourd’hui encore rarement entendu tant par les scientifiques que par les philosophes. Il est pourtant acquis depuis longtemps, impliquant le primat du fonctionnel sur le formel. F Jacques aurait certes pu citer aussi C Morris (1938) , W Weaver (1948), H Simon (1969) ou G Bateson (1971) à l’appui de sa thèse, mais l’important est dans la reconnaissance active de cet ‘à la fois’  qui interdit de ‘simplifier d’abord’ dés lors que l’on veut penser intentionnellement en assumant la nécessaire médiation du complexe symbole. Reconnaissance qui incite à un exercice de critique épistémique, qui de G Bachelard (1934) puis T S Kuhn(1963), HA Simon (1969) à E Morin (1977-1991) renouvelle aujourd’hui notre  Paradigme de référence : l’Informatique pratiquée et pratiquante autant que la science informatique toujours en genèse de la matrice épistémique qui la forme autant qu’elle la forme, n’y contribue-t-elle pas ?

F Varennes achève son ouvrage par deux commentaires de deux textes qu’il tient probablement pour représentatif de l’état de l’art de la philosophie de la science informatique. Il éclaire ainsi par deux exemples la démarche à la fois empathique et critique qu’il préconise pour entreprendre avec sagesse une navigation dans l’archipel des littératures scientifiques sur l’informatique en permanentes transformations par marées et courants imprévus. Il ne nous dit pas pourquoi il a sélectionné cette page de J von Neumann (1951) souvent citée et une autre de B J Copeland de 2004 (extrait de l’article ‘Computation’ d’une encyclopédie) page  peu connue et consacrée à une attaque d’un texte d’A Newell. Je me suis demandé si son ouvrage aurait eu une coloration différente si au lieu de citer et commenter une page de von Neumann, il avait cité une page de A Turing, et si au lieu d’une page de Copeland, il avait cité et commenté une page de A Newell ? Pour avoir écrit l’article ‘Computation’ d’un autre dictionnaire, je crois que la tonalité de son livre n’eut alors  pas été la même.

Ce qui n’enlève rien à l’intérêt et à l’opportunité de son livre courageux : qu’il suscite discussions et nouvelles réflexions en témoigne au contraire. Ici les enjeux ne sont pas byzantines querelles d’écoles, mais enjeu de civilisation que nous percevons par la fermentation d’une révolution épistémologique à laquelle l’informatique contribue souterrainement (E Morin appelle cela ‘Le principe de la taupe’, qui creuse ses galeries souterraines et transforme le sous sol avant que la surface en soit affectée’). Il nous appartient à tous d’y être attentif.

JL Le Moigne, août 2009.


[1] Extrait de la Conclusion d’un article de H Simon traduit de l‘anglais et publié dans la revue Intellectica, 1999/1, 28, pp. 115-137, sous le titre ‘L’explication en termes de traitement de l’information des phénomènes de Gestalt’’. Accessible par

 http://www.intellectica.org/archives/n28/28_05_Simon.pdf     

[3] Publié dans  W . Sieg  (ed;), Klluwer1990): ‘Acting and Reflecting. The interdisciplinary turn in philosophy’,  p.127-8

[4]. J’ai consacré à ce texte une étude attentive publiée dans la RIA, vol 16, N0° 1-2/2002, sous le titre  ‘Sur un exceptionnel manifeste épistémologique : «Symbols and Search»’

[5] « A ‘rule of thumb process’ and a ‘machine process’ are synonymous. … At least a very close analogyécrivait A Turing en 1947. Cf. la monographic de A Hodges,1983, p.318

Fiche mise en ligne le 13/09/2009


 > Les statistiques du site :