LES LEÇONS DE LA MÉCANIQUE QUANTIQUE :

VERS UNE ÉPISTÉMOLOGIE FORMALISÉE

Mioara Mugur-Schächter *

Document disponible sur le site MCX-APC

Note. Le texte qui suit est le manuscrit d'un article envoyé à la revue Le Débat. Il y a été publié dans le N° 94, Mars-Avril, 1997, avec des modifications insignifiantes consistant surtout en une fragmentation en sous-chapitres portant des titres destinés à faciliter la lecture.

L'objectif de ce texte était de communiquer à un public plus large un constat et un but qui ont pu fédérer quelques chercheurs de compétences différentes pour constituer ensemble un Centre pour la Synthèse d'une Épistémologie Formalisée (CeSEF) qui travaille depuis 1994. Les premiers résultats de ces travaux pourront être trouvés dans un premier livre collectif intitulé Proposals in Epistemology : Quantum Mechanics, Cognition and Action, Kluwer Academic Press, Mioara Mugur-Schächter and Alwyn van der Merwe, eds., March 2002.


LES MODES DE CONCEPTUALISATION DU REEL CHANGENT

Sur les frontières de la pensée on peut discerner des formes nouvelles. Certaines se sont installées depuis des dizaines d'années, d'autres sont en train d'émerger. On les étiquette par des termes comme "décidabilité", "auto-organisation", "systémique", "information", "chaos", "fractal", "complexité". Globalement, ces formes nouvelles manifestent certains changements dans les bases de nos conceptions.

Chez les mathématiciens s'est établie la notion que les possibilités de principe des actions mathématiques ont des limites (la cohérence formelle d'une assertion mathématique, avec les données explicites qui définissent le système formel où cette assertion est formulée, n'est pas toujours décidable à l'intérieur de ce système, etc.).

Les frontières entre le système étudié et le reste, son environnement, s'esquivent. Les biologistes attirent l'attention sur l'absence, dans une entité vivante, de tout support matériel invariant, et même de toute stabilité seulement fonctionnelle qui soit entièrement préétablie, "programmée", indépendamment du milieu. Ils parlent d'"organisation autopoïetique" et de "clôture organisationnelle" par quoi un système vivant reconstitue constamment sa matière, ses formes et ses fonctions, par des processus où la rétroaction sur le système, des effets de ses interactions avec le "milieu", joue un rôle aussi fondamental que les caractères propres du système. Ils parlent également d'ensembles de systèmes qui interagissent entre eux et avec le milieu commun, constituant ainsi des "réseaux auto-organisants" où les formes, les caractères et les fonctions - cette fois aussi de groupe tout autant qu'individuels - dépendent de façon cruciale des interactions.

Dès qu'il s'agit du vivant l'artificiel dans la distinction entre cause et but devient frappant. La pensée "systémique" met en évidence l'importance décisive, pour tout être ainsi que pour ces méta-êtres que sont les organisations sociales, des modélisations pragmatiques, des "conceptions" induites par des buts subjectifs, qu'on place dans le futur mais qui façonnent les actions présentes. Ces buts, liés à des croyances et à des anticipations, rétroagissent sur l'action au fur et à mesure que celle-ci en rapproche ou en éloigne, cependant que l'action, en se développant, modifie les buts. Il en résulte une dynamique complexe dépendante de sa propre histoire et du contexte et qui requiert une approche cognitiviste et évolutionniste.

La théorie de (la communication de) l'information introduit, pour la description de la circulation des messages, une représentation probabiliste d'un type nouveau selon laquelle tout message reçu dépend inévitablement de la nature du "canal" de transmission des messages, pas seulement du message envoyé : selon l'approche informationnelle ce qu'on observe est posé explicitement comme étant foncièrement relatif à la modalité par laquelle on arrive à percevoir. La possibilité d'une absolutisation "objectivante" (reconstruction du message envoyé) est étudiée en second lieu et les conditions de sa réalisation sont établies indépendamment, et en fonction des modalités de l'observation.

Les investigateurs du "chaos" dissolvent une confusion millénaire en élaborant d'une part des exemples mathématiques abstraits et d'autre part des simulations, qui démontrent que le déterminisme n'entraîne pas la prévisibilité : côte à côte, les modélisations déterministes et la pleine reconnaissance du caractère marqué d'aléatoire des faits tels que nous les percevons directement, accèdent ensemble à l'indépendance. La croyance factice qu'il faudrait choisir entre un postulat de déterminisme ou un postulat de hasard, s'évapore, et tout un monde de questions nouvelles concernant les relations entre les bases de ces deux postulats, devient désormais visible.

Les philosophes de la "complexité" intègrent des paysages conceptuels où des boucles incessantes d'actions et rétroactions engendrent des hiérarchies inextricablement imbriquées de complexifications de matière, d'individus, de consciences, d'artefacts, d'organisations sociales, de savoirs.

On pourrait prolonger l'énumération. Partout les contours de séparations qu'on posait comme évidentes et absolues, se couvrent de tremblements et fissures. Mais déjà, par les exemples mentionnés, on sent qu'il s'agit là de changements qui, bien que distincts en surface, sont liés. On sent aussi que les implications de ces changements descendent très bas, qu'elles touchent et modifient les pentes de la toute première strate de notre conceptualisation, celles où s'est forgée la structure générale de notre façon actuelle de penser et de parler. Mais la nature de modifications de cette sorte, précisément parce qu'elles changent la manière établie de penser et parler, est très difficile à saisir en faisant travailler la manière établie de penser et parler. L'existence de telles modifications devient donc manifeste longtemps avant qu'on puisse discerner en quoi elles consistent.

QUESTION

Cette existence, en tant que telle, avant d'avoir essayé d'en expliciter le contenu, pose problème. La conceptualisation, par l'homme, de ce qu'il appelle le "réel", est elle-même un phénomène "réel". N'est-elle alors pas soumise à des lois, à des invariances ? En un certain sens, il doit en être ainsi, mais en quel sens, exactement ?

Comment infiltrer nos regards assez profondément et comment faire pour être sûrs de saisir et de fixer dans l'exprimé les contenus de la transmutation qui est en cours ? Sans avoir à attendre des dizaines d'années que le processus s'accomplisse par le cumul aléatoire des savoirs et de leurs interactions ? Comment élaborer une représentation intégrée ?

Il serait d'une cruciale utilité qu'on réussisse. Seul ce qui est connu d'une façon explicite et globalisée acquiert un contour et devient perceptible de l'"extérieur", et ce n'est qu'alors qu'on peut le détacher et en faire un véritable instrument, maniable délibérément.

LA MÉCANIQUE QUANTIQUE

Préalables

Au début de ce siècle la théorie de la relativité a réduit - au sens où l'on réduit une fracture - la structure du concept d'espace-temps qui sous-tend les descriptions d'événements physiques de toute nature. Et à partir de 1924 la mécanique quantique a creusé des canaux formels-conceptuels-opérationnels qui permettent aux actes épistémiques de l'homme de s'appliquer directement sur de l'inobservable et d'en extraire des prévisions observables qui se vérifient souvent avec des précisions troublantes. Bien sûr, il s'agit là de révolutions confidentielles qui n'ont véritablement réorganisé que la pensée d'un nombre de gens relativement infime. Mais les philosophes et les épistémologues, aidés par les vulgarisations de quelques physiciens, ont engendré un processus de communication par lequel - à l'état informel et osmotiquement - des vues de la physique moderne ont infusé plus ou moins dans beaucoup d'esprits. Les nouvelles approches qui se développent actuellement ont germé sur ce terrain changé.

Je fais maintenant l'affirmation suivante - probablement surprenante - qui me paraît cruciale.

La mécanique quantique, comme un scaphandre, PEUT nous faire descendre jusqu'au niveau des actes véritablement premiers de notre conceptualisation du réel. Et, à partir de là, elle peut INDUIRE une compréhension explicite de certains traits fondamentaux de la nouvelle pensée scientifique.

La possibilité de cette descente et remontée est indiquée par les considérations suivantes.

Notre manière de concevoir l'"objet", ce qu'on sépare du "reste" afin de pouvoir examiner, raisonner, communiquer, marque toutes nos pensées et actions. Or, quasi unanimement, le mot d'"objet" est encore ressenti par le sens commun comme pointant vers un désigné qui est foncièrement lié à de l'invariance (matérielle, morphique et fonctionnelle) et à ce qu'on pourrait appeler une "objectité" intrinsèque qui préexisterait à tout acte d'observation et de conceptualisation. Tout notre langage, toute la logique et la pensée probabiliste classiques, sont fondés sur ce postulat, plus ou moins implicite. (Un tel postulat incline à réfléchir en termes simplifiés, de déterminations à sens unique, et de prédictibilité illimitée). Il semble clair qu'une telle conception de l'objet n'est pas cohérente avec l'essence des notions modernes d'information et d'auto-organisation, par exemple. Mais avec la mécanique quantique elle se trouve en contradiction directe, radicale, et spécifiable en termes simples (1). J'essayerai de le montrer en ce qui suit.

La mécanique quantique étudie les "états de microsystèmes". Ces mots désignent des entités dont nous affirmons l'existence mais qui ne sont pas directement perceptibles par l'homme. Pourtant la théorie quantique les qualifie, et en termes de prévisions qui se vérifient avec des précisions qui souvent dépassent l'imagination. Comment est-ce possible? Comment, tout d'abord, un état inconnu, d'un objet microscopique, peut-il être fixé en tant qu'objet d'étude ? Et si l'on y arrive, comment, exactement, agit-on pour étudier un tel objet ? Quelle sorte de description peut-on en faire ?

J'essaierai, en répondant, de mettre en évidence comment s'entrelacent inextricablement des concepts, avec des opérations et des données, et avec les mots et signes d'étiquetage ; comment émergent progressivement des structures de penser-et-dire ; comment des flous ou des glissements d'étiquetage peuvent créer des problèmes illusoires; et finalement, en quoi consiste l'importance épistémologique fondamentale et révolutionnaire du type de description construit. L'objet de l'exposé qui suit est ce processus de constitution d'un tissus cognitif particulièrement difficile à engendrer parce qu'il part de rien.

La stratégie descriptionnelle et l'émergence du formalisme

Le processus de description d'un micro-état peut être présenté en trois étapes :

- Une étape d'investigation expérimentale.

- Une étape d'expression des résultats expérimentaux en termes d'un algorithme mathématique prévisionnel.

- Une étape interprétative : le problème ontologique et sa solution minimale dynamique.

La teneur et l'étendue de la révolution conceptuelle encryptée dans la mécanique quantique pourront être spécifiées ensuite.

L'étape d'investigation expérimentale

Comment fixer un micro-état en tant qu'objet d'étude? En le CRÉANT. Nous imaginons donc des entités non percevables que nous baptisons micro-états. Nous voulons les "connaître". Il faut alors mettre en place des appareils macroscopiques qui soient aptes à développer, à partir d'interactions avec ces objets présupposés, des marques qui, elles, soient percevables par nous. Mais une médiation de ce genre ne suffit pas. En effet comment savoir à quel micro-état assigner telle marque? En l'absence de quelque précaution appropriée, les marques observables que des micro-états produiraient sur un appareil, ne pourrait pas être assignées chacune à un micro-état spécifié. Ces marques ne seraient donc pas des descriptions, elles ne seraient que des données connaissables en tant que telles. Une description, par la définition du concept, concerne un objet spécifié. L'investigation doit donc débuter par une action qui, à partir du niveau macroscopique auquel l'homme est rivé, fixe de quelque façon un micro-état spécifié, quitte à le fabriquer. La phase de description arrive ensuite et elle pose d'autres problèmes.

On est en général obligé de scinder tout processus de description d'un micro-état, en deux actions cognitives indépendantes, une première action de création de cet état, et une opération subséquente de qualification de l'état créé.

Donc tout d'abord, à l'aide d'objets et de manipulations macroscopiques, on accomplit une "opération de préparation d'état" et on admet, on pose, que cette opération produit un micro-état "correspondant" qui est précisément l'objet d'étude fixé que présuppose toute tentative de description. Indiquons ce micro-état par la lettre grecque y. L'opération de préparation respective peut être alors indiquée par le symbole Py. Mais soulignons que le symbole y n'est rien de plus qu'un étiquetage, il ne pointe pas vers quelque connaissance. Ce symbole ne fait qu'Ancrer dans du langage le postulat que, dès qu'une opération donnée de préparation a été accomplie, un exemplaire du micro-état correspondant "existe" en un sens purement factuel. Que - factuellement - cet état a été extrait du continuum du réel, qu'il a été individualisé face à ce continuum, qu'il a été doté de certaines spécificités physiques imprimées par l'opération de préparation, et qu'en ce sens il constitue désormais un objet d'étude "spécifié".

Comment "étudier" un objet encore entièrement inconnu et qui ne peut être perçu? En le CHANGEANT par une opération qui en tire une qualification percevable. Une description n'exige pas seulement un objet spécifié, elle exige également un ou plusieurs modes spécifiés de qualification. Lorsqu'on qualifie un objet on le qualifie toujours relativement à quelque point de vue, quelque biais de qualification, couleur, forme, poids, etc. Une qualification dans l'absolu n'existe pas. Supposons alors qu'il s'agisse, par exemple, d'une qualification de couleur. Le mot couleur lui-même n'indique pas une qualification bien définie, il indique une "nature commune" à tout un ensemble ou spectre de qualifications, rouge, vert, jaune, etc. ; une sorte de dimension ou récipient sémantique où l'on peut loger toutes ces qualifications qui constituent le spectre. On pourrait alors dire, par exemple, que rouge est une valeur (pas numérique, en ce cas) que la dimension de couleur peut loger, ou qu'elle peut manifester ou prendre, et que la couleur ne peut se manifester que par les valeurs de son spectre. Il en va de même pour ce qu'on appelle forme, poids, position, énergie, bref, pour tout ce qui indique un biais de qualification. Si l'on voulait abréger et préciser le langage écrit, une notation convenable pour une valeur de couleur serait alors Cj où C indique la dimension sémantique générale de couleur et l'indice j indique la manifestation particulière de couleur considérée (pour vert on mettra j=v, pour rouge j=r, etc.); on peut alors indiquer le spectre de la qualification de couleur par la notation {Cj, j=r,v,...}.

Comment apprend-on quelle est la couleur d'un objet ? On assure une interaction de "mesure" entre l'objet et notre appareil sensoriel visuel, c'est à dire on le regarde. On peut indiquer cette interaction de mesure par le symbole M(C). L'interaction produit une sensation visuelle et celle-ci, par des apprentissages, est associée à un mot, par exemple rouge, qui exprime le "résultat" de la mesure, en ce cas donc ce que nous avons symbolisé par Cr. Mais un aveugle, comment peut-il procéder? Il peut mettre l'objet dans le champ d'un spectromètre de couleurs connecté à un ordinateur à voix qui annonce en noms de couleurs les résultats de l'analyse spectrale qu'il opère. Ainsi un effet produit par une interaction avec un appareil différent des appareils sensoriels biologiques de l'aveugle, est perçu par un appareil sensoriel biologique dont l'aveugle dispose, par son ouïe. Bref, en tout cas il faut produire une interaction de mesure M(C) dont l'effet soit perceptible, et soit traduisible en termes de la valeur Cj du spectre de la qualification de couleur.

Jusqu'à quel point ce schéma qui fonctionne dans notre vie courante peut-il s'appliquer lorsqu'on veut décrire un micro-état y spécifié par une opération de préparation Py? La question est loin d'être triviale. Il s'agit de qualifier un objet qui a été spécifié d'une manière strictement opérationnelle, A-COGNITIVE. L'étiquetage y pointe vers un objet physique encore confiné hors du domaine du connu, entièrement immergé dans la pure factualité. On n'est pas en présence d'un objet comme celui imaginé plus haut qui, en vertu d'une propriété dont on admet que d'ores et déjà elle est réalisée en lui, de façon intrinsèque, indépendamment de toute interaction (la propriété d'émettre des radiations d'une certaine longueur d'onde), est apte à produire le résultat dénommé "rouge" s'il interagit avec nos yeux ou avec un spectromètre. On ne peut pas agir à l'égard d'un micro-état comme l'aveugle qui veut obtenir un renseignement de couleur. En effet l'aveugle sait que l'objet dont il ne peut voir la couleur existe, car il peut le toucher, l'entendre tomber, etc., il en dispose déjà pour le manipuler, et il admet à l'avance que cet objet "possède" de la couleur. C'est sur la base de ces acquis qu'il soumet l'objet tel qu'il est, à une interaction avec un détecteur de couleur, i.e. un appareil qui identifie une qualité préexistante. Tandis qu'en ce qui concerne un micro-état on ne sait à l'avance RIEN, pas même qu'il existe. On pose qu'il existe. Et il s'agit justement de forger une toute première phase de connaissance à son égard, ce qui, chemin faisant, devrait aussi "prouver" son "existence" après coup. On manque donc de toute raison qui nous permette d'admettre qu'un micro-état posséderait une caractéristique intrinsèque quelconque. Le fait que c'est nous qui avons "spécifié" ce micro-état factuellement à l'aide d'une opération de préparation qui, elle, nous est connue, ne nous renseigne nullement sur la façon d'être du micro-état correspondant.

Or connaître veut dire être en possession de quelque description. Et décrire veut dire qualifier. Et qualifier veut dire spécifier des "valeurs" de quelque biais de qualification donné. Et lorsqu'il s'agit de qualifications par des interactions physiques, se donner un biais de qualification veut dire ceci et seulement ceci : spécifier un mode opératoire d'interaction et la structure des macro-objets impliqués, c'est à dire spécifier une "opération de mesure" et "l'appareil de mesure" correspondant. Et, bien sûr, il faut dénommer, étiqueter, organiser du langage, car il faut pouvoir communiquer et raisonner.

En ces conditions, afin de décrire un micro-état on procède de la façon suivante. On définit opérationnellement un biais (une dimension) de qualification, en spécifiant un mode opératoire d'interaction avec le micro-état à étudier, ainsi que l'appareil impliqué. Celui-ci étant tel que lorsque le mode opératoire d'interaction est appliqué au micro-état il se produit un effet perceptible (marque visible, déclic, etc.). On admet a priori qu'en général le micro-état à étudier, lorsqu'il est soumis au mode opératoire d'interaction, change, d'une façon qu'on ne connaît pas. Mais ce changement inconnu est défini factuellement, à savoir c'est "celui qui correspond au mode opératoire mis en action". Donc l'interaction ne détecte pas une propriété intrinsèque préexistante de l'objet, elle crée une propriété perceptible d'interaction. En même temps on introduit un langage correspondant, en prolongation du schéma qui fonctionne pour nos descriptions de tous les jours. Une dimension de qualification opératoire d'un micro-état y est rebaptisé observable quantique et les manifestations perceptibles d'une observable quantique sont dénommées ses valeurs propres. L'ensemble des valeurs propres possibles d'une observable quantique constitue son spectre. Le mode opératoire d'interaction qui définit l'observable quantique est dénommé (opération de) mesure de l'observable. Selon ce langage "la mesure d'une observable quantique crée une valeur propre perceptible de cette observable". Mais il ne faut pas oublier qu'une observable quantique n'est pas une propriété d'un micro-état, c'est une opération d'interaction d'un micro-état avec un appareil macroscopique, donc la valeur propre perceptible créée qualifie l'interaction. On peut indiquer une observable quantique quelconque par X, et une valeur propre particulière "j" de X, par Xj ; alors le spectre de X est l'ensemble des valeurs propres {Xj, j=1,2,..n...}. On peut indiquer par M(X) l'opération de mesure correspondant à X, et par A(X) l'appareil impliqué. Enfin, on organise un mode de repérage et de distinction mutuelle des effets perceptibles produits par les interactions de mesure. Chaque tel effet effet est étiqueté, selon une règle explicite de correspondance, par une valeur propre Xj, qui devient ainsi la "signification" de cet effet. Pour spécifier une observable quantique particulière on peut remplacer X par une autre majuscule, B, C, etc.

Bref :

Afin de qualifier un micro-état on définit des dimensions de qualification opératoires qui sont des interactions entre ce micro-état et un appareil macroscopique et qui créent des effets d'interaction perceptibles interprétés selon certaines règles en termes prédéfinis de "valeurs propres d'observables quantiques".

On voit que le but de connaître des micro-états oblige à une attitude descriptionnelle radicalement active :

On doit créer aussi bien les objets de description que les qualifications.

Suivons maintenant en détail le déroulement qui conduit à la description d'un micro-état.

Supposons que le micro-état y produit par une réalisation de l'opération de préparation Py est soumis à une opération de mesure M(B) correspondant à une observable quantique particulière B. Ceci change l'état de départ y jusqu'à ce qu'il produise l'enregistrement, par l'appareil A(B) mis en jeu, d'un effet perceptible qui "signifie" l'une, disons B4, parmi les valeurs propres de B. Au bout de cette opération :

- La manifestation perceptible B4 incorpore une inamovible relativité à l'opération de mesure M(B) qui a permis de l'obtenir.

- L'exemplaire individuel d'un micro-état y qui a été soumis à l'opération individuelle de mesure M(B), en général n'existe plus, il est détruit.

Imaginons maintenant que l'on refait d'un grand nombre de fois l'opération de préparation Py et que, à chaque fois, sur l'exemplaire respectif d'un micro-état y que l'on a obtenu, on réalise l'opération de mesure M(B). Si l'on trouvait à chaque fois le même résultat B4 que l'on avait trouvé la première fois, on se dirait ceci : "Le micro-état y est tel que, s'il est soumis à l'opération de mesure M(B) il conduit invariablement au résultat B4. Donc la caractérisation de y face à l'opération de mesure M(B) est accomplie, elle consiste dans la valeur propre B4. Il me reste maintenant à examiner y face aux autres opérations de mesure, M(C), M(D), etc. aussi".

Mais en fait ce n'est pas ainsi que les choses se passent en général. En général la réitération un très grand nombre de fois de la paire unique d'opérations macroscopiques [Py,M(B)] fait apparaître tout le spectre {Bj, j=1,2,...6,...} de valeurs propres de B :

La situation se révèle être statistique.

En ces conditions la valeur propre B4 à elle seule n'est pas caractéristique du micro-état y. D'autant plus que, puisqu'un micro-état y spécifié mais quelconque, comme celui de notre exemple, peut faire apparaître tout le spectre {Bj, j=1,2,...6,...}, il est clair que la valeur propre particulière B4 peut apparaître via l'opération de mesure M(B) à partir d'une infinité de micro-états différents, produits par des opérations de préparation Py différentes. En quoi peut alors consister la caractérisation du micro-état y face à l'opération de mesure M(B)?

La réponse n'est pas particulière aux cas examinés en mécanique quantique. Pour l'obtenir on peut penser à une situation statistique quelconque de la vie courante. Pensons par exemple à des échantillons de sable prélevés sur des plages différentes et mis en éprouvettes non étiquetées, une seule éprouvette pour chacune des plages, séparément. Imaginons qu'on veuille caractériser les contenus des éprouvettes les uns par rapport aux autres. Choisissons alors un biais de qualification, par exemple celui de "structure chimique" des grains de sable, et examinons ses "valeurs" (telle ou telle sorte de structure chimique). On peut retrouver dans un très grand nombre d'éprouvettes un grain isolé d'une même structure chimique donnée (tel ou tel composé de silicium, etc.). D'autre part, dans une éprouvette on trouve en général des grains de structures chimiques différentes. Donc en général la structure chimique d'un seul grain ne pourra en effet pas caractériser l'éprouvette. Mais comptons, dans chaque éprouvette, pour chaque sorte de structure chimique, le nombre de grains de cette structure-là, et rapportons le au nombre total des grains dans l'éprouvette. Nous établissons ainsi pour chaque éprouvette l'entière distribution statistique des fréquences relatives d'occurrence des valeurs du spectre de structure chimique. Si le nombre total des grains dans une éprouvette est assez grand, il est très improbable de trouver la même distribution pour deux éprouvettes distinctes. Il n'est pas tout à fait impossible que deux ou plusieurs éprouvettes montrent exactement la même distribution. Mais on sent bien que ceci est beaucoup plus improbable que de trouver un seul grain de même structure dans deux ou plusieurs éprouvettes différentes. On approche donc d'une caractérisation mutuelle des éprouvettes.

Pour un micro-état la situation est analogue. Bien entendu, en un certain sens l'exemple des grains de sable est faussant : les sortes de structures chimiques des grains préexistent telles quelles dans les grains, l'acte d'observation simplement les détecte, tandis que les valeurs propres d'une observable quantique sont des effets d'interaction créés au cours de cet acte. Pourtant cet exemple suffit pour indiquer pourquoi un nouveau pas vers une caractérisation d'un micro-état y consiste à établir la distribution statistique des fréquences relatives obtenues, à partir de y, pour l'entier spectre de valeurs propres {Bj, j=1,2,...} d'une observable quantique B. En termes imagés on peut dire que la distribution statistique des fréquences relatives du spectre de valeurs propres {Bj, j=1,2,...} est la forme de l'ombre que le micro-état y jette sur le plan du perceptible selon la "direction" de qualification B.

Soulignons tout de suite que la distribution statistique du spectre de valeurs propres {Bj, j=1,2,...} est elle aussi relative à l'opération de mesure M(B) mise un jeu. Cela veut dire ceci. Si le même micro-état y (produit par la même opération de préparation Py) est examiné via des de opérations de mesure M(C) correspondant à une autre observable quantique C, différente de B, on trouve en général une distribution probabiliste différente de celle trouvée pour B.

Repensons maintenant aux éprouvettes contenant des grains de sable. Il n'est pas absolument exclu que les grains de deux éprouvettes provenant de deux plages différentes fournissent la même distribution statistique des fréquences relatives des "valeurs" de composition chimique. Alors, afin d'augmenter la probabilité d'avoir véritablement caractérisé mutuellement les éprouvettes, on peut rechercher, pour chaque éprouvette, la distribution des fréquences relatives des "valeurs" de qualification pour deux biais de qualification différents, par exemple la composition chimique et la forme.

De même, la caractérisation du micro-état y n'est pas encore achevée lorsqu'on a établi pour cet état la distribution statistique des fréquences relatives des valeurs propres d'une seule observable quantique. Et l'on peut montrer ceci. Afin de caractériser sans ambiguïté un micro-état y il faut établir, à partir de y, les distributions statistiques des valeurs propres pour au moins deux observables quantiques différentes, B et C?B, telles que les opérations de mesure correspondantes M(B) et M(C) soient mutuellement exclusives, c'est à dire, qu'il ne soit pas possible de les réaliser toutes les deux à la fois sur un seul exemplaire de micro-état y. Ces deux distributions constituent en ce cas une pleine caractérisation de y. En termes imagés on peut dire que, afin d'obtenir une caractérisation d'un micro-état, il faut connaître les formes des ombres que y jette sur le plan du perceptible le long d'au moins deux "directions" de qualification faisant un "angle" non nul.

L'étape d'investigation expérimentale est alors accomplie. Elle peut se résumer ainsi.

Par un très grand nombre de réitérations de deux couples d'opérations macroscopiques [Py,M(B)] et [Py,M(C)] qui mettent tous en jeu une même opération de préparation d'état Py mais deux opérations de mesure M(B) et M(C) mutuellement exclusives, on peut acquérir concernant le micro-état y correspondant à Py une certaine connaissance globale, probabiliste, qui est un invariant observationnel associé à Py et qui, en ce sens, "caractérise" l'effet supposé de Py que nous appelons un micro-état y.

L'étape d'expression des résultats expérimentaux, par un algorithme mathématique prévisionnel.

L'investigation expérimentale esquissée plus haut admet une représentation abstraite par un algorithme mathématique prévisionnel. Pour chaque observable quantique la mécanique quantique définit un descripteur mathématique dénommé l'opérateur de cette observable. A l'aide de ces opérateurs il est possible de construire pour toute opération de préparation Py fixée, une fonction mathématique correspondante y(r,t) - fonction d'état ou fonction de probabilités - qui représente l'ensemble de tous les résultats expérimentaux obtenus en utilisant Py (r indique une position dans l'espace physique et t indique le temps). On dit que "y(r,t) représente le micro-état y produit par Py". Une fois que la fonction de probabilité correspondant à Py a été construite, des algorithmes simples impliquant cette fonction et les opérateurs quantiques permettent désormais de calculer des prévisions quantitatives concernant les résultats de toute opération de mesure subséquente accomplie sur le micro-état état y produit par l'opération de préparation Py. Des prévisions seulement probabilistes, globales, pas des prévisions individuelles affirmées chacune avec certitude. Mais - à leur propre niveau probabiliste - ces prévisions introduisent des précisions déconcertantes concernant des effets perceptibles de phénomènes non perçus, supposés seulement ; des précisions qui mettent en jeu des fractions infimes des unités macroscopiques de temps et de longueur ; et pourtant ces prévisions se vérifient souvent avec ces mêmes précisions déconcertantes. Désormais on saura donc à l'avance, par calcul, que, si c'est l'opération Py qui est accomplie et si en outre c'est telle évolution de mesure M(X) qui suit cette préparation, alors telle manifestation observable Xj émergera avec telle probabilité. On le saura pour toute observable quantique X et toute valeur propre Xj.

Ainsi le symbole y qui au départ n'était rien de plus qu'un simple étiquetage, subit finalement une transmutation en un outil mathématique y(r,t) de description probabiliste prévisionnelle.

L'opacité qui sépare le supposé niveau microscopique, du niveau de perception et d'action de l'homme, est - en ce sens - levée. A travers elle agit désormais une structure descriptionnelle complexe et cohérente d'opérations, concepts, mots et symbolisations, données expérimentales, et algorithmes calculatoires. Une structure descriptionnelle prévisionnelle et vérifiable.

Le domaine d'application du formalisme quantique

L'argument usuel selon lequel la mécanique quantique devrait pouvoir s'appliquer "universellement", i.e. aux macrosystèmes aussi, parce que tout système matériel est constitué de microsystèmes, est fallacieux. L'"universalité" du formalisme quantique, on le verra, se trouve ailleurs, pas là. L'exposé qui précède montre clairement à quel point les caractéristiques du mode de description quantique sont induites par les deux circonstances suivantes. En premier lieu, par les contraintes qu'impose une phase originelle des processus de conceptualisation, celle qui part du zéro absolu de connaissance. C'est la situation cognitive qui se réalise dans cette phase, spécifiquement, qui oblige de créer - en général - l'objet étudié, par une définition purement factuelle, indépendante de l'assignation de toute propriété spécifiée ; c'est cette situation cognitive qui oblige ensuite de créer aussi les qualifications que l'on peut observer ; c'est cette situation cognitive qui oblige d'accepter une caractérisation observationnelle probabiliste des micro-états. En outre, en deuxième lieu, le but de qualifier les micro-états dans les termes particulier d'un langage mécaniques (position, quantité de mouvement, moment de la quantité de mouvement, etc.) imprime lui aussi sa marque : Il induit la forme mathématique des opérateurs OX associés aux observables quantiques X (de même que le choix des appareils A(X) et de opérations de mesure M(X)).

C'est LA SITUATION COGNITIVE et le but descriptionnel - pas la structure interne de l'objet d'étude - qui délimitent le domaine de pertinence des descriptions quantiques face au domaine de pertinence des descriptions "classiques". Dès que la situation cognitive ou le but descriptionnel change la mécanique quantique - telle quelle - ne s'applique plus.

Ici s'achève l'exposé schématique du procédé par lequel la mécanique quantique aboutit à "décrire l'état d'un microsystème".

Le problème ontologique

Depuis sa création et à ce jour le formalisme quantique reste inséparable de ce qu'on peut appeler "le problème ontologique". Celui-ci est lié aux obscurités et oscillations qui marquent la signification de la fonction y(r,t) : S'agit-il vraiment d'une "description d'un micro-état"? Et si la réponse est positive, de quelle sorte de description peut-on parler? Quelle est, au juste, la relation entre la fonction y(r,t) et les micro-états "eux-mêmes "?

Revenons aux relativités qui marquent la connaissance globale représentée par une fonction y(r,t). J'ai souligné que les enregistrements observables auxquels se rapporte cette fonction ne peuvent être regardés comme des "propriétés" que le supposé micro-état étiqueté y, tel qu'on l'imagine avoir émergé de l'opération de préparation Py, possédait d'emblée, avant toute évolution de mesure, d'une façon déjà actuelle, réalisée, et réalisée pour lui, intrinsèquement, indépendamment de tout acte d'observation. Concernant l'ontologie des micro-états, leur façon d'être indépendamment de nos actions cognitives sur eux, la mécanique quantique paraît alors n'offrir strictement aucun renseignement. Elle paraît n'avoir forgé aucune sorte de modèle "intrinsèque" de ce qui est indiqué par le symbole y, avoir construit juste des outils de prévisions relatives à l'opération Py et à telle ou telle sorte M(X) d'opération de mesure.

En est-il vraiment ainsi ? Les structures de mots-et-concepts sont les conduits de la pensée et elles ont leurs propres lois de cohérence. Il faut respecter ces lois, sinon on égare la pensée. Mais n'est-il vraiment pas possible, en l'occurrence, d'exhiber une structure cohérente de mots-et-concepts qui permette d'affirmer que la mécanique quantique conduit aussi à des descriptions des micro-états ? Ne peut-on vraiment pas exhiber une ontologie cohérente avec le formalisme construit? Pas un modèle détaillé et mathématisé, comme celui de de Broglie-Bohm par exemple, juste une première "explication" ontologique minimale de la description transférée quantique, qui constitue un terrain ferme pour toute élaboration ultérieure plus détaillée ?

Certains nient l'existence du problème. Leur argument est le suivant. Il est possible de reformuler les résultats résumés plus haut d'une façon strictement opérationnelle-prévisionnelle-observationnelle. C'est à dire, les termes à signifié inobservable, "micro-état y", préparation d'"état", peuvent être éliminés. On obtient ainsi une sorte de pont fait de purs algorithmes d'opérations physiques et calculs mathématiques qui ne "touchent" plus aucun supposé microscopique : si j'opère d'abord de la façon Y (renotation de Py) et j'opère ensuite de telle façon Z (renotation de M(X)), je sais à l'avance par calcul que j'ai telle probabilité d'observer telle marque sur tel appareil. Je le sais à l'aide de la fonction y(r,t) et cela est tout ce que le micro-état correspondant comporte d'"objectif". L'invariant lié à Py constitué par l'ensemble des lois de probabilité déterminé par y(r,t) décrit complètement l'effet observationnel de Py et cette description-là, dit-on, suffit. On peut donc, disent certains, se débarrasser en fin de parcours de toute trace de pensée hypothétique, comme on se débarrasse des éléments d'un échafaudage quand la bâtisse est achevée. D'autres vont plus loin et décrètent l'interdiction positiviste des interrogations ontologiques parce qu'elles seraient des adultérations philosophiques de la démarche scientifique.

Mais je soutiens qu'une telle épuration est à la fois impossible et frustrante. Qu'on y fasse référence verbalement ou pas, de l'ontologie d'appoint a été utilisée tout au long de l'action de construction du formalisme quantique, notamment dans le fait et les modes de préparer et surtout dans les choix d'un nom, d'une représentation mathématique OX, et d'un mode M(X) de "mesurer" pour chaque observable X. En effet, pourquoi précisément le choix de telle association nom-représentation-mathématique-mode-de-mesurer, plutôt qu'une autre? Chaque étape s'est appuyée sur des modèles non déclarés, voilà pourquoi (pour s'en convaincre il suffit de penser au procédé du "temps de vol" pour mesurer l'observable de quantité de mouvement, et aux règles associées pour calculer les valeurs propres de cette observable à partir des données enregistrées). Ce n'est pas le formalisme qui impose les choix de M(X) et A(X), c'est le physicien qui doit les faire, hors de la théorie, réduit à l'usage de ses intuitions et modèles plus ou moins explicites. Et toutes ces adductions ontologiques se sont incorporées à la forme et à l'efficacité des algorithmes obtenus. Un certain contenu ontologique est là, dissous et assimilé dans les algorithmes même, inséparable, CONFIRMÉ. Alors quel intérêt y a-t-il à escamoter ce contenu ontologique dans les façons finales de dire, en coupant ainsi les ponts avec nos propres modes d'agir mentaux? Le problème n'est pas de masquer l'existence d'un contenu inexpugnable et d'éviter l'effort d'identification. Le problème est d'expliciter ce contenu et de bien le comprendre. Lorsqu'une théorie est efficace on souhaite avoir une explication de son efficacité, sinon cette théorie produit l'illusion déplacée d'un miracle. Jamais aucun argument pragmatique, ni aucun décret, n'empêcheront les interrogations ontologiques de travailler jusqu'à ce que l'entendement ait atteint un de ces fonds de vallées des reliefs intérieurs où il se sent en situation stable parce qu'il considère qu'il a compris, qu'il a forgé un bloc de cohérence.

Il faut donc affronter le problème ontologique. Reconsidérons l'étape d'investigation expérimentale. Les manifestations d'une paire unique d'opérations [Py,M(X)] se révèlent statistiques, et ceci oblige, afin de caractériser un micro-état y, de réaliser un très grand nombre d'enregistrements de valeurs propres, tous à partir de y. Or en général l'état représenté par y n'existe plus après l'enregistrement d'une marque traduisible en termes de telle ou telle valeur propre Xj. Donc chaque séquence [(préparation)-(évolution de mesure)-(enregistrement)] brise le processus global de constitution de l'information statistique. L'état y doit être recréé pour chaque nouvel enregistrement. En ces conditions, se dit-on, comment peut-on être certain que l'opération de préparation Py, à chaque fois qu'elle est réalisée, recrée factuellement le même micro-état y, "identiquement" ?

Cette question d'identité est cruciale. Mais elle est aussi insidieuse car elle introduit un certain glissement.

Elle est cruciale pour la raison suivante. En absence d'une hypothèse d'identité de tous les micro-états y produits par les réitérations de l'opération de préparation Py - c'est à dire si l'on admettait que Py produit tantôt l'un de ces hypothétiques micro-états, tantôt un autre - on ne pourrait pas parler et raisonner en termes de "le (un) micro-état y spécifié correspondant à l'opération de préparation Py". Il n'y aurait alors aucun moyen de justifier un concept de "description d'un micro-état", car le concept de description exige la spécification de l'objet à qualifier. Nous serions renvoyés à la situation de départ, quand on se confrontait au problème de spécifier un objet d'étude, et cette fois notre pensée y resterait immobilisée. Nous resterions sans instrument mental pour faire une science du microphysique. L'alternative est donc la suivante. Ou bien on abandonne tout simplement le but de décrire des micro- états, ou bien on postule que toutes les réitérations d'une opération de préparation Py, telle que celle-ci se réalise par la reconstitution du même ensemble de paramètres macroscopiques, reproduisent "identiquement" la "même" entité "y". Cette alternative radicale est incontournable.

La mécanique quantique, puisqu'elle existe, a suivi la seule voie possible pour amorcer une action descriptionnelle : plus ou moins implicitement elle a admis un postulat d'identité.

D'autre part la question d'identité enlise dans des problèmes qui paraissent insolubles.

On se demande : Pourquoi un micro-état, toujours identiquement reproduit et soumis à chaque fois à l'évolution de mesure M(X) de l'une et même observable quantique X, conduirait-il en général à des valeurs propres Xj différentes, au lieu d'engendrer toujours la même valeur propre? Ne serait ce pas à cause du fait qu'un état de microsystème est une entité dont la "nature" est "essentiellement aléatoire"? Mais aussitôt on réagit : Quoi, exactement, peut vouloir dire une "nature essentiellement aléatoire" d'un micro-état? Ne s'agit-il pas, en fait, seulement de la quasi-certaine incapacité opératoire, de notre part, de reproduire, à partir de contraintes seulement macroscopiques, exactement le même état microscopique ? Car la notion qu'un micro-état serait, de par lui-même, "essentiellement" aléatoire (ou alors peut-être intrinsèquement aléatoire?), paraît vraiment très obscure. D'autre part, s'il s'agit bien de l'incapacité opératoire de reproduire exactement le même état microscopique, qu'est-ce qui me donne le droit de retourner une telle incapacité, en affirmation ontologique, d'un caractère "essentiellement aléatoire"? Et que signifie alors le postulat d'identité ? Qu'est-ce qui est identique? Et "exactement le même micro-état" de quel point de vue? Dans l'absolu? N'est-ce pas là un non-sens? Etc., etc., etc.

Et voilà la genèse du débat incessant et confus sur l'indéterminisme "prouvé" par la mécanique quantique. On contemple là, à l'oeuvre, étalées, les forces chaotiques qui naissent sous un langage mal dominé, et comment elles peuvent étourdir la pensée et l'enfoncer dans une boue de sens mélangés.

Une modélisation minimale

Mais pourquoi cet accident? Et quel serait, en ce cas, un langage "dominé"?

Les quelques considérations qui suivent indiquent une solution minimale au problème ontologique, qui - de par sa minimalité - ne s'engage en aucune dispute d'interprétation. Elle ne spécifie que le début de la voie du traitement du problème ontologique, nécessaire et suffisant pour ne pas arrêter la recherche amorcée avant d'être vraiment certain qu'elle est impossible. Il me paraît essentiel de discerner explicitement cette solution minimale. Car si elle n'avait pas existé le formalisme quantique n'aurait pas eu la résistance qu'il a : il y aurait eu du creux sous la croûte d'algorithmes et la théorie aurait craqué comme une noix vide. Cependant que l'existence et la structure de cette solution me semblent constituer l'innovation majeure comportée par la stratégie cognitive de la mécanique quantique, et aussi la source d'une révolution de l'entière épistémologie.

Le postulat d'identité n'est pas un acte de description, c'est un acte MÉTHODOLOGIQUE qui débloque le démarche descriptionnelle.

On a commencé par vouloir caractériser de manière observationnelle des hypothétiques micro-états. Initialement on imaginait (a) une relation individuelle entre une opération de préparation Py et le micro-état y correspondant (chaque réitération de Py reconstitue identiquement le micro-état y) et (b) une caractérisation observationnelle du micro-état y, individuelle elle aussi (une correspondance biunivoque et réciproque entre [Py,M(X)] et une valeur propre Xj de X). Mais le fait de la fluctuation des valeurs propres individuelles Xj lors des réitérations d'une paire [Py,M(X)] fixée exclut la possibilité d'une caractérisation observationnelle individuelle de l'objet "y". Alors on abandonne le but impossible d'une caractérisation observationnelle individuelle et on déplace sur le niveau probabiliste la recherche d'une caractérisation observationnelle. D'autre part - puisqu'il faut associer un objet défini à ce qui sera (éventuellement) "décrit" - on postule "tentativement" que, en dépit des fluctuations des valeurs propres Xj produites par une paire fixée [Py,M(X)], il existe un objet "y" qui se reproduit identiquement lors de toute réitération de Py, mais sans RIEN préciser concernant cet objet. On libère entièrement le contenu ontologique du désigné de l'étiquette "y", on le met en blanc. Le postulat d'identité ainsi introduit n'exige que la forme vide d'un invariant ontologique lié à Py, remettant à plus tard l'obligation de spécifier le sens qu'il sera logiquement consistant de loger dans cette forme. On décide, en somme, d'assigner a posteriori la dénomination d'"état y correspondant à Py", à CE qui pourra être regardé comme un invariant ontologique lié à l'opération de préparation Py, tout en misant qu'un tel invariant ontologique pourra être trouvé. Si toutefois il s'avérait impossible de trouver l'invariant ontologique recherché, la description d'entités micro physique amorcée devrait être reconnue comme impossible à achever, faute d'un objet de description spécifiable, et abandonnée, car une description purement opérationnelle-observationnelle, sans aucun modèle ontologique associé, tout simplement ne touche plus du micro physique (ceci mesure l'importance d'un modèle ontologique, que les positivistes croient pouvoir escamoter).

Le postulat d'identité est un moule ontologique vide imposé a priori de manière exploratoire, par un acte méthodologique. Il agit comme un feu vert conditionnel.

La mécanique quantique a réagi implicitement au problème d'identité par une stratégie dynamique et réflexive de confiance a priori et confirmation ou infirmation a posteriori.

Puisqu'elle est là et travaille la mécanique quantique a dû gagner son pari et incorporer un certain invariant ontologique minimal lié à une opération de préparation donnée, étiquetable comme l'"état y correspondant à Py". Quel est cet invariant ? On peut l'exprimer convenablement à l'aide du mode suivant de dire-et-penser.

L'enregistrement d'une valeur propre de l'observable quantique X, disons X4, est une manifestation d'une potentialité de changement que l'état "y" possédait intrinsèquement dès sa création par l'opération Py, mais relativement au processus de mesure M(X) possible ultérieurement. Et l'accomplissement ultérieur effectif d'un tel processus de mesure peut, avec telle probabilité, actualiser cette potentialité préexistante. Ce qui n'est qu'une façon d'intégrer délibérément dans le signifié du signe y, une "cause" de l'enregistrement X4, postulée rétroactivement, relativisée à M(X), et hypostasiée. Pour une autre valeur propre de l'observable X, disons X13, on parlera d'une autre potentialité relative du même micro-état y produit par l'opération Py et d'une autre probabilité correspondante d'actualisation. Et quand il s'agira des valeurs propres d'autres observables X'?X on dira qu'il se manifeste une autre "classe" de potentialités relatives et de probabilités d'actualisation du même micro-état y.

Bref, un objet d'étude au sens de la mécanique quantique - le désigné du symbole "y" correspondant à l'opération de préparation Py et l'objet de la description observationnelle tirée de la fonction y(r,t) - peut être pensé comme un réservoir d'un ensemble de classes différentes de potentialités de changements générateurs d'observation de valeurs propres Xj d'observables quantiques X, chaque classe étant relative au type M(X) d'opération de mesure qui doit être mis en oeuvre pour actualiser ses éléments par des interactions de transfert sur l'enregistreur de l'appareil A(X) comporté par M(X).

Ce réservoir de POTENTIALITÉS RELATIVES D'ACTUALISATION et l'ensemble de leurs probabilités - chacune posée égale à la probabilité quantique observationnelle correspondante - constituent l'invariant ontologique associé à Py.

Cet invariant peut être regardé comme le modèle ontologique minimal "conjugué" à l'invariant observationnel lié à Py via la fonction y(r,t).

On se munit ainsi d'une organisation de concepts-et-langage qui rend pleinement pertinente l'assertion que la fonction y(r,t) est - au sens propre du terme - une description transférée de propriétés d'un micro-objet associable à l'opération de préparation Py: les propriétés potentielles et relatives qui rendent ce micro-objet accessible à notre connaissance. Ceci est juste une figuration ontologique causalisante, rétroactive et minimale. Rien de plus que l'assertion après coup de l'existence dans "y" de potentialités relatives conçues ad hoc. L'assertion de l'existence toute nue, épurée de toute spécification d'un mode d'existence, de toute modélisation plus détaillée. La manière d'être des propriétés potentielles dont on affirme l'existence reste toujours en blanc.

Il n'est affirmé ni que l'invariant ontologique constitué par l'ensemble de classes de potentialités relatives lié à Py se réalise tout entier lors de chaque réitération individuelle de Py, ni que, au contraire, il ne se constitue que progressivement, à un niveau probabiliste de conceptualisation, à la manière de l'invariant observationnel lié à Py via la fonction y(r,t).

Ceux qui choisiront la première possibilité placeront - par postulat - au niveau individuel cet invariant ontologique associé à Py. Pour eux la fonction y(r,t) devra faire toboggan entre, d'une part le niveau de conceptualisation - probabiliste - de la phase de conceptualisation observationnelle, transférée, qui est la phase PREMIÈRE, et d'autre part, le niveau de conceptualisation - individuel - de la phase de conceptualisation ontologique, intrinsèque, qui est la phase SECONDE. La fonction y(r,t) continuera donc de jouer pour eux un rôle oblique, ambigu, à la fois modèle-ontologique-mais-pas-tout-à-fait et outil pour le calcul de probabilités prévisionnelles d'observation. Afin de compenser de quelque façon la non homogénéité de niveau entre le bout ontologique qu'il posent être individuel et le bout observationnel qui est probabiliste, ils devront continuer de se débattre dans les filets du "probabilisme individuel essentiel".

Ceux qui choisiront la deuxième possibilité placeront - par postulat - au niveau probabiliste l'invariant ontologique associé à Py. Pour eux la manière d'être individuelle d'un micro-état, que l'on imaginait au départ sous le symbole "y", échappera ENTIÈREMENT au désigné final de "y". Le bout ontologique et le bout observationnel de la description quantique se trouvant d'une manière homogène au niveau de conceptualisation probabiliste, la mécanique quantique actuelle leur apparaîtra comme une théorie probabiliste des micro-états où la fonction y(r,t) joue le rôle canonique d'une fonction de probabilité. Le problème d'une nature "essentiellement" aléatoire d'un micro-état, avec toutes ses conséquences protéiques, partira en fumée. Par contre, ceux qui placeront au niveau probabiliste l'invariant ontologique associé à Py devront admettre le problème - extérieur à la mécanique quantique - d'une modélisation future individuelle des micro-états, à l'intérieur d'une métathéorie qui soit enfin vraiment satisfaisante. Toutefois, en ce stade atteint par la seule spécification d'un invariant ontologique minimal lié à Py, où la formalisation ultérieure n'est pas encore tentée, ils pourront d'ores et déjà parler-et-penser concernant des micro-phénomènes, d'une façon intelligible et "simple", "normale", c'est à dire semblable à notre façon ancestrale de parler-et-penser concernant des macro-phénomènes.

Mais ce confort est loin d'épuiser les conséquences du modèle ontologique minimal. J'indiquerai dans le paragraphe qui suit en quel sens précisément ce modèle contient le germe de la révolution épistémique encryptée dans la mécanique quantique. Et ici j'ajoute ceci. L'analyse qui précède est une goutte dans laquelle se reflète une essence de la pensée. L'esprit de l'homme bâtit ainsi ses plus efficaces matrices de pensée-et-langage : d'une manière "causalisante" a posteriori et ad hoc. Ce n'est pas un opportunisme intellectuel, c'est une méthode d'insertion des produits de conceptualisation, dans les réseaux du raisonnement déductif. Là ils sont véhiculés le long de trajets lissés, "géodésiques", et maximalement compréhensibles pour l'esprit de l'homme tel qu'il se trouve que cet esprit-là s'est constitué au cours de l'évolution biologique. Les modèles ontologiques n'"existent" pas hors de nous, dans l'espace, comme une étoile, et ils ne se "découvrent" pas. C'est nous qui les fabriquons. Et notre façon de fabriquer à partir de nos perceptions, une ontologie qui nous plaise, qui nous apaise, qui nous mette dans une situation d'équilibre psycho-intellectuel, est causalisante. Ce trait correspond probablement à certaines optimalités d'adaptation (peut-être des maximisations de la rapidité et l'adéquation des réponses au milieu) en l'absence desquelles l'espèce aurait périclité. Ce qui suggère d'une manière irrépressible une certaine harmonie avec l'inconnaissable réel-tel-qu'il-est.

Ceci épuise ce que je voulais dire ici concernant la stratégie descriptionnelle de la mécanique quantique. On peut clore l'esquisse exposée par une belle formulation de Michel Bitbol : "...l'explication.....d'un phénomène consiste à décrire les "causes cachées" de ce phénomène; et sa validation dépend de la réussite d'un retournement prédictif du genre de description en quoi elle consiste" (3). Le sens assigné au formalisme quantique en termes de potentialités et actualisations relatives est en effet une "explication" par description de "causes cachées" microphysiques ; et la mutation de l'étiquette "y" de départ, en une fonction y(r,t), assure en effet "un retournement prédictif du genre de description en quoi elle (l'explication) consiste".

La révolution conceptuelle encryptée dans la mécanique quantique

Selon Kant les propriétés des entités physiques ne sont pas connaissables "telles qu'elles sont en elles-mêmes". Néanmoins il nous laissait libres de concevoir que ce sont ces propriétés-là, que les entités possèdent intrinsèquement de manière actuelle, qui produisent nos perceptions et donc nos connaissances. Or le formalisme quantique, on l'a vu, interdit même cela concernant un état de microsystème. Nos connaissances concernant un état de microsystème, pour autant qu'il est possible de les faire émerger et de les "expliquer", ne peuvent être conçues autrement que produites par des propriétés actualisées à partir des propriétés de l'état étudié mais différentes de celles-là.

Selon Wittgenstein la limite du dicible est constituée par ce qui ne peut être que "montré". Or la mécanique quantique implante cette limite plus bas. Elle l'implante dans des objets qui sans pouvoir être montrés, néanmoins peuvent être formés factuellement, puis étudiés jusqu'à pouvoir être aussi "dits", rétroactivement, puis même pré- dits.

Ces deux grandes références permettent de préciser ainsi la teneur de la révolution conceptuelle introduite par la mécanique quantique :

La stratégie cognitive de la mécanique quantique implante les racines de la conceptualisation en dessous de ce qui est pour l'homme une base première actuelle de chaînes de connaissance, une source première déjà constituée de perception, d'apparaître, de phénoménalité. Si l'on veut, via le formalisme quantique, relier du phénoménal à des "causes" microphysiques, ce formalisme doit être associé à une ontologie minimale de potentialités qui est enfoncée dans le non-connaissable d'un cran de plus que les ontologies courantes d'actualités préexistantes à la perception. Cette implantation plus profonde exclut l'attitude cognitive passive, constatative, qui se reflète dans les probabilités et la logique "classiques", elle oblige à de véritables actions cognitives, créatives des objets et des qualifications.

C'est de là que viennent les spécificités profondes des probabilités et de la logique quantiques. Les probabilités quantiques sont des probabilités d'actualisation délibérée de potentialités d'un tout de potentialités créé délibérément, pas des probabilités "classiques" de prise de connaissance d'actualités d'un ensemble d'actualités préexistantes. La logique quantique est une logique d'actualisation délibérée de potentialités d'un tout de potentialités créé délibérément, pas une logique "classique" d'actualités d'un ensemble d'actualités préexistantes.

Universalité

Une fois qu'on a perçu clairement la situation cognitive à laquelle est liée la mécanique quantique, très paradoxalement, par une fluctuation comparable à celle qui fait apparaître certains dessins d'un cube tantôt comme concaves et tantôt comme convexes, il s'accomplit une inversion. Ce qui, au premier abord, frappe dans l'approche quantique comme tellement nouveau, tout à coup apparaît comme doué au contraire d'une certaine sorte d'universalité, donc de "normalité": Il saute aux yeux que la phase tout à fait initiale de tout processus de conceptualisation comporte précisément les caractères que nous venons d'identifier dans le mode de conceptualisation quantique. Il existe bien entendu des cas "dégénérés". On ne retrouve pas toujours, à la fois, tous les caractères qui se réalisent pour un micro-état. Le cas des micro-états est extrême, radical, exemplaire. Mais il s'agit bien des spécificités de la même situation cognitive, celle de l'origine absolue d'une chaîne de conceptualisation. En effet lorsqu'on cherche les tout premiers débuts d'une chaîne de conceptualisation, on y trouve toujours des actes opératoires physiques de délimitation d'entités physiques, à partir du continuum du réel, par des "appareils", biologiques ou pas. Et en général (on peut penser par exemple à un prélèvement, pour analyse, d'un fragment microscopique de substance) l'accès à la connaissance n'est pas assuré par cet acte de délimitation. Il s'accomplit ensuite et indépendamment, par tel ou tel mode d'examen qui souvent crée les qualifications directement perçues. Celles-ci émergent donc inévitablement marquées de relativités au mode d'examen qui les a produites. L'existence d'un acte de création de l'objet d'étude, la scission entre cet acte et l'acte de qualification de cet objet, ainsi que le rôle créateur de l'acte de qualification face à la qualification perceptible qui émerge - avec les relativités qui en découlent -, sont des caractéristiques courantes de la toute première phase de tout processus de conceptualisation.

La toute première phase de tout processus de conceptualisation est foncièrement active, générative, RELATIVISANTE, et la création de l'objet d'étude s'y accomplit en général indépendamment de la création des qualifications de cet objet.

Or la logique et les probabilités classiques, liées au langage courant - et aussi à la théorie des ensembles - sont au contraire passives, constatatives et absolutisantes face à leur matière première. Les objets d'examen de la logique (les "sujets") sont simplement posés comme étant là, et les qualifications de ces objets (les "prédicats") sont systématiquement conçues comme des propriétés qui préexistent dans ces objets de façon déjà actuelle, intrinsèquement, indépendamment des actes par lesquels nous arrivons à les connaître. La description est conçue comme s'accomplissant d'un seul coup, lorsqu'on qualifie un objet qui préexiste. Des remarques analogues valent concernant les présupposés de la théorie classique des probabilités. Il est évident que désormais une vue aussi appauvrissante ne peut plus être considérée comme pertinente d'une manière fondamentale. Ainsi, en dessous du niveau zéro de la logique et des probabilités classiques, apparaît une strate non élaborée qui avait été occultée.

On peut organiser cette strate en représentant d'une manière explicite, à l'aide de définitions et de symboles, les deux sortes d'actes épistémiques fondamentaux, ceux de production d'un objet d'examen et ceux d'engendrement de qualifications de cet objet, et en mettant en évidence les relativités que ces actes épistémiques impriment à toute description. On obtient ainsi une "méthode générale de conceptualisation (génération de sens) relativisée". On est guidé par le formalisme quantique pour réaliser les représentations et unifications que cette méthode engendre.

Si l'on tient explicitement compte des étendues d'espace-temps liées à toute opération physique de génération d'un objet physique d'étude et à toute opération de première qualification d'un tel objet, toujours physique elle aussi, alors apparaissent certaines structures probabilistes-logiques d'espace-temps. Ces structures sont essentiellement différentes de celles - entièrement abstraites - mises en évidence dans la théorie classique des probabilités et dans la logique classique. Or la forme de ces structures reproduit exactement celle des structures arborescentes d'espace-temps qu'on peut expliciter du formalisme quantique pour le cas particulier des micro-états. Mais cette fois ces structures concernent la première phase des processus de conceptualisation QUELCONQUES. Ainsi le fait dont la perception intuitive directe est induite par la mécanique quantique, que les probabilités et la logique qui fondent TOUTE connaissance sont génératives, est retrouvé dans l'abstrait, par construction.

La mécanique quantique a capté et représenté pour le cas particulier des états de microsystèmes, d'une façon implicite et cryptique mais pour la première fois dans l'histoire de la pensée, certains traits UNIVERSELS de la toute première phase des processus par lesquels l'homme extrait des chaînes de connaissance du réel où il est plongé et auquel il appartient.

C'est en cela que consiste l'"universalité" de la mécanique quantique, elle n'émane nullement du fait que tout système matériel est constitué de microsystèmes. C'est le contenu universel qui tient à la situation cognitive caractéristique de toute phase de conceptualisation absolument première, qui est la source de l'impression d'essentiel que produit le formalisme quantique. Aucune autre théorie d'un domaine du réel, pas même la relativité d'Einstein, n'a capté d'aussi complexes connexions cognitives universelles et premières entre la pensée de l'homme et ce qu'on appelle le réel, et dans des représentations mathématiques d'une originalité et d'une rigueur comparable.

La perception explicite du véritable contenu universel du formalisme quantique, de son sens, et la reconstruction abstraite généralisée de ce contenu, posent les bases d'une révolution majeure de l'épistémologie. L'ouverture qui se déploie devant la théorie générale de la connaissance est proprement immense. On apprend par cette reconstruction abstraite qu'il est possible de construire formellement en dessous des conceptualisations logique et probabiliste classiques; qu'il est possible d'unifier ces conceptualisations en les rattachant à d'autres structures logiques et probabilistes plus profondes et reliées l'une à l'autre d'une manière plus claire et plus intime ; et que ces structures plus profondes sont à leur tour fondées sur certaines organisations individuelles et a-logiques qu'il est possible de spécifier.

LACUNES

Mais tout ceci reste très peu connu et compris. Les significations incorporées dans le formalisme quantique restent cryptiques, et même pour la plupart des physiciens, et même pour ceux qui manient ce formalisme, souvent magistralement. A fortiori la mécanique quantique est très peu reliée au développement des approches scientifiques nouvelles. En France elle est presque confinée dans un ghetto. Seul l'intérêt des philosophes la rattache - faiblement - au reste de la connaissance.

C'est un manque très regrettable. Une unification générative des probabilités avec la logique en dessous du niveau que l'on posait être le niveau zéro, un ancrage de cette unification dans de l'individuel et du a-logique, ne peuvent rester sans effet sur nos diverses stratégies de tous les jours. Une stratégie économique, financière, politique, concerne une entité créée en tant qu'un tout de potentialités, qu'on ne peut connaître, qualifier d'une manière objective, que via l'actualisation des potentialités qu'il contient. Par exemple, quand un candidat à la présidence de la république est élu sur la base du programme qu'il propose, cette action collective qui inclut celle du candidat et celle des élécteurs, peut être regardée comme une "opération de préparation" délibérée, dont l'effet est un tout de potentialités inconnu, bien que le candidat, son appartenance politique, la situation sociale, etc. soient connus : Seules les manifestations observables engendrées par des actualisations de potentialités de la situation créée, peuvent permettre, après coup, d'en acquérir une connaissance certaine, non hypothétique. Chacun peut construire d'autres exemples, financiers, économiques, sociaux.

Les probabilités et la logique classiques non seulement ne s'appliquent pas à la genèse des connaissances, mais en outre elles ne s'appliquent pas non plus aux STRATÉGIES, à nos actions finalisées.

Toutes nos actions découlent de notre pensée et celle-ci est frappée au sceau des structures logiques et probabilistes qui agissent dans nos esprits. Si elles y agissent sans être connues, leur action, comme les souvenirs refoulés hors du conscient, reste brute, non dominée, stupide parfois, au sens d'inadéquation aux buts. Cependant que si ces structures étaient connues explicitement, leur action deviendrait dominée, optimisable, on pourrait l'amener à suivre certaines "géodésiques" sous la contrainte de buts choisis délibérément.

La lacune signalée plus haut n'est qu'un élément d'un ensemble de lacunes beaucoup plus étendu. Toute grande théorie fixe dans ses concepts et ses structures certains traits essentiels des processus épistémiques par lesquels nous fabriquons des représentations de ce que nous appelons le réel. Mais ces traits restent plus ou moins implicites dans la substance descriptionnelle qui les a incorporés. C'est dire que leur valeur universelle, paradigmatique, reste cachée. A fortiori les innovations épistémiques différentes comportées par des approches différentes, restent en général non référées les unes aux autres, et ceci bloque l'émergence d'une intégration.

Par exemple, la théorie de l'information implique une certaine universalité épistémique. Presque tout processus d'acquisition de connaissances peut être coulé dans les moules de cette théorie : on peut presque toujours distinguer une "source d'information" (de signes), un "canal de transmission de l'information" qui peut introduire des altérations (du "bruit"), et donc un ensemble d'informations reçues qui en général est différent de l'ensemble des information envoyées. Cette généralité entraîne une tendance à des applications de la conceptualisation informationnelle dans les domaines les plus divers, notamment en génétique et plus généralement en biologie, dans la théorie des mesures physiques, en linguistique, etc. Il serait très fécond d'expliciter les contenus épistémiques généraux de la théorie de l'information.

Des remarques analogues valent concernant les méthodes qui dégagent des invariances d'échelle (des formes ou caractères qui ne disparaissent pas lorsqu'on change les dimensions des unités de mesure qui entrent en jeu, comme dans le cas des récurrences fractales), etc., etc..

Bref, ce qui manque pour faire avancer notre connaissance et notre domination pragmatique de nos propres fonctionnements descriptionnels, est une recherche systématique, au travers des formalismes isolants, de l'essence de chacune des approches modernes importantes, et la référence systématique des différents résultats explicités, les uns aux autres. Dans son propre espace conceptuel chaque approche trace une certaine direction nouvelle, mais quels sont les angles entre ces directions, quels sont les contenus de leurs projections les unes sur les autres et les "valeurs" qu'il convient d'assigner à ces projections ?

Quel est le TOUT nouveau qui émerge de ces comparaisons ? Quels sont les contenus et les caractères propres de la meta-structure de représentation qui émane des différentes théories spécialisées actuelles ? Quelles sont les lois de la dynamique complexifiante de ce contenu et de ces caractères propres ?

Car certainement - l'histoire le montre - il ne s'agit pas d'un contenu fermé et figé, ni de caractères immuables. Il s'agit d'un continuel processus de croissance d'un organisme non matériel: le tout du connu et décrit.

BUT : SYNTHÈSE D'UNE "ÉPISTÉMOLOGIE FORMELLE"

Les lacunes spécifiées plus haut mettent en évidence un but, un grand but :

Induire des approches scientifiques actuelles les plus profondes et performantes, une représentation unifiée et générale de conceptualisation, soumise à des buts spécifiés, et optimisée.

Il faut que la représentation recherchée soit formalisée si - comme on a réussi à le faire et parfaire pour le transport des valeurs de vérité en logique - on veut maintenant assurer pour toute phase d'un processus de conceptualisation quelconque, des transports descriptionnels rapides et sûres, calculatoires, algorithmiques. Pour cela il est absolument nécessaire de construire un système d'autoroutes de conceptualisation délibérée (englobant les voies déductives comme un tronçon particulier) où l'avancée, partout, soit débarrassée de toute cette foule innombrable d'entraves inhérentes aux sentiers de conceptualisation que chacun se fraye et parcourt solitaire selon ses curiosités et ses forces. Seuls le décollage du verbal et l'élévation dans les volumes des calculs formels peuvent réaliser ces conditions.

Il est essentiel de souligner que cette représentation n'est pas exigée comme une description passivement "exacte" des faits de conceptualisation tels qu'ils se produisent spontanément. Un tel concept, d'ailleurs, est illusoire. L'ensemble des modes de conceptualiser que révélerait une démarche simplement constatative n'est pas fini. Donc une démarche descriptionnelle ne serait pas effective. La représentation à rechercher est celle d'une méthodologie de conceptualisation, tirée des processus naturels et scientifiques mais satisfaisant un certain ensemble de normes capables d'assurer certaines optimalités explicitement exigées a priori. (Par exemple, en distillant et généralisant la stratégie cognitive discernée dans la mécanique quantique on aboutit à un ensemble de normes relativisantes qui arrivent à éradiquer les fausses absolutisations contre lesquelles, si souvent, stagnent les conceptualisations existantes.

Cette méthodologie, en agissant, doit donc produire certaines chaînes de conceptualisation "normée", dirigée, directionnelle. Celles-ci, sur un méta -niveau, doivent mettre en lumière de façon réflexive les lois de fonctionnement de la méthodologie qui les a engendrées ; notamment les conditions - explicitées - qui peuvent désormais assurer un dépassement systématique de tout cloisonnement disciplinaire, cloisonnement disciplinaire de significations, ou cloisonnement disciplinaire de modes de conception et de représentation formelle.

Par définition, une méthodologie du type que je viens d'indiquer constitue ce que je désigne par le terme d'"épistémologie formelle".

De par la nature même du but qu'elle doit matérialiser l'épistémologie formelle doit émerger beaucoup plus générale et néanmoins beaucoup moins abstraite et inaccessible que les représentations, similaires de certains points de vue, déjà construites dans la métamathématique ou dans la théorie logique des "langages" hiérarchisés.

COMMENT ?

Les modalités pour atteindre ce but paraissent d'emblée assez claires :

- Tenter une action de systématique extraction hors du formalisme et (ou) du jargon qui l'isole, de l'essence de chacune des quelques approches modernes majeures.

- Référer ces essences les unes aux autres systématiquement.

- Mettre explicitement à l'oeuvre les puissances dégagées par les comparaisons afin d'avancer vers la synthèse de modes de conception et de représentation formelle nouveaux, de plus en plus efficients et englobants.

- Avancer ainsi vers la définition formalisée d'un cadre de conceptualisation général, stable en tant que cadre, mais qui, de par ses lois de fonctionnement, soit apte à produire indéfiniment de la substance conceptuelle nouvelle et à la loger en lui-même, tout en permettant, en chaque phase et dans toute la masse de cette substance, des réajustements réflexifs et complexifiants.

SPÉCIFICITÉ

Le projet esquissé ici est sans précédent.

A première vue les actions conduites sous des étiquettes comme "transdisciplinarité", "pluridisciplinarité", "complexité", etc., pourraient peut-être paraître similaires. Mais ce serait une impression trompeuse. En effet les approches citées n'exigent pas, comme départ, des analyse profondément implantées dans des disciplines spécialisées, ni ne soumettent les résultats recherchés, à des buts spécifiés et à une condition de formalisantion.

Il s'agit ici d'un type foncièrement nouveau de démarche transdisciplinaire, une démarche transdisciplinaire "dure", formelle, et explicitement finalisée.

UTOPIQUE ?

Non, le projet esquissé n'est nullement utopique. D'ores et déjà, nous l'avons signalé, les grandes lignes d'une certaine systématisation - radicalement relativisante - sont tracées (1),(2),(4). Mais elles émanent d'une fréquentation intime de la mécanique quantique seulement. Ce provincialisme de l'extraction, quelle que soit la profondeur d'implantation des sondes, entraîne certainement des insuffisances importantes. Une confrontation systématique avec les manières dont le formel et l'épistémique s'allient dans d'autres représentations ne peut manquer de produire des enrichissements imprévisibles du schème déjà constitué.

Mais la matière première d'une épistémologie formelle au plein sens du terme est là, elle affleure partout dans tout une foule de représentations d'entités "réelles" où les caractères formels et même mathématiques sont reliés explicitement et de manière indélébile à des choix épistémiques, psychiques. L'époque est déjà lointaine où - plus ou moins implicitement - on posait que le subjectif et l'objectif sont séparables et que l'épistémique, foncièrement subjectif, échappe aux formalisations. Les groupes de transformation et les invariants qu'ils définissent concernant les entités décrites, correspondent foncièrement à des classes d'états ou modes (effectifs ou seulement conçus) d'observer ces entités, d'en prendre connaissance (5) : en ce sens toute objectivité est désormais reconnue comme intersubjective. L'objectivité "objective", absolue, n'est plus qu'une relique du passé. Les émergences réflexives qui épaississent la complexité des savoirs, d'abord décrites qualitativement avec force et détail (6), deviennent maintenant objet usuel de tentatives de modélisation formelle où, plus ou moins explicitement, les relativités à l'objet et au but jouent un rôle déterminant (7). Corrélativement - nous l'avons déjà remarqué au début de cet exposé - les processus de "conception" selon des buts sont représentés formellement dans les approches systémiques (8). Les représentations mathématiques de la théorie des catastrophes (9) s'appliquent à des structures cognitives - langage, épistémologie des phénomènes critiques, etc., et même à des questions métaphysiques (10) - donc essentiellement psychiques -, tout autant qu'à des circonstances physiques, sociales, etc. Les processus d'observation admettent des représentations mathématiques (11). Les logiques épistémiques élaborent des calculs formels concernant les effets d'interactions entre les croyances de sujets différents (12). Les mathématiques des émergences, nous l'avons signalé, reformulent en termes nouveaux les questions du sens des concepts d'"ordre", "hasard", "chaos", "déterminisme", et ces reformulations, liées aux notions d'émergence et de complexité, mettent en évidence des composantes épistémiques non éliminables(13). Les questions métaphysiques soulevées par la mécanique quantique sont ré-explorées en relation explicite avec, d'une part la psychologie cognitive des hommes et leur modes correspondants de communication, et d'autre part le formalisme mathématique de cette théorie (14). La théorie de la relativité est elle aussi analysée face aux exigences cognitives (15). Le nombre des représentations formelles ou même mathématiques, d'"informations" de types divers - toutes essentiellement subjectives -, ne cesse de croître (16). Etc., etc.

Une bibliographie exhaustive concernant ces lignes d'évolution prendrait des dizaines de pages. Ici nous n'avons retenu que les auteurs qui nous sont les plus proches.

Toutefois, pour l'instant, l'ensemble de ces formalisations manque d'unité. Il s'agit de forger maintenant un seul grand cadre cohérent d'algorithmes opérationnels de conceptualisation indéfinie, contrôlée, finalisée, optimisée : une "épistémologie formelle".

REMERCIEMENTS

Ce texte communique l'essentiel d'une sorte de manifeste adressé en 1994 à quelques collègues, où il était suggéré d'unir nos efforts afin de tenter d'effectivement développer une "épistémologie formelle". Leurs remarques ont nettement amélioré la version initiale. Mais ce qui est beaucoup plus important est leur adhésion, le 14 Juin 1994, pour fonder un Centre de Synthèse pour une Épistémologie Formelle, le CeSEF. Que chacun des fondateurs - Évelyne Andreewsky, Francis Bailly, Hervé Barreau, Michel Bitbol, Bernadette Bouchon-Meunier, Paul Bourgine, Gérard Cohen-Solal, Peter Holland, Michel Paty, Jean Petitot, François Schächter, Vincent Schächter, Robert Vallée, Bernard Walliser - soit ici très vivement remercié. Depuis, d'autres chercheurs se sont joints à nous et collaborent patiemment à notre entreprise. A eux aussi j'exprime ici nos vifs remerciements.

Si ce texte aura réussi à vaincre les innombrables obstacles qui enmurent et isolent un "spécialiste" dans son langage particulier, ce sera dû à la grande patience et compréhension de M. Marcel Gauchet. Qu'il me permette d'exprimer ma reconnaissance. Le chemin parcouru avec lui a approfondi mes propres vues sur le sujet exposé.

***

BIBLOGRAPHIE

(1) Mugur-Schächter M., "Quantum Probabilities, Kolmogorov Probabilities, and Informational Probabilities", International Journal of Theoretical Physics, Vol. 33, No. 1, pp. 53-90, January 1994.

(2) Mugur-Schächter M.: (2a) "Spacetime Quantum Probabilities, Relativized Descriptions, and Popperian Propensities. Part I : Spacetime Quantum Probabilities", Foundations of Physics, Vol. 21, No. 12, pp. 1387-1449, Décembre 1991 ; (2b) "Spacetime Quantum Probabilities II : Relativized Descriptions and Popperian Propensities", Foundations of Physics, Vol. 22, No. 2, pp. 235-312, February 1992 ; (2c) "From Quantum Mechanics to Universal Structures of Conceptualization and Feedback on Quantum Mechanics", Foundations of Physics, Vol. 23, No. 1, pp. 37-122, January 1993 ; (2d) "Une méthode de conceptualisation relativisée : vers une épistémologie formelle apte à faire face aux complexités", Rev. int. systémique, Vol. 9, No. 2, pp. 269-303, 1995.

(3) Bitbol M. : "La philosophie de la mécanique quantique", Flammarion, Paris, 1996.

(4) Mugur-Schächter M., "Toward a Factually Induced Spacetime Quantum Logic", Foundations of Physics, Vol. 22, No.7, pp. 963-994, July 1992.

(5) Bailly F., "L'Anneau des Disciplines", Revue Internationale de Systémique, pp. 234-400, 1991 ; "Les mathématiques : de la diversité à l'unification", (avec Petitot-Cocorda, J.), Encyclopedia Universalis 1990 ; "Self-organizing and complex systems", Philosophica 47, 1, pp. 31-47, 1991.

(6) Morin E., "La Méthode" (1-4), Seuil, Paris, 1977-1991.

(7) Les listes de publication de l'Institut de Santa Fé contiennent déjà des dizaines de travaux de modélisation de processus complexes liés aux phénomènes cognitifs, donc à l'épistémique.

(8) Le Moigne J-L., "La Théorie du Système Général (Théorie de la Modélisation)", Presses Universitaires de France, Paris, 1977, 1983, 1991, 1994 ; "La Modélisation des Systèmes Complexes", Dunod, Paris, 1990.

(9) Thom, R., "Stabilité Structurelle et Morphogenèse", Benjamin New-York et Ediscience Paris, 1972.

(10) Petitot-Cocorda J. : "Les Catastrophes de la Parole : de Roman Jakobson à René Thom", Recherches Interdisciplinaires, Maloine, Paris, 1985 ; Morphogenèse du Sens : Pour un Schématisme de la Structure", Formes Sémiotiques, Presses Universitaires de France, Paris, 1985 ; "La Philosophie Transcendantale et le Problème de l'Objectivité", Editions Osiris, Paris, 1991 ; "Physique du Sens : de la Théorie des Singularités aux Structures Sémio-Narratives", Editions du CNRS, Paris, 1992.

(11) Vallée R. : "Sur deux Classes d'Opérateurs d'Observation", Comptes Rendus à l'Académie des Sciences, t. 233, p. 1428-29, 1951 ; "Un Point de Vue Algébrique en Théorie Macroscopique de l'Observation", Comptes Rendus à l'Académie des Sciences, t. 241, p. 179-80, 1955.

(12) Walliser B. : "Systèmes et Modèles", Seuil, Paris, 1977; "L' économie Singulière", Editions Odile Jacob, Paris, 1994 ; "Logique Epistémique et Théorie des Jeux", Revue Economique, No. 5, p. 801-32, 1991.

(13) Ruelle D., "Hasard et Chaos", Editions Odile Jacob, Paris, 1991.

(14) Bitbol M. : "L'élision : essai sur la philosophie d'E. Schrödinger " dans Erwin Schrödinger, l'Esprit et la Matière", Seuil, Paris, 1990 ; "Esquisses, Formes et Totalité (Schrödinger et le concept d'Objet)", dans "Erwin Schrödinger, Phylosophy and the birth of quantum mechanics", Editions Frontières, Paris, 1992 ; "La philosophie de la mécanique quantique", Flammarion, Paris, 1996.

(15) Paty M., "Einstein Philosophe", PUF, Paris, 1993.

(16) Bouchon-Meunier B., "Connaissances Imparfaites en Intelligence Artificielle", dans "Systémique et Cognition", E. Andreewsky Ed., AFCET-Systèmes, Dunod, Paris, 1991.