Modélisation de la CompleXité
Programme européen MCX
"Modélisation de la CompleXité"

Association pour la Pensée Complexe
Association pour la Pensée Complexe
 

Note de lecture

Rédigée par GAILLARD J.P. sur l'ouvrage de LERBET-SERENI Frédérique :
« EXPERIENCES DE LA MODELISATION MODELISATION DE L’EXPERIENCE »
     Ed. L’Harmattan, 2004, ISBN 2 7475 7040 1, 174 pages.
Voir l'ouvrage dans la bibliothèque du RIC

Cet ouvrage collectif nous propose une experience originale, celle la modélisation des expériences qui l’ont suscitée,  expérience qui s’est formée lors d’une journée de travail MCXAPC, à Paris, en novembre 2002. En traitant  tous de la même question,  la modélisation de la complexité, à travers des tissus expérientiels aussi riches que différents,  les divers intervenants (contributeurs et participants) nous rendent sensibles sa pertinence : l’exercice est possible et vivifiant. Pourrons nous le faire sentir en invitant le lecteur à une exploration préliminaire, un premier parcours à vol d’oiseau ?



Après une introduction par François Kourilsky, traitant de « L’intelligence des situations complexes et le paradoxe de la modélisation », la journée s’est organisée autour de quatre tables rondes, supportant quatre grands thèmes :

-         l’expérience modélisatrice dans les pratiques du soin, de la formation et de la recherche : contributions de Frédérique  Lerbet-Sereni, Jacques Miermont et Anne Perrault-Solivères,

-         l’expérience modélisatrice dans les pratiques e les langages informatiques de modélisation : contributions d’Evelyne Andreewsky, Anne Nicolle et Magali Roux-Rouquié,

-         l’expérience modélisatrice dans les domaines de la modélisation des systèmes environnementaux : contributions de Jean-Louis Le Moigne et Bertrand Vissac,

-          l’expérience modélisatrice dans les domaines de la gestion des organisations : contributions de Marielle Bloch-Dolande et François Kourilsky.

La conclusion de cette riche journée était assurée par Jean-Louis Le Moigne et et Edgar Morin.

 

Dans son introduction, « L’intelligence des situations complexes et le paradoxe de la modélisation », François Kourilsky survole quelques fondamentaux : nos formations scientifiques nous conduisent incessamment à revenir dans une posture réductionniste ou, à tout le moins, à négliger les espaces interactionnels périphériques par lesquels une situation complexe peut évoluer. Il nous renvoie donc à la nécessité de ne jamais oublier les contextes, à opérer des conjonctions entre les différentes unités, à ne pas négliger le poids de l’expérimentateur dans l’émergence d’une situation. Il souligne ensuite deux glissements logiques fréquemment repérables : le premier consiste à décontextualiser pour généraliser et conduit ainsi à des modèles de certitudes, à des modèles finis ; le second relève de la croyance dans les seules vertus de la mathématisation qui conduit à l’exclusion des autres supports de modélisation, tout aussi riches.

 

La première table ronde est introduite par Jacques Miermont, psychiatre et thérapeute systémicien, qui rappelle les profondes modifications que le regard systémique a produit dans l’univers soignant. La psychothérapie en institution ne peut plus se penser hors du réseau soignant dans son ensemble, ce qui rend, selon lui, l’ouvrage récemment commis par Anne Perrault-Solivères, cadre-infirmier, particulièrement intéressant.

Anne Perrault-Solivères souligne la puissance de l’organisation institutionnelle, qui soumet l’ensemble des agents aux effets multiples d’un ordre hiérarchique définissant étroitement pour tous l’espace des légitimités, tant au niveau des interactions qu’au niveau de la pensée :  interactions possibles entre les soignants et les patients, ainsi qu’entre les soignants eux-mêmes. Dans ce cadre, elle définit sa recherche avant tout comme une pratique « du dedans ». Elle souligne ensuite la nécessité dans laquelle elle s’est trouvée de « bricoler » ses propres outils, devant le constat de leur absence là où elle pensait les trouver : l’université.

Face au caractère inextricable de la complication générée par la rationalisation tayloriste des soins, là où il était nécessaire d’ouvrir, de « lâcher », de diversifier, elle a choisi de travailler la nuit qui se propose comme un espace moins bruité, un espace au sein duquel il devient possible de modéliser dans le transitoire, « d’animer le magma », hors du carcan des modèles finis qui régissent le jour à l’hôpital.

Frédérique Lerbet-Sereni, professeur en Sciences de l’éducation, propose de recadrer la réflexion autour de la rupture épistémologique, qui trace une frontière tangible entre la praticienne-chercheuse et l’institution ; elle est suivie de Jacques Miermont qui, à partir de la remarque selon laquelle les hiérarchies ne pouvant être supprimées, demande comment il est possible de travailler avec elles et non pas seulement contre elles ; sa seconde remarque concerne la rigidité, la stabilité, de l’institution hospitalière et l’utilité de cette stabilité face aux missions, toujours périlleuses, de l’hôpital.

 

La seconde table ronde est introduite par Evelyne Andreewsky (INSERM neuropsychologie et cognition), qui part du constat selon lequel les trois chercheures présentes sur le plateau : Magali Roux-Rouquié (biologie), Anne Nicolle (informatique) et elle-même (langage) oeuvrent dans des domaines très différents mais qui cependant s’appuient tous trois sur des « unités élémentaires » : les gènes en biologie, les mots en sciences du langage et les particules en physique. Elle remarque en outre que dans les trois domaines, ces unités élémentaires, ces « briques », se montrent extrêmement sensibles aux contextes.

Magali Roux-Rouquié aborde le paradoxe auquel la génétique s’est trouvée confrontée : 99,5 % de gènes communs entre le chimpanzé et l’homme : soudain, le réductionnisme doctrinal posait un problème insoluble, et soudain les gènes étaient tributaires de contextes significatifs ! Les résistance constitutives de la biologie moléculaire à une conception systémique de la biologie semblent ne plus rien pouvoir face à l’évidence de l’expérimentation. Il devient donc nécessaire de prendre en compte la notion de « relation », c'est-à-dire aussi celle de propriétés émergentes si nombreuses en biologie non seulement en termes de  structures comme le cas est observé depuis longtemps en physique, mais aussi et surtout en termes de fonctions.

A la suite de l’étude des relations qui conduit à celle des fonctions émergentes, s’impose l’étude de la notion « d’organisation » et de contraintes organisationnelles, hiérarchiques et modulaires, par lesquelles s’assurent l’intégration fonctionnelle et la stabilité du vivant.

Anne Nicolle pose le constat selon lequel en matière de modélisation, l’informatique, au fil des dernières années, occupe de plus en plus l’espace précédemment colonisé par les mathématiques. Elle propose de considérer trois stades dans les développements de l‘informatique :

-         le stade procédural, stade de l’automatisation du calcul qui a permis et qui permet toujours de faire tourner des modèles mathématiques trop lourds pour une manipulation manuelle ;

-         le stade déclaratif, stade de l’accumulation de données dans des bases et du traitement de ces données, où la logique prend le pas sur les mathématiques ;

-         le stade des processus, où l’informatique ne se donne plus pour but de faire tourner des modèles mathématiques, ni d’exprimer des relations logiques entre les choses, mais de faire tourner des processus, processus en interaction avec les usagers. La fonction actuelle que se donne l’informatique est d’installer un processus d’interaction entre les humains et les machines en vue de la réalisation d’un certain nombre de choses. Ce sont alors les formes de la modélisation qui changent : on passe de la maquette à la modélisation par systèmes multi-agents. La forme est conservée (un avion), la substance change : le métal et le bois sont remplacés par des pixels. L’identité préservée de la forme permet des développements considérables en modélisation informatique, qui se révèlent utilisables dans le fonctionnement des phénomènes eux-mêmes. Ces outils nouveaux ouvrent à la possibilité d’un processus expérimental offrant une rigueur au moins équivalente à celle des mathématiques : Simon en a proposé les éléments dans un article paru en 1999.

Pour clore, Anne Nicolle évoque les rapports fondamentaux existant entre l’informatique et le langage : tous les systèmes informatiques sont en fait des systèmes sémiotiques. L’informatique a introduit le langage en physique : elle contrôle par des systèmes langagiers les grands instruments de la physique fondamentale et appliquée, elle permettra peut-être de s’interroger sur les rapports entre langage et biologie.

 

Magali Roux-Rouquié remarque que, effectivement, un objectif actuel en biologie est d’inférer des comportements modélisés in silico à partir de comportements observés in vivo. Il faut pour cela disposer d’un langage, c'est-à-dire d’un lexique et d’une syntaxe : un tel langage de spécification des systèmes biologiques n’existe pas encore.

 

La troisième table ronde, traitant des questions d’environnement, est introduite par Jean-Louis Le Moigne, autour de l’ouvrage de Bertrand Vissac (ingénieur agronome INRA) -dont il remarque l’identité ici combinée de chercheur et de citoyen- sur la vache folle.

Bertrand Vissac souligne d’emblée ceci que, dans son domaine, celui de la génétique bovine, les acteurs et les espaces de pouvoir sont multiples : ils constituent ce qu’il appelle le biopouvoir.

Si dès le milieu du18ième siècle les anglais conçoivent un modèle efficace de l’élevage bovin sur les bases d’une rationalisation de mode industriel, modèle qu’ils exporteront aux USA au 19ième siècle, la France reste bonne dernière de la classe européenne par l’absence totale d’organisation de l’élevage bovin, de contrôle et de rendement laitier. Ce n’est qu’au milieu du 20ième siècle que naît un modèle « administré » français de la loi sur l’élevage. Ce sont alors les premiers recueils de données, dirigées sur l’ordinateur central de Jouy-en-Josas ; trois options de sélection sont proposées : lait et traite, viande et allaitement, musculature des veaux à viande. Ce modèle numérique de conception technico-économique n’intègrent pas le marché des produits, ni les déséquilibres liés à la dispersion des opérateurs, ni les particularités des entités biologiques pour lesquels un choix opéré sur un mode réductionniste conduit toujours à des effets latéraux indésirables (sélectionner sur la seule production de lait revient à négliger la musculature c'est-à-dire aussi la fertilité, la longévité et l’adaptation au milieu).

Au cours des années soixante, la notion de système est introduite : l’unité de production n’est plus un bovin mais une femelle avec les petits qu’elle élève au cours de sa carrière.

Les questions commencent à se formuler sur le mode de la complexité :

-         les décideurs sont multiples et leurs systèmes de valeurs diffèrent notablement : éleveurs, centres d’insémination artificielle, Etat, Union Européenne,

-         le contexte décisionnel est conçu comme non probabilisable,

-         les variables des systèmes de génération sont vus comme liées, les boucles de rétroaction provoquées par les choix en matière de sélection deviennent visibles.

En 1975, les contextes géopolitiques précipitent la faillite des modèles à fondement numérique. La crise de l’énergie, combinée à la production insuffisante en complément protéiques et à l’encombrement du marché accentue les difficultés de l’application du « modèle Holstein » (petite vache véritable usine à lait qui ne peut fonctionner que grâce à un complément protéinique) sur lequel repose alors l’essentiel de la production laitière.

C’est cette situation qui conduit au choix consistant à utiliser la farine de viande comme substitut protéique (la porte « vache folle » est ainsi ouverte). Effets latéraux imprévus et positifs :

-         cette situation conduit parallèlement à un regain d’intérêt pour les races rustiques en voie de disparition car menacées par la généralisation uniformisante du modèle Holstein,

-         le modèle quantitatif montre alors sa faiblesse, face à une diversification des situations : en Afrique comme en Corse par exemple, les vaches produisent peu ou pas de bien marchands. La modélisation systémique se montre alors utile pour représenter les projets et pratiques de ces acteurs hors normes.

C’est à partir du modèle corse qu’ont été développées les bases des programmes de conservation et de développement des populations bovines locales :

-         identification d’une population locale de bovins avec ses adeptes,

-         redéfinition de cette population comme bien commun transmissible,

-         mise en place d’un dispositif de gestion dénommé « système d’actions » afin de coupler les éleveurs et la filière qui les accompagne,

-         apprentissage collectif de la génération de la population animale locale.

Ce modèle corse a été appliqué sur le continent et contribue à des développement locaux, ainsi qu’à la préservation d’une diversité génétique sévèrement menacée par l’application des modèles numériques linéaires fondés sur une seule forme de productivité.

Voici donc un chemin qui va du modèle subjectif (Angleterre 18ième siècle), au modèle objectif (France deuxième partie du 20ième siècle) pour enfin faire appel à une modélisation systémique en marche.

Pour conclure, Bertrand Vissac pose une question sur l’homomorphisme possible entre la façon dont les humains traitent les animaux et la façon dont ils se traitent entre eux dans une société et une époque données.

Les réactions dans la salle, autour de la responsabilité du chercheur, autour de l’aphorisme rappelé par Jean-Louis Le Moigne : «  le chercheur cherche le vrai, le citoyen cherche le bon », montrent que le message est bien reçu.

 

La quatrième table ronde illustre le rapport modélisation / action dans ce qu’il a de plus vif : l’entreprise quand elle est conçue comme réseau de flux. Marielle Bloch-Dolande dirige une PME de transport de colis disposée sur 10 sites dans 7 pays. L’entreprise est conçue comme accélérateur de supply chain ; elle se propose aux industriels comme le réseau dont ils ont besoin pour accélérer, réguler et fiabiliser approvisionnement et production, co-créer avec chacun d’entre eux des solutions à leur problématique industrielle dans ses évolutions, dans une permanente modification de l’entreprise elle-même.

Trois thèmes sont ici abordés : empowerment, co-création et dialogue, émergence.

            L’empowerment ou mise en pouvoir implique que 95 % du groupe soit capable de décisions locales autonomes. Dans le transport une décision se prend en 10 minutes, les flux n’excédant pas 24h d’un bout à l’autre de l’Europe. Une équipe est donc conçue comme équipe apprenante. Le cadre est constitué par un software opérationnel intégrant les principes culturels du groupe : transparence, anticipation, flexibilité, pro-activité.

Chaque équipe se trouve en permanence confrontée à une difficulté constituée par la multitude des détails de la chaîne logistique, l’interactivité de ces détails et l’obligation de traiter les flux très rapidement. La logique d’empowerment a, en moins de 10 ans, produit un modèle hiérarchique simplifié à l’extrême : les directeurs traditionnels ont disparu des filiales, au bénéfice d’une mise en commun des énergies et des ressources. Les équipes les plus matures aident les autres, les individus étant en permanence enjoints à échanger à partir de l’aphorisme : « chacun voit la paille dans l’œil de l’autre et guère la poutre dans le sien ». le « faire » est en boucle permanente avec le « comprendre ».

            La customer intimacy ou intimité client se joue en termes de co-création et de dialogue. L’injonction faite aux commerciaux est de renoncer à la pratique courante dans toute discussion qui consiste à n’écouter l’autre que dans le but de marquer des points sur lui, pour entrer dans le mental de l’autre est essayer de comprendre comment il fonctionne : lâcher prise pour co-créer, il s’agit d’apprendre l’univers de l’interlocuteur pour co-créer avec lui ses solutions-flux. Les commerciaux de l’entreprise se conçoivent comme des « créateurs d’ouverture d’esprit ».

            L’émergence. Marielle Bloch-Dolande choisit d’illustrer le processus d’émergence avec la mise en place non planifiée d’une prospective team par trois commerciaux excédés par ce qu’ils considéraient comme une carence en communication dans l’entreprise ; cette prospective team n’existe plus aujourd’hui car les 12 commerciaux de l’entreprise en font partie : ils fonctionnent en réseau et ce réseau montre des « effets réseaux » chez les clients qui produisent eux-mêmes des réseaux professionnels.

Trois thèmes, donc, pour illustrer le jeux des boucles apprenantes et vertueuses, telles qu’elles font vivre Beauvais International, tous ceux qui la composent, ainsi que ceux qui l’utilisent.

 

La conclusion générale est engagée par Edgar Morin, avec une réflexion sur les modélisations dialogiques. Il reprend une idée donnée en ouverture par François Kourilsky, développée ensuite par Magali Roux-Rouquié puis par Marielle Bloch-Dolande,  concernant les processus émergents vus comme une caractéristique de l’objet système. D’une part, ajoute-t-il, les propriétés, structures, fonctions, émergentes ne se retrouvent pas dans les parties composantes du systèmes, d’autre part un certain nombre des potentialités propres à ces parties composantes sont inhibées ou réprimées par la dynamique du système ; en outre, les émergences rétroagissent du tout vers les parties qui peuvent en être ainsi transformées, sans oublier les contextes dans lesquels le système se meut et les contextes de ces contextes : hologramme et poupées russes qu’Edgar Morin illustre ensuite à l’aide du concept d’auto-organisation, en tant qu’il est aujourd’hui saisi comme le concept clé permettant de modéliser le vivant. Cette auto-organisation utilise de l’énergie, l’être vivant a besoin de son environnement pour la produire ; elle est aussi tributaire d’un génotype et d’un phénotype et, au delà, des caractères particuliers à un sujet computant et connaissant ; à quoi il fait ajouter le socius… il s’agit donc d’une auto-éco-géno-phéno-égo-socio-organisation, largement fondée sur des processus récursifs par lesquels elle se réorganise en permanence : auto-réorganisation !

Le dernier concept-clé sur lequel Edgar Morin entend insister est celui de dialogique, qui souligne une relation à la fois complémentaire et antagoniste entre des éléments constitutifs. Deux registres : génocentrique celui qui privilégie l’espèce, et égocentrique par lequel l’individu se satisfait, si besoin au détriment des autres.

Ce sont là, conclut Edgar Morin, les conditions minima que doit remplir un modèle pour parler de tout ce qui est organisé, c'est-à-dire de tout ce qui est système.

Jean-Louis Le Moigne propose en contrepoint une réflexion sur l’épistémologie de la modélisation, qu’il ouvre en reprenant le second glissement logique souligné par François Kourilsky dans son introduction : « pourquoi réduire exclusivement l’artificieuse modélisation à la seule modélisation mathématique ? ». Il appelle à la vigilance quant à la nécessité d’une ouverture suffisamment permanente vers tout autre mode de modélisation, d’une pragmatique de la modélisation qui ne refuse a priori aucun système de symbole pour peu qu’on y puisse intelligiblement raisonner et représenter. Entre le paradigme cartésien de la causalité linéaire chaînée, fondé sur l’idée qu’un observateur peut saisir la nature des choses s’il dispose de l’outil logique nécessaire, et le paradigme constructiviste, Jean-Louis Le Moigne montre sa préférence : « les faits, pour être faits, doivent avoir été faits. ». la production et l’enseignement de connaissances actionnables implique une intelligence collective de la modélisation en tant que « point de vue pris sur le réel » (CNRS 2002).

                                               Jean-Paul Gaillard, Chambéry, janvier 2006



Fiche mise en ligne le 21/01/2006


 > Les statistiques du site :