Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

12/04/2013

S’interroger sur la formation de nos connaissances : faire retour aux phénomènes et à l’expérience vécue ?

La récente parution de l’ouvrage de Fausto FRAISOPI « La complexité et les phénomènes », par son sous titre « Nouvelles ouvertures entre science et philosophie », conduit à nous (re) interroger sur la formation, la nature et l’usage des connaissances que développent les sciences de la complexité dans nos cultures contemporaines.

S’interroger sur la formation de nos connaissances, ce n’est pas seulement s’exercer « à penser par soi même, c’est aussi penser par les autres », rappelle volontiers le physicien et philosophe des sciences Etienne Klein.

S’interroger sur la nature des connaissances humaines, c’est s’interroger sur leur origine : sont-elles « déjà là », indépendante des actions humaines qui s’attachent à les découvrir ou les dévoiler  pour les uns, à les inventer ou à les construire pour les autres ? Sont-elles des « objets » (les savoirs que l’on empile), ou sont-elles des « processus » (« faire pour comprendre et comprendre pour faire ») ?

S’interroger sur l’usage des connaissances, c’est s’interroger sur la justification de leur légitimité : seront-elles légitimes parce que prédictives, garantissant les résultats de l’action humaine déterminée par la stricte application des lois de la nature que peu à peu elles identifient et transmettent, ou par leur plausibilité pragmatique, éclairant le libre arbitre dans la conception projective des moyens et des actions ?  

Pour « aussi penser par les autres » ces interrogations, nous disposons depuis l’émergence du paradigme de la complexité dans les cultures contemporaines, d’explorations de bons nombres de penseurs nous invitant à un détour - une « pensée du dehors » - qui peut nous permettre de mieux situer ce qui forme notre « dedans », c’est-à-dire nos propres cadres de pensée.

Citons, quelques uns des « grands témoins du vingtième siècle » qui ont éclairés les débats du Réseau Intelligence de la Complexité au fil des dix derniers années : en 2002 : « Autour de H.A. Simon. Intelligence de la complexité, Ingénierie de l'interdisciplinarité »; en 2004, « Autour de Heinz von Foerster Seconde Cybernétique et Complexité » ; en 2008, « Quatre grands témoins du vingtième siècle pour étayer cette réflexion : Gregory Bateson (l’Ecologie de l’Esprit), William James (l’Empirisme radical), James Dewey (le Pragmatisme) et Ernst von Glasersfeld (le Constructivisme» ; en 2009,« Hommage à Edgar Morin : Agir et penser a la fois - Renouveler notre intelligence de la gouvernance des organisations complexes.  Ce détour passe par le partage de nos visions du monde, des modèles sous-jacents à nos interprétations, des concepts pragmatiques (ceux dont on se sert sans forcément savoir les définir). Ceci appelle un travail de partage, d'échange et d'élaboration collective qui – certes - demeure difficile à réaliser mais laisse entrevoir cependant en retour, une meilleure compréhension de nos actions.

Ce que la connaissance doit à l'expérience : de la complexité on fait toujours et d’abord « l’expérience ». Les sciences donnent lieu à un conflit fondamental dans les stratégies d’intelligibilité des phénomènes dans la mesure où, privilégiant une tradition scientifique réductionniste et physicaliste, elles laissent à penser que les aspects de la sensibilité et de l’expérience vécue sont des épiphénomènes relevant d’autres approches insuffisamment crédibles pour faire partie des savoirs « reconnus ». Ce questionnement interpelle les conceptions substantialistes – essentialistes - qui postulent l’existence de réalités objectives préexistantes et permanentes qu’il faudrait dévoiler. Position  du paradigme cartésien qui caractérise pour l’essentiel, les recherches actuelles et qui conduit à de nombreuses contradictions et difficultés – insolvables dans une approche interdisciplinaire syncrétique  - en raison de la multiplication de dualismes fondamentaux comme l’opposition entre processus mentaux et environnement, entre « hardware et software », entre individu et groupe, entre intérieur et extérieur, entre action et cognition, entre nature et culture … oppositions qui mènent à des impasses et qui font l’objet de remises en cause sérieuses dans de nombreuses disciplines. Comme le souligne Bernard Latour[1], « Lorsque nous abandonnons le monde moderne, nous ne tombons pas sur quelqu’un ou sur quelque chose, nous ne tombons pas sur une essence, mais sur un processus, sur un mouvement, un passage, littéralement, une passe, au sens de ce mot dans les jeux de balle. Nous partons d’une existence continuée et risquée – continuée parce qu’elle est risquée – et non pas d’une essence ; nous partons de la mise en présence et non pas de la permanence. Nous partons du vinculum lui-même, du passage, de la relation … »

On peut donc constater – et regretter – un écart persistant entre les sciences de la nature (entendu dans le cadre de la physique classique) et les « sciences » accordant de l’importance aux pratiques « telles que nous en faisons l’expérience ». Cette dualité - qui recouvre pour une part, le traditionnel mais obsolète débat théorie/pratique - contribue à un déficit d’intelligibilité parce qu’en raison de ces positions ontologique et méthodologique, les sciences omettent généralement les données phénoménologiques et pragmatiques, négligeant ainsi un aspect important de la manifestation des phénomènes. L’intérêt pour l’expérience humaine dans ses dimensions les plus immédiates et les plus quotidiennes nous incite à « faire retour aux phénomènes et à l’expérience vécue » pensant que beaucoup d’aspects de l’activité serait mieux compris si l’on faisait le lien entre les processus impliqués dans l’action et leurs manifestations phénoménales, c’est-à-dire pour simplifier, la « façon dont les choses sont et sont faites » du point de vue du sujet agissant (point de vue dit alors, en première personne). Dans son ouvrage, Fausta Fraisopi (p 393) avance ce lien : « la complexité irréductible de certains phénomènes impose la phénoménologie comme méthode d'interrogation de « il y a » - dans toutes ses formes possibles - de chercher une nouvelle forme d'interrogation et de vision capable de comprendre, décrire, assimiler de façon non superficielle le « il y a » de la complexité dans sa forme propre de manifestativité ». Par exemple, la fatigue, la décision, le stress, l’incertitude, … sont évidemment des processus dont on peut rendre compte par des mesures objectives, d’un point de vue externe (dit alors en troisième personne) à l’acteur agissant, mais aussi des processus dont nous avons conscience (ce qui ne signifie pas que nous sommes conscient de la totalité de ces processus) et dans certaines conditions méthodologiques, nous pouvons évoquer les contenus de la conscience que nous avons de cette expérience de fatigue, de décision, de stress, d’incertitude, …

Dans cette volonté d’objectivation du « réel », plusieurs réponses peuvent être examinées 

- Celles qui ne reconnaissent pas les tensions entre les données objectivistes et subjectivistes (c’est–à-dire les données phénoménologiques et pragmatiques) :

- En refusant la pertinence de la tension entre ces deux « réalités ». L’argumentaire se développe alors autour des principes traditionnels de l’approche scientifique en niant la possibilité de travailler « scientifiquement » sur l’expérience vécue du point de vue en première personne (cf. les manuels classiques de la méthodologie de la recherche).

- En refusant l’importance de cette tension comme stratégie d’intelligibilité : la « neutralité » requise du chercheur et la construction des objets scientifiques à partir de cette posture, le place en situation d’extériorité vis-à-vis des données de l’expérience les « écrasant » méthodologiquement, dans les protocoles de recherche (cf. les protocoles « standards » de recherche).

- Celles qui reconnaissent les tensions entre ces pôles en acceptant de discuter du « déficit d’intelligibilité » :

- Une option pessimiste renvoie cependant aux arguments sur le caractère incompatible des « noyaux durs » des paradigmes et/ou des ontologies et l’impossibilité de l’interdisciplinarité : ne travaillant pas sur les mêmes objets et au même niveau, le travail de mise en relation des deux pôles apparait peu possible et ceux-ci continuent à être évoqués « parallèlement ».

- Une option optimiste pense que ce débat peut être résolu en reprenant un débat « ontologique » sur la façon de considérer et de traiter les « choses » (cf. nos remarques sur les dichotomies historiques). C‘est tout le sens de l’ouvrage de Fausto Fraisopi qui « tire au contraire comme conséquence de la révolution de la complexité, la nécessité de rompre avec le cadre de ce que les modernes ont appelé « ontologie » précisément en tant que doctrine de l’objet » (Jocelyn Benoist dans l’introduction de l’ouvrage).

Une relecture de textes anciens nous incite à le faire comme par exemple, Henri Wallon[2] : « Entre lui (l'objet) et l'observateur, il n'y a pas cet intervalle étanche que postule le positivisme et avec lui, toutes les vieilles doctrines pour qui l'univers et l'homme en viennent à se juxtaposer comme deux entités plus ou moins distinctes.... car il n'y a pas d'observation désincarnée de toute action physique, pas plus qu'il n'y a d'intelligence sans organe, ni d'homme sans corps »

La dualité permanente et inéluctable des points de vue n’exprime pas une opposition bipolaire qui de manière irréductible rejette l’un ou l’autre point de vue - comme c’est souvent le cas aujourd’hui dans les recherches - mais elle sous-tend l’hypothèse que d’autres perspectives sont possibles : non celles d’une confusion entre des données objectives et subjectives, mais celles du lien qui caractérise une chose deux fois comprise. Dans une relation de complémentarité, de cogénération, de « co-avènement » des savoirs sur soi et sur le monde, ces deux points de vue peuvent se mêler entre eux pour produire – non une série de déterminations causales – mais une intelligibilité de l’écologie complexe de l’activité.

Il semble alors possible – et nécessaire - d’identifier dans leurs complémentarités autant que dans leurs antagonismes, les pôles que nos cadres d’analyse ont disjoints pour plus de commodité « interne » : la perspective « analytique », attachée au local comme point de départ explicatif des phénomènes, et la perspective « holistique », qui confie à la globalité de l’agi, la source « unifiante » et explicative de ces mêmes phénomènes. Le point de départ n’est pas plus dans les « parties », locales, que dans le « tout », global, mais dans leurs interactions. Plutôt, les parties sont dans le tout, de même que le tout se trouve dans les parties : parties et tout, se spécifient mutuellement et continuellement dans une dynamique de l’action. N’est ce pas ainsi que nous entendons le paradigme Systémique que l’on sclérose en le réduisant trop souvent au Holisme qui ne peut accepter que la partie soit plus qu’une fraction du tout ?

Omettre « l’effet que cela fait d’être » ? Les faits de l’expérience des « choses en train de se faire » comme source de connaissance, aussi ! C’est en effet, une chose que d’essayer de rendre compte de ce qui se passe - à quelque niveau que ce soit - lorsque nous agissons et une autre, que d’essayer de rendre compte de la conscience des choses, que nous avons quand nous agissons. Dans la continuité de la sensibilité à la phénoménalité et au pragmatisme, et pour illustrer la question de « point de vue » que nous jugeons importante dans le cadre de la compréhension de l’action en situation, Thomas Nagel (1974)[3] propose de s’interroger sur « Quel effet cela fait d’être une chauve-souris ? » « Je veux savoir quel effet cela fait à une chauve-souris d'être une chauve-souris. Si j'essaie d'imaginer cela, je suis borné aux ressources de mon propre esprit, et ces ressources sont inadéquates pour cette tâche. Je ne peux non plus l'effectuer en imaginant des additions à ma propre expérience, ou en imaginant des portions de celle-ci qui en seraient graduellement soustraites, ou en imaginant une combinaison quelconque d'additions, de soustractions et de modifications. Se demander quel effet cela fait d'être une chauve­-souris semble nous conduire, par conséquent, à la conclusion suivante : il y a des faits qui ne consistent pas en la vérité de propositions exprimables dans un langage humain. Nous pouvons être contraints de reconnaître l'existence de faits de ce genre sans être capables de les établir ou de les comprendre.  »

Thomas Nagel part donc de l’idée que même si nous connaissons bien le fonctionnement des ultrasons que les chauves-souris utilisent pour se repérer dans l’espace, nous ne pouvons pas pour autant décrire ce que c’est que de vivre dans un monde ultrasonore. L’expérience subjective de l’écholocalisation nous échappe et nous échappera toujours : nous ne savons pas écrit Thomas Nagel, « ce que cela fait d’être une chauve-souris », même si nous sommes capables de décrire le fonctionnement de son système de perception jusque dans ses moindres détails.

Les possibilités de travailler la tension formelle entre l’exigence d’objectivité liée aux sciences naturelles (dites scientifiques pour le sens commun) et la nature irréductiblement subjective des données phénoménologiques existent cependant comme nous venons de l’argumenter : la question des outils permettant de rendre intelligible les données phénoménologiques et pragmatiques en termes suffisamment crédibles et précis est une question centrale que nous devonsaborder en ayant le souci de procédures pour « faire avec » des focales d’observations multi-échelles.

Au delà de la neutralité conventionnelle de l’observateur ? Quelle place pour l'observateur dans le système observé ? Les arguments de la seconde cybernétique « l’homme dans la boucle ». L'approche scientifique traditionnelle s'appuie sur les concepts de la première cybernétique, à savoir que l'intervenant est un observateur extérieur du système étudié et que les « propriétés » de l'observateur ne doivent pas entrer en ligne de compte dans la description des observations. Dans cette première cybernétique, la part belle est donc faite au gouvernement d'un système depuis ce qui lui est extérieur, car on postule que son contrôle repose essentiellement sur le contrôle de ses entrées à partir de ses sorties. A contrario, en incluant l'observateur dans la boucle du système observé, la cybernétique de second ordre[4] prend aussi en compte ce que l'observateur système vivant et connaissant - et non seulement régulateur mécanique - peut exercer de contrôle sur lui-même en se fiant à ce qui lui est propre, c’est-à-dire à sa capacité subjective à induire le sens de l’expérience.

Cette approche de la cybernétique de second ordre - terreau historique de la pensée auto-éco-organisationnelle déployé par le paradigme systémique- permet de s’écarter de la vision statique des phénomènes pour entr’apercevoir l’instabilité des systèmes vivants, conçus alors comme étant « auto - éco - poïétique ». Cette notion prend tout son sens si l’on présente un système qui n’est pas autopoïétique (dit alors allopoïétique). Il est essentiellement hétéronome - non autonome - dans la mesure où ses transformations nécessitent une cause extérieure. Par exemple, un cristal, une pierre, sont perçus commene pouvant pas maintenir par eux-mêmes leur organisation interne tout en « évoluant » dans un contexte lui-même évoluant.  

Si l’on accepte d’étendre ces réflexions aux organisations humaines, il apparait que l’on peut mieux rendre compte de l’organisation d’un système vivant en le considérant comme étant « auto – éco-poïétique » : les sociétés humaines produisent le réseau dynamique  des actions, des objets matériels et sociaux, … qui en retour, les produisent et ainsi de suite. Ce qui nous apparaît, de notre point de vue d’observateur, comme étant « une forme » particulière, avec sa cohérence propre, est le résultat de cette dynamique de couplage entre artefacts, c’est-à-dire entre personnes, outils, et signes. Faut-il alors confondre la carte et le territoire ?

Par exemple, une vague qui se maintient comme telle, ne rend pas explicite l’interdépendance des éléments qui la rendent possible (à savoir la gravitation, le mouvement de la terre, la masse d’eau en jeu, le cycle des saisons, ...). Il n’y a pas d’essence de la vague, mais plutôt l’émergence d’une forme dynamique générée à partir des relations entre les composants du « système vague » et dont la forme est dépendante des possibilités de constructions liées aux propriétés physiques des composants.

Ceci implique que la configuration apparente d'un système n'est pas donnée au préalable et donc non étudiable en soi comme « objet », mais développée par le système téléologique « système finalisant », en tant que moyens pour agir et interagir dans un environnement complexe en cours d'évolution.  

  « Faire retour aux phénomènes et à l’expérience vécue » interroge donc les conceptions traditionnelles de la connaissance : l'approche phénoménologie de la manifestation de la complexité ne met pas seulement en question la complexité des phénomènes mais aussi l'expérience de la complexité que l‘on peut en faire.


[1] Latour, B. (1991). Nous n'avons jamais été modernes. Essai d’anthropologie symétrique. Paris : Editions de la Découverte

[2] Wallon, H. (1935). Le réel et le mental. Journal de psychologie, 5-6

[3] Nagel, T. (1974). « What Is It Like To Be a Bat? », Philosophical Review, 83, 435-450.

[4]Andreewsky, E. & Delorme, R. (2006). Seconde cybernétique et complexité. Rencontres avec Heinz Von Foerster. Paris : L’Harmattan.

11:27 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

05/04/2013

La face cachée des outils de gestion et le pouvoir structurants des outils : La Convention d‘objectif et le Parcours d’Excellence Sportive, outils de management des relations inter organisations et/ou outils de contrôle de gestion des fédérations ?

L’absence de modélisation traitant d’un champ propre au management public sportif dans le cadre original de la gouvernance partagée entre d’une part, l’état/ministère chargé des sports et d’autre part, les fédérations d'associations chargées d'une mission de service public, sur lesquels les managers sportifs pourraient s’appuyer pour donner du sens à leurs actions, conduit l’auteur de cette réflexion à s’interroger sur les conceptions qui sous-tendent l’ingénierie du management sportif. Celui-ci de prime abord et pour les acteurs des Directions Techniques Nationales interrogés, apparait comme étant essentiellement gestionnaire en s’intéressant principalement i) à la production de textes juridiques et réglementaires et ii) à l’efficacité des organisations sportives en tant que moyens pour atteindre les objectifs fixés par la politique publique (cf. le programme sport présenté selon les exigences de la Loi Organique relative aux Lois de Finances). Cette approche gestionnaire semble avoir négligé les questions théoriques sous jacentes à l’ingénierie mise en place pour se focaliser sur des visions économétriques de l’action managériale. Cette résurgence de l’empirisme naïf néglige l’idée qu’il n’y a pas plus d’outils neutres que de faits sans théorie, d’où le titre de cette étude « La face cachée des outils de gestion ». Il s’agit donc de s’interroger sur les modèles et l’ingénierie qui organisent le pilotage du « système sport ».

La face cachée des outils de gestion et le pouvoir structurant des outils comptables : Comprendre l’action collective via les instruments. Des instruments de gestion plus ou moins complexes issus du secteur marchand comme une démarche qualité, une cartographie des processus, un tableau de bord, une méthode de calcul des coûts, une gestion de projet, … sont transposés et mobilisés dans la gestion des organisations. Certes ces outils sont des auxiliaires indispensables à l’action du manager, mais si « les instruments mobilisés dans la gestion constituent un élément décisif de la structuration des situations et de leur évolution, … ils engendrent souvent mécaniquement des choix et des comportements échappant aux prises des volontés des hommes, parfois même à leur conscience ; ils conduisent ainsi les organisations dans des directions voulues parfois par personne et les rendent même rebelles aux efforts de réforme  » (Berry, 1983). Ainsi, à travers un jeu d'indicateurs « simples » liés aux objectifs, on pourrait laisser penser que l’on dispose d’un outil de pilotage stratégique par les nombres, mais les auteurs de ces approches oublient la complexité et l’évolution des « réalités » qu’ils mesurent : le niveau de l’action n’est pas forcément stable et la focale de l’analyse doit être capable de suivre les évolutions du réel.

Les notions d’outil, dispositif, artefact, d’objet intermédiaire, … contribuent à la reformulation d'une problématique ancienne et récurrente qui est celle du statut des objets techniques, de la pragmatique de leur usage et de leur appropriation dans les activités de travail. Les activités coopératives complexes que les objets techniques permettent/supportent, exigent – au delà de leur propre technicité « neutre »  à laquelle on les réduit souvent - la prise en compte et l'interaction des dimensions ergonomiques, cognitives et plus largement anthropologiques et sociales. Pour Lorino 2002  « … comptabilité analytique, tableau de bord, target costing, se muent en acteurs capables de vouloir, décider, imposer, chercher, trouver, choisir, animer à eux seuls la scène de l’entreprise, dans une sorte de théâtre animiste dont les personnages sont des instruments de calcul, des systèmes d’imputation et des tableaux d’indicateurs. ». Les instruments de gestion induisent des automatismes de décision et de comportement ; ceci peut être voulu explicitement, selon l'idée qu'on ne peut débattre de tout à chaque instant. Mais on peut assister à une véritable mécanisation des comportements, les instruments de gestion engendrant des rationalités autonomes, jugées aberrantes de l'extérieur, mais solidement maintenues en place. Cette vision gestionnaire est « instrumentalisée, car elle est marquée par des modes qui, toutes sans exception, sont supposées résoudre tous les problèmes, du « tout contrôle de gestion » au « tout qualité » au « tout tableaux de bord équilibrés, au « tout indicateurs ». Cette instrumentalisation fait fi des présupposés philosophiques et politiques (quelle administration veut-on ?) ainsi que des êtres humains qui la composent (quelles valeurs voulons-nous promouvoir ?) » (Rochet, 2011). En outre, la vigilance des agents sur l'évolution du contexte dans lequel ils sont placés peut être déjouée par les indications fournies par leurs tableaux de bord, chacun cherchant à faire bonne figure au regard des valeurs relevées sur ces indicateurs, fût-ce au prix d'acrobaties plus ou moins clandestines. De fait, les gestionnaires sont rarement en mesure de contrôler l'activité des professionnels pour des raisons de connaissances et de légitimité insuffisantes. Ils décalent donc le contrôle en aval (définition des indicateurs « pertinents ») et en amont (mise en place d'outils de suivi), et finissent malheureusement par avoir une influence sur l'activité elle-même, puisqu'une partie des acteurs en arrivent à travailler pour satisfaire à ces attentes normatives. Ainsi, la méthode retenue par la LOLF pose, dans son principe et dans son application, plusieurs problèmes majeurs « épistémique ». Il s'agit de mesurer l'action d'une organisation - l’état - dont les objectifs sont par nature globaux, de long terme, non principalement économiques et dictés par des choix politiques fondamentaux, qui correspondent à des enjeux sociaux, économiques et culturels dépassant de loin ceux qui sont mis en œuvre dans les différents programmes. D’un point de vue systémique, l'isolement artificiel des actions de l’état dans la définition d’indicateurs indexant des phénomènes sociaux complexes, oublie la synergie, les interactions et coopérations entre l’état et les autres acteurs parties prenantes du programme.

La gouvernance sportive dans un contexte de relations inter-organisation : dép(l)acer les bornes de l’écosystème pour mieux coopérer ? Les organisations ne sont pas des systèmes clos, refermés sur eux-mêmes, mais des systèmes ouverts, souvent sans frontières toujours bien définies. La question des relations entre les organisations et leur environnement s’est complexifiée au fil du temps et a évolué vers l’idée d’une structuration réciproque : les organisations façonnent leur environnement en même temps qu’elles sont façonnées par lui. Pour H.A. Simon (1983), « le problème fondamental de la gestion n’est plus aujourd’hui de savoir « comment produire » une fois la décision prise quant à la nature et à la quantité de biens et services en question. Il s’agit là d’un problème que l’on sait résoudre depuis longtemps et qui est devenu secondaire par rapport à celui qui consiste à organiser le système de prise de décision entre plusieurs niveaux et plusieurs centres, sachant que les performances de l’organisation dépendent de la qualité des liens que l’on saura tisser entre ces différents centres de décision, de la pertinence des objectifs affichés, de l’information transmise et des incitations mises au service de la convergence des comportements ».

Pour Bayle (2010) la nature multidimensionnelle des objectifs des organisations sportives ne peut réduire celles-ci à la seule dimension financière et réglementaire et interroge l’ensemble de la gouvernance sportive impliquant des relations inter-organisationnelles et à minima les deux organisations « ministère chargé des sports » et d’autre part, « les fédérations d'associations chargées d'une mission de service public » (voire le CNOSF, les diverses collectivités territoriales et surement des associations défendant des intérêts catégoriels). Les situations d’interdépendance entre état et fédérations crée une relation de fait entre les deux types d’organisation qui peut être définie comme « un processus dans lequel deux organisations au moins forment au cours du temps des liens puissants et étendus, de types social, économique, de service et technique, dans le but de réduire les coûts et/ou d’augmenter la valeur reçue et ainsi d’en tirer un bénéfice mutuel » (Huault, 2004). Ces formes de relations inter-organisationnelles sont devenues des éléments incontournables de la vie des organisations sportives multi niveaux et conduisent à la construction de technologies et de modes de travail basés sur des flux de données et de relations – des conventions – qui vont au-delà des frontières de chaque organisation, des outils  pour envisager la coordination et la régulation des actions. Ce faisant, il convient de réfléchir la nature des outils utilisés dans les relations entre acteurs.

Les cadres normatifs de la Convention d’Objectif (CO) et du Parcours d’Excellence Sportive (PES). Les conventions d’objectifs reposent sur les bases législatives de l’organisation du sport en France : article L. 100-2 du code du sport. Dans cet esprit, la convention d’objectifs, en règle générale pluriannuelle, est l’outil central du partenariat entre l’Etat et les fédérations sportives. Elle concrétise la volonté d’engagement du ministère chargé des sports et de ses partenaires associatifs pour une participation commune à la mission de service public de développement des activités physiques et sportives. Elle est la traduction opérationnelle et financière d’une politique sportive partenariale fondée sur le dialogue entre deux organisations et contractualisée i.e. fondée sur des engagements réciproques, évalués chaque année. Le Parcours de l’excellence sportive s’insère dans le cadre global de la convention d’objectif, notamment de l’action 2 (Développement du sport de haut niveau : 2.1 Préparation aux compétitions de référence ; 2.2 Filières d’accès au sport de haut niveau ; 2.3 Insertion sociale et professionnelle, aides personnalisées ; 2.4  Suivi de la santé des sportifs inscrits sur les listes de HN ; 2.5  Participation à la mise en œuvre de grands événements sportifs). La hauteur de l’accompagnement par l’état des actions fédérales, moyens humains et financiers mis en place, est déterminée dans ce cadre.

Une position historique de l’état non interrogée. Dans la conception classique de l’économie, le recours à l’intervention de l’état a souvent été perçu comme la solution idéale, pour résoudre la question de l’intérêt collectif - ici plus particulièrement de l’usage de la ressource financière et humaine - face aux intérêts particuliers portés - ici - par les fédérations sportives. Les biens publics sont alors des biens qui par leurs caractéristiques ou leurs effets requièrent l’intervention de l’Etat qui intervient par exception au principe marchand. C’est cette tension entre intérêt individuel et intérêt collectif qui caractérise les situations dites de dilemmes sociaux et qui fonde – aux yeux de certains – la légitimité et la pertinence d’un management public spécifique (article L.131-14 du code du sport traitant de l’organisation du sport en France).Dans le « New Public Management », le contrôle de gestion qui s’inscrit dans la continuité de la comptabilité analytique, est le processus par lequel les responsables s’assurent que les ressources obtenues sont utilisées avec efficacité par rapport aux objectifs, et efficience par rapport aux moyens employés, pour réaliser les objectifs de l’organisation. Idéalement et dans une conception mécaniciste (que nous discuterons dans la suite) le contrôle de gestion se définit comme la mesure de la performance d’une organisation : il a pour fonction essentielle de mesurer les écarts entre les objectifs prévus et les objectifs réalisés en vue d’apporter des mesures correctives. Apparait alors une approche qui privilégie la dimension « macro » de la politique publique, les enjeux de gouvernance et les aspects sociopolitiques (cf. les débats sur la gouvernance sportive suite aux Jeux Olympiques 2012 – Institut Montaigne - Terra Nova, …), basée sur une figure conceptuelle traditionnelle de la pensée économique et administrative qu’il convient de réfuter : « l’agent représentatif » (Kirman, 1992). Partant du constat selon lequel l’atteinte d’objectifs complexes, multidimensionnels nécessite un renouvellement des systèmes de mesure des performances, la « quantophrénie » actuelle (tendance à utiliser de façon excessive les données numériques et chiffrées dans l’approche des phénomènes sociaux) transforme le travail sur les objets à quantifier en une recherche de virtuosité méthodologique stérile et vide de sens (cf. par exemple, le découpage des indicateurs de performance en de nombreux items et sous-items … qu’il faudra cependant agréger par la suite !) s’appuyant sur une présentation pour le moins naïve de catégories supposées discriminantes et de succession de chiffres sensés les documenter. La cour des comptes elle-même, en 2011 p 104 dénonce cette orientation. Cette logique procède de ce que Claude Rochet appelle « l’institutionnalisme naïf », i.e. le changement des institutions formelles par en haut, par une approche purement juridique/réglementaire qui nie toute dynamique des acteurs au niveau des territoires d’où émergent les institutions informelles. De nombreux auteurs et en particulier Elinor Ostrom (1990) (re)lance les débats sur la gestion collective des biens d’intérêt commun ouvrant la possibilité d’une « troisième voie » fondée sur les capacités d’auto-organisation et d’auto-gouvernance des collectifs. Et ainsi Philippe Bana (2012) de s’interroger « Pourquoi les fédérations n’auraient elle pas la possibilité d’avoir plus de missions, d’avoir plus de responsabilités, de bénéficier d’une confiance de l’Etat supérieure à ce qu’elle est ? On voit aujourd’hui l’aspect tatillon, lourd des vérifications de subventions par l’Etat alors que les marges de changement de subvention sont toutes à 1% près ; tout çà pour çà ! On pourrait demain clairement donner plus de responsabilités aux fédérations en contrepartie de garanties sur leurs projets, leurs résultats et leur gouvernance  »

Des changements possibles ? : Un exemple, le Parcours d’Excellence Sportive. Une bifurcation dans l’histoire des dispositifs et outils de pilotage. Longtemps, la détection des jeunes talents et l’entrée dans les structures spécialisées ont fait l’objet de tests de différentes natures qui se voulaient prédictifs d’une réussite future au sein des « filières d’accès au sport de haut niveau ». Ce dispositif s’est appuyé sur les hypothèses scientifiques de la détection et de la sélection des sportifs. Malgré la qualité et la quantité des études produites, les résultats de cette démarche normative n’ont pas été à la hauteur des espérances initiales. Pour de nombreux entraineurs expérimentés, leur jugement syncrétique leur apparait plus signifiant que les données statistiques issues de ce testing analytique.Face à ces limites une seconde perspective s’est progressivement dégagée. Il ne s’agit pas tant pour les entraineurs de déterminer les qualités de base pour atteindre un haut niveau d’expertise, mais plutôt de comprendre l’émergence de l’excellence en s’appuyant sur l’idée selon laquelle, les qualités nécessaires pour parvenir à un haut niveau de compétence dans un domaine s’acquièrent progressivement et dépendent de la qualité de l’environnement de la pratique dite « délibérée ».  

Cette transformation s’est accompagnée de la proposition d’un nouvel environnement organisationnel – « les parcours d’excellence  sportive » - et de nouvelles pratiques plus atypiques d’accompagnement des athlètes.  « Les évolutions successives de nos dispositifs ont conduit à une logique essentiellement tournée vers les structures, la modélisation, et le contrôle pour justifier l’attribution de moyens. La logique de la réforme proposée doit aller dans le sens de la responsabilisation, la confiance accordée aux acteurs, et en particulier les DTN, les spécificités des sports et des disciplines, la souplesse de dispositifs ouverts, mais maîtrisés, et la réactivité pour mieux servir les ambitions de la France dans le paysage de concurrence internationale dont le sport fait partie intégrante. Un resserrement sur l’élite de chaque fédération et l’accompagnement de collectifs mieux maîtrisés seront également recherchés pour éviter la dispersion des actions et des moyens ». (Extrait d’entretien avec un membre de l’ex Préparation Olympique et Paralympique). La volonté de passer d’une politique de moyens, de contrôle et de structures, à une stratégie de performance et d’objectifs caractérisée par le pilotage, l’adaptabilité, la réactivité et la confiance nécessite d’affronter la controverse évoquée ci-dessus « détection des talents » vs « accompagnement des potentiels » et de tirer les leçons des expériences, des réussites et échecs des dispositifs précédents et des conceptions qui les animaient.

Un questionnement sur « la valeur » des biens sportifs de « propriété commune » : l’économie des singularités. Le contrôle de gestion - et par suite le dialogue de gestion i.e. le processus d’échanges entre un niveau administratif et les niveaux qui lui sont liés - est un dispositif conduisant à assurer le pilotage d’une organisation, en apportant la connaissance des coûts, des activités et des résultats permettant d’améliorer le rapport entre les moyens engagés et les résultats obtenus. Dans ce raisonnement, la valeur des choses est alors importante à considérer. Quelle est la valeur d’un oiseau chanteur (Funtowicz & Ravetz, 1994) ? Est-ce que la détermination de sa valeur (en un seul numéraire i.e. monnaie) doit être la seule information dans le débat sur les choix à effectuer? Comment évaluer par rapport aux questions posées par le problème (i.e. enjeux systémique). Cette question peut apparaitre saugrenue mais évaluer quelque chose qui échappe aux valeurs commerciales ordinairement connues, pousse à réfléchir à la fois nos raisonnements économiques et les modèles qui sous-tendent la production des connaissances en ce domaine. Les fameux « modèles » économiques dont les catégories ne rayonnent pas de clarté et d’évidence, traduisent souvent la prééminence d’une grille de lecture comptable et conduisent à s’interroger sur les fondements même de la « gestion » qui peut en découler. Mais au-delà de cette vision, quelle est la valeur d’une fédération sportive ? Quelle est la valeur du travail des milliers de bénévoles des clubs qui font le sport français ? Quelle est la valeur de ces collectifs organisés ? Évaluer la valeur d’un oiseau chanteur résume ainsi les questions que l’on peut se poser pour utiliser les sciences économiques et de gestion en tant qu’outils conduisant/accompagnant des prises de décision efficace et durable pour l'action/projet. Les théoriciens classiques en économie rapportent la valeur des biens à la quantité de travail nécessaire à leur production. La révolution néoclassique a remplacé cette hypothèse par l’idée que c’est l’utilité des biens qui fonde leur valeur. Ces deux conceptions, selon André Orléan (2012), doivent être mises à distance car au delà de leur différence, classiques et néoclassiques partagent encore l’idée essentielle d’une substance de la valeur (le travail pour les uns, l’utilité pour les autres) que les biens posséderaient en propre : « contrairement à ce qu’affirme le paradigme substantialiste, les valeurs ne sont pas une propriété intrinsèque des biens sur laquelle reposent les échanges : elles ne préexistent pas à ces échanges mais sont créées par eux ».

Cependant, si la théorie économique classique fait du prix la commune mesure de tous les produits est-elle d’un quelconque secours quand nous devons choisir un bon restaurant, un bon avocat, le meilleur athlète ou encore le meilleur entraineur pour un sportif ? Dans la réponse négative que donne Lucien Karpik (2007) à cette question en apparence triviale, réside l’ambition de l’économie des singularités qui est de proposer un cadre théorique capable de rendre compte de toutes les transactions portant sur des biens multidimensionnels et de qualité incertaine que Karpik appelle les biens singuliers. Une des propositions de départ de cette modélisation est que, pour ces biens spécifiques et à la différence des biens standards, la concurrence par les prix est moins déterminante qu’une concurrence par la qualité. Les singularités sont des biens et services multidimensionnels et indivisibles, incomparables en ce sens qu’ils ne peuvent pas être mis en rapport les uns avec les autres à travers des grandeurs communes (cf. par exemple le recrutement d’entraineurs – d’athlètes étrangers sur des critères singuliers). Leur prix n’est pas un vecteur de choix, il agit certes comme une contrainte financière mais ne constitue pas nécessairement un signal marchand de la qualité.

Et la question de la valorisation des externalités ? A cette interrogation sur la valeur des biens multidimensionnels et de qualité incertaine, s’ajoute la question de la valeur monétaire des activités dans le secteur marchand et non marchand associatif. Dans les activités associatives, les multiples interactions humaines liées au  travail, ne sont que très imparfaitement comprises par l’état actuel de la conception marchande des activités : à la frontière de la sphère marchande et de la sphère non marchande s’opèrent des passages d’une sphère à l’autre qui ne sont pas automatiquement compensés financièrement. Ceci caractérise les « externalités ». Le concept d'externalité correspond à une situation où : « une personne A, alors qu'elle est en train de rendre un certain service, contre paiement, à une autre personne B affecte incidemment, en bien ou en mal, d'autres personnes (non productrices de services similaires), et cela de telle manière qu'un paiement ne puisse être imposé à ceux qui en bénéficient, ni une compensation prélevée au profit de ceux qui en souffrent ». Une illustration est l'exemple des incendies de forêt provoqués par les locomotives à vapeur. Le passage des trains est profitable aux voyageurs et aux compagnies, mais les escarbilles peuvent mettre le feu aux parcelles boisées le long des lignes et entraîner ainsi un sinistre préjudiciable aux propriétaires forestiers, acteurs qui ne participent pas à l'échange du service ferroviaire. Les externalités positives sont d’un grand intérêt pour expliquer ce que les économistes appellent le « surplus de productivité globale », c’est-à-dire ce que l’on ne peut pas expliquer par la contribution du travail, ni par celle des investissements, ni par les progrès de la technique.  Il est fait la distinction entre i) les « coûts privés » i.e. les paiements faits par le producteur pour la réalisation des produits et, de même, par le consommateur pour obtenir des biens de consommation ; ii) les « coûts sociaux » i.e. les coûts d’opportunité associés à une activité de production ou consommation qui ne sont pas « pris en charge »  par le producteur/consommateur lui-même. L’économiste parle dans ce dernier cas de « coût externe » (et aussi de « bénéfice externe ») ou d’externalité. La démarcation entres coûts « privés » et coûts « sociaux » est essentiellement déterminée par la société. Une externalité est donc une sorte de bonus (ou malus) auquel l’agent économique bénéficiaire n’a pas contribué. Ce concept traduit concrètement l’interdépendance des différents acteurs économiques ou non. Citons par exemple, des externalités positives de la pratique sportive concernant la santé, la cohésion sociale, la réputation, l’aménagement du territoire, et des externalités négatives comme le hooliganisme, les nuisances et la détérioration de l'environnement.

La gestion des externalités devient alors un enjeu stratégique majeur pour toute organisation en réseau. Dans ce questionnent sur « la valeur » des biens sportifs de « propriété commune », on peut s’interroger sur la façon dont l’état et le mouvement sportif considèrent et peuvent intégrer dans leurs indicateurs économiques et le calcul de leur équilibre économique, des externalités jusqu'ici jamais comptabilisées, mais qui les affectent pourtant d’une façon ou d’une autre.  Ce que Moulier Boutang (2008) appelle le « capitalisme cognitif » - qui n'est pas une extension du capitalisme industriel de la connaissance « substance » – mais qui concerne le capital intellectuel et humain, les interactions sociales informelles, la partie implicite et contextuelle des connaissances en acte, l’expérience (cf. la valeur des compétences nécessaires pour les JO) qui représente une accumulation singulière de l'expérience et devient l'un des principaux vecteurs de création de valeur. Si le tout s’avère alors plus grand que la somme des parties c’est parce que l’activité sportive associative incorpore de nombreuses externalités positives. L’état, les fédérations doivent-ils prendre en compte dans une vision économique « durable » des fédérations, l'utilité sociale du sport ?

Le passage du « national » (la convention d’objectif) au « local » (le Parcours d’Excellence Sportive) : la question de l'intégration multi-échelles/multi-niveaux traverse l'ensemble des process. Alors que traditionnellement la discussion s’est longtemps focalisée sur le dilemme « gestion étatique versus privatisation »,  la réémergence du niveau territorial et la redécouverte des modes locaux de gestion des ressources amènent à élargir le cadre de réflexion. On peut légitimement s’interroger sur la possibilité du transfert du cadre d’analyse de la gouvernance globale des biens de « propriétés communes », à des questions plus locales. Et inversement, l’analyse de situations locales peut-elle se passer d’une compréhension des politiques impulsées à l’échelle nationale, européenne voire internationale Comment tenir compte de l’emboîtement des échelles dans la gouvernance des « commons » ? L’idée d’échelles ou de niveaux permet envisager à la fois : i) les hiérarchies de types institutionnelle, administrative et/ou politique où la décision publique s'applique selon une démarche descendante depuis les politiques nationales jusqu'aux unités administratives des communautés territoriales ; ii) mais aussi des processus plus ouverts, des émergences successives apparaissant au niveau des strates locales, dans lesquelles s'organisent des décisions/actions individuelles et/ou collectives nécessitant des processus de coordination d’une part, des échelons d’initiatives et de responsabilités et d’autre part, des activités multiacteurs (sous forme de partenariats par exemple). On distingue classiquement deux approches suivant le niveau que l'on choisit pour appréhender et expliquer un phénomène donné : i) d'un côté, le niveau micro qui désigne le niveau où s'engagent les actions et qui fait en général, référence à l'individu ou à une organisation bien identifiée ; ii) de l'autre, le niveau macro, niveau auquel on appréhende les phénomènes dans leur globalité et qui fait en général, référence au système – ici, sportif.

Dans la compréhension de la gouvernance où un phénomène particulier observé à un certain niveau peut être expliqué par des processus opérant à d'autres niveaux d'observation, la boucle – récursive - qui lie ces deux niveaux est d'un intérêt fondamental pour transcender l'opposition individuel/collectif, en appréhender les deux conjointement : i) tant dans le sens bottom-up, où l'on s'intéresse aux macrostructures produites par l'ensemble des actions des individus que ii) dans le sens top-down, où l'accent est mis sur l'influence des macrostructures sur les comportements individuels. Cette dimension nécessite d’être attentif aux écosystèmes dans toute leur complexité et d’intégrer d’emblée la structure feuilletée, multi-échelle du social et sa complexité au travers des notions d’arènes d’action et de systèmes polycentriques, d’émergence, de feedback.

Affronter l’incertitude et la complexité : la fin d’un cycle managérial ? La gouvernance sportive a été conçue depuis 50 ans comme un dispositif pyramidal et hiérarchique, qui définit depuis le « haut » un cadrage précis ainsi que des modes de passage à l’action, même si la pratique contextuelle l’a heureusement bousculé depuis longtemps : « cette structure omniprésente est peut-être nécessaire, mais c’est contre cette logique que les choses se passent ! » (Extrait d’un entretien avec un DTN). Parce qu’ils ont été très efficients, nous sommes en train de recycler les modèles de management et de gouvernance construits à partir de l’échec aux Jeux Olympiques de Rome en 1960, en tentant de pousser leur efficacité au maximum et aux yeux des acteurs, leur management connaît une bureaucratisation croissante. Dans un contexte de profonds changements institutionnels - concernant en particulier le mouvement de déconcentration/décentralisation - provoquant la multiplication des intervenants (au plan national et international, territorial, local, public, privé, …), on assiste à une double complexification des procédures de conception et de mise en œuvre des projets : - i) pour garder un contrôle sur des actions de plus en plus complexes et sur l’utilisation de leurs financements, l’institution  multiplie les outils et les procédures, tant en amont (cadre « logique », définition d’objectifs précis, programmation ex ante) qu’en cours de projet (programmes d’activités annuels et/ou pluri annuels, règles strictes de suivi comptable, etc.). Ceci réduit la nécessaire souplesse nécessaire à l’action en contextes locaux variés, dynamiques et incertains, et impose sa propre rigidité à l’ensemble des acteurs parties prenantes ; - ii) les modes d’organisation des projets sont conçus au profit de logiques du « faire faire » i.e. impliquant le statut implicite et/ou explicite « d’opérateurs » dans une gouvernance qui se veut « partagée », ce qui induit une complexification forte des montages institutionnels, avec de multiples partenaires à coordonner, de nouvelles procédures contractuelles et de nouvelles incertitudes institutionnelles (cf. les avatars du statut des CTS dans les fédérations, par exemple).

Le paradoxe est que ce double renforcement des procédures s’applique à des projets de plus en plus « pluri-acteurs » comportant de nombreux enjeux politiques, économiques et sociétaux dans les arènes locales et qui ne peuvent être mis en œuvre que s’ils suscitent l’adhésion des acteurs concernés et que s’ils arrivent à négocier des soutiens politiques locaux. La prise en compte de l’incertitude inhérente à l’activité projet et à la multiplicité des parties prenantes amène à mettre en question les processus normalisés au profit de processus de construction d’une action collective et collaborative. Les conceptions institutionnelles actuelles  appuyées sur l’idée d’un modèle causal linéaire, qui fait un lien direct entre des actions et des impacts, est remis en cause de longue date dans les sciences sociales et dans les analyses de l’action publique. Il est sans doute temps de réfléchir à la capacité de cette politique à s’interroger et que se construisent et se reconnaissent « chemin faisant » de nouvelles pratiques managériales pour anticiper et affronter les réalités émergentes.

cf. Rapport d'étude ci-contre et groupe de discussion

http://www.linkedin.com/groups?mostRecent=&gid=4464167&trk=myg_ugrp_dis

 

15:09 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

03/04/2013

Le sport, ordres – désordres. A propos de ma participation le 4 avril à l’émission « R » du sport de l’Insep

1. Du désordre, on fait d’abord et avant tout l’expérience. Plutôt qu’une définition formelle des notions d’ordre et de désordre, essayons de partager un constat traitant « de ce que les choses sont » du point de vue du sujet agissant.

Le paradoxe est le suivant. Bien que les événements compétitifs soient longuement préparés et soigneusement planifiés, ils sont partiellement imprévisibles à la fois, quant à leur déroulement et leur résultat. Certes, les managers, les entraineurs et les athlètes font beaucoup d’efforts pour planifier l’entrainement, pour coordonner les actions, pour prévoir leurs comportements, pour que les rendez-vous aient lieu, pour que les compétitions soient réussies, ... D’un certain coté, les activités des entraîneurs et des athlètes sont donc pour une part, des actions ordonnées, contraintes, identifiables dans leurs contextes par rapport à des buts qui sont imposés par les procédures & techniques sportives mais d’un autre coté, on observe que ces activités sont aussi pour une large part imprévues, autodéterminées et au final auto-organisées c'est-à-dire « bricolées en temps réel ».

Des décisions parfois lourdes de conséquences sont prises pour des raisons très contingentes : un environnement qui évolue, des événements inattendus qui ont lieu (blessure), des changements qui émergent de processus apparemment routiniers … C'est la question de la norme, des règles pour l'activité et de la renormalisation en actes et en situation qui est ici, posée. Dans ce processus bien documenté de « renormalisation en acte », les règles sont renégociées régulièrement, les rôles redéfinis, les choix réexaminés, … Les acteurs sont contraints de prendre en compte des événements imprévus, des temporalités étendues et multiples, des causalités hétérogènes, des phénomènes de singularité, de désordre, de paradoxe contre lesquels les sciences du sport se sont en grande partie construites.

Une première remarque est que cet « ordre » n’est pas l’expression de déterminations issues de lois mathématiques extérieures aux acteurs - mais bien en grande partie le fruit de leur activité permanente, de leurs interactions et coordinations en acte et de (re)mise en ordre continuelle.

Une seconde remarque est que faute de donner à l’imprévisibilité un statut précis dans l’analyse, les chercheurs ont pris l’habitude de raisonner comme si cela n’existait pas renvoyant la manifestation du « désordre » à l’erreur, aux risques, à l’incompétence, voire à la morale en évoquant la transgression à la norme.

Il s’agit donc de donner une place à l’imprévisibilité dans la compréhension de nos actions quotidiennes et à échapper ainsi à un schéma binaire dans lequel les situations sont vues soit : i) comme totalement déterminées, prévisibles et susceptibles alors de relever de prescriptions de différentes natures pour les contrôler - ii) comme totalement imprévisibles, arbitraires et sur lesquelles les entraineurs - managers n’auraient aucune prise.

2. Les cadres théoriques du raisonnement des sciences du sport en sport de haut niveau sont aveugles à de tels phénomènes et n’offrent guère d’outils pour traiter cette dimension. Si l’on prend au sérieux le constat précédent, nous sommes conduits à constater un « déficit d’explication » dans l’approche des phénomènes de l’entraînement.

Pourquoi ? Faute d'interrogations sur leurs outils théoriques, les chercheurs sur le sport de performance considèrent très majoritairement que les situations qu'ils analysent sont stables, prévisibles, structurellement « ordonnées », « déjà là »...

Dans la conception déterministe qui les organise, tout le futur est entièrement contenu, déterminé par le présent : connaissant les lois du mouvement et les conditions initiales, ils déterminent avec certitude le mouvement futur pour un avenir aussi lointain que nous le souhaitons. L’exemple illustrant ceci renvoie à nos souvenirs mathématiques du collège : si un train roule à 50 km par heure combien aura-t-il parcouru au bout de 2 heures – 5 heures – 100 heures ? Ce qui signifie qu'en ayant une connaissance de tous les éléments constitutifs et de toutes les relations existantes dans un système, il serait possible de prévoir l’évolution de ce dernier.

La conscience de l'oubli de l’écosystème d’action nous ramène vite à l’aspect artificiel de ce type de raisonnement linéaire et normatif évacuant les singularités. Recherchant surtout des causalités et des régularités, ces approches ne disposent pas de concepts permettant de donner du sens à des situations d'instabilité, d’ambiguïté, de contingence, de bifurcations, de points de basculement, … alors que les praticiens se trouvent confrontés en permanence à ces phénomènes. 

Notre histoire scientifique et les changements sociétaux nous conduisent dans un monde où il faut acter la fin des certitudes, de la complétude, de l'exhaustivité, de l'omniscience pour envisager une transformation inéluctable de la façon de construire nos connaissances.

dd.jpg3. Comment penser le désordre et l’ordre ? Le préfixe « des » tend à indiquer une séparation nette entre ordre et désordre et le terme de « désordre » est sous le signe de la privation, de la négation : le désordre s'annonce avant tout comme une absence d'ordre. Mais ces deux phénomènes sont irrémédiablement liés : le désordre n'est pas une absence d'ordre et dans une vision dynamique - historique, ils ne sont pas concevables l’un sans l’autre car ils se coproduisent l’un l’autre dans une tension continuelle.  Expliquons ceci en nous appuyant – ici - essentiellement sur les notions « d’auto-organisation et de criticalité » :

L’auto organisation est un processus d’organisation émergeant – non prévue à l’avance - et résultant de l’interaction de chacun de ses éléments. La métaphore du vol d’étourneaux explique bien qu’un « ordre global » peut être produit sans qu’il n’y ait ni leader, ni centre organisateur, ni programmation au niveau individuel du projet global dans sa forme finale et évolutive.

Ce qui caractérise les systèmes auto organisés c’est l’émergence et le maintien d’un ordre global sans qu’il y ait un chef d’orchestre mais des interactions entre ces membres (d’où l’importance de reconsidérer la notion de réseau) : il n’y a pas de principe d’ordre supérieur mais comme le propose Henri Atlan (Entre le cristal et la fumée) un principe « d’ordre par le bruit » que Heinz von Foerster avait proposé dans son article : « On Self-Organizing Systems and their Environments »

La théorie de l’auto-organisation et la « criticalité » expliquent que certains systèmes, composés d’un nombre d’éléments en interaction dynamique, évoluent vers un état critique, sans intervention extérieure et sans paramètre de contrôle. L’amplification d’une petite fluctuation interne peut mener à un état critique et provoquer une réaction en chaîne menant à un changement de comportement du système.

Un modèle simple illustre ce phénomène : le tas de sable. L’expérience de Peter Bak consiste à ajouter régulièrement des grains à un tas de sable. Petit à petit le sable forme un tas dont la pente, en augmentant lentement, amène le tas de sable vers un état critique. L’ajout d’un grain peut alors provoquer une avalanche de toute taille, ce qui signifie qu’une petite perturbation interne n’implique pas forcément de petits effets : dans un système non linéaire, une petite cause peut avoir une grande portée. Les avalanches connaissent donc différentes amplitudes qui sont toutes générées par une même perturbation initiale (un grain de sable supplémentaire).

L’état critique auto organisé d’un système est donc un état ou le système est globalement métastable tout en étant localement instable. Cette instabilité locale (de petites avalanches dans le modèle du tas de sable) peut générer une instabilité globale plus ou moins forte qui ramène ensuite le système vers un nouvel état métastable (l’importance des avalanches de sable est inversement liée à leur fréquence. Il y a peu d’avalanches de grandes tailles et beaucoup de petites).

On peut considérer que certaines situations sportives sont dans un état métastable et métaphoriquement, on peut se demander avec l’accumulation des charges, quel « grain de sable » perturbera le système et conduira à sa réorganisation. Ce qui est intéressant - ici - c’est que le raisonnement quantitatif rejoint les aspects qualitatifs : plus de … a des impacts sur l’organisation du système.

4. Et si on se formait au « désordre » ?

Toute organisation est guettée par l’usure entropique, absorbe de moins en moins aisément les chocs imprévus et ne trouve plus de réponse aux « bruits » qui l’assaillent. Or vivre, c’est défier l’entropie. Autrement dit, un système survit non par la simple mécanique répétitive d’un ordre préconçu, mais par la faculté de se réorganiser « en conscience ». C’est bien sur cette voie que ce blog veut entrainer ses lecteurs

 

13:32 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |