Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

23/06/2012

S’interroger sur l’effectivité des stratégies des organisations ?

1. Efficacité – Efficience – Effectivité ? Il est naturel de s’interroger si les ressources – au sens le plus large de ce terme - affectées à un programme d'action permettent d’atteindre les objectifs souhaités et répondent aux besoins préalablement identifiés. Référée aux idéaux de la mécanique, la notion d’efficience conduit à établir un rapport entre les ressources utilisées et les services produits visant ainsi à rechercher son optimalité. La rationalité causale consiste alors à choisir le moyen le plus efficace en termes de ressources (le moins cher, le plus rapide, …) pour atteindre un but donné. Le recours à des indicateurs quantifiables et souvent pensés comme étant « objectifs », est évidemment la première piste que les managers vont suivre pour tenter d’évaluer et/ou de contrôler les stratégies de leur organisation. Dans une gouvernance davantage basée sur des faits probants – i.e. l’approche « evidence based policy » - que sur les opinions et avis des parties prenantes, les indicateurs construits à cet effet sont susceptibles de fournir des informations nécessaires à la détermination d’objectifs stratégiques, au suivi des effets de ces stratégies et au final, d’informer les décideurs du niveau et de l’évolution d’un phénomène particulier. Les approches « evidence-based » cherchent à renouveler les démarches d’aide à la décision/action en proposant des méthodes offrant une alternative aux pensées stratégiques reposant trop exclusivement sur des opinions et s’exonérant – selon elles - de données « probantes » … à moins d’envisager dans une vision 2.0 impliquant la participation des acteurs, le paradoxe de la « sagesse des foules » qui avance que les meilleures décisions de groupe - émergeant en fait des désaccords et même des conflits - proviennent d'un grand nombre de décisions individuelles indépendantes. (James Surowiecki, 2005 cf. http://fr.wikipedia.org/wiki/La_Sagesse_des_foules).

Cette référence à la « politique des preuves » - aujourd'hui largement promue dans notre monde quantitativiste - nécessite de s’interroger sur le sens et la pertinence des propositions « statistiques » qui sont avancées pour rendre compte de l’effectivité des actions des organisations. L’effectivité concerne « ce qui est effectif, qui produit un effet  », i.e. « l’évaluation de la distance entre ce que l’on fait effectivement et ce que l’on voudrait faire » (Jean Louis Le Moigne, 1985 cf.http://www.mcxapc.org) et ne peut être évalué a priori par des indicateurs, sans s’interroger sur les intentions et les process de l’organisation. Par exemple, dans une vision non déterministe et émergente du management d’organisation dans des environnements très incertains, Sarasvathy (2001 cf. http://www.effectuation.org/research/papers) pense que le manager ne raisonne pas selon la logique de l’efficience mais qu’il applique une autre logique qu’il nomme « effectuale » qui consiste à partir des ressources dont il dispose et de rechercher les effets que ces moyens permettent d’atteindre. Un effet atteint devient alors un nouveau moyen, permettant d’atteindre de nouveaux effets, pouvant définir de nouveaux buts et ainsi de suite ... Cette réflexion est d’autant plus nécessaire que les indicateurs de la performance organisationnelle changent – si l’on y prend garde - très vite de statut et prennent la place des objectifs de l’organisation impactant le fonctionnement au quotidien. Trop souvent le diagnostic – l’évaluation aidante – devient un outil de contrôle, de comparaison, de management de proximité (cf. ce blog « Comment faire pire en croyant faire mieux ? »).

2. La mesure des effets : de la nécessité de différencier des preuves de causalité et des preuves d’effectivité ? « Toutes choses étant égales par ailleurs », un raisonnement causaliste et normatif s’attache à établir une relation de cause à effet entre deux événements particuliers : par exemple, deux pratiques distinctes d’intervention susceptibles d’avoir des effets différents et observables sur des indicateurs construits de manière ad hoc. Ces perspectives s’attachent à tester des savoirs d’actions et/ou des savoirs d’expérience en posant le postulat fort (trop à mon sens cf. suite) que l’on peut élaborer des  hypothèses rationnelles pour expliquer l’efficacité d’une intervention/action singulière. Il peut être utile de rappeler les éléments de base de tout plan d'expérience ou de protocole expérimental soit : – un ou différents objectifs bien définis et mesurables ; – un ensemble de conditions particulières dans lesquelles l'expérience doit être réalisée ; – un certain nombre de sujets expérimentaux répondant à des exigences quantitatives et qualitatives définies par rapport aux objectifs expérimentaux ; – un certain nombre d’action bien identifiées appliquées aux sujets expérimentaux ; - une validation des résultats à l’aide d’outils statistiques souvent puisés dans le registre de la statistique mathématique linéaire. Globalement les recherches académiques actuelles voulant tester les effets d’une variable manipulée s’organisent principalement autour de protocoles permettant : i) la manifestation statistique - dite signification statistique à p <. 05 ou <. 01 - de l’effet de la variable manipulée sur la performance organisationnelle (au sens large du terme) – mais des questions complémentaires importantes du point de vue « clinique »  - i.e. opérationnel - auprès d'individus réels, ne concerne pas ii) la puissance de l’effet i.e. apporte des « preuves d’efficacité » concernant l’action engagée pour produire le résultat souhaité vis-à-vis des indicateurs – iii) les impacts différentiels des effets de la variable manipulée. La notion clé est qu’il n’est pas suffisant de regarder un effet statistiquement significatif du « traitement induit par la variable manipulée » pour donner la preuve de son efficacité. Pour être satisfaisant, il faut que la mesure des résultats ait du sens et que les effets positifs du « traitement induit par la variable manipulée » soient assez grands pour que le traitement en vaille la peine (ce qui conduit - a contrario - à éliminer la possibilité que l’effet puisse être petit et donc sans intérêt en pratique ce qui permet de rejeter cette piste d'intervention ; c’est en soi un résultat !). La taille de l’effet ou l’importance de l’effet du « traitement induit par la variable manipulée » est une étape trop souvent négligée dans les études surtout lorsqu’elles veulent répondre à des stratégies d'optimisation. P. Baumard (2012 p 175 cf. une présentation dans ce blog) attire l’attention sur le fait que « la production d'une connaissance à coups de dispositifs expérimentaux, de simulations et d'instrumentations éloignées du réel se substitue à l'apprentissage. Non seulement, nous n'apprenons plus de nos échecs, mais nous créons collectivement les leurres qui nous éloignent du réel. »

Il est certes intéressant d’établir les preuves de causalité pour valider une élaboration théorique et de dire qu’une intervention/action donnée produit « une différence statistiquement significative » en regard des critères de jugement de l’étude. Mais lorsqu’il s’agit d’évaluer les effets d’une nouvelle intervention/action, les preuves d’efficacité jouent un rôle fondamental car les managers aimeraient surtout savoir de combien les possibilités d’amélioration seraient augmentées, comparativement au choix qui consiste à ne pas mettre en œuvre cette intervention/action. Il existe toujours la possibilité de comparer des « odds ratio » (cf. http://quanti.hypotheses.org/603) i.e. le rapport de chance relative d’échecs et/ou de réussite correspondant à la cote de l’événement versus absence de cet événement dans le groupe concerné divisée par la cote de ce même événement versus absence de cet événement dans le groupe contrôle mais cela nécessite, un groupe contrôle toujours difficile à construire en management où les situations contrôlées s’éloignent largement des conditions contextuelles usuelles. Cette question de la concurrence entre types de preuves est un débat important entre les « théoriciens » qui procèdent souvent d’une réduction méthodologique et les « praticiens » qui mobilisent des connaissances de sources diverses : il importe donc de discuter « l’habitude » de privilégier les preuves de causalité de niveau élevé au détriment des preuves d’effectivité pertinentes pour l’action envisagée. D’autant que cette manière de « faire science » est dépassée depuis longtemps par la science de référence en ce domaine qu’est la physique (http://www.automatesintelligents.com/biblionet/2006/sep/mms.html) et comme l’affirme Hervé Dumez, 2012 « le programme de réflexion qu’il – le positivisme - a amorcé, même si tout le monde sait (enfin, dans les cercles un peu renseignés) qu’il a échoué, a joué un rôle décisif dans la pensée de la science et continue de nourrir cette pensée par delà son échec » (cf. http://crg.polytechnique.fr/v2/aegis.html#libellio).

3. A travers un jeu d'indicateurs « simples » on pourrait laisser penser que l’on dispose d’un outil de pilotage stratégique par les nombres mais les auteurs de ces approches oublient leur complexité et leur évolution : le niveau de l’action n’est pas forcément stable et la focale de l’analyse doit être capable de suivre les évolutions (des « objets aux process » cf. S J. Schmidt texte ci contre - « chemin faisant » cf. texte ci-contre de N. Couix). Les principes expérimentaux perdent rapidement de leur pertinence quand les conditions de l'expérimentation sont susceptibles d'évoluer, dans l'espace ou dans le temps, ou quand le « matériel » expérimental présente lui-même une certaine variabilité. Les résultats expérimentalement obtenus restent ainsi localisés dans le temps et dans l'espace et ne sont pas plus légitimement généralisables – a priori - que ceux d'autres méthodes d'évaluation. Dans de nombreuses situations, les causalités sont trop intriquées pour qu’il soit possible de prédire l’efficacité d’une forme d’intervention vis-à-vis d’autres paramètres. Les demandes des managers concernent en général, des phénomènes aux causalités trop complexes pour permettre une réponse dans le registre des causes efficientes (cf. http://pfleurance.hautetfort.com/list/textes-de-philippe-fleurance/2620357225.pdf). 

La face cachée des indicateurs ? La dictature invisible des chiffres incite à s’interroger sur le sens de la quantification et de la mesure : que quantifions-nous ? (cf. Alain Desrosières, 2008 : Pour une sociologie historique de la quantification, tome 1 et Gouverner par les nombres, tome 2 et bien sur François Jullien, 2002, Traité de l'efficacité). Une distinction importante est à faire entre quantification et mesure : avant de chiffrer, on commence par classer et définir, ce qui conduit à retenir une acception plus riche de la « quantification » que de la « mesure ». La mesure « mesure » ce qui est déjà mesurable, alors que la quantification suppose la définition et la mise en œuvre de catégories, de « conventions d’équivalence socialement admises » préalables aux opérations de mesure. Que quantifions-nous donc ? Et pourquoi, avec quelles intentions ? La quantification, sous ses différents formats, crée une façon de penser, de représenter, d’exprimer les choses (cf. par exemple, les formes de restitution des données). En ne considérant et en ne travaillant que sur des tableaux et indicateurs chiffrés on ne traite plus alors que d’une abstraction réifiée et inerte. Souvent dans une vision réductionniste, la « quantophrénie » (tendance à utiliser de façon excessive les statistiques dans les sciences humaines et sociales) transforme le travail sur les objets à quantifier en une recherche de virtuosité méthodologique stérile et vide de sens (cf. par exemple, le découpage des référentiels d’évaluation en de nombreux items …qu’il faudra cependant agréger par la suite !) s’appuyant sur une présentation pour le moins « naïve » de catégories dites discriminantes et de succession de chiffres sensés les documenter (cf la réflexion de la cour des comptes p 104 et suivantes - document ci-contre).

4. Efficace par rapport à quoi ? Vers des mesures intrinsèques de la complexité d’un système d’action. Nous envisageons les phénomènes que nous notons sous le terme de « performances organisationnelles » comme des émergences singulières dans des écosystèmes qui ne s’appréhendent pas avec les outils précédents. Pour autant, la question de l’évaluation de l’effectivité des actions organisationnelles ne peut être évacuée. En référence explicite avec les approches de la psychologie écologique (J.J. Gibson, 1977 – W. H Warren, 1984 - E.S. Reed, 1996) inscrites dans une logique de couplage acteur-environnement, on argumente le fait que l’on perçoit les propriétés de l’environnement selon une échelle intrinsèque qui nous est propre. Celles-ci pouvant être anthropométriques - selon notre taille, selon la hauteur et la largeur au niveau des épaules, par exemple - énergétiques, ou cinétiques et non selon des valeurs extérieures à nos possibilités d’action, telles que des métriques objectives (i.e. hauteur de la marche en soi pour l’étude de Warren i.e. en dehors de nos systèmes corporels singuliers permettant notre action). En fait, les dimensions du corps font office de métrique exprimée par un indice d’affordance Pi = Caractéristique environnement / Caractéristique humaine. Ce ratio s’exprime par un nombre sans unité i.e. un rapport entre i) une propriété de l’environnement à définir de manière pertinente parce que l’on pense qu’elle est impliquée dans l’efficience du système et ii) une propriété de ce système. Le système s’auto - organisant s’équilibre dans un mode d’action le plus approprié résultant de ces propres propriétés et des contraintes environnementales (cf. http://www.colby.edu/psychology/ps272sp09/Warren_1995.pdf). Warren (1984) a ainsi proposé d’avoir recours à la méthode de l’analyse dimensionnelle et de la mesure intrinsèque, qui consiste à utiliser une partie du système étudié comme métrique pour caractériser une de ses autres parties, par opposition à une mesure extrinsèque qui mobilise des unités étrangères au système - typiquement des unités comme le mètre (Cf. http://fr.wikipedia.org/wiki/Nombre_sans_dimension)

Nous proposons de reprendre cette méthode pour traiter de l’effectivité des actions des organisations. Au lieu de travailler seulement sur des données extrinsèques i.e. des métriques objectives telles qu’évoquées dans la partie précédente, il s’agit de réfléchir à travailler sur des données mettant en avant des rapports Pi pertinents. Par exemple, en reprenant l’indice « Préparation Olympique » qui consiste à attribuer des points aux fédérations selon la place que leurs athlètes atteignent dans les compétitions de référence, il est possible de traduire une part d’effectivité d’une organisation à l’aide d’indices de ce type soit : X1 le nombre de points obtenus par une fédération/discipline/équipe/pays aux Jeux Olympiques et X2 le même indice « Préparation Olympique » sur l’ensemble des compétitions de référence sur une saison. Le rapport X1/X2 traduit l’effectivité du collectif, du pays dans une mesure qui n’a certes aucune référence particulière mais qui va traduire le taux d’actualisation du potentiel sportif de l’équipe, du pays en contexte compétitif. Ce raisonnement consistant à utiliser une partie du système étudié comme métrique pour caractériser une de ses autres parties peut être utilisé pour d’autres paramètres liés aux stratégies des organisations. Un exemple issu de « Tableaux de l’Economie Française » Édition 2012 (p 10) nous montre la pertinence de ce type de ratio. L’un des indicateurs les plus utilisés pour illustrer la capacité d’une société à prendre en charge les personnes âgées est le ratio de dépendance, soit : nombre de personnes de 15 à 64 ans/ nombre de personnes 65 ans ou plus. Ainsi si en 1950, il y avait douze personnes âgées de 15 à 64 ans/1 personne âgée de 65 ans ou plus dans le monde – En 2010, il y a moins de cinq personnes âgées de 15 à 64/1 personne âgée de 65 ans ou plus. 

10:25 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

14/06/2012

Vulnérabilités en contexte de performance et résilience : le manager peut-il enrichir ses points de vue pour créer les conditions de l’efficience individuelle et collective ?

1. Penser la vulnérabilité ? Une personnification et une simplification des relations sociales, des activités de travail, sportives, …  tend à proposer une explication universelle (a-située), intemporelle de l’action et à minorer le rôle des facteurs organisationnels, interactionnels, d’apprentissage, de compétences, … Dans ce contexte, il n'est pas étonnant qu'en cas d'échec, c'est logiquement la personne qui est en cause : elle ne sait pas s'adapter, elle stress, elle a besoin de retrouver l'estime de soi, etc. … Le risque est de tomber dans les pièges lucratifs de cabinets de « conseils » peu scrupuleux abordant ces questions sur un mode individuel et psychologisant, questionnaires douteux à l'appui, allant chercher les failles - non pas dans l'organisation collective du travail, du développement des compétences et des relations - mais dans celles de la vulnérabilité inhérente à l'humain en activité. Le masquage de la complexité induit par cette approche personnaliste ne contribue que très peu à améliorer le problème de la complexité de l’action, car les acteurs n‘ont plus conscience de la globalité de l’organisation, de ses interrelations … c’est-à-dire des effets systèmes émergeants non linéaire, non causaliste.

Les organisations et les managers ont besoin d’instruments plus ou moins sophistiqués pour construire des représentations adéquates des univers dans lesquels ils évoluent, pour coordonner efficacement leurs actions. Peut on alors penser les liens « individu - collectif – organisation » ? (cf. http://www.bertrandkeller.info/2012/06/11/3134-aborder-la-complexite-par-la-puissance-des-reseaux ). Il convient de discuter cette approche psychologisante, réductrice, essentiellement centrée sur les individus, leurs états mentaux et leurs intentions comme uniques déterminants des réalités vécues.

2. « C’est grâce à … ou à cause … du mental » : C’est une explication rapide et commune que l’on entend souvent pour expliquer les échecs, les aléas, … et les réussites de la vie sportive et professionnelle. Cette thèse internaliste porte l’idée d’un esprit isolé dans sa boîte crânienne (un « gouverneur central »), recevant des informations sur le monde extérieur par le biais du corps et traitant ensuite ces informations de façon à donner - en retour - des instructions au corps, pour agir dans/sur le monde de manière plus ou moins pertinente. Un dualisme du corps et de l’esprit qui conçoit des agents cognitifs parachutés dans un monde prédonné, pré organisé dans lequel ceux-ci doivent s’adapter à l’ordre préexistant en utilisant que leurs seuls outils cognitifs ! Cet acquis historique n’est actuellement plus discuté sur le fond et semble aller de soi. La tradition individualiste et réductionniste en sport a tenté d’identifier et mettre en exergue des facteurs dits « déterminants » de la performance et par suite de construire des dispositifs de « préparation » sur ces bases. Certes, dans un univers parfaitement stable, les critères de maximisation de la performance semblent plus évidents et faciles à développer que dans un environnement dynamique et non stationnaire, tel que nous pouvons l’appréhender actuellement. La perspective d’isoler et d’objectiver des facteurs « critiques » de la performance en ignorant les aléas du contexte est cependant paradoxale : les caractéristiques contextuelles et temporelles des systèmes d’action sont nécessaires pour comprendre ce qui est « critique » dans l’action située.

Que donne à voir cette thèse internaliste et les pratiques qui en découlent ? Le dualisme devenu le sens commun (que nous avons discuté dans http://preparation-mentale-pfleurance.hautetfort.com) a généré des pratiques de préparation du mental qui valorisant le seul niveau des représentations cognitives, ignore les détails pratiques et situés de l’action incorporée, l’environnement et la dynamique de l’action. Le monde vécu est vu comme réductible à une approche qui prétend faire de lui une copie d’une réalité prédonnée, typiquement la « réalité physique », qui lui fournirait ses structures et son architecture de base (vu alors comme le duplicata du monde physique, et comme redevable à ce dernier d’être ce qu’il est). Cette approche qualifiée d’objectivisme représentationaliste, est à notre sens non pertinente (cf. les textes sur le blog préparation du mental), parce qu’elle dépossède l’homme de son monde propre pour faire de ce dernier le reflet d’un monde anonyme, en quelque sorte « préhumain ». A nos yeux, en se focalisant essentiellement voire en surévaluant les capacités cognitives individuelles, cette thèse oublie les relations qui unissent les individus humains entre eux, à leurs outils et artefacts, aux institutions et organisations, aux réseaux d’échange sociaux, … en bref, au monde anthropologiquement constitué. « Pauvre manager qui ne serait qu’un psy ! » nous dit Claude Rochet (cf. son texte sur ce blog). N’oublions pas qu’en produisant des outils, des artefacts, des organisations, … l‘homme s’est construit un monde artificiel (au sens d’Herbert Simon, 1958) i.e. des systèmes anthropotechniques qui possède à la fois un caractère structuré et structurant. Dans un processus chargé de significations individuelles et/ou sociales, les relations entre ces systèmes anthropotechniques et les acteurs, conduisent à une adaptation  réciproque, résultant d’une longue expérience – une dizaine d’années en sport. D’où une hypothèse de coévolution entre la nature du dispositif et la performance : cette hypothèse implique pour le manager la nécessité i) d’une compréhension et modélisation de phénomènes complexes conduisant à la performance, et ii) d’organiser cette coévolution par une ingénierie ad ’hoc créatrice des conditions de la performance. La question pour le manager est bien de réfléchir l’organisation de ce système anthropotechnique comme un monde structurant non clos sur lui-même, laissant ouvert les possibilités d’émergence d’individus efficients dans toute leur singularité, i.e. sans préjuger du chemin pour y parvenir (cf. http://www.youtube.com/watch?v=e1LRrVYb8IE

3. Au delà des systèmes normatifs de « la mal mesure de l’homme » (S.J. Gould, 1997) qui se prévalent souvent d’affirmations fallacieuses en recourant à une forme de substantialisation des phénomènes psychologiques appuyée sur un positivisme naïf de la mesure du comportement de la personne (métrologie psychologique, et autres volontés de catégoriser les comportements humains comme les méthodes « Action Types », « ennéagramme », …), nous avancerons l’idée qu’un système humain est toujours inadapté et que cette inadaptation partielle est la condition même du process - toujours inachevé - de son adaptabilité. Las des catégorisations ! Un individu est toujours singulier dans la mesure où il n’est pas « substituable » : sa place ou son rôle ne peut pas préexister à l’individuation en acte qui fonde son existence. Il faut donc développer de nouvelles intelligibilités pour dépasser ces tropismes scientistes consistant à tenter de réduire le désordre - la variété - la variance - l’instabilité - l’incertitude - la créativité – … mais par contre à augmenter l’ordre - la standardisation - la conformité - la stabilité - la prévisibilité, … L’illusion « normale » de ces approches leur fait refuser l’atypie phénoménologique fondamentale de l’être humain (cf. Les maladies de l'homme normal, Guillaume le Blanc, 2004). Ne peut-on se demander comment une singularité - au sens fort d'unicité, d'incommensurabilité - devient possible et acceptable ?

Gilbert Simondon (1964 – 1989) dans une perspective philosophique différente, nous invite à penser l’individuation dans le contexte des interdépendances et des dynamiques de la relation de l’homme aux techniques et au monde social : l’individuation humaine est la formation à la fois biologique, psychologique et sociale, de l’individu toujours inachevé. De manière inverse aux approches – citées précédemment - qui ne s'intéressent qu’à l'individu constitué, qu'elles considèrent comme achevé (i.e. suffisamment stable et « catégorisable » a priori), c'est à partir de l'individu que Simondon étudie l'individuation : « Il faut opérer un retournement dans la  recherche du principe d'individuation, en considérant comme primordial l'opération d'individuation à  partir de laquelle l'individu vient à  exister et dont il reflète le déroulement, le régime, et enfin les modalités dans ses caractères ». Il faut supposer pour cela que l'individuation ne produit pas seulement l'individu, mais le couple individu - milieu. Ce qui signifie avant tout que la connaissance de l'individu n'est toujours qu'une connaissance approchée. Puisque l'individuation est le lieu d'une invention, d'une construction permanente de soi-même, il faut « essayer de connaître l'individu à  travers l'individuation plutôt que l'individuation à partir de l'individu ». Accorder un rôle privilégié à l'individuation, c'est aussi considérer de manière nouvelle le devenir de l'individu : il n'est plus altération d'un être achevé comme écart à un comportement moyen issu d’un testing, mais il est le mode même de l'être humain en société. Pour Simondon, il n’y a pas d’individu achevé possible, ni d’individualité, ni même d’individualisation, il n’y a que des  organismes en individuation, i.e. en opération constante de s’individuer. Et comme le rappelle Bernard Stiegler (2006), l’individuation humaine est triple, c’est une individuation « à trois brins, car elle est toujours à la fois psychique (« je »), collective (« nous ») et technique (ce milieu qui relie le « je » au « nous », milieu concret et effectif) ». Ceci est une question cruciale qui positionne différemment la vision relative aux notions d’identité personnelle, de management et de formation sportive/personnelle : ces questions ne sont pas abordées sous l’hypothèse d’une stabilité, d’une permanence personnelle et dispositionnelle qui permettrait l’accès aux dispositifs de performance, mais à partir de ce paradoxe d’une identité - ou plutôt de micro identités (Varela, 2000) - personnelle(s) construite(s) à travers la multiplicité des expériences et des situations offertes aux individus. Au delà de l’incitation à « la contemplation interminable du soi » telle que les mentalistes la mettent en œuvre, il en va alors, de la responsabilité du manager que de construire/organiser/dynamiser des dispositifs – comme les parcours d’excellence sportive - favorisant la résilience individuelle et collective.

4. Holling (1973) définit la résilience comme la capacité d’un système à pouvoir intégrer dans son fonctionnement une perturbation, sans pour autant changer de structure qualitative : il met l’accent sur la capacité de transcender une difficulté et de se transformer. Concept transdisciplinaire par nature, la résilience s’est développée sous l’impulsion de nombreuses observations (Boris Cyrulnik, 2001 - 2002) et concerne la capacité d’un individu, d’un système, d’une organisation à conserver ses fonctionnalités, et potentiellement ses performances, en présence de perturbations importantes, ou imprévues qui dépassent celles pour lesquelles le système a été conçu (s’il s’agit d’un système artificiel), ou auxquelles il s’est adapté (s’il s’agit d’un système naturel). Cette définition met l’accent sur les conditions loin des équilibres ou des instabilités peuvent faire passer le système dans un autre domaine de stabilité correspondant à un autre type de comportement : l'idée fondamentale est que la stabilité résiliente que nous observons dans des systèmes comportementaux complexes est le résultat d'un équilibre dynamique (cf. les textes sur la complexité dans ce blog)

Dans le management des « risques » inhérents à l’accompagnement de la situation compétitive, la variabilité de la performance ne peut être niée, mais cette variabilité est, tout à la fois, source de succès et d’échecs : elle peut être vue comme le résultat de combinaisons inattendues de la variabilité de la performance « normale » faisant face à la complexité du monde réel. La notion de résilience nous apparait heuristique pour évoquer les questions de vulnérabilités des athlètes : elle porte en soi une idée d’espérance, d’attentes positives, de croyances que les athlètes et les organisations peuvent toujours ajuster leurs performances à la situation actuelle. L'ingénierie de la résilience suppose alors de comprendre les réponses d’un « système performance » complexe par nature, aux variations internes ou externes : par exemple, la variété quotidienne de/à l’entrainement nourrit-elle une résilience au quotidien ? La résilience au quotidien de/à l’entrainement  nourrit-elle la résilience face à l’exceptionnel de la situation de performance ? Développer de manière proactive la résilience fait appel à des capacités spécifiques en « tension » (cf. sur ce blog et à ce sujet, l’analyse du métier d’entraineur national) : confiance et lucidité sur la situation – appréhension détaillée et vision globale – recours aux procédures et créativité – expérience et critique de l’expérience – bon sens et opportunisme – affirmation de soi et écoute – optimisme et conscience des limites.

5. « L’apprentissage de l’imperfection » c’est le titre d’un ouvrage de Tal Ben-Shahar (2010) qui s’inscrit dans le renouveau de la psychologie dite « positive » (Martin Seligman 2002 - Richard Lazarus, 2000) et qui s’éloigne d’une psychologie uniquement centrée sur l’étude des cas d’inadaptations et/ou pathologiques (anxiété, stress, …) en argumentant de « l’étude des conditions et processus qui contribuent à l’épanouissement ou au fonctionnement optimal des gens, des groupes et des institutions ». Il en va ainsi de l'idée de plaisir d'agir - oubliée derrière les analyses "one shot" de la performance substantialisée. Notons ce caractère « d’optimalité contingente » (et non de maximisation) que Tal Ben-Shahar développe dans son ouvrage et qui interroge la culture – ou pour le moins le discours voire les pratiques - perfectionniste du monde sportif « lâcher la perfection permet d'accepter ce que la vie vous offre et d'en tirer le meilleur parti ». Tal Ben-Shahar développe l’argumentaire que « Le perfectionniste a souvent beaucoup de mal à fournir un effort aussi soutenu. Son obsession de l'objectif à atteindre et son incapacité à profiter du parcours finissent par saper ses aspirations, sa motivation, et il est moins susceptible de fournir le travail nécessaire pour réussir » alors que « L'optimaliste, de son côté, est capable de profiter du voyage tout en restant concentré sur sa destination même si celui-là n'est pas une sinécure - car il lui faudra se battre, chuter, douter, souffrir parfois. Il est stimulé autant par l'attraction, que par celle du parcours dont il profite jour après jour. Il éprouve à la fois une satisfaction quotidienne et un sentiment d'accomplissement à long terme »

... Il faut apprendre à échouer, et en tirer des leçons pour réussir. Michaël Jordan – tout comme bon nombre de sportifs et entraineurs expérimentés - analyse ainsi : « J'ai manqué 9000 tirs dans ma carrière et perdu 300 matchs. C'est pour ça que maintenant je réussis ». Osons la métaphore avec le mythe de Sisyphe châtié par les dieux pour son orgueil et qui poussait éternellement sa pierre retombant du haut de la montagne. Contrairement au désespéré que l'on présente habituellement dans la mythologie, Camus considère qu'il faut imaginer Sisyphe heureux (Le Mythe de Sisyphe, Albert Camus, 1942). Sisyphe trouve son bonheur dans l'accomplissement de la tâche qu'il entreprend, et non dans la signification absolue de cette tâche « Cet univers désormais sans maître ne lui paraît ni stérile, ni fertile. Chacun des grains de cette pierre, chaque éclat minéral de cette montagne pleine de nuit, à lui seul, forme un monde. La lutte elle-même vers les sommets suffit à remplir un cœur d'homme. Il faut imaginer Sisyphe heureux. »

15:26 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |