Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

21/10/2022

Comprendre l’irréductible imprévisibilité des événements à venir

Nous vivons une période de transition majeure, d'un « ancien » monde vers un monde « nouveau » (les big data, l’intelligence artificielle, la « singularité », la mondialisation, les questions sociétales et environnementales émergentes, les catastrophes et crises marquantes à l'échelle régionale, continentale, planétaire, …) qui interroge la nature de la relation que l’on établit entre ce que l’on décrit comme étant « la réalité empirique » et les outils et raisonnements pour la rendre intelligible.

Chacun peut constater au quotidien que les questions du monde actuel bousculent de plus en plus des certitudes qui pouvaient apparaître hier, fondées sur des consensus scientifiques stabilisés[1]. La prédiction analytique qui consiste à s’appuyer sur les informations issues de situations présentes en les confrontant à des situations passées, est souvent prise en défaut. Il semble bien que le réel fait sécession et échappe de plus en plus à la vision réductionniste que peuvent en avoir de nombreux chercheurs. Dans de nombreuses questions sociétales qui s’imposent à nous actuellement, les événements échappent aux catégories où l’on avait pu les circonscrire pour mieux les nommer, les mesurer et espérer les maîtriser.

Pour avancer la nécessité de s’ouvrir à des approches alternatives, il convient de présenter - brièvement - les hypothèses implicites et postulats essentiels du modèle conventionnel en refusant de considérer qu’elles vont de soi. Les hypothèses de stabilité, de régularité, de linéarité, de proportionnalité entre la cause et l’effet, soulèvent des doutes quant à leur généralisation et application universelle[2] car des facteurs apparemment insignifiants peuvent déclencher des changements imprévus et critiques. Les évènements qui en résultent manifestent des phénomènes émergents non visibles à l'analyse d'équilibre, caractéristique des systèmes « fermés » bien délimités et isolés de toute influence extérieure. La survenue de plus en plus fréquente d’évènements dits « naturels » ne cadrant plus avec les grilles d’analyses habituelles, conduit à envisager avec perplexité l’infinité de relations qui lient les phénomènes entre eux, la multitude de boucles de rétroaction qui chemin faisant, font évoluer des systèmes que l’on appréhende comme imbriqués, aux limites floues et dont on n’est jamais sûr de balayer toute l’étendue.

La modélisation simplifiée présentée par Peter Bak[3] illustre ceci. En ajoutant régulièrement des grains à un tas de sable, petit à petit le sable forme un amas dont la pente en augmentant lentement, amène le tas de sable vers un état critique. A un certain stade, la pente des flancs atteint la limite où le poids des grains équilibre les forces de friction. Dès cet angle maximum atteint, l’ajout d’un grain peut alors provoquer une avalanche de différentes amplitudes. L’état critique auto-organisé d’un système est un état où le système est globalement métastable tout en étant localement instable : ce qui caractérise les systèmes auto-organisés, c’est l’émergence et le maintien d’un ordre global sans qu’il y ait un chef d’orchestre, ni de « dernière instance », mais des interdépendances multiples et des interactions itérées entre composants. Il n’y a pas de principe d’ordre supérieur mais comme le propose Henri Atlan[4] un principe « d’ordre par le bruit ». Ces perspectives issues des modélisations des systèmes[5] complexes offrent un autre point de vue prenant en compte les processus critiques non-linéaires faits de ruptures et de bifurcations.

Métaphoriquement, on peut se demander quel(s) « grain de sable » perturbera nos écosystèmes « anthropo-socio-éco-techniques » et conduira à leur réorganisation ?

La réponse à cette interrogation n’est pas procédurale, paramétrique et incrémentale « plus de … moins de … pour mieux de … » venant conforter l’hypothèse ontologique d’un existant structuré « déjà là » qu’il faudrait améliorer. C’est la manière de penser et d’agir en tant que telle qui se trouve remise en question en forçant à revoir sur le fond, ses attendus et ses enracinements. « Chercher seulement un remède technique à chaque problème environnemental qui surgit, c’est isoler des choses qui sont entrelacées dans la réalité, et c’est se cacher les vraies et plus profondes questions du système mondial[6] ». La science est souvent associée à l'idée de raison, de preuve, de prévisibilité voire de vérité et d'universalité mais cela ne saurait aujourd’hui représenter adéquatement l’état des savoirs et des recherches. Il nous semble alors nécessaire de s’interroger sur les régimes de rationalité qui nous organisent dans le cadre de référence conventionnel (i.e. pour faire rapide « positiviste ») afin de les reconsidérer et prendre acte des limites des connaissances dans les schémas épistémiques dominants.

Ce changement paradigmatique comporte plusieurs courants que l'on peut regrouper sous la bannière des sciences de la complexité[7]. Celles-ci s'attachent notamment à comprendre comment les interdépendances, interactions et rétroactions qui relient les éléments d'un système s'organisent en son sein, face à l’environnement et dans le temps. De telle sorte que le système manifeste des qualités particulières que l'on qualifiera d'émergentes et imprévisibles. Quelles que soient les disciplines considérées, l’imprévisibilité[8] devient alors une question trop importante pour que l’on n’en fasse pas un sujet majeur pour repenser la construction savante de nos connaissances. En prêtant attention au caractère hybride des problèmes, aux événements imprévus, aux mouvances des contextes, aux régulations distribuées, aux discontinuités, aux temporalités étendues et multiples, aux causalités hétérogènes, aux phénomènes de singularité, de désordre, … contre lesquels les sciences se sont en grande partie construites.

Si nous ne savons - pouvons - pas anticiper ce que sera notre futur que l'imprévisible traverse, nous pouvons travailler à rendre intelligible ce qui dans nos environnements est déjà du futur et que nous ne « voyons » pas parce que nous n’engageons pas les questionnements ad’hoc. La question ne nous apparait plus de nature programmatique consistant à améliorer les modèles existants, elle est bien de nature paradigmatique : « Le mythe invétéré de la rupture nous voile les transitions silencieuses qui préparent le basculement qui en est la manifestation bruyante[9]». Mettre en avant l’imprévisibilité devient alors un défi à l’orthodoxie scientifique et interroge les pratiques de recherche sur plusieurs questions que nous nous proposons d’examiner.

Le débat ouvert ici ne consiste pas à dire que les choses ne sont pas bien comme elles sont. Il consiste à examiner sur quels types d’évidence, de familiarités, de mode de pensées reposent les pratiques de recherche que l’on accepte communément. L’objectif n'est donc pas d’engager des débats philosophiques sur la science d’aujourd’hui et les discussions paradigmatiques qui l’animent[10]. Plus concrètement, il s’agit d'identifier quelques questions posées à l'activité de recherche lorsqu’elle se situe à l'interface des milieux de recherche et des réalités quotidiennes vécues par les acteurs concernés par ces recherches et par lesquelles celles-ci trouvent une part de leur légitimité[11]. L’interdépendance des enjeux implique des solutions systémiques correspondantes, c’est à dire qui ne résolvent aucun problème pris isolément, mais les abordent dans le contexte des autres problèmes qui leurs sont associés.

A quoi ressemblerait les démarches de production de connaissance si nous allions au-delà des hypothèses habituelles ? 

Suite : Comprendre l’irréductible imprévisibilité P. Fleurance octobre 22.pdf

[1] Ilya Prigogine (1996). La fin des certitudes. Paris : Odile Jacob « … loin de l’équilibre, se produisent des phénomènes ordonnés qui n’existent pas près de l’équilibre. Le non-équilibre, ce ne sont pas du tout les tasses qui se cassent ; le non-équilibre, c’est la voie la plus extraordinaire que la nature ait inventée pour coordonner les phénomènes, pour rendre possibles des phénomènes complexes.  Donc, loin d’être simplement un effet du hasard, les phénomènes de non-équilibre sont notre accès vers la complexité. Et des concepts comme l’auto-organisation loin de l’équilibre, ou de structure dissipative, sont aujourd’hui des lieux communs qui sont appliqués dans des domaines nombreux, non seulement de la physique, mais de la sociologie, de l’économie, et jusqu’à l’anthropologie et la linguistique. »

[2] Ces hypothèses représentent une faible partie explicative du réel par rapport à la non-linéarité : par exemple, les effets de seuil, de masse critique, de bifurcations illustrent à contrario, la non-proportionnalité entre les causes et les effets.

[3] Les systèmes dynamiques subissent des bifurcations, où un petit changement dans un paramètre du système conduit à un changement important et qualitatif du comportement du système. La théorie de « l'auto-organisation critique » explique que certains systèmes, composés d'un nombre important d'éléments en interaction dynamique, évoluent brutalement vers un état critique, sans intervention extérieure et sans paramètre de contrôle. L'amplification d'une petite fluctuation interne peut mener à un état critique et provoquer une réaction en chaîne menant à une catastrophe (au sens de changement de comportement d'un système). L’auto-organisation critique suit la loi selon laquelle la taille d’un événement est inversement proportionnelle à sa fréquence. Par exemple, dans la simulation du tas de sable, l’importance des avalanches de sable est inversement liée à leur fréquence. Il y a peu d’avalanches de grande taille et beaucoup de petites. Bak P. 1996, How Nature Works -The science of self-organized criticality, Springer Verlag cf. https://halshs.archives-ouvertes.fr/halshs-00391570/docum...  

[4] Henri Atlan. Entre le cristal et la fumée : Essai sur l'organisation du vivant, 1979. Paris : Seuil. https://www.persee.fr/docAsPDF/comm_0588-8018_1972_num_18...

[5] Pour Le Moigne l’approche par les systèmes doit rompre avec l’épistémologie néopositiviste : ce qui est exprimé sous le qualificatif « systémique » n’est pas une propriété intrinsèque de l’objet étudié, mais le produit d’une représentation pragmatiquement utilisable pour l’action. La théorie des systèmes complexes dont on a besoin est une sorte de « méta-modèle », entendu comme outil de modélisation renvoyant au projet du modélisateur face à la réalité qu’il étudie (Le Moigne 1994, 1995).

[6] François, 2015 : paragraphie 111 In : L'éthique écologique et la pensée systémique du Pape François. Fritjof Capra. http://agora.qc.ca/documents/lethique-ecologique-et-la-pe...

[7] Castellani, B., Hafferty, F. W. (2009). Sociology and complexity science. A new field of inquiry. Berlin Springer Series Understanding Complex Systems

[8] Incertitude ? Imprévisibilités ? Le GIEC (glossaire 2006) présente l’incertitude comme « Absence de connaissance de la valeur vraie d’une variable qui peut être décrite comme une courbe de densité de probabilité caractérisant la plage et la vraisemblance des valeurs possibles. L’incertitude dépend de l’état des connaissances de l’analyste, de la qualité et de la quantité de données applicables ainsi que de la connaissance des processus sous-jacents et des méthodes d’inférence ». Cependant, ce n’est pas parce que le monde de demain est présenté comme produit par celui d’aujourd’hui que les événements de demain peuvent être prévus dès lors que l’on étudie les paramètres qui organisent le monde d’aujourd’hui. A quelque niveau que ce soit, cette relation reste asymétrique. On ne peut déduire d’une connaissance, aussi complète soit-elle, des conditions de production d’un événement, l’événement réel qui va survenir, et d’ailleurs cette connaissance ne peut jamais être complète. Tout événement futur reste contingent, il peut être ou ne pas être, se produire ou ne pas se produire, et nulle connaissance du monde ne peut lever cette contingence (Pierre Favre Chapitre 2. L'imprévisibilité du monde futur dans les sciences de la nature et dans les sciences sociales https://www.cairn.info/Comprendre-le-monde-pour-le-change...). L’imprévisibilité devient une réalité dès lors que l’on est incapable de prévoir le moment, le lieu, l’intensité, les circonstances de l’émergence de l’événement. Cependant et en dépit de cela, les collectivités conçoivent souvent leurs stratégies de gestion des risques à la suite de catastrophes qui se sont déjà produites, au lieu de tenter de penser les nouvelles et potentielles catastrophes à venir (cf. The challenge of unprecedented floods and droughts in risk management https://www.nature.com/articles/s41586-022-04917-5).

[9] François Jullien (2009) Les transformations silencieuses. Chantiers 1. Paris : Grasset. https://www.lemonde.fr/livres/article/2009/04/02/les-tran... 

[10] L’important – ici - n’est pas de discuter les croyances sur la façon dont le monde est fait, mais de considérer les attitudes et pratiques d’intelligibilités vis-à-vis de ce monde.

[11] Comme elle le revendique dans de nombreux établissements dont les activités sont finalisées par un « objet social »

10:19 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

13/12/2016

Apport de la visualisation à l’intelligibilité des systèmes complexes

Si l’on accorde quelque importance à l’argument de Paul Valéry « La pensée du moyen pour construire devient le moyen de penser », on peut se demander si  la visualisation de données et d’informations à partir des techniques classiques de visualisation « charts, maps, and diagrams » ne contraint pas notre façon de percevoir/comprendre le monde.

Dans ce que l’on pourrait appeler un « tournant iconique », les images deviennent une préoccupation pour les sciences bien qu’elles soient un objet d’expression et d’étude pour les humanités depuis des siècles. Cependant, l’idée d'une science universelle au XVIIe et XVIIIe siècle conçue sur le modèle des mathématiques a conduit à nous restreindre à « faire parler les chiffres ». Les phénomènes sont essentiellement modélisés sous forme de données chiffrées, et la visualisation est alors un résumé visuel - graphique des données statistiques.

Des facteurs d'analyse issus des protocoles expérimentaux aux agents : « agréger » par les actions et interactions locales et dynamiques des agents - et non plus par l'agrégat moyenne - s’écarte des modèles habituels et c’est déjà s‘engager sur le terrain de la complexité. La visualisation - considérée comme la dernière étape pour présenter un résultat – peut être alors, utilisée pour rendre plus explicite et plus intelligible raisonnements et représentations i) des processus non linéaires, auto-organisés, distribués, sans contrôle central, ouvert, en interaction ; ii) l’émergence de fonctions collectives, d’adaptation, l’évolution de configurations … grâce au développement des capacités de calcul des machines électroniques. Le domaine de la visualisation des données ne semble pas encore avoir intégrée les avancées dans la modélisation des systèmes complexes. Nous présentons dans l’exposé ci-joint http://pfleurance.hautetfort.com/list/penser-le-complexe/... :

- Du local au global, l’émergence : les visualisations des modélisations des propriétés des « phénomènes » d'après leurs règles de fonctionnement en nous appuyant sur les automates cellulaires et la vie artificielle i.e. imitations simulations de la vie « naturelle » ;

- Phénomènes d'interdépendance, de liens, d'influence : les visualisations de modélisations réseaux ;

- Intelligence collective et Intelligence distribuée les systèmes multi-agents (SMA) : les visualisations de modélisations individus centrés

10:44 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

11/10/2016

« La pensée du moyen pour construire devient le moyen de penser » (Paul Valéry) : le mouvement analytics big data vu en complexité ?

Les Rencontres 2016 « Vigilance Epistémique et Citoyenne » du Réseau Intelligence de la Complexité « Gouvernance algorithmique, gouvernance territoriale : Quels enjeux, quelles vigilances ? » (http://www.intelligence-complexite.org) ont l’intention de poursuivre notre vigilance épistémique et citoyenne sur les sujets sociétaux qui s’imposent à nous parce qu’ils engagent notre futur et dont les enjeux, au-delà d’une apparente modernité technique et sémantique, apparaissent peu intelligibles a priori.

Cette vigilance épistémique est indispensable à l’exercice de notre responsabilité éthique dans la construction du monde. Nous vivons en utilisant et en produisant nous-mêmes de multiples artefacts : objets, machines, technologies, transports, habitations, modes de production et de consommation, organisation de la cité, processus d’organisation politique et sociale, systèmes d’information, lois, droit et codes de conduite, théories scientifiques, etc. Nous considérons ces artefacts assez spontanément comme « donnés », alors qu’ils ont été construits ou sont en cours de construction. Notre responsabilité, individuelle et collective, dans la conception des processus d’aujourd’hui qui construisent le monde de demain est une question que nous ne pouvons pas éluder.

L'objet de cette rencontre est donc de contribuer à l’intelligibilité de phénomènes sociétaux émergents et de s’interroger sur les conséquences de nos représentations en termes de pratiques sociales, de construction de normes, de rapport à l'action et de gouvernance à différentes échelles, y compris celle de l’avenir de l’humanité.

Il serait de peu d’intérêt de simplement constater les effets positifs et les effets négatifs de la révolution de l’analytics big datas et des objets connectés en « évaluant » dans la pensée binaire qui caractérise notre époque, pour les uns, enthousiastes, que ce mouvement est l’avenir de notre « vieux » monde, pour les autres, déclinistes, une catastrophe annoncée. Plutôt que de choisir entre les exigences contradictoires posées par des critères économiques, sociaux, environnementaux et éthiques acceptons de travailler avec les tensions/dilemmes créées par ces injonctions paradoxales.

Se préparer à concevoir ensemble un questionnement en complexité ? Quelques réflexions préparatoires à la rencontre du 25 novembre 2016 sont ici

09:41 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

03/10/2016

La pensée complexe d’Edgar Morin pour concevoir une vision globale du football

« Et si Edgar Morin, souvent cité par Leonardo Jardim, le coach de Monaco, pouvait inspirer plus largement la Ligue 1 ? … » http://www.lequipe.fr/Football/Actualites/Edgar-morin-app...

C’est ainsi que le journal sportif « L’Equipe » et son rédacteur commentent l’entretien que ce journal a eu avec Leonardo JARDIM entraineur de l’équipe première de football de l’Association Sportive de Monaco (ASM - Ligue 1). Lequel entraineur se réfère à la pensée d’Edgar Morin pour concevoir une vision globale du football qu’il synthétise comme relevant de la « méthodologie écologique » : « … Je ne crois pas à la dissociation des exercices. Je pense qu’il faut mêler tous les facteurs à l’entraînement et les orchestrer. Les développer ensemble … Les frappes, les changements de direction, les appuis… Toutes ces choses, tu ne peux pas les améliorer aussi efficacement en-dehors du terrain que dessus. Idem pour la communication : quand le lien du ballon est là, c’est tout à fait différent. … »

En rupture totale avec les discours convenus des commentateurs du football, nous ne pouvons que partager la compréhension des jeux sportifs collectifs de cet entraineur d’une équipe de haut niveau : « Edgar Morin a une vision globale du monde, de la complexité des facteurs qui interagissent. Face à l’échec, il ne va pas chercher à simplifier et à pointer du doigt un manquement. Il a une perception symphonique de la vie. Eh bien, transposé au football, c’est la même chose. Si ça ne marche pas, il est tellement simple d’affirmer : « Ah, l’équipe n’était pas bien physiquement ! » ; « Ah, le moral est atteint avec cette série de défaites ! » ; « Ah, tel joueur est passé au travers ! » ; « Ah, c’est la faute de l’entraîneur ! » Une équipe qui marche bien, c’est un orchestre où tous les instruments jouent sur le même tempo. Quand il ne marche pas, c’est une succession d’erreurs : les interprètes, la qualité des instruments, le chef d’orchestre, et tant d’autres facteurs imperceptibles de l’extérieur. Le foot est complexe. Il faut l’analyser ainsi et éviter la simplification ».

Sans nul doute, la performance sportive ne réfère pas seulement aux traits d'abstraction et de formalisation du réel des connaissances analytiques qui isole des régularités, normalise des « lois » avec l'intention de rendre compréhensibles les phénomènes sportifs et ainsi de généraliser les résultats. La performance comme « art pratique » mobilise des entreprises délicates à conduire, de couplages réussis entre des éléments de connaissances analytiques/prescriptives d’un côté et de l’autre expérientielles/émergentes en vue de produire des actions performantes. Les process de jeu en sport sont trop souvent présentés comme une suite de performances individuelles alors qu’ils résultent d’une organisation éminemment collective

En servant du dictionnaire des citations du journal « Le Monde », le rédacteur tente quelques analogies plus ou moins heureuses entre la pensée complexe d’Edgar Morin et la pratique du football. Ne boudons pas notre satisfaction, quelques unes semblent judicieuses : par exemple en s’appuyant sur la cybernétique de von Foerster « L'éthique de liberté pour autrui se résumerait à la parole de: "Agis en sorte qu'autrui puisse augmenter le nombre de choix possibles "» (La Méthode – Ethique ; 2004) ; de même « En fait, l'incompréhension de soi est une source très importante de l'incompréhension d'autrui. On se masque à soi-même ses carences et faiblesses, ce qui rend impitoyable pour les carences et faiblesses d'autrui.»  Les sept savoirs nécessaires à l'éducation du futur (2000). Nous ne pouvons que nous féliciter que le journal  « L’Equipe » incite les sportifs et leurs entraineurs à travailler à de nouvelles intelligibilités pour comprendre/agir le monde footballistique. Alors, félicitons nous que le journal « L’Equipe » et son rédacteur donne de l’écho à cette interview  en se demandant « Et si Edgar Morin, souvent cité par Leonardo Jardim, le coach de Monaco, pouvait inspirer plus largement la Ligue 1 ? ».

Cette vision du football de Leonardo JARDIM validée aussi par les résultats actuels de l’ASM, tout comme celles de quelques grands entraineurs comme Claude ONESTA en handball, au-delà du management sportif, laissent entrevoir ce que pourrait être le management des hommes au travail.

09:39 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

16/12/2015

Enfin les Big data analytics fondent la possibilité d’une gouvernance algorithmique !

Une projection futuriste - voire fantaisiste - exposée le 15 décembre 2015 pour la formation Trajectoire Manager Sport (INSEP)

La convergence et le développement exponentiel des nouvelles technologies conduisent à l’émergence d’un monde complètement transformé en sport de performance comme ailleurs. Dans un monde parfait comme le présentait le film Gattaca  en 1998, s’ouvre à nous la possibilité de construire :

Un Homme réparé, augmenté, amélioré, connecté, hybridé, instrumenté, « datifié »

Des algorithmes par disciplines sportives qui à travers leurs dispositifs automatiques de détection de corrélations, de classification, d’évaluation anticipative en temps réel, font surgir des modèles (patterns ou profils) qui autorisent des prescriptions sur les formes d’action et de vie et assure ainsi une prévisibilité maximale pour les managers

La possibilité d’une reconfiguration constante, en temps réel « des choix » en fonction de l’intelligence de données « objectives » devenant un mode de gouvernance algorithmique

Pour certains auteurs enthousiastes cette révolution « quantophrénique », en rapprochant entre elles des données hétérogènes, va faire apparaitre – au-delà des théorisations disciplinaires - des significations (plus précisément des corrélations) insoupçonnées ; elle  contribue ainsi à modifier notre appréhension du monde, nos processus de décision et par la même, la « qualité » de nos actions (débat bien connu des chercheurs « anciens » concernant « l’analyse de données » de nature bottom up versus « démarche hypothético-déductive » de nature top-down). Pour d’autres, il faut interroger cette nouvelle rationalité qui, au prisme de traces numériques relevées - plus ou moins explicitement, contribue à fabriquer une réalité (plutôt des réalités diverses) fluctuante, entre un monde « naturel » et un monde « artefactuel », redéfinissant ainsi notre expérience phénoménologique de ce qui est perçu et vécu.

« A quelles conditions, par quels moyens, sous quelle « forme » est-il possible de « faire face », de surgir comme « personnes » dans un « monde des données » qui ne (re)connaît les personnes qu’à travers des fragments infra-individuels (des données) et des modèles supra-individuels (les profils) ? » se demande Antoinette Rouvroy

Lire la suite

08:05 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

07/12/2015

Enrichir nos cultures épistémologiques pour appréhender la complexité des écosystèmes d’action

Nous vivons une période de transition majeure. Le développement actuel de nos sociétés traversées par des situations d'une extrême complexité et l'évolution même du processus général de production de la connaissance qui de plus en plus réunit des savoirs jusqu'ici jugés totalement hétérogènes l'un à l'autre, nécessitent de travailler à de nouvelles intelligibilités pour comprendre/agir ce monde. Monde constitué de systèmes ouverts qui entrent en communication les uns avec les autres et qui se transforme de manière accélérée.

« Les concepts fondamentaux qui fondaient la conception classique du monde ont aujourd’hui trouvé leurs limites » nous disent Prigogine et Stengers [1]. Cette ouverture vers une nouvelle vision de la connaissance prêtant plus attention aux interdépendances, aux contextes, aux hétérogénéités, aux discontinuités, aux indéterminations, implique de se préoccuper des formes même de la pensée.

L’argument qui oriente vers la pensée complexe est alors celui-ci : Penser et dire le monde, c'est toujours projeter une représentation, une grille de lecture et l’on peut se demander si actuellement, la grille de lecture dominante de nature réductionniste, analytique, dualiste construite à partir de l’épistémologie « cartésiano-positiviste » n’a pas atteint ses limites pour penser notre environnement de plus en plus complexe, distribué et instable.

« Le complexe n’est pas du simple plus compliqué » : essayer de réduire au simple ce qui structurellement ne l’est pas, constitue une démarche irrationnelle aux yeux de Jocelyn Benoist [2] et au contraire « intégrer les problèmes spécifiques soulevés par les systèmes complexes, exemplairement, ce n’est pas allé vers moins, mais vers plus de rationalité »  

lire la suite

[1] Prigogine et Stengers (1979). La nouvelle alliance. Gallimard.

[2] Introduction à l’ouvrage de Fausto Fraisopi (2012) « La Complexité et les Phénomènes. Nouvelles ouvertures entre science et philosophie ». HERMANN Éditeurs, 2012

17:03 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

12/10/2015

De la complexité on fait toujours et tout d’abord l’expérience de sa manifestation

Les datas, surtout lorsqu’elles sont massives (Volume, Vitesse, Variété), deviennent de plus en plus prégnantes pour documenter nos comportements dans les divers domaines de notre vie quotidienne et professionnelle. Nous pourrions citer de nombreux exemples, (tels ceux de la géolocalisation des objets embarqués et connectés, des box miniaturisés, etc.) qui captent massivement et en temps réel des données primaires, à l’aide de technologies numériques pour certaines accessibles mais le plus souvent opaques. Les traitant « en ligne » par des algorithmes (ou par des réseaux neuronaux, ou par des « machine learning » d’intelligence artificielle, ou …), ils mettent à disposition un grand nombre d’informations sur nos états physiologiques (biomarqueurs, « quantified-self », …), comme sur nos communications et actions (trackers d’activité).

Effet de mode dû au développement des nouvelles technologies ? Survalorisation de la possibilité de quantifier des objets incommensurables a priori ? Chiffres « neutres » supposés refléter une réalité ? Mais quelle réalité ? Est-ce celle – par exemple - de PredPol, le logiciel big data qui prétend prédire les lieux des futurs délits ? Il s’agit - pour le moins - de remonter aux sources de nos théories de la connaissance et de reconsidérer la traditionnelle et conventionnelle « mathesis universalis » de Descartes et de Leibniz, idée d'une science universelle conçue sur le modèle des mathématiques, car la complexité est ipso facto exclue de ce paradigme épistémologique qui vise à penser un monde mathématisé/informatisé et transparent … ; la science informatique va-t-elle enfin construire sa propre épistémologie ? (interrogeait déjà JL Le Moigne en 1990).

Pour certains auteurs enthousiastes cette révolution « quantophrénique », en rapprochant entre elles des données hétérogènes, va faire apparaitre – au-delà des théorisations disciplinaires - des significations (plus précisément des corrélations) insoupçonnées ; elle contribue ainsi à modifier notre appréhension du monde, nos processus de décision et par la même, la « qualité » de nos actions (débat bien connu des chercheurs « anciens » concernant « l’analyse de données » de nature bottom up versus « démarche hypothético-déductive » de nature top-down). Pour d’autres, il faut interroger cette nouvelle rationalité qui, au prisme de traces numériques relevées - plus ou moins explicitement, contribue à fabriquer une réalité (plutôt des réalités diverses) fluctuante, entre un monde « naturel »et un monde « artefactuel », redéfinissant ainsi notre expérience phénoménologique de ce qui est perçu et vécu.

Les datas et les algorithmes qui les organisent font bien plus que documenter nos comportements, ils les fabriquent et récursivement les manifestent – voire les orientent - à partir de critères normatifs autoréférents qui souvent échappent à notre entendement …

...  Lire la suite

16:02 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

10/06/2015

Les sciences du sport face à la complexité des phénomènes

S'interroger sur la pertinence des savoirs élaborés en sciences du sport ?

A l’heure de la formation tout au long de la vie, un constant travail épistémique sur les savoirs est une préoccupation majeure qui concerne à la fois les chercheurs en regard des connaissances qu'ils fabriquent, les enseignants en regard des connaissances qu'ils valorisent et transmettent, les praticiens en regard des savoirs qu’ils utilisent et co-produisent dans leurs actions contextualisées.

Pour une bonne part de leurs activités quotidiennes les athlètes, les entraîneurs, les différents intervenants en bref, les parties prenantes du sport de performance co-produisent des pratiques et des connaissances concrètes, variées, singulières, souvent concurrentes entre elles, nécessitant des compromis toujours incertains et ceci, dans des environnements co-évoluants avec la dynamique du projet de performance.

Ce « bricolage » effectué de plus en plus au sein de collectifs hétérogènes renferme des gisements de savoirs qui paradoxalement ne sont pas reconnus comme « connaissances scientifiques » par le courant de recherche dominant en sciences du sport. Il n’est pour s’en persuader que de consulter les tables des matières des manuels d’entraînement et des revues scientifiques consacrées aux sciences du sport et de l’entrainement.

Une perspective intégrative des paramètres concourants à la performance requiert une approche scientifique globalisante qui aujourd'hui, manque cruellement aux Staps. L’incapacité à proposer une modélisation agrégée cohérente du comportement sportif demeure le point aveugle des Staps et a été évacuée des revues et manuels d’entrainement qui ne se soucient pas de cette question.

Cette inattention rationnalisée conduit à enseigner aux étudiants des théories du comportement sportif stratifiées et additives qui peuvent être vraies prises isolément mais qui se révèlent erronées lorsque l’on envisage l’entité agrégée traitant de l’action finalisée et contextualisée.

Ce constat incite à se démarquer du point de vue des sciences conventionnelles de l’entraînement qui dans un cadre positiviste strict, privilégient les approches analytiques et accordent peu de poids à l’expérience, aux interactions continues et récursives entre les différents acteurs et éléments de la performance.

L’intelligibilité de la dynamique de l’action d'entraîner et/ou de performer et des savoirs qui l’organise au sein de communautés de pratique, nécessite alors de rompre  avec un certain nombre de postulats  - ou tout au moins de les discuter fortement  - selon lesquels l'entrainement consiste en l’application de connaissances élaborées au sein de laboratoires disciplinaires renvoyant l’intégration de celles-ci et leur opérationnalisation à une mythique capacité d’omniscience de l’entraîneur.

Lire la suite : haut colonne gauche 

07:25 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

05/05/2015

Comprendre les systèmes d’action et d'interaction : Penser le complexe ?

Nos études ont permis d’acter une transformation du métier de manager en raison de la manifestation de plus en plus forte de l’interdépendance des activités des parties prenantes :

– l’action des agents qui agissent et interagissent individuellement - de manière parfois très simple - selon des règles de coordination et de communication généralement co-évoluantes produit des effets agrégés très éloignés de l’effet convenu de la sommation des comportements individuels (la performance comme œuvre collective) ;

– la complexité, le dynamisme et la singularité des métiers impliquent la recherche collective d'optimalité satisfaisante par la synchronisation efficiente des différentes activités « chemin faisant » - « au gré » ;

Ceci se déroulant dans des écosystèmes complexes d’action collective à plusieurs niveaux d’organisation : l’action de manager s’appuie sur des informations incomplètes, des champs d'action limités, des contrôles répartis et distribués, des données décentralisées, des traitements synchrones et asynchrones, des dynamiques en interaction, des incertitudes,  … et au final des décisions/actions multiacteurs et multicritères de référence.

De ce fait, le pilotage ne peut plus s'exprimer de manière analytique et prescriptive comme l'affirme les formations conventionnelles (cf. MOOC du CIO). Les repères et les actions de contrôle ne sont pas données a priori mais sont parties intégrantes de la construction de la gouvernance car c'est au fil des événements, des questions posées en cours d'action que la définition du « problème » à traiter évolue de manière non entièrement prévisible.

Accepter de manager dans le contexte de la reconnaissance des phénomènes singuliers de la performance, de l’atypie de ses acteurs et de ses process nécessite alors de se donner les outils pour réfléchir les formes d’organisation et de management qui étayent cette complexité en acte.

Présentation d'un cours d'introduction à la pensée des phénomènes complexes : ci contre, haut colonne gauche  http://pfleurance.hautetfort.com/list/penser-le-complexe/3878063577.2.pdf 

13:28 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |

10/02/2014

Jeux Olympiques de SOTCHI 2014 et RIO 2016 : « les jeux sont faits » ?

1 pwc.jpgAssez classiquement les économistes qui s’intéressent au sport utilisent des modèles économétriques pour vérifier l'existence de relations entre divers phénomènes socio-économiques et l’efficience des systèmes de performance olympique. L'objectif étant de faire une prédiction sur quelque chose qui ne peut pas être directement influencé. Dan Johnson qui a particulièrement travaillé ce domaine propose un modèle économétrique qui montre pour les jeux d'été de 2012 une corrélation de 96 % entre la prédiction permise par le modèle mathématique et le nombre effectif de médailles obtenues par les différentes nations. Par exemple, pour la France en 2012 la prévision économétrique de  médailles d’or était de 11,1268 et une prévision pour le total des médailles de 37,2346 pour effectivement 11 médailles d’or et 34 médailles au total. Les analystes de Goldman Sachs utilisent des modèles économétriques pour prévoir le nombre de médailles, pays par pays, en fonction des performances olympiques précédentes, de la croissance économique, et montrent - sans surprise - une corrélation positive avec le succès olympique. De même pour les JO d’hiver de Sotchi, le cabinet d’audit et de conseil PricewaterhouseCoopers prévoit que la France pourrait se classer 10 ème, avec 9 médailles (les prévisions de la fédération de ski sont de 15 médailles) et remporterait ainsi deux médailles de moins qu’aux Jeux Olympiques d’hiver de Vancouver 2010. Alors que le site The Wire prévoit 13 médailles pour la France … le tableau virtuel d'Infostrada - Pour voir en temps réel une cartographie des résultats effectifs ce site 

En dehors des questions toujours redoutables concernant la prévision de résultats sportifs, nous souhaitons attirer la réflexion sur les paramètres structurels qu’utilisent ces modèles et qui sont susceptibles - évidemment d’un point de vue macro - d’indexer l’efficience sportive. Un premier constat est à faire : le classement des pays à partir de leurs résultats/médailles répond plus de la loi de Pareto que de la répartition gaussienne dite « loi normale » (qui correspond au comportement d'une suite d'expériences aléatoires similaires et indépendantes et lorsque le nombre de celles-ci est très élevé). Par exemple pour les JO de 2012, les 20 premières nations (des USA à la Corée du nord) ont obtenues 683 médailles sur les 936 possibles soit 75% - les 80 suivants (du Brésil à la Guinée équatoriale) ont gagné 231 médailles sur les 936 possibles, soit 25%.  Rien de strictement aléatoire dans cette vision macroscopique mais des éléments structurants sur lesquels les Directions Techniques Nationales  peuvent travailler.

2 the wire.jpgDans la durée, comme de nombreux travaux (Mesuring and predicting success,  Simon Shibli 2013 document sur ce site) et le schéma ci-contre issu du site The Wire le montre, les variations des performances des pays sont de « faibles » amplitude et permettent de calculer des courbes de tendance consistant, en s’appuyant sur les performances déjà réalisées à prédire des performances futures. Quels sont les paramètres « structuraux » (i.e. propre à la structure du phénomène étudié) permettant d’élaborer ces modèles économétriques et prédictifs ? Citons : Nombre de médailles disponibles par discipline et quota de sélection possible par pays ; pays hôte ou précédemment hôte des JO ; effectif de l’équipe olympique ; culture sportive et tradition/école des disciplines sportives ; extrapolation à partir des résultats passés ; taille de la population du pays ; niveau de revenu par habitant i.e. le Produit Intérieur Brut (PIB) par habitant ; organisation du système sportif du pays ;  facteurs spécifiques comme pour les Jeux d’hiver le climat (pour la qualité de la couverture neigeuse), le nombre de stations par habitant (accès plus ou moins aisé aux équipements) ... et des coefficients de pondération résultants de l’expérience économétrique des auteurs

3 pib sotchi.pngUn effet structurel spécifique pour les jeux d’hiver ? Cette visualisation montre que les pays ayant un PIB/habitant supérieur à 48 000 $ (i.e. 6.3 % de la population mondiale) fournissent 42.3 % des athlètes présents à Sotchi. Ce qui n’est pas le cas pour les Jeux d’été de Londres 2012 puisque la tranche 25 000 $ - 48 000 $ fournit le plus fort contingent d’athlètes, i.e. 26.1 %. Et de fait, sur les 2.025 athlètes présent à Sotchi, l'Europe qui dans cette visualisation comprend la Russie présente 70% des athlètes. Cette carte indiquant les villes accueillant depuis 1896 les sites olympiques relève de la même logique.

5 money ball.jpgLa tradition scientifique en sciences du sport consiste à avancer des théorisations ad’ hoc constituées et organisées en disciplines,  spécialités, sous spécialités, thématiques, ... de plus en plus nombreuses, chacune s’intéressant à des objets qui lui sont propres, s’appuyant sur des paradigmes qui lui sont spécifiques, et surtout développant une instrumentation qui lui est particulière. Le mouvement « Winning in Sports Through Performance Analysis » (cf. document sur ce site) et  « Sloan sports conference » du MIT incitent à revisiter le travail statistique de l'analyse des données dans la mouvance de ce qu’il est convenu d’appeler les « big » data. La combinaison de grandes quantités de données et du traitement de celles-ci de plus en plus sophistiqué, ouvrent de nouvelles voies pour penser  la performance sportive et ses « déterminants » et ceci n’est pas sans interroger les pratiques en sciences du sport d’élite. Quelques exemples fondateurs : le statisticien renommé Nate Silver a développé PECOTA - acronyme pour « Player Empirical Comparison and Optimization Test Algorithm » - pour de la prévision sabermétrique en direction de la Ligue Majeure de Baseball (USA). Il  prévoit non seulement  les performances d’un joueur de baseball sous diverses statistiques, mais aussi les valeurs marchandes des joueurs. En 2003, l’ouvrage de Michael Lewis « Moneyball : The Art of Winning an Unfair Game » décrit comment les Athletics d'Oakland, une équipe à petit budget dans le championnat, a obtenu pendant des années consécutives de très bons résultats malgré le fait que les joueurs ne soient pas les plus «  réputés » et ceci, en utilisant la puissance de l'analyse des données pour tester/revisiter certains notions communément admises en Baseball (cf. la bande annonce du film tiré de ce livre).

4 spliss.jpgLes indicateurs de la performance des équipes olympiques cités dans la partie précédente laissent à penser que celle-ci s'expliquerait en partie par des paramètres non aléatoires. L’étude Sport Policy factors Leading to International Sporting Success (De Bosscher et all, 2006 - 2013 cf. SPLISS et document sur ce site) présente un modèle théorique des facteurs de politique sportive menant au succès sportif international. Le modèle est utilisé pour effectuer une comparaison internationale des politiques concernant le sport d'élite. Ce schéma analytique comporte 9 « piliers » i.e. une proposition organisée de facteurs contribuant au succès sportif. Citons : Pilier 1 : l’aide financière pour le sport et le sport d'élite - Pilier 2 : La gouvernance, l'organisation et la structure du sport d'élite - Pilier 3 : les possibilités de pratique sportive offertes aux jeunes – Pilier 4 : l’identification et le développement des talents - Pilier 5 : les aides consacrées à la carrière sportive des athlètes et à la transition de carrière/reconversion - Pilier 6 : les équipements et centres de formation des athlètes d’élite - Pilier 7 : la constitution de viviers d'entraîneurs pour le sport d’élite et le développement de leur compétence - Pilier 8 : la participation aux événements sportifs nationaux et internationaux de référence - Pilier 9 : la recherche - développement et l’innovation Scientifique en sport d’élite. Ces éléments structuraux constitutifs d’une organisation sportive visant le sport d’élite sont déclinés/évaluables dans 126 facteurs de succès critiques (Spliss II : Critical success factors that are measured cf. document sur ce site)

Evidemment ces descriptions structurelles – de plus analytique sous forme de boite noire entrée/sortie -  des organisations/systèmes de performance pour intéressantes qu’elles soient,  nous disent bien « de quoi c’est fait » mais nous disent que très peu « ce que cela fait ». Si l’on n’y prend garde, ce type de schématisation incite à un fonctionnement en « silos organisationnels » que l’on observe malheureusement dans la quasi-totalité des organisations sportives et qui sont - sans doute - les raisons principales de leurs difficultés à innover dans leur management. Dans ces écosystèmes hétérogènes multiacteurs, multidimensionnels, à temporalités multiples, non présentiel, … le peu de cohérence entre stratégie, métiers, niveau de structuration des sous-systèmes national/locaux, … les organisations ont de plus en plus de mal à concevoir et à travailler dans/avec la complexité de leurs systèmes d’action. Complexité, intégration et propriétés émergentes issues de ces paramètres qui ne peuvent pas facilement être intelligibles à partir des éléments de « base », les piliers. Rien ne prépare à ce nouveau paradigme qu’est le raisonnement en complexité qui oblige à mettre en relation des savoirs de nature extrêmement différente et à transcender les silos traditionnels d’organisation de la connaissance et de l’action. C’est le pas que – en conscience - ce blog invite à franchir.

17:03 Écrit par Philippe Fleurance | Lien permanent | Commentaires (2) | |