Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

12/10/2015

De la complexité on fait toujours et tout d’abord l’expérience de sa manifestation

Les datas, surtout lorsqu’elles sont massives (Volume, Vitesse, Variété), deviennent de plus en plus prégnantes pour documenter nos comportements dans les divers domaines de notre vie quotidienne et professionnelle. Nous pourrions citer de nombreux exemples, (tels ceux de la géolocalisation des objets embarqués et connectés, des box miniaturisés, etc.) qui captent massivement et en temps réel des données primaires, à l’aide de technologies numériques pour certaines accessibles mais le plus souvent opaques. Les traitant « en ligne » par des algorithmes (ou par des réseaux neuronaux, ou par des « machine learning » d’intelligence artificielle, ou …), ils mettent à disposition un grand nombre d’informations sur nos états physiologiques (biomarqueurs, « quantified-self », …), comme sur nos communications et actions (trackers d’activité).

Effet de mode dû au développement des nouvelles technologies ? Survalorisation de la possibilité de quantifier des objets incommensurables a priori ? Chiffres « neutres » supposés refléter une réalité ? Mais quelle réalité ? Est-ce celle – par exemple - de PredPol, le logiciel big data qui prétend prédire les lieux des futurs délits ? Il s’agit - pour le moins - de remonter aux sources de nos théories de la connaissance et de reconsidérer la traditionnelle et conventionnelle « mathesis universalis » de Descartes et de Leibniz, idée d'une science universelle conçue sur le modèle des mathématiques, car la complexité est ipso facto exclue de ce paradigme épistémologique qui vise à penser un monde mathématisé/informatisé et transparent … ; la science informatique va-t-elle enfin construire sa propre épistémologie ? (interrogeait déjà JL Le Moigne en 1990).

Pour certains auteurs enthousiastes cette révolution « quantophrénique », en rapprochant entre elles des données hétérogènes, va faire apparaitre – au-delà des théorisations disciplinaires - des significations (plus précisément des corrélations) insoupçonnées ; elle contribue ainsi à modifier notre appréhension du monde, nos processus de décision et par la même, la « qualité » de nos actions (débat bien connu des chercheurs « anciens » concernant « l’analyse de données » de nature bottom up versus « démarche hypothético-déductive » de nature top-down). Pour d’autres, il faut interroger cette nouvelle rationalité qui, au prisme de traces numériques relevées - plus ou moins explicitement, contribue à fabriquer une réalité (plutôt des réalités diverses) fluctuante, entre un monde « naturel »et un monde « artefactuel », redéfinissant ainsi notre expérience phénoménologique de ce qui est perçu et vécu.

Les datas et les algorithmes qui les organisent font bien plus que documenter nos comportements, ils les fabriquent et récursivement les manifestent – voire les orientent - à partir de critères normatifs autoréférents qui souvent échappent à notre entendement …

...  Lire la suite

16:02 Écrit par Philippe Fleurance | Lien permanent | Commentaires (0) | |