Peut-on modéliser la société ?

Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le Big Data allait rendre possible la modélisation mathématique de la société. Force est de constater depuis que cette réduction du social dans le Big data n’a pas vraiment porté les promesses attendues. Au contraire. Les critiques à l’encontre de la réduction du social qu’ont produit ces modélisations n’ont cessé de se démultiplier. Que ce soit celles de Cathy O’Neil (voir « Il est plus que temps que le Big data évalue ses impacts » ou « Ouvrir les modèles ! », pas seulement les données), de la police prédictive (voir « Predpol : la prédiction des banalités » et « Où en est la police prédictive ? »), de la justice prédictive (voir « l’évaluation automatique des risques de récidive » et notre dossier sur « la justice analytique ») à « l’automatisation des inégalités »… (et ce ne sont là qu’une vue bien partielle des nombreux problèmes qu’ont généré les questions d’analyse et de traitement de données depuis 2014) : partout, les biais réductionnistes des outils de modélisation du social ont imposés de nouveaux problèmes plutôt que de permettre de résoudre les défis auxquels est confrontée la société. La physique sociale semble plus avoir montré ses limites que démontrer ses capacités à améliorer la société. Peut-être est-il temps de se demander pourquoi ?

couverture du livre de Pablo JensenC’est peut-être une réponse qu’on peut trouver dans le récent livre de Pablo Jensen (@pablojensenlyon) : Pourquoi la société ne se laisse pas mettre en équations. Physicien, Pablo Jensen se consacre depuis plusieurs années aux sciences sociales, abandonnant l’analyse de la matière pour une autre, moins prévisible et plus complexe, la société, dans le cadre notamment de l’Institut rhônalpin des systèmes complexes. Il est également l’un des initiateurs des cafés des sciences, ce qui explique certainement que son livre soit plutôt clair et pédagogique malgré la complexité de ce qu’il tente d’y expliquer.

Le coeur de la démonstration de Pablo Jensen consiste à expliquer que la société ne relève pas de la physique. Que si la physique est parvenue à trouver des règles universelles, faire la même chose pour la société, en découvrir la mécanique sociale, ne relève pas de la même gageure. La réplicabilité et la prédictibilité du monde physique ne signifient pas que nous allons arriver à faire la même chose avec les phénomènes sociaux, comme le souligne d’ailleurs très bien la crise de réplicabilité et de prédictibilité actuelle.

La statistique, cette science pour l’État, a pu nous faire croire, que les régularités humaines étaient connaissables. La sociologie est venue armer ces connaissances. Et la politique se voudrait l’ingénieur du social capable de manipuler la société comme le font les physiciens avec les objets naturels. Reste que ce n’est pas aussi simple, comme le montre l’échec de la planification. La complexification de l’économie a rendu la planification plus difficile. L’avalanche de données, le Big Data, fait fantasmer les tenants d’une modélisation de la société. Le problème c’est de croire qu’il existerait des lois sociales, des règles qui sous-tendent la société et les comportements humains. Ce qui a marché pour les sciences naturelles et physiques peut-il s’appliquer à la société ?

Pourquoi la physique et les sciences naturelles sont-elles robustes ?

Pablo Jensen explique dans un premier temps pourquoi les sciences naturelles contrairement aux sciences humaines sont relativement fiables et robustes, permettant leur modélisation et leur prédictibilité. En physique par exemple, on peut isoler des éléments pour faire des expériences, alors qu’en sciences sociales on ne peut connaître le monde sans agir dessus, sans le transformer. Le monde physique a également la particularité d’être relativement stable. Parmi les exemples qu’évoque Pablo Jensen, il prend celui du climat. On dispose aujourd’hui de modèles planétaires de l’atmosphère, des simulations nourries quotidiennement de milliers d’observations, de plus en plus précises. La simulation s’est peu à peu imposée permettant d’améliorer les deux modèles de prédiction existants à savoir : le fait que demain il fera le même temps qu’aujourd’hui ou le fait que le temps demain sera le temps moyen de ce lieu en ce jour de l’année. En météorologie et climatologie, nos modèles virtuels sont désormais meilleurs que ces deux types de prédictions simples. En la matière, si la modélisation a permis de réaliser de manière routinière des prédictions fiables sur plusieurs jours, c’est d’abord parce que les relations fondamentales pour la prédiction atmosphérique sont bien connues et restent valables à toutes les échelles, comme dans le temps et l’espace. Les équations qui décrivent l’évolution des masses d’air et leur dynamique où les échanges de chaleur sont bien établis et rendent les calculs robustes. Ces modèles intègrent certes des phénomènes moins connus, comme la formation des nuages qui créent des incertitudes dans les prévisions, mais sans remettre en cause les équations fondamentales. De plus, on cherche à prédire un état moyen et non pas un état précis. Enfin, dernier point qui explique le succès de la modélisation climatique : celle-ci a été un lent et long travail d’organismes mondiaux capable de rassembler les données et de les homogénéiser, permettant de calibrer efficacement les données et les modèles. Autant de caractéristiques qu’on ne retrouve pas dans l’analyse du social par les données.

Le risque du réductionnisme des modèles

Sans compter que simuler la société est bien plus compliqué. Les modèles sociaux ont du mal à être fiables. Ils relèvent le plus souvent d’un séduisant réductionnisme. Souvenez-vous de la parabole des polygones, ce petit jeu qui vise à expliquer la théorie de l’économiste Thomas Schelling qui cherchait à comprendre la ségrégation raciale et qui montrait que même si les gens cherchaient à vivre dans des quartiers mixtes, le résultat conduisait à créer une société plus ségrégée. Ce petit jeu ne doit pas nous faire croire que la ségrégation est une fatalité. Il repose surtout sur un modèle très simplifié de la réalité. S’il permet de comprendre et de simplifier le réel, souligne que le cumul des égoïsmes n’est pas très bon pour la société et que les effets globaux des décisions individuelles ne sont pas toujours intuitifs, la démonstration peine à décrire la réalité. Le problème, rappelle Jensen, c’est que pour être utile, le modèle simplifie énormément la réalité du choix du logement, qui en réalité est bien plus complexe que cela. Le risque est de prendre la démonstration du modèle au pied de la lettre. On voit ici que la modélisation d’un phénomène social repose sur une interprétation arbitraire du comportement des polygones. « La force d’une chaîne logique n’est jamais que celle de son maillon le plus faible ». « Nul principe un tant soit peu général ne sort de ces modèles simples, dont les résultats sont fragiles, très dépendants des détails concrets, des hypothèses précises qui sont faites. S’ils constituent de jolis jeux mathématiques, on ne peut en tirer aucun enseignement certain sur le monde réel, dont les ingrédients sont toujours peu maîtrisés. » Ces petits jeux réductionnistes sont certes séduisants, mais peinent à dépasser leurs propres limites. Ce type de modélisation fonctionne dans des situations expérimentales spécifiques qui seront plus difficiles à démontrer dans d’autres contextes.

Le risque des prédictions simplistes et des « vraisemblances séduisantes »

Or, les modèles construisent des « vraisemblances séduisantes », mais limitées.

Jensen revient par exemple sur l’échec de GoogleFlu, l’outil de Google permettant de prédire la grippe depuis les recherches effectuées par les utilisateurs du moteur de recherche de leurs symptômes. Cet échec s’explique à la fois par une confiance naïve dans la puissance des Big data et par l’absence d’une modélisation valable. Les chercheurs de Google ont commis des erreurs élémentaires en corrélant des données qui étaient systématiquement corrélées en hiver par exemple, leur faisant trouver des correspondances sans rapport avec la grippe. Pourtant, cette recherche n’a pas été complètement inutile. Une équipe de Columbia spécialiste en épidémiologie a depuis utilisé les données fournies en temps réel par Google pour améliorer leur propre modèle. L’équipe a construit des modèles épidémiques nourris de données réelles et les a comparés à des requêtes Google pour affiner les résultats. En fait, souligne Pablo Jensen, l’échec de GoogleFlu a surtout montré que les modèles en chambre, assez facile à imaginer avec le Big Data, fonctionnent assez mal. C’est le savoir-faire des épidémiologues et de leurs données qui ont permis d’améliorer les modèles. L’utilisation des données par elles-mêmes ne suffit pas si elles ne se confrontent pas aux savoirs de spécialistes des sujets analysés. Les modèles prédictifs du Big Data ne se suffisent pas seuls.

Jensen évoque bien d’autres exemples, comme celui des perspectives de croissance du Fonds monétaire international (FMI). Chaque année, ces projections de croissance s’écartent fortement de la réalité, sans que les économistes du FMI ne semblent apprendre de leurs erreurs passées. En 2011, des chercheurs de l’université de Nice ont comparé systématiquement prédictions et valeurs réelles depuis 1998. « Même lorsqu’il s’agit de prédictions à court terme (une année), les modèles sophistiqués font à peine mieux que la « prévision » simpliste selon laquelle la croissance de l’année prochaine sera égale à… celle constatée cette année ! » Les prévisions de croissance sont invariablement optimistes, ce qui montre que les économistes sont victime d’un biais systémique.

Pour comprendre ces échecs, Jensen rappelle à nouveau qu’il y a deux grands types d’approches pour les prévisions : la première consiste à extrapoler les tendances passées, la deuxième à créer une modélisation virtuelle à partir d’éléments (de données) plus ou moins réalistes. La première méthode est assez efficace sur le court terme, même si elle ne fait guère mieux qu’un prolongement de tendance. Mais la difficulté de cette méthode c’est qu’elle ne parvient pas à prédire les crises économiques : or c’est quand des changements importants ont lieu qu’on a le plus besoin de prédiction. En fait, souligne-t-il, la méthode n’est pas vraiment améliorable par l’ajout de données qui rendraient les résultats robustes, car rien ne garantit que les corrélations passées se maintiennent. Par exemple, il existait un lien fort entre croissance et emploi jusqu’en 1999, mais ce lien s’est réduit aujourd’hui. La seconde méthode de prédiction, elle, souligne qu’il est difficile de créer des modèles robustes avec beaucoup de paramètres. Au contraire, la robustesse d’un modèle semble surtout diminuer à mesure qu’on ajoute des paramètres. Cela revient à choisir entre d’un côté des modèles séduisants, avec peu de paramètres, mais qui se révèlent rapidement faux. Et des modèles complexes, trop riches, mais dont les modélisations ne sont pas robustes et peuvent être facilement perturbées par de nouveaux événements. Un grand nombre de paramètres diminue la robustesse et peine malgré tout à voir les changements.

En fait, malgré notre grande régularité, les choix des acteurs individuels ne sont pas stables et ne se laissent pas facilement résumer par des formules simples. Deux raisons qui expliquent pourquoi les prédictions économiques sont loin d’égaler celles des climatologues.

Les Big Data peuvent-elles améliorer la prédiction ?

Est-ce que l’avalanche de données va permettre d’améliorer les modèles et de construire des résultats plus fiables ? Pas vraiment, estime Pablo Jensen.

Jensen fait référence à un article publié par Duncan Watts, directeur de la recherche chez Microsoft, qui en 2016, a tenté de prédire le nombre de retweets d’un tweet pour prédire les conditions de succès. Watts y discute des limites générales de la prédictibilité des phénomènes sociaux complexes. Il y explique que deux visions s’opposent. Une, optimiste, attribue la variabilité à une caractéristique qu’il faudrait identifier. L’autre, pessimiste, estime que les phénomènes sont trop complexes pour être prévisibles. Lui aussi distingue deux types de prédictions : celle qui extrapole le passé et celle qui tente de prédire un phénomène en fonction de caractéristiques propres. À nouveau, la seconde méthode est souvent moins efficace que la première, mais c’est la seule qui tente de trouver des caractéristiques distinctives. Watts a analysé 1,5 milliard de tweets en cherchant à prédire la réussite des messages d’une semaine l’autre via l’apprentissage automatique. Or, même si on analyse toutes les caractéristiques des messages, le succès reste largement imprévisible. Pire, le niveau de prévisibilité d’un succès peut être doublé depuis une seule variable : à savoir, le succès passé de l’utilisateur c’est-à-dire le nombre moyen de retweets qu’il a connu jusque là. On a découvert l’eau tiède ! Le succès appelle le succès !

Pourquoi les simulations de la société sont-elles si difficiles ?

Pour Jensen, ce qu’il faut retenir de cet exemple, c’est que la vie sociale est intrinsèquement imprédictible, du fait des fortes variabilités des interactions entre les personnes. Quand bien même un modèle pourrait fonctionner depuis les données qui l’entraîne, rien ne garantit qu’il pourrait fonctionner ensuite. La transférabilité dépend de trop de facteurs pour être mesurable. Pour Prabhakar Raghavan, vice-président de l’ingénierie de Google, la transférabilité est l’enjeu majeur des sciences sociales. Mais les « risques stables, ces règles de comportement robustes » qui permettront de transférer des modèles d’un exemple l’autre seront-elles un jour accessible ? En fait, explique Jensen, les données ne parviennent pas à réduire la grande variabilité des situations. Pire, quand on utilise beaucoup d’information, on ne parvient souvent à réduire les erreurs que marginalement. Si on prend le chômage par exemple, le taux moyen est de 7 %. Seuls quelques profils relèvent de taux plus élevés (20 à 30 %), ce qui signifie que l’erreur de prédiction reste forte pour les autres. Or, les catégories spécifiques se démultiplient à mesure qu’on en ajoute jusqu’à ne présenter que fort peu de personnes.

« Il existe quatre facteurs essentiels qui rendent les simulations de la société qualitativement plus difficiles que celles de la matière : l’hétérogénéité des humains ; le manque de stabilité de quoi que ce soit ; les nombreuses relations à prendre en compte aussi bien au niveau temporel que spatial ; la réflexivité des humains qui réagissent aux modèles qu’on fait de leur activité. »

La forte hétérogénéité des humains rend la simulation difficile. Alors que la physique peut reposer sur certaines formes de stabilité, dans les sciences sociales « aucun facteur isolé ne produit quoi que ce soit tout seul ». Cela n’a aucun sens par exemple de se demander ce que le salaire minimum provoque en l’absence de tout autre ingrédient. « En sciences sociales, il faut un réseau dense de conditions causales pour produire un résultat, et il est donc difficile d’étudier l’effet séparé de tel facteur, en l’isolant des autres facteurs agissants (et quand bien même on y parviendrait, rien ne garantit que sa conséquence serait la même dans d’autres situations) ». L’instabilité des effets d’une même cause dans des contextes différents semble être la règle dans les systèmes sociaux. Ainsi, l’effet d’un étage élevé sur le loyer d’un appartement dépend de nombreux paramètres. « La complexité des effets produits par la combinaison de plusieurs ingrédients rend la méthode analytique – divisons, analysons les morceaux un à un puis recomposons – nettement moins utile qu’en physique ». À cela s’ajoute donc le troisième facteur : le grand nombre de relations qui doivent être prises en compte qui induit des corrélations multiples dans les comportements des agents sociaux, amplifiant ou réduisant certains phénomènes. Enfin, les humains réagissent aux modèles de leur activité : à la différence d’un électron, assez indifférent à ce qu’on peut dire de lui, les humains réagissent. « Ces quatre facteurs font que les modèles sociaux ont du mal à être robustes ». Leur qualité prédictive, passé nos régularités simples, reste approximative. Certes, ils peuvent aider à écarter des solutions simplistes… en montrant que l’humain est souvent plus compliqué qu’on ne le pense. Le problème est que trop souvent on les utilise pour simplifier la décision plutôt que pour la complexifier. C’est tout le problème !

La constance des moyennes chère au précurseur de la démographie Adolphe Quételet nous a fait croire que la société suivait des constantes. Pour autant, rappelle Jensen, il faut relativiser les régularités du social. Elles sont aussi le produit de nos sociétés et n’existent pas par elles-mêmes. Émile Durkheim, le fondateur de la sociologie, soulignait déjà que la constante du nombre de suicides par exemple relevait de faits de société et n’était pas aussi homogène que constatée.

De la fascination des modèles

Jensen nous montre que les études et les modèles sont souvent fascinants, d’abord par le réductionnisme qu’ils proposent, qui parviennent à expliquer un phénomène en en réduisant sa complexité. « La vie sociale ne s’explique pas par l’addition des effets de quelques variables importantes jouant un rôle uniforme, mais par des conjonctions spécifiques, des événements. Du coup, chaque facteur causal (sexe, âge…) peut-être pertinent pour certains événements, mais par pour d’autres. » Les individus ne sont pas des atomes qui auraient des propriétés prédéfinies avant de s’assembler en société.

« Très souvent, il est impossible de décider entre des hypothèses différentes, car le problème n’est pas « dompté ». La criminalité a pu être « expliquée » par un grand nombre d’ingrédients : pas assez de policiers, trop de délinquants, des lois inadéquates, la pauvreté, l’inadaptation culturelle, des gènes… Chaque possibilité pointe vers une solution différente. Laquelle est correcte ? Il n’y a aucune règle qui permette de répondre à cette question de manière définitive. » Pour Jensen, cela ne veut pas dire qu’il faut renoncer aux explications sociales, mais il faut comprendre que bien des explications sociales ne sont que des opinions défendues par des modèles explicatifs…

Sans compter, rappelle Pablo Jensen, que les masses de données n’ont pour l’instant pas produit d’enseignements majeurs sur nos sociétés qu’on n’aurait pas pu obtenir autrement. Au mieux, elles confirment ce que nous savons déjà. Parfois améliorent la précision de quelques décimales (sans que cela se révèle déterminant). Pour le physicien, le Big data risque de renforcer les pouvoirs calculateurs pour piloter la société, alors qu’ils devraient surtout être utilisés pour permettre de mieux nous coordonner.

Indicateurs, contre-indicateurs, modèles, contre-modèles… : la modélisation du monde est politique !

Pourtant, dans la dernière partie de son ouvrage, Jensen est plus modéré. Ainsi explique-t-il, « les indicateurs chiffrés cherchent à caractériser une situation de manière impartiale, au-delà des perceptions de chacun. Du coup, ils sont souvent utilisés pour légitimer son point de vue, sous couvert d’objectivité. » Malgré les abus, reste que ces indicateurs ne sont pas dépourvus de sens, aussi imparfaits soient-ils. Si les indicateurs sont souvent des constructions complexes et imparfaites, ils permettent d’établir des comparaisons, des classements, des choix et des arbitrages. Les méthodes de calculs utilisées permettent la transparence et la discussion. Tout autant imparfaits que soient les classements par exemple, les indicateurs, ces outils de réduction de réalités sociales complexes, permettent de coordonner des communautés, de standardiser la réalité. Si les indicateurs sont fragiles, leur multiplication est certainement un moyen de les améliorer, de construire des indicateurs alternatifs. « La formule, en découpant l’origine de nos actions en un contexte et des caractéristiques internes, est très utile d’un point de vue pédagogique, pour comparer les approches de la physique, l’économie ou la sociologie. Au niveau qualitatif, elle permet également de résumer la démarche d’une grande partie de la sociologie : comprendre les pratiques des personnes, en étudiant à la fois les contraintes que le contexte fait peser sur l’action et les dispositions socialement constituées à partir desquelles les acteurs perçoivent la situation et agissent. Mais elle n’est pas efficace pour faire des prédictions quantitatives, à cause des nombreuses limites pratiques » existantes. « La vie sociale ne consiste pas en une suite d’interactions ponctuelles comme le supposent la formule ou les simulations ».

Jensen utilise un bel exemple pour rappeler que les relations et le contexte importent et ne se réduisent pas. Jean Piaget, père de la psychologie cognitive avait réalisé une expérience pour savoir à partir de quel âge les enfants acquièrent une notion claire des nombres. Un test avec des tableaux de jetons avait montré que les enfants de moins de 7 ans se trompaient. Un autre chercheur utilisant lui des bonbons avait montré que les jeunes enfants choisissaient systématiquement la bonne file. Pour Jensen, l’identification dynamique du contexte n’est pas réductible par la mise en chiffre de la société. Les régularités sociales ne font pas une société déterministe. « Ce n’est pas parce que la sociologie cherche les déterminismes – et trouve des régularités – que tout est déterminé. » Le déterminisme, comme le soulignait déjà le sociologue Bruno Latour est un « faitiche » utile, c’est-à-dire une croyance importante et efficace, mais elle reste un fétiche. Pour Jensen, le Big Data devrait nous aider à développer de la coordination et de l’action commune plutôt que de chercher à nous modéliser et nous simplifier. Force est de constater que nous n’en prenons pas beaucoup la direction hélas.

Les modèles du social que nous construisons par la modélisation présupposent des individus avec peu de caractéristiques. Si c’est utile pour comprendre certains phénomènes, ces réductions ne sont pas parvenues à éclairer des phénomènes complexes. Ces modèles éclairent même parfois qu’une part du problème, occultant par leur réductionnisme intrinsèque d’autres aspects de ce qu’ils tentent d’analyser. Leur fiabilité repose sur la diversité d’une communauté scientifique pluraliste, permettant de mettre en doute et corriger les suppositions et calculs. Mais surtout, conclut Pablo Jensen, derrière la modélisation, s’impose également une vision politique. La modélisation du monde est elle-même un modèle politique : elle suppose souvent que la dynamique de changement doit venir de l’extérieur de la situation plutôt que de la créativité des acteurs impliqués. Au final, la mise en équation de la société repose sur une conception de la société qui ne peut pas faire société.

Hubert Guillaud

À lire aussi sur internetactu.net

3 commentaires

  1. 1. Voilà qui rappelle une controverse resurgie dans les milieux de l’économie en France à la suite de la parution du livre de P. Cahuc et A. Zylberberg : « Le négationnisme économique », https://www.lesechos.fr/idees-debats/editos-analyses/0211282142593-negationnisme-economique-pierre-cahuc-et-andre-zylberberg-repondent-a-la-polemique-2026945.php .
    2. J’ai retrouvé un article d’ « Internet actu », que j’avais commenté (M2H) en évoquant justement « l’affaire Google flu » car j’étais tombé par hasard sur le second article de Nature qui prenait le contre-pied du premier en remettant en cause la pertinence de cette démarche : http://internetactu.blog.lemonde.fr/2013/05/24/big-data-nouvelle-etape-de-linformatisation-du-monde/ .
    J’y soulignais aussi que « les humains réagissent aux modèles de leur activité ».
    Voici un autre commentaire supprimé de cet article: https://www.lesechos.fr/29/09/2015/LesEchos/22033-042-ECH_quand-la-big-pharma-rencontre-le-big-data.htm
    « Il y a effectivement de grands enjeux dans l’exploitation accrue des données de santé à grande échelle, notamment grâce au recueil à partir d’objets connectés. Mais l’article rappelle justement que, dans ce domaine, le décryptage du génome a constitué une avancée majeure, qui devait trouver des applications en matière de diagnostic. D’autre part, les études, notamment menées par les organismes publics, étaient beaucoup plus limitées, et les données rarement croisées avec d’autres, par exemple d’ordre environnemental. Mais, l’exploitation de mégadonnées ne bute pas seulement sur « les obligations légales et les exigences en termes de fiabilité des données fournies ». Les protocoles sont déterminants, et leur validité provient de l’application des traitements aux patients (parfois en bonne santé). Ainsi, il faut préciser que « Google flu trends » ne traitait que des données « conversationnelles ». Une des raisons avancées pour sa défaillance évoque un phénomène bien connu en sociologie, d’interactions entre le chercheur et son objet de recherche, puisqu’une très forte couverture médiatique de la grippe virulente lors de l’hiver 2012/2013 avait suscité un très grand nombre de requêtes sur Google. Pourtant le programme avait été entrepris, au moins dans un premier temps, avec les chercheurs des « Centers for disease control and prevention », comprenant 2700 centres de soins aux Etats-unis. Ce n’est donc pas qu’un problème de collecte, tout au moins semble-t-il complexe de mettre en place des protocoles de suivi à grande échelle dans la « vraie vie ». Ainsi, la cohorte Hepather qui est citée emprunte-t-elle probablement beaucoup à d’anciennes techniques d’observation, d’autant qu’en 2012, on ne parlait de « big data » que dans des milieux d’initiés en France. D’ailleurs, on peut se demander si des mégadonnées permettraient vraiment de répondre beaucoup mieux que des études qualitatives à la question : « Pourquoi les patients ne suivent-ils pas un traitement ? ». Mais les deux approches peuvent être combinées. Les données de prescription enregistrées dans les systèmes de sécurité sociale (SNIIRAM…) sont certainement aussi porteuses de beaucoup d’enseignements, mais elles ne sont pas complètement ignorées par les chercheurs, éventuellement au service des laboratoires. Ce sont donc probablement surtout les « objets connectés » et la dimension mondiale des grands acteurs du numérique qui attirent les labos pharmaceutiques. Mais c’est peut-être l’exploration du corps humain, notamment par des techniques d’imagerie de plus en plus sophistiquées, qui restera la source des plus grandes découvertes. »
    3. Dans le présent article, je lis: « La seconde méthode de prédiction, elle, souligne qu’il est difficile de créer des modèles robustes avec beaucoup de paramètres. ».
    C’est un paradoxe des analyses économiques et sociologiques que l’article met bien en lumière. En effet, le réductionnisme est aussi critiqué de manière récurrente: « Les modèles sociaux ont du mal à être fiables. Ils relèvent le plus souvent d’un séduisant réductionnisme. ».
    En économie, l’incapacité à prédire les crises a été théorisée sous l’expression de « cygne noir » : https://fr.wikipedia.org/wiki/Th%C3%A9orie_du_cygne_noir . Toutefois, si de tels évènements échappent aux statistiques, ils peuvent être partiellement appréhendés par des méthodes faisant appel aux mathématiques, à condition d’intégrer les phénomènes cumulatifs, comme la dynamique des systèmes, en dépit de « La vie sociale ne s’explique pas par l’addition des effets de quelques variables importantes jouant un rôle uniforme, … ». C’est la notion de « rôle uniforme » qui est la plus contestable. De toute façon c’est quand même dans la direction de la sophistication des modèles et de la prise en compte de nombreuses relations qu’il faut progresser. D’ailleurs, dans d’autres domaines, les réseaux de neurones profonds ont justement consisté à ajouter beaucoup de paramètres, avec des limites de calculabilité, et ont permis de franchir des seuils substantiels, par exemple en reconnaissance d’images. Et leur réplicabilité démontre une certaine robustesse.
    4. Un enjeu complémentaire réside dans le passage au calcul par la traduction de dimensions qualitatives en unités quantitatives mesurables, avec une certaine réduction sémantique.

    1. 3. Je complète la phrase « D’ailleurs, dans d’autres domaines, les réseaux de neurones profonds ont justement consisté à ajouter beaucoup de paramètres, avec des limites de calculabilité, et ont permis de franchir des seuils substantiels, par exemple en reconnaissance d’images. » : sauf si la référence est des réseaux complètement connectés.
      1. Il y a heureusement d’autres points de vue que ceux de P. Cahuc et A. Zylberberg : « La science économique est-elle infaillible ? 6 économistes répondent », https://www.lesechos.fr/idees-debats/cercle/0211273995035-la-science-economique-est-elle-infaillible-6-economistes-repondent-2026185.php
      Il y avait aussi des commentaires intéressants de cet article comme du précédent, supprimés ou rendus inaccessibles…A l’heure des « fake news », il ne faudrait pas que la parole des « maîtres » et des « grands oracles » soit polluée.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *